Qbss load что это
Балансировка нагрузки: основные алгоритмы и методы
Вопрос о планировании нагрузки следует решать ещё на ранней стадии развития любого веб-проекта. «Падение» сервера (а оно всегда происходит неожиданно, в самый неподходящий момент) чревато весьма серьёзными последствиями — как моральными, так и материальными. Первоначально проблемы недостаточной производительности сервера в связи ростом нагрузок можно решать путем наращивания мощности сервера, или же оптимизацией используемых алгоритмов, программных кодов и так далее. Но рано или поздно наступает момент, когда и эти меры оказываются недостаточными.
Приходится прибегать к кластеризации: несколько серверов объединяются в кластер; нагрузка между ними распределяется при помощи комплекса специальных методов, называемых балансировкой. Помимо решения проблемы высоких нагрузок кластеризация помогает также обеспечить резервирование серверов друг на друга.
Эффективность кластеризации напрямую зависит от того, как распределяется (балансируется) нагрузка между элементами кластера.
Балансировка нагрузки может осуществляться при помощи как аппаратных, так и программных инструментов. Об основных методах и алгоритмах и балансировки мы бы хотели рассказать в этой статье.
Уровни балансировки
Процедура балансировки осуществляется при помощи целого комплекса алгоритмов и методов, соответствующим следующим уровням модели OSI:
Рассмотрим эти уровни более подробно.
Балансировка на сетевом уровне
Балансировка на сетевом уровне предполагает решение следующей задачи: нужно сделать так, чтобы за один конкретный IP-адрес сервера отвечали разные физические машины. Такая балансировка может осуществляться с помощью множества разнообразных способов.
Балансировка на транспортном уровне
Этот вид балансировки является самым простым: клиент обращается к балансировщику, тот перенаправляет запрос одному из серверов, который и будет его обрабатывать. Выбор сервера, на котором будет обрабатываться запрос, может осуществляться в соответствии с самыми разными алгоритмами (об этом ещё пойдёт речь ниже): путём простого кругового перебора, путём выбора наименее загруженного сервера из пула и т.п.
Иногда балансировку на транспортном уровне сложно отличить от балансировки на сетевом уровне. Рассмотрим следующее правило для сетевого фильтра pf в BSD-системах: так, например, формально тут идет речь про балансировку трафика на конкретном порту TCP (пример для сетевого фильтра pf в BSD-системах):
Речь в нём идет о балансировке трафика на конкретном порту TCP.
Рассмотрим теперь другой пример:
В этом правиле речь о балансировке исходящего трафика на сетевом уровне. В нём не указано ни конкретного порта, ни конкретного протокола.
Различие между уровнями балансировки можно объяснить следующим образом. К сетевому уровню относятся решения, которые не терминируют на себе пользовательские сессии. Они просто перенаправляют трафик и не работают в проксирующем режиме.
На сетевом уровне балансировщик просто решает, на какой сервер передавать пакеты. Сессию с клиентом осуществляет сервер.
На транспортном уровене общение с клиентом замыкается на балансировщике, который работает как прокси. Он взаимодействует с серверами от своего имени, передавая информацию о клиенте в дополнительных данных и заголовках. Таким образом работает, например, популярный программный балансировщик HAProxy.
Балансировка на прикладном уровне
При балансировке на прикладном уровне балансировщик работает в режиме «умного прокси». Он анализирует клиентские запросы и перенаправляет их на разные серверы в зависимости от характера запрашиваемого контента. Так работает, например, веб-сервер Nginx, распределяя запросы между фронтендом и бэкендом. За балансировку в Nginx отвечает модуль Upstream. Более подробно об особенностях балансировки Nginx на основе различных алгоритмов можно прочитать, например, здесь.
В качестве ещё одного примера инструмента балансировки на прикладном уровне можно привести pgpool — промежуточный слой между клиентом и сервером СУБД PostgreSQL. С его помощью можно распределять запросы оп серверам баз данных в зависимости от их содержания,: например, запросы на чтение будут передаваться на один сервер, а запросы на запись — на другой. Подробнее о pgpool и специфике работы с ним можно почитать в этой статье).
Алгоритмы и методы балансировки
Существует много различных алгоритмов и методов балансировки нагрузки. Выбирая конкретный алгоритм, нужно исходить, во-первых, из специфики конкретного проекта, а во-вторых — из целей. которые мы планируем достичь.
В числе целей, для достижения которых используется балансировка, нужно выделить следующие:
Очень желательно также, чтобы алгоритм балансировки обладал следующими свойствами:
Round Robin
Round Robin, или алгоритм кругового обслуживания, представляет собой перебор по круговому циклу: первый запрос передаётся одному серверу, затем следующий запрос передаётся другому и так до достижения последнего сервера, а затем всё начинается сначала.
Самой распространёной имплементацией этого алгоритма является, конечно же, метод балансировки Round Robin DNS. Как известно, любой DNS-сервер хранит пару «имя хоста — IP-адрес» для каждой машины в определённом домене. Этот список может выглядеть, например, так:
С каждым именем из списка можно ассоциировать несколько IP-адресов:
DNS-сервер проходит по всем записям таблицы и отдаёт на каждый новый запрос следующий IP-адрес: например, на первый запрос — xxx.xxx.xxx.2, на второй — ххх.ххх.ххх.3, и так далее. В результате все серверы в кластере получают одинаковое количество запросов.
В числе несомненных плюсов этого алгоритма следует назвать, во-первых, независимость от протокола высокого уровня. Для работы по алгоритму Round Robin используется любой протокол, в котором обращение к серверу идёт по имени.
Балансировка на основе алгоритма Round Robin никак не зависит от нагрузки на сервер: кэширующие DNS-серверы помогут справиться с любым наплывом клиентов.
Использование алгоритма Round Robin не требует связи между серверами, поэтому он может использоваться как для локальной, так и для глобальной балансировки,.
Наконец, решения на базе алгоритма Round Robin отличаются низкой стоимостью: чтобы они начали работать, достаточно просто добавить несколько записей в DNS.
Алгоритм Round Robin имеет и целый ряд существенных недостатков недостатков. Чтобы распределение нагрузки по этому алгоритму отвечало упомянутым выше критериями справедливости и эффективности, нужно, чтобы у каждого сервера был в наличии одинаковый набор ресурсов. При выполнении всех операций также должно быть задействовано одинаковое количество ресурсов. В реальной практике эти условия в большинстве случаев оказываются невыполнимыми.
Также при балансировке по алгоритму Round Robin совершенно не учитывается загруженность того или иного сервера в составе кластера. Представим себе следующую гипотетическую ситуацию: один из узлов загружен на 100%, в то время как другие — всего на 10 — 15%. Алгоритм Round Robin возможности возникновения такой ситуации не учитывает в принципе, поэтому перегруженный узел все равно будет получать запросы. Ни о какой справедливости, эффективности и предсказуемости в таком случае не может быть и речи.
В силу описанных выше обстоятельств сфера применения алгоритма Round Robin весьма ограничена.
Weighted Round Robin
Это — усовершенствованная версия алгоритма Round Robin. Суть усовершенствований заключается в следующем: каждому серверу присваивается весовой коэффициент в соответствии с его производительностью и мощностью. Это помогает распределять нагрузку более гибко: серверы с большим весом обрабатывают больше запросов. Однако всех проблем с отказоустойчивостью это отнюдь не решает. Более эффективную балансировку обеспечивают другие методы, в которых при планировании и распределении нагрузки учитывается большее количество параметров.
Least Connections
В предыдущем разделе мы перечислили основные недостатки алгоритма Round Robin. Назовём ещё один: в нём совершенно не учитывается количество активных на данный момент подключений.
Рассмотрим практический пример. Имеется два сервера — обозначим их условно как А и Б. К серверу А подключено меньше пользователей, чем к серверу Б. При этом сервер А оказывается более перегруженным. Как это возможно? Ответ достаточно прост: подключения к серверу А поддерживаются в течение более долгого времени по сравнению с подключениями к серверу Б.
Описанную проблему можно решить с помощью алгоритма, известного под названием least connections (сокращённо — leastconn). Он учитывает количество подключений, поддерживаемых серверами в текущий момент времени. Каждый следующий вопрос передаётся серверу с наименьшим количеством активных подключений.
Существует усовершенствованный вариант этого алгоритма, предназначенный в первую очередь для использования в кластерах, состоящих из серверов с разными техническими характеристиками и разной производительностью. Он называется Weighted Least Connections и учитывает при распределении нагрузки не только количество активных подключений, но и весовой коэффициент серверов.
В числе других усовершенствованных вариантов алгоритма Least Connections следует прежде всего выделить Locality-Based Least Connection Scheduling и Locality-Based Least Connection Scheduling with Replication Scheduling.
Первый метод был создан специально для кэширующих прокси-серверов. Его суть заключается в следующем: наибольшее количество запросов передаётся серверам с наименьшим количеством активных подключений. За каждым из клиентских серверов закрепляется группа клиентских IP. Запросы с этих IP направляются на «родной» сервер, если он не загружен полностью. В противном случае запрос будет перенаправлен на другой сервер (он должен быть загружен менее чем наполовину).
В алгоритме Locality-Based Least Connection Scheduling with Replication Scheduling каждый IP-адрес или группа IP-адресов закрепляется не за отдельным сервером, а за целой группой серверов. Запрос передаётся наименее загруженному серверу из группы. Если же все серверы из «родной» группы перегружены, то будет зарезервирован новый сервер. Этот новый сервер будет добавлен к группе, обслуживающей IP, с которого был отправлен запрос. В свою очередь наиболее загруженный сервер из этой группы будет удалён — это позволяет избежать избыточной репликации.
Destination Hash Scheduling и Source Hash Scheduling
Алгоритм Destination Hash Scheduling был создан для работы с кластером кэширующих прокси-серверов, но он часто используется и в других случаях. В этом алгоритме сервер, обрабатывающий запрос, выбирается из статической таблицы по IP-адресу получателя.
Алгоритм Source Hash Scheduling основывается на тех же самых принципах, что и предыдущий, только сервер, который будет обрабатывать запрос, выбирается из таблицы по IP-адресу отправителя.
Sticky Sessions
Sticky Sessions — алгоритм распределения входящих запросов, при котором соединения передаются на один и тот же сервер группы. Он используется, например, в веб-сервере Nginx. Сессии пользователя могут быть закреплены за конкретным сервером с помощью метода IP hash (подробную информацию о нём см. в официальной документации). С помощью этого метода запросы распределяются по серверам на основе IP-aдреса клиента. Как указано в документации (см. ссылку выше), «метод гарантирует, что запросы одного и того же клиента будет передаваться на один и тот же сервер». Если закреплённый за конкретным адресом сервер недоступен, запрос будет перенаправлен на другой сервер. Пример фрагмента конфигурационного файла:
Начиная с версии 1.2.2 в Nginx для каждого сервера можно указывать вес.
Применение этого метода сопряжено с некоторыми проблемами. Проблемы с привязкой сессий могут возникнуть, если клиент использует динамический IP. В ситуации, когда большое количество запросов проходит через один прокси-сервер, балансировку вряд ли можно назвать эффективной и справедливой. Описанные проблемы, однако, можно решить, используя cookies. В коммерческой версии Nginx имеется специальный модуль sticky, который как раз использует cookies для балансировки. Есть у него и бесплатные аналоги — например, nginx-sticky-module.
Можно использовать метод sticky-sessions и в HAProxy — подробнее об этом можно прочитать, например, здесь.
Заключение
Эта статья по сути представляет собой введение в проблематику балансировки нагрузки. Обсуждение этой темы мы продолжим и в дальнейших публикациях. Если у вас есть вопросы, замечания и дополнения — добро пожаловать в комментарии. Будем также признательны, если вы поделитесь нетривиальными практическими примерами организации балансировки нагрузки для различных проектов.
Читателей, которые по тем или иным причинам не могут оставлять комментарии здесь, приглашаем в наш блог.
Как разогнать процессор Intel на примере Intel Core i9-9900K
Содержание
Содержание
Разгон процессоров от компании Intel в первую очередь связан с выбором процессора с индексом K или KF (К — означает разблокированный множитель) и материнской платы на Z-чипсете (Z490–170). А также от выбора системы охлаждения.
Чтобы понять весь смыл разгона, нужно определиться, что вы хотите получить от разгона. Стабильной работы и быть уверенным, что не вылезет синий экран смерти? Или же вам нужно перед друзьями пощеголять заветной частотой 5000–5500 MHz?
Сегодня будет рассмотрен именно первый вариант. Стабильный разгон на все случаи жизни, однако и тем, кто выбрал второй вариант, будет полезно к прочтению.
Выбор материнской платы
К разгону нужно подходить очень ответственно и не пытаться разогнать Core i9-9900K на материнских платах, которые не рассчитаны на данный процессор (это, к примеру, ASRock Z390 Phantom Gaming 4, Gigabyte Z390 UD, Asus Prime Z390-P, MSI Z390-A Pro и так далее), так как удел этих материнских плат — процессоры Core i5 и, возможно, Core i7 в умеренном разгоне. Intel Core i9-9900K в результате разгона и при серьезной постоянной нагрузке потребляет от 220 до 300 Ватт, что неминуемо вызовет перегрев цепей питания материнских плат начального уровня и, как следствие, выключение компьютера, либо сброс частоты процессора. И хорошо, если просто к перегреву, а не прогару элементов цепей питания.
Выбор материнской платы для разгона — это одно из самых важных занятий. Ведь именно функционал платы ее настройки и качество элементной базы и отвечают за стабильность и успех в разгоне. Ознакомиться со списком пригодных материнских плат можно по ссылке.
Все материнские платы разделены на 4 группы: от начального уровня до продукта для энтузиастов. По большому счету, материнские платы второй и, с большой натяжкой, третьей группы хорошо справятся с разгоном процессора i9-9900K.
Выбор системы охлаждения
Немаловажным фактором успешного разгона является выбор системы охлаждения. Как я уже говорил, если вы будете разгонять на кулере который для этого не предназначен, у вас ничего хорошего не получится. Нам нужна либо качественная башня, способная реально отводить 220–250 TDP, либо жидкостная система охлаждения подобного уровня. Здесь все зависит только от бюджета.
Из воздушных систем охлаждения обратить внимание стоит на Noctua NH-D15 и be quiet! DARK ROCK PRO 4.
Силиконовая лотерея
И третий элемент, который участвует в разгоне — это сам процессор. Разгон является лотереей, и нельзя со 100% уверенностью сказать, что любой процессор с индексом К получится разогнать до частоты 5000 MHz, не говоря уже о 5300–5500 MHz (имеется в виду именно стабильный разгон). Оценить шансы на выигрыш в лотерее можно, пройдя по ссылке, где собрана статистика по разгону различных процессоров.
Приступаем к разгону
Примером в процессе разгона будет выступать материнская плата ASUS ROG MAXIMUS XI HERO и процессор Intel Core i9-9900K. За охлаждение процессора отвечает топовый воздушный кулер Noctua NH-D15.
Первым делом нам потребуется обновить BIOS материнской платы. Сделать это можно как напрямую, из специального раздела BIOS с подгрузкой из интернета, так и через USB-накопитель, предварительно скачав последнюю версию c сайта производителя. Это необходимо, потому как в новых версиях BIOS уменьшается количество багов. BIOS, что прошит в материнской плате при покупке, скорее всего, имеет одну из самых ранних версий.
Тактовая частота процессора формируется из частоты шины BCLK и коэффициента множителя Core Ratio.
Как уже было сказано, разгон будет осуществляться изменением множителя процессора.
Заходим в BIOS и выбираем вкладку Extreme Tweaker. Именно тут и будет происходить вся магия разгона.
Первым делом меняем значение параметра Ai Overclocker Tuner с Auto в Manual. У нас сразу становятся доступны вкладки, отвечающие за частоту шины BCLK Frequency и CPU Core Ratio, отвечающая за возможность настройки множителя процессора.
ASUS MultiCore Enhancement какой-либо роли, когда Ai Overclocker Tuner в режиме Manual, не играет, можно либо не трогать, либо выключить, чтобы глаза не мозолило. Одна из уникальных функций Asus, расширяет лимиты TDP от Intel.
SVID Behavior — обеспечивает взаимосвязь между процессором и контроллером напряжения материнской платы, данный параметр используется при выставлении адаптивного напряжения или при смещении напряжения (Offset voltages). Начать разгон в любом случае лучше с фиксированного напряжения, чтобы понять, что может конкретно ваш экземпляр процессора, ведь все они уникальны. Если используется фиксация напряжения, значение этого параметра просто игнорируется. Установить Best Case Scenario. Но к этому мы еще вернемся чуть позже.
AVX Instruction Core Ratio Negative Offset — устанавливает отрицательный коэффициент при выполнении AVX-инструкций. Программы, использующие AVX-инструкции, создают сильную нагрузку на процессор, и, чтобы не лишаться заветных мегагерц в более простых задачах, придумана эта настройка. Несмотря на все большее распространение AVX-инструкции, в программах и играх они встречаются все еще редко. Все сугубо индивидуально и зависит от задач пользователя. Я использую значение 1.
Наример, если нужно, чтобы частота процессора при исполнении AVX инструкций была не 5100 MHz, а 5000 MHz, нужно указать 1 (51-1=50).
Далее нас интересует пункт CPU Core Ratio. Для процессоров с индексом K/KF выбираем Sync All Cores (для всех ядер).
1-Core Ratio Limit — именно тут и задается множитель для ядер процессора. Начать лучше с 49–50 для 9 серии и 47–48 для 8 серии процессоров Intel соответственно, с учетом шины BCLK 100 мы как раз получаем 4900–5000 MHz и 4700–4800 MHz.
DRAM Frequency — отвечает за установку частоты оперативной памяти. Но это уже совсем другая история.
CPU SVID Support — данный параметр необходим процессору для взаимодействия с регулятором напряжения материнской платы. Блок управления питанием внутри процессора использует SVID для связи с ШИМ-контроллером, который управляет регулятором напряжения. Это позволяет процессору выбирать оптимальное напряжение в зависимости от текущих условий работы. В адаптивном режиме установить в Auto или Enabled. При отключении пропадет мониторинг значений VID и потребляемой мощности.
CPU Core/Cache Current Limit Max — лимит по току в амперах (A) для процессорных ядер и кэша. Выставляем 210–220 A. Этого должно хватить всем даже для 9900к на частоте 5100MHz. Максимальное значение 255.75.
Min/Max CPU Cache Ratio — множитель кольцевой шины или просто частота кэша. Для установки данного параметра есть неофициальное правило, множитель кольцевой шины примерно на два–три пункта меньше, чем множитель для ядер.
Например, если множитель для ядер 51, то искать стабильность кэша нужно от 47. Все очень индивидуально. Начать лучше с разгона только ядер. Если ядро стабильно, можно постепенно повышать частоту кэша на 1 пункт.
Разгон кольцевой шины в значении 1 к 1 с частотой ядер это идеальный вариант, но встречается такое очень редко на частоте 5000 MHz.
Заходим в раздел Internal CPU Power Management для установки лимитов по энергопотреблению.
SpeedStep — во время разгона, выключаем. На мой взгляд, совершенно бесполезная функция в десктопных компьютерах.
Long Duration Packet Power Limit — задает максимальное энергопотребление процессора в ватах (W) во время долгосрочных нагрузок. Выставляем максимум — 4095/6 в зависимости от версии Bios и производителя.
Short Duration Package Power Limit — задает максимальное возможное энергопотребление процессором в ваттах (W) при очень кратковременных нагрузках. Устанавливаем максимум — 4095/6.
Package Power Time Window — максимальное время, в котором процессору разрешено выходить за установленные лимиты. Устанавливаем максимальное значение 127.
Установка максимальных значений у данных параметров отключает все лимиты.
IA AC Load Line/IA DC Load Line — данные параметры используются в адаптивном режиме установки напряжения, они задают точность работы по VID. Установка этих двух значений на 0,01 приведет ближе к тому напряжению, которое установил пользователь, при этом минимизируются пики. Если компьютер, после установки параметра IA DC Load line в значение 0,01, уходит в «синьку», рекомендуется повысить значение до 0,25. Фиксированное напряжение будет игнорировать значения VID процессора, так что установка IA AC Load Line/IA DC Load Line в значение 0,01 не будет иметь никакого влияния на установку ручного напряжения, только при работе с VID. На материских платах от Gigabyte эти параметры необходимо устанавливать в значение 1.
Возвращаемся в меню Extrime Tweaker для выставления напряжения.
BCLK Aware Adaptive Voltage — если разгоняете с изменением значения шины BCLK, — включить.
CPU Core/Cache Voltage (VCore) — отвечает за установку напряжения для ядер и кэша. В зависимости от того, какой режим установки напряжения вы выберете, дальнейшие настройки могут отличаться.
Существует три варианта установки напряжения: адаптивный, фиксированный и смещение. На эту тему много мнений, однако, в моем случае, адаптивный режим получается холоднее. Зачастую для 9 поколения процессоров Intel оптимальным напряжением для использования 24/7 является 1.350–1.375V. Подобное напряжение имеет место выставлять для 9900К при наличии эффективного охлаждения.
Поднимать напряжение выше 1.4V для 8–9 серии процессоров Intel совершенно нецелесообразно и опасно. Рост потребления и температуры не соразмерен с ростом производительности, которую вы получите в результате такого разгона.
Offset mode Sign — устанавливает, в какую сторону будет происходить смещение напряжения, позволяет добавлять (+) или уменьшать (-) значения к выставленному вольтажу.
Additional Turbo Mode CPU Core Voltage — устанавливает максимальное напряжение для процессора в адаптивном режиме. Я использую 1.350V, данное напряжение является некой золотой серединой по соотношению температура/безопасность.
Offset Voltage — величина смещения напряжения. У меня используется 0.001V, все очень индивидуально и подбирается во время тестирования.
DRAM Voltage — устанавливает напряжение для оперативной памяти. Условно безопасное значение при наличии радиаторов на оперативной памяти составляет 1.4–1.45V, без радиаторов до 1.4V.
CPU VCCIO Voltage (VCCIO) — устанавливает напряжение на IMC и IO.
CPU System Agent Voltage (VCCSA) — напряжение кольцевой шины и контроллера кольцевой шины.
Таблица с соотношением частоты оперативной памяти и напряжениями VCCIO и VCCSA:
Однако, по личному опыту, даже для частоты 4000 MHz требуется напряжение примерно 1.15V для VCCIO и 1.2V для VCCSA. На мой взгляд, разумным пределом является для VCCIO 1.20V и VCCSA 1.25V. Все что выше, должно быть оправдано либо частотой разгона оперативной памяти за 4000MHz +, либо желанием получить максимум на свой страх и риск.
Часто при использовании XMP профиля оперативной памяти параметры VCCIO и VCCSA остаются в значении Auto, тем самым могут повыситься до критических показателей, это, в свою очередь, чревато деградацией контроллера памяти с последующим выхода процессора из строя.
Установка LLC
LLC (Load-Line Calibration) В зависимости от степени нагрузки на процессор, напряжение проседает, это называется Vdroop. LLC компенсирует просадку напряжения (vCore) при высокой нагрузке. Но есть определенные особенности работы с LLC.
Например, мы установили фиксированное напряжение в BIOS для ядер 1.35V. После старта компьютера на рабочем столе мы видим уже не 1.35V, а 1.32V. Но, если запустим более требовательное к ресурсам процессора приложение, например Linx, напряжение может провалиться до 1.15V, и мы получим синий экран или «невязки», ошибки или выпадение ядер.
Чтобы напряжение проседало не так сильно и придумана функция LLC c разным уровнем компенсации просадки. Не стоит сразу гнаться за установкой самого высокого/сильного уровня компенсации. В этом нет никакого смысла. Это может быть даже опасно ввиду чрезвычайно завышенного напряжения (overshoot) в момент запуска и прекращения ресурсоемкой нагрузки перед и после Vdroop. Нужно оптимально подобрать выставленное напряжение с уровнем LLC. Напряжение под нагрузкой и должно проседать, но должна оставаться стабильность. Конкретно у меня в BIOS материнской платы стоит 1.35V c LLC 5. Под нагрузкой напряжение опускается до 1.19–1.21V, при этом процессор остается абсолютно стабильным под длительной и серьезной нагрузкой. Завышенное напряжение выливается в большем потреблении и, как следствие, более высоких температурах.
Например, при установке LCC 6 с напряжением 1.35V во время серьезной нагрузки напряжение проседает до 1.26V, при этом справиться с энергопотреблением и температурой с использованием воздушной системы охлаждения уже нет возможности.
Чтобы наглядно изучить процесс работы LLC и то, какое влияние оказывает завышенный LLC на Overshoot’ы, предлагаю ознакомиться с работами elmora, более подробно здесь.
Идеальным вариантом, с точки зрения Overshoot’ов, является использование LLC в значении 1 (самое слабое на платах Asus), однако добиться стабильности с таким режимом работы LLC во время серьезной нагрузки будет сложно, как выход, существенное завышенное напряжение в BIOS. Что тоже не очень хорошо.
Пример использовании LLC в значении 8 (самое сильно на платах Asus)
При появлении нагрузки на процессоре напряжение просело, но потом в работу включается LLC и компенсирует просадку, причем делая это настолько агрессивно, что напряжение на мгновение стало даже выше установленного в BIOS.
В момент прекращения нагрузки мы видим еще больший скачок напряжения (Overshoot), а потом спад, работа LLC прекратилась. Вот именно эти Overshoot’ы, которые значительно превышают установленное напряжение в BIOS, опасны для процессора. Какого-либо вреда на процессор Undershoot и Vdroop не оказывают, они лишь являются виновниками нестабильности работы процессора при слишком сильных просадках.
CPU Current Capability — увеличивает допустимое значение максимального тока, подаваемого на процессор. Сильно не увлекайтесь, с увеличением растет так же и температура. Оптимально на 130–140%
VRM Spread Spectrum — лучше выключить и кактус у компьютера поставить, незначительное уменьшение излучения за счет ухудшения сигналов да и шина BLCK скакать не будет.
Все остальные настройки нужны исключительно для любителей выжимать максимум из своих систем любой ценой.
Проверка стабильности
После внесения всех изменений, если компьютер не загружается, необходимо повысить напряжение на ядре или понизить частоту. Когда все же удалось загрузить Windows, открываем программу HWinfo или HWMonitor для мониторинга за состоянием температуры процессора и запускаем Linx или любую другую программу для проверки стабильности и проверяем, стабильны ли произведенные настройки. Автор пользуется для проверки стабильности разгона процессора программами Linx с AVX и Prime95 Version 29.8 build 6.
Если вдруг выявилась нестабильность, то повышаем напряжение в пределах разумного и пробуем снова. Если стабильности не удается добиться, понижаем частоту. Все значения частоты и напряжения сугубо индивидуальны, и дать на 100 % верные и подходящие всем значения нельзя. Как уже писалось, разгон — это всегда лотерея, однако, купив более качественный продукт, шанс выиграть всегда будет несколько выше.
Резюмируем все выше сказанное
Максимально допустимое напряжение на процессор составляет до 1.4V. Оптимально в пределах 1.35V, со всем что выше, возникают трудности с температурой под нагрузкой.
Существует 3 способа установки напряжения:
Adaptive mode — это предпочтительный способ для установки напряжения.
Он работает с таблицей значений VID вашего процессора и позволяет снижать напряжение в простое.
Оптимально найти стабильное напряжение в фиксированном режиме, потом выставить адаптивный режим и вбить это знание для адаптивного режима, далее выставить величину смещения по необходимости.
При разгоне оперативной памяти и использовании XMP профиля, необходимо контролировать напряжение на CPU VCCIO Voltage (VCCIO) и CPU System Agent Voltage (VCCSA).
Подобрать оптимальный уровень работы LLC, VDROOP ДОЛЖЕН БЫТЬ.
Название и принцип работы LLC у разных производителей