Все описанное ниже справедливо не только по отношению к видеоиграм, но и приложениям, прожорливым в плане потребления вычислительных мощностей компьютера, в частности, видеоадаптера — например, видеоредакторов, навороченных графических редакторов с множеством плагинов (привет, Фотошоп!) или программ для 3D моделирования.

Графический процессор обрабатывает изображение в многопоточном режиме. Промежуточные результаты этих вычислений хранятся в видеопамяти. Соответственно, если у одной видеокарты в 2 раза меньше ее объем, то и информации она меньше запоминает.

От скорости работы видеопамяти зависит, насколько быстро процессор запишет в нее все необходимые данные. В современных видеокартах используется видеопамять типа GDDR5 и GDDR6(но есть, и по круче). Принцип работы у нее такой же, как у обычной RAM, однако скорость работы выше в несколько раз.

Графический процессор

Для начала скажем несколько слов о предмете нашего обсуждения – графическом процессоре. GPU – это устройство, которое выполняет просчёт (рендеринг) графики, то есть принимает самое активное участие, при построении изображения. За счёт особенностей архитектуры графический процессор гораздо эффективнее справляется с задачами по обработке графики, нежели центральные процессоры. GPU может быть реализован в составе видеокарты или в гибридных процессорах (интегрированный на кристалл процессора), реже может быть в составе северного моста на материнской плате .

Типы памяти

Все современные типы памяти DDR и GDDR позволяют передавать в два раза большее количество данных на той же тактовой частоте за единицу времени, поэтому цифру её рабочей частоты зачастую указывают удвоенной (умножают на два). Так, если для DDR памяти указана частота 1400 МГц, то эта память работает на физической частоте в 700 МГц, но указывают так называемую «эффективную» частоту, то есть ту, на которой должна работать SDR память, чтобы обеспечить такую же пропускную способность.

Основное преимущество DDR2 памяти заключается в возможности работы на больших тактовых частотах, а соответственно — увеличении пропускной способности по сравнению с предыдущими технологиями. Это достигается за счет увеличенных задержек, которые, впрочем, не так важны для видеокарт.

GDDR3 — это специально предназначенная для видеокарт память, с теми же технологиями, что и DDR2, но с улучшениями характеристик потребления и тепловыделения, что позволило создать микросхемы, работающие на более высоких тактовых частотах. И опять же, несмотря на то, что стандарт был разработан в ATI, первой видеокартой, ее использующей, стала вторая модификация NVIDIA GeForce FX 5700 Ultra, а следующей стала GeForce 6800 Ultra.

Ну а GDDR4 — это последнее поколение «графической» памяти, работающее почти в два раза быстрее, чем GDDR3. Основными отличиями GDDR4 от GDDR3, существенными для пользователей, являются в очередной раз повышенные рабочие частоты и сниженное энергопотребление. Технически, память GDDR4 не сильно отличается от GDDR3, это дальнейшее развитие тех же идей.

Итак, видеопамять самых современных типов: GDDR3 и GDDR4, отличается от DDR некоторыми деталями, но также работает с удвоенной передачей данных. В ней применяются некоторые специальные технологии, позволяющие поднять частоту работы. Так, GDDR2 память обычно работает на более высоких частотах, по сравнению с DDR, GDDR3 — на еще более высоких, ну а GDDR4 обеспечивает максимальную частоту и пропускную способность.

1. Узнайте производителя видеопамяти

Посмотрите в приложении GPU-Z производителя видеопамяти. Средняя статистика разгона GDDR5 памяти на видеокартах NVIDIA Pascal (GTX 1000 серия):

  • Samsung разгоняются на +700 и более мегагерц;
  • Micron прибавит от +500МГц;
  • Hynix, к сожалению, часто разгоняется всего на 200-400МГц.

Вне зависимости от производителя вам может повезти чуть больше или чуть меньше. Ориентируйтесь на значения выше, как на пример.

2. Запустите стресс-тест

Запустите стресс-тест в программе FurMark. Он нагрузит видеокарту на 100%. Это позволит вам проверить стабильность карты в боевых условиях.

3. Последовательно поднимайте частоту памяти

Для разгона видеокарт рекомендуем программу MSI Afterburner. Она работает со всеми видеокартами от любых производителей.

Незначительно поднимите частоту видеопамяти на 50МГц и примените настройки. Повторите этот шаг несколько раз. В какой-то момент вы заметите один или несколько симптомов нестабильной работы и переразгона:

  • Визуальные артефакты на экране;
  • Windows закроет стресс-тест;
  • Появится уведомление, что видеодрайвер перестал отвечать;
  • Экран станет полностью белым или полностью чёрным;
  • Синий экран смерти.

Не волнуйтесь! По умолчанию MSI Afterburner не запускается вместе с Windows и не применяет автоматически настройки при следующем запуске компьютера. После перезагрузки компьютер будет работать на стандартных частотах.

Запомните частоту, на который вы столкнулись с нестабильностью и выставьте частоту на 50МГц ниже. Например, если вы поставили +620МГц и заметили визуальные артефакты, то понизьте частоту до +570МГц.

4. Проверьте стабильность майнинга

Оставьте компьютер майнить непрерывно минимум на сутки и проверьте стабильность по чеклисту:

  • Компьютер не перезагружается самостоятельно и не зависает в произвольные моменты;
  • График загрузки видеокарты ровный, без резкий скачков;
  • Отображаемая доходность стабильна — нет резких скачков между 5₽/день и 50₽/день, например;
  • Фактическая доходность за 3-7 дней совпадает с прогнозируемой.
Читайте также: 

Если не получается выполнить все пункты, уменьшите разгон ещё на 50МГц.

Уменьшайте разгон при любых подозрениях на нестабильную работу компьютера или при несовпадении начислений. Переразгон — самая частая причина нестабильного майнинга и несовпадающей доходности.

Немного о пропускной способности памяти

Видеокарты находятся в экстремальной зависимости от скорости памяти. Не припоминается случая, чтобы на рынке видеокарту, сперва выходившую с актуальной памятью GDDR5, со временем подменили на «обрубок» с памятью DDR4. Хотя за всю историю индустрии бывали случаи, когда производители устанавливали на видеокарты память большего объема, но более старого типа, с низкой пропускной способностью. И тем самым вводили в заблуждение потребителей. Так уж устроены геймеры, что почему-то в первую очередь смотрят именно на объем памяти, а не на ее частоту или ширину шины. Хотя это — одни из самых важных параметров, которые влияют на производительность.

На заре компьютерной индустрии производители видеокарт особо не выбирали, какую память им использовать для своих устройств: скорость традиционной оперативной памяти их вполне устраивала. Но со временем росли разрешения мониторов, усложнялась графика и улучшались текстуры. Скоростей ОЗУ для подпитки видеокарт данными для обработки уже было недостаточно. От DDR2-памяти со временем отпочковалась GDDR3 (Graphics Double Data Rate). Впервые в коммерческом продукте ее использовали в видеокарте от NVIDIA в 2004 году. Технологической базой для данного типа памяти стала оперативная память DDR2, но с уменьшенными требованиями по питанию, рассеиванию тепла и соответствующая требованиям работы с графикой. Этот тип памяти применялся в видеокартах как для компьютеров, так и для консолей актуального поколения (PS3, Xbox 360, Wii).

Частоты видеопамяти росли, появилась GDDR4 (не получила широкого распространения), а затем в 2008 году — и GDDR5. С тех пор особых прорывов не было. Например, нынешняя GTX 1070 с этим типом памяти при шине в 256 бит демонстрирует пропускную способность в 256 ГБ/с. Лишь в 2016 году для топовых решений NVIDIA (GeForce GTX 1080) были задействованы чипы памяти GDDR5X, которые вдвое превзошли предшественника по пропускной способности. Таким образом, флагманы GeForce GTX 1080 Ti и GTX 1080 демонстрируют скорость памяти на уровне 484 ГБ/с (шина — 352 бита) и 320 ГБ/с (шина — 256 бит) соответственно.

Ширина шины памяти в данном случае — это ширина канала, который соединяет память и графический процессор. Битностью характеризуется возможность этого мостика подавать процессору как можно больше данных за единицу времени. Чем больше шина, тем производительнее и дороже будет видеокарта.

DDR4, в свою очередь, отлично чувствует себя как оперативная память, но ее пропускная способность в качестве графической памяти оставляет желать лучшего. Это практически технологии давно ушедших дней, сравнимые по производительности с памятью DDR3 в бюджетных видеокартах GeForce 600-й или 700-й серии.

Благодарим за предоставленные комплектующие интернет-магазин Socket.by

Читайте также:

Наш канал в Telegram. Присоединяйтесь!

Быстрая связь с редакцией: читайте паблик-чат Onliner и пишите нам в Viber!

Видеопамять или GDDR – это своеобразный буфер, где временно хранятся обрабатываемые данные и изображение, которое будет выводиться на экран после незначительных изменений. Новые устройства комплектуются памятью стандарта GDDR3-GDDR5 объемом от 512 МБ, чаще 1 ГБ до 8-11 ГБ у топовых геймерских, профессиональных видеокартах, устройствах для майнинга. Частота видеопамяти может достигать 11 ГГц.

При разнице в объеме видеопамяти в два раза в разных моделях одной видеокарты отличие в производительности будет равняться нескольким процентам при существенных различиях в цене. Не стоит гнаться за гигабайтами, они мало что значат для графического ускорителя. Объем видеопамяти, для большинства видеокарт средней ценовой категории находится на уровне 3-4 ГБ, для топовых – это 8 ГБ и даже 11 ГБ.

На главную

Здравствуйте.
Случилась проблема. Взял на время Б/Ушную видеокарту AMD Radeon HD 6450. Поставил драйвера, вроде работает. Запустил пару игр для проверки — результат не оправдал надежд. Не очень разочаровался, стал дальше ставить другие игры (чисто ради интереса, что сможет потянуть из своего любимого). Но вот странность, даже те игры, которые с достаточно высокими настройками графики должны идти без просадки ФПС идут с «тормозами». Меня это удивило. Стал я рыться в интернете ради поиска спецификации данной карточки. Вот краткие сведения:

(обратите внимание на подчеркнутый пункт, пожалуйста)

Название видеопроцессора: Radeon HD 6450;
Технологический процесс: 40 нм;
Базовая частота видеочипа: 625 МГц;
Количество универсальных процессоров: 160;
Объем видеопамяти: 1 Гб;
Тип памяти: GDDR3;
Эффективная частота памяти: 1334 МГц ;
Разрядность шины памяти: 64 бит;
Максимальная пропускная способность памяти: 10.6 Гбайт/сек.

Теперь же, самое интересное: стресс тесты и информация о видеокарте двух разных программ (скриншоты)

В чём может быть проблема и как её решить? Помогите,пожалуйста.

Зависимость частоты процессора от количества ядер

Фактически число или количество ядер на частоту никакого влияния не оказывает. Однако, есть некоторые особенности работы многоядерных систем, связанные с этим. Вообще-то изначально многоядерность планировалась, как дальнейшее достижение всё большей производительности. Но со временем стало понятно, что быстродействие современных ЦП в тривиальных задачах и так более, чем достаточное.

Читайте также:  Исправление остановки службы печати в Windows 7

И на первое место в большем количестве задач стали выходить не сколько вопросы производительности, сколько вопросы энергосбережения. Последние требовали снижения частоты, поскольку, как показала практика, чаще снизить частоту выгоднее, чем поддерживать её в каком-то постоянном значении.

До 2015 года все многоядерные ЦП имели единые значения скорости работы для каждого ядра. И только появление в 2015 году семейства Skylake позволило устанавливать для каждого ядра своё быстродействие. Для всех последующих поколений (шестое и более поздние) понижать или повышать частоты можно для каждого ядра в отдельности. Методы, как понизить частоту или повысить её для каждого ядра в отдельности, такие же, как и для процессора в целом. Современные твикеры позволяют вести тонкую настройку частоты каждого ядра.

То есть теперь вопрос, что важнее: скорость или потребление решается уже на уровне ядра.

⇡#Методика тестирования и стенд

Во время всех испытаний использовалась платформа LGA1151-v2 вместе с процессором Core i9-9900K, который при загрузке всех 8 ядер работает на частоте 4,7 ГГц. В стенде менялись только видеокарты, они были предоставлены компьютерным магазином «Регард». Полный перечень комплектующих представлен в таблице.

Конфигурация тестового стенда
CPU Intel Core i9-9900K, 8 ядер и 16 потоков, 3,6 (5,0) ГГц
Видеокарты Palit GeForce GTX 1050 StormX, 2 Гбайт
Palit GeForce GTX 1050 Ti StormX, 4 Гбайт
ASUS PH-GTX1060-3G, 3 Гбайт
Palit GeForce GTX 1070 Ti Dual, 8 Гбайт
KFA2 GeForce GTX 1080 Ti EXOC, 11 Гбайт
Palit GeForce RTX 2060 GamingPro, 6 Гбайт
Palit GeForce RTX 2080 Ti Dual, 11 Гбайт
PowerColor Radeon RX 570, 4 Гбайт
AMD Radeon RX Vega 56, 8 Гбайт
ASRock Radeon RX 570 Phantom Gaming D OC, 8 Гбайт
Inno3D GeForce RTX 2080 X2 OC, 8 Гбайт
GIGABYTE GeForce GTX 1660, 6 Гбайт
Материнская плата ASUS ROG STRIX Z390-E GAMING
Оперативная память G.Skill Trident Z F4-3200C14D-32GTZ, DDR4-3200, 2 × 16 Гбайт
Накопитель Samsung 850 Pro
Блок питания Corsair AX1500i, 1500 Вт
Система охлаждения CPU NZXT Kraken X62
Корпус Открытый стенд
Монитор NEC EA244UHD
Операционная система Windows 10 Pro x64
ПО для видеокарт
NVIDIA GeForce Game Ready Driver 419.35
AMD Adrenalin 2019 Edition 19.3.3 Optional

Еще раз напомню, что у каждой видеокарты есть свое предназначение. Я сейчас утрирую, конечно, но нет смысла использовать GeForce RTX 2060 в разрешении Ultra HD, а потом жаловаться: «Ох, как же так, устройству явно не хватает видеопамяти». Пусть каждый игровой ускоритель занимается своим делом.

Видеокарты, используемые в тесте
Full HD WQHD Ultra HD
AMD Radeon RX 570 4 Гбайт;
Radeon RX 570 8 Гбайт
Radeon RX Vega 56 8 Гбайт Radeon VII 16 Гбайт
NVIDIA GeForce GTX 1050 Ti 4 Гбайт;
GeForce GTX 1060 3 Гбайт;
GeForce GTX 1660 6 Гбайт
GeForce GTX 1070 Ti;
GeForce RTX 2060 6 Гбайт
GeForce GTX 1080 Ti 11 Гбайт;
GeForce RTX 2080 8 Гбайт;
GeForce RTX 2080 Ti 11 Гбайт

Ниже в таблице приведены список игр и перечень первоначальных (ключевое слово) настроек. Как видите, в большинстве случаев используются опции, близкие к максимальным. Однако в ряде случаев выставлялись не максимальные режимы сглаживания.

Игры
Название Качество графики Сглаживание API
The Witcher III: Wild Hunt, Новиград и окрестности Конфигурация — «Запредельное», NVIDIA HairWorks — макс., постобработка — макс., HBAO+ АА DirectX 11
GTA V, черта города Макс. качество графики, дополнительные настройки качества — вкл., масштаб разрешения изображения — выкл., 16 × AF FXAA + 4 × MSAA
FarCry 5, начало игры, отрезок до падения машины с моста Конфигурация — «Максимум», HD-текстуры — вкл. TAA
Assassin’s Creed Odyssey, остров Кефалиния Конфигурация — «Самое высокое» Высокое
Watch_Dogs 2, Сан-Франциско и окрестности Конфигурация — «Ультра», HBAO+, тень от объектов в свете фар — 4 машины, HD-текстуры — вкл. Временная фильтрация MSAA × 2, SMAA
Final Fantasy XV, бенчмарк Максимальное качество, все «плюшки» NVIDIA — выкл., DLSS — выкл. TAA
Shadow of the Tomb Raider, начало игры Максимальное качество SMAA4x DirectX 12
Deus Ex: Mankind Divided, комплекс «Утулек» Максимальное качество MSSA × 2
Battlefield V, миссия «Последний тигр» Конфигурация — «Ультра», DXR — выкл. TAA High
Metro Exodus, Волга Конфигурация — «Экстрим», NVIDIA HairWorks — вкл., PhysX — выкл., DXR — выкл. TAA

Производительность в играх определялась при помощи хорошо известной программы MSI Afterburner с частотой опроса 100 мс. Показатели «0,1 % min» и «1 % min» (99,9-я и 99-я перцентили) — это число FPS, которое выше измеренного с вероятностью 99,9% и 99%. По сути, это оценка минимального FPS без учета аномальных отклонений.

Читайте также:  Проводник постоянно перезапускается Windows 7 что делать

А еще мы не просто так изучали игры на предмет максимального потребления видеопамяти в них. В результате нет смысла тестировать некоторые видеокарты в определенных играх и разрешениях. Так, для Ultra HD «годными» графическими адаптерами считаются устройства с 8, 11 и 16 Гбайт. Естественно, в списке игр должны значиться игры, которые в этом разрешении потребляют больше 8 Гбайт VRAM. Список таких приложений указан в таблице ниже. Естественно, максимум игр относится к разрешению Full HD — это самый популярный формат среди геймеров. К тому же, как мы уже выяснили, и игровых видеокарт, актуальных для такого разрешения, — большинство.

Игры, используемые в тесте
Full HD WQHD Ultra HD
The Witcher III: Wild Hunt
GTA V
FarCry 5
Assassin’s Creed Odyssey
Watch_Dogs 2
Final Fantasy XV
Shadow of the Tomb Raider
Deus Ex: Mankind Divided
Battlefield V
Metro Exodus
FarCry 5
Watch_Dogs 2
Shadow of the Tomb Raider
Deus Ex: Mankind Divided
FarCry 5
Shadow of the Tomb Raider
Deus Ex: Mankind Divided

1. Пропускная способность шины памяти:

Пропускная способность шины памяти определяет количество передаваемых данных в единицу времени. Она определяется разрядностью шины и тактовой частотой работы памяти.

Соответственно, чем больше будет разрядность, тем эффективней будет работа всей видеосистемы. В современных видеокартах разрядность шины колеблется от 64 бит (для офисных компьютеров) до 768 бит (для геймерских систем и оверклокинга). Ну а частота памяти современных видеокарт превышает отметку в 1300 МГц.

Пропускная способность шины памяти = тактовая частота памяти х разрядность шины. Давайте посчитаем пропускную способность шины памяти , к примеру, для видеокарты AMD Radeon HD 7970 . Частота памяти данного девайса = 1375 МГц, но так как тип памяти GDDR5 , то мы умножаем реальную частоту на 4 и получаем эффективную частоту 5500 МГц. Разрядность шины памяти составляет 384 бита (48 байт). Нехитрыми вычислениями находим: 5500 х 48 = 264 Гбайт/c. Вот мы и нашли пропускную способность шины памяти, которая для данной модели составляет 264 Гбайт/c. Отмечу, что это одна из топовых видеокарт данной линейки и стоит она не дешёво, поэтому не пугайтесь, если показатели вашей видеокарты, более старой версии, смотрятся «блекло» на фоне этих результатов.

AMD Radeon HD 7970

Рис. Видеокарта AMD Radeon HD 7970

AMD или Nvidia?

Дискретные видеокарты выпускают десятки разных компаний, но все они основываются на чипах двух компаний — Nvidia и AMD (впрочем, до конца 2021 в продаже должны будут появиться еще и модели на базе чипов Intel Xe). Nvidia с ее архитектурой Ampere и серией RTX 30 считается лидером, но AMD с Big Navi и Radeon RX 6000 отстает не слишком сильно.

Технология трассировки лучей освещения, которую Nvidia начала популяризировать пару лет назад, пока что нормально работает только на ее видеокартах RTX. AMD тоже добавила ее поддержку в RX 6000, но их производительность в этом плане значительно ниже.

Впрочем, игр с поддержкой трассировки лучей пока не так уж и много (сейчас это около 20 AAA-хитов), но в будущем их будет все больше и больше — стоит помнить о том, что свежие консоли Sony и Microsoft тоже ее поддерживают.

Не стоит забывать и о магической технологии Nvidia DLSS, которая в некоторых играх (их пока тоже не слишком много) позволяет получить «бесплатные» fps за счет рендеринга в пониженном разрешении и умного масштабирования с использованием нейросетей в реальном времени. У AMD есть свой ответ под названием FidelityFX Super Resolution, но разработка этой технологии пока не закончена — компания еще даже не демонстрировала результаты ее работы. Скорее всего, FidelityFX Super Resolution будет далеко не такой впечатляющей — опыта работы с нейросетями и связанными с ними алгоритмами у AMD в разы меньше, чем у Nvidia.

Что из себя представляет видеокарта?

Чаще всего видеокарта — это плата расширения, которое вставляется в разъем расширения, который является однозначно универсальным (ISA, PCI, PCI-Express, MCA, VLB, EISA) или является специализированным (AGP). Однако еще есть и встроенные (интегрированные) видеокарты в системную плату (как в случае налицо отдельного чипа, так и в виде любой составляющей части CPU или северного моста).

Что из себя представляет видеокарта

Что из себя представляет видеокарта

Видеокарты, которые существуют в наше время, не ограничивают себя обычным выводом изображения, они еще и могут лично иметь встроенный графический микропроцессор, воспроизводящий дополнительную обработку, которую разгружает от данных задач центральный процессор компьютера. К примеру, любые видеокарты нашего времени, будь то Nvidia или AMD (ATi) могут поддерживать приложения OpenGL, это также касается и аппаратного уровня. Заметим, что в последнее время проявилась тенденция, она поможет начать правильное использование вычислительных способностей любых графических процессоров для решения неграфических задач.

Ссылка на основную публикацию