Видеокарта Afox GeForce RTX 2080 (8 ГБ): референсный дизайн по обещанной минимальной 11: 45

В мире видеокарт есть такое понятие, как референсный продукт (на сленге — «реф»). Подавляющее большинство пользователей даже не представляет себе, что означает это понятие. Тем не менее знать это нужно, так как эта информация поможет выбрать правильную видеокарту для компьютера. Тем более что различий у референсной и нереференсной продукции довольно много. Так что такое референсная видеокарта и чем она отличается от обычной? Есть ли вообще отличия? Ответы на эти вопросы и будут даны в этом материале. Начнем, конечно же, с определения понятия. Так будет проще.

xTechx.ru

О чём будет рассказываться в этой небольшой статье?

Данная статья – набор базовых знаний для тех, кто хочет выбрать сбалансированную видеокарту, не отдавая лишних денег маркетологам. Поможет новичкам, а так же, послужит источником полезной информации и для более продвинутых пользователей ПК. Тем не менее, мини статья всё же, ориентирована именно на новичков.

Предназначение видеокарты.

Ни для кого не секрет, что в наше время, основным полем деятельности для производительной видеокарты являются – 3 D игры, плавное проигрывание видео ( HD ), работа в профессиональных 3D2D и видео редакторах. Остальные, повседневные задачи можно без проблем выполнять и на встроенных в процессор или чипсет видеокартах. С недавнего времени, для видеокарты расширили поле деятельности, в виде многопоточных вычислений, которые работают гораздо быстрее на параллельной архитектуре видеокарт, чем на процессорах.

NVidia продвигает свою программно-аппаратную платформу CUDA , основанную на языке Си (между прочим удачно, и это не удивительно, при вложении таких то средств). AMD же, в основном полагается на открытый код OpenCL .

С помощью CUDA можно кодировать видео в 3-4 раза быстрее. Аппаратно, силами видеокарт ускорять продукты компании Adobe – в частности Photoshop , Flash , и это по видимому только начало. Правда, тех людей которые постоянно пользуются вычислительной мощностью видеокарт, теоретически очень мало. И казалось задумываться об этом пока рано, тем более на пятки наступают многоядерные процессоры, которые хоть и медленнее в многопоточных операциях, но имеют неоспоримый плюс в том, что они без сложных программных оптимизаций просто делают своё дело. А простота и удобство реализации, как показывает история Windows (к примеру) – для людей главное и залог успеха на Software рынке. И всё равно стоит отдать дань вычислительной мощи видеокарт, пока не обузданной «правильным» софтом.

Итак. NVidia или AMD ?

*Самый «интересный» вопрос

Главными игроками на рынке графических ускорителей являются корпорации AMD и NVidia .

Тут всё понятно, как и во многих секторах рынков, дуополия. Как Pepsi и Coca — Cola , как PS 3 и Xbox 360, как Intel и AMD в конце концов. С недавнего времени, компании выпускают свои продукты поочерёдно. Затем чтобы и одной было хорошо и второй. Сначала AMD выпускает флагмана линейки, затем месяца через два-три, более мощного флагмана выпускает NVidia. Сначала покупаются карты от AMD, как самые мощные, затем после выхода карт NVidia, купившие их, снова идут в магазин, за ещё лучшим продуктом. Практически то же самое происходит и со средним и бюджетным рынком. Только разброс по увеличенной производительности относительно конкурента здесь выше, так как чтобы заинтересовать более экономного потребителя, требуется нечто большее, чем шанс обладать лучшей видеокартой, как это происходит в секторе флагманов.

Лучше не «фанатеть», ведь это бизнес и ничего личного. Главное чтобы видеокарты были производительными, а цены не кусались. И какой производитель — не суть важно. С таким подходом можно всегда оставаться в выигрыше по ценепроизводительности.

Архитектура чипа.

Количество пиксельных процессоров (для AMD ), универсальных конвейеров (для NVidia ).

Да. Это совершенно разные вещи. То, что у AMD Radeon HD 58701600 исполнительных блоков совершенно не значит, что она будет в 3 раза мощнее, чем NVidia GTX 480 у которой на борту имеется 480 исполнительных блоков.

NVidia имеет скалярную архитектуру, а AMDсупер скалярную .

AMD архитектуры.

Рассмотрим архитектуру ПП (*пиксельных процессоров), на примере базовой супер скалярной архитектуры видеокарт Radeon HD 5 серии ( 5-way VLIW ).

Каждые 5 пп составляют один исполнительный блок, который за раз может выполнить максимум — 1 скалярную операцию и 1 векторную или иногда 5 скалярных (однако условия не всегда подходят для этого). Каждая векторная операция требует 4 ПП, каждая скалярная 1 ПП. И тут, уж как получится. У NVidia же, каждое Cuda Core , исполняет строго по 1 векторной и 1 скалярной операции за такт.

С выходом 6 серии, под кодовым именем (Nothern Islands), а именно чипов Cayman, решили отказаться от дополнительного, пятого ALU (T-unit), который отвечал за выполнение сложных задач.

Теперь эту роль могут исполнять три из четырёх оставшихся блоков. Это позволило разгрузить диспетчер потоков (Ultra-Threaded Dispatch Processor), которых в придачу стало вдвое больше для улучшения работы с геометрией и тесселяцией, которые были слабой стороной 5 серии. Плюс ко всему, позволяет сэкономить на площади ядра и транзисторном бюджете при той же эффективности.

После шестой серии, работа в направлении развития VLIW закончилась, ввиду её слабой гибкости и большого времени простоя из-за зависимостей внутренних блоков друг от друга (в особенности векторные операции). На первый план вышла совершенно новая архитектура Graphics Core Next .

Движок SIMD, сменяется вычислительным блоком Compute Unit (CU), что позволяет значительно поднять уровень эффективности и производительности архитектуры. Каждый ПП, теперь может независимо выполнять векторные и скалярные операции, так как для них ввели раздельные блоки управления, которые более эффективно распределяют ресурсы между свободными блоками. В целом, архитектура начинает обретать кое какие предпосылки скалярной архитектуры от NVidia, которая отличается простотой и эффективностью.

Первым чипом с новой архитектурой стал GPU Tahiti, на котором строятся AMD Radeon HD 7970/7950. Компания планирует выпустить и средний класс на новой архитектуре.

Теперь рассмотрим базовую, скалярную архитектуру NVidia .

Как мы видим, каждый универсальный процессор ( CUDA core ), за такт исполняет 1 скалярную операцию и 1 векторную. Это позволяет добиться максимальной плавности. Там где много векторных и скалярных операций, видеокарты AMD с архитектурой VLIW уступают, так как они не способны загрузить работой свои блоки как видеокарты NVidia .

Допустим выбор пал между Radeon HD 5870 и GeForce GTX 480.

У первой 1600пп, у второй 480 унифицированных блоков.

Вычисляем: 16005=320 суперскалярных блоков, у Radeon HD 5870.

То есть за такт видеокарта от AMD , выполняет от 320 до 1600 скалярных операций и от 0 до 320 плавающих векторных, в зависимости от характера задачи.

А при удвоенной частоте шейдерного домена, карта на архитектуре Fermi , теоретически должна выполнять 960 векторных и 960 скалярных операций за такт.

Однако Radeon , имеет более выгодную частоту, чем карта из «зелёного лагеря» (700 против 850). Так что, такие показатели NVidia, теоретически должны быть как при частоте работы шейдерного домена на частоте 1700мгц (850 x 2=1700), а это не так. При частоте 1401 Мгц, GTX 480 выдаёт

700 векторных и

700 скалярных операций за такт.

* не стоит полагаться на достоверность данных вычислений, они носят лишь теоретический характер. К тому же данное утверждение не действует с 6-й серии Radeon, начиная с чипов Cayman.

За счёт того, что максимальное количество векторных и скалярных операций выполняется одинаковое количество, архитектура NVidia имеет лучшую плавность в сложных сценах, чем AMD VLIW (<5 series).

Ценовые категории и что мы получаем, если покупаем видеокарту серией помладше.

Инженеры AMD , не задумываясь режут половину пиксельных процессоров, шину памяти и часть ROP ’ s поколению карт, из сегмента на класс ниже. К примеру Radeon HD 5870 имеет 1600пп, шину 256 bit , а в 5770, всего этого осталось ровно половина – 800, и шина памяти 128 bit . Такая же ситуация продолжается и до самых бюджетных видеокарт. Так что, всегда предпочтительнее будет приобрести более слабую видеокарту из 58** серии, чем самую старшую из серии 57**.

У инженеров NVidia , не много иной подход. Плавно, обрезается шина памяти, универсальные конвейеры, ROP ’ s , пиксельные конвейеры. Но так же и снижаются частоты, которые при должной системе охлаждения, можно немного компенсировать разгоном. Немного странно, что не наоборот, как это делает AMD , повышая частоты на картах с обрезанным количеством исполнительных элементов.

Подход AMD более выгоден производителю, подход NVidia — покупателю.

Упоминание о драйверах.

Именно из-за особенностей суперскалярной архитектуры VLIW, драйвера от AMD , приходится постоянно оптимизировать, чтобы видеокарта понимала, когда ей нужно использовать векторы или скаляры максимально эффективно.

Унифицированные драйвера от NVidia более невосприимчивы к различным движкам игр, благодаря тому, что инженеры NVidia зачастую уже при разработке игры оптимизируют её под архитектуру своих видео чипов и драйверов. Также стоит отметить, что при их установке и удалении не возникает практически никаких проблем, которые присущи драйверам от AMD .

Драйвера NVidia можно устанавливать прямо на старые, без удаления и без чисток реестра. Надеемся, что программисты AMD будут двигаться в том же направлении. Появилась возможность, скачивать «фиксы» для драйверов Catalyst , которые выходят незадолго до появления игры в продаже или чуть позже. Уже что то. А с выходом новой архитектуры Graphics Core Next, работа по оптимизации драйверов значительно облегчится.

Пиксельные конвейеры, TMU , ROP .

Также, очень важно число пиксельных конвейеров и TMU (блок наложения текстуры), их количество особенно важно при высоких разрешениях и при использовании анизотропной фильтрации текстур (важны пиксельные конвейеры), использовании высокого качества текстур и высоких настроек анизотропной фильтрации ( важны TMU ).

Количество блоков ROP ( блоки растровых операций ), в основном влияют на производительность сглаживания, но при их недостатке может быть потеря общей производительности. Чем их больше, тем незаметнее будет влиять сглаживание на количество кадров секунду. Так же, на производительность сглаживания, существенно влияет объём видеопамяти.

Объём, частота и разрядность шины памяти.

Чем больше видеопамяти у видеокарты, тем лучше. Однако не стоит покупаться на большой объём.

Как часто бывает, на относительно слабые видеокарты, ставят неимоверные объёмы видеопамяти, да ещё и медленной (к примеру на GeForce 8500 GT , некоторые OEM производители ставят по 2 Гб DDR 2 видеопамяти). От этого видеокарта не взлетит, и производительности не добавится.

* в сравнении с 8500 GT 512 мб

Гораздо лучшим вариантом, будет взять видеокарту с более быстрой памятью, но меньшим объёмом. К примеру, если выбор стоит: взять 9800 GT с 512 или 1024 мб памяти, с частотой 1000мгц и 900мгц соответственно, то предпочтительней будет взять 9800 GT с 512 мб памяти. Тем более видеокарта такого уровня не нуждается в видеопамяти больше чем 512 мб.

Пропускная способность памяти – это главное в производительности подсистемы видеопамяти, которая наиважнейшим образом влияет на производительность видеокарты в целом. Измеряется в Гб/c (гигабайт в секунду).

К примеру сейчас, активно используется видеопамять типа GDDR 5, у которой гораздо выше частотный потенциал, чем у GDDR 3, и соответственно белее высокая пропускная способность.

Однако частота это далеко не всё. Вторым важным фактором, является разрядность шины памяти . Чем выше разрядность, тем быстрее память.

К примеру, память с частотой 1000мгц и шиной 256 bit , будет ровно в 2 раза быстрее памяти 1000мгц и шиной 128 bit . Чем больше разрядность — тем быстрее память. Самая широкая шина памяти из существующих – это монструозная 896 bit (448 x 2) на видеокарте GeForce GTX 295. Однако в ней используется память GDDR 3, что существенно ухудшает пропускную способность (меньше эффективная частота) в сравнении с GDDR 5. Поэтому, её пропускная способность, даже немного ниже, чем у Radeon HD 5970 с 512 bit (256 x 2), но с GDDR 5.

Система охлаждения.

Чем эффективнее система охлаждения, тем меньше шанс, что ваша видеокарта выйдет из строя. Карта будет меньше перегреваться, что улучшит общую стабильность системы, значительно увеличит срок службы, а так же повысит разгонный потенциал.

Выпускаемые, готовые с истемы охлаждения видеокарт бывают двух вариаций.


Референсные (от производителя) и альтернативные (от партнёров производителя). Как правило, референсные карты имеют турбинное (бловер, blower) исполнение, и обычно очень надёжны. Относительно шумны, не всегда так эффективны, как альтернативные СО от партнёров производителя и сильнее забиваются пылью. Хотя при использовании испарительной камеры, бловерные системы охлаждения видеокарт очень эффективные и тихие. Если небольшой шум при нагрузке вас не беспокоит, и вы не будете ставить рекордов в разгоне, референсные системы охлаждения — предпочтительней. Обычно, партнёры производителей, обклеивают их наклейками со своими логотипами, изменения возможны лишь в BIOS-е видеокарты (регулировка оборотов вентилятора), поэтому некоторые карты идентичные по дизайну, но от разных производителей, шумнее либо горячее своих собратьев и наоборот. У каждого из производителей, свои предпочтения и гарантийные условия. Потому, некоторые жертвуют тишиной для большей стабильности и долговечности.

Если же вам важна тишина, то стоит обратить внимание на альтернативные системы охлаждения повышенной эффективности, с меньшим уровнем шума (к примеру Vapor — x , IceQ, Twin Frozr , DirectCu), или же выбрать видеокарту с пассивной системой охлаждения, коих сейчас всё больше.

* Совет: не забывайте раз в год-два, менять термоинтерфейс, особенно на СО с технологией прямого контакта тепловых трубок. Термопаста застывает, образуя слой, плохо проводящий тепло, что ведёт к перегреву видеокарты.

Энергопотребление видеокарты.

Очень важная характеристика при выборе, так как видеокарта является очень прожорливым компонентом компьютера, если не самым прожорливым. Топовые видеокарты иногда приближаются к отметке 300W. Поэтому при выборе, следует учитывать, способен ли ваш блок питания обеспечить видеокарте стабильное питание. Иначе система может либо не запуститься из-за несоответствия напряжения при прохождении POST, могут появиться нестабильности в работе и неожиданные выключения, перезагрузки или перегрев компонентов компьютера, либо блок питания может просто сгореть.

На сайте производителя или коробке видеокарты, написаны минимальные характеристики, среди которых минимальная мощность блока питания. Данные значения написаны для любых блоков, в том числе и китайских. Если вы уверены что у вас качественный блок питания, можно отнять от этого значения 50-100W.

Косвенно определить энергопотребление можно по количеству дополнительных разъёмов для питания на видеокарте.

Ни одного – меньше 75 W , один 6- pin до 150 W , два 6- pin до 225 W , 8- pin + 6- pin – до 300 W . Убедитесь что ваш блок имеет необходимые разъёмы или чтобы в комплекте были переходники под 4-х штырьковые molex-ы. Либо докупите их, они свободно продаются в компьютерных магазинах.

Недостаток питания видеокарты может привести к её перегреву, появлению артефактов и выходу её системы питания из строя. Видеокарты NVidia, при недостатке питания могут начать предупреждать сообщениями вида: «видео драйвер перестал отвечать и был восстановлен» или «подключите дополнительное питание к видеокарте».

Читайте также:  Программы для поиска дубликатов фотографий

Высокое энергопотребление = большое тепловыделение. Если ваша видеокарта потребляет много энергии, позаботьтесь о дополнительных вентиляторах на вдув и выдув на корпусе. Либо как временная мера — откройте боковую крышку. Постоянно высокая температура в корпусе — пагубно влияет на строк службы всех компонентов начиная материнской платой, заканчивая жёстким диском.

Разъёмы.

Когда вы уже определились с видеокартой, внимание стоит обратить и на разъёмы.

Помните, что если у вас монитор с разрешением выше, чем 1680х1050 или в планах его покупка, то вам нужны разъёмы DVI или Display Port . Аналоговый D — Sub VGA , при более высоком разрешении, не обеспечивает нужной скорости передачи сигнала, и могут появиться мутности на определённых участках изображения и нечёткости.

Если у вас монитор с матрицей P-IPS или с поддержкой 30 битного цвета (1.07 млрд.), то вам обязательно понадобится DisplayPort на видеокарте для раскрытия его потенциала. Только DisplayPort поддерживает передачу 30 битной глубины цвета.

* достоверно неизвестно, поддерживают ли передачу 30 бит, игровые видеокарты, но наличие DisplayPort говорит о возможной поддержке. В спецификациях поддержка, заявлена только у профессиональных видеокарт AMD FirePro и NVidia Quadro.

Очень хорошо если есть HDMI . Никогда не знаешь, что может пригодиться и лучше быть к этому готовым. Вдруг вам понадобится вывести сигнал с ресивера. Кстати, HDMI и DVI совместимы через простой переходник и практически без проблем.

Выводы.

На этом всё. Не успели начать, уже заканчиваем. Так как статья описывает главные, общие понятия, она получилась не слишком длинной.

Тем не менее, все наиболее важные моменты для выбора качественной и производительной видеокарты описаны.

1. Вопрос веры.

2. Ценовая категория.

3. Количество исполнительных блоков (TMU, ROP и т.д).

4. Объём, частота и разрядность шины памяти.

5. Узнать подойдёт ли карта по уровню энергопотребления.

5. Система охлаждения.

6. Разъёмы.

Надеемся, с этими знаниями, вы сможете в соответствии с вашими требованиями, выбрать видеокарту.

Как работает видеокарта NVIDIA? Разбор

Мы привыкли воспринимать видеокарты как дополнение к основному процессору. А бывают даже интегрированные видюхи. Но на самом деле. Видеокарта — это компьютер в компьютере, который выполняет намного больше операций, чем остальные компоненты системы. Смотрите сами:

  • В центральном процессоре — 4, 8, ну может 16 ядер. В видеокарте вычислительных блоков — тысячи!
  • В ней миллиарды транзисторов, гигабайты своей видеопамяти с пропускной способностью до терабайта в секунду.
  • И всё это потребляет мощности, весит и стоит как отдельный комп!

Вот например характеристики GeForce RTX 3090:

  • Ядра CUDA: 10496 | Тензорные ядра : 328 | Ядра трассировки лучей: 82
  • 28 млрд. транзисторов
  • Видеопамять: 24 ГБ GDDR6X
  • Пропускная системной памяти: > 1 ТБ/с
  • Цена: от 136 990 руб.

Но раз видюхи такие производительные, зачем нам вообще центральный процессор? И в чем всё-таки отличия CPU от GPU?

А чем видеокарты отличаются между собой? Как такая бандура помещается в ноутбук? И главное выясним, можно ли в играть в Cyberpunk 2077 на ноутбуке на ультра-настройках. Поговорим об этом и о многом другом в большом разборе!

Сейчас видеокарты много чего умеют делать и часто делают некоторые задачи куда быстрее и эффективнее CPU? Но к такому положению вещей мы пришли не сразу. Первые видеокарты было бы справедливо назвать ASIC-ками (Application-Specific Integrated Circuit), то есть интегральными схемами специального назначения. Что это значит?

Центральный процессор — это универсальный чип. Он может выполнять совершенно разного рода задачи. Всё потому, что каждое ядро центрального процессора — это много разных блоков, каждый из которых умеет делать свой тип вычислений.

Это удобно, потому как на центральном процессоре мы можем сделать любое вычисление. И в принципе, один огромный ЦП может заменить собой вообще все остальные чипы. Но естественно, это будет неэффективно. Поэтому для специфических задач на помощь центральному процессору часто приходят сопроцессоры или ASIC-ки то есть отдельные чипы, заточенные под эффективное решение какой-то конкретной задачи.

Так в середине 90-х такой конкретной задачей стало ускорение первых 3D-игр вроде Quake!

Первые видеокарты

Без ускорения Quake выглядел достаточно постредсвенно. Всё очень пиксельное и тормозное.

Но стоило прикупить себе волшебный 3D-акселератор. Подключить его к вашей основной 2D-видеокарте снаружи коротким VGA кабелем. Да-да, раньше это делалось так. И Quake превращался в нечто запредельное. Игра становилась, плавной, красочной, а главное работала в высоком для того времени разрешении и соответственно никаких пикселей.

Тогда это воспринималось практически как магия. Но за счет чего происходило такое кардинальное улучшение картинки? Чтобы ответить на этот вопрос, давайте разберемся как работает видеокарта поэтапно.

Как работает видеокарта?

Этап 1. Растеризация.

Трёхмерный объект изначально векторный. Он состоит из треугольников, которые можно описать вершинами. То есть, по сути, объект — это набор вершин, со своими координатами в трехмерном пространстве.

Но ваш экран двумерный, да ещё и состоит из пикселей. Так как нам отобразить векторный 3D объект в двухмерном пространстве? Правильно — спроецировать его!

Мы переносим координаты вершин на плоскую поверхность соединяем их при помощи уравнений прямых на плоскости и заполняем пикселями плоскости треугольников. На этом этапе мы получаем двухмерную проекцию объекта на экране.

Этап 2. Текстурирование

Дальше нам нужно как-то раскрасить модельку. Поэтому на растрированный объект по текстурным координатам натягивается текстура.

Но просто натянуть текстуру недостаточно, ее нужно как-то сгладить. Иначе при приближении к объекту вы просто будите видеть сетку текселей. Прям как в первых 3D-играх типа DOOM. Поэтому дальше к текстуре применяются различные алгоритмы фильтрации.

На первых видеокартах применялась билинейная интерполяция. Её вы и видели на примере с Quake. Всё, что она делает — это линейно интерполирует промежуточные цвета между четырьмя текселями, а полученное значение становится цветом пикселя на экране.

Такую интерполяцию активно используют используют и сейчас. Но в дополнении к ней также делают трилинейную интерполяцию — это еще более продвинутая версия сглаживания, но используют её только на стыках разных уровней детализации текстур, чтобы их замаскировать.

А вот чтобы вернуть четкости текстурам под углами к камере используют анизотропную интерполяцию. Чем выше её коэффициент тем четче получается картинка, так как для получения цвета каждого пикселя делается до 16 выборок. Особенно это заметно на поверхностях, находящихся под острым углом к камере. То есть, к примеру, на полу.

Окей, теперь мы получили цветное изображение. Но этого всё ещё недостаточно, потому как в сцене нет освещения. Поэтому переходим к следующему этапу с интригующим названием пиксельный шейдер или затенение пикселей.

Этап 3. Пиксельный шейдер.

Вообще шейдер — это штука, которая позволяет программисту что-то делать с вершинами, треугольниками и пикселями на программном уровне. В случае Пиксельных Шейдеров — это даёт разработчикам разработчиком возможность динамически менять цвет каждого пикселя экрана по программе.

Кстати, впервые поддержка простых шейдеров появились в 2001 году, когда появилась NVIDIA GeForce 3. До этого освещение тоже делалось, но аппаратными средствами и разработчики особо не могли влиять на результат. Так вот сегодня это самый ресурсоемкий этап, на котором для каждого пикселя нужно просчитать как он отражает, рассеивает и пропускает свет. Как ложатся тени по поверхности модели и прочее. То есть иными словами рассчитывается финальный цвет пикселя.

Каждый объект сцены описывается при помощи нескольких текстур:

  • Карта нормалей, текстура, в которой хранятся векторы нормалей для каждой точки поверхности. При помощи этих векторов рассчитывается попиксельное освещение.
  • Карта зеркальности, которая описывает сколько света отражается от поверхности.
  • Карта шероховатостей (roughness mapbump map), которая описывает микрорельеф поверхности или то, как поверхность будет рассеивать свет.
  • Альбедо карта, то есть карта диффузии или естественный цвет объекта.
  • И прочие.

Этап 4. Сохранение

После кучи вычислений при помощи информации из всех вышеперечисленных текстур наступает последний этап. Мы получили финальный цвет пикселя и сохраняем его в видеопамять. А после обработки всей сцены мы уже можем выводить картинку на экран.

Мощность

Все эти вычисления нужно проводить очень быстро и главное параллельно. Например, чтобы вывести 60 раз в секунду 4К-изображение нужно посчитать цвет примерно полумиллиарда пикселей. А если мы хотим 120 FPS — то целый миллиард. Именно поэтому видеокарты отличаются по структуре от центрального процессора.

Центральный процессор заточен под последовательное, но очень быстрое выполнение множества разнообразных вычислений. Поэтому ядер в центральном процессоре мало, но зато они умеют быстро щелкать любые задачи. А вот в GPU вычислительных блоков тысячи, они не умеют максимально быстро выполнять задачи с небольшим количеством данных последовательно как процессор, но очень быстро делают параллельные вычисления с большим количеством данных. Например, NVIDIA GeForce RTX 3090 в пике может делать до 38 триллионов операций с плавающей точкой в секунду.

Так как видеокартам нужно постоянно загружать и выгружать огромное количество данных в память, то у них используется и свой тип памяти — GDDR. У неё выше задержки, чем в обычной DDR, поэтому такую память не имеет смысла использовать в качестве оперативной. Но у GDDR существенно выше ширина канала и пропускная способность, которая уже сейчас доходит до 1 ТБ в секунду.

Это позволяет видеокартам обрабатывать сотни миллиардов пикселей в секунду.

Вся эта мощь нужна только для того чтобы в игры играть? На самом деле — нет. Видеокарты уже давно используется для профессиональных задач.

Но стало это возможно только в 2006 году, когда вышла карточка GeForce 8800, в которой впервые появились ядра CUDA — Compute Unified Device Architecture. Это унифицированные ядра, которые впервые позволяли использовать видеокарту не только для игр, но и для любых массивных параллельных вычислений: типа рендеринга видео, симуляции воды, дыма, ну или майнинга крипты, если вдруг это еще актуально.

А в 2018 году, произошла другая революция — появилась архитектура Turing, а вместе с ней новые типы ядер и, конечно же, технологии трассировки лучей. Поговорим сначала о ней.

Трассировка лучей

Что такое трассировка лучей? Несмотря, на то что видеокарты за годы своей эволюции обросли поддержкой кучи эффектов. Игры действительно стали выглядеть впечатляюще круто. Но всё равно, остались выглядеть как игры. Почему?

Дело в том, что до появления технологии трассировки лучей, в играх не было настоящего глобального освещения. Оно рассчитывалось для каждого объекта по отдельности, причем поочередно. Соответственно, мы не могли рассчитать как объекты влияют друг на друга, как преломляется и отражается свет между разными объектами. А всё глобальное освещение сцены просто заранее «запекалось» в текстуру в графическом редакторе игры. Есть еще зонды и куча других техник, которые позволяют получить грубую имитацию глобального освещения с кучей недостатков — протеканием света сквозь объекты, повышенными требованиями к объему видеопамяти, отсутствием физики, так как если изменится положение объектов в сцене, то и освещение придется заново считать, а с использованием заранее подготовленных ресурсов — это невозможно.

А вот трассировка лучей впервые позволила, построить освещение по законам природы и сняла кучу ограничений. Ну практически. Как это работает?

Вместо того, чтобы поочередно считать освещение для каждого объекта Сначала выводится вся трехмерная сцена и упаковывается в BVH коробки для ускорения трассировки. После чего из камеры в упакованную 3D-сцену запускается луч и мы смотрим с какой поверхностью он пересечется. А дальше от этой точки строится по одному лучу до каждого источника освещения. Так мы понимаем где свет, а где тень.

А если луч попал на отражающий объект, то строится еще один отраженный луч и так мы можем считать переотражения. Чем больше переотражений мы считаем, тем сложнее просчет, но реалистичнее результат.

Всё практически как в жизни, но для экономии ресурсов, лучи запускаются не от источника света а из камеры. Иначе бы пришлось просчитывать много лучей, которые не попадают в поле зрения игрока, то есть делать бесполезные, отнимающие ресурсы GPU вычисления.

Новые ядра

Для реализации трассировки лучей, помимо ядер CUDA пришлось придумать ядра нового типа. Это RT-ядра, что собственно и значит ядра трассировки лучей и тензорные ядра.

RT-ядра выполняют тот самый поиск пересечений между лучом и полигонами сцены. И делают это очень эффективно для благодаря алгоритму BVH — Bounding Volume Hierarchy.

Суть алгоритма: Каждый полигон вкладывается в несколько коробок разного размера, как в матрешку. И вместо того, чтобы проверять пересечения с каждым полигоном сцены, коих миллионы, сначала проверяется попал ли луч в небольшое количесчтво коробок, в которые упакованы треугольники сцены, На последнем уровне BVH матрешки содержится коробка с несколькими треугольниками сцены. Коробок намного меньше, чем треугольников, поэтому на тестирование сцены уходит намного меньше времени, чем если бы мы перебирали каждый треугольник сцены.

Тензорные ядра — это вообще необычная вещь для видеокарты. Такие ядра используется для операций матричного перемножения. То есть могут умножать много чисел одновременно. Это очень полезно для обучения глубоких нейронных сетей. Поэтому как правило, нейросети сейчас обучают и используют именно на видеокартах.

Но и в играх тензорные ядра имеют высокий вес. Во-первых, очищение рейтрейснутой картинки от шума в профессиональных пакетах с поддержкой OptiX.

Но в первую очередь, для реализации фирменной технологии DLSS — Deep Learning Super Sampling. Это технология сглаживания и апскейлинга картинки при помощи нейросетей. Например, у вас 4K-монитор, но видеокарта не тянет 4К на ультрах. Что в этом случае делает DLSS. Картинка рендерится в более низком разрешении 1440P или 1080P, а потом несколько соседних кадров объединяются нейросетью в новый кадр более высокого разрешенияи. Да так, что часто выглядит даже лучше чем в нативном разрешении. При этом мы получаем огромный прирост фреймрейта.

Многовато технологий! В таком можно и запутаться, поэтому чтобы упорядочить мысли давайте пройдёмся по этапам того как работает видеокарта.

Чем отличаются видеокарты?

Окей, кажется с принципом работы видеокарты разобрались. Теперь давайте поговорим почему одни видеокарты работают быстрее, а другие медленнее.

Во-первых, на скорость и возможности видеокарты влияет поколение. Например, до появления серии GeForce RTX 20-серии вообще не было трассировки лучей и прочих плюшек. Но если говорить о производительности в рамках одного поколения, то нас интересуют 4 параметра:

  • Количество ядер и прочих исполнительных блоков
  • Скорость и объём памяти
  • Частота ядра
  • Дизайн

Допустим, сравним 20-ю серию.

В RTX 2060 — 1920 ядер CUDA , а в 2080 Ti — 4352. Соответственно в общих задачах мы можем рассчитывать на производительность примерно в 2 раза выше. С частотой ядра и объёмом памяти думаю тоже всё понятно. Чем больше, тем лучше.

Дизайн

Но причем тут дизайн?

Дело в том, что NVIDIA производит только чипы и показывает референсный дизайн видеокарты. А дальше каждый производитель сам решает какую систему охлаждения поставить и в каком размере сделать видеокарту. Соответственно, чем лучше охлаждение, тем выше будет частота работы, и больше производительность.

Читайте также:  UltraISO: Исправление ошибки не найденного виртуального привода

Но также под дизайном имеется ввиду формфактор. Дело в том что большие видеокарты, например, просто физически не влезут в ноутбук. А если даже влезут, энергопотребление в них будет запредельным. Поэтому существуют мобильные модификации видеокарт, которые просто распаиваются на материнской плате. Мобильные модификации карточек отличаются сниженными частотами и энергопотреблением.

Существуют две разновидности мобильных дизайнов:

  1. Просто Mobile. Это версии для жирных игровых ноутов. они не сильно отличаются по производительности от десктопных версий. Иногда такие карточки называют Max-P, типа performance. А иногда вообще ничего не приписывают. Но не обольщайтесь в ноутбуке не может стоять не мобильная версия.
  2. А бывает дизайн Max-Q. Такие карточки ставя в тонкие игровые ноуты. В них существенно ниже энергопотребление, но и частоты сильнее порезаны.
RTX 2080 Super RTX 2080 Super Mobile (Max-P) RTX 2080 Super Max-Q
CUDA ядра 3072 3072 3072
Частота яда 1650 МГц 1365 МГц 975 МГц
Частота в режиме Boost 1815 МГц 1560 МГц 1230 МГц
Энергопотребление (TDP) 250 Вт 150 Вт 80 Вт

Проверим на практике

Производительность игровых лэптопов приблизилась к десктопной. Но ноутбуки более удобны в силу форм-фактора. GeForce GTX — это ок, нормальный начальный уровень. RTX — оптимальный выбор для любителей игр. Кроме того, RTX GPU — это еще и ускорение более 50 рабочих приложений. Рптимальный выбор для работы и игр. Но хватит теории. Давайте проверим на практике, чем отличаются по производительности разные карточки.

У нас есть 3 ноутбука. Вот с таким железом.

ASUS ROG Zephyrus G15
Ryzen 7 4800HS
NVIDIA GeForce GTX 1650 Ti 4ГБ

ASUS ROG Zephyrus G14
Ryzen 9 4900HS
NVIDIA GeForce RTX 2060 Max-Q 6ГБ

ASUS ROG Zephirus DUO
Intel Core i9-10980HK
GeForce RTX 2080 SUPER Max-Q 8ГБ

Во всех трёх вариантах установлены разные процессоры, но они все мощные, поэтому не должны сильно повлиять на результат тестов. По крайней мере бутылочным горлышком они точно не будут.

GTX 1650 Ti Mobile RTX 2060 Max-Q RTX 2080 Super Max-Q
CUDA ядра 1024 1920 3072
Частота ядра 1350 МГц 975 МГц 975 МГц
Частота в режиме Boost 1485 МГц 1185 МГц 1230 МГц
Тензорные ядра 240 384
RT-ядра 30 48
Объем видеопамяти 4 ГБ 6 ГБ 8 ГБ
Энергопотребление (TDP) 65 Вт 50 Вт 80 Вт

И, для начала, немного синтетических тестов. Судя по тесту 3DMark Time Spy, 2080 Super в дизайне Max-Q опережает 2060 на 25%, а 1650 Ti на 51%. А значит мы ожидаем, что 2080 будет выдавать примерно в 2 раза больший фреймрейт. Посмотрим так ли это на практике.

  • GTX 1650 Ti Mobile — 3948 (-51.7%)
  • RTX 2060 Max-Q — 6090 (-25.5%)
  • RTX 2080 Super Max-Q — 8170

Тест Cyberpunk 2077

Мы всё проверяли на Cyberpunk 2077 с версией 1.04 на не самой загруженной сцене, в закрытой локации. Тем не менее с наличием экшэна. Все ноутбуки работали в режиме производительности турбо.

Итак, в Cyberpunk 2077 есть 6 стандартных пресетов графики: низкие, средние, высокие, впечатляющие. И еще две настройки с трассировкой лучей: это впечатляющие настройки + среднее качество трассировки или ультра качество. В пресетах с трассировкой сразу же включен DLSS в режиме Авто. Это стоит учитывать.

Итак, на что способны наши видеокарты?

Во-первых, 1650 Ti показала себя очень неплохо, потому, что выдала супер играбельный фреймрейт на высоких настройках графики — стабильные 30+ FPS с редкими просадками до 25. А уж совсем играбельными оказались средние настройки — это уже 35-40 FPS.

Что лучше?

Около 80% функционала и производительности видеокарты определяет только графический процессор (одна микросхема), и лишь 20% остается на долю производителя видеокарт (чтобы выделиться среди «тиражей-близнецов»). Иногда производятся действительно существенные доработки. Работа эта, в целом «не грандиозна», но изменения — сразу заметны. Зачастую идет повышение характеристик за счет улучшения «охлаждения», а также интеграция дополнительных интерфейсов вывода видео (сейчас, одного DVI – уже не достаточно)… Иногда серийно выпускают видеокарты, где чип работает на повышенных частотах («заводской» разгон).

2

Первые выводы:

если честно, выбор производителя – не так важен, если карта использует «референсный» дизайн. Используются идентичные патенты AMD или Nvidia.

Когда-то давно, именно сочетание «Gigabyte» и «Radeon» — означало «хорошее качество» (еще со времен HD Radeon 3800). Если же говорить о GTX-ах Nvidia, в основном «наблюдались» качественные видеокарты от Asus. И, в то же время, это — ни в коем случае не характеризует с негативной стороны остальных производителей. Единственное, что: одно время, наблюдались проблемы с охлаждением у «Palit» для Geforce 400-ой серии. Но и это — лишь несколько моделей, масштабно судить здесь – вряд ли возможно. Когда выбираете «нереференс», обращайте внимание на объективные отзывы. Упомянем о существовании так называемых noname видеокарт. Более низкая стоимость + «референсный» дизайн – привлекательное сочетание, но несмотря сверхнизкую стоимость, продукция «ручной» сборки (а таковой noname и является) – не актуальна на 99%.

Минутка бухгалтерии

Недавно немецкий портал поделился результатами исследования рынка видеокарт, в котором специалисты узнали, что стоимость устройств начинает возвращаться к адекватным значениям и уже через пару месяцев достигнет рекомендованных производителем цен. На это повлияло два фактора — затяжная коррекция стоимости криптоактивов, а также выпуск пресловутых LHR. И, если майнеры уже знают, как пересидеть дешевеющий рынок, то с аппаратными ограничениями они еще не сталкивались. Новые видеокарты урезают скорость добычи монет на 50%, при этом энергопотребление остается максимальным. Сравним текущий заработок на обычной видеокарте и на таком же устройстве с LHR.

Видеокарта RTX 3060 без ограничителя добывает эфир со скоростью до 40 МХ/с. При этом энергопотребление видеокарты составляет 100-120 Ватт. Вставляем значения в популярный калькулятор майнинга и считаем профит:

Итого — 2.20 доллара в день с одной видеокарты. При этом расходы на электричество уже вычтены. Нельзя сказать, что это сверхприбыльное занятие: в золотое время с RTX 3060 можно было «снять» от 7 долларов в день и больше. Но в период затишья матерые майнеры «копают» на будущее, поэтому их волнует не количество долларов в день, а объем намайненного в криптовалюте. Теперь узнаем, сколько эфира добывает RTX 3060, «сидящая на диете». Для этого оставим энергопотребление на прежнем уровне, а хешрейт опустим до 20 МХ/с — до уровня, обещанного производителем:

В два раза меньше в эфирах и еще меньше в долларовом эквиваленте — скорость упала, а энергопотребление осталось прежним. Столь низкую доходность майнеры называют работой «на розетку»: вычитаем расходы на обслуживание системы — и зарплата уходит в минус.

При этом, даже если эфир подорожает в два раза, доходность в майнинге увеличится минимально — нужно помнить о сложности сети, которая прибавляет в весе каждую секунду. Именно поэтому производительность RTX 3060 уже снизилась с 40 МХ/с до 37 МХ/с — с каждой «эпохой» майнинг становится сложнее и медленнее.

Так чему же отдать предпочтение?

Ваши приоритеты подскажут вам правильный выбор графического процессора. Если вы хотите получить новейшие мощные из предлагаемых моделей – то вам подойдут референсные карты или модели серии Founders Edition. Так же этот выбор хорош для тех, кто хочет установить систему жидкостного охлаждения.

Но если на вершине приоритетов у вас стоит высокая производительность, лучшим выбором будет партнёрская видеокарта с модернизированной системой охлаждения и продвинутой системой электропитания.

Спасибо всем, кто оценил работу команды Lucky Link — ваша оценка нам придает силы развиваться.
Ваш фаворит среди магазинов,
Lucky Link

В изобразительном искусстве

Как начинающие, так и опытные художники время от времени прибегают к использованию референса. К примеру, когда нужно изобразить предмет со множеством мелких деталей. Для этого они подбирают нужную картинку (фото или рисунок) и уже по ней ориентируются, создавая свою работу.

Делается это не для слепого копирования, а для того, чтобы более точно воспроизвести детали и пропорции.

Карикатура

Проще говоря, референсы помогают передать различные технические особенности: размер, форму, расположение, цвет. Таким образом, художник как бы рисует с натуры, но в качестве оригинала выступает картинка.

Зачастую референсы используют для того, чтобы максимально точно изобразить:

  1. растение (к примеру, форму и строение листьев, цветов).
  2. животное, насекомое, птицу.
  3. человека (определенный ракурс или отдельные части тела).

Референс мальчика баскетболиста

Что касается цифровой иллюстрации, то здесь референсы используются чаще всего. Объясняется это тем, что с помощью специальной программы нужную картинку можно «трансформировать» по своему желанию – наложить слои, фильтры, вытянуть, изменить размер и пропорции, повернуть изображение под разными углами, отзеркалить.

Когда художник пишет портрет на заказ с использованием фотографии — это тоже референс.

Кроме того, что референсы используют для того, чтобы точно и верно передать пропорции, анатомию, свет/тень, они также нужны в том случае, когда нужно изучить какую-то художественную технику или если нет возможности рисовать с натуры.

Референсные и не референсные видеокарты — плюсы и минусы

Несколько лет назад на графическом рынке была ситуация, когда две конкурирующие компании АТИ/АМД и Нвидия выпускали видеокарты своими силами. Параллельно им в производистве помогали официальные партнеры в виде эксклюзивных компаний, выпускавших видеокарты только одной марки. Со стороны АМД — это в первую очередь Sapphire, Diamond, HIS, теперь уже XFX, PowerColor, GeCube и др. Со стороны Nvidia — BFG, EVGA, Sparkle, Zotac и другие не менее известные бренды. Так же были компании, которые выпускали видео карты обеих производителей. Это достаточно крупные и известные компании: Gigabyte, Asus, MSI и др.
На данный момент АМД не выпускает карты, создавая лишь ограниченный тираж карт для тестирования, и в качестве образцов для партнеров. Нвидия, как и АМД, так же не выпускала карты последние несколько лет, но пару месяцев назад возобновила производство карт совместно с Foxconn под своим брендом.
АМД/Ати и Нвидия сами разрабатывают карту начиная от системы питания, и заканчивая тактовыми частотами графического чипа и памяти. Выходные модели берутся за образец, за эталон, за стандарт, или как частот любят говорить за референс. Референсная видеокарта — это видеокарта сделанная по дизайну самого производителя.

Партнеры могут выпускать референсные модели. И в большинстве своем они не отличаются друг от друга. Т.е. допустим 5870 или GTX470 от разных производителей не отличаются друг от друга ничем, кроме как наклейкой на кожухе видеокарты или, в редких случаях, комплектом поставки.

Референсные видеокарты 5870 от разных производителей.

Однако у партнеров есть свобода в плане разработке собственного дизайна. Изменения могут касаться практически любого элемента видеокарты, за исключением графического процессора. Доработка может иметь косметическую направляющую, а может касаться глубочайшей переработке видеокарты, когда от эталонной видеокарты не остается ни следа. Я вспоминаю видеокарты от Sapphire, на основе двух чипов 1950pro и 2600XT, которые не были даже в планах у самой АМД/Ати.

Перечислим основные элементы видеокарты, которые подвергаются доработке при создании не референсных видеокарт:
1) Система охлаждения. Замена может дойти вплоть до использования водоблоков, а иногда видеокарта поставляется с полным набором контуров, для создания СВО. Не всегда партнеры используют кулеры собственной разработки. Часто кулер поставляется сторонними изготовителями, например Zalman, Artic Cooling и другие.
2) Тактовые частоты графического процессора и памяти.
3) Система питания видеокарты.
4) Чипы памяти.
5) Использование более многослойной печатной платы, и использование других модификаций ПП. Тут в первую очередь стоит отметить Gigabyte c её технолгией UDV.
6) Глубокая переработка видеокарты, вязаная с использованием двух одинаковых чипов, для создания систем crossfire/sli, или же использования двух чипов под разные функции. Например одна отвечает за Physx, а другая непосредственно за создание изображения.

Список, на мой взгляд, приведен в соответствии с распространенностью применения при разработке не референсов у производителей.
Немного хотелось бы остановится на первом пункте.
Воздушные системы охлаждения можно разделить на три основные группы:
1) Осевые или открытые системы охлаждения. Осевой, потому что воздух идет вдоль оси кулера сверху вниз.

Не референсная видеокарта 5850 с осевым кулером
Благодаря крупному вентилятору (у большинства видеокарт подобного типа) основным плюсом является тихость видеокарты, при сохранении отменной эффективности в плане охлаждения. Вместо одного большого вентилятора партнеры могут добавить 2 или 3 (особенно популярно на двухчиповых видеокартах) вентилятора меньших диаметров. Это позволяет добиться более полного и равномерного обдува печатной платы с горячими ключами. Однако есть пару минусов. Во первых это то, что видеокарта не выдувает разогретый воздух за пределы корпуса. И если подобный кулер будет стоит на очень горячих чипах, наподобе GTX480, то без качественного корпусного охлаждения не обойтись, иначе возможен нагрев остальных компонентов системного блока. При использовании данного типа охлаждения попадаются модели, когда производители оставляют без непосредственного охлаждения память, иногда систему питания. Хотя опыт владения двух нестандартных карт на основе данного кулера подсказывает, что для использования на номинальных частотах, или небольшого разгона и простого обдува кулером хватает.

2) Турбинные или панцирные системы охлаждения. Практически все референсные видеокарты используют данный тип охлаждения. В отличии от осевого кулера, в данным случае воздух направляется по вектору, отработанный воздух выдувается за пределы корпуса, а теплорассеиватель (он же радиатор или испарительная камера) непосредственно контактирует со всеми горячими ключами видеокарты. Осноной минус, по сравнению с осевыми кулерами — ухудшение показателя производительность/шум.

Референсная GTX470 c турбинной системой охлаждения

3) Смешанные — когда невозможно 100 проценто приписать кулер к первым двум типам систем охлаждения. Например:

Это 5870 vapor-x от Sapphire. Здесь мы видим кожух, как у панцирной системы охлаждения, но сама вертушка не турбинного типа, а осевой вентилятор. В итоге, конкретно в этой модели, часть воздуха выбрасывается за пределы корпуса, часть идет в системник. Попутно охлаждаются все жизненоважный элементы карты (ключи), а система охлаждения остается достаточно тихой.

Но тут возникает вопрос. Зачем компаниям партнерам такие затраты в создании нерефернсных видеокарт?

При создании нерефернсных карт производитель преследует несколько целей, и в зависимости от целей, создается особый дизайн видеокарты. И так цели, и как их добиться:
1) Снижение себестоимости карты. Самая подлая цель на мой взгляд Снизив себестоимость, можно, соответственно, и продавать карты по дешевле. А как известно, цена — это решающий фактор для большинства потребителя. Этой цели можно добиться в том случае, если при сборке видеокарты будет использованы более дешевая элементная база. В нашем списке элементов, приведенный выше меняется система охлаждения и/или система питания и/или чипы памяти. Это крайне негативно сказывается на разгонном потенциале, и потребительских качествах.
Например одна видеокарта одной модели 5770 (не буду упоминать производителя) вообще построена на элементной базе от 5750. Плюс — низкая цена. Но эксплуатировать рекомендуется только на номинальных частотах.
2) Замена системы охлаждения с использованием печатной платы стандартного дизайна. Но тут просто — взяли стандартную видеокарту и заменили систему охлаждения. В большинстве случаев турбины меняют на осевые вентиляторы, в результате чего они становится тише. Реже турбину меняют на турбину. Иногда замена кулера идет с небольшим/серьезным заводским разгоном.
3) Замена системы охлаждения, переработка всех основных элемнтов — иными словами создание видеокарты для овелокера, богатого энтузиаста, и создание карты которая действительно будет лучше рефренсной карты. К этой же цели, можно приписать еще одну цель:
4) маркетинг, создание отдельной, узнаваемой линейки видеокарт, название которой автоматом обозначает, что перед нами высококлассный продукт. Хочется отметить, что это удается не всегда, и разгонный потенциал на уровне или даже не дотягивает до референса. Ну наверное многие знают серию lightning от MSI, AMP! от Zotac, Toxic и Atomic от Sapphire, SOC от Gigabyte и другие. Обычно цена этих изданий довольно высока.

Читайте также:  Восстановление boot сектора windows 7

MSI GeForce GTX 480 Lightning — полностью переделанная GTX480

Подведя итоги хочется отметить, что не стоит верить высказыванию — «Нерефернс — намного лучше референса» Как показывает практика 80 процентов нерефернсных видеокарт не дотягивает по показателям разгона. Особенно это становится очевидно при замене системы охлаждения на водоблоки или более серьезные системы воздушного охлаждения от сторонних производитлей, таких как Thermalrignt, Zalaman и других.
Осноной плюс нерефернсов — тихость. И многие потребители требует от своего компьютера именно это. Как я кстати. И не
каждый будет требовать от своей видеокарты максимального разгона. Качественные нерефернсы в любом случае гонятся хорошо. И качественных нереференсов много в продаже, и их стоит покупать. Последние две мои видеокарты были нестандартный. и я нежалею об их покупке. Редко отметим у нереференсных карт- усиленный разгонный потенциал, сильный заводской разгон.
Какую видеокарту покупать — решать вам, в зависимости от требований к видеокарте. Но в любом случае, посоветуйтесь со специалистами нашего форума

Так же намечается тенденция к использованию испарительных камер уже в эталонных системах, при этом данной модификацией пользуется как АМД так и Нвидия. Что для конечного пользователя только плюс.

Линейки и маркировка видеокарт NVIDIA

Часто перед выбором сложно разобраться в ее позиционировании в линейке, а так же ее особенностях и производительности. Эта статья призвана осветить этот вопрос и рассказать вам об основных линейках видеокарт NVIDIA, их поколениях, предназначении, маркировке и производительности.

В данном материале не будут рассматриваться карточки до 2010 года выпуска и микроархитектуры Fermi, так как они уже потеряли свою актуальность на сегодняшний день. Исключения составляют лишь топовые для своего времени решения, но и они сейчас являются лишь простыми середнячками и нигде не продаются. Также здесь не будет рассмотрена линейка ION, ввиду того, что на данный момент компьютеры с данными карточками не продаются.

Для поиска полезной информации по видеокартам NVIDIA советуем воспользоваться их сайтом.

Если вам интересна данная информация, то можете глянуть подобные статьи про видеоадаптеры AMD и втроенную графику от Intel, также вам может быть интересным:

Это семейство является самым основным у компании NVIDIA. Ее представители ставятся как в мощные игровые ПК, так и в простенькие офисные ноутбуки. Видеокарты из этого семейства удовлетворяют 90% потребностей простых потребителей. Остальные семейства созданы для энтузиастов, для профессионалов и корпоративного сегмента или вовсе для достаточно необычных на первый взгляд задач.

Поколение и микроархитектура видеочипа отражены в его кодовом названии. Так:

  • GF – Fermi
  • GK – Kepler
  • GM – Maxwell
  • GP – Pascal

Про первые вышедшие карты на Pascal можете прочесть по соответствующим ссылкам: GTX 1060, GTX 1070, GTX 1080, TITAN X, а сейчас уже подоспели и мобильные GTX 1080/1070/1060.

Но в эту таблицу надо внести несколько поправок:

* — означает, что исключение существует для некоторых модификаций этих видеокарт.

  • GT – это буквенное сочетание отражает видеокарты низкого уровня производительности, их нельзя рассматривать как игровые.
  • GTX – этим индексом обозначаются видеоадаптеры среднего и высокого уровня, которые хорошо подходят для игр.
  • M – мобильная видеокарта (они сильно слабее своих братьев без этой буквы)
  • X – маркировка более производительной видеокарты у мобильных решений
  • LE – так обозначается версия карты с более низкой тактовой частотой у мобильных адаптеров
  • Ti – обозначение более производительной версии у десктопных карт

Стоит отметить, что более производительная версия отличается не только разгоном, но и компонентами ядра (унифицированные шейдерные блоки, блоки текстурирования, блоки растеризации).

Возможно, начиная с поколения Pascal мобильные видеокарты перестанут оснащаться буквой M, так как используют почти те же чипы.

Следующие после поколения цифры указывают на положение модели в линейке.

Интересный факт: 90 означает 2 чипа 80 в режиме SLI (работают в паре).

Это подлинейка GeForce, ведь они имеют индекс GTX. Для начала надо разобраться с позиционированием данной линейки. Это самые быстрые и дорогие видеокарты на данный момент. Но эта цена действительно слишком высока для такого уровня производительности. Все дело в том, что так же они позиционируются, как мощные профессиональные видеокарты для математических вычислений и вычислений FP 64 (вычисления с плавающей запятой двойной точности). Это своего рода внедорожник в мире видеокарт – и работать можно и играть. Исключением является Titan X, который не хватает с неба звезд в FP 64 – вычислениях и по сути является просто очень дорогой видеокартой с огромным набором видеопамяти.

В этой линейке на начало 2016 года есть только 5 видеокарт и почти все в референсном дизайне (версии от сторонних производителей).

TITAN, TITAN Black Edition и TITAN Z принадлежат Kepler, TITAN X – Maxwell, еще есть TITAN X в Pascal (отличия в приставках: у первого полное название NVIDIA GeForce GTX TITAN X, а у второго просто NVIDIA TITAN X).

Про все модели можете прочесть на сайте NVIDIA.

Это семейство предназначено для профессионального использования. Эти карты очень хорошо подойдут для сложных 3D-приложений и вычислительных симуляций. На этих картах производится рендеринг настоящих фильмов со спецэффектами. Эти карты не подходят для игр. Даже самые дорогие решения будут проигрывать средним игровым видеокартам GeForce. Все дело в том, что эти видеоадаптеры рассчитаны на вычисления с плавающей запятой двойной точности (FP 64), а играм достаточно и одинарной (FP 32). А вот в этих более точных вычислениях и приложениях, использующих OpenGL драйвера превосходство Quadro просто колоссально, ведь даже дешевые Quadro (хотя не такие уж они и дешевые) уделывают самые мощные игровые видеокарты (за исключением некоторых Titan). Если же в приложении никакой конкретной оптимизации под возможности Quadro карт нет, то тут результат решается количеством потоковых процессоров и пропускной способностью памяти, в чем у игровых видеокарт полный порядок.

Мы не будем затрагивать карты до микроархитектуры Fermi.

Первая буква означает микроархитектуру чипа:

  • ее нет – Fermi
  • K – Kepler
  • M – Maxwell

Буквенные индексы есть и в конце названия модели:

  • M – обозначение мобильной видеокарты
  • D – другой набор выходов. В случае с K2000 вместо двух портов DisplayPort и одного DL-DVI в D-версии стоят два выхода DL-DVI и один mini-DisplayPort.

Цифры же указывают на положение модели видеокарты в линейке (больше — лучше).

Давно известно, что видеокарты (GPU) гораздо быстрее делают математические вычисления, нежели процессоры (CPU). Все дело в том, что в этих операциях большое значение играют количество ядер и параллельность расчетов. В видеочипах ядер намного больше, чем в CPU. Если брать CUDA, то в одной видеокарте их может быть до 3072 штук! Эта особенность связана с ролью видеокарты в компьютере – ей надо делать множество простых действий параллельно и за очень короткое время. Tesla – это семейство, созданное специально для ускорения математических вычислений. Такие карты хорошо справляются с как с FP 32, так и с FP 64 расчетами. Их используют в научных центрах и на серверах, ведь на единицу потребленной энергии они сделают больше полезной работы, нежели процессор. Интересный факт: в картах этой линейки нет видеовыходов.Первая буква означает поколение

Цифры являются указателем на положение чипа в линейке (больше — лучше). Здесь мы не будем разбирать буквенные индексы и подробности маркировки. Наша цель – ознакомить вас с этим семейством и рассказать о нем пару слов. Информации про все семейство достаточно мало из-за применения лишь в узких областях и сложности в приобретении.

Интересный факт: Есть такая видеокарта NVIDIA Quadro M6000 с 24 ГБ видеопамяти!

Это семейство создано для корпоративного сегмента. Раньше оно было частью семейства Quadro и обозначалось также буквами «NVS». Эти видеочипы созданы для бизнес-приложений (финансовых, корпоративных, ECAD), многомониторных решений. Например, их используют для цифровых информационных панелей. Их особенностями являются большое количество портов для подключения дисплеев в некоторых моделях и очень низкая общая стоимость поддержки (ТСО). Производительностью они не блещут и в них используется не такая быстрая DDR3 память. Тепловыделение не превышает 70 Вт. Для сравнения, в самой мощной модели NVIDIA NVS 810 всего 512 ядер CUDA, TDP 68 Вт и 4 ГБ DDR3 памяти, но целых 8 выходов Mini DisplayPort 1.2.

Всю информацию об актуальных моделях можете узнать здесь.

Семейство систем на кристалле (SoC) для мобильных устройств (про SoC на нашем сайте есть хорошая статья). В рамках него были представлены первые двухъядерные и четырехъядерные решения. Во времена своего выхода являются топовыми решениями в плане графики, но и в процессорной части дела обстоят довольно хорошо. На данный момент у них есть свои разработки ядер Denver, вместо «классических» Cortex. Есть две версии Tegra K1:

  • 2 ядра Denver
  • 4 ядра Cortex-A15

Tegra K1 был построен на микроархитектуре Kepler, а Tegra X1 на Maxwell. Как ни странно, но Tegra X1 использует 4 ядра Cortex-A-53 и 4 ядра Cortex-A-57 (технология big.LITTLE). Преимуществом является то, что есть эксклюзивные проекты и портированные компьютерные игры, сделанные только под устройства на базе Tegra, ввиду их мощности и связей компании. У Nvidia так же есть свои планшеты и портативные косоли, где реализованы некоторые интересные технологии. Например, трансляция игр с ПК на экран своего мобильного устройства на базе Tegra. Устройства на базе Tegra являются хорошим подспорьем для мобильного гейминга.

Интересные факты:

Tegra 2 стал первым 2-х ядерным чипом для мобильных устройств.

Tegra 3 повторил успех предыдущего чипа, но уже с 4 ядрами.

Tegra K1 перешел на микроархитектуру графического ядра Kepler и 28 нм техпроцесс и вплотную приблизился в производительности к PS3 и XBOX 360.

Tegra X1 применяет технологию big.LITTLE, перешел на микроархитектуру Maxwell и 20 нм техпроцесс. Стал первым первой системой на кристалле, достигшей производительности в 1 терафлопс в FP 16 вычислениях с плавающей запятой. На демонстрирование демки Unreal Engine 4 «Elemental» он тратил 10 Вт, Xbox One – 100 Вт, а топовый ПК 2012 года – 300 Вт. Это не означает, что он может сравниться с топовым ПК 2012 года, а лишь демонстрирует огромный рост эффективности видеочипов.

Про другие интересные факты о GPU можно узнать по ссылке.

Битва титанов

Как-то вот так получилось, что сегодня графические процессоры производят только два бренда Nvidia и AMD. Все остальные, не выдержав конкурентной борьбы, или ушли с рынка, или поглощены одним из этих гигантов.

С одной стороны, это хорошо для потребителя: соревнуясь между собой, два этих бренда постоянно предлагают новые решения, более совершенные в техническом плане и более производительные. Невидимая рука рынка слегка удерживает цены, не давая им устремиться в заоблачные дали.

С другой стороны, здравый смысл подсказывает, что в чистом виде конкурентная борьба закончилась в эпоху первичного накопления капитала, а сегодня скорее имеет место корпоративный сговор. Несомненно: существуют договоренности между этими двумя брендами о минимальных ценах.

Так, гораздо выгоднее сообща «доить» публику, что успешно практикуется, чем пытаться уничтожить друг друга. Хотя и конкурентная, это все таки борьба, что подразумевает победу одной из сторон, не так ли?

Поклонники конспирологии могут рассказать также и о сговоре и разработчиков видеоигры: сами посмотрите, как год от года увеличиваются системные требования продуктов ААА класса, вынуждая продвинутого геймера постоянно проводить апгрейд. Впрочем, я немного отвлекся.

Преимущества и недостатки референса

Теперь пришла пора рассмотреть еще один вопрос. Так ли хороши референсные видеокарты? Плюсы и минусы есть у любого продукта. Но сейчас не будут рассматриваться конкретные производители и модели. Перечисление недостатков и преимуществ будет носить общий характер.

Начнем с плюсов эталонных видеокарт:

  • Технические характеристики, предусмотренные производителем.
  • Референсное охлаждение видеокарты.
  • Невероятная надежность и долговечность.
  • Устойчивая производительность.
  • Нет проблем с поддержкой и драйверами.
  • Оригинальный дизайн.
  • Совместимость с различными комплектующими.

Это основные преимущества референсных видеокарт. Они работают именно в том режиме, который был предусмотрен разработчиком. Именно поэтому они более надежны, чем нереференсные модели.

А теперь нужно рассмотреть недостатки:

  • Скудные возможности разгона (чаще всего их вообще нет).
  • Недостаточная мощность системы охлаждения.
  • Скучный внешний вид.
  • Невозможно модернизировать.

Однако назвать эти минусы серьезными нельзя. Если видеокарта не имеет опции разгона, это значит, что так оно и должно быть. Ведь производитель создавал адаптеры, основываясь на своих наработках. И он лучше знает, что можно делать с видеокартой, а чего делать не стоит. А скучный дизайн — это и вовсе не недостаток. Все равно адаптер не виден в системном блоке.

Преимущества и недостатки референса

Теперь пришла пора рассмотреть еще один вопрос. Так ли хороши референсные видеокарты? Плюсы и минусы есть у любого продукта. Но сейчас не будут рассматриваться конкретные производители и модели. Перечисление недостатков и преимуществ будет носить общий характер.

Начнем с плюсов эталонных видеокарт:

  • Технические характеристики, предусмотренные производителем.
  • Референсное охлаждение видеокарты.
  • Невероятная надежность и долговечность.
  • Устойчивая производительность.
  • Нет проблем с поддержкой и драйверами.
  • Оригинальный дизайн.
  • Совместимость с различными комплектующими.

Это основные преимущества референсных видеокарт. Они работают именно в том режиме, который был предусмотрен разработчиком. Именно поэтому они более надежны, чем нереференсные модели.

А теперь нужно рассмотреть недостатки:

  • Скудные возможности разгона (чаще всего их вообще нет).
  • Недостаточная мощность системы охлаждения.
  • Скучный внешний вид.
  • Невозможно модернизировать.

Однако назвать эти минусы серьезными нельзя. Если видеокарта не имеет опции разгона, это значит, что так оно и должно быть. Ведь производитель создавал адаптеры, основываясь на своих наработках. И он лучше знает, что можно делать с видеокартой, а чего делать не стоит. А скучный дизайн — это и вовсе не недостаток. Все равно адаптер не виден в системном блоке.

Ссылка на основную публикацию