Чем отличается профессиональная видеокарта от игровой

Чем отличается профессиональная видеокарта от игровой

Отличия игровой видеокарты от видеокарты для рабочей станции

Отличия игровой видеокарты от видеокарты для рабочей станции

Хотите узнать разницу, отличия игровой видеокарты от видеокарты для рабочей станции? Когда кто-то говорит о видеокартах, мы обычно думаем об игровых видеокартах. Это связано с тем, что большинство пользователей не знают, что существуют и другие типы видеокарт. И даже если они это знали, они не знают точной разницы между ними (видеокарты для рабочих станций) и обычными игровыми видеокартами.

Как правило, существует два типа видеокарт, один из которых — игровые видеокарты, которые мы все знаем. А другой тип — видеокарты для рабочих станций или профессиональные видеокарты, которые имеют совершенно разные области применения.

Оба эти типа видеокарт в некотором роде похожи, но они также имеют большие различия. Особенно с точки зрения технических аспектов. Итак, здесь, в этом посте, я собираюсь провести четкое сравнение между видеокартами для рабочей станции и игровыми видеокартами. Принимая во внимание все факторы.

Сравнение видеокарт для рабочих станций и игровых видеокарт

Сравнение видеокарт для рабочих станций или профессиональных видеокарт с игровыми видеокартами. На основе различных факторов и технических характеристик. Отличия игровой видеокарты от видеокарты для рабочей станции

Производитель

Два крупнейших производителя видеокарт и графических процессоров, Nvidia и AMD, производят как видеокарты для рабочих станций, так и игровые видеокарты.

Что касается игровых видеокарт, у Nvidia есть несколько авторизованных партнеров, включая крупные компании, такие как Asus, MSI, EVGA, Gigabyte и т. д. Но для видеокарт для рабочих станций есть только одна компания, которая называется PNY.

Это означает, что только PNY может создавать видеокарты Nvidia Workstation. Видеокартами серии Nvidia для игр являются GeForce, а для видеокарт для рабочих станций используется серия — Quadro.

Аналогично, AMD имеет различных партнеров по производству плат для видеокарт игровой серии. Но очень мало партнеров для видеокарт для рабочих станций.

Это означает, что никакая другая компания не может производить видеокарты для рабочих станций AMD, кроме AMD и ее авторизованного партнера (Sapphire) для производства плат для рабочих станций.

Видеокарты игровой серии от AMD — это, как правило, Radeon RX. А для видеокарт для рабочих станций используется название — FirePro. Тем не менее, вы можете найти некоторые видеокарты для рабочих станций AMD с брендом Radeon & Vega. Например AMD Radeon Pro Duo и Radeon Vega Frontier Edition.

Графический процессор на рабочей станции и игровые видеокарты могут или не могут быть одинаковыми. В зависимости от видеокарты. Например, Nvidia Quadro P5000 / P4000 и GeForce GTX 1070 и GeForce GTX 1080 используют один и тот же графический процессор GP104.

Кроме того, нет технической разницы между профессиональными видеокартами и игровыми видеокартами, которые основаны на одной архитектуре графического процессора. То есть видеокарта рабочей станции на основе Pascal и игровая видеокарта будут иметь одинаковую технологию графического процессора. А так-же возможности и производственный процесс. Это также относится к видеокартам для рабочих станций AMD.

Видеокарты для рабочих станций и для игр поставляются с одинаковым типом памяти. То есть это может быть память GDDR5, GDDR5X, HBM или HBM2. Тем не менее, есть большая разница между памятью этих двух типов видеокарт.

Память, используемая на рабочей станции или профессиональных видеокартах, — это ECC (код, исправляющий ошибки), который обеспечивает большую точность результатов и вычислений за счет некоторой скорости. В то время как графические карты игрового уровня используют память не-ECC, которая быстрее, но не настолько точна по сравнению с памятью ECC.

Некоторые видеокарты для рабочих станций могут не иметь памяти ECC, поэтому проверьте это при покупке.

Прошивка и Драйверы

Микропрограмма или BIOS, используемые в профессиональных видеокартах и игровых видеокартах, настраиваются по-разному. Микропрограммное обеспечение в видеокартах для рабочих станций оптимизировано с точки зрения точности и стабильности. А в игровых видеокартах — для скорости и производительности.

Кроме того, драйверы для рабочих станций и игровых видеокарт различны. Драйверы для графических процессоров рабочих станций оптимизированы для 3D-моделирования, САПР, CAM или профессиональных графических программ.

С другой стороны, драйверы игровых видеокарт оптимизированы для новейших игр для обеспечения высокой частоты кадров (FPS) в играх. Так что вы можете иметь супер плавный игровой процесс на вашем ПК.

Назначение

Видеокарты для рабочих станций используются в научных лабораториях, высокопроизводительных серверах, киностудиях, студиях разработки игр. А так-же в профессиональных установках и для запуска программ CAD / CAM, программ Maya, Solidworks, AutoCAD, 3D Modeling & Animation.

Некоторые видеокарты для рабочих станций также могут запускать игры с высокими настройками графики с воспроизводимой частотой кадров.

С другой стороны, игровые видеокарты обычно используются для запуска последних игр топ класса. Однако игровые видеокарты также можно использовать для редактирования видео. И так-же запуска графических программ для пользователей, которые не могут позволить себе видеокарты для рабочих станций.

Производительность

Видеокарты для рабочих станций более стабильны, надежны и обеспечивают высокая точность и производительность в тяжелых графических приложениях и профессиональных графических программах.

С другой стороны, игровые видеокарты обеспечивают отличную производительность в играх для увеличения производительности. И вы можете разогнать их до более высоких частот.

Разгон не по гарантии и может нарушить стабильность видеокарты. И так-же может привести к нежелательным эффектам и сбоям во время игр или в графических приложениях. Для разгона игровых видеокарт Nvidia и AMD доступны различные программы для разгона видеокарт.

Возможности

Видеокарты для рабочих станций поставляются с функциями, предназначенными для профессиональных программ для повышения производительности. С другой стороны, функции игровых видеокарт ориентированы на игры для повышения игровой производительности и игрового опыта.

Например, видеокарты Nvidia и AMD имеют такие функции, как G-Sync и FreeSync, соответственно. Которые уменьшают заикание и разрывание экрана в играх.

Потребляемая мощность

Потребляемая мощность зависит от используемого графического процессора и вычислительной мощности обеих этих видеокарт. Но в целом графическая карта для рабочей станции требует более стабильного и мощного питания по сравнению с игровой графикой.

Видеокарты для рабочих станций очень дорогие, а иногда от пяти до в десять раз дороже, чем игровая видеокарта с таким же графическим процессором. Например, обычный GeForce GTX 1080 стоит около 500 долларов. А Nvidia Quadro P5000 (с таким же GPU GP104 в GTX 1080) обойдется вам в 2500 долларов (приблизительно).

Разница между профессиональной и игровой видеокартой

Выбирая видеокарту, вы обязательно столкнетесь с четким разделением всех представленных в продаже моделей на три типа: офисные, игровые и профессиональные. С первыми все более-менее ясно: эти графические адаптеры предназначены для вывода на экран двухмерного изображения в процессе работы с нетребовательными к ресурсам программами, и их потолок – воспроизведение FHD-видео и лет пять назад вышедшие в тираж нехитрые геймерские радости. А вот чем отличается профессиональная видеокарта от игровой?

Если вспомнить, как вольно маркетинг обращается с определением «профессиональное» (профессиональная косметика, профессиональные фотоаппараты), то аналогия возникает однозначная. Внимание: когда речь идет о видеокартах, этот термин обозначает не высокий класс и такую же цену, а технологические особенности.

Профессиональная видеокарта

Профессиональная видеокарта – тип графического ускорителя, предназначенный для решения узкого круга задач в системах автоматизированного проектирования и инженерных расчетов, визуализации, бизнес-приложениях и многомониторных конфигурациях. Рабочие станции на их основе используются медиками, архитекторами, конструкторами, физиками, создателями трехмерной анимации, дизайнерами.

Игровая видеокарта

Игровая видеокарта – тип графического ускорителя, обеспечивающий комфортную работу с 3D-контентом преимущественно в компьютерных играх.

Как видим, отличие профессиональной видеокарты от игровой – в сфере их применения. Современные модели могут базироваться на абсолютно идентичных аппаратных элементах, однако показатели их производительности будут разными. Универсальность исключена: предназначенные для САПР серии NVidia Quadro и AMD FirePro (и уже почти редкие Matrox) в играх могут серьезно уступать, допустим, середнячкам из линейки GeForce, так что приобретение подобных графических решений должно иметь под собой серьезное основание. NVidia Tesla же вообще применяются для вычислительных задач, у большинства моделей даже отсутствуют разъемы для подключения периферии.

Несколько лет назад оверклокеры любили похвастаться победами над корпорациями, превратив игровой видеоадаптер в профессиональный с помощью некоторого шаманства (иногда с паяльником в руках). Это стало возможным, когда производство унифицировалось и NVidia с AMD стали использовать для разных типов графических ускорителей один аппаратный набор. Разница сосредоточилась в плоскости драйверов и программного обеспечения, потому манипуляции с ними казались эффективными: разблокировать одни функции и заблокировать другие – извечная забава рыцарей разгона.

И сегодня технические характеристики игровых и профессиональных видеокарт могут быть совершенно одинаковыми, а вот поддерживаемые технологии – в корне различаться. Все дело в практически диаметрально противоположных задачах отрисовки графики в процессе создания 3D-изображения. В играх, независимо от используемого API, модели создаются максимально простые, количество полигонов в сцене измеряется сотнями, а требуемая картинка появляется благодаря качественным текстурам, шейдерным и другим спецэффектам. В инженерных системах одна сцена способна включать миллионы полигонов, тогда как текстуры и эффекты оказываются просто ненужными.

Упрощенно это можно свести к тому, что в игровых приложениях важны общая картинка и эффекты, а в профессиональных – точность отображения деталей. Потому к видеоадаптерам для первых предъявляются требования, связанные со скоростью создания текстур и быстродействием шейдеров. Ускорители для вторых же делают ставку на геометрическую производительность графического процессора. Также все еще можно говорить о преимущественной поддержке профессиональными видеокартами одних API, а игровыми – других, однако в этом отношении разработчики софта постепенно стирают все границы.

Читать еще:  Отсутствует Buddha dll что делать

Как правило, профессиональные решения не снабжаются разъемами всех известных типов: чаще всего мы увидим на задней планке DisplayPort (от 2 до 4) и DVI, иногда miniDP, TV-out. HDMI не применяется: во-первых, до недавнего времени DP был бесплатным; во-вторых, кабель DP может быть длиннее, чем HDMI; в-третьих, пропускная способность последнего интерфейса в два раза ниже.

Большинство пользователей начинают интересоваться, в чем разница между профессиональной и игровой видеокартой, увидев одинаковые технические характеристики и значительные расхождения в стоимости. Правда, бюджетные модели обоих типов в этом отношении примерно сравнялись, но ценники среднего класса и топ-сегмента вызывают желание спросить, за что именно мы платим. Оказывается, все честно.

Профессиональные видеоадаптеры – продукт нишевый, поэтому вендоры не слишком охотно включают его в свой арсенал: слишком много технических требований для штучного товара. В отличие от игровых карт, которые не выпускает только ленивый, NVidia Quadro и AMD FirePro можно найти в каталогах PNY, Sapphire, HP.

Игровые видеоускорители никак не связаны с разработчиками игр, тогда как профессиональные сертифицируются разработчиками ПО. Для них выпускаются специальные драйвера и дополнения, позволяющие максимально эффективно работать с пакетами программ. Обязательно оказывается оперативная техническая поддержка, и благодаря жесткой стандартизации специалистам не приходится гадать, как исправить выявленные недостатки и недочеты в работе графических станций.

Если продукт для геймеров может быть сконфигурирован по желанию производителя, то профессиональные видеоадаптеры абсолютно одинаковы, строго стандартизированы и даже минимальных изменений в дизайне не терпят. Они проходят обязательное серьезное тестирование, а гарантия на них существенно выше. Это говорит как минимум о надежности подобных решений.

Профессиональные и игровые видеокарты

Меня часто спрашивают: для чего предназначены профессиональные видеокарты и чем они отличаются от обычных?

Вопрос этот, конечно же важен, т.к. стоимость обычной (игровой) видеокарты очень сильно отличается от цены профессиональной. Профессиональная намного дороже. И предназначена для других задач. Совсем других. Не таких, для которых нужна игровая плата.

Например, среди сегодняшних ноутбуков можно встретить модели, которые оснащены профессиональным видеоускорителем, и, понятное дело, надпись в листе описаний: «Видеокарта — профессиональная, nVidia Quadro» и т.п. вызывают вопрос — «а что это за профессиональная видеокарта и зачем она нужна»? Поэтому, сегодня я предлагаю вам поговорить о том, для чего предназначены эти видеоускорители.

Итак, обычные видеокарты (игровые) — это те видеокарты, которые мы можем встретить в подавляющем большинстве настольных компьютеров и ноутбуков. Собственно, сюда, для простоты понимания относим два (а больше-то и нету, за небольшим исключением…) известных на весь мир бренда видеокарт: nVidia GeForce и AMD(ATi) Radeon.

Небольшое отступление: В данном случае я веду речь о настольных видеокартах. Поэтому, и говорю об этих двух самых распространенных брендах. Если же говорить применительно к ноутбукам, то в них могут (наряду с видеокартами этих брендов) находиться видеочипы собственного производства Intel или AMD, в зависимости от платформы ноутбука, например, Intel GMA X3100 — так же является обычным мультимедийным видеоускорителем.

Абсолютно все видеокарты, модели которых пишутся после этих слов (GeForce или Radeon) являются ускорителями, как принято говорить, игровыми. Эти видеокарты предназначены для работы с видео, фото, для игр и т.д. Т.е. для всего, что так необходимо домашнему мультимедйному компьютеру. Драйверы для этих устройств соответственно оптимизированы именно для этих задач.

Сразу же приведу пример фото такой обычной можно сказать видеокарты. Это Radeon HD3870 от Sapphire:

Профессиональные видеокарты — сегодня самые распространенные можно назвать марки nVidia Quadro и AMD(ATi) FireGL. Вот фото профессионального видеоускорителя AMD(ATi) FireGL V7700, который является проф. аналогом представленного выше HD3870:

Профессиональные видеокарты физически практически ничем не отличаются от своих игровых аналогов (например, AMD FireGL V7700 — это аналог настольного HD3870), однако отличия скрыты в драйверах и BIOS этих видеокарт. Именно драйверы и прошивки определяют иную «ориентацию» платы, а именно на работу в САПР (CAD), для настольных издательских систем, для визуальной симуляции. Сами производители не скрывают то, что оптимизация на «профессиональность» касается в меньшей стемени аппаратной части и в большей — драйверов. Однако уже это определяет то, что обычные игровые видеокарты будут «тормозить» в САПР, и хорошо показывать себя в домашнем мультимедиа и играх, в то время как профессиональные ускорители будут делать обратное предыдущему.

Итак, назначение профессионального видеоускорителя (как и обычного) понятны без комментариев. Однако, почему же их стоимости так разнятся? Radeon HD3870 можно купить примерно за $250, а ее проф. аналог — не менее чем за $1500? Дело в том, что игровых видеокарт выпускают множество, и покупают их чаще и больше, поэтому стоимость конкретной единицы — низкая. Но профессиональные видеокарты приобретает лишь ограниченный круг людей, поэтому карт продается меньше и стоимость одной единицы выше.

Итак, выбор видеокарты это, конечно, дело нелегкое (приче как обычной, так и профессиональной) , но с базовыми требованиями нужно определяться сразу, а именно — КАК вы будете использовать ускоритель? для чего? Если для САПР, визуализации, 3D моделирования, то вам нужно подсматривать ускоритель и профессионального класса. А если вашей целью является работа с фото, видео, играми — то выбирать нужно из обычных карт.

Для настольных ПК все вроде бы понятно — вряд ли кто-то «по ошибке» купит видеокарту за $1500 для игр, но если этот ПК — ноутбук, то здесь просчитаться очень даже можно!

Некоторые ноутбуки (на памяти сразу несколько моделей от НР) оснащаются проф. ускорителями, например, nVidia Quadro среднего уровня. Предположим, вам понравился (по характеристикам и пр.) ноутбук с такой видеокартой, но вашей целью отнюдь не является, например, САПР — что тогда? Во-первых, проф. карта может составлять существенную долю в стоимости ноутбука, а во-вторых: такой видеоускоритель может не оправдать ваших надежд в классе обычного мльтимедиа (фото, видео, игры). Поэтому, выбор делать нужно очень осторожно и вдумчиво, учитывать еще множество факторов (плюс к этим базовым) и конечно же, помощь специалиста тут необходима.

САПР для инженера

Блог Михайлова Андрея о приемах работы и хитростях в САПР

пятница, 25 сентября 2015 г.

Профессиональные и игровые графические карты. В чем разница?

Решил для себя разобраться — в чем же отличие между профессиональными и игровыми графическими картами?

Сразу хочу сказать, что я не профессионал в этой области и дальнейшее изложение будет на уровне обычного пользователя. Если хотите прочитать профессионально написанные материалы с кучей цифр, графиков и терминов, то в конце статьи есть две ссылки.

  • Узкая направленность. Профессиональные видеокарты ориентированы на использование в специализированных приложениях, предназначенных для работы с трехмерным моделированием, созданием анимационных роликов, визуализацией трехмерных объектов и сцен и пр. Тогда как игровая карта универсальна и подходит для решения широкого круга задач, связанных с обработкой графики
  • Используемое API — большинство игр для своей работы используют DirectX, а серьезные приложения для трёхмерного моделирования и САПР используют OpenGL. Это связано с тем, что в играх используются простые с технической точки зрения трехмерные сцены, состоящие из небольшого числа малоподвижных полигонов с наложенными на них текстурами и визуальными эффектами, в том числе шейдерными. В профессиональных программных пакетах трехмерного моделирования в формировании сцен используется гораздо большее число полигонов и практически не используются текстуры и, тем более, эффекты, поскольку самые распространенные типы отображения — каркасные модели и заливка по Гуро.
  • Ключевой параметр для профессиональных видеокарт — геометрическая производительность графического процессора, а для игровых — скорость текстурирования и быстродействие шейдерных блоков.
  • Специализированные OpenGL драйверы. Многие разработчики АО и ПО выпускают свои собственные драйверы для видеокарт, ориентированные на работу с конкретным приложением. Так, например, для видеокарт NVIDIA Quadro существуют драйверы, сертифицированные для работы с AutoCAD или Autodesk Inventor.
  • Аппаратно поддерживаемые функции. В профессиональных картах встроен ряд оптимизированных функций и технологий, который в игровых картах отсутствует за ненадобностью. Например, поддержка краевого сглаживания пикселей и линий, аппаратное ускорение вывода окон, курсора и меню поверх трехмерных моделей, аппаратное ускорение плоскостей разреза в CAD-системах, поддержка специальных алгоритмов расчета освещения и др.

7 комментариев:

«На одной из машин перед установкой Quadro 410 стояла GeForce GT 730, так после смены систему стало не узнать.» — Можно подробнее?

Конечно. Из того, что помню:
— Быстрее стали выводится окна в среде моделирования, их перетаскивание стало без рывков и перестал слышаться характерный треск в звуковом канале при их перетаскивании
— в Inventor смог установить время смены вида 0 и минимальную частоту 3 Гц (до этого комфортно мог установить только 2 сек и 15 Гц)
— В режиме реалистичного отображения с трассировкой луча в низком качестве картинка стала формироваться раза в 4 быстрее, в нормальном — раза в 2
— В чертежах разрезы и сечения стали прорисовываться заметно быстрее (время на открытие файлов со множеством проекционных видов сократилось.)
— В AutoCAD при перетаскивании больших блоков и больших выделенных кусков пропали артефакты и задержки отображения, меньше стало мусора на экране

Это из заметных, может было и еще что-то, уже не помню или не заметил.

Вот хорошая статья про работу обычных и проф. GPU в различных прикладных приложениях:
http://www.thg.ru/graphic/grafika_dlya_rabochikh_stantsiy/index.html

Список приложений:
CATIA V6 R2012
Creo 2
Energy
Maya 2013
Siemens NX 8.0
SolidWorks 2013

Видеокарты:
AMD от FP V3900 до FP W9000. ATI radeon 7750 и R9 290X
NVidia от Quadro К600 дл Quadro 6000. GF GTI 780Ti
http://www.thg.ru/graphic/grafika_dlya_rabochikh_stantsiy/images/grafika_dlya_rabochikh_stantsiy_019.png
http://www.thg.ru/graphic/grafika_dlya_rabochikh_stantsiy/images/grafika_dlya_rabochikh_stantsiy_048.png
http://www.thg.ru/graphic/grafika_dlya_rabochikh_stantsiy/images/grafika_dlya_rabochikh_stantsiy_064.png

Бывает здесь кто-нибудь? Есть вопрос по размерам в связке AIP+Quadro, если не затруднит.

Читать еще:  44100 или 48000 что лучше

В чем именно вопрос?

Добрый день! Спасибо, что отозвались. Помимо конструирования выпускаем документацию в AIP — на машине с Quadro при простановке размеров в чертеже происходит, как бы затемнение жёлтого листа. Это «не нравится» конструктору. Убрать этот эффект не получается. Может и не в Quadro дело, но машинах с игровыми карточками такого не наблюдается. Уже даже просто интересно в чём дело.

AIP — autodesk Inventor Professional?
стилей освещения, таких как в среде 3Д, в чертеже нет.
жёлтый фон можно через API менять на любой другой, можно на белый.

Что важнее: процессор или видеокарта

Вопрос «что важнее процессор или видеокарта?» по сути своей нелеп. При работе с двухмерной графикой, кодировании видео, аудио, компиляции кода, решает ЦП. В играх и 3D-приложениях (вроде профессиональных инженерных программ) важнее видеокарта, которая занимается обработкой трехмерной картинки. Но попытаться разобраться, насколько эта связь тесна, и на чем можно сэкономить, все же стоит. Чтобы сделать это – нужно проследить зависимость показателей производительности в разных связках ЦП и ГП.

Когда видеокарта не важна

Начать стоит с перечисления ситуаций, в которых без дискретной графики можно обойтись. Современные интегрированные решения способны полноценно справляться с задачами в веб-браузинге, работе с документами. Встроенный аппаратный декодер позволяет смотреть фильмы в разрешении 4К, не нагружая процессор. Поэтому в недорогом неигровом компьютере присутствие дискретной видеокарты необязательно.

Со старыми играми, выпущенными года так до 2012, встроенные ГП тоже справляются. Если на компьютере не предполагается играть в новые игры, и лишь иногда рубиться в классику – можно не покупать дискретный GPU, положившись на встроенный чип. В случае с ноутбуком такое решение – даже плюс, потому что модели без дискретного ГП дешевле, надежнее, меньше греются и лучше держат заряд.

Видеокарта и профессиональные приложения

Обойтись встроенной в процессор графикой можно в офисных редакторах, бухгалтерских программах. Инструменты для работы с графикой (и 2D, и 3D) могут поддерживать ускорение GPGPU (вычисления общего назначения). К примеру, такая функция есть в Adobe Photoshop, Media Encoder и Premiere, AutoCAD, Sony Vegas и других профессиональных приложениях.

Уточните на сайте разработчиков вашего инструмента, используются ли технологии CUDA, GPGPU, OpenCL и других методик аппаратного ускорения с помощью GPU. Если таковые имеются – видеокарта столь же важна, как и процессор, потому что она способствует более скоростной работе софта. Особенно это заметно в тяжелых проектах, которые даже мощным Core i7 или Ryzen 7 даются не без напряга.

Если ваши рабочие инструменты не умеют использовать графику для вычислений – то мощный процессор гораздо важнее. Условный Core i7, со встроенной или самой дешевой графической картой, предпочтительнее связки из i5 и флагманского игрового GPU.

Насколько процессор важен в играх

В играх важен баланс в сочетании процессора и видеокарты. Ведь если ЦП не успевает подавать информацию для обработки ГП – потенциал карты будет не раскрыт. Если процессор, наоборот, мощный, а видео – посредственное, он не даст ощутимой прибавки в FPS.

Условная связка из Intel Core i9 или AMD Ryzen 7 и Nvidia GTX 1060 в играх окажется всего на чуточку быстрее, чем связка той же видеокарты с Core i5 или Ryzen 3. Эта разница будет столь мизерной, что на глаз вы ее не увидите. А вот тандем из i5 и GTX 1070 выйдет мощнее (и дешевле), чем i9 и GTX 1060. То есть, в играх мощная видеокарта все-таки важнее.

Важность GPU вовсе не значит, что процессором можно пренебречь. С условным Core i3 или Ryzen 3 потенциал RTX 2080 Ti окажется не раскрыт полностью, переплата за флагманский GPU будет бессмысленной.

Опыт тестов и исследований показывает, что оптимальной является связка, в которой GPU по маркетинговому рангу равен или чуть выше процессора. То есть, к бюджетно-средней GTX 1060 подойдет ЦП вроде Ryzen 3 или Core i3 с 4 ядрами, к среднему классу наподобие GTX 1070 – Core i5 или Ryzen 5, а к флагману уровня RTX 2080 Ti – что-то из i7 или Ryzen 7.

Тратиться на Core i9 для игр смысла почти нет. Эти чипы дают мизерный прирост FPS в сравнение с i7, но сильно удорожают сборку ПК. Такие процессоры – решения рабочие, а не геймерские, и топовая видеокарта с предтоповым ЦП – сочетание куда более удачное, чем предтоповый ГП с флагманским процем.

Сборки вида «Core i9 + RTX 2060» являются и вовсе дисбалансными для геймера. ПК с процессором Core i7-8700 или Ryzen 7 2700 и графикой GeForce RTX 2060 в играх окажется всего на какие-то проценты медленнее, чем с i9-9900X, но дешевле на тысячу долларов. Все потому, что играм пока без особой нужды больше 8 ядер, а хорошая видеокарта важнее.

Помимо того, что флагманские чипы гораздо дороже моделей уровнем ниже, с их использованием растут и сопутствующие расходы. К примеру, самая бюджетная плата для Core i7-8700 или Ryzen 7 2700 стоит около $60, для i9-9900X – около $300. То же самое и с кулером, который для чипа числом ядер больше 10 обойдется недешево.

Наконец, при росте энергопотребления понадобится более мощный БП. Ведь связка i7-8700 и RTX 2060 имеет суммарный TDP примерно на треть ниже, чем i9-9900X и та же RTX 2060. Если для первой конфигурации хватит и «бронзового» блока питания ватт на 500-600, то второй необходимо нечто посолиднее.

Для простых задач мощная графическая карта ни к чему. Профессиональный софт уже требует глубже вникнуть в специфику и определить, насколько важны функции GPGPU и мощность графики в конкретном инструменте. Поэтому тут единого ответа, что важнее, процессор или видеокарта, дать нельзя.

Если говорить о сугубо геймерской машине – FPS гораздо сильнее зависит от мощности графики, чем ядер ЦП. Так что, если необходимо выбирать, на чем экономить – лучше купить более доступный процессор. Это рациональнее с точки зрения бюджета. Но вдаваться в крайности не нужно, так как видеокарта хоть и важнее, но с дешевым двухъядерным ЦП тоже «каши не сваришь».

12 мифов о видеокартах, про которые пора забыть

В предыдущих статьях мы поговорили про мифы о процессорах, оперативной памяти и материнских платах, теперь же перейдем к видеокартам, которые уже давно стали обязательной частью любого компьютера.

Первый миф. Чем больше видеопамяти — тем быстрее видеокарта

Казалось бы, это логично — в более мощные видеокарты ставится больше памяти: так, GTX 1070 с 8 ГБ памяти быстрее, чем GTX 1060 с 6 ГБ, а GTX 1080 Ti с 11 ГБ быстрее GTX 1080 с 8 ГБ. Однако следует понимать, что видеопамять, конечно, важна, но зачастую различное ПО не использует всю имеющуюся у видеокарты память: так, в большинстве случаев GTX 1060 с 3 ГБ медленнее версии с 6 ГБ всего на 5-10%, и разница в основном идет из-за различного числа CUDA-ядер.

Но есть производители видеокарт, которые решили воспользоваться этим мифом в свою пользу: так, например, на рынке можно найти GT 740 с 4 ГБ GDDR5 памяти. Казалось бы — да у GTX 780 Ti, топовой видеокарты того поколения, всего 3 ГБ памяти — то есть GT 740, получается, лучше? Разумеется нет — на тех настройках графики, где используется столько памяти, эта видеокарта выдает слайд-шоу. Ну а если снизить уровень графики для повышения «играбельности», то окажется, что использовано от силы 1-2 ГБ памяти. Причем такие видеокарты встречаются и в текущих линейках — так, у AMD есть RX 550 с теми же 4 ГБ GDDR5 — с учетом того, что видеокарта выступает приблизительно на уровне GT 1030, очевидно, что использовать столько памяти она сможет в очень немногих задачах:

Так что не стоит судить о производительности видеокарты, опираясь только на объем видеопамяти.

Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное

Опять же, это кажется логичным: если видеокарте памяти не хватило, взять ее больше неоткуда — значит, программы корректно работать не смогут. Однако на деле это, разумеется, не так — любая видеокарта имеет доступ к оперативной памяти, которой обычно куда больше, чем видеопамяти. Конечно, ОЗУ в разы медленнее, а время доступа к ней больше — это может вызвать проблемы с плавностью картинки, но только лишь в том случае, если собственной памяти видеокарте не хватает сильно: например, у нее 2-3 ГБ памяти, а игра требует 4-5 ГБ. Но если не хватает нескольких сотен мегабайт, то обычно это проблем не вызывает: GPU умеют динамически использовать доступные им ресурсы, и в ОЗУ они стараются хранить ту информацию, которая нужна редко или не требует мгновенного отклика.

Третий миф. От разгона видеокарты сгорают

При этом различные производители продают разогнанные с завода версии видеокарт. Разумеется, при разгоне видеокарта может повредиться — но только в том случае, если вы измените «физические» параметры, такие как напряжение. Изменение программных параметров, таких как частоты, никак на «железо» не влияет, так что максимум, что вы получите, это вылет видеодрайвера или BSOD от выставления слишком высокой частоты.

Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено

Насчет производительности это, скорее, не миф, а теоретический результат. Увы — на практике, хотя тому же SLI 20 лет, а Nvidia его использует больше 10 лет, в большинстве игр прирост или околонулевой, или вообще отрицательный. Лишь в единичных проектах можно получить прирост хотя бы 20-30% в сравнении с одной видеокартой, что, конечно, смешно, с учетом двукратного увеличения стоимости и серьезных требований к блоку питания. Что касается вычислительных задач, то тут все сложнее: так, профессиональный софт вполне может использовать несколько GPU эффективно, но это уже не домашнее применение.

Читать еще:  Что означает хэштег VSCOCAM

Что касается видеопамяти, то тут все просто: при использовании DirectX 11 или ниже в видеопамять каждого используемого GPU записывается одинаковая информация, то есть у связки видеокарт будет по сути тот же объем памяти, что и у одиночной карты. А вот в API DirectX 12 есть возможность более эффективно использовать Split Frame Rendering, когда каждая видеокарта готовит свою часть кадра. В таком случае объемы видеопамяти суммируются — пусть и с оговорками.

Пятый миф. Профессиональные видеокарты лучше игровых

Миф идет от того, что профессиональные видеокарты (такие как Nvidia Quadro или AMD FirePro) стоят обычно сильно дороже пользовательских «игровых» видеокарт — а раз дороже, значит лучше. На практике вопрос только в том — в какой области лучше? С физической точки зрения большая часть профессиональных видеокарт имеют тот же GPU и тот же объем памяти, что и обычные игровые видеокарты, а разница идет только из-за других драйверов, которые больше заточены под профессиональное применение:

С учетом того, что эти драйвера под игры никто специально не адаптирует, то профессиональные видеокарты в играх зачастую будут несколько хуже аналогичных по производительности игровых GPU. С другой стороны, если мы будем сравнивать эти же видеокарты в различных CAD-ах или 3ds Max — перевес будет на стороне профессиональной графики, причем зачастую очень существенный. Так что ответ на миф таков: сравнивать эти видеокарты в лоб не имеет смысла, они «играют» и в разных ценовых сегментах, и в разных сценариях использования.

Шестой миф. Если видеокарта не раскрывается процессором — это плохо

Пожалуй, самый популярный миф, который гласит о том, что если видеокарта не занята на 100% — это плохо. С одной стороны, это кажется логичным: нагрузка ниже 100% означает, что видеокарта частично простаивает и вы недополучаете часть производительности. С другой стороны, многие забывают, что нагрузить GPU на 100% можно практически при любом процессоре. Как так? Очень просто: каждый процессор в каждой игре может подготовить для видеокарты лишь определенное количество кадров в секунду, и чем процессор мощнее — тем больше кадров он может подготовить. Соответственно, чтобы видеокарта была занята на 100%, она должна иметь возможность отрисовать меньше кадров в секунду, чем может дать ей процессор. Как это сделать? Да очень просто: поднять разрешение, поставить более высокие настройки графики, включить тяжелое сглаживание — и вуаля, GTX 1080 Ti в 5К на ультра-настройках графики «пыхтит», выдавая 15-20 кадров в секунду, а поставленный ей в пару двухядерный Intel Pentium едва ли нагружен на половину.

Легко можно получить и обратную ситуацию: взять ту же самую GTX 1080 Ti и запустить на ней игру в HD-разрешении с минимальными настройками графики — и тут даже Core i9-9900K не сможет подготовить для ней столько кадров в секунду, чтобы она была занята на 100%.

Так что тут можно сделать два вывода: во-первых, если видеокарта недогружена несильно, а итоговый fps вас устраивает — всегда можно еще немного увеличить настройки графики, чтобы получить 100% нагрузку на видеокарту с лучшей картинкой и при той же производительности. Во-вторых, собирайте сбалансированные сборки, дабы не было такого, что процессор занят на 100%, а fps в игре 20 кадров.

Седьмой миф. Чем уже шина памяти — тем ниже производительность видеокарты

Очень часто на различных форумах можно встретить посты типа «вот, 8 лет назад у GTX 480 шина памяти была 384 бита, а сейчас у GTX 1080 всего 256, Nvidia экономит». Опять кажется, что это логично — чем шире шина, тем больше данных по ней можно «гонять». Но тут следует помнить две вещи: во-первых, не шиной единой: частоты памяти с того времени выросли в разы, во-вторых — производители GPU постоянно улучшают алгоритмы передачи данных по шине, что позволяет использовать ее более эффективно. Все это приводит к тому, что ширину шины можно безболезненно урезать: так, MX150 (она же GT 1030), имея шину всего в 64 бита (как один канал ОЗУ), способна при этом выдавать производительность уровня GTX 950M со 128-битной шиной, которая еще пару-тройку лет назад считалась среднеуровневой мобильной игровой видеокартой:

Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета

Увы — аналогия с процессорами тут не работает: если те действительно удерживают максимальные частоты в рамках TDP вплоть до температуры, с которой начинается троттлинг из-за перегрева, то видеокарты работают хитрее: так, у Nvidia есть технология GPU Boost, которая, с одной стороны, является аналогом Turbo Boost для процессоров — позволяет поднимать частоту выше базовой — а с другой стороны имеет больше ограничений.

Возьмем, для примера, GTX 1080 Ti. Она имеет родную частоту в 1480 МГц, а Boost — 1580. Но стоит нагрузить видеокарту, как частота может подскочить до 1800-1850 МГц — то есть выше Boost: это и есть работа технологии GPU Boost. Дальше — интереснее: критические температуры у видеокарт поколения Pascal составляют порядка 95 градусов — но уже при 85 можно заметить, что частоты снижаются ближе к уровню Boost. Почему так? Потому что Nvidia ввела еще одну опорную температуру, которую называет целевой: при ее достижении видеокарта старается ее не превышать, а для этого сбрасывает частоты. Так что если у вас мощная видеокарта, да и еще с референсным турбинным охлаждением — внимательно следите за температурами, ибо от них в прямом смысле зависит производительность.

Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним

В продаже можно встретить видеокарты уровня GTX 1050, 1050 Ti и AMD RX 550 без дополнительного питания — то есть, как в старые добрые времена, достаточно поставить их в слот PCIe и они готовы к работе. При этом также есть версии 1050 и 1050 Ti с дополнительным питанием 6 pin, из-за чего некоторые пользователи делают вывод, что раз дополнительное питание есть — значит с ним видеокарты будут работать лучше.

На деле это не совсем так: слот PCIe способен дать видеокарте до 75 Вт, и этого вполне хватает, чтобы даже 1050 Ti работала на указанных на официальном сайте Nvidia частотах. Но если вы нацелены на разгон — да, тут питания от PCIe видеокарте может уже не хватить, так что дополнительные 6 pin от блока питания позволят достичь больших частот, однако разница в любом случае не превысит 10%.

Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0

Все опять же логично — так, пропускная способность PCIe 2.0 x16 вдвое ниже, чем у 3.0 x16, а, значит, современные видеокарты через более старую шину PCIe будут работать медленнее. На деле это опять же не так — пропускная способность PCI Express 3.0 x16 даже для топовых современных видеокарт оказывается избыточной:

Хорошо видно, что разница между 3.0 x16 и 2.0 x16 составляет всего 1%, то есть погрешность, и даже если спуститься до PCIe 1.1 — то есть к материнским платам почти десятилетней давности — падение производительности оказывается всего лишь 6%. Так что вердикт тут прост — версия PCIe практически не влияет на производительность видеокарты, соответственно можно смело к Xeon с PCI Express 2.0 брать GTX 1080.

Одиннадцатый миф. Разгон видеопамяти не имеет смысла

Конечно, наибольший прирост дает разгон ядра видеокарты — тут прирост производительности близок к линейному (то есть увеличили частоту на 10% — получили прирост производительности на 10%). Однако не стоит сбрасывать со счетов видеопамять, особенно в слабых видеокартах: зачастую в них ставят те же чипы памяти, что и в более мощные решения, но при этом сильно снижают частоту. Это дает возможность ее достаточно сильно разогнать, зачастую на 20-40%, что может прибавить к общей производительности графики еще 10-15% — для слабых видеокарт это лишним, разумеется, не будет:

Двенадцатый миф. С выходом каждой новой линейки видеокарт производители урезают производительность старой

Достаточно популярный миф, основанный обычно на том, что на одних (обычно более старых) версиях драйверов видеокарта работает лучше, чем на других (обычно более новых). Разумеется, никакого реального основания он не имеет: если бы Nvidia и AMD на самом деле хотели заставить пользователей обновить видеокарты, они бы прекращали их поддержку как производители смартфонов на Android, через пару лет после выхода. Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами, причем со всеми программными «плюшками» типа DirectX 12.

Но почему тогда есть разница в производительности между драйверами? Потому что ничто в нашем мире не идеально, и какие-то драйвера, улучшая производительность в новых играх, могут испортить производительность в более старых или привести к различным ошибкам. Обычно через некоторые время выходят исправленные драйвера, и все возвращается на круги своя.

Если вы знаете еще какие-либо мифы — делитесь ими в комментариях.

Ссылка на основную публикацию
Adblock
detector