Частота графического процессора на что влияет

Частота графического процессора на что влияет

На что влияет частота графического процессора в видеокарте и что это такое?

Привет, друзья! Как вы, вероятно, уже знаете, все видеокарты оборудованы GPU, то есть графическими процессорами. Одним из ключевых параметров при работе устройства, является частота графического процессора, на что влияет эта характеристика, я расскажу в сегодняшней публикации.

Зачем нужен графический процессор

Этот чип в видеокарте занят самым важным делом: он рендерит графику, просчитывая 2D и 3D объекты и их взаимодействие между собой и тем самым формируя изображение, передаваемое затем на дисплей монитора. Благодаря особенностям архитектуры, этот чип гораздо эффективнее обрабатывает графику по сравнению с центральным процессором, несмотря на меньшую мощность.

Такой чип может быть как составной частью видеокарты, так и быть интегрированным в северный мост материнской платы или как логический блок на ЦП. Как правило, последние два типа менее мощные и подходят для выполнения повседневных задач, но слабо справляются с рендерингом сложных объектов.

На что влияет его частота

Тактовая частота ядра – количество операций, которые графический процессор выполняет в секунду. На сегодняшний день у мощных видеокарт этот показатель уже перевалил за гигагерц.

Чем выше тактовая частота, тем больше данных может обработать графический ускоритель. Это влияет не только на количество FPS в играх, но и на количество примитивов в отрендеренных объектах, то есть на качество графики.

Таких показателей удалось добиться, благодаря уменьшению техпроцесса графического чипа, увеличив количество логических блоков на той же площади кристалла. Подробнее о техпроцессе видеокарты вы можете почитать здесь.

Два главных конкурента, которые выпускают графические чипы, Nvidia и AMD, постоянно соревнуются за повышение частотных характеристик. Выпустить новую топовую модель, которая по техническим параметрам хотя бы на пару месяцев заткнет за пояс конкурентов – уже скорее дело престижа, а не насущная потребность рынка.

Даже в развитых странах не каждый геймер может позволить себе такое устройство.

Можно ли увеличить частоту и зачем это делать

Существует целый ряд программ, которые позволяют выполнить boost графического чипа, повысив его частотные характеристики (конечно, если компонент поддерживает такую опцию). Сюда можно отнести:

  • ASUS GPU Tweak – лучше всего работает с видеокартами именно этого бренда, открывая пользователю доступ к дополнительным опциям;
  • MSI Afterburner – всеядная утилита, которой все равно, что разгонять;
  • RivaTuner – «прародитель» всех современных программ для оверклокинга, на основании наработок которого, созданы все последующие продукты.

Кроме повышения частоты графического процессора, эти утилиты умеют увеличивать частоту памяти, регулировать скорость вращения кулеров и многое другое. «Что это дает в практическом плане?» – может спросить внимательный читатель.

Увеличение тактовой частоты, как можно догадаться, позволяет увеличить качество графики и количество ФПС в играх программными средствами, то есть не покупая новую видеокарту.

Такой «костыль» можно использовать как временное решение, когда юзер еще морально не созрел для покупки нового девайса, однако уже хочется поиграть в новинку, которую комп не вытягивает по системным требованиям.

При этом следует учитывать, что разгон видеокарты требует аккуратного и вдумчивого подхода – если переборщить с увеличением частоты и «дать копоти» больше, чем видеокарта реально сможет вытянуть физически, происходит перезапуск графического драйвера, что обычно ведет к крашу запущенной игры или видеоредактора.

Сломать девайс таким способом очень сложно, из-за предусмотренной программистами «защиты от дурака».Однако хочу также отметить, что особо настойчивые фанаты оверклокинга умудряются таки сжечь видеокарту, дав ей повышенную нагрузку и убрав количество оборотов кулера до минимума.В качестве рекомендации, советую обратить внимание на видеокарту Asus PCI-Ex GeForce GTX 1060 Dual 3GB (DUAL-GTX1060-O3G), которая потянет все современные игры на приемлемых настройках графики.

К сожалению, для майнинга такой продукт подходит хуже, чем аналогичная по цене видяха от AMD. Ну тут уже такое – или в игры гонять, или крипту майнить, не так ли?

До новых встреч на страницах моего блога, дорогие друзья! Не забудьте расшарить эту статью в социальных сетях и подписаться на новостную рассылку.

На что влияет частота памяти видеокарты

Видеопамять — одна из самых главных характеристик видеокарты. Она имеет очень сильное влияние на общую производительность, качество выдаваемой картинки, её разрешение, и главным образом на пропускную способность видеокарты, о которой вы узнаете, прочитав данную статью.

Влияние частоты видеопамяти

Специальная встроенная в видеокарту оперативная память называется видеопамятью и в своей аббревиатуре вдобавок к DDR (удвоенная передача данных) содержит букву G в начале. Это даёт понять, что речь идёт именно о GDDR (графическая удвоенная передача данных), а не о каком-то другом типе оперативной памяти. Данный подтип ОЗУ обладает более высокими частотами по сравнению с обычной оперативной памятью, установленной в любой современный компьютер, и обеспечивает достаточное быстродействие графического чипа в целом, давая ему возможность работать с большими объёмами данных, которые нужно обработать и вывести на экран пользователя.

Пропускная способность памяти

Тактовая частота видеопамяти непосредственно влияет на её пропускную способность (ПСП). В свою очередь, высокие значения ПСП часто помогают добиться лучших результатов в производительности большинства программ, где необходимо участие или работа с 3D-графикой — компьютерные игры и программы для моделирования и создания трёхмерных объектов являются подтверждением данному тезису.

Ширина шины памяти

Тактовая частота видеопамяти и её влияние на производительность видеокарты в целом находится в прямой зависимости от другого, не менее важного компонента графических адаптеров — ширины шины памяти и её частоты. Из этого следует, что при выборе графического чипа для вашего компьютера необходимо обращать внимание и на эти показатели, чтобы не разочароваться в общем уровне производительности своей рабочей или игровой компьютерной станции. При невнимательном подходе легко попасть на удочку маркетологов, установивших в новый продукт своей компании 4 ГБ видеопамяти и 64-битную шину, которая будет очень медленно и неэффективно пропускать через себя такой огромный поток видеоданных.

Необходимо соблюдение баланса между частотой видеопамяти и шириной её шины. Современный стандарт GDDR5 позволяет сделать эффективную частоту видеопамяти в 4 раза большей от её реальной частоты. Можете не переживать, что вам постоянно придётся осуществлять подсчёты эффективной производительности видеокарты в голове и держать эту простую формулу умножения на четыре в уме — производитель изначально указывает умноженную, то есть настоящую частоту памяти видеокарты.

В обычных, не предназначенных для специальных вычислений и научной деятельности графических адаптерах используются шины памяти от 64 до 256 бит шириной. Также в топовых игровых решениях может встретиться шина шириной в 352 бита, но одна только цена подобной видеокарты может составлять стоимость полноценного ПК средне-высокого уровня производительности.

Если вам нужна «затычка» под слот для видеокарты на материнской плате для работы в офисе и решения исключительно офисных задач по типу написания отчёта в Word, создания таблицы в Excel (ведь даже просмотр видео с такими характеристиками будет затруднителен), то вы можете с уверенностью приобретать решение с 64-битной шиной.

В любых других случаях необходимо обращать внимание на 128-битную шину или 192, а лучшим и самым производительным решением будет шина памяти в 256 бит. Такие видеокарты в большинстве своём имеют достаточный запас видеопамяти с высокой её частотой, но бывают и недорогие исключения с 1 ГБ памяти, чего для сегодняшнего геймера уже недостаточно и надо иметь как минимум 2 ГБ карточку для комфортной игры или работы в 3D-приложении, но тут уж можно смело следовать принципу «чем больше, тем лучше».

Расчёт ПСП

К примеру, если у вас есть видеокарта оснащённая памятью GDDR5 с эффективной тактовой частотой памяти 1333 МГц (чтобы узнать реальную частоту памяти GDDR5, необходимо эффективную поделить на 4) и с 256-битной шиной памяти, то она будет быстрее видеокарты с эффективной частотой памяти 1600 Мгц, но с шиной в 128 бит.

Чтобы рассчитать пропускную способность памяти и затем узнать, насколько производительный у вас видеочип, необходимо прибегнуть к данной формуле: ширину шины памяти умножаем на частоту памяти и полученное число делим на 8, ведь именно столько бит в байте. Полученное число и будет нужным нам значением.

Вернёмся к нашим двум видеокартам из примера выше и рассчитаем их пропускную способность: у первой, лучшей видеокарты, но с меньшим показателем тактовой частоты видеопамяти она будет следующей — (256*1333)/8 = 42,7 ГБ в секунду, а у второй видеокарты всего лишь 25,6 ГБ в секунду.

Вы также можете установить программу TechPowerUp GPU-Z, которая способна выводить развёрнутую информацию об установленном в ваш компьютер графическом чипе, в том числе и объём видеопамяти, её частоту, битность шины и пропускную способность.

Исходя из информации выше, можно понять, что частота видеопамяти и её влияние на эффективность работы находится в прямой зависимости от ещё одного фактора — ширины памяти, вместе с которой они создают значение пропускной способности памяти. Она и влияет на скорость и количество передаваемых данных в видеокарте. Надеемся, что эта статья помогла вам узнать что-то новое о строении и работе графического чипа и дала ответы на интересующие вопросы.

Отблагодарите автора, поделитесь статьей в социальных сетях.

Какие характеристики видеокарты влияют на ее производительность?

Понимание возможных различий графических ядер видеокарт необходимо для того, чтоб осуществить правильное их дальнейшее сравнение в будущем. Важный параметр графического ядра — это тактовая частота графического чипа. Чем выше тактовая частота графического ядра, тем больше операций он может выполнить за единицу времени. Казалось бы, чего тут сравнивать — чем выше тактовая частота, тем выше производительность. К сожалению, это далеко не так. Многое еще зависит от того, как графическое ядро выполняет те или иные операции, и какое время они занимают. К примеру, видеокарты AMD Radeon HD 6770 выполняли одну из операций прорисовки изображения за три такта, а новые видеокарты AMD Radeon HD 7770 выполняют ее за один такт. Следовательно, чтоб обеспечить сопоставимый уровень производительности двух видеокарт, необходимо либо установить в три раза меньшую рабочую частота на видеокарте AMD Radeon HD 7770, либо значительно повысить частоту работы видеокарты AMD Radeon HD 6770. Из приведенного примера следует, что паритет производительности по данной задаче будет достигнут лишь в том случае, если разогнать видеокарту AMD Radeon HD 6770 до трех гигагерц, что в принципе невозможно. Именно данная невозможность заставляет производителей видеокарт кардинально перерабатывать ядра своих решений из поколения в поколение. Когда-то эти доработки оказываются значительными, а когда-то «косметическими».

Суть всего сказанного заключается в том, что имеет сравнивать тактовую частоту двух видеокарт только в том случае, если они относятся к одному поколению, а лучше являются модификацией одной и той же модели. К примеру, видеокарта AMD Radeon HD 7770 работающая при частоте ядра 1000 Мгц будет всегда более производительной, чем решение AMD Radeon HD 7750 работающее на частоте ядра 1000 Мгц, так как оно имеет меньшее количество вычислительных блоков. А вот если сравнить решения AMD Radeon HD 7770 с рабочей частотой ядра 1000 Мгц и решение MSI Radeon HD 7770 OC, то последнее окажется более производительным, так как оно имеет рабочую частоту ядра 1020 Мгц.

Читать еще:  Медленно работает компьютер Windows 10 что делать

Последний пример является ярким доказательством манипуляции рынком компанией MSI. Она выпустила видеокарту MSI Radeon HD 7770 OC, которая имеет маркировку OC, что пользователями расшифровывается как Overclocked, то есть разогнанное решение. При этом оно имеет мизерный разгон, который кое-как достигает двух процентов в относительном исчислении. При этом производитель требует доплаты на уровне 10-20 долларов. Естественно, не стоит вестись на подобные уловки производителей, так как 2-5% разгон под силу практически каждой современной видеокарте. На рынке не встречается решений, которые вообще не могут никак разогнаться, как правило, это лишь дешевая продукция от китайских no-name производителей.

Вторым ключевым методом манипуляции сознанием пользователя является удвоение, а то и утроение количества видеопамяти на графическом решении. Многие опрометчиво считают, что чем больше видеопамяти на борту, тем выше производительность. Как правило, это не так. Для понимания необходимого объема видеопамяти для той или другой видеокарты следует взглянуть на официальные версии видеокарт. Если производитель распаивает 1 Гб видеопамяти или 3 Гб, значит именно столько готов использовать графический чип. Распайка соответственно двух или шести гигабайт видеопамяти приведет лишь к тому, что большая часть памяти никогда не будет использована, но у вас повышается риск получения более низкого разгонного потенциала видеокарты, так как появления в большем объеме памяти всегда больше, чем в меньшем.

Также следует сравнивать «качество видеопамяти«. Особенно тщательно данный параметр следует проверять, если вам предлагаются две видеокарты с разным объемом видеопамяти по одной и той же цене. Следует понимать, что чудес не бывает — экономия не падает с небес. Как правило, производители обманывают пользователей распайкой 2 Гб памяти типа GDDR3 вместо 1 Гб памяти GDDR5, или 2 Гб видеопамяти типа DDR2 вместо 1 Гб видеопамяти типа GDDR3. Следует понимать, что видеокарта с более быстрой видеокартой будет всегда быстрее, чем видеокарта с более медленной видеопамятью, несмотря на ее объем.

Приведем наглядный пример сегодняшнего дня. В прайс-листе одного крупного магазина компьютерной техники мы можем наблюдать:

— видеокарта Gigabyte GV-N84STC-1GI, 8400GS, 1024МБ, GDDR2, Retail предлагается за 1080 рублей;
— видеокарта Zotac ZT-84GEM2M-HSL, 8400GS, 512МБ, GDDR3, Retail оценена в 1100 рублей.

Многие пользователи совершают критическую ошибку приобретая первую видеокарту, не обращая внимание на вторую. Да, первая имеет более богатую комплектацию, да, Gigabyte пользуется доверием в нашей стране, да графические чипы одинаковые — GeForce 8400GS, да, видеокарта от Gigabyte имеет 1 гигабайт видеопамяти и предлагается по меньшей стоимости, но это не значит что необходимо приобретать именно ее. Данные видеокарты имеют узкую шину обмена данными — всего 64 бита, то есть для компенсации данного узкого места необходимо использовать быструю видеопамять, в данном случае, это будет память GDDR3, а не GDDR2.

Данный пример ярко демонстрирует маркетинговые хитрости производителей видеокарт.

Вот мы и дошли до другого ключевого фактора производительности видеокарты — шина обмена данными. Шина обмена данными располагается между графическим чипом и чипами видеопамяти, организовывая передачу данных между ними. Чем шире данная шина, тем к большим ячейкам видеопамяти за единицу времени может получить доступ графическое ядро. Получение широкой шины обмена данными требует значительного увеличения стоимости видеокарты, так как для этого необходимо использовать дополнительные контроллеры шины и распаивать отдельные чипы видеопамяти на плате.

Тем не менее, не всегда ширина шины оказывается объективным показателем уровня производительности видеокарты. Приведем яркий пример. Новые видеокарты AMD Radeon HD 7770 имеют узкую шину обмена данными — 128 бит, а видеокарты NVIDIA GeForce GTX 560 показывают практически аналогичную производительность, но имеют 256 битную шину обмена данными. При этом компания AMD компенсировала узость шины новой архитектурой обработки данных и увеличением рабочей частоты видеопамяти до 1125 Мгц, вместо 1002 Мгц у решений от NVIDIA. Большая производительность чипов видеопамяти позволяет с лихвой компенсировать узость шины обмена данными.

Другим важным параметром видеокарт становятся тайминги работы с видеопамятью. Как правило, тайминги учитываются лишь для оперативной памяти, а тайминги видеопамяти напрочь забываются. Многие могут отметить, что одни и те же чипы видеопамяти могут показывать различный разгонный потенциал на разных сериях видеокарт. Обычно это связано с установкой различных таймингов или задержек доступов к ячейкам памяти. Тайминги видеопамяти становятся особенно важными в том случае, если при разгоне частотный потенциал оказывается не высоким. Увеличение одного из параметров позволяет значительно увеличить разгонный потенциал, что позволяет компенсировать увеличение задержки. Как правило, снижать установленные тайминги видеопамяти не имеет смысла, так как снижение рабочих частот не компенсируется увеличением скорости доступа к ячейкам памяти.

Пожалуй, все перечисленное подробно описывает архитектуру современных видеокарт. Для более легкого понимания следует считать, что любая видеокарта это соединенные в едино процессор, материнская плата и память. Просто на персональном компьютере данные компоненты можно разделить, а на видеокарте все соединено в едино. Данное единство не позволяет выполнить какую-либо модификацию в будущем, поэтому покупать графическое решение необходимо с умом.

ВИДЕОКАРТЫ

Что нужно знать о видеокартах? Руководство THG для начинающих пользователей, часть II

Архитектура графического процессора: технология

Техпроцесс

Под этим термином понимают размер одного элемента (транзистора) чипа и точность процесса производства. Совершенствование техпроцессов позволяет получить элементы меньших размеров. Например, техпроцесс 0,18 мкм даёт элементы большего размера, чем 0,13-мкм техпроцесс, поэтому он не такой эффективный. Транзисторы меньшего размера работают от меньшего напряжения. В свою очередь, снижение напряжения приводит к уменьшению теплового сопротивления, что даёт снижение количества выделяемого тепла. Совершенствование техпроцесса позволяет уменьшить расстояние между функциональными блоками чипа, а на передачу данных требуется меньше времени. Сокращение расстояний, понижение напряжения и другие улучшения позволяют достигать более высоких тактовых частот.

Несколько усложняет понимание то, что для обозначения техпроцесса сегодня используют как микрометры (мкм), так и нанометры (нм). На самом деле всё очень просто: 1 нанометр равен 0,001 микрометру, поэтому 0,09-мкм и 90-нм техпроцессы — это одно и то же. Как уже отмечалось выше, меньший техпроцесс позволяет получить более высокие тактовые частоты. Например, если сравнивать видеокарты с чипами 0,18 мкм и 0,09 мкм (90 нм), то вполне разумно ожидать от 90-нм карты более высокой частоты.

Тактовая частота графического процессора

Тактовая частота графического процессора измеряется в мегагерцах (МГц), то есть в миллионах тактов за секунду.

Тактовая частота напрямую влияет на производительность графического процессора. Чем она выше, тем больше работы можно выполнить за секунду. Для первого примера возьмём видеокарты nVidia GeForce 6600 и 6600 GT: графический процессор 6600 GT работает на частоте 500 МГц, а у обычной карты 6600 — на 400 МГц. Поскольку процессоры технически идентичны, 20% прирост тактовой частоты 6600 GT приводит к более высокой производительности.

Но тактовая частота — это ещё далеко не всё. Следует учитывать, что на производительность очень сильно влияет архитектура. Для второго примера возьмём видеокарты GeForce 6600 GT и GeForce 6800 GT. Частота графического процессора 6600 GT составляет 500 МГц, но 6800 GT работает всего на 350 МГц. А теперь примем во внимание, что у 6800 GT используются 16 пиксельных конвейеров, а у 6600 GT — только восемь. Поэтому 6800 GT с 16 конвейерами на 350 МГц даст примерно такую же производительность, как процессор с восемью конвейерами и удвоенной тактовой частотой (700 МГц). С учётом сказанного, тактовую частоту вполне можно использовать для сравнения производительности.

Локальная видеопамять

Память видеокарты очень сильно влияет на производительность. Но разные параметры памяти влияют по-разному.

Объём видеопамяти

Объём видеопамяти, наверное, можно назвать параметром видеокарты, который больше всего переоценивают. Неопытные потребители часто используют объём видеопамяти для сравнения разных карт между собой, но в реальности объём слабо влияет на производительность по сравнению с такими параметрами, как частота шины памяти и интерфейс (ширина шины).

В большинстве случаев карта со 128 Мбайт видеопамяти будет работать почти так же, как карта с 256 Мбайт. Конечно, есть ситуации, когда больший объём памяти приводит к увеличению производительности, но следует помнить, что больший объём памяти не будет автоматически приводить к росту скорости в играх.

Где объём бывает полезен, так это в играх с текстурами высокого разрешения. Игровые разработчики прилагают к игре несколько наборов текстур. И чем больше памяти будет на видеокарте, тем более высокое разрешение могут иметь загружаемые текстуры. Текстуры высокого разрешения дают более высокую чёткость и детализацию в игре. Поэтому вполне разумно брать карту с большим объёмом памяти, если все другие критерии совпадают. Ещё раз напомним, что ширина шины памяти и её частота намного сильнее влияют на производительность, чем объём физической памяти на карте.

Ширина шины памяти

Ширина шины памяти — один из самых важных аспектов производительности памяти. Современные шины имеют ширину от 64 до 256 бит, а в некоторых случаях даже 512 бит. Чем шире шина памяти, тем больше информации она может передать за такт. А это напрямую влияет на производительность. Например, если взять две шины с равными частотами, то теоретически 128-битная шина передаст в два раза больше данных за такт, чем 64-битная. А 256-битная шина — ещё в два раза больше.

Более высокая пропускная способность шины (выражается в битах или байтах в секунду, 1 байт = 8 бит) даёт более высокую производительность памяти. Именно поэтому шина памяти намного важнее, чем её объём. При равных частотах 64-битная шина памяти работает со скоростью всего 25% от 256-битной!

Возьмём следующий пример. Видеокарта со 128 Мбайт видеопамяти, но с 256-битной шиной даёт намного более высокую производительность памяти, чем 512-Мбайт модель с 64-битной шиной. Важно отметить, что у некоторых карт из линейки ATi X1x00 производители указывают спецификации внутренней шины памяти, но нас интересуют параметры внешней шины. Например, у X1600 внутренняя кольцевая шина имеет ширину 256 бит, но внешняя — всего 128 бит. И в реальности шина памяти работает со 128-битной производительностью.

Типы памяти

Память можно разделить на две основные категории: SDR (одиночная передача данных) и DDR (удвоенная передача данных), при которой данные передаются за такт в два раза быстрее. Сегодня технология одиночной передачи SDR устарела. Поскольку у памяти DDR данные передаются в два раза быстрее, чем у SDR, важно помнить, что у видеокарт с памятью DDR чаще всего указывают удвоенную частоту, а не физическую. Например, если у памяти DDR указана частота 1000 МГц, то это эффективная частота, при которой должна работать обычная память SDR, чтобы дать такую же пропускную способность. А на самом деле физическая частота составляет 500 МГц.

По этой причине многие удивляются, когда для памяти их видеокарты указана частота 1200 МГц DDR, а утилиты сообщают о 600 МГц. Так что придётся привыкнуть. Память DDR2 и GDDR3/GDDR4 работает по такому же принципу, то есть с удвоенной передачей данных. Различие между памятью DDR, DDR2, GDDR3 и GDDR4 кроется в технологии производства и некоторых деталях. DDR2 может работать на более высоких частотах, чем память DDR, а DDR3 — ещё на более высоких, чем DDR2.

Читать еще:  Беспроводной интерфейс в системе отсутствует что делать

Частота шины памяти

Подобно процессору, память (или, точнее, шина памяти) работает на определённых тактовых частотах, измеряемых в мегагерцах. Здесь повышение тактовых частот напрямую влияет на производительность памяти. И частота шины памяти является одним из параметров, которые используют для сравнения производительности видеокарт. Например, если все другие характеристики (ширина шины памяти и т.д.) будут одинаковыми, то вполне логично утверждать, что видеокарта с 700-МГц памятью работает быстрее, чем с 500-МГц.

Опять же, тактовая частота — это ещё не всё. 700-МГц память с 64-битной шиной будет работать медленнее, чем 400-МГц память со 128-битной шиной. Производительность 400-МГц памяти на 128-битной шине примерно соответствует 800-МГц памяти на 64-битной шине. Следует также помнить, что частоты графического процессора и памяти — совершенно разные параметры, и обычно они различаются.

Интерфейс видеокарты

Все данные, передаваемые между видеокартой и процессором, проходят через интерфейс видеокарты. Сегодня для видеокарт используется три типа интерфейсов: PCI, AGP и PCI Express. Они различаются пропускной способностью и другими характеристиками. Понятно, что чем выше пропускная способность, тем выше и скорость обмена. Впрочем, высокую пропускную способность могут использовать только самые современные карты, да и то лишь частично. В какой-то момент скорость интерфейса перестала быть «узким местом», её сегодня попросту достаточно.

Самая медленная шина, для которой выпускались видеокарты, это PCI (Peripheral Components Interconnect). Если не вдаваться в историю, конечно. PCI действительно ухудшала производительность видеокарт, поэтому они перешли на интерфейс AGP (Accelerated Graphics Port). Но даже спецификации AGP 1.0 и 2x ограничивали производительность. Когда стандарт увеличил скорость до уровня AGP 4x, мы начали приближаться к практическому пределу пропускной способности, которую могут задействовать видеокарты. Спецификация AGP 8x ещё раз удвоила пропускную способность по сравнению с AGP 4x (2,16 Гбайт/с), но ощутимого прироста графической производительности мы уже не получили.

Самая новая и скоростная шина — PCI Express. Новые графические карты обычно используют интерфейс PCI Express x16, который сочетает 16 линий PCI Express, дающих суммарную пропускную способность 4 Гбайт/с (в одном направлении). Это в два раза больше, чем пропускная способность AGP 8x. Шина PCI Express даёт упомянутую пропускную способность для обоих направлений (передача данных на видеокарту и с неё). Но скорости стандарта AGP 8x было уже достаточно, поэтому мы пока не встречали ситуации, когда переход на PCI Express дал прирост производительности по сравнению с AGP 8x (если другие аппаратные параметры одинаковы). Например, AGP-версия GeForce 6800 Ultra будет работать идентично 6800 Ultra для PCI Express.

Сегодня лучше всего покупать карту с интерфейсом PCI Express, он продержится на рынке ещё несколько лет. Самые производительные карты уже не выпускаются с интерфейсом AGP 8x, и решения PCI Express, как правило, найти уже легче аналогов AGP, да и стоят они дешевле.

Решения на нескольких видеокартах

Использовать несколько видеокарт для увеличения графической производительности — идея не новая. В ранние дни 3D-графики копания 3dfx вышла на рынок с двумя видеокартами, работающими параллельно. Но с исчезновением 3dfx технология совместной работы нескольких потребительских видеокарт была предана забвению, хотя ATi выпускала подобные системы для профессиональных симуляторов ещё с выхода Radeon 9700. Пару лет назад технология вернулась на рынок: с появлением решений nVidia SLI и, чуть позднее, ATi Crossfire .

Совместное использование нескольких видеокарт даёт достаточную производительность, чтобы вывести игру с высокими настройками качества в высоком разрешении. Но выбирать то или иное решение не так просто.

Начнём с того, что решения на основе нескольких видеокарт требуют большое количество энергии, поэтому блок питания должен быть достаточно мощным. Всё это тепло придётся отводить от видеокарты, поэтому нужно обратить внимание на корпус ПК и охлаждение, чтобы система не перегрелась.

Кроме того, помните, что SLI/CrossFire требует соответствующей материнской платы (либо под одну технологию, либо под другую), которая обычно стоит дороже по сравнению со стандартными моделями. Конфигурация nVidia SLI будет работать только на определённых платах nForce4, а карты ATi CrossFire — только на материнских платах с чипсетом CrossFire или на некоторых моделях Intel. Ситуацию осложняет и то, что некоторые конфигурации CrossFire требуют, чтобы одна из карт была специальной: CrossFire Edition. После выхода CrossFire для некоторых моделей видеокарт ATi разрешила включать технологию совместной работы по шине PCI Express, причём с выходами новых версий драйверов число возможных комбинаций увеличивается. Но всё же аппаратный CrossFire с соответствующей картой CrossFire Edition даёт более высокую производительность. Но и карты CrossFire Edition стоят дороже обычных моделей. На данный момент вы можете включить программный режим CrossFire (без карты CrossFire Edition) на видеокартах Radeon X1300, X1600 и X1800 GTO.

Следует учитывать и другие факторы. Хотя две графические карты, работающие совместно, и дают прирост производительности, ему далеко до двукратного. Но денег-то вы отдадите в два раза больше. Чаще всего прирост производительности составляет 20-60%. А в некоторых случаях из-за дополнительных вычислительных расходов на согласование прироста нет вообще. По этой причине конфигурации на нескольких картах вряд ли оправдывают себя с дешёвыми моделями, поскольку более дорогая видеокарта, как правило, всегда обгоняет пару дешёвых карт. В общем, для большинства потребителей брать решение SLI/CrossFire смысла не имеет. Но если вы хотите включить все опции улучшения качества или играть в экстремальных разрешениях, например, 2560×1600, когда надо просчитывать больше 4 миллионов пикселей на кадр, то без двух или четырёх спаренных видеокарт не обойтись.

12 мифов о видеокартах, про которые пора забыть

В предыдущих статьях мы поговорили про мифы о процессорах, оперативной памяти и материнских платах, теперь же перейдем к видеокартам, которые уже давно стали обязательной частью любого компьютера.

Первый миф. Чем больше видеопамяти — тем быстрее видеокарта

Казалось бы, это логично — в более мощные видеокарты ставится больше памяти: так, GTX 1070 с 8 ГБ памяти быстрее, чем GTX 1060 с 6 ГБ, а GTX 1080 Ti с 11 ГБ быстрее GTX 1080 с 8 ГБ. Однако следует понимать, что видеопамять, конечно, важна, но зачастую различное ПО не использует всю имеющуюся у видеокарты память: так, в большинстве случаев GTX 1060 с 3 ГБ медленнее версии с 6 ГБ всего на 5-10%, и разница в основном идет из-за различного числа CUDA-ядер.

Но есть производители видеокарт, которые решили воспользоваться этим мифом в свою пользу: так, например, на рынке можно найти GT 740 с 4 ГБ GDDR5 памяти. Казалось бы — да у GTX 780 Ti, топовой видеокарты того поколения, всего 3 ГБ памяти — то есть GT 740, получается, лучше? Разумеется нет — на тех настройках графики, где используется столько памяти, эта видеокарта выдает слайд-шоу. Ну а если снизить уровень графики для повышения «играбельности», то окажется, что использовано от силы 1-2 ГБ памяти. Причем такие видеокарты встречаются и в текущих линейках — так, у AMD есть RX 550 с теми же 4 ГБ GDDR5 — с учетом того, что видеокарта выступает приблизительно на уровне GT 1030, очевидно, что использовать столько памяти она сможет в очень немногих задачах:

Так что не стоит судить о производительности видеокарты, опираясь только на объем видеопамяти.

Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное

Опять же, это кажется логичным: если видеокарте памяти не хватило, взять ее больше неоткуда — значит, программы корректно работать не смогут. Однако на деле это, разумеется, не так — любая видеокарта имеет доступ к оперативной памяти, которой обычно куда больше, чем видеопамяти. Конечно, ОЗУ в разы медленнее, а время доступа к ней больше — это может вызвать проблемы с плавностью картинки, но только лишь в том случае, если собственной памяти видеокарте не хватает сильно: например, у нее 2-3 ГБ памяти, а игра требует 4-5 ГБ. Но если не хватает нескольких сотен мегабайт, то обычно это проблем не вызывает: GPU умеют динамически использовать доступные им ресурсы, и в ОЗУ они стараются хранить ту информацию, которая нужна редко или не требует мгновенного отклика.

Третий миф. От разгона видеокарты сгорают

При этом различные производители продают разогнанные с завода версии видеокарт. Разумеется, при разгоне видеокарта может повредиться — но только в том случае, если вы измените «физические» параметры, такие как напряжение. Изменение программных параметров, таких как частоты, никак на «железо» не влияет, так что максимум, что вы получите, это вылет видеодрайвера или BSOD от выставления слишком высокой частоты.

Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено

Насчет производительности это, скорее, не миф, а теоретический результат. Увы — на практике, хотя тому же SLI 20 лет, а Nvidia его использует больше 10 лет, в большинстве игр прирост или околонулевой, или вообще отрицательный. Лишь в единичных проектах можно получить прирост хотя бы 20-30% в сравнении с одной видеокартой, что, конечно, смешно, с учетом двукратного увеличения стоимости и серьезных требований к блоку питания. Что касается вычислительных задач, то тут все сложнее: так, профессиональный софт вполне может использовать несколько GPU эффективно, но это уже не домашнее применение.

Что касается видеопамяти, то тут все просто: при использовании DirectX 11 или ниже в видеопамять каждого используемого GPU записывается одинаковая информация, то есть у связки видеокарт будет по сути тот же объем памяти, что и у одиночной карты. А вот в API DirectX 12 есть возможность более эффективно использовать Split Frame Rendering, когда каждая видеокарта готовит свою часть кадра. В таком случае объемы видеопамяти суммируются — пусть и с оговорками.

Пятый миф. Профессиональные видеокарты лучше игровых

Миф идет от того, что профессиональные видеокарты (такие как Nvidia Quadro или AMD FirePro) стоят обычно сильно дороже пользовательских «игровых» видеокарт — а раз дороже, значит лучше. На практике вопрос только в том — в какой области лучше? С физической точки зрения большая часть профессиональных видеокарт имеют тот же GPU и тот же объем памяти, что и обычные игровые видеокарты, а разница идет только из-за других драйверов, которые больше заточены под профессиональное применение:

С учетом того, что эти драйвера под игры никто специально не адаптирует, то профессиональные видеокарты в играх зачастую будут несколько хуже аналогичных по производительности игровых GPU. С другой стороны, если мы будем сравнивать эти же видеокарты в различных CAD-ах или 3ds Max — перевес будет на стороне профессиональной графики, причем зачастую очень существенный. Так что ответ на миф таков: сравнивать эти видеокарты в лоб не имеет смысла, они «играют» и в разных ценовых сегментах, и в разных сценариях использования.

Шестой миф. Если видеокарта не раскрывается процессором — это плохо

Пожалуй, самый популярный миф, который гласит о том, что если видеокарта не занята на 100% — это плохо. С одной стороны, это кажется логичным: нагрузка ниже 100% означает, что видеокарта частично простаивает и вы недополучаете часть производительности. С другой стороны, многие забывают, что нагрузить GPU на 100% можно практически при любом процессоре. Как так? Очень просто: каждый процессор в каждой игре может подготовить для видеокарты лишь определенное количество кадров в секунду, и чем процессор мощнее — тем больше кадров он может подготовить. Соответственно, чтобы видеокарта была занята на 100%, она должна иметь возможность отрисовать меньше кадров в секунду, чем может дать ей процессор. Как это сделать? Да очень просто: поднять разрешение, поставить более высокие настройки графики, включить тяжелое сглаживание — и вуаля, GTX 1080 Ti в 5К на ультра-настройках графики «пыхтит», выдавая 15-20 кадров в секунду, а поставленный ей в пару двухядерный Intel Pentium едва ли нагружен на половину.

Читать еще:  Виртуальная сеть VPN Windows 10 что это

Легко можно получить и обратную ситуацию: взять ту же самую GTX 1080 Ti и запустить на ней игру в HD-разрешении с минимальными настройками графики — и тут даже Core i9-9900K не сможет подготовить для ней столько кадров в секунду, чтобы она была занята на 100%.

Так что тут можно сделать два вывода: во-первых, если видеокарта недогружена несильно, а итоговый fps вас устраивает — всегда можно еще немного увеличить настройки графики, чтобы получить 100% нагрузку на видеокарту с лучшей картинкой и при той же производительности. Во-вторых, собирайте сбалансированные сборки, дабы не было такого, что процессор занят на 100%, а fps в игре 20 кадров.

Седьмой миф. Чем уже шина памяти — тем ниже производительность видеокарты

Очень часто на различных форумах можно встретить посты типа «вот, 8 лет назад у GTX 480 шина памяти была 384 бита, а сейчас у GTX 1080 всего 256, Nvidia экономит». Опять кажется, что это логично — чем шире шина, тем больше данных по ней можно «гонять». Но тут следует помнить две вещи: во-первых, не шиной единой: частоты памяти с того времени выросли в разы, во-вторых — производители GPU постоянно улучшают алгоритмы передачи данных по шине, что позволяет использовать ее более эффективно. Все это приводит к тому, что ширину шины можно безболезненно урезать: так, MX150 (она же GT 1030), имея шину всего в 64 бита (как один канал ОЗУ), способна при этом выдавать производительность уровня GTX 950M со 128-битной шиной, которая еще пару-тройку лет назад считалась среднеуровневой мобильной игровой видеокартой:

Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета

Увы — аналогия с процессорами тут не работает: если те действительно удерживают максимальные частоты в рамках TDP вплоть до температуры, с которой начинается троттлинг из-за перегрева, то видеокарты работают хитрее: так, у Nvidia есть технология GPU Boost, которая, с одной стороны, является аналогом Turbo Boost для процессоров — позволяет поднимать частоту выше базовой — а с другой стороны имеет больше ограничений.

Возьмем, для примера, GTX 1080 Ti. Она имеет родную частоту в 1480 МГц, а Boost — 1580. Но стоит нагрузить видеокарту, как частота может подскочить до 1800-1850 МГц — то есть выше Boost: это и есть работа технологии GPU Boost. Дальше — интереснее: критические температуры у видеокарт поколения Pascal составляют порядка 95 градусов — но уже при 85 можно заметить, что частоты снижаются ближе к уровню Boost. Почему так? Потому что Nvidia ввела еще одну опорную температуру, которую называет целевой: при ее достижении видеокарта старается ее не превышать, а для этого сбрасывает частоты. Так что если у вас мощная видеокарта, да и еще с референсным турбинным охлаждением — внимательно следите за температурами, ибо от них в прямом смысле зависит производительность.

Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним

В продаже можно встретить видеокарты уровня GTX 1050, 1050 Ti и AMD RX 550 без дополнительного питания — то есть, как в старые добрые времена, достаточно поставить их в слот PCIe и они готовы к работе. При этом также есть версии 1050 и 1050 Ti с дополнительным питанием 6 pin, из-за чего некоторые пользователи делают вывод, что раз дополнительное питание есть — значит с ним видеокарты будут работать лучше.

На деле это не совсем так: слот PCIe способен дать видеокарте до 75 Вт, и этого вполне хватает, чтобы даже 1050 Ti работала на указанных на официальном сайте Nvidia частотах. Но если вы нацелены на разгон — да, тут питания от PCIe видеокарте может уже не хватить, так что дополнительные 6 pin от блока питания позволят достичь больших частот, однако разница в любом случае не превысит 10%.

Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0

Все опять же логично — так, пропускная способность PCIe 2.0 x16 вдвое ниже, чем у 3.0 x16, а, значит, современные видеокарты через более старую шину PCIe будут работать медленнее. На деле это опять же не так — пропускная способность PCI Express 3.0 x16 даже для топовых современных видеокарт оказывается избыточной:

Хорошо видно, что разница между 3.0 x16 и 2.0 x16 составляет всего 1%, то есть погрешность, и даже если спуститься до PCIe 1.1 — то есть к материнским платам почти десятилетней давности — падение производительности оказывается всего лишь 6%. Так что вердикт тут прост — версия PCIe практически не влияет на производительность видеокарты, соответственно можно смело к Xeon с PCI Express 2.0 брать GTX 1080.

Одиннадцатый миф. Разгон видеопамяти не имеет смысла

Конечно, наибольший прирост дает разгон ядра видеокарты — тут прирост производительности близок к линейному (то есть увеличили частоту на 10% — получили прирост производительности на 10%). Однако не стоит сбрасывать со счетов видеопамять, особенно в слабых видеокартах: зачастую в них ставят те же чипы памяти, что и в более мощные решения, но при этом сильно снижают частоту. Это дает возможность ее достаточно сильно разогнать, зачастую на 20-40%, что может прибавить к общей производительности графики еще 10-15% — для слабых видеокарт это лишним, разумеется, не будет:

Двенадцатый миф. С выходом каждой новой линейки видеокарт производители урезают производительность старой

Достаточно популярный миф, основанный обычно на том, что на одних (обычно более старых) версиях драйверов видеокарта работает лучше, чем на других (обычно более новых). Разумеется, никакого реального основания он не имеет: если бы Nvidia и AMD на самом деле хотели заставить пользователей обновить видеокарты, они бы прекращали их поддержку как производители смартфонов на Android, через пару лет после выхода. Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами, причем со всеми программными «плюшками» типа DirectX 12.

Но почему тогда есть разница в производительности между драйверами? Потому что ничто в нашем мире не идеально, и какие-то драйвера, улучшая производительность в новых играх, могут испортить производительность в более старых или привести к различным ошибкам. Обычно через некоторые время выходят исправленные драйвера, и все возвращается на круги своя.

Если вы знаете еще какие-либо мифы — делитесь ими в комментариях.

Зависимость производительности в играх от частоты процессора на высоком разрешении.

Зачастую при выборе видеокарты можно услышать: «Не стоит эту карточку брать, твой процессор не раскроет её потенциал полностью». Далеко не всегда это утверждение верно, особенно для высоких разрешений и максимальных настроек графики. В данной статье я хочу провести исследование на тему, так какая же частота процессора (или какой процессор) нужна для современной видеокарты при использовании высоких разрешений.

Для тестирования использовалась программа Fraps, точнее встроенный в неё бенчмарк, он каждую секунду измеряет FPS , так же измеряет максимальный, средний, и минимальный на отрезке времени. Для каждой игры отрезок времени для теста был выбран в 60сек.
Строилось 2 графика:
1)График максимального, сренего и минимального FPS.
2)График зависимости FPS от времени
Примечание: Максимальный или минимальный FPS на первом и втором графике могут не совпадать, т.к. Для построения второго FPS измерялся 1 раз в секунду. А для первого Максимальное и минимальное значение на всём протяжении теста.
Тесты проводились на частоте процессора: 1200Мгц, 2400Мгц и 3600Мгц.
Все игры тестировались на разрешении 1920*1200.

Проц Core 2 Duo E6400
Кулер Ice Hammer IH-4405
Мать ASUS P5K/EPU
Видео Palit GeForce 9800GTX+ 512Mb 74518362200Мгц
Память Corsair XMS2 CM2X2048-6400C5 x 2
HDD SAMSUNG SP2504C
2й SAMSUNG HD502IJ
3й Western Digital WD5000AACS
Звуковая Audigy 2
БП Hiper HPU-4M630
Моник Samsung 2443NW

Использовались 2 операционные системы Windows Vista Ultimate х64 SP1 и Windows XP Professional Edition х86 SP2. Для каких игр какая, будет сказано позже.


Результаты тестирования.


Для этой игры использовалась Vista, настройки графики максимальные (в том числе и сглаживание).
Как видно из графиков, частоты в 1200Мгц недостаточно для данной игры, есть просадки минимального FPS . Переход с 2400Мгц на 3600Мгц существенного прироста производительности не дал.


Игра тестировалась под ХР. Настройки графики выставлены на максимум, кроме ANTIALAISING, он установлен на х2 .
И снова наблюдаем низкий минимальный FPS при 1200Мгц . В начале теста разница между 2400Мгц и 3600Мгц не велика, а вот под конец, 3600Мгц дают существенный прирост FPS . Для этой игры всё же желателен процессор с высокой производительностью.


Игра тестировалась под ХР. Настройки графики выставлены на максимум.
1200Мгц недостаточно для раскрытия потенциала видеокарты в данной игре . А вот 2400Мгц вполне достаточно, при переходе на 3600Мгц роста FPS не наблюдается.


Для игры использовалась ОС Vista . Настройки графики на максимум.
1200Мгц явно не достаточно для этой игры. А между 2400Мгц и 3600Мгц существенной разницы мы не видим. Но в 2х последних режимах наблюдалось странное явление, под конец теста очень сильные просадки FPS, объяснение которым я найти не смог.


Игра была запущенна под Vista. Настройки графики выставлены на максимум.
И снова недостаточно для нормальной игры 1200Мгц. На 2400Мгц, уже есть небольшое ощущение комфорта. Существенного прироста переход на 3600Мгц не дал.
Объяснение провалу в центре теста на 3600Мгц найти не смог. Специально попытался ещё раз прогнать тест, результат такой же.


Игра тестировалась под XP, выставлены были настройки на максимум.
1200Мгц очень мало для этой игры, наблюдаем низкий FPS . На 2400Мгц наблюдаются небольшие просадки но вполне достаточно для «раскрытия карты». Переход на 3600Мгц немного увеличил средний FPS и сгладил просадки.

S.T.A.L.K.E.R.: Clear Sky


Игра тестировалась под Vista, выставлено было полное динамическое освещение, без DX10 эффектов, остальные настройки на максимум.
Судя из графиков, игра демонстрирует сильную зависимость от частоты процессора, практически линейный рост FPS с ростом частоты.

Из результатов видно, что все 3 теста демонстрируют сильную процессорозависимость.
Особо хочется выделить 3DMark 03 , который не смотря на свой возраст остаётся весьма актуальным, чего не скажешь про 05.

Как показало это тестирования для раскрытия потенциала 9800GTX+ вполне достаточно и частоты 2400Мгц, но есть игры, где наблюдается и рост при переходе на 3600Мгц.

Ссылка на основную публикацию
Adblock
detector