Объем памяти видеокарты 512 мб

Сравнение GeForce 8800GT с объемом памяти 512MB и 1024MB

Производители расширяют свой ассортимент видеоадаптеров на базе GeForce 8800GT, выпуская модели с модернизированным охлаждением и повышенными частотами. А некоторые уже предлагают данные видеокарты с увеличенным до 1024 MБ объемом видеопамяти. Данное решение неудивительно, ведь топовые модели GeForce 8800GTX и GeForce 8800Ultra имеют 768MB на борту. Но будет ли существенный прирост от дополнительных мегабайт, и могут ли современные игры вообще загрузить более 512 МБ видеопамяти? Это мы и попытаемся выяснить в данном обзоре. В этом нам помогут две видеокарты — ASUS GeForce 8800GT 512MB и XpertVision GeForce 8800GT 1GB Super. Мы сравним производительность этих акселераторов в реальных игровых приложениях и отследим, какой объем памяти будет использоваться этими играми в разных разрешениях и при использовании тяжелых режимов с полноэкранным сглаживанием.

Архитектура видеокарт данного поколения подробно рассматривалась нами ранее. Напомню лишь, что ядро G92 (112 потоковых процессоров, 56 текстурных блоков) работает на 600 МГц, а память GDDR3 на 1,8 ГГц (2×900 МГц). Рассматриваемые экземпляры от ASUS и XpertVision работают строго на рекомендованных частотах, так что, их производительность теоретически находится на одном уровне и зависит лишь от объема видеопамяти.

ASUS GeForce 8800GT 512MB

Прежде чем перейти к непосредственным тестам немного остановимся на участниках тестирования.

Видеокарта от ASUS идет в большой коробке, украшенной изображениями героев игры Company of Heroes: Opposing Fronts.

Плата выполнена по референсному дизайну.

  • Переходник DVI/D-Sub
  • Инструкция
  • Диск с драйверами
  • Полная версия игры Company Of Heroes Opposing Fronts
  • Сумочка для дисков

В плане охлаждения ожидать чего-то особенного от карты не стоит. Как мы убедились в предыдущих материалах, температура референсных карт может достигать 90°С. Модель от ASUS не является исключением.

После прогрева «волосатым кубом» AtiTool температура чипа поднялась до 90°С, однако отметку эту так и не превысила.

XpertVision GeForce 8800GT 1GB Super

Карта от XpertVision поставляется в традиционной большой коробке, по оформлению не отличающейся от других моделей GeForce 8800GT этого производителя.

Плата этой видеокарты повторяет дизайн модели Sonic.

Чип охлаждается двухслотовым кулером. Память закрыта алюминиевой пластиной-радиатором. Под радиатором для мосфетов скрывается трехфазная схема питания

Отличительной особенностью данной карты, в сравнении с Sonic, является наличие чипов памяти на обратной стороне, что и неудивительно, ведь объем ее увеличен в два раза. Охлаждение этих микросхем реализуется с помощью алюминиевого радиатора. Пластина-радиатор контактирует с чипами памяти через специальные термопрокладки.

Фото обратной стороны в собранном виде не осталось, поэтому сразу приведем фотографию без радиатора.

На плате распаяны чипы памяти Samsung со временем доступа 1 нс.

  • Переходник DVI/D-Sub
  • Переходник HDTV
  • Переходник питания с «молекса» на 6-pin
  • Диск с драйверами
  • Полная версия игры Tomb Raider Anniversary
  • Краткая инструкция по установке

В 2D-режиме память работает на пониженной частоте 500 (1000) МГц. В 3D-приложениях ее частота поднимается до положенных 900 МГц (1,8 ГГц). Сделано это, возможно, для снижения энергопотребления видеокарты в режиме простоя, ведь увеличение количетсва чипов памяти, соответственно, увеличивает и итоговую энергоемкость продукта. Жаль, что производитель не реализовал подобную функцию и для графического ядра, ведь именно он самый энергоемкий элемент. Возможно, уменьшение частоты памяти реализовано также для того, чтобы избежать ее перегрев, ведь если с лицевой стороны радиатор чипов памяти обдувается вентилятором, то с обратной обдува нет.

Температура графического чипа под нагрузкой не поднимается выше 64°С.

Как видно по скриншотам, рабочие частоты видеокарты соответствуют частотам модели от ASUS.

Тестовая конфигурация и особенности тестирования

  • Процессор: Core 2 Duo E4400 2 ГГц (разогнанный до 3,2 ГГц, 320 МГц FSB)
  • Кулер: Zalman CNPS 7000B Al-Cu
  • Материнская плата: Gigabyte P35-S3
  • Память: 2х1GB GOODRAM PC6400 (800 МГц при таймингах 5-4-4-12)
  • Жесткий диск: 320GB Hitachi T7K250
  • Блок питания: CoolerMaster eXtreme Power 500-PCAP
  • Операционная система: Windows XP SP2, Windows Vista Ultimate 32x
  • Драйвера видеокарты: ForceWare 169.21 (Windows XP), ForceWare 169.25 (Windows Vista)

Первая игра в нашем тесте одна из самых требовательных к видеопамяти.

Тестирование проводилось на локации «Кордон». В течении 7 минут совершалась прогулка по одному и тому же маршруту, последовательность действий строго повторялась. Настройки графики на максимуме.

Посмотрим на использование памяти в разрешении 1280х1024.

Как видим, даже в таком разрешении игра уже использует 508Mb видеопамяти! Что же будет при активации более высоких разрешений и сглаживания? Некоторые зададутся вопросом, отчего приведены графики для обеих видеокарт, ведь выделение памяти определяется приложением и должно быть одинаково для рассматриваемых адаптеров. Однако, как мы увидим в других играх, иногда эти значения существенно отличаются.

Сглаживание в данной игре при полном динамическом освещении не работает при включении его из настроек игры. Однако антиалиасинг можно принудительно включить через панель управления Nvidia. Посмотрим, насколько увеличилось использование памяти при включении AA2x

Игра сразу требует еще дополнительно 120 МБ. Использование 620 МБ приводит к задействованию дополнительной виртуальной памяти. И хотя из-за особенностей работы загрузка локальной памяти видеокарты постоянно немного меньше данных значений, но для модели с 512 МБ на борту резервируется уже более 100 МБ из внешней памяти.

При включении сглаживания АА4х.

Активация режима АА4х доводит используемый объем до 730 МБ, а системе с видеокартой 512 МБ требуется уже 200 МБ из внешней оперативной памяти.

В более высоком разрешении использование видеопамяти лишь немного выше чем в разрешении 1280х1024.

Разрешение 1600х1200, сглаживание АА2х.

Разрешение 1600х1200, сглаживание АА4х.

В таком режиме видеокарта ASUS отказалась работать. Вместо изображения экран был затянут белой пеленой. А вот карта XpertVision без проблем работала и, как видим, использование видеопамяти достигает в таком режиме уже 870 МБ.

По графикам мы убедились, что в данной игре 512 МБ хватает лишь для режимов без сглаживания, да и то «в притык». А как же это отразится на производительности, вы можете оценить по нижеприведенной диаграмме.

В разрешении 1280х1024 видеокарта с 1 ГБ видеопамяти выигрывает лишь при активации полноэкранного сглаживания АА4х. Но преимущество в 5% минимально, да производительности в 25 кадров уже не хватает для комфортной игры. Разница в остальных режимах менее 1%, что объясняется небольшой погрешностью измерений. В разрешении 1600х1200 видно преимущество карты с большим объемом памяти. Без сглаживания это всего лишь 1,5%, при включении АА2х – уже6%. При АА4х можно смело констатировать победу GeForce 8800GT 1GB, поскольку карта с меньшим объемом памяти данный тест просто не проходит. Но производительность в таком режиме настолько низкая, что толку от этой победы нет.

Данная игра самая требовательная на сегодняшний момент и способна загрузить современные видеокарты сильнее любой другой. Для тестов использовался встроенный бенчмарк GPU, в котором 5 раз прокручивается один и тот же уровень. Для более точных данных тест прогонялся по два раза для каждого режима.

Несмотря на высокие требования игры, видеопамять она использует меньше чем предыдущая игра. При прогоне абсолютно одинакового теста использование памяти на карте GeForce 8800GT 1GB на 50 МБ больше чем у GeForce 8800GT 512MB.

Разрешение 1280х1024, сглаживание АА2х.

Опять у карты с 1 ГБ видеопамяти «съедается» дополнительно 50 мегабайт.

Разрешение 1280х1024, сглаживание АА4х.

Даже в таком тяжелом режиме игра довольствуется 460-500 МБ.

Разрешение 1600х1200, сглаживание АА2х.

Разрешение 1600х1200, сглаживание АА4х.

И только в этом режиме игре начинает не хватать 512 МБ видеопамяти. Во всех режимах для видеокарты с гигабайтом на борту сохраняется тенденция с увеличеным потреблением видеопамяти.

Во всех режимах наблюдается небольшое отставание видеокарты 8800GT 1GB. Но разница в 0,5% настолько минимальна, что ее можно сбросить со счетов. Однако погрешностью она не является, ведь точность показаний встроенного бенчмарка довольно высока. Небольшое отставание может быть обусловлено увеличенными задержками контролера памяти, но не стоит забывать и о том, что карте приходилось также обрабатывать «лишние» 50 МБ данных. Но когда игра задействует больше 512 МБ видеопамяти, в разрешении 1600х1200 при АА4х, карта 8800GT 1GB обгоняет конкурента на 3%. Но снова эта победа носит лишь формальный характер, поскольку видеокарта уже не в состоянии обеспечить игровой FPS в таком режиме.

Популярная RPG, одна из лучших игр 2007 года. Игра основана на стареньком движке Aurora и отличается средними системными требованиями по современным меркам. Поскольку использование ресурсов видеопамяти в двух игровых «монстрах» (под DirectX 9) мы уже исследовали, то интересно было бы узнать каково использование ресурсов у игр более простых в графическом плане, что мы и осуществим на примере «Ведьмака». От себя отмечу, что игра обладает высокой детализацией, поэтому тоже должна задействоать приличный объем видеопамяти.

Тестирование проводилось на одной локации в окрестностях Вызимы. Совершалась прогулка по определенному маршруту. Последовательность действий повторялась. Но как оказалось, результаты для данной игры немного отличались в одном и том же режиме. Для точности данных, игровой 5-минутный тест проигрывался два раза и уже средние значения указаны в итоговой диаграмме производительности. Так же странно игра вела себя при активации сглаживания, производительность почти не менялась. И принудительное включение антиалиасинга в панели управления Nvidia тоже работало через раз. Как оказалось, для адекватной работы сглаживания необходимо при смене разрешения вначале отключить антиалиасинг и фильтрацию, а потом включить. Но в виду небольшого различия результатов при сглаживании в режимах АА2х и АА4х мы приводим лишь результаты при включении АА4х.

Данная игра к видеопамяти не сильно требовательна, и в таком разрешении не потребляет более 290 МБ. Снова, при использовании в системе GeForce 8800GT 1GB, приложение использует немного больший объем памяти в размере 10 МБ.

Разрешение 1280х1024, сглаживание АА4х.

В таком режиме игра уже способна загрузить до 345 МБ видеопамяти.

Разрешение 1600х1200, сглаживание АА4х.

Даже в таком режиме игра не использует более 390 МБ на GeForce 8800GT 1GB, и 360 МБ на карте с меньшим объемом.

На удивление, видеоадаптер с 1 ГБ видеопамяти отстает от своего соперника на 3-5% по всех режимах. И если в Crysis минимальное отставание в 0,5% можно было списать на латентность памяти или задержки контролера, то в «Ведьмаке» для столь большой разницы должны быть еще и другие причины. Хотя возможно, что оперируя небольшим объемом видеопамяти, игра более чувствительна к ее пропускной способности вот и выливается это в столь заметное отставание.

World in Conflict DX10

Переходим к тестам под DirectX 10, так как именно под этот API будут выпускаться новые игры. Поскольку плагин VidMem для утилиты Riva Tuner не работает в операционной системе Windows Vista, то проследить загрузку видеопамяти мы не сможем.

Читайте также:  Ноутбуки с крутыми видеокартами

Первой игрой выступает лучшая стратегия ушедшего года – World in Conflict. Игра имеет встроенный тест, который и использовался для измерения производительности. Итоговые результаты в этом тесте округляются до целых чисел. Поэтому для точности измерений бенчмарк прогонялся по три раза и средние результаты отображены в графиках.

Все настройки в игре установлены на максимум, включены даже те настройки, которые автоматически не включаются (отражение облаков в воде и пр.). Тест проводился при активации сглаживания АА4х и анизотропной фильтрации AF16x из меню игры, и при отключении этих параметров.

У видеокарт абсолютно идентичные результаты в более низком разрешении. В разрешении 1600х1200 GeForce 8800GT 1GB выигрывает у соперника 2%. А вот при активации сглаживания эта разница снова исчезает, вероятно, она настолько минимальная, что просто не отражается на итоговых результатах, которые округляются.

И снова творение немецкой компании Crytek. На данный момент в DirectX 10 справится с этой игрой по силам лишь двухчиповым монстрам – Radeon HD 3870 X2 и GeForce 8800GX2.

Настройки графики установлены на максимум, сглаживание не включалось, поскольку частота кадров и в простом режиме очень низкая.

В высоком разрешении GeForce 8800GT 1GB опережает соперника лишь на 1%. В более низком разрешении игре, вероятно, вполне хватает 512 МБ видеопамяти. При работе в DirectX 9 игра загружала больший объем лишь при включении сглаживания в высоком разрешении, следовательно, под DirectX 10 игра более требовательна в объему памяти, однако разница, скорее всего, минимальна.

Анализируя полученные результаты, можно смело утверждать, что современным играм вполне достаточно 512 МБ видеопамяти без активации сглаживания. В таких режимах GeForce 8800GT 512MB иногда оказывается быстрее версии с 1 ГБ памяти, особенно сильно это заметно в игре Witcher, которая использует 300-400 МБ. Преимущества GeForce 8800GT 1GB реализуются лишь в высоких разрешениях со сглаживанием, но поиграть в таких режимах вам не удастся из-за того, что мощности видеоадаптера уже просто не хватает. Но это все не относится к игре S.T.A.L.K.E.R., которая чувствует себя значительно лучше на GeForce 8800GT 1GB. В этой игре можно смело играть и в режиме 1600х1200 при АА2х (или в аналогичном широкоформатном разрешении 1680×1050), да и небольшое преимущество в World in Conflict в таком разрешении тоже не стоит забывать. Но с другой стороны это всего лишь несколько процентов и, покупая видеокарту на 512 МБ, вы ничего не теряете.

Но это на данный момент. Будущие игры без сомнения будут более прожорливы к памяти, ведь уже сейчас любая игра без проблем может загрузить 512 МБ. Но если современные карты не могут обеспечить приемлемую производительность в том же Crysis под DX 10, то не стоит надеяться на то, что GeForce 8800GT 1GB сможет реализовать себя в будущем.

Источник

Объем памяти видеокарты 512 мб

Сколько памяти нужно видеокарте для современных игр.

Купить видеокарту — выбор видеокарты. Сколько памяти нужно видеокарте для современных игр? Оптимальный объем памяти видеокарты для игр, какую выбрать — видеокарта 1024mb или 512mb. Характеристики сравнение видеокарт, влияние памяти на производительность.

Выбирая видеокарту, при выборе видеокарты многие задаются вопросом: «С каким объемом памяти купить видеокарту 512 или 1024? Какой объем памяти оптимальный для современных игр?». Этот вопрос посещал и мою голову, когда собирал компьютер себе любимому. Имея доступ к разного рода компьютерным комплектующим, в поиске истины проводил тест видеокарт. Нашел ответ для себя, собрал компьютер и преспокойно забыл о существовании такого вопроса. Но так как вопрос об объеме памяти видеокарт всплыл опять – 512 mb или 1024 mb, решил посвятить ниже изложенную статью. Надеюсь, эта информация кому-то позволит сделать правильный выбор. Стоит ли платить больше?

Начну с самого главного, с того что нужно уяснить в первую очередь. Большой объем видеопамяти бывает востребован играми при максимальных настройках качества (все включено), большом разрешении экрана (1900×1200) и достаточно мощным GPU видеокарты. Зачем я приплел сюда графический процессор видеокарты, сейчас объясню на жизненном примере.

Возьмем тарелку густой каши и столовую ложку, за определенный отрезок времени вы ее съедите. А если вам дать ложку, которая в рот не влазит и тарелку каши в два раза больше. Сможете ли вы съесть кашу быстрее? Ответ. Нет! Проглотить больше каши все равно не получится, глотка больше же не стала. И пока рот будет пытаться выудить кашу с ложки, тарелка будет простаивать.

Та же картина и с видеокартой для игр. Не достаточно мощный GPU будет работать на пределе возможностей, просчитать весь объем информации он не сможет, и память с избытком данных будет ждать своей очереди. И толку будет от такого симбиоза плюс 1 кадр в секунду. На сегодняшний день игр использующих объем памяти свыше 512 MB очень и очень мало (повторюсь, с максимальными настройками качества и большим разрешением экрана). Чтобы их сосчитать достаточно будет пальцев одной руки. Из популярных отмечу – игра Crysis, с максимально возможными настройками съедает до 690 MB памяти видеокарты, хорошо известный Oblivion до 600 MB, с разрешением экрана 1920×1200.

Видеокарта для игр Radeon hd5770 1024mb, пятая серия графических ускорителей AMD ATI. Читаем, смотрим обзор, тест новых видеокарт Radeon, выбираем видеокарту для игр — Лучшая видеокарта для игр 2010 ATI Radeon HD 5870.

Также знакомимся, супер мощная игровая новинка, с такой видеокартой любые игры теперь по зубам. Две полноценные видео карты x2 Radeon 5870 на одной плате — видеокарта Asus ARES/2DIS/4GD5, любую игру и с максимальным качеством.

Тест видеокарт игрой. Видеокарта для игр 1024Mb или 512Mb, влияние памяти.

Скачать игры Crysis, Oblivion

Игровая видеокарта 1024 или 512 mb.
В тесте принимали участие видеокарты одного производителя, с одинаковой тактовой частотой чипа и памяти, для каждой пары соответственно. Как вы можете видеть, результат теста четко показывает неоправданность использования более слабого GPU ATI Radeon HD 4850 с большим объемом видеопамяти.

Прирост производительности мизерный, и его с легкостью можно принять за погрешность теста. В играх менее требовательных присутствие дополнительного объема памяти вообще не наблюдается, в некоторых играх Radeon HD 4850 1024 MB выдавала на пол кадра меньше (скорее тоже погрешность).

На максимальных настройках качества в игре Crysis с Radeon HD 4850 проблематично будет поиграть, независимо от того есть дополнительная память или нет. Для более мощной ATI Radeon HD 4870 1024 MB прирост производительности составил около 10%. Но для такой игры как Crysis как видно требуется не только память, а и GPU помощнее. В менее прожорливых играх, что на данный момент составляют 99,99% игрового рынка, прирост производительности 0 целых 0 десятых.

Вывод можно сделать такой. 512 MB — это норма, оптимальный объем памяти для игровой видеокарты. Установка дополнительной видеопамяти на видеокарты с заведомо более слабым графическим процессором, обычная уловка маркетологов компаний производителей.

Такая себе замануха для покупателя, 1024mb памяти вроде бы и ни к чему, но ее много и почти даром. Также производители очень часто устанавливают более медленную память или устаревшую DDR2 (что вообще ни в какие ворота не влазит). В общем если видеокарта для игр порядком уступает ATI Radeon HD 4870 в производительности, наличие в ней дополнительной памяти лишено смысла.

А те видеокарты, что мощней и так выпускаются с большим объемом. Так что думайте сами, решайте сами, что лучше 512 или 1024. … Стоит ли платить дяде больше? Также не помешает знать, о влиянии на производительность компьютера, выбор связки — процессор плюс видеокарта. Выбор процессора и видеокарты.

Выбирая видеокарту для игр, уделите особое внимание подбору, выбору видеокарт к процессору, сбалансированный выбор видеокарта – процессор обеспечит максимальную производительность. Выбор, подбор видеокарты к процессору — компьютер для игры.

При копировании материала ссылка на сайт обязательна!

С наилучшими $ пожеланиями
Denker.

Источник

Чем отличаются поколения видеопамяти

Память, будь то оперативная память или видеопамять, является неотъемлемой частью современного компьютера. Сегодня вкратце узнаем, как все начиналось, как работает, почему диагностические программы показывают неверные частоты, в чем измеряется производительность памяти, как рассчитывается пропускная способность памяти и почему «МГц» для памяти — некорректное выражение.

До 2000-ых годов использовалась оперативная память стандарта SDR.

Потом ей на смену пришел новый стандарт памяти — DDR, который имел удвоенную пропускную способность памяти за счет передачи данных как по восходящим, так и по нисходящим фронтам тактового сигнала. Первоначально память такого типа, как и SDR, применялась в видеоплатах, но позднее появилась поддержка со стороны чипсетов.

DDR (Double Data Rate) расшифровывается как «удвоенная скорость передачи данных».

Таким образом, за один такт передается вдвое больше информации. Увеличилось количество передаваемой информации, реальная частота памяти осталась неизменной. Вместе с этим появилось такие понятия как эффективная частота, которая стала в два раза больше реальной.

Именно с приходом стандарта DDR появилась путаница с реальной и эффективной частотой работы памяти.

Реальная частота — частота шины модуля памяти. Эффективная частота — удвоенная частота шины модуля.

Как можно видеть, реальная частота памяти составляет 1900 МГц, в то время как эффективная в 2 раза больше — 3800 МГц, потому что за один такт теперь поступает вдвое больше данных.

Для того чтобы информация передавалась с удвоенной скоростью, она должна поступать из массива памяти вдвое быстрее. Реализовали это с помощью удвоения внутренней ширины модуля памяти. Благодаря чему за одну команду чтения мы стали получать сразу 2n единицы данных. Для стандарта DDR n = 1. Такая архитектура была названа n-prefetch (предвыборка). У памяти стандарта DDR, одной командой, при чтении, передается от ядра к буферу ввода-вывода две единицы данных.

Вместе с ростом производительности уменьшилось рабочее напряжение с 3.3V у SDR до 2.5V у DDR. Это позволило снизить энергопотребление и температуру, что дало возможность повысить рабочие частоты. На самом деле, потребление и, как следствие, нагрев, — это одна из самых больших проблем оперативной памяти того времени. При полном чтении всего модуля объемом 2 Гбайта память потребляет до 25 Ватт.

Оперативная память стандарта DDR2 пришла на смену стандарту DDR в 2003 году, правда, поддерживающие ее чипсеты появились годом позже. Основное отличие DDR2 от DDR заключается в увеличенной вдвое частоте работы внутренней шины, по которой данные поступают в буфер «ввод-вывод». Передача на внутреннюю шину теперь осуществляется по технологии (4n-Prefetch), одной командой из массива памяти к буферу поступает 4 единицы данных.

Таким способом удалось поднять пропускную способность в два раза, не увеличивая частоту работы чипов памяти. Это выгодно с точки зрения энергоэффективности, да и количество годных чипов, способных работать на меньшей частоте, всегда больше. Однако у данного способа увеличения производительности есть и минусы: при одинаковой частоте работы DDR2 и DDR временные задержки у DDR2 будут значительно выше, компенсировать которые можно только на более высоких частотах работы.

Рабочее напряжение понизилось почти на 30% до 1.8V.

На основе стандарта DDR для видеокарт в 2000 году был разработан новый стандарт памяти GDDR.

Технически GDDR и DDR похожи, только GDDR разработан для видеокарт и предназначен для передачи очень больших объемов данных.

GDDR (Graphics Double Data Rate) расшифровывается как двойная скорость передачи графических данных.

Несмотря на то, что они используются в разных устройствах, принципы работы и технологии для них очень похожи.

Главным отличием GDDR от DDR является более высокая пропускная способность, а также другие требования к рабочему напряжению.

Разработкой стандарта видеопамяти GDDR2 занималась компания NVIDIA. Впервые она была опробована на видеокарте GeForce FX 5800 Ultra.

GDDR2 это что-то среднее между DDR и DDR2. Память GDDR2 работает при напряжении 2.5V, как и DDR, однако обладает более высокими частотами, что вызывает достаточно сильный нагрев. Это и стало настоящей проблемой GDDR2. Долго данный стандарт на рынке не задержался.

Буквально чуть позже компания ATI представила GDDR3, в которой использовались все наработки DDR2. В GDDR3, как и DDR2, реализована технология 4n-Prefetch при операции записи данных. Память работала при напряжении 2V, что позволило решить проблему перегрева, и обладала примерно на 50% большей пропускной способностью, чем GDDR2. Несмотря на то, что разработкой стандарта занималась ATI, впервые его применила NVIDIA на обновленной видеокарте GeForce FX 5700 Ultra. Это дало возможность уменьшить общее энергопотребление видеокарты примерно на 15% по сравнению с GeForce FX 5700 Ultra с использованием памяти GDDR2.

Современные типы видеопамяти

На сегодняшний день наиболее распространенными типами видеопамяти являются GDDR5 и GDDR6, однако до сих пор в бюджетных решениях можно встретить память типа GDDR3-GDDR4 и даже DDR3.

GDDR3

GDDR4

Стандарт GDDR5 появился в 2008 году и пришел на смену стандарту GDDR4, который просуществовал совсем недолго, так и не получив широкое распространение вследствие не лучшего соотношения цена/производительность.

GDDR5 спроектирована с использованием наработок памяти DDR3, в ней используется 8-битовый Prefetch. Учитывая архитектурные особенности (используются две тактовые частоты CK и WCK), эффективная частота теперь в четыре раза выше реальной, а не в два, как было раньше. Таким способом удалось повысить эффективную частоту до 8 ГГц, а вместе с ней и пропускную способность в два раза. Рабочее напряжение составило 1.5V.

GDDR5X — улучшенная версия GDDR5, которая обеспечивает на 50% большую скорость передачи данных. Это было достигнуто за счет использования более высокой предварительной выборки. В отличие от GDDR5, GDDR5X использует архитектуру 16n Prefetch.

GDDR5X способна функционировать на эффективной частоте до 11 ГГц. Данная память использовалась только для топовых решений NVIDIA 10 серии GTX1080 и GTX1080Ti.

Память стандарт GDDR6 появился в 2018 году. GDDR6, как и GDDR5X, имеет архитектуру 16n Prefetch, но она разделена на два канала. Хотя это не улучшает скорость передачи данных по сравнению GDDR5X, оно позволяет обеспечить большую универсальность.

Сейчас данная память активно используется обоими производителями видеокарт в новой линейке NVIDIA серий GeForce 20 и 16 (кроме некоторых решений: GTX 1660 и GTX 1650, так как в них используется память GDDR5). При покупке нужно внимательно изучить характеристики видеокарты, потому как разница в производительности от типа памяти в данном случаи достигает от 5 до 15%. В то время как разница в цене совершенно несущественна.

GDDR5

GDDR6

Также тип памяти GDDR6 активно используется компанией AMD в видеокартах RX 5000 серии.

На начальном этапе GDDR6 способна функционировать с эффективной частотой 14 ГГц. Это позволяет удвоить пропускную способность относительно GDDR5. В дальнейшем эффективная частота будет увеличена, как это происходило с другими типами памяти.

Источник



Руководство покупателя игровой видеокарты

Производительность видеокарты определяется не только мощностью самого GPU. Любому чипу нужен большой объём выделенной памяти с высокой пропускной способностью при записи и чтении различных данных: текстур, вершин, содержимого буферов и т. п. Даже самый мощный видеочип можно «придушить» слишком малым объёмом видеопамяти, да ещё с медленным доступом, поэтому характеристики устанавливаемых микросхем памяти также являются одними из важнейших параметров современных видеокарт.

Микросхемы памяти, количество которых на некоторых моделях видеокарт достигает 24 штук, обычно располагаются на печатной плате вокруг видеочипа, на одной или обеих сторонах. В некоторых случаях для них не используется даже пассивное охлаждение, но часто применяется общий кулер, охлаждающий и GPU и память, а иногда и отдельные радиаторы. Вот так микросхемы памяти выглядят на GeForce GTX 590 со снятым устройством охлаждения:

Современные видеокарты оснащаются различным объемом локальной видеопамяти, но обычно он начинается от 512 МБ и может достигать 3 ГБ на один GPU (с удвоением объёма на двухчиповых видеокартах). Чаще всего на видеокарты low-end и mid-end сейчас ставят 1 ГБ памяти, а на high-end — 1,5-3 гигабайта на чип, но есть и исключения. Так, карты самого низкого уровня могут иметь и 512 МБ более быстрой памяти GDDR5, и 1-2 ГБ медленной DDR3.

Чем больше выделенной памяти установлено на видеокарте, тем больше данных (тех же текстур, вершин и буферов) можно хранить в ней, не используя медленный доступ к ОЗУ компьютера. Причем, больше всего места занимают текстуры и различные буферы, а вот собственно геометрические данные обычно не слишком объёмны. Рассмотрим скриншоты из довольно старой игры Call of Duty 2 с разными установками качества текстур:

В этой игре, как и во многих других, автоматически настраивается качество текстур под имеющийся объём текстурной памяти. В данном случае режим Extra автоматически выставляется на видеокартах с 320-1024 МБ памяти, High или Normal — на 256 МБ, в зависимости от настроек разрешения и уровня антиалиасинга, а Low — на самых слабых GPU с 128 МБ. И даже если вы выставите максимальные настройки вручную, то на видеокарте с недостаточным объёмом видеопамяти для хранения ресурсов будет использоваться часть системной памяти, что приведет к серьёзным «тормозам» и отсутствию комфорта и плавности в игре.

В последнее время рост требований к объёму видеопамяти сильно замедлился, и виновато в этом засилие мультиплатформенных игр. Современные игровые консоли имеют лишь по 512 МБ памяти и поэтому разработчики игр ориентируются именно на этот уровень. Конечно, в ПК-версиях игр зачастую предусмотрены как текстуры большего разрешения, так и высокое разрешение рендеринга, что требует куда большего объёма видеопамяти. Но всё равно, объём памяти в 1 ГБ до сих пор вполне приемлем в подавляющем большинстве случаев. Кроме экстремальных настроек сглаживания и разрешения, вроде MSAA 8x и 2560×1600, соответственно.

Но даже уже устаревшим мультиплатформенным играм не хватает 512 МБ, они довольно требовательны к объёму видеопамяти, занимая до 600-700 МБ. И всё же, на данный момент минимальным необходимым объёмом локальной памяти для игровых видеокарт мы считаем 1 ГБ. Он же является и оптимальным для большинства моделей. Кроме видеокарт NVIDIA, имеющих 320- и 384-битную шины памяти — у них объём видеопамяти ещё более подходящий — 1280-1536 МБ. Но для топовых моделей уже востребован и больший объём, порядка 2 ГБ, что предлагают видеокарты серии Radeon HD 6900, и 3 ГБ, ставящиеся на некоторые модификации GeForce GTX 580. Тем более, что видеокарту всегда лучше подбирать с небольшим запасом.

К слову, в случае интегрированных видеоядер и устаревших дискретных видеокарт бывает так, что указанное на коробке количество видеопамяти не равно объему установленных на плату микросхем. Такое было ранее в случае видеоплат low-end, работающих с частью системной памяти при помощи технологий TurboCache (NVIDIA) и HyperMemory (ATI):

В характеристиках видеокарт с поддержкой этих технологий в маркетинговых целях указывался объём памяти (в т. ч. и часть ОЗУ), который может использоваться видеочипом, равный 128 МБ, в то время как в реальности на них установлен меньший объем — 16-32 МБ. Поэтому всегда нужно внимательно читать материалы нашего сайта, чтобы не попадаться на подобные ухищрения в будущем. Но пока что можно жить спокойно, ведь сейчас в таких видеокартах уже нет никакого смысла, их нишу прочно заняли интегрированные чипсеты.

С имеющимися разновидностями видеокарт по объёму локальной памяти мы разобрались, но ведь объём памяти для видеокарт — это еще не всё, и даже зачастую не главное! Очень часто бывает так, что на дешёвые видеокарты ставят очень большое количество памяти, чтобы нарисовать красивые цифры на их коробках и в описаниях готовых систем (поэтому их так любят сборщики — вспомните слоганы вроде «4 ядра, 4 гига»), с расчетом на то, чтобы они лучше продавались. Но для слабых видеокарт в повышенном объёме памяти никакого смысла нет, они ведь всё равно не смогут выдавать приемлемую частоту кадров на высоких настройках, в которых и используется большие объёмы текстур и геометрии.

Продавцы часто используют объём видеопамяти в качестве основной характеристики видеокарт, и это вводит в заблуждение простых покупателей, плохо знакомых с реальным положением дел. Сравним производительность решений с разным количеством видеопамяти на примере двух одинаковых видеокарт Radeon HD 6950, имеющих единственное отличие — на первой из них установлено 1 ГБ видеопамяти, а на второй — 2 ГБ. Любой менеджер по продажам скажет вам, что вторая видеокарта значительно лучше первой, кроме случаев, когда в магазине есть модели только с 1 ГБ памяти и редчайших случаев честных и компетентных продавцов. А что получается на самом деле? Есть ли великая разница? Посмотрим на цифры, полученные в игре Metro 2033, являющейся одной из наиболее требовательных:

Как видите, в большинстве игровых режимов объём видеопамяти влияет на производительность не слишком значительно — разница не превышает 5-6%. То же самое получается и в других играх, даже современных и ПК-эксклюзивных (что сейчас большая редкость). Лишь в сверхвысоком разрешении и с максимальными настройками качества появляется значимая разница, когда модель с 1 ГБ заметно отстаёт от более дорогой карты с 2 ГБ памяти — на 27%.

Казалось бы — вот оно, ради чего нужно платить деньги! Но посмотрите на цифры кадров в секунду при разрешении 2560×1600 — разве 18,9 FPS можно назвать комфортной скоростью? Нет. Что 14,9 FPS, что 18,9 FPS — эти цифры одинаково не имеют практического смысла, никто не будет играть с настолько дёрганой частотой смены кадров. Поэтому, с некоторым допущением, можно считать, что разница в объёме видеопамяти между 1 ГБ и 2 ГБ сейчас незначительно сказывается на скорости рендеринга, и сравнивать даже топовые видеокарты по количеству памяти не нужно.

Но речь шла только об объёмах памяти выше 1 ГБ. Да и 512 МБ для плат нижнего ценового диапазона сейчас вполне достаточны. В этих случаях, примеры, когда объём памяти начинает сказываться на производительности, весьма редки. Разработчики игровых приложений рассчитывают используемые в играх ресурсы и графические настройки так, чтобы все данные входили в локальную видеопамять наиболее распространённых на рынке видеокарт. То есть, сейчас это уровни 512 МБ (для low-end) и от 1 ГБ для всех остальных видеокарт, включая и высокие разрешения и максимальные настройки качества. А если видеопамяти меньше, то современные игры или будут тормозить или даже не дадут выставить максимальные настройки.

Но этот расчётный объем видеопамяти у игровых разработчиков растет, даже несмотря на засилие консолей и мультиплатформы. Ещё пару лет назад было вполне достаточно 512-640 МБ, а теперь появились проекты, в которых этот объёма недостаточно. Но даже среди самых последних игр таких проектов пока мало, но они уже появляются. Поэтому, в случае не слишком большой разницы в цене между видеокартами с разными объёмами памяти при прочих равных условиях (частота и ширина шины), следует покупать модель с большим объёмом. Но без погони за цифрами — никакой low-end карте не поможет пара гигабайт медленной DDR3-памяти. Такой объём ей на данный момент просто не нужен. Зато важен другой параметр, о котором мы поговорим далее.

Подробнее о пропускной способности памяти

Ещё одна важная характеристика, о которой мы уже писали — это пропускная способность памяти (ПСП), которая зависит как от частоты работы памяти, так и от ширины шины. Этот параметр определяет количество данных, которые теоретически можно передать в память или из памяти за единицу времени. Другими словами, это скорость, с которой графическое ядро может записывать и считывать различные данные в локальную видеопамять. Соответственно, чем быстрее считываются текстурные, геометрические и прочие данные, и чем быстрее записываются в буфер рассчитанные пиксели, тем выше будет общая производительность.

Пиковая пропускная способность памяти рассчитывается довольно просто — это произведение «эффективной» частоты памяти на количество данных, передаваемых за такт (ширина шины памяти). Например, для GeForce GTX 580 с шиной 384 бит и частотой видеопамяти 1002(4008) МГц, ПСП будет равна:

1002 МГц × 4 (передача данных с учетверённым темпом) × 48 (384/8 байт за такт) ≈ 192,4 ГБ/с

Если с эффективной частотой памяти всё понятно, её обычно везде пишут, и на коробках, и в характеристиках прописывают прямо, то с шиной всё несколько сложнее, ведь она далеко не всегда явно указывается производителем, поэтому на неё нужно обращать особое внимание. Большинство современных видеокарт используют 128-битную или 256-битную шину памяти на один GPU, топовые модели могут иметь до 384 бит, а некоторые недорогие платы оснащаются лишь 64-битной шиной.

Естественно, что последнее нигде широко не афишируется. Для производителя узкая шина и дешевле в производстве, и позволяет удобнее масштабировать производительность решений линейки. И две одинаковые видеокарты с одинаковыми частотами, но с разной шириной шины памяти, будут сильно отличаться по производительности. Та, у которой ПСП больше, может обрабатывать большее количество данных, по сравнению с картой с меньшей разрядностью шины, хотя сами GPU у них совершенно одинаковые.

Рассмотрим очень жизненный пример — модель GeForce GTS 450 с двумя разными типами памяти, GDDR5 на более дорогой модели и DDR3 на дешёвой. Во время выхода на эту видеокарту ставили исключительно быструю GDDR5-память с приличной пропускной способностью. Но когда её время прошло и она спустилась в нижний ценовой диапазон, производители начали экономить, выпуская варианты с DDR3-памятью, которая гораздо дешевле. Результат подобной экономии можно пронаблюдать на следующей диаграмме:

Как видите, всё очень печально для DDR3-варианта — даже в далеко не самой новой игре разница в различных разрешениях экрана составляет от 50 до 70%! То есть, мощность GPU во всех протестированных условиях ограничена медленной видеопамятью. Модель с DDR3 просто не может считывать и записывать данные с теоретически возможной скоростью. Таким образом производители вместе с компанией NVIDIA снизили себестоимость модели, спустив её ещё ниже в бюджетный сегмент.

Поэтому при выборе между видеокартой с бо́льшим и меньшим объёмом видеопамяти нужно всегда смотреть на тактовые частоты, ширину шины и цены! Так, при большой разнице в ценах между двумя решениями среднего и низшего уровней с 1 ГБ и 2 ГБ памяти нет смысла гнаться за дорогим вариантом — видеокарта такого уровня просто не получит большой прибавки в производительности от увеличенного объёма. Но если приходится выбирать между видеокартами с разным объёмом памяти и разной ПСП, то тут выбор уже не так однозначен, и нужно его совершать исходя из того, какого уровня видеокарта и насколько разнятся их частоты. Не забывая и про цену, естественно.

Например, при выборе между топовой видеокартой с 1,5 ГБ памяти и более высокими тактовыми частотами против такой же карты но с 3 ГБ памяти со стандартными частотами и более высокой ценой на данный момент выгоднее будет первая видеокарта, так как она обеспечит даже бо́льшую производительность почти во всех режимах и условиях, кроме самых высоких разрешений. То же касается, к примеру, GeForce GTS 450 с 1 ГБ GDDR5-памяти против GTS 450 с 2 ГБ DDR3 — первый вариант точно будет быстрее. В большинстве режимов видеокарты бо́льшая частота и ширина шины играет значительно более важную роль, чем бо́льший объём видеопамяти, и только в высоких разрешениях увеличенный объем может серьёзно сказаться на скорости рендеринга.

Источник

Как рос объем видеопамяти видеокарт Nvidia. Часть первая, от Nvidia NV1 до GeForce 8800 Ultra

В этом году исполняется 25 лет с выпуска первого 3D-ускорителя Nvidia — Nvidia NV1/STG2000. Это огромный срок в сфере микроэлектроники и высоких технологий и сейчас, 25 лет спустя, Nvidia крепко стоит на ногах и является лидером в разработке графических процессоров.

Давайте вспомним, какой путь прошли ее видеокарты за эти 25 лет, расставив их по времени выпуска и приросту видеопамяти. Ведь видеопамять — это главный показатель актуальности видеокарты. Казалось бы, совсем вчера для игр хватало двух гигабайт, а сегодня восемь гигабайт становятся минимумом для игр в 1080p.

Последние годы требования к видеопамяти резко возросли из-за внедрения новых форматов изображения: QHD (2560 × 1440), 4K (3840 × 2160), и набирающих популярность wide-форматов с соотношением сторон 21:9.

А начиналось все 25 лет назад со скромных разрешений до 640х480 и 16-битного цвета.

Первый видеоускоритель Nvidia — Nvidia NV1/STG2000, который продавался под названием Diamond Edge 3D, имел на борту 2 или 4 МБ видеопамяти типа EDO/VRAM. Что интересно, он оперировал не привычными нам треугольниками, а четырёхугольниками при отрисовке поверхностей.

Следующий видеоускоритель — RIVA 128, выпущенный в 1997 году, имел на борту 4 МБ памяти, а его улучшенная версия — RIVA 128 ZX, уже 8 МБ.

Популярнейшая RIVA TNT в 1998 году получила 8 и 16 МБ памяти типа SDR/SG, а RIVA TNT2 — 16 и 32 МБ.

В 1999 году появляется первый «GeForce» — GeForce 256, оснащаемый 32 или 64 МБ памяти двух типов, SDR и DDR.

Мега популярная линейка GeForce2, от бюджетного MX и до топового ULTRA, в 2000 и 2001 году использовала 32 и 64 МБ памяти.

С объемом памяти в 32 и 64 МБ виден первый ее «застой» с 1999 по 2001 год. Производительность видеочипов быстро росла, но видеопамяти для разрешений того времени, 800х600 и 1024х768 — вполне хватало.

GeForce3, вышедший в начале 2001 года, оснащался 64 и 128 МБ видеопамяти. Запомните эту цифру — 128 МБ, такого объема видеопамяти стало хватать на несколько лет, даже для GeForce 6600GT, вышедшего в 2004 году.

Обширная линейка GeForce4, состоящая из 13(!) видеокарт, обходилась 64 и 128 МБ видеопамяти.

А вот в линейке GeForce FX, вышедшей в 2003 году, средний объем видеопамяти стал увеличиваться до 256 МБ. Эта линейка была интересна переводом части видеокарт на стандарт PCI-E.

В те годы скорости PCI-E очень впечатляли и даже делались прогнозы, что нужда в емкой и быстрой видеопамяти отпадет и видеокарты будут брать данные сразу из ОЗУ.

Линейка видеокарт GeForce 6, вышедших в 2004-2005 годах, взяла новую рекордную планку в 512 МБ видеопамяти. Причем таким объемом оснащались как топовые GeForce 6800 Ultra с быстрой GDDR3 видеопамятью, так и бюджетные GeForce 6200 под AGP шину и с памятью DDR.

В тех далеких годах такие гигантские объемы видеопамяти практически не задействовались в играх, и хит продаж тех лет — GeForce 6600GT, даже в версии с 128 МБ видеопамяти, отлично «тянул» новинки: Half-Life 2, Far Cry и Doom 3.

Но конкуренция на рынке видеокарт тогда была настолько высока, что у топовой модели должно было быть больше, чем у конкурента, все — частота чипа, количество пиксельных конвейеров и конечно же, объем видеопамяти.

Удачная линейка видеокарт GeForce 7, вышедшая в 2006-2007 годах, осталась в пределах 512 МБ GDDR3 видеопамяти, которых хватало даже для GeForce 7900 GTX.

Но была в этой серии интереснейшая видеокарта GeForce 7950 GX2, состоящая из двух чипов G71, объединенных в Nvidia SLI. Эта видеокарта несла на себе 2*512 МБ видеопамяти. Но, так как память в SLI не суммируется, назвать ее первой видеокартой с 1 ГБ видеопамяти нельзя.

Вышедшая в 2007 году линейка видеокарт GeForce 8 была поистине революционной. Она принесла технологию унифицированных шейдерных процессоров, которые в несколько измененном виде используются и сейчас.

Прирост производительности в новой линейке был огромным, до 40%, что потребовало новых объемов видеопамяти. Топовые GeForce 8800 GTX и GeForce 8800 Ultra имели 768 МБ памяти, некоторые модели GeForce 8800 GT оснащались целым гигабайтом видеопамяти GDDR3.

Вот так, за какие-то 12 лет, объем видеопамяти у видеокарт Nvidia увеличился с 2 МБ до 1 Гб, или в 512 раз!

Во второй части блога я расскажу об увеличении видеопамяти у видеокарт Nvidia с линейки GeForce 9 и до наших дней.

Пишите в комментарии, пользовались ли вы какими-либо видеокартами из этого блога и какое впечатление оставили они у вас?

Источник