Обзор трех Geforce 6600GT Gainward Gigabyte и Leadtek

Как установить, подключить и настроить видеокарту

Обновление видеокарты — одно из самых простых действий, которое значительно повысит игровую производительность вашего компьютера. Как и с другими компонентами, для установки новой видеокарты нужно извлечь старое устройство. Вроде все выглядит очень просто, но давайте разберем процесс установки чуть более подробно. В статье вы узнаете, как самостоятельно установить, подключить и настроить видеокарту.

Начало

Перед тем, как вытаскивать старую видеокарту, удалите установленные драйвера. Лучше всего воспользоваться специальной утилитой Display Driver Uninstaller.

Название говорит само за себя, утилита не просто удаляет драйвера, она полностью вычищает из системы старый драйвер. Это необходимо сделать во избежание всевозможных конфликтов драйверов. Довольно часто подобное наблюдается с драйверами от компании AMD. Особенно эта процедура рекомендуется, если вы меняете видеокарту AMD на Nvidia и наоборот. Программа имеет очень дружественный интерфейс и русскую локализацию, есть также дополнительные настройки для продвинутых пользователей.

В программе выбираем производителя вашей старой видеокарты и выбираем одно из трех возможных действий. В нашем случае это «Удалить и выключить компьютер».

После выключения компьютера выключите также блок питания. Для этого на нем есть специальная клавиша.

Извлекаем старую видеокарту

Первым делом отключаем кабель, идущий от видеокарты к монитору. Затем отключаем кабели питания, они имеют специальную защелку. Для того чтобы вытащить кабель, нужно надавить на защелку.

Если все сделано правильно, он вытащится достаточно легко. Далее выкручиваем болт, которым видеокарта прикручивается к корпусу.

В зависимости от позиционирования корпуса это может либо болт, либо защелка.

Чтобы извлечь видеокарту из слота PCI Express материнской платы, нужно также нажать на специальную защелку, она так же имеет два положения «открыт» и «закрыт».

Открыто

Закрыто

Тут следует быть очень осторожным и тянуть видеокарту на себя потихоньку. Когда вы начнете вытягивать карту, защелка снова может закрыться, обращайте на нее внимание при вытаскивании.

Иногда вытаскиванию видеокарты могут мешать разъемы подключения монитора DVI и VGA, особенно на старых видеокартах из-за конструкции корпуса. Можно слегка покачать карту вверх-вниз.

После вытаскивания видеокарты рекомендуется продуть разъем PCI Express от пыли.

Установка новой видеокарты

Устанавливать видеокарту лучше всего в самый ближний к процессору слот PCI Express. В большинстве случаев именно этот слот будет работать всегда в режиме х16 при наличии одной видеокарты.

Все дело в том, что количество линий PCI Express для обслуживания нужд подключенных устройств не безграничено, их количество напрямую зависит от выбранной платформы/сокета и даже логики материнской платы. Если одновременно к материнской плате подключены два и более устройств, которые используют линии PCI Express, то видеокарты при подключении во второй, третий или даже четвертый слот от процессора будут работать в режиме х8 или х4.

На практике это не так сильно сказывается на производительности, но инженеры в инструкции к материнской плате настоятельно рекомендуют использовать для подключения видеокарты именно первый слот.

Процесс достаточно прост, но может быть не очень удобен в зависимости от размера системы охлаждения процессора, корпуса и конечно габаритов самой видеокарты.

Перед установкой видеокарты убедитесь, что защелка на PCIe-разъеме открыта (опущена вниз).

Самые главное правило при сборке компьютера — не торопиться и не прикладывать больших усилий. Это как конструктор, где все детали идеально подобраны друг под друга нужно просто правильно их совместить.

Когда видеокарта полностью войдет в разъем PCI Express, замочек закроется с характерным щелчком. Затем обязательно прикрутите видеокарту к корпусу, ведь слот PCI Express не рассчитан на то, чтобы выдерживать вес видеокарты на себе, а с учетом веса современных видеокарт данное упущение может повредить как сам слот и, так и разъем у видеокарты.

Подключите кабели питания

На каждом блоке питания есть кабель, который отвечает за питание PCIe-устройств. Внешне его можно спутать с разъемом питания для процессора, но распиновка контактов у них несколько другая, и без дюжей силы вставить одно в другое просто не получится. К тому же все разъемы на блоках питания обычно подписаны.

Найдите подходящий кабель — это может быть один, два шестипиковых или восьмипиковых или даже три восьмипиковых разъема питания PCIe. Количество разъемом напрямую зависит от производительности и прожорливости видеокарты, возможно, что для вашей видеокарты и вовсе не требуется дополнительное питание.

Почти все видеокарты используют шестипиновое или восьмипиновое соединение или их комбинацию. Однако некоторые модели из недавней серии RTX 3000 от Nvidia используют 12-контактный разъем. Для этого вам понадобится адаптер, который превращает два восьмиконтактных разъема в один 12-контактный.

Настоятельно не рекомендуется при отсутствии необходимых разъемов у блока питания использовать всевозможные переходники с molex и sata-кабелей. В таком случае наилучшее решение — замена блока питания.

Первый запуск

Наступает момент истины: осталось подключить кабель, идущий от монитора к видеокарте, и можно включать компьютер. Если все сделано правильно, то на экране появится изображение. Если же изображения нет, не стоит расстраиваться — проверьте все места подключения.

Установка драйвера

Windows 10 автоматически установит драйвер на видеокарту, но этот драйвер будет не самой последней версии. Лучше всего использовать именно последний драйвер, который всегда можно скачать под ваше устройство с сайта производителя видеокарты NVIDIA или AMD.

После установки драйвера рекомендуется перезагрузить компьютер.

Проверка видеокарты

После установки новой видеокарты ее обязательно нужно проверить, можно любимым играми, а можно — специальным тестовыми пакетами.

Для этих целей лучше всего подходить приложений 3DMark, а для мониторинга за рабочей температурой — MSI Afterburner. Видеокарта — это технически сложное устройство, даже покупка совершенно новой видеокарты из магазина не гарантирует, что она на 100 % будет исправно работать, ведь производственный брак еще никто не отменял.

Приложение 3DMark не только поможет проверить работоспособность, но и оценит уровень производительности, чтобы вы могли

Данный результат является чем-то средним для серии видеокарт NVIDIA RTX 3070, что свидетельстует о нормальной работе устройства.

Источник

Видеокарта GeForce 6600: разгон, производительность, тестирование и отзывы

В фокусе данной статьи одна из лучших видеокарт, популярность которой не снижается на протяжении нескольких лет — GeForce 6600. Буквально за несколько лет технологии в области игровых приложений шагнули так далеко, что большинство пользователей уже и не помнят об устройствах такого класса. Однако есть категория людей, которые предпочитают использовать компьютеры до первой поломки, не подвергая их усовершенствованиям. Именно для этой целевой аудитории и предназначена данная статья.

Читатель узнает, чем так популярен данный видеоадаптер среди пользователей, познакомится с представителями рынка, построенными на базе GeForce 6600, и получит полную информацию тестирования производительности и данные о разгоне данной видеокарты.

Историческая справка

Всё дело в том, что видеоадаптер Nvidia GeForce 6600 был произведён в момент перехода производителей компьютерных комплектующих с одной технологии на другую (шина для видео AGP сменялась на PCI разъём). Соответственно, производитель попытался сесть на два стула: сделать самое быстрое устройство для старой технологии AGP и, не зная тенденций нового рынка, внедрить все доступные на момент изготовления технологии в устройства с новой шиной PCI. Принято считать, что именно с видеоадаптера GeForce 6600 началась эпопея с разгоном графического ядра и шины памяти.

Нельзя сказать, что спустя несколько лет видеоадаптер продолжает занимать топовые позиции, скорее, наоборот, его производительность ничтожно мала для современных игр. Зато с уверенностью можно заявить, что видеокарта GeForce 6600 является самым лучшим решением для владельцев старых компьютеров.

Если говорить о чипсете

Чипсет имеет кодовое название NV43 и существует в нескольких модификациях. Первое разделение идёт по платформам: PCI и AGP. А второе касается непосредственно технических характеристик. Так производитель создал недорогое решение под названием GeForce 6600 LE, наделив его слабыми характеристиками. Выпустил множество базовых модификаций, которые в маркировке не имеют никаких букв, и сделал топовую линейку GT, обеспечив её высокой мощностью. Причём эта самая мощность достигается за счёт увеличения частот памяти и графического ядра – обычный разгон, только выполненный руками производителя.

В средствах массовой информации достаточно много отзывов ИТ-специалистов, которые уверяют, что на самом деле разделение видеоадаптеров по модификациям, отвечающим за производительность, является обычной отбраковкой. Если чипсет способен стабильно работать в жёстком режиме, его маркируют как GeForce 6600 GT. Если чип нестабильно работает, он никак не маркируется, а если при разгоне происходит сильный нагрев, то быть ему недорогой LE модификацией.

Технические характеристики

Технология изготовления чипа NV43 соответствует стандарту 256 бит, имеет техпроцесс 0,11 мкм и включает в себя 143 миллиона транзисторов. Производитель на базе Nvidia GeForce 6600 представил модификации с шиной памяти GDDR и GDDR3. Естественно, такое различие отразилось на производительности видеоадаптеров (фактически разница в пропускной способности у GDRR3 выше в 1,5 раза). Объём видеопамяти устройства составляет 256 Мб, хотя иногда встречаются экземпляры и с 128 мегабайтами на борту.

Реальная частота работы улучшенной модификации составляет 500 МГц, а вот для дешёвых чипов предел установлен в 350 МГц. Все устройства поддерживают DirectX 9.0c, 10 бит на один канал цвета и оборудованы встроенным ТВ-кодером, который использует мощность видеопроцессора для своей работы. Не стоит забывать, что именно шестая модификация от Nvidia начала эпопею с внедрением особых функций в свои аппаратные решения: адаптивная, настоящая трилинейная фильтрация, UltraShadow и тому подобные дополнения.

Прямой конкурент чипсета

Благодаря тому что у компании Nvidia на рынке есть конкурент – ATI, у всех пользователей появилась возможность приобретать компьютерные комплектующие по доступной цене. Относится данное заявление и к видеокарте в обзоре – GeForce 6600, характеристики которой максимально приближены к ATi Radeon X700 Pro. Видеоадаптер конкурента имеет меньшую частоту графического ядра (425 МГц) и заниженную частоту памяти (800 МГц), однако это вовсе не мешает ему показывать высокую производительность в работе.

Всё дело в технологиях, которые поддерживают адаптеры ATI. Давно отказавшись от гонок за увеличенными частотами, производитель начал внедрять в систему собственные разработки, которые и позволяют демонстрировать отличный потенциал в работе. В средствах массовой информации владельцы отмечают слабую техническую поддержку пользователей в плане драйверов, как это развито у GeForce 6600. Windows 7, обнаруживая дискретный видеоадаптер ATI Radeon X700 Pro, назначает ему интегрированный драйвер.

Лидер на рынке видеокарт

Самым производительным видеоадаптером на базе Nvidia GeForce 6600 GT принято считать продукт от компании Leadtek. Огромной мощностью она обязана высоким показателям частоты графического ядра (550 МГц) и шине памяти (1120 МГц). Высокую скорость для передачи видеоданных ей обеспечивают модули памяти от компании Samsung, время отклика которой составляет 1,6 наносекунд.

Абсолютный лидер по производительности на рынке имеет и несколько недочётов. Во-первых, система охлаждения. Она обеспечивает потоком холодного воздуха только графический чип, а вот модули памяти и другие важные компоненты устройства остались без внимания. Во-вторых, отсутствует видеовход, как это реализовано у всех конкурентов. Зато видеовыход имеет поддержку HDTV. На самом деле не понятно, что это – достоинство или недостаток. Кстати, многие потенциальные покупатели в буквальном смысле гонялись именно за видеоадаптером Leadtek, ведь в его комплектацию входили три лицензионные игры: Splinter Cell, Prince Of Persia и Pandora Tomorrow.

Читайте также:  Обзор и тестирование материнской платы ASUS H110M K D3 на Intel H110

Золотая серия

Когда речь заходит об устройствах, которые построены навечно, то многие владельцы сразу же вспоминают о видеоадаптере GeForce 6600 GT компании Gainward. Видеокарта входит в золотую серию, а значит, наряду с высокой производительностью, гарантирует отказоустойчивость в работе. Производитель сделал интересный маркетинговый ход, установив в БИОСе видеокарты базовые настройки частот видеоядра (500МГц) и шины памяти (1000МГц), он дал на устройство пожизненную гарантию. Только при условии, что пользователь не будет разгонять его. Однако при установке фирменного программного обеспечения, поставляемого в комплекте на диске, видеодрайвер самостоятельно разгоняет графическое ядро до 540 МГц, а шину до 1150 МГц.

По сравнению с конкурентами, производительность видеоадаптера Gainward очень высокая. Аппаратная поддержка видеовхода и видеовыхода с HDTV является отличным дополнением к достойной покупке. Порадует будущего владельца и система охлаждения чипсета, которая эффективно охлаждает все установленные на плате модули.

Без шума и пыли

Если пользователь думает, что видеокарта Nvidia GeForce 6600 GT с пассивным охлаждением вряд ли сможет удивить любителей динамических игр, то он точно заблуждается, ведь компания Gigabyte никогда не допустит, чтобы все вокруг считали её продукты низкосортными. Медный радиатор обхватывает видеоплату с двух сторон, закрывая все установленные на ней чипы. Для нормализации температур между двумя радиаторами имеется достаточно широкая медная трубка.

И всё-таки она греется. Но недостаточно сильно для того, чтобы сработала защита, и компьютер ушёл в перезагрузку системы. Будущим владельцам специалисты рекомендуют подумать о наличии просторного системного корпуса с достойной вентиляцией. Высокую производительность адаптеру обеспечивает увеличенная частота памяти – 1120 МГц и модули Samsung 1,6 нс. В итоге именно этот продукт рекомендуется многим пользователям, для которых в приоритете высокая производительность и бесшумность в работе и играх – конкурентов у Gigabyte для чипа NV43 нет и не предвидятся.

Бриллиантовая серия

Легендарная видеокарта Nvidia GeForce 6600 AGP компании MSI запомнилась всем пользователям своей рекламой, ведь именно благодаря ей все любители динамических игр узнали о прекрасном шутере «Хроники Риддика». Сам герой фильма был изображён на коробке, а игрушка поставлялась бесплатно в комплекте к видеоадаптеру. О мощности устройства заявляла маркировка Diamond. Видеокарта для шины AGP имела огромнейший потенциал – 400 МГц по ядру и 800 МГц для памяти. Очень жаль, что разработчики компании MSI не сделали ещё один шаг вперёд, предоставив пользователю хоть какой-то инструмент для увеличения частоты графического ядра и шины. В тестах этого чуть-чуть очень не хватает.

Позаботился производитель и об охлаждении: кулер обдувает графический контроллер, а чипы памяти снабжены радиаторами. Судя по отзывам, пользователей смущает отсутствие медной накладки с обратной стороны видеоплаты, ведь рассеиваемая мощность как раз раскаляет именно эту часть платы. В целом отношение к продукту положительное, видеокарта красивая, сделана с умом и как для технологии прошлого века очень хорошо справляется с поставленными задачами.

Странный экстремал

Продукция компании ASUS всегда занимала топовые позиции во всех тестах, однако с видеокартой GeForce 6600 128Mb Extreme у лидера компьютерного рынка вышел конфуз. Тактовые частоты памяти и ядра, установленные на заводе, изменениям не подвержены. Чего хотел добиться производитель ASUS на рынке, остаётся загадкой. Убрав видеовход и разместив медленные модули памяти с откликом 2,5 нс, известный тайваньский бренд не удосужился даже снизить цену на свои продукты.

В средствах массовой информации многие владельцы уверяют окружающих, что ASUS является единственной компанией в мире, которая дополнила комплектацию лицензионной игрой «Joint Operations». В таких высказываниях не наблюдается логика, ведь игру можно приобрести отдельно, а в собственном компьютере всем хочется видеть производительную видеокарту, а не ширпотреб.

Последний герой

Продукт компании Albatron под названием Trinity GeForce 6600 AGP считается эталоном для многих видеокарт, ведь именно этот бренд на заре компьютерной эры задавал направление рынку всех комплектующих. Внешний вид устройств Albatron, будь то видеокарта, материнская плата или тюнер, всегда отличался от конкурентов подчёркнутой строгостью и консерватизмом.

В гонке за высокой производительностью лидер рынка решил не участвовать, направив весь свой потенциал на комплектацию и программное обеспечение, которое поставляется с видеокартой. Очень жаль, что многие производители на данный момент времени очень мало уделяют внимания программному обеспечению, поставляемому с видеоадаптером, ведь именно в этих продуктах и кроется привязанность пользователей к бренду.

Тестирование видеоадаптеров

Заставить устройство GeForce 6600 PCI, работающее по технологии DirectX 9.0, запустить более продвинутую игрушку в тестах вряд ли удастся, поэтому для сравнения видеокарт будут использоваться соответствующие приложения (The Chronicles Of Riddick, Half-Life 2 и Doom3). Естественно, ни о каком параметре FullHD не может быть и речи, используется стандартное разрешение 1024х768 точек на дюйм с 32 битами цветности.

Как и следовало ожидать, лидирующие позиции заняли устройства с максимальными частотами графического ядра и шины памяти: Leadtek, Gainward и Gigabyte. Из этого следует сделать один единственный правильный вывод, что в играх побеждает та видеокарта, которая имеет максимальный разгон. Внешний вид, красота и комплектация – это всё только для отвлечения потенциальных покупателей от высокопроизводительных видеоадаптеров.

Подводные камни для будущих владельцев

Производители всегда скрывают недостатки своей продукции от посторонних глаз. Так произошло и с чипом NV43, который уже успел отличиться от конкурентов и показать свою сверхвысокую прочность кристалла, при неосторожном обращении приводящую к плачевным результатам. Улучшив для GeForce 6600 характеристики производительности с размещением 143 миллионов транзисторов на чипе, производитель не подумал о безопасности, которая нарушается при неосторожном обращении с видеокартой.

Дело в том, что чип неплотно прилегает к поверхности видеокарты, а установленный сверху кулер для охлаждения не имеет выемки под графический чип. Соответственно, если нажать на один из краёв радиатора, то кристалл графического ядра лопается. Тут уже лотерея: отпадёт лишь уголок чипа или весь графический процессор расколется надвое. В первом случае видеоадаптер с высокой вероятностью может работать, а во втором — придётся идти в магазин за новой покупкой.

Проблемы с монтажом видеокарт

Многие владельцы несовременных компьютеров уже успели заметить странное расположение слотов памяти на материнских платах с установленным AGP разъёмом. Такое чувство, что производитель пошутил над пользователями, разместив контакт для установки видеокарты в непосредственной близости от замков для крепления модулей памяти. Все владельцы видеокарт GeForce 6600 имеют шанс сломать пару кондиционеров на плате в процессе установки. И чтобы этого не произошло, нужно производить монтаж с максимальной ответственностью и при хорошем освещении.

В средствах массовой информации ИТ-специалисты рекомендуют сначала установить модули памяти и только потом вставлять видеокарту в разъём. Аккуратно опуская её вниз до упора, нужно пальцами другой руки отводить край платы в сторону от лапок для крепления модулей оперативной памяти. Если торец печатной платы видеоадаптера по какой-либо причине упирается в конденсатор на материнской плате, то пользователь без особых усилий может самостоятельно устранить проблему, аккуратно отогнув мешающее устройство в сторону.

Об эффективном разгоне

Любопытный пользователь непременно придёт к самостоятельным выводам, что производительность видеоадаптера можно увеличить путём разгона и дальше, если под рукой имеется соответствующее программное обеспечение, а видеокарта имеет прекрасное охлаждение. В средствах массовой информации, судя по отзывам за несколько лет, разгону GeForce 6600 уделено много времени не впустую. Владельцам удалось добиться рекордных на то время показателей: частота графического ядра 615 МГц и частота шины 1340МГц.

В первую очередь задачей пользователя является обеспечение видеокарты достойным охлаждением. Вариантов тут множество. Можно заменить штатный кулер каким-то профессиональным решением от Shuttle или Zalman, однако сомнения вызывает цена систем охлаждения. Проще поменять материнскую плату с процессором, чем отдавать круглую сумму за профессиональное решение. Второй вариант – это установка над штатным кулером дополнительного 12 мм вентилятора с потоком воздуха 90-140 CFM. Для разгона рекомендуется использовать официальное программное обеспечение, которое поставляется с драйвером Nvidia.

В заключение

Видеокарта GeForce 6600 – это единственное звено, которое пока что ещё связывает две эпохи персональных компьютеров, способных работать с динамическими играми. Уйдут с рынка переходные модели видеокарт – закончится время старых ПК. И если потенциальный покупатель стоит перед выбором, купить GeForce 6600 или сделать апгрейд всей системы, то стоит подумать над последней мыслью, ведь ничего в нашем мире не существует вечно. Рано или поздно старые технологии будут утеряны для человечества навсегда. Но если для усовершенствования неновой системы стоит выбор между самими видеоадаптерами, тогда однозначно по критерию «цена-качество» покупатель ничего не найдёт достойнее чипа GeForce 6600.

Источник

Обзор трех Geforce 6600GT — Gainward, Gigabyte и Leadtek

Читателей может удивить появление такого обзора сейчас, когда уже в продаже встречаются видеокарты GeForce 7600GS/GT, которые быстрее, чем 6600GT. Но они и стоят дороже, а цена на GeForce 6600GT в последнее время снизилась, и эти видеокарты будут неплохо смотреться в бюджетных игровых ПК. На рынке присутствует очень много версий GeForce 6600GT от разных производителей, есть карты, оснащенные 128 и 256Мб памяти, работающие на стандартных частотах, или разогнанные производителем. Особого смысла покупать версию карты с 256 Мб нет, так как ее цена сравнима с ценой более быстрой GeForce 7600GS. Поэтому в этом обзоре сравниваются более дешевые версии 6600GT, оснащенные 128Мб памяти, производства Gigabyte, Leadtek и Gainward. Первые две карты – это обычные, не разогнанные модели, GV-NX66T128D и Winfast PX6600GT TDH соответственно, а карта от Gainward, имеющая длинное название Ultra 1960 PCX Golden Sample, работает на повышенных частотах – 540/1050.

Учитывая, что видеокарты в данном случае – практически одинаковые, больше симпатий могла вызвать карта, имеющая лучший комплект поставки, но сравнить упаковки и комплектацию карт не получилось, так как Gigabyte GV-NX66T128D и Leadtek Winfast PX6600GT TDH попали на тест в OEM-комплектации, в пакетиках, с Leadtek-ом не было даже диска с драйверами. Карта от Gainward была упакована в коробку небольших размеров, в которой кроме самой видеокарты находились:
— инструкция,
— 2 диска с драйверами и прочим ПО,
— переходник DVI-D-Sub,
— разветвитель для TV-Out,
— наклейка.

Не очень богатая комплектация, но это все же лучше, чем OEM.

Посмотрим на сами видеокарты. Они выполнены в цветах, традиционных для этих производителей — Gainward – красного цвета, Gigabyte – синяя, Leadtek – зеленая.

Сразу можно заметить нестандартный дизайн продукта от Gainward, а также то, что у этой карты на памяти установлены радиаторы, поэтому перед покупкой нельзя определить, что за память установлена на видеокарту. У Leadtek и Gigabyte – стандартный дизайн, радиаторов на памяти нет, видно, что на обе карты установлена одинаковая память – Samsung 2ns.

В качестве систем охлаждения, на всех видеокартах установлены алюминиевые кулеры, самый шумный — у Gigabyte, кулер Gainward также заметно шумит, а вот кулер на видеокарте Leadtek работает практически бесшумно. Под кулерами у Gainward и Leadtek находится белая термопаста, у Gigabyte – какой-то серый термоинтерфейс, который на ощупь жесткий, спиртом его не счистить, пришлось срезать лезвием, как с чипа, так и с радиатора.

Читайте также:  Слетает драйвер видеокарты при перезагрузке

Честно говоря, эффективность этого термоинтерфейса вызвала у меня сомнения, но я не стал проверять, насколько его качество отличается от хорошей термопасты, так как лишний раз снимать, а потом одевать кулер желания не было. Дело в том, что из-за большой длины этот кулер при установке может легко перекоситься и сколоть ядро. У Gainward и Leadtek такой проблемы нет, так как их кулеры меньше, а на основании радиатора Gainward есть резиновые подушечки, которые защитят ядро от скола в случае перекоса кулера.

Одну видеокарту, Gigabyte или Leadtek, мне надо было быстро вернуть, в то время как Gainward и оставшуюся карту я мог тестировать более длительное время, поэтому сначала было проведено экспресс-тестирование трех видеокарт с родным охлаждением с целью выяснения максимального разгона и температурного режима данных экземпляров. После этого Gainward и та карта, что показала лучший результат, были протестированы с кулером Zalman VF700 AlCu (www.overclockers.ua/cooler/gpu-coolers/).

Видеокарты с родными кулерами были протестированы на такой системе:

Материнская плата – ASUS A8N-E
Процессор – Athlon 64 3000+
Кулер – Box
Корпус – AOpen KF45A
Блок питания – Chieftec HPC 310-102

Корпус был открыт, сбоку для обдува установлен 12см вентилятор, работавший на 1200об/мин.

Данные о температуре снимались с помощью модуля мониторинга в RivaTuner, для получения температуры под нагрузкой использовался 10-кратный прогон теста Mother Nature в 3DMark03. Температура в простое была получена через полчаса после окончания теста, в течение этого времени на компьютере не выполнялись никакие задачи.
Сначала посмотрим на то, как видеокарты грелись на стандартных частотах (напомню, у Gainward они повышены – 540/1050)

Самый сильный нагрев – у Gigabyte, затем идет Gainward, а Leadtek греется меньше всего. Честно говоря, такую разницу температур сложно объяснить различием в кулерах, похоже, что датчики карт откалиброваны по-разному.

Теперь выясним, как разгоняются эти карты:

Gainward – 540/1050 @ 550/1115
Gigabyte – 500/1000 @ 585/1275
Leadtek – 500/1000 @ 560/1305

И соответственно их температура в таком режиме под нагрузкой:

Gainward откровенно разочаровала, разогнавшись по ядру всего на 50МГц от номинала, а если учесть немного повышенные частоты, то на 10МГц. Память тоже не порадовала – плюс 65 МГц, или 115МГц от номинала памяти, такое впечатление, что под радиаторами скрывается память от Infineon, известная плохим разгонным потенциалом. Карта от Leadtek разгоном ядра тоже не впечатлила, хотя разогналась чуть лучше, чем Gainward – до 560МГц. А вот память разогналась просто отлично – 1305МГц! Видеокарта от Gigabyte разогналась до 585/1285, по ядру лучше всех, по памяти – очень хороший разгон, но немного слабее, чем у Leadtek. Правда, грелась Gigabyte очень сильно – температура ядра при таком разгоне достигала 90 градусов! Но работала видеокарта стабильно, хотя не известно, насколько бы ее хватило при таком нагреве. Другие карты грелись слабее – Gainward до 85, Leadtek — до 76 градусов. Опять же, такие отличия в показаниях температуры наводят на мысль о том, что она на всех картах мониторится по-разному…

Итак, выбор между Gigabyte и Leadtek оказался очевидным (см. дополнение к обзору), для дальнейших тестов я оставил Gigabyte. Эта видеокарта порадовала хорошим разгоном, но огорчила высокими показаниями температуры и шумным кулером. Впрочем, его легко можно «утихомирить» с помощью RivaTuner – достаточно немного (до 75%) понизить его скорость, на его эффективности это практически не сказывается, зато шум становится еле различимым.

После того, как я определился с выбором, пришло время посмотреть, насколько улучшились разгон и температурный режим видеокарт Gainward и Gigabyte после установки на них кулера Zalman VF700 AlCu.

Тестирование проводилось уже на другой системе:

Материнская плата — Abit AN8-Ultra (NForce 4 Ultra)
Процессор — Athlon 64 3000+@2650MHz (294*9 1.625V)
СPU-кулер — Thermaltake Big Typhoon
Корпус — Chieftec DX01-SLD
БП — Chieftec HPC 420-302DF

На этот раз корпус был закрыт, в нем спереди на вдув установлены два вентилятора, столько же сзади на выдув, а также еще один вентилятор на вдув установлен на боковой стенке, воздух от него попадает между видеокартой и процессорным кулером. Все эти вентиляторы – 8см модели СoolerMaster TLF-S82, работающие на 1800 об/мин.

Gainward – 540/1050 @ 585/1125
Gigabyte – 500/1000 @ 615/1305

С Zalman-ом разгон видеокарты от Gainward вырос на 35МГц по ядру и всего на 10МГц – по памяти. Итого, относительно частот, на которых эта карта работает по умолчанию, прирост составил 45 и 75МГц, а относительно частот стандартной 6600ГТ — 85 и 125МГц на ядре и памяти соответственно. Если результат разгона ядра еще можно назвать неплохим, то разгон памяти абсолютно не впечатлил, особенно на фоне Gigabyte, у которой и так хороший разгон увеличился на 30МГц как для ядра, так и для памяти, а относительно стандартных частот – на 115 и 305МГц, отлично!

Температура видеокарт снизилась одинаково – на 23 градуса и составила под нагрузкой 62 градуса у Gainward и 67 – у Gigabyte.

После тестирования продукта от Gainward у меня возник вопрос – как можно было выпустить такую видеокарту в серии Golden Sample? Конечно, мне мог попасться очень неудачный экземпляр, но такое предположение скорее подошло бы к видеокартам Gigabyte и Leadtek, это ведь обычные, не разогнанные версии… По-моему, принадлежность видеокарты к серии Golden Sample должна указывать на то, что эти продукты отличаются не только повышенными частотами, но и хорошим разгонным потенциалом. Ведь туда, по идее, идут специально отобранные ядра. А в данном случае получается странно – да, карта работает на слегка повышенных частотах, но при использовании родного кулера разгоняться сильнее она не желает. Как будто ядро отбирали специально, но только цель была – найти не хороший экземпляр, а один из самых плохих. Видеокарты от Gigabyte и Leadtek стоят дешевле, и при этом лучше разгоняются. Кроме этого, у них есть еще одно преимущество – если тех частот, до которых разогнались эти видеокарты, недостаточно, можно легко сделать вольтмодa ядра и памяти, так как они имеют стандартный дизайн, и описание этих вольтмодов найти гораздо проще, а описание того, как сделать вольтмод видеокарты от Gainward, я так и не нашел.

И напоследок, приведу результаты некоторых тестов, позволяющие оценить прирост, полученный от разгона Gigabyte GeForce 6600GT до частот 615/1305:

Разгон видеокарты дает ощутимую прибавку как в 3DMark-ах, так и в играх, поэтому не стоит им пренебрегать. Естественно, для хорошего разгона лучше поменять родное охлаждение видеокарты на более мощное, например, на тот же Zalman VF700.

Итак, этот обзор показал, что видеокарта, предварительно разогнанная производителем, не обязательно будет лучше, чем обычная версия такой же карты от другого производителя. И при выборе GeForce 6600GT не обязательно искать видеокарту, работающую на повышенных частотах — можно смело покупать неразогнанную версию (и потом ее разгонять самостоятельно 🙂 ). Но при выборе видеокарты надо иметь в виду, что разгон зависит от каждого конкретного экземпляра, и не факт, что другие карты (даже этих же моделей) разгонятся так же.

P.S.
Дополнение к обзору
«Что дает больший прирост скорости на GeForce 6600GT — разгон ядра или памяти?»

Выше я написал, что «выбор между Gigabyte (@585/1275) и Leadtek (@560/1305) оказался очевидным». Поясню, почему я сделал именно такой выбор, то есть, почему выбрал видеокарту с большей частотой ядра.

Разница в частоте ядра составила 25МГц в пользу Gigabyte, а в частоте памяти Leadtek оказалась на 30МГц лучше. Понятно, что после замены охлаждения ядро видеокарты от Leadtek разогналось бы сильнее, но как показал пример третьей видеокарты, Gainward, если ядро плохо разогналось с родным кулером, то и с хорошим оно не порадует разгоном (та карта разогналась до 550МГц со стандартным кулером, и до 585MHz– с Zalman VF700 AlCu). Кроме этого, у видеокарты от Gigabyte тоже ведь был запас по разгону ядра! А разница в скорости ядер в данном случае существеннее, чем разница в скорости памяти, 25МГц ядра дадут больший прирост, чем 30МГц памяти.

Покажу это на примере. Возьмем GeForce 6600GT, разогнанную до частот 590/1200, и посмотрим, что даст больший прирост – дополнительный разгон ядра на 20МГц, или памяти на 100МГц? То есть протестируем ее в двух режимах – на частотах 590/1300 и 610/1200.

Игровые тесты были проведены в разрешении 1280*1024, с настройками в драйвере (ForceWare 81.98) на качество, включена 16х анизотропная фильтрация, сглаживание и вертикальная синхронизация отключены. В FarCry уровень детализации был установлен в значение “Ultra details”, в Doom 3 установлено “High Quality”. 3DMark03 и 05 тестировались на стандартных настройках, в разрешении 1024*768, настройки в драйвере – на максимальную скорость, анизотропная фильтрация, сглаживание и vsync – отключены. Чтобы избежать случайностей, все тесты проводились по 5 раз, брался лучший результат.

Результаты тестов подтверждают, что бОльшую пользу GeForce 6600GT приносит разгон ядра – только в Doom 3 преимущество на стороне памяти, и то – мизерное, всего 0,1 кадра! В остальных случаях – немного быстрее комбинация с разогнанным ядром. Как я говорил, тесты проводились по 5 раз, и результаты всегда были немного лучше на частотах 610/1200. Может быть, включение сглаживания как-то изменит ситуацию? Чтобы это выяснить, я провел тесты в FarCry и Doom3 с 4х сглаживанием и с установкой в драйвере максимального качества, остальные настройки были такими же, как и ранее.

Действительно, на этот раз быстрее оказалась комбинация с разогнанной памятью, но разница, как и в предыдущем случае, минимальна – менее одного кадра в секунду!

На основании полученных результатов можно сделать вывод, что у GeForce 6600GT разгон ядра на 20МГц примерно равен разгону памяти на 100МГц. Поэтому в моем случае выбор видеокарты с разгоном 585/1275 оказался очевидным, так как карта с частотами 560/1305 была бы явно слабее.

Источник



Обзор Gigabyte GeForce 6600 128Mb PCI-e

Видеокарта оснащена 128Мб памяти Hynix (4ns.). Работает на стандартной частоте 500Мгц. (для 4нс. – это номинал). Память 128битная. В восьми микросхемах с лицевой стороны карты. Охлаждения для памяти не предусмотрено (хотя оно ей не особо то и нужно).

Самое интересное в данной карте это система охлаждения. Именно этим карта и выделяется из общего ряда. За систему охлаждения отвечают 2 радиатора довольно приличных размеров соединенных тепловой трубкой. Материал радиаторов – алюминий (на карте покрашен). Тепловая трубка (точнее находящаяся в ней легко-кипящая жидкость) подходит к самому чипу и держится на нём с помощью радиатора над ней (радиатор, в свою очередь, держится на двух винтах. Надо сказать, что между трубкой и чипом находится довольно странный термоинтерфейс (что-то жёлтое и твёрдое). На первый взгляд не очень хороший, но как показало тестирование – вполне приличный. Ещё больше удивило то, что между тепловой трубкой и радиаторами к которым она была присоединена вообще не было никакого термоинтерфейса.
Надо отменить, что и пластина жёсткости имеет охладительный характер. Она соединена с текстолитом (с обратной стороны чипа) через термо-прослойку и охлаждает чип ещё и сзади.

Читайте также:  NVIDIA GeForce 8800 GTS 512 vs ATI Radeon HD 3850

Как известно, GeForce 6600 обладает отличным разгонным потенциалом (это ведь просто 6600GT c пониженной на 200Мгц. частотой). Во многом, это обусловлено 0,11мкм. Тех. Процессом на котором изготовлен чип. 6600 может выдерживать колоссальные температуры (около 120градусов), но так терзать карту не имеет смысла. Отличный способ понизить температуру этой видеокарты это превратить её из пассивной в активную. Устанавливаем 80мм. вентилятор на обдув и пробуем разгонять. По чипу удалось добиться 560Мгц (практически максимум без вольтмода). По памяти – 690Мгц, что совсем не плохо для 4нс. памяти.
Перейдем к тестированию.
Тестовый стенд:
Процессор – Athlo64 3000+ 2250Мгц
Память – 2Х512Мб. В двухканальном режиме.
Мат. Плата – Epox 9NPAJ
БП – iPower 400W
ФС, ОС – WinXP Pro, NTFS
Драйвер – Force Ware 76.44
Остальные компоненты практически не влияют на тестирование.
Тeстирование проходило с настройками качества на уровень high в драйверах.
Синтетические тесты.

3DMark 2003, показывает нам 16% превосходства изделия гигабайт над обычной 6600. При разгоне, выигрыш возрастает до 49%!

Гигабайт 6600 работает быстрее обычной на 24%. При разгоне выигрыш у обычной 6600 возрос до колоссальных 63%!

Этот тест наиболее зависит от ЦП, поэтому здесь разгон приносит менее впечатляющий рост производительности. Карта от Гигабайта выиграла у обычной 6600 всего 6%, при разгоне — 22%.
Игровые тесты.

FarCry вполне играбельный в таком разрешении и без разгона. При тестировании использовалась демка Regulator, записанная самой Ubisoft. Для отчётности можно сказать, что участница нашего тестирования выигрывает у простой 6600 11%, а разогнанная — 26%. Рост, конечно, не такой как в 3DMark 2003\2005, но надо учитывать тот фактор, что на производительность FarCry в большой степени влияет и процессор.

Та же демка, но в другом разрешении. Играбельность сохраняется только на разогнанной видеокарте. В остальных случаях — увы. Теперь, с повышением разрешения, на производительность в большей мере стала влиять видеокарта и мы можем видеть более солидный рост от разгона. Рост относительно обычной версии 6600 — 16%, а если разогнать, то 44%.

Тут и комментировать нечего. Похоже производительность упёрлась в процессор. Сомневаюсь, что кто-то увидит разницу между 64 и 71кадром в секунду.
Выводы
Gigabyte GeForce 6600 PCI-e показала себя с лучшей стороны. Она понравится любителям тишины. За ту же цену, что и у других производителей вы получаете абсолютно бесшумную видеокарту. Мало того, ещё и изначально работающую быстрее обычной 6600. Только позаботьтесь о хорошей вентиляции корпуса, греется такая карта всё-таки очень сильно. Карта также показала отличный разгонный потенциал.

Источник

Обзор Gigabyte 3D1 (2xGeForce 6600GT) и системной платы K8NXP-SLI

Сегодня не совсем обычный обзор, поскольку он посвящен не отдельной видеокарте, или видеокартам, а целому комплекту, состоящему из уникального акселератора, базируемого на двух GeForce 6600GT; и системной платы, основанной на NVIDIA nForce4 SLI.

Это решение вызвано политикой самого производителя Gigabyte относительно новой видеокарты 3D1, которая может работать только совместно с системной платой Gigabyte K8NXP-SLI. Поэтому нет смысла отдельно изучать видеокарту, которая жестко привязана к некоей системной плате.

Будет ли продаваться 3D1 самостоятельно или только как компонент набора — мы не знаем. Gigabyte пока не определился с этим. И такая видеокарта будет выпущена ограниченным тиражом. Естественно, что системная плата K8NXP-SLI без 3D1 появится в продаже. Да и будет, как обычно, модификация без «XP», то есть менее «навороченная» по комплектации.

Чем вызвана идея разместить два процессора GeForce 6600GT на одной PCB? Ведь все равно изделие будет требовать наличия системной платы с SLI! Я долго размышлял над целесообразностью такого решения, и кроме маркетинговых и рекламных соображений на ум ничего не приходило.

Да, разумеется, 3D1 гарантирует образование SLI, ибо понятное дело, что две условных видеокарты на одной PCB точно идентичны. Как показали наши тесты, SLI — вещь весьма капризная, и не каждая пара видеокарт легко сумеет его образовать: драйвер придирчиво «ощупывает» каждую из видеокарт. Но так же понятно и другое: покупка двух GeForce 6600GT от одного производителя на 99% гарантирует то, что SLI будет, тем более, если покупать их вместе.

Разница в цене? Безусловно, две видеокарты стОят дороже, чем одна, даже такая навороченная. Но при этом теряется одно из преимуществ SLI: гибкое наращивание мощности графической подсистемы — если позволяют финансы, покупаем один ускоритель, как снова появятся свободные средства — покупаем второй и наращиваем силу 3D. В данном случае мы вынуждены покупать сразу два акселератора, пусть и на одной плате. Повторяю, что смысл есть только в том случае, если цена на него будет значительно ниже суммарной цены за две карты.

Может ли такая видеокарта потенциально работать не только на системной плате на базе nForce4 SLI, но и, например, на iE7525? К тому же, тот же Gigabyte объявил о выпуске материнки на базе i915, но с поддержкой SLI. Теоретически ничего мешать не должно, но повторяю, что 3D1 может работать только на K8NXP-SLI. Во всяком случае, пока. Возможно, дальше будет поддержка со стороны материнки на базе i915.

Производитель заявил о том, что скорость 3D1 превосходит GeForce 6600GT SLI (из 2-х видеокарт). Это и не удивительно. Почему — расскажу ниже. Поскольку самое время рассмотреть главного героя. Плата

Карта имеет интерфейс PCI-Express x16, в сумме 256 МБ памяти GDDR3 SDRAM, размещенной в восьми микросхемах на лицевой стороне PCB.

Сравнение с эталонным дизайном, вид спереди
Gigabyte 3D1 (2xGeForce 6600GT) Reference card NVIDIA GeForce 6600GT 128MB
Сравнение с эталонным дизайном, вид сзади
Gigabyte 3D1 (2xGeForce 6600GT) Reference card NVIDIA GeForce 6600GT 128MB

Прекрасно видно, что над дизайном работали люди, наверно, решившие под Новый Год приукрасить карту необычным узором из микросхем памяти, потому что невозможно понять — зачем надо было их ставить под углом в 45 градусов. Особенно если сами процессоры установлены без смещений. Чуть позже я получил от Gigabyte следующую информацию: такое решение предполагает расположение микросхем памяти на равном расстоянии от процессора, что, по мнению разработчиков, экономит место на PCB, делая плату более компактной.

Разумеется, по совместному питанию двух GPU и удвоенного числа микросхем памяти, плата уже вышла за пределы лимита PCI-E подсистемы в 75Вт, поэтому мы видим на карте разъем для внешнего питания, как у старших моделей.

Посмотрим на графический процессор.

Очевидно, что эти два чипа ничем не отличаются от обычных 6600GT, устанавливаемых на одиночные карты.

Сама видеокарта работает хитро: ее PCI-E x16 разъем на самом деле вовсе не x16, а сдвоенный x8. Просто на одной PCB разместили две карты совершенно независимые друг от друга, и лишь аналог того самого адаптера- синхронизатора, который мы обычно одеваем на две SLI-видеокарты, вмонтированный в PCB, соединяет их между собой. Система же видит ДВЕ ВИДЕОКАРТЫ.

Поэтому ясно, что под такую видеокарту подойдет только материнка, умеющая подавать на PCI-E x16 слот два сигнала X8. Отсюда вывод, что продукт обречен на привязку к системным платам от Gigabyte. Хоть все системные платы на NForce4 SLI и умеют менять x16 на x8, но одновременно на первый слот подать 2×8 — вряд ли.

Кстати, когда 3D1 появился, первым делом я вставил ее в ASUS A8N SLI, что стояла на стенде до сего момента. Система запустилась, дошло дело до установки драйверов под видеокарту, после чего при инициализации видеокарты все зависло. Что и требовалось доказать.

Продолжим изучать видеокарту.

Комплектацию в данном разделе не рассматриваем, ибо она общая с системной платой (поэтому рекомендую прочитать следующий раздел по K8NXP-SLI).

Системная плата Gigabyte K8NXP-SLI

Чтобы не загромождать материал, краткий очерк об этом продукте мы вынесли на отдельную страницу.

Установка и драйверы

    Компьютер на базе Athlon64

      процессор AMD Athlon64 2400 MHz (218MHz x 11; L2=512K) (

    По умолчанию в драйверах обеих компаний включены оптимизации трилинейной фильтрации.

    Надо сказать, что 3D1 прекрасно распознается RivaTuner-ом, поэтому проблем по разгону нет. Что касается самих частот, то подняться они смогли всего до 540/1250 МГц (по GPU — не особенный разгон). Но тут есть серьезные ограничения, связанные с разводкой карты, да и стабильностью работы обоих процессоров при излишнем нагреве.

    Результаты тестов

    1. Практически у всех современных 3D-акселераторов качество 2D может сильно зависеть от конкретного экземпляра, а отследить все карты невозможно физически;
    2. Качество 2D зависит не только от видеокарты, но и от монитора, соединительного кабеля;
    3. В последнее время огромное влияние на этот параметр стали оказывать связки: монитор-карта. То есть, встречаются мониторы, «не дружащие» с теми или иными видеокартами.

    Что касается протестированных экземпляров, то совместно с Mitsubishi Diamond Pro 2070sb платы продемонстрировали одинаковое отменное качество в следующих разрешениях и частотах:

    Gigabyte 3D1 (2xGeForce 6600GT) 1600x1200x85Hz, 1280x1024x100Hz, 1024x768x120Hz

    Результаты тестов: сравнение производительности

      Tomb Raider: Angel of Darkness v.49 (Core Design/Eldos Software) — DirectX 9.0, Paris5_4 demo. Тестирование проводилось при максимально установленном качестве, выключены были лишь Depth of Fields PS20.

    TR:AoD, Paris5_4 DEMO

    Этот тест по сути показывает мощность шейдерных блоков. Поэтому очевидно, что 3D1 тут бескомпромиссный лидер. Причем прирост относительно обычного 6600GT — чуть-чуть не достигает 100%. Хотя не забываем, что у данной карты память работает на повышенных частотах.

    FarCry, Research

    Прирост относительно 6600GT не превысил 63% — это объясняется процессорозависимостью игры, и даже максимальные нагрузки на карту не исчерпали ее ресурсов. Кстати, и от SLI почти нет отличий. Относительно соперничества с ATI — проигрыш как X800 XT (это более дорогая карта, поэтому ничего страшного), так и X800 XL (а здесь уже не очень хорошо для 3D1).

    FarCry, Regulator

    FarCry, Pier

    Комментарии излишни, все то же соотношение сил. В этой игре продуктам NVIDIA уже давно не везет :).

    Half-Life2: ixbt01 demo

    Игра еще более процессорозависимая, и потому мы видим, что эффект от 3D1 (как и от SLI вообще) даже не достигает 50% прироста скорости. И снова проигрыш соперникам из стана ATI. Хотя надо сказать, что относительно GeForce 6800GT выступили не очень плохо.

    Half-Life2: ixbt02 demo

    Картина почти аналогичная, с той лишь разницей, что 3D1 потеряла чуть больше очков, значительнее проиграв ATI и своему старшему брату 6800GT.

    Half-Life2: ixbt03 demo

    Интересный момент. Несмотря на то, что в данном тесте X800 XL явно выигрывает, но зато какой ощутимый прирост относительно 6600GT SLI! Именно в режимах с АА+АФ (память играет роль?). И еще: практически паритет с 6800GT, а последний точно дороже.

    DOOM III

    Эта игра снова использует технологические преимущества NV4x архитектуры, и мы видим — какой сильный прирост дает SLI. Повышенная частота работы памяти принесла 5% перевеса над 6600GT SLI, и очень неплохая картина в соперничестве с 6800GT (о том, что ATI X800-карты отстали, уже даже говорить не приходится).

    Источник