Вступление
Прежде чем мы перейдём непосредственно к сравнению, стоит вспомнить, что могла предложить компания NVIDIA против серии Radeon HD 3800. Итак, после анонса GeForce 8800 GT на базе 65-нанометрового ядра G92 такие решения, как GeForce 8800 GTS 640/320MB, оказались не у дел, так как основывались на немного урезанном по функциональности G80, что сильно сказывалось на производительности относительно новой модели, причём среднего класса. Да и стоимость старых видеокарт не могла соперничать с 250-долларовым ценником, установленным NVIDIA. Об этом странном шаге калифорнийцев уже не раз писали и вспоминали. Чуть позже была представлена карта GeForce 8800 GTS 512MB, способная даже составить конкуренцию флагману GeForce 8800 GTX/Ultra. В конечном итоге на рынке началась полная неразбериха с моделями на различных графических процессорах NVIDIA, которая закончилась исчезновением устаревших моделей из прайс-листов. Серия Radeon HD 3800 смогла соперничать лишь с GeForce 8800 GT, пока не вышел двухчиповый «монстр» Radeon HD 3870 X2, которому было по силам конкурировать с топовыми представителями калифорнийской компании.
В рамках данной статьи мы рассмотрим видеокарту GeForce 8800 GTS 512MB от европейского подразделения американской компании PNY Technologies, а также карту Gigabyte GeForce 8800 GTX и сравним их с решениями на базе GeForce 8800 GT 512MB и GeForce 8600 GTS производства XFX. Кроме того, в результаты тестирования включим видеокарты Radeon HD 3870 X2, Radeon HD 3870 и Radeon HD 3850 от компании Sapphire, которые уже рассматривались в недавних материалах.
ноутбук HP 01020112 1
В таблице приведены характеристики видеокарт серии GeForce, принявших участие в данном тестировании. Характеристики решений на базе RV670 можно узнать в наших предыдущих статьях.
Процессорозависимость
На самом деле, новый 3D-ускоритель GeForce 8800GTX – это не только новая эра в области обработки трёхмерной графики, это и новая планка для остальных комплектующих современного ПК. Всё дело в том, что производительность ускорителей 3D-графики с каждым годом всё сильнее обгоняет производительность центральных процессоров, и это не может не отражаться на всей производительности в целом. Любому мощному 3D-ускорителю нужен мощный центральный процессор, а в случае с GeForce 8800GTX производительность центрального процессора должна быть не меньше, чем у недавно анонсированного Intel QX6700, да и его может с лёгкостью не хватить для обеспечения данными столь мощной видеоподсистемы. Говорить об GeForce 8800GTX Quad SLI или даже просто SLI не приходится, так как в этом случае адекватного по мощности процессора пока ещё не придумали.
Поэтому нужно твёрдо понимать, что для nVIDIA GeForce 8800GTX, как и для любого драгоценного камня, нужна правильная огранка и оправа, то есть проявить свою мощь на существующих приложениях он сможет только в самых жёстких режимах и самых высоких разрешениях. Всё остальное – лишь тесты на процессорозависимость драйверов и к производительности тестируемого ускорителя они имеют весьма отдалённое отношение. В большинстве случаев на нашем центральном процессоре nVIDIA GeForce 8800GTX проявлял свою мощность лишь в разрешениях 1280х1024 и 1600х1200 при включённом антиалиасинге и анизотропии.
В будущем ситуация может измениться, так как создатели игр прекрасно осознают сложившуюся ситуацию и постараются переложить максимальное количество нагрузки на графический процессор, благо в DirectX 10 для этого есть все возможности.
Какие игры потянет Nvidia Geforce 8800 GT
Эта видеокарта отлично справляется с играми своего времени — Age of Empires III, The Elder Scrolls IV: Oblivion, S.T.A.L.K.E.R., World in Conflict, Crysis и другими.
С минимальными настройками графики можно запустить и современную GTA V, которая может работать даже более плавно, чем прошла версия GTA IV.
Так, тест в играх Geforce 8800 GT показывает, что прошлая и нынешняя версии GTA могут идти с частотой кадров свыше 20 fps, возможен даже комфортный уровень в 30-40 fps.
В S.T.A.L.K.E.R. можно поиграть с 40-60 fps в зависимости от уровня графики, в TES IV — 40-90 fps, Age of Empires III — 60-100 fps, World in Conflict — 40-50 fps, Crysis — 18-40 fps.
Как разогнать видеокарту Nvidia Geforce 8800 GT
Чтобы комфортнее себя чувствовать в нынешних игрушках, можно провести разгон Nvidia Geforce 8800 GT. Процедура подразумевает увеличение частот GPU, шейдерного блока и памяти, что повышает общую производительность видеокарты.
Для разгона могут подойти приложения nTune и RivaTuner. Первая утилита выпущена производителем видеокарты, вторая — независимым сторонним разработчиком. Обе программы умеют сохранять профили настроек, чтобы при каждом включении компьютера не приходилось менять параметры заново.
Целесообразен разгон видеокарты Nvidia Geforce 8800 GT до таких значений:
- частота ядра — 680-700 МГц;
- видеопамять — 2-2,1 ГГц (1-1,05 ГГц).
Общая производительность благодаря этому возрастает примерно на 11-17%. Это может стать заметным в играх, однако майнинг на 8800 GT не отличается эффективностью.
Тестирование
В ходе тестирования мы измеряли скорость работы различных 3D-игр, включая видеокарты в состав следующей аппаратной платформы:
- процессор Intel Core 2 Duo E6300, разогнанный до 3.2 ГГц (457х7 МГц);
- материнская плата ASUS P5B (чипсет Intel P965);
- память DDR2 2×1024 Мб GOODRAM PRO DDR2-800;
- жесткий диск WD Caviar SE 250 Гб;
- блок питания GlacialPower 550 Вт.
Отметим, что тестирование видеокарт проводилось в разное время, и версии драйверов не совпадали. Для модели XFX актуальными были драйверы ForceWare серии 163, а к появлению у нас MSI стала доступна новая версия – 169. Для проверки игр с поддержкой OpenGL и DirectX9 мы использовали ОС Windows XP SP2, режим DirectX10 доступен только в ОС Windows Vista.
Мы приводим в таблице данные обеих рассмотренных видеокарт.
Налицо небольшой разгон у MSI NX8800GT-T2D256E: частоты 3D-ускорителя увеличены на 10%, памяти – на 5.5%. Однако усеченный объем памяти неизбежно проявится в наиболее «тяжелых» режимах.
Для сравнения мы приведем данные тестирования двух видеокарт предыдущего поколения – GeForce 8800 GTS 320M от Palit и GeForce 8600 GTS от Leadtek. Это позволит нам оценить, насколько хорошо GeForce 8800 GT вписывается в предназначенную ему нишу.
Тестирование мы выполняли в двух разрешениях – 1280х1024 и 1600х1200. Сначала все режимы улучшения качества отключались, а потом выставлялась анизотропная фильтрация (8 выборок) и анти-альясинг (4 выборки). GeForce 8800 GT поддерживает и другие, более совершенные способы анти-альясинга, но задача оценки качества алгоритмов сглаживания нами не ставилась.
Режим максимальной производительности
Все игры имеют свои особенности, где-то больше геометрии и текстур, где-то сложные спецэффекты, а потому результаты тестирования неоднозначны. Тем не менее, общие тенденции таковы:
- у GeForce 8800 GTS 320M нет шансов: видеокарты 8800 GT превосходят его на 20-50%, а иногда и больше.
- GeForce 8600 GTS тем более смотрится бледно, проигрывая зачастую вдвое (кроме игр, слабо масштабируемых);
- видеокарта MSI, несмотря на меньший объем памяти, проигрывает XFX не всегда (5-15%), иногда даже выигрывает, пусть и незначительно – за счет более высоких частот.
Закономерно, что наиболее чувствительными к объему памяти оказались самые свежие игры – Crysis и World in Conflict, а также весьма технологичная и отлично масштабируемая игра Quake4.
Режим улучшенного качества
Включаем анизотропию и сглаживание – и требования к памяти серьезно возрастают. Так, видеокарта MSI уже «не тянет» Crysis, Oblivion, World in conflict, Call of Duty 2, особенно в разрешении 1600х1200.
Однако и в такой ситуации отрыв от видеокарт предыдущего поколения капитальный: так, сравнивать с GeForce 8600 GTS просто не имеет смысла, так как 8800 GT 256M превосходит эту видеокарту не менее чем в 2.5 раза.
DirectX10
Максимальное быстродействие:
Улучшенное качество (AA 4x, AF 8x):
Впрочем, с комфортом играть все равно не получится – в режиме DirectX10 у видеокарт нынешнего поколения значения FPS слишком низкие.
Температура
У обеих видеокарт кулеры работают практически бесшумно. Но у MSI качество охлаждения чипа значительно выше: температура, согласно показаниям RivaTuner, не превышала 53 градуса, в то время как у XFX чип нагревался до 85.
И в том, и в другом случае вентиляторы работали не на пределе возможностей, присутствовала и система плавного регулирования оборотов в зависимости от температуры. Так что прогноз о том, что кулер у MSI значительно эффективнее, сбылся полностью: не только хорошо охлаждает, но и не издает никакого шума.
Характеристики видеокарты Geforce 8800 GT
Возрастание производительности стало возможным благодаря переходу на новый для того времени технологический процесс 65 нм. Сердцем карты стал графический чип G92. Он вобрал в себя лучшие черты видеопроцессоров двух предыдущих поколений. С его помощью технические характеристики Nvidia Geforce 8800 GT приняли вид:
- частота GPU — 600 МГц;
- частота шейдерных блоков — 1,5 ГГц;
- частота видеопамяти — 1,8 ГГц (2х900 МГц);
- число CUDA — 112;
- число блоков обработки текстур — 56;
- число ROP — 16;
- разрядность шины — 256 бит;
- версия шейдеров — 4.0.
Референсная модель адаптера имела 512 мегабайт памяти формата DDR3. Выпускались также карты с памятью в 256 Мб и 1024 Мб. Видеочип имел 754 миллионов транзисторов.
Изначально цена Nvidia Geforce 8800 GT составляла около 250 долларов, она колебалась в зависимости от производителя и модификации. Сейчас приобрести устройство можно только с рук, и редко ее стоимость превышает 500 рублей.
Обзор Geforce 8800 GT
Эта видеокарта стала одним из первых устройств, поддерживающих PCI Express 2.0. Переход на интерфейс нового поколения поднял пропускную способность до 5 Гб/с. При этом устройство оставалось совместимым с портами предыдущих версий. Все модели видеоадаптера занимали только один слот, что удобно для компактных корпусов системных блоков.
Максимальное поддерживаемое разрешение составляет 2560×1600. Подключить монитор можно по интерфейсу DVI-I Dual Link и S-Video, для других разъемов возможно использование переходников. Есть возможность подсоединить одновременно две видеокарты по технологии SLI. Реализована поддержка DirectX 10 и OpenGL 3.3.
Устройство поддерживает технологию Nvidia PureVideo HD, что означает аппаратную поддержку видео высокого разрешения. Благодаря этому улучшается сглаживание, ускоряется декодирование, уменьшается число шумов и осуществляются другие виды оптимизации.
Энергопотребление 8800 GT в зависимости от производителя может колебаться от 110 Вт до 123 Вт. Сейчас для работы устройства подходят практически все современные блоки питания.
Производительность меняется в зависимости от модификации. Стандартном является референсная модель от NVIDIA, известны также версии ускорителя графики от Asus (512 Мб), XpertVision (1 Гб) и MSI (256 Мб). У последней модели увеличены частоты памяти и GPU, что позволило компенсировать малый объем памяти, однако практической пользы это почти не принесло.
Вывод
Представленная сегодня видеокарта GeForce 8800GTX абсолютно по праву может называться самой производительной одиночной видеокартой в мире на сегодняшний день. В большинстве тестовых приложений она одержала убедительную победу над прямым конкурентом от ATi (конечно, прямым конкурентом G80 будет ядро R600, однако до его презентации ещё довольно много времени, а пока самая мощная видеокарта ATi – Radeon X1950XTX). Превосходство над видеокартами GeForce 7x также очень весомое, и позволяет надеяться на скорое снижение цен на топовые видеокарты этого поколения и переход их в средний ценовой диапазон.
Отметим кое-какие трудности, с которыми столкнётся покупатель, решивший приобрести (и нашедший в магазинах) эту видеокарту. На сегодняшний день она поддерживается только бета-версией драйвера ForceWare, которая настораживает своей откровенно провальной производительностью в некоторых играх. Кроме того, разработчикам игр придётся провести дополнительную работу и выпустить патчи, улучшающие совместимость движков игр с новой архитектурой. Другая сложность состоит в том, что для сбалансированной работы GeForce 8800GTX требует очень мощного центрального процессора и качественного мощного блока питания, поэтому конечная цена системы с её использованием будет совсем не бюджетной.
Ну а пока мы можем лишь поздравить nVIDIA Corporation с тем, что она первой в мире выпустила видеокарту, полностью поддерживающую DirectX 10, безоговорочно поддерживающую грядущую Windows Vista и занявшую законное королевское место на пьедестале почёта самых производительных видеокарт. Остаётся лишь дождаться появления конечных продуктов в магазинах и посмотреть на цены, которые в первые пару месяцев, по законам рынка, будут очень слабо похожи на рекомендованные.