Cекретные материалы от ATi. Обзор новых видеокарт серии Radeon X800

каких-то загадочных проектах...
Теперь мы можем снять завесу секретности. В период майских праздников, когда все отдыхали, ATi анонсировала новую линейку графических карт на базе GPU Radeon X800 с кодовым названием R420 . Если вы подумали, что “X ” в названии чипа означает поддержку DirectX 10 , то вы ошибаетесь. Х - обычная римская цифра “10”. Просто после линейки 9xxx надо было придумать новое обозначение. Вот и появился X800.

R420: старый новый знакомый
Монстр от nVidia по имени NV40 состоит из 222 млн. транзисторов. R420 оказался куда скромнее - “всего” 160 млн. транзисторов. Графический процессор ATi производится по 0,13 мкм техпроцессу. Пока в новой линейке видеокарт от ATi будут всего две модели - X800 Pro и X800 XT Platinum Edition (PE ). Они отличаются между собой частотами ядра и памяти, а также количеством пиксельных конвейеров - 12 у X800 Pro и 16 у X800 XT PE. Карты серии X800 используют память GDDR3 , которая отличается пониженным тепловыделением. В отличие от GeForce 6800 Ultra видеокарты на базе X800 потребляют энергии не больше, чем Radeon 9800XT и GeForce 5950 Ultra . Поэтому для питания видеокарты нужен только один дополнительный разъем. Графический процессор не сильно греется, поэтому для X800 используется та же система охлаждения, что и для Radeon 9800XT. Напомним, что она занимает только один соседний слот.
Рядом с разъемом питания на плате находится видеовход, который можно вынести на переднюю панель системного блока, разъем видеовхода (3,5 - или 5,25 -дюймовый отсек). Как вы уже догадались, функция захвата и вывода видео (VIVO ) теперь стандартная. За нее отвечает чип ATi Rage Theater .

Технологические характеристики видеокарт от ATi и nVidia
Карта ATi Radeon 9800XT ATi X800 Pro ATi X800 XT Platinum Edition nVidia GeForce FX 5950 Ultra nVidia GeForce 6800 Ultra
Кодовое название R360 R420 R420 NV38 NV40
Технология чипа 256 бит 256 бит 256 бит 256 бит 256 бит
Техпроцесс 0,15 мкм 0,13 мкм low-k 0,13 мкм low-k 0,13 мкм 0,13 мкм
Число транзисторов ~107 млн. 160 млн. 160 млн. 130 млн. 222 млн.
Шина памяти 256 бит GDDR 256 бит GDDR3 256 бит GDDR3 256 бит GDDR 256 бит GDDR3
Пропускная способность 23,4 Гбайт/с 28,8 Гбайт/с 35,84 Гбайт/с 30,4 Гбайт/с 35,2 Гбайт/с
AGP 2x/4x/8x 2x/4x/8x 2x/4x/8x 2x/4x/8x 2x/4x/8x
Память 256 Мбайт 128/256 Мбайт 128/256 Мбайт 128/256 Мбайт 128/256/512 Мбайт
Частота GPU 412 МГц 475 МГц 520 МГц 475 МГц 400 МГц
Частота памяти 365 МГц (730 DDR) 450 МГц (900 МГц DDR) 560 МГц (1120 МГц DDR) 475 МГц (950 DDR) 550 МГц (1100 DDR)
Число блоков вершинных программ 4 6 6 Массив FP 6
Число пиксельных конвейеров 8x1 12x1 16x1 4x2 / 8x0 16x1 / 32x0
Версия вершинных/пиксельных программ 2.0/2.0 2.0/2.0 2.0/2.0 2.0/2.0 3.0/3.0
Версия DirectX 9.0 9.0 9.0 9.0 9.0c
Число выходов на дисплей 2 2 2 2 2
Дополнительно ТВ-кодер на чипе;
FullStream;
адаптивная фильтрация;
F-Buffer
ТВ-кодер на чипе;
FullStream;
адаптивная фильтрация;
F-Buffer;
сжатие карт нормалей 3Dc;
временное сглаживание;
VIVO;
SmartShader HD;
Smoothvision HD;
Hyper Z HD
ТВ-кодер на чипе;
FullStream;
адаптивная фильтрация;
F-Buffer;
сжатие карт нормалей 3Dc;
временное сглаживание;
VIVO;
SmartShader HD;
Smoothvision HD;
Hyper Z HD
ТВ-кодер на чипе;
адаптивная фильтрация;
UltraShadow
Видеопроцессор и ТВ-кодер на чипе;
расширенная программируемость;
адаптивная фильтрация; настоящая трилинейная фильтрация;
UltraShadow II
Цена на момент выхода $499 $399 $499 $499 $499
Розничная цена $440 $420

Новых функций у X800 не так много. ATi решила пойти по пути дальнейшего улучшения проверенной архитектуры R3xx . Рецепт успеха прост: больше вершинных и пиксельных блоков плюс некоторые оптимизации в ядре. У R420 есть две по-настоящему новые функции: 3Dc и временное сглаживание (Temporal FSAA ). О них мы поговорим позже.
Radeon X800 Pro появится в продаже в мае-июне, чуть позже ATi выпустит старшую модель - X800 XT Platinum Edition. В версии Pro используется тот же графический чип, что и в XT PE. Но у нее отключены 4 конвейера.
ATi High Definition Gaming - Hi-Fi в мире игр
В мире телевидения сегодня наблюдается переход в сторону HDTV (High Definition Television ) - телевидения высокого разрешения. ATi решила использовать термин HD в своих обновленных технологиях: SmartShader HD , Smoothvision HD и Hyper Z HD .
По сути, ядро R420 является развитием удачного и мощного DX9-чипа R300 (Radeon 9700 Pro ). Подобно предшественникам, X800 поддерживает DirectX 9.0 и пиксельные-вершинные программы версии 2.0 . В то время как nVidia добавила в GeForce 6800 Ultra поддержку пиксельных и вершинных шейдеров 3.0 . Кроме того, точность вычислений с плавающей запятой у R420 ограничена 24 битами (напомним, что блоки пиксельных программ у NV40 теперь могут быстро работать с 32 -битными числами). X800 Pro/XT PE использует 256-битную шину, разделенную на четыре канала по 64 бита. ATi увеличила число вершинных блоков с четырех (в Radeon 9800XT) до шести (в X800). Получается, что X800 технологически отстает от GeForce 6800, однако сегодня вряд ли возможно достоверно заявлять о слабости ATi, пока не появятся DirectX 9.0c и игры с использованием программ-шейдеров 3.0.

3Dc - новая технология для сжатия карт нормалей
В новом R420 инженеры ATi использовали новую технологию - 3Dc (более подробно о картах нормалей смотрите в разделе “Карты нормалей и 3Dc”). Она позволяет уменьшить размер файла карты нормалей, экономя память. Теперь у разработчиков есть два пути: они могут повысить производительность игр, введя поддержку сжатия этих карт, или увеличить детализацию игрового мира, используя более сложные и детализованные карты с применением компрессии. Добавление поддержки новой

технологии в игры не должно составить большого труда разработчикам.
3Dc аппаратно поддерживается всеми картами на ядре R420. Но о поддержке этой функции в старых чипах придется забыть. Есть большая вероятность, что в новой версии DirectX появится поддержка 3Dc. В любом случае, компания продвигает новую технологию как открытый стандарт, и в скором времени мы увидим несколько игр с поддержкой 3Dc (DOOM III , Half-Life 2 и Serious Sam 2 ).

К примеру, сжатие текстур (S3TC , DXTC ) используется уже достаточно давно и позволяет уменьшить размер текстур с высоким разрешением. При этом
текстуры хранятся в сжатом формате.
Многие современные игры, например Far Cry, используют улучшенный метод отображения неровностей под названием “карты нормалей ” (Normal Mapping ). Они представляют собой специальные текстуры, содержащие информацию о деталях объекта. Использование карт нормалей, как и карт
неровностей, позволяет увеличить детализацию объекта, не прибегая к увеличению количества полигонов в моделях. В X800 компания решила использовать новую технологию аппаратного сжатия текстур карт нормалей - 3Dc .
Суть технологии карт нормалей заключается в том, что сначала разработчику игры необходимо создать очень детализованную модель персонажа с использованием большого числа полигонов. Затем создается реальный игровой персонаж с помощью упрощенной модели с меньшим количеством полигонов. После этого просчитываются различия между двумя моделями, которые записываются в виде своеобразной текстуры (карты нормалей). В них содержатся детали, потерянные при переходе от одной модели к другой. Карта нормалей затем может быть применена к упрощенной
модели, заставляя ее выглядеть точно так же, как и модель с большим количеством полигонов. Стопроцентного сходства с оригиналом добиться невозможно, поскольку карта нормалей не содержит геометрической информации.
В левой верхней части изображена модель головы, состоящая из 15000 полигонов. В левой нижней части построена упрощенная модель (всего 1000 полигонов). Между двумя моделями просчитывается разница и записывается отдельно в качестве карты нормалей (справа вверху). В игре или программе графический процессор берет за основу простую модель и накладывает на нее карту нормалей с использованием пиксельных программ для эффектов освещения. В итоге мы получили качественную модель головы, используя всего 1000 полигонов!
Однако с использованием карт нормалей связано несколько недостатков. Во-первых, увеличивается нагрузка на графический процессор, поскольку карты нормалей, по сути, являются еще одной текстурой, накладываемой на полигоны. Во-вторых, требуется больше данных. Чем больше деталей желает использовать разработчик, тем выше будет разрешение используемой карты нормалей - и тем больше потребуется пропускной способности памяти. Хотя карта нормалей может сжиматься с помощью алгоритма DXTC, обычно при этом возникают заметные дефекты изображения. Подобно тому, как S3 разработала собственную технологию S3TC, когда появились проблемы с большими текстурами, ATi предложила новую технологию сжатия 3Dc, специально предназначенную для карт нормалей. По данным ATi, новый метод способен уменьшать размер карт нормалей в четыре раза без заметного влияния на качество.
Smoothvision HD - новое полноэкранное сглаживание
Видеокарты от ATi всегда славились качественной реализацией полноэкранного сглаживания (FSAA - Full Screen Anti-Aliasing ). Графические чипы компании способны поддерживать уровень сэмплирования вплоть до 6x в комбинации с гамма-коррекцией цвета по краям объектов. Это дает великолепное
качество картинки.
С выпуском линейки X800 компания реализовала новую технологию сглаживания, которая названа “временным сглаживанием” (или “темпоральным” - Temporal AA ).
Глаз человека воспринимает последовательность кадров на экране как постоянно движущуюся картинку, так как глаз не может заметить смену кадров, происходящую за миллисекунды.
При прорисовке кадра TAA меняет расположение субпикселей - оно изменяется с учетом инерционности нашего глаза. Это позволяет получить изображение более высокого качества, чем при
использовании обычного FSAA.
Но у временного сглаживания есть определенные ограничения. Начнем с того, что при его использовании вертикальная синхронизация (V-Sync ) должна быть включена. Минимальная скорость обновления кадров должна составлять 58 fps . Если частота кадров упадет ниже этого ограничения, то временное сглаживание автоматически сменится на обычное, до тех пор пока fps вновь не вырастут. Все дело в том, что при меньшей частоте обновления различия между кадрами станут заметны глазу. Это приведет к ухудшению качества картинки.
Идея новой функции очевидна. 2xTAA (временное сглаживание) обеспечивает тот же уровень качества, что и 4xFSAA . Но самое главное то, что при этом затрачивается немного ресурсов видеокарты (не более, чем для 2xAA ). Временное сглаживание уже реализовано в новых драйверах. Возможно, эта функция будет также поддерживаться и в картах поколения 9x00 в будущих версиях драйверов Catalyst (за исключением 9000 и 9200 , которые не обладают поддержкой DX9).

Тестовая конфигурация
Не будем дальше углубляться в теорию, а перейдем к тестированию самих видеокарт. Для проведения тестов мы использовали драйвер Catalyst 4.4 для карт от ATi, а для продукции nVidia - драйвер ForceWare 60.72 .

Тестовая система
Процессор Intel Pentium 4 3,2 ГГц
Частота FSB 200 МГц (800 МГц QDR)
Материнская плата Gigabyte GA-8IG 1000 PRO (i865)
Память 2x Kingston PC3500, 1024 Мбайт
Жесткий диск Seagate Barracuda 7200.7 120 Гбайт S-ATA (8 Мбайт)
DVD Hitachi GD-7000
LAN Netgear FA-312
Блок питания Antec True Control 550 Вт
Драйверы и настройки
Графика ATI Catalyst 4.4
NVIDIA 60.72
Чипсет Intel Inf. Update
ОС Windows XP Prof. SP1a
DirectX DirectX 9.0b
Используемые графические карты
ATi Radeon 9800XT (Sapphire)
Radeon X800 Pro (ATi)
Radeon X800 XT Platinum Edition (ATi)
nVidia GeForce FX 5950 Ultra (Nvidia)
GeForce 6800 Ultra (Nvidia)

Результаты тестирования
Видеокарты мы тестировали в самых разных играх и тестовых приложениях, включая AquaMark3 , Call of Duty , Colin McRae Rally 04 , Far Cry , Unreal Tournament 2004 , X2: The Threat . Все тесты мы провели как в обычном режиме, так и в “тяжелом” - с включением анизотропной фильтрации и полноэкранного сглаживания (кроме AquaMark3).
В тесте AquaMark3 от Massive Development абсолютным победителем стал GeForce 6800 Ultra. Продолжая победный темп, NV40 показал лучшие результаты и в игре Call of Duty. При этом обогнал X800 XT PE во всех тестах, даже в “тяжелых” режимах.
Результаты тестов
Radeon 9800XT Radeon X800 Pro Radeon X800 XT PE GeForce FX 5950 Ultra GeForce 6800 Ultra
AquaMark - Normal Quality
Score 46569 54080 58006 44851 61873
Call of Duty - Normal Quality
1024x768 146,5 218,5 253,4 141,0 256,4
1280x1024 101,2 156,0 195,8 97,4 219,5
1600x1200 70,7 113,5 145,5 69,6 175,2
Call of Duty - 4xFSAA, 8x Aniso
1024x768 70,1 110,2 146,9 63,1 157,4
1280x1024 47,6 75,7 100,4 42,8 110,8
1600x1200 33,1 53,7 71,3 30,5 82,1
Colin McRae Rally 04 - Normal Quality
1024x768 130,5 172,5 174,8 91,2 166,0
1280x1024 95,8 133,8 172,8 68,5 163,2
1600x1200 67,6 95,1 141,4 49,5 132,1
Colin McRae Rally 04 - 4xFSAA, 8x Aniso
1024x768 70,5 107,6 142,2 52,3 118,0
1280x1024 53,3 81,1 105,7 40,6 92,5
1600x1200 39,1 59,9 76,7 30,5 70,2
FarCry Outdoor 1024x768
Normal Quality 55,0 75,3 81,2 48,6 66,8
FSAA High, Aniso 4 30,3 49,0 68,8 30,7 50,5
FarCry Indoor 1024x768
Normal Quality 45,1 69,6 90,8 28,5 74,7
FSAA High, Aniso 4 25,9 41,5 59,6 20,9 53,1
Unreal Tournament 2004 - Normal Quality
1024x768 106,9 104,6 105,3 104,1 103,7
1280x1024 94,4 105,0 104,9 95,7 103,6
1600x1200 69,1 97,1 104,5 72,8 102,9
Unreal Tournament 2004 - 4xFSAA, 8x Aniso
1024x768 75,1 104,6 105,0 80,5 102,7
1280x1024 52,5 92,2 101,9 54,7 84,9
1600x1200 38,2 68,5 82,3 39,1 64,1
X2 - The Threat - Normal Quality
1024x768 67,9 80,0 83,4 74,3 84,6
1280x1024 54,7 68,5 76,7 61,1 75,3
1600x1200 44,2 58,9 68,4 50,5 67,1
X2 - The Threat - 4xFSAA, 8x Aniso
1024x768 48,9 62,4 69,7 53,9 73,2
1280x1024 36,1 51,1 58,9 40,1 61,1
1600x1200 28,4 42,6 49,8 30,6 51,8

В следующем тесте ATi отыгралась сполна. В игре Colin McRae Rally 04 видеокарта X800 XT PE оказалась на голову выше своих соперников, особенно это было заметно в режиме с включенной анизотропной фильтрацией и полноэкранным сглаживанием. Ситуация повторилась и в игре Far Cry - победа осталась вновь за флагманом от ATi. Следующей игрой, в которой мы тестировали видеокарты, был Unreal Tournament 2004. В обычном режиме все три карты показали примерно равные результаты. Включение ANISO и FSAA полностью изменило картину: X800 Pro и X800 XT PE просто ушли в отрыв! При этом даже Pro-версия умудрилась обогнать GeForce 6800 Ultra. В последнем тесте - X2: The Threat - результаты тестов у NV40 и X800 XT PE оказались примерно равны.

Заключение
Мы не успели еще толком оправиться после впечатляющих результатов, показанных nVidia GeForce 6800 Ultra, как теперь нас удивила ATi. Radeon X800 XT Platinum Edition показал очень высокую производительность, даже X800 Pro с 12 конвейерами в некоторых тестах обошел GeForce 6800 Ultra.
Канадцы из ATi поработали на славу. Энергопотребление у карт серии X800 оказалось почти на том же уровне, что и у предшественника в лице 9800XT. Именно поэтому новым картам от ATi требуется всего один разъем питания, в отличие от GeForce 6800 Ultra, которому нужно два. Ядро R420 оказалось и менее горячим. Для его охлаждения используется стандартный кулер, который занимает только один соседний слот (у GeForce 6800 Ultra - два). У ядра R420 оказалось много нововведений, среди которых - чип ATi Rage Theater с поддержкой VIVO, инновационная технология 3Dc, которая способна улучшить качество графики в играх, а также оригинальная технология временного полноэкранного сглаживания (Temporal FSAA).

Каким бы удачным ни было ядро R420, и у него есть свои недостатки. Карты серии X800 по-прежнему ограничены 24-битной точностью вычислений с плавающей запятой и поддержкой версии программ-шейдеров 2.0. В то время как GeForce 6800 Ultra использует 32-битную точность вычислений без потери скорости и поддержку шейдеров версии 3.0.
X800 XT Platinum Edition и GeForce 6800 Ultra показывают невероятную производительность. Но X800 XT PE выглядит предпочтительнее. Эта видеокарта от ATi показала очень высокую производительность именно в высокотехнологичных современных играх, таких как Unreal Tournament 2004, Far Cry и Colin McRae Rally 04.
Новый виток противостояния двух компаний только начался, и еще рано подводить окончательные итоги. В ближайшее время появятся бюджетные варианты видеокарт от двух компаний, а также карты с поддержкой PCI Express . Так что к теме противостояния канадской компании ATi и американской nVidia мы обязательно вернемся, и не один раз.
Энергопотребление
В статье про NV40 мы говорили о большой прожорливости GeForce 6800 Ultra. В этой статье мы провели тестирование, в котором выяснили, как много энергии потребляют современные видеокарты. Поскольку отдельно для карт это сделать нельзя, в нашей таблице приведены значения энергопотребления всего компьютера. Мы использовали одинаковую конфигурацию системы для всех карт.
Результаты измерений
Radeon 9600 XT 203
Radeon 9800 XT 261
Radeon X800 Pro 242
Radeon X800 XT 263
GeForce 4 Ti 4800 230
GeForce FX 5700U GDDR3 221
GeForce FX 5950 Ultra 264
GeForce 6800 Ultra 288
Приведенные значения показывают максимальное энергопотребление во время прохождения тестов в 3DMark03 . Пиковое энергопотребление у X800 XT PE оказывается чуть выше, чем у Radeon 9800XT. А X800 Pro требует и того меньше. Титул самой “прожорливой” карты достался GeForce 6800 Ultra.

Navi 10 - все еще сравнительно новый чип, который не закончили осваивать партнеры AMD. Но, похоже, GIGABYTE уже вышла на финишную прямую наилучшего охлаждения и максимальной производительности, которую можно выжать из Radeon RX 5700 XT. И это еще не предел для пользовательского разгона Navi 10, для которого плата AORUS тоже создала идеальные условия

Radeon RX 5600 XT пришел за головой GeForce GTX 1660 Ti. Но кому нужен последний, когда есть GTX 1660 SUPER, а RTX 2060 недавно упал в цене? Посмотрим, как AMD выкрутится из сложившейся ситуации. Ну а для энтузиастов RX 5600 XT - это просто-напросто дешевый RX 5700 без двух чипов памяти, зато с подобающим резервом для разгона. Новинку представляет видеокарта SAPPHIRE PULSE

Рынок ускорителей ниже $200, в котором до сих пор царят подешевевшие модели родом из 2016 года, наконец расшевелился. Теперь пользователи могут выбирать между GeForce GTX 1650 SUPER и Radeon RX 5500 XT. Но стало ли от этого лучше? Ясно одно - не стало проще. В тестировании участвуют видеокарты SAPPHIRE и PowerColor с 4 и 8 Гбайт RAM

13 ноября 2019

Обзор видеокарты ASUS ROG STRIX Radeon RX 5700 XT OC: догнать и перегнать RTX 2070 SUPER

ASUS ROG STRIX Radeon RX 5700 XT OC - это, возможно, самая быстрая версия Radeon RX 5700 XT, которую можно найти в наших магазинах. Она имеет хороший заводской разгон, массивную систему охлаждения и потенциал, позволяющий ей конкурировать с ускорителями совсем другого уровня. В частности, с GeForce RTX 2070 SUPER

Из наиболее доступных модификаций Radeon RX 5700 XT творение GIGABYTE выделяется крупной системой охлаждения с тремя вентиляторами, а ведь новые ускорители AMD весьма чувствительны к температуре. Посмотрим, достаточно ли этого, чтобы оправдать заявку GIGABYTE Radeon RX 5700 XT GAMING OC на лидерство среди себе подобных

Новым чипам AMD явно требуется охлаждение получше, чем на референсных платах. Но пока видеокарты с громадными кулерами еще не заполнили рынок, придется сделать промежуточную остановку. Бюджетная модификация SAPPHIRE PULSE должна как минимум привести уровень шума в норму, однако и эксперименты с разгоном и андерволтингом Navi мы прекращать тоже не собираемся

В последнее время, с учётом тенденции развития рынка графических ускорителей, все мы привыкли к быстрой смене поколений видеоадаптеров. Хотя довольно длительное время главенствующую роль в компании AMD занимала видеокарта ATI HD3870 (в последствии ATI HD3870Х2), основанная на чипе RV670. Как только начали просачиваться первые слухи о новом чипе RV770, интерес СМИ перепозиционировался на будущего «хозяина трона».

Появление нового чипа ознаменовало собой дебют новых решений AMD ATI (на чипе RV770 PRO) и AMD ATI HD4870 (на чипе RV770 XT).

До выхода графических решений на базе чипа RV770 положение на рынке у компании было не самым лучшим. В семействе карт HD не было ни одного достойного соперника для топовых решений извечного калифорнийского конкурента, компании NVIDIA. Выход нового чипа был скорее жизненной необходимостью, чем просто выпуском нового ускоренного решения. Инженеры постарались на славу – чип получился очень удачным и перспективным.

В новом чипе было решено изменить традициям и вместо уже привычной кольцевой шины памяти (ring bus) перейти на архитектуру с центральным хабом.

Согласно пресс-релизам ATI, такая компоновка значительно увеличивает эффективность использования полосы пропускания. Кроме того, теперь контроллер памяти поддерживает новые чипы памяти стандарта GDDR5.

Новый графический процессор содержит уже 800 скалярных процессоров, способных выполнять 32-битные и 64-битные вычисления.

Но архитектура потоковых процессоров практически не изменилась (в сравнении с RV670), хотя была увеличена их плотность, что позволило увеличить их количество, не изменяя техпроцесс. Теперь теоретическая пиковая производительности чипа RV770 возросла до 240 гигафлоп.

Технические подробности ускорителей серии HD4800:

  • Кодовое имя чипа RV770;
  • Технология 55 нм;
  • 956 миллионов транзисторов;
  • Унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных;
  • Аппаратная поддержка DirectX 10.1, в том числе и новой шейдерной модели - Shader Model 4.1, генерации геометрии и запись промежуточных данных из шейдеров (stream output);
  • 256-битная шина памяти: четыре контроллера шириной по 64 бита с поддержкой GDDR3/GDDR5;
  • Частота ядра 625-750 МГц;
  • 10 SIMD ядер, включающих 800 скалярных ALU для расчётов операций с плавающей запятой (целочисленные и плавающие форматы, поддержка FP32 и FP64 точности в рамках стандарта IEEE 754);
  • 10 укрупненных текстурных блоков, с поддержкой FP16 и FP32 форматов;
  • 40 блоков текстурной адресации;
  • 160 блоков текстурной выборки;
  • 40 блоков билинейной фильтрации с возможностью фильтрации FP16 текстур на полной скорости и поддержкой трилинейной и анизотропной фильтрации для всех текстурных форматов;
  • Возможность динамических ветвлений в пиксельных и вершинных шейдерах;
  • 16 блоков ROP с поддержкой режимов антиалиасинга и возможностью программируемой выборки более чем 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра - пиковая производительность до 16 отсчетов за такт (в т.ч. и для режимов MSAA 2x/4x и буферов формата FP16), в режиме без цвета (Z only) - 64 отсчета за такт;
  • Запись результатов до 8 буферов кадра одновременно (MRT);
  • Интегрированная поддержка двух RAMDAC, двух портов Dual Link DVI, HDMI, HDTV, DisplayPort.

Спецификации референсной карты :

  • Частота ядра 625 МГц;
  • Количество универсальных процессоров 800;
  • Количество текстурных блоков - 40, блоков блендинга - 16;
  • Эффективная частота памяти 2000 МГц (2*1000 МГц);
  • Тип памяти GDDR3;
  • Объем памяти 512 МБ;
  • Пропускная способность памяти 64 ГБ/с;
  • Теоретическая максимальная скорость закраски 10,0 гигапикселей в с.;
  • Теоретическая скорость выборки текстур 25,0 гигатекселей в с.;
  • Два CrossFireX разъема;
  • Шина PCI Express 2.0 x16;
  • Два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600;
  • TV-Out, HDTV-Out, поддержка HDCP, HDMI, DisplayPort;
  • Энергопотребление до 110 Вт (один 6-пиновый разъём);
  • Однослотовый дизайн системы охлаждения;
  • Рекомендуемая цена $199.

Об одном из них и пойдёт речь в сегодняшнем обзоре, а именно об AMD ATI от с 512 МБ памяти на борту.

GeForce 9800 GTX

GeForce 9800 GTX+

Графический чип

RV770 PRO

Частота ядра, МГц
Частота унифицированных процессоров, МГц
Количество универсальных процессоров
Количество текстурных блоков / блоков блендинга
Объем памяти, Мб
Эффективная частота памяти, МГц

2000 (2*1000)

Тип памяти
Разрядность шины памяти, бит

Видеокарта изготовлена на базе графического процессора ATI от AMD, выполненного на чипе RV770 PRO по 55-нм технологии. При этом соблюдены все рекомендации производителя GPU, указанные выше, поэтому ускоритель повторяет возможности и внешний вид подавляющего большинства 512 МБ, кроме, разве что, комплектации.

Перейдём к более близкому знакомству с тестируемой видеокартой EAH4850/HTDI/512M.

Видеокарта поставляется в большой двойной картонной упаковке, раскрывающейся как книжка. В отличие от предыдущих упаковок топовых моделей, данная коробка лишена пластиковой ручки.

Внешний вид и оформление коробки не изменилось. Как и прежде, черный и оранжевый цвета символизируют принадлежность адаптера к семейству AMD ATI . В нижней части коробки привычно присутствует название ускорителя, а также некоторые его особенности. На этот раз основной акцент сделан на переходник с DVI на HDMI, который покупатель получает «бесплатно».

На тыльной стороне упаковки описываются особенности графического ускорителя, рекомендуемые системные требования, а также кратко представлены фирменные технологии, с которыми более подробно можно ознакомиться на официальном сайте ASUSTeK Computer .

Комплект поставки достаточен для полноценного использования видеоадаптера. Помимо самой видеокарты он включает в себя:

  • Переходник с Molex на 6-контактный разъем питания видеокарты;
  • Переходник с S-Video на компонентный выход;
  • Переходник с DVI на D-Sub;
  • Переходник с DVI на HDMI;
  • Мостик CrossFire;
  • CD-диск с драйверами;
  • CD-диск с электронной документацией;
  • Краткая инструкция по установке видеокарты.

Внешне тестовый образец очень похож на AMD ATI HD 3850. Сама видеокарта выполнена по референсному дизайну на красном текстолите и оснащена однослотовой системой охлаждения, которая закрывает большую её часть. Единственное внешнее отличие нашей видеокарты заключается в том, что пластиковый кожух не покрывает печатную плату полностью. Габариты адаптера компактны, длина составляет 233 мм, что позволит ей поместиться в почти любой корпус.

На задней стороне присутствуют наклейки с точным наименованием графического ускорителя, серийным номером и номером партии.

Все разъёмы защищены пластиковыми колпачками, что не всегда можно наблюдать на видеоадаптерах от . На интерфейсной панели расположены два выхода DVI, а также TV-out. Для подключения аналогового монитора необходимо будет воспользоваться переходником из комплекта поставки.

Теперь рассмотрим систему охлаждения тестируемой видеокарты. Как мы уже описывали выше, она занимает один слот и представляет собой массивную пластину. Посредине расположен медный теплосъемник, который прилегает к графическому процессору.

Микросхемы памяти и силовые элементы контактируют с подложкой пластины через термопрокладки.

Под пластиковым кожухом системы охлаждения скрывается радиатор, состоящий из соединённых между собой тонких медных рёбер. Потоки воздуха от кулера проходят через эти рёбра к задней стенке корпуса, поэтому для нормального вывода тёплого воздуха необходимо снять заглушку в задней панели рядом с видеокартой.

Печатная плата не насыщена большим количеством элементов, но присутствует новшество – микросхемы памяти располагаются в две линии сверху и справа от графического чипа, причём пара центральных микросхем каждой из линий сгруппированы.

Силовая часть платы не удивляет сложностью исполнения. В верхнем углу расположен 6-контактный разъём питания видеокарты, что неудивительно при заявленном энергопотреблении до 110 Вт. Согласно спецификации для видеоускорителя необходим блок питания мощностью от 450 Вт.

Память представляет собой восемь микросхем стандарта GDDR3 производства Qimonda (HYB18H512321BF-10) с временем доступа 1,0 нс, что позволяет им работать на частоте до 2000 МГц. Эффективная частота работы памяти тестируемой модели видеокарты немного ниже и составляет 1986 МГц, что оставляет узенький частотный коридор прозапас. Общий объем памяти составляет 512 МБ, а ширина шины обмена с ней не изменилась и составляет 256 бит.

Частота работы графического процессора соответствует рекомендованному значению 625 МГц. Как уже описывалось выше, сам чип RV770 выполнен по 55 нм техпроцессу, что обуславливает его относительно небольшое энергопотребление, несмотря на то, что в него входят 956 млн. транзисторов. Количество унифицированных шейдерных процессоров увеличено до 800, текстурных блоков до 40, а количество ROP оставлено без изменений и равно 16. Частота работы чипа в 2D-режиме снижается до 500 МГц.

Для оценки эффективности штатной системы охлаждения мы использовали утилиту FurMark , а мониторинг осуществлялся при помощи GPU-Z версии 0.2.6. Работая на штатных частотах, графический процессор прогрелся до 92° С, что не так уж мало, особенно если учитывать появление некоторого шума от кулера.

Тестирование

Результаты тестов показывают, что является прямым конкурентом для GeForce 9800GTX и практически вплотную приближается к производительности более дорогих ускорителей на GeForce GTX260. Исключение составляют игровые приложения, оптимизированные под архитектуру NVIDIA.

Разгон видеокарты проводился при помощи штатных средств ATI Catalyst Control Center. Видеокарта смогла стабильно функционировать на частотах 670 МГц для графического ядра (+45 МГц) и 2180 МГц (1090 МГц DDR) для видеопамяти (+186 МГц).

Достаточно скромный результат, мы изначально ожидали большего, но посмотрим на сколько увеличится производительность адаптера.

Тестовый пакет

Стандартные частоты

Разогнанная видеокарта

Прирост производительности, %

Futuremark 3DMark’05
3DMark Score
SM2.0 Score
HDR/SM3.0 Score

Serious Sam 2, Maximum Quality, NO AA/AF, fps

1024×768
1280×1024
1600×1200

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

1024×768
1280×1024
1600×1200

Call Of Juarez, Maximum Quality, NO AA/AF, fps

1024×768
1280×1024
1600×1200

Вероятно, многие читатели раздела Видеосистемы сайта сайт уже устало вздыхают: "Когда же кончится это засилье видеокарт на чипах от NVIDIA?! Нам бы что-то иное, а то когда есть все время одни торты, то хочется закусить в конце концов соленым огурцом." Нам понятны эти возгласы и даже подобные причитания. Да и в форуме iXBT меня, как ведущего раздел, ругают на чем свет стоит за то, что продукции ATI мы мало уделяем внимания. Безусловно, у нас пробелы в этом плане есть, но все же главной причиной такого, казалось бы, неравноправия является то, что ATI выпускает видеокарты только сама (лишь с выпуском RADEON LE обозначился у нее малоизвестный публике партнер, который стал помогать ATI с выпуском более дешевых модификаций). А значит, что линейка выпускаемых плат на RADEON четко обозначена:

В большинстве своем карты отличаются лишь разными типами и частотами установленной на них памяти, графический процессор - один и тот же, но также работающий на разных частотах. Поэтому разница между ними может быть лишь в производительности. Ну и в комплектации VIVO. Только один тип - RADEON VE сильно отличается от предшественников.

А вот видеокарт на GPU NVIDIA GeForce2 и особенно GeForce2 MX вышло за последние полгода очень много. И если бы все были похожи друг на друга как две капли воды, то тогда и писать про каждую из них нечего, а только выпустить что-то вроде сводного обзора, как ранее мы поступали. Однако, приступив в свое время к изучению первых вышедших в свет подобных карт, я обнаружил, что они могут очень сильно отличаться друг от друга, даже имея в основе один и тот же референс-дизайн.

Пользователи GeForce2 MX - карт знают уже прекрасно, что карты могут сильно отличаться хотя бы по качеству в 2D. Я уж не говорю, что появилось очень много карт с индивидуальными особенностями, такими как разные типы памяти и ее объемы, наличие аппаратного мониторинга и т.д. А почти все они поступают в продажу, и пользователи подчас не знают, стоит покупать или нет карту на GeForce2 NX такой-то марки или от того или иного производителя. Потому мы и решили по возможности охватывать парк видеокарт на популярном чипсете.

Однако то, что при этом мы запустили освещение разновидностей видеокарт от ATI - это наша вина. Я не буду ссылаться на постоянную занятость и искать причины, я просто признаю свою вину в том, что так получилось. Я полагал, что демонстрация возможностей этих плат через 3DGiТоги (вверху приведены ссылки на мини-обзоры из этого материала) даст более-менее полную картину о новинках от ATI, которые, повторяю, отличаются лишь производительностью (кроме RADEON VE). Но оказалось, что этого недостаточно. И ныне мы будем ликвидировать эти пробелы в наших статьях, и будем освещать все новинки от ATI, вне зависимости от того, клон ли это или принципиально новая видеокарта.

А теперь займемся делом. Я не зря вначале упомянул про NVIDIA GeForce2 MX. Одним из "коньков" карт на этом GPU является технология TwinView. Разумеется, TwinView поддерживается не всеми картами на GeForce2 MX, а только теми, на которых установлен второй RAMDAC, и имеется гнездо для второго вывода изображения, либо есть TV-out. Такие платы стоят весьма существенно дороже, что не играет "на руку" TwinView. Хочется сразу спросить: а что смогла противопоставить этим картам фирма ATI? Уже довольно долго существовало сравнение:

  • NVIDIA GeForce2 64MB vs. RADEON 64MB DDR
  • NVIDIA GeForce2 32MB vs. RADEON 32MB DDR
  • NVIDIA GeForce2 MX vs. RADEON 32MB SDR

Если в первых двух позициях RADEON почти везде проиграл сопернику, то в третьей ситуация неоднозначная. В 32-битном цвете RADEON 32 MB SDR очень легко обходит NVIDIA GeForce2 MX, и даже подчас новые "версии" последнему не помогают. А если учесть, что ныне в массовом количестве появились дешевые RADEON LE, которые, хоть и работают на более низких частотах, но прекрасно разгоняются, тучи над GeForce2 MX надвигаются весьма серьезные. И вообще "грозой с молнией" стал выход RADEON VE.

На первый взгляд, хочется скептически пожать плечами: И где же тут "гроза" с таким-то медленным 3D? Давайте разберемся не спеша, начнем с перечисления возможностей и характеристик RADEON VE.

  • Graphics Controller - RADEON VE graphics processor
    • Частота работы 150-166 МГц
    • Пиксельных конвейеров - 1
    • Текстурных модулей - 3
  • Memory Configurations: 64MB DDR, 32MB DDR, 16MB DDR
    • 64-битная шина обмена с памятью
    • Частота работы 183 (366) МГц
  • 3D Acceleration Features
    • HYPER Z technology
    • PIXEL TAPESTRY architecture
    • VIDEO IMMERSION technology
    • Twin Cache Architecture
    • Single-Pass Multi-texturing (3 textures per clock cycle)
    • True Color Rendering
    • Triangle Setup Engine
    • Texture Cache
    • Bilinear/Trilinear Filtering
    • Texture Decompression support under DirectX (DXTC) and OpenGL
    • Specular Highlights
    • Perspectively Correct Texture Mapping
    • Mip-Mapping
    • Z-buffering and Double-buffering
    • Emboss, Dot Product 3 and Environment bump mapping
    • Spherical, Dual-Paraboloid and Cubic environment mapping
    • Full Screen Anti-Aliasing (FSAA)
  • HydraVision Multiple Monitor Management Software дает возможность гибко настраивать вывод изображение на два приемника сигнала (VGA-гнездо для CRT-мониторов и DVI-гнездо для цифровых мониторов)
  • Наличие переходника DVI-to-VGA позволяет вместо цифрового монитора вторым использовать обычный CRT-монитор, обеспечивая полноценную работу с двумя мониторами
  • TV-out (S-Video, но в комплект входит переходник S-Video-to-RCA) также вписывается в концепцию мультимониторности, его можно использовать вторым приемником сигнала
  • Возможность взаимной смены местами первого и второго приемников сигнала
  • HydraVision Multidesk Software позволяет организовать до 9 виртуальных рабочих столов на одном мониторе
  • Максимальное разрешение в 3D:
    • 65K цветов: 1920х1440
    • 16.7М цветов: 1920х1200

Я не стал специально уделять внимания особенностям самого ядра RADEON, потому как об этом все сказано в нашем обзоре , а по спецификациям, приведенным выше, видно, что RADEON VE получился путем урезания растеризационного блока в 2 раза, изъятия из чипа блока Hardware TCL (то есть геометрического сопроцессора) и добавления в него блоков, осуществляющих вывод изображения на второй приемник сигнала (второй RAMDAC, CRTC и др.) Вам ничего это не напоминает? Очень схоже с тем, как получился GeForce2 MX из GeForce2 GTS:-) за исключением того, что Hardware TCL не был убран из GeForce2 MX.

Таким образом, мы видим, что получили… Riva TNT2 Ultra с точки зрения мощности в 3D, только в ином виде. Посудите сами: частота чипа 150 у обоих, в режиме мультитекстурирования Riva TNT2 Ultra выдает 150 млн. пикселей и 300 млн. текселей в секунду, столько и RADEON VE, если активны 2 текстурных блока (а задействовать 3 TMU сейчас пока никто не может, таких игр еще нет). Частота памяти у Riva TNT2 Ultra - 183 МГц при 128-битной шине. У RADEON VE - 183 (366) МГц DDR-памяти, но если учесть 64-битную шину, то получим примерно то же самое. Только лишь уникальные технологии HyperZ и двойного кеширования будут способствовать тому, что RADEON VE покажет большую производительность, чем почти 2-х летней давности Riva TNT2 Ultra.

Плата


Видеокарта построена на AGP 2x/4x основе, имеет 32 мегабайта DDR SDRAM памяти, размещенной в 4-х микросхемах на лицевой стороне PCB.

Модули памяти имеют время выборки 5.5 ns и расcчитаны на частоту работы 183 (366) МГц, на которой и работают.

Чипсет закрыт приклеенным к нему радиатором. Вентилятор отсутствует, впрочем, он и не нужен, так как процессор очень мало греется. На карте кроме привычного VGA-гнезда можно также заметить DVI-вывод. Оба этих вывода, совместно со встроенными в чип RAMDAC-ами и составляют, собственно, основу технологии HydraVision, сходной с NVIDIA TwinView или Matrox DualHead, но в то же время уникальной. Я приведу цитату из пресс-релиза от 9 ноября 2000 года:

"Торонто, Онтарио, Канада, 9 ноября 2000 года - ATI Technologies Inc. (TSE: ATY, NASDAQ: ATYT), крупнейший в мире поставщик технологий 3D графики и мультимедиа объявил сегодня о заключении эксклюзивного стратегического соглашения с Appian Graphics Corporation, лидером в передовых технологиях работы с изображением, о выводе приложения HydraVision на массовый рынок. Данное соглашение дает ATI право интегрировать систему управления вывода на монитор HydraVision и продвигать ее в составе продуктов, начиная с RADEON VE и далее с будущими продуктами ATI.

"HydraVision долгое время является стандартным приложением для управления выводом изображения на несколько мониторов, а Appian Graphics лидирует в предложении решений для поддержки мульти-мониторных конфигураций", - сказал Дэйвид Ортон (David Orton) президент ATI. "Объединение опыта Appian в средствах управления дисплеем и наших передовых технологий графических акселераторов создает действительно непревзойденную серию продуктов."

Патентованная система управления выводом изображения AppianHydraVision предоставляет пользователю интерфейс для простого управления несколькими мониторами. В состав функций HydraVision входят средства управления окнами вывода приложений и диалогов, назначение "горячих" клавиш, установка независимых значений разрешения экрана и частот кадровой развертки, независимый контроль приложений, а также возможность создания до девяти виртуальных рабочих пространств."

Таким образом, данная технология представляет собой очень интересное решение не только для вывода изображения на два монитора, но и дает возможность создания виртуальных десктопов. Более подробно об этом будет рассказано немного ниже, а сейчас мы возвращаемся к особенностям RADEON VE и его комплектации.

В комплект поставки входит переходник (на фотографии выше), обеспечивающий возможность подключения ко второму гнезду не только цифрового монитора, но и обычного.

Должен еще отметить, что RADEON VE снабжен также TV-out с S-Video-гнездом (в комплект входит переходник S-Video-to-RCA). Поэтому можно организовывать комбинации вывода картинки на любые два из этих трех приемников. Регулировки вывода изображения находятся в драйверах:

Как видим, все понятно и доступно. Обратите внимание на немаловажную деталь: можно менять местами приемники сигнала, то есть первичный и вторичный приемники не жестко привязаны к соответствующим гнездам. Вот что значит иметь два одинаковых RAMDAC в 300 МГц и не думать о том, какой из них более качественный. Так что если даже в спешке подключили мониторы неправильно, не обязательно лезть снова и переключать их, можно просто в драйверах поменять их местами.

Интересно отметить, что фирменная утилита HydraVision позволяет внедрить поддержку мультимониторности практически во все приложения, и даже в таких приложениях, как Adobe Photoshop, мы можем видеть это:

Cама же утилита очень примечательна. После установки в панели задач внизу справа появляется пиктограмма управления HydraVision. Программа позволяет организовать до девяти (!) виртуальных рабочих столов! И одним переключением можно разом переместиться на той или иной десктоп.

Сами рабочие столы можно подписывать по своему усмотрению:

Карта может поставляться как в ОЕМ-виде (мы как раз такую и имеем), так и Retail-упаковке. В комплект входят два переходника: DVI-to-VGA, S-Video-to-RCA, затем CD-диск с драйверами.

Разгон

К сожалению, пока нет утилит, способных корректно поднять частоты работы у этой карты, поэтому плата не разгонялась.

Установка и драйверы

Рассмотрим конфигурацию тестового стенда, на котором проводились испытания карты ATI RADEON VE:

  • процессор Intel Pentium III 1000 MHz:
  • системная плата Chaintech 6OJV (i815);
  • оперативная память 256 MB PC133;
  • жесткий диск IBM DPTA 20GB;
  • операционная система Windows 98 SE;

На стенде использовались мониторы ViewSonic P810 (21") и ViewSonic P817 (21").

Тесты проводились при отключенном VSync на драйверах версии 7.078 от ATI.

Для сравнительного анализа были использованы показания с видеокарт ATI RADEON 32MB SDR, Hercules Dynamite TNT2 Ultra (частота понижена до стандартных для Riva TNT2 Ultra значений 150/183 МГц), Leadtek WinFast GeForce2 MX/DVI.

Результаты тестов

Качество 2D-графики - на традиционном для ATI высоком уровне. Практически замечаний нет. Вопросы по 2D в последнее время настолько уже "обсосаны", что поднимать их снова нет смысла. Я только еще и еще раз отмечу, что качество 2D может сильно зависеть не только от производителя карты, но и просто от конкретного экземпляра.

А также напомню: перед тем, как ругать видеокарту, проверьте, а соответствует ли ваш монитор тем запросам, которые вы предъявляете к видеокарте?

Приступаем к оценке производительности видеокарты в 3D. В качестве инструментария мы использовали следующие программы:

  • id Software Quake3 v.1.17 - игровой тест, демонстрирующий работу платы в OpenGL с использованием стандартного демо-бенчмарка demo002;
  • Rage Expendable (timedemo) - игровой тест, демонстрирующий работу платы в Direct3D в режиме мультитекстурирования.

Quake3 Arena

Тестирование проводилось в двух режимах: Fast (демонстрирует работу карты в 16-битном цвете) и High Quality (демонстрирует работу карты в 32-битном цвете).

Видно, что мои предположения о близости результатов RADEON VE к Riva TNT2Ultra оказались почти верными. Только в 32-битном цвете RADEON VE выиграл у последней битву, но, как и ожидалось, сильно проиграл остальным картам, с которыми производилось сравнение.

Expendable

На примере данной игры мы посмотрим на скорость карты в Direct3D.

А вот тут картина полностью меняется, демонстрируя явное преимущество RADEON VE над Riva TNT2 Ultra. RADEON VE даже смог догнать своих более старших и именитых в 3D собратьев. Впрочем, относительная легкость сцен в Expendable тоже могла сыграть свою роль. Но есть и иное предположение относительно работы технологии HyperZ. Хотя, судя по Registry, она включена и в OpenGL, и в Direct3D, в первом случае возможен вариант, что HyperZ и не работает как надо. А в Direct3D выдает все свое преимущество.

Подведем итоги анализа производительности рассмотренной платы ATI RADEON VE:

  • Видеокарта демонстрирует производительность в целом чуть выше, чем Riva TNT2 Ultra, а в 32-битном цвете и сильно выше, но не догоняет ранее выпущенные и более мощные карты ATI RADEON SDR и ATI RADEON LE, а также отстает от NVIDIA GeForce2 MX;
  • ATI RADEON VE, как и все карты на RADEON, отличается оптимизацией работы в 32-битном цвете;

Выводы

Как мы смогли убедиться, при всей своей относительной "неполноценности" с точки зрения 3D, RADEON VE продемонстрировал высокий уровень отношения цена/производительность/насыщенность функциями. Да, при цене около $90-95, эта карта по производительности отстает от NVIDIA GeForce2 MX -карт, которые имеют примерно такую же стоимость, однако при этом RADEON VE демонстрирует отличное качество в 2D, чего подчас нет у "noname"-карт на GeForce2 MX, а также имеет технологию HydraVision, сродни с NVIDIA TwinView. А карты с последней имеют стоимость уже не около $100, а много больше.

Мы можем советовать ATI RADEON VE тем, кому нужна работа этой карты прежде всего в бизнес-секторе или 2D-приложениях тяжелого плана. Хороша эта карта будет и с офисными приложениями, прекрасный выбор будет у тех, кому нужно объединить 2 монитора (например в целях верстки текстовых или иных материалов). И не надо забывать про традиционное для ATI высокое качество воспроизведения DVD-фильмов и ныне популярных MPEG4-роликов.

Более полные сравнительные характеристики видеокарт этого и других классов вы можете увидеть в наших 3DGiТогах .

Плюсы:

  • Вполне удовлетворительная производительность в 3D графике;
  • Очень хорошее качество исполнения продукта;
  • Поддержка технологии HydraVision (аналог TwinView), но с более широкими возможностями;
  • Наличие TV-out, поддерживаемого HydraVision;
  • Относительно низкая цена;

Минусы:

  • Традиционные для ATI задержки поставок карт, могущие свести на нет преимущества RADEON VE в плане стоимости;
  • Уже очень сильная конкуренция на рынке бизнес-компьютерных систем, учитывая наличие не только NVIDIA GeForce2 MX, но и Matrox G450.