Materiais secretos da ATi. Análise das novas placas de vídeo da série Radeon X800

alguns projetos misteriosos ...
Agora podemos remover o véu do sigilo. Durante as férias de maio, quando todos estavam descansando, a ATi anunciou uma nova linha de placas gráficas baseadas em GPU Radeon X800 codinome R420... Se você pensou que “ X"Em nome do chip significa suporte DirectX 10 então você está errado. X é o algarismo romano usual “10”. Logo depois da régua 9xxx era necessário criar uma nova designação. Então o X800 apareceu.

R420: um velho novo conhecido
O NV40 monstro da Nvidia consiste em 222 milhões de transistores. R420 acabou sendo muito mais modesto - "apenas" 160 milhões de transistores. Processador gráfico ATi fabricado em 0,13 tecnologia de processo de micron. Até o momento, a nova linha de placas de vídeo ATi incluirá apenas dois modelos - X800 Pro e X800 XT Platinum Edition (EDUCAÇAO FISICA) Eles diferem nas frequências de núcleo e memória, bem como no número de pipelines de pixel - 12 para X800 Pro e 16 para X800 XT PE. Os cartões da série X800 usam memória GDDR3, que se caracteriza pela redução da dissipação de calor. Ao contrário da GeForce 6800 Ultra, as placas de vídeo baseadas em X800 não consomem mais energia do que Radeon 9800XT e GeForce 5950 Ultra... Portanto, apenas um conector adicional é necessário para alimentar a placa de vídeo. A GPU não esquenta muito, então o X800 usa o mesmo sistema de refrigeração da Radeon 9800XT. Lembre-se de que ele ocupa apenas um slot adjacente.
Há uma entrada de vídeo ao lado do conector de alimentação na placa, que pode ser trazida para o painel frontal Unidade de sistema, conector de entrada de vídeo ( 3,5 - ou 5,25 compartimento de polegadas). Você adivinhou, a função de captura e saída de vídeo ( VIVO) agora é padrão. O chip ATi é responsável por isso Rage Theatre.

Características tecnológicas das placas de vídeo da ATi e nVidia
Mapa ATi Radeon 9800XT ATi X800 Pro ATi X800 XT Platinum Edition nVidia GeForceFX 5950 Ultra nVidia GeForce 6800 Ultra
Nome de código R360 R420 R420 NV38 NV40
Tecnologia de chip 256 bits 256 bits 256 bits 256 bits 256 bits
Processo técnico 0,15 μm 0,13μm low-k 0,13μm low-k 0,13 μm 0,13 μm
Número de transistores ~ 107 milhões 160 milhões 160 milhões 130 milhões 222 milhões
Bus de memória GDDR de 256 bits GDDR3 de 256 bits GDDR3 de 256 bits GDDR de 256 bits GDDR3 de 256 bits
Largura de banda 23,4 GB / s 28,8 GB / s 35,84 GB / s 30,4 GB / s 35,2 GB / s
AGP 2x / 4x / 8x 2x / 4x / 8x 2x / 4x / 8x 2x / 4x / 8x 2x / 4x / 8x
Memória 256 MB 128/256 MB 128/256 MB 128/256 MB 128/256/512 MB
Frequência GPU 412 MHz 475 MHz 520 MHz 475 MHz 400 MHz
Freqüência de memória 365 MHz (730 DDR) 450 MHz (900 MHz DDR) 560 MHz (1120 MHz DDR) 475 MHz (950 DDR) 550 MHz (1100 DDR)
Número de blocos de programa de vértice 4 6 6 Matriz FP 6
Número de pipelines de pixel 8x1 12x1 16x1 4x2 / 8x0 16x1 / 32x0
Versão de programas de Vertex / Pixel 2.0/2.0 2.0/2.0 2.0/2.0 2.0/2.0 3.0/3.0
Versão DirectX 9.0 9.0 9.0 9.0 9.0c
Número de saídas por display 2 2 2 2 2
Além disso Codificador de TV no chip;
FullStream;
filtragem adaptativa;
F-Buffer
Codificador de TV no chip;
FullStream;
filtragem adaptativa;
Tampão F;
compressão de mapas normais 3Dc;
anti-aliasing temporário;
VIVO;
SmartShader HD;
Smoothvision HD;
Hyper z hd
Codificador de TV no chip;
FullStream;
filtragem adaptativa;
Tampão F;
compressão de mapas normais 3Dc;
anti-aliasing temporário;
VIVO;
SmartShader HD;
Smoothvision HD;
Hyper z hd
Codificador de TV no chip;
filtragem adaptativa;
UltraShadow
Processador de vídeo on-chip e codificador de TV;
programabilidade estendida;
filtragem adaptativa; filtragem trilinear verdadeira;
UltraShadow II
Preço no momento do lançamento $499 $399 $499 $499 $499
Preço de varejo $440 $420

Não há muitas funções novas no X800. A ATi decidiu seguir o caminho de melhorar ainda mais a arquitetura comprovada R3xx... A receita para o sucesso é simples: mais blocos de vértices e pixels, além de algumas otimizações no kernel. O R420 tem dois recursos verdadeiramente novos: 3Dc e alisamento temporário (FSAA Temporal) Falaremos sobre eles mais tarde.
O Radeon X800 Pro estará à venda em maio-junho, um pouco depois a ATi lançará um modelo mais antigo - X800 XT Platinum Edition. V Versão Pro usa o mesmo chip gráfico que o XT PE. Mas ela tem 4 pipelines desativados.
ATi High Definition Gaming - Hi-Fi no mundo dos jogos
No mundo da televisão hoje, há uma mudança em direção HDTV (Televisão de alta definição) - televisão de alta definição. ATi escolheu usar o termo HD em suas tecnologias atualizadas: SmartShader HD, Smoothvision HD e Hyper z hd.
Na verdade, o núcleo R420 é um desenvolvimento do bem-sucedido e poderoso chip R300 DX9 ( Radeon 9700 Pro) Como seus antecessores, o X800 oferece suporte DirectX 9.0 e programas de vértice de pixel versões 2.0 ... Enquanto a nVidia adicionou suporte a pixel e vertex shader para a GeForce 6800 Ultra 3.0 ... Além disso, a precisão do ponto flutuante do R420 é limitada. 24 bits (lembre-se de que os blocos de programas de pixel no NV40 agora podem trabalhar rapidamente com 32 números de bits). O X800 Pro / XT PE usa um barramento de 256 bits dividido em quatro canais de 64 bits. ATi aumentou o número de unidades de vértice de quatro (na Radeon 9800XT) para seis (no X800). Acontece que o X800 tecnologicamente fica atrás do GeForce 6800, mas hoje dificilmente é possível declarar com segurança a fraqueza do ATi até que o DirectX apareça. 9.0c e jogos usando Shader 3.0.

3Dc - uma nova tecnologia para compactar mapas normais
No novo R420, os engenheiros da ATi usaram nova tecnologia - 3Dc(para mais detalhes sobre mapas normais, consulte a seção “Mapas normais e 3Dc”). Ele permite que você reduza o tamanho do arquivo de mapa normal, economizando memória. Os desenvolvedores agora têm duas opções: eles podem melhorar o desempenho dos jogos introduzindo suporte para compactar esses mapas, ou podem aumentar o nível de detalhe no mundo do jogo usando mapas mais complexos e detalhados usando compactação. Adicionando novo suporte

a tecnologia em jogos não deve ser difícil para os desenvolvedores.
3Dc é um hardware compatível com todas as placas baseadas no núcleo R420. Mas você terá que esquecer o suporte a essa função em chips antigos. Há uma grande probabilidade de que no novo Versões DirectX O suporte 3Dc aparecerá. Em qualquer caso, a empresa está promovendo a nova tecnologia como um padrão aberto, e em breve veremos vários jogos com suporte 3Dc ( DOOM III, Meia-vida 2 e Sam sério 2).

Por exemplo, compressão de textura ( S3TC, DXTC) tem sido usado por um longo tempo e permite que você reduza o tamanho das texturas de alta resolução... Em que
as texturas são armazenadas em um formato compactado.
Muitos jogos modernos, como Far Cry, usam um método de mapeamento de relevo aprimorado chamado “ mapas normais” (Mapeamento normal) São texturas especiais que contêm informações sobre os detalhes de um objeto. Usando mapas normais como mapas
irregularidades, permite aumentar o detalhamento do objeto sem recorrer ao aumento do número de polígonos nos modelos. No X800, a empresa decidiu usar uma nova tecnologia para compressão de hardware de texturas de mapa normais - 3Dc.
A essência da tecnologia de mapa normal é que o desenvolvedor do jogo primeiro precisa criar um modelo de personagem muito detalhado usando um grande número de polígonos. O personagem do jogo real é então criado usando um modelo simplificado com menos polígonos. Em seguida, são calculadas as diferenças entre os dois modelos, que são gravadas na forma de uma espécie de textura (mapa normal). Eles contêm peças perdidas ao passar de um modelo para outro. O mapa normal pode então ser aplicado ao simplificado
modelo, fazendo com que se pareça exatamente com um modelo de alta contagem de polígonos. É impossível atingir 100% de semelhança com o original, pois o mapa normal não contém informações geométricas.
Na parte superior esquerda, há um modelo de cabeça, consistindo de 15.000 polígonos. Um modelo simplificado é construído na parte inferior esquerda (1000 polígonos no total). A diferença entre os dois modelos é calculada e registrada separadamente como um mapa normal (canto superior direito). Em um jogo ou programa processador gráfico toma como base modelo simples e aplica um mapa normal a ele usando programas de pixel para efeitos de iluminação. Como resultado, obtivemos um modelo de cabeça de alta qualidade usando apenas 1000 polígonos!
No entanto, existem várias desvantagens associadas ao uso de mapas normais. Primeiro, aumenta a carga na GPU, uma vez que os mapas normais são, na verdade, outra textura aplicada aos polígonos. Em segundo lugar, são necessários mais dados. Quanto mais detalhes o desenvolvedor quiser usar, maior será a resolução do mapa normal usado - e mais será necessário. largura de banda memória. Embora o mapa normal possa ser compactado usando o algoritmo DXTC, ele geralmente produz artefatos de imagem perceptíveis. Assim como a S3 desenvolveu sua própria tecnologia S3TC quando surgiram problemas com texturas grandes, a ATi propôs uma nova tecnologia de compressão 3Dc projetada especificamente para mapas normais. De acordo com a ATi, novo métodoé capaz de reduzir o tamanho de mapas normais em quatro vezes sem impacto perceptível na qualidade.
Smoothvision HD - novo anti-aliasing de tela inteira
As placas de vídeo ATi sempre foram famosas por sua implementação de alta qualidade anti-aliasing de tela cheia (FSAA - Anti-Aliasing de tela inteira) Os chips gráficos da empresa são capazes de suportar taxas de amostragem de até 6x em combinação com correção de cores gama nas bordas dos objetos. Isso dá excelente
qualidade da foto.
Com o lançamento da série X800, a empresa implementou uma nova tecnologia anti-aliasing chamada "anti-aliasing temporal" (ou "temporal" - AA temporal).
O olho humano percebe a sequência de quadros na tela como uma imagem em constante movimento, pois o olho não consegue perceber a mudança de quadros que ocorre em milissegundos.
Ao desenhar um quadro, o TAA altera a localização dos subpixels - ele muda levando em consideração a inércia do nosso olho. Isso permite que você obtenha uma imagem de maior qualidade do que com
usando FSAA regular.
Mas o anti-aliasing temporal tem certas limitações. Para começar, ao usá-lo sincronização vertical (V-Sync) deve ser habilitado. A taxa mínima de atualização de quadros deve ser 58 fps... Se a taxa de quadros cair abaixo desse limite, o anti-aliasing temporal mudará automaticamente para o normal até que o fps cresça novamente. O fato é que com uma taxa de atualização mais baixa, as diferenças entre os quadros se tornarão perceptíveis a olho nu. Isso degradará a qualidade da imagem.
Idéia nova funçãoóbvio. 2xTAA(anti-aliasing temporário) fornece o mesmo nível de qualidade que 4xFSAA... Mas o mais importante é que ele consome alguns recursos da placa de vídeo (não mais do que para 2xAA) O anti-aliasing temporal já foi implementado em novos drivers. É possível que esta função também seja suportada em placas da geração 9x00 em futuras versões de driver. Catalisador(com a exceção de 9000 e 9200 que não têm suporte DX9).

Configuração de teste
Não avançaremos na teoria, mas passaremos para os testes das próprias placas de vídeo. Para teste, usamos Driver Catalyst 4.4 para placas ATi e para produtos nVidia - um driver ForceWare 60.72.

Sistema de teste
CPU Intel Pentium 4 3,2 GHz
Frequência FSB 200 MHz (800 MHz QDR)
Placa-mãe Gigabyte GA-8IG 1000 PRO (i865)
Memória 2x Kingston PC3500, 1024 MB
HDD Seagate Barracuda 7200.7 120 GB S-ATA (8 MB)
DVD Hitachi GD-7000
LAN Netgear FA-312
Fonte de energia Antec True Control 550W
Drivers e configurações
Gráficos Catalisador ATI 4.4
NVIDIA 60.72
Chipset Intel Inf. Atualizar
SO Windows XP Prof. SP1a
DirectX DirectX 9,0b
Placas gráficas usadas
ATi Radeon 9800XT (Sapphire)
Radeon X800 Pro (ATi)
Radeon X800 XT Platinum Edition (ATi)
nVidia GeForce FX 5950 Ultra (Nvidia)
GeForce 6800 Ultra (Nvidia)

Resultado dos testes
Testamos placas de vídeo na maioria jogos diferentes e aplicativos de teste, incluindo AquaMark3, Chamada à ação, Colin McRae Rally 04, Grito distante, Unreal Tournament 2004, X2: A Ameaça... Realizamos todos os testes tanto no modo normal quanto no modo “pesado” - com filtragem anisotrópica e anti-aliasing de tela cheia habilitados (exceto para AquaMark3).
No teste AquaMark3 de Desenvolvimento massivo o vencedor absoluto foi a GeForce 6800 Ultra. Continuando o ritmo de vitórias, o NV40 apresentou os melhores resultados no jogo Call of Duty. Ao mesmo tempo, superou o X800 XT PE em todos os testes, mesmo nos modos “pesados”.
Resultado dos testes
Radeon 9800XT Radeon X800 Pro Radeon X800 XT PE GeForce FX 5950 Ultra GeForce 6800 Ultra
AquaMark - Qualidade Normal
Pontuação 46569 54080 58006 44851 61873
Call of Duty - Qualidade Normal
1024 x 768 146,5 218,5 253,4 141,0 256,4
1280 x 1024 101,2 156,0 195,8 97,4 219,5
1600 x 1200 70,7 113,5 145,5 69,6 175,2
Call of Duty - 4xFSAA, 8x Aniso
1024 x 768 70,1 110,2 146,9 63,1 157,4
1280 x 1024 47,6 75,7 100,4 42,8 110,8
1600 x 1200 33,1 53,7 71,3 30,5 82,1
Colin McRae Rally 04 - Qualidade Normal
1024 x 768 130,5 172,5 174,8 91,2 166,0
1280 x 1024 95,8 133,8 172,8 68,5 163,2
1600 x 1200 67,6 95,1 141,4 49,5 132,1
Colin McRae Rally 04 - 4xFSAA, 8x Aniso
1024 x 768 70,5 107,6 142,2 52,3 118,0
1280 x 1024 53,3 81,1 105,7 40,6 92,5
1600 x 1200 39,1 59,9 76,7 30,5 70,2
FarCry Outdoor 1024x768
Qualidade Normal 55,0 75,3 81,2 48,6 66,8
FSAA High, Aniso 4 30,3 49,0 68,8 30,7 50,5
FarCry Interior 1024x768
Qualidade Normal 45,1 69,6 90,8 28,5 74,7
FSAA High, Aniso 4 25,9 41,5 59,6 20,9 53,1
Unreal Tournament 2004 - Qualidade Normal
1024 x 768 106,9 104,6 105,3 104,1 103,7
1280 x 1024 94,4 105,0 104,9 95,7 103,6
1600 x 1200 69,1 97,1 104,5 72,8 102,9
Unreal Tournament 2004 - 4xFSAA, 8x Aniso
1024 x 768 75,1 104,6 105,0 80,5 102,7
1280 x 1024 52,5 92,2 101,9 54,7 84,9
1600 x 1200 38,2 68,5 82,3 39,1 64,1
X2 - A Ameaça - Qualidade Normal
1024 x 768 67,9 80,0 83,4 74,3 84,6
1280 x 1024 54,7 68,5 76,7 61,1 75,3
1600 x 1200 44,2 58,9 68,4 50,5 67,1
X2 - A ameaça - 4xFSAA, 8x Aniso
1024 x 768 48,9 62,4 69,7 53,9 73,2
1280 x 1024 36,1 51,1 58,9 40,1 61,1
1600 x 1200 28,4 42,6 49,8 30,6 51,8

No próximo teste, ATi se recuperou totalmente. Em Colin McRae Rally 04, o X800 XT PE acabou ficando bem acima de seus concorrentes, isso foi especialmente perceptível no modo com filtragem anisotrópica habilitada e anti-aliasing de tela cheia. A situação se repetiu no jogo Far Cry - a vitória foi novamente com a capitânia da ATi. O próximo jogo em que testamos placas de vídeo foi Unreal Tournament 2004. No modo normal, todas as três placas mostravam aproximadamente resultados iguais. Ligando ANISO e FSAA mudou completamente o quadro: o X800 Pro e o X800 XT PE acabaram de seguir em frente! Ao mesmo tempo, até a versão Pro conseguiu ultrapassar a GeForce 6800 Ultra. No último teste - X2: The Threat - os resultados do teste do NV40 e do X800 XT PE foram aproximadamente iguais.

Conclusão
Não tivemos tempo de realmente nos recuperar dos resultados impressionantes mostrados pela nVidia GeForce 6800 Ultra, pois agora a ATi nos surpreendeu. O Radeon X800 XT Platinum Edition mostrou desempenho muito alto, mesmo o X800 Pro com 12 pipelines superou o GeForce 6800 Ultra em alguns testes.
Os canadenses da ATi fizeram um ótimo trabalho. O consumo de energia das placas da série X800 ficou quase no mesmo nível que o de seu predecessor, o 9800XT. É por isso que as novas placas da ATi requerem apenas um conector de alimentação, ao contrário da GeForce 6800 Ultra, que precisa de dois. O núcleo do R420 acabou sendo menos quente também. Para resfriá-lo, é usado um cooler padrão, que ocupa apenas um slot adjacente (a GeForce 6800 Ultra tem dois). O núcleo R420 tem muitas inovações, incluindo o chip ATi Rage Theater com suporte para VIVO, tecnologia inovadora 3Dc, que pode melhorar a qualidade dos gráficos em jogos, bem como a tecnologia FSAA Temporal original.

Por melhor que seja o núcleo do R420, ele também tem suas desvantagens. As placas da série X800 ainda estão limitadas a precisão de ponto flutuante de 24 bits e suporte para shader versão 2.0. Já a GeForce 6800 Ultra usa precisão computacional de 32 bits sem sacrificar a velocidade e o suporte para shaders 3.0.
O X800 XT Platinum Edition e o GeForce 6800 Ultra apresentam um desempenho incrível. Mas o X800 XT PE parece preferível. Esta placa de vídeo da ATi tem mostrado desempenho muito alto em jogos modernos de alta tecnologia como Unreal Tournament 2004, Far Cry e Colin McRae Rally 04.
Uma nova rodada de confrontos entre as duas empresas acaba de começar e é muito cedo para somar os resultados finais. Em breve opções de orçamento placas de vídeo de duas empresas, bem como placas com suporte PCI Express ... Portanto, com certeza voltaremos ao tema do confronto entre a empresa canadense ATi e a americana nVidia, e mais de uma vez.
Consumo de energia
No artigo sobre o NV40, falamos sobre a gula da GeForce 6800 Ultra. Neste artigo, conduzimos um teste no qual descobrimos quanta energia as placas de vídeo modernas consomem. Como isso não pode ser feito separadamente para os cartões, nossa tabela mostra os valores de consumo de energia para todo o computador. Usamos a mesma configuração de sistema para todas as placas.
Resultados de medição
Radeon 9600 XT 203
Radeon 9800 XT 261
Radeon X800 Pro 242
Radeon X800 XT 263
GeForce 4 Ti 4800 230
GeForce FX 5700U GDDR3 221
GeForce FX 5950 Ultra 264
GeForce 6800 Ultra 288
Os valores mostrados são o consumo máximo de energia durante os testes em 3DMark03... O consumo de energia de pico do X800 XT PE acabou sendo um pouco maior do que o da Radeon 9800XT. E o X800 Pro requer ainda menos. O título da placa mais "voraz" foi para a GeForce 6800 Ultra.

Navi 10 ainda é um chip relativamente novo que os parceiros da AMD não terminaram de masterizar. Mas parece que a GIGABYTE já entrou na linha de chegada do melhor resfriamento e performance máxima que pode ser extraído da Radeon RX 5700 XT. E este não é o limite para o overclocking personalizado do Navi 10, para o qual a placa AORUS também criou as condições ideais.

A Radeon RX 5600 XT veio atrás da cabeça da GeForce GTX 1660 Ti. Mas quem precisa do último quando há uma GTX 1660 SUPER e o preço do RTX 2060 caiu recentemente? Vamos ver como a AMD sai dessa situação. Bem, para os entusiastas, o RX 5600 XT é simplesmente um RX 5700 barato sem dois chips de memória, mas com reservas de overclock adequadas. O novo produto é a placa de vídeo SAPPHIRE PULSE

O mercado de aceleradores abaixo de US $ 200, que ainda é dominado por modelos mais baratos de 2016, finalmente se agitou. Os usuários agora podem escolher entre a GeForce GTX 1650 SUPER e a Radeon RX 5500 XT. Mas isso o tornou melhor? Uma coisa é certa - não ficou mais fácil. Os testes envolveram placas de vídeo SAPPHIRE e PowerColor com 4 e 8 GB de RAM

13 de novembro de 2019

Análise da placa de vídeo ASUS ROG STRIX Radeon RX 5700 XT OC: alcance e ultrapasse o RTX 2070 SUPER

ASUS ROG STRIX Radeon RX 5700 XT OC é indiscutivelmente a versão mais rápida do Radeon RX 5700 XT encontrada em nossas lojas. Ele tem um bom overclock de fábrica, um sistema de refrigeração massivo e potencial para competir com aceleradores de um nível completamente diferente. Em particular, com a GeForce RTX 2070 SUPER

Das modificações mais acessíveis da Radeon RX 5700 XT, a criação da GIGABYTE se destaca com um grande sistema de resfriamento com três ventoinhas, e de fato os novos aceleradores AMD são muito sensíveis à temperatura. Vamos ver se isso é suficiente para justificar a reivindicação da GIGABYTE Radeon RX 5700 XT GAMING OC para a liderança entre sua própria espécie.

Os novos chips AMD claramente requerem melhor resfriamento do que as placas-mãe de referência. Mas embora as placas de vídeo com coolers enormes ainda não tenham preenchido o mercado, teremos que fazer uma parada intermediária. A modificação do orçamento do SAPPHIRE PULSE deve pelo menos trazer o nível de ruído de volta ao normal, no entanto, também não vamos parar os experimentos com overclocking e undervolting Navi.

Recentemente, levando em consideração a tendência de desenvolvimento do mercado de aceleradores gráficos, estamos todos acostumados com a rápida mudança de gerações de adaptadores de vídeo. Embora por um longo tempo o papel principal na AMD foi ocupado pela placa de vídeo ATI HD3870 (mais tarde ATI HD3870X2) baseada no chip RV670. Assim que os primeiros rumores sobre o novo chip RV770 começaram a vazar, o interesse da mídia foi reposicionado no futuro "mestre do trono".

O aparecimento do novo chip marcou a estreia de novas soluções da AMD ATI (no chip RV770 PRO) e AMD ATI HD4870 (no chip RV770 XT).

Antes do lançamento das soluções gráficas baseadas no chip RV770, a posição da empresa no mercado não era das melhores. Na família das placas HD, não havia um único rival digno das soluções de topo da eterna concorrente californiana, a NVIDIA. O lançamento de um novo chip era mais uma necessidade vital do que apenas o lançamento de uma nova solução acelerada. Os engenheiros deram o seu melhor - o chip revelou-se muito bem-sucedido e promissor.

No novo chip, decidiu-se mudar as tradições e mudar para uma arquitetura com um hub central em vez do já familiar barramento em anel.

De acordo com os comunicados à imprensa da ATI, esse arranjo aumenta significativamente a eficiência da largura de banda. Além disso, o controlador de memória agora suporta os novos chips de memória GDDR5.

A nova GPU já contém 800 processadores escalares capazes de realizar cálculos de 32 e 64 bits.

Mas a arquitetura dos processadores stream praticamente não mudou (em comparação com o RV670), embora sua densidade tenha aumentado, o que permitiu aumentar seu número sem alterar o processo técnico. Agora, o desempenho máximo teórico do chip RV770 aumentou para 240 gigaflops.

Detalhes técnicos dos aceleradores da série HD4800:

  • Codinome do chip RV770;
  • Tecnologia de 55 nm;
  • 956 milhões de transistores;
  • Arquitetura de matriz unificada processadores compartilhados para processamento de streaming de vértices e pixels, bem como outros tipos de dados;
  • Suporte de hardware para DirectX 10.1, incluindo o novo modelo de shader - Shader Model 4.1, geração de geometria e gravação de dados intermediários de shaders (stream output);
  • Barramento de memória de 256 bits: quatro controladores de 64 bits com suporte GDDR3 / GDDR5;
  • Frequência do núcleo 625-750 MHz;
  • 10 núcleos SIMD, incluindo 800 ALUs escalares para calcular operações de ponto flutuante (formatos inteiros e flutuantes, suporte para precisão FP32 e FP64 dentro do padrão IEEE 754);
  • 10 unidades de textura ampliada, com suporte para formatos FP16 e FP32;
  • 40 blocos de endereçamento de textura;
  • 160 blocos de amostragem de textura;
  • 40 unidades de filtragem bilineares com a capacidade de filtrar texturas FP16 em velocidade total e suporte para filtragem trilinear e anisotrópica para todos os formatos de textura;
  • Possibilidade de ramificação dinâmica em pixel e vertex shaders;
  • 16 ROPs com suporte para modos anti-aliasing e a possibilidade de amostragem programável de mais de 16 amostras por pixel, incluindo com formato de buffer de quadro FP16 ou FP32 - desempenho de pico de até 16 amostras por clock (incluindo para formato MSAA 2x / 4x e FP16 buffers), no modo incolor (somente Z) - 64 amostras por ciclo de clock;
  • Grave os resultados de até 8 buffers de quadro simultaneamente (MRT);
  • Suporte integrado para dois RAMDACs, duas portas DVI Dual Link, HDMI, HDTV, DisplayPort.

Especificações do cartão de referência:

  • Frequência do núcleo 625 MHz;
  • O número de processadores universais é 800;
  • O número de unidades de textura - 40, unidades de mistura - 16;
  • Frequência efetiva da memória 2.000 MHz (2 * 1.000 MHz);
  • Tipo de memória GDDR3;
  • 512 MB de memória;
  • Largura de banda de memória de 64 GB / s;
  • Taxa de preenchimento teórica máxima de 10,0 gigapixels por segundo;
  • Taxa de amostragem teórica de texturas 25,0 gigatexels por segundo;
  • Dois conectores CrossFireX;
  • Barramento PCI Express 2.0 x16;
  • Dois conectores DVI-I Dual Link, suporta saída em resoluções de até 2560x1600;
  • Suporte para saída de TV, saída de HDTV, HDCP, HDMI, DisplayPort;
  • Consumo de energia até 110 W (um conector de 6 pinos);
  • Projeto de sistema de refrigeração de slot único;
  • Preço recomendado $ 199.

Um deles será discutido na análise de hoje, ou seja, a AMD ATI com 512 MB de memória a bordo.

GeForce 9800 GTX

GeForce 9800 GTX +

Chip gráfico

RV770 PRO

Frequência do núcleo, MHz
Frequência unificada do processador, MHz
Número de processadores universais
Número de unidades de textura / mistura
Tamanho da memória, MB
Frequência efetiva de memória, MHz

2000 (2*1000)

Tipo de memória
Largura do barramento de memória, bit

A placa de vídeo é feita com base no processador gráfico ATI da AMD, feito no chip RV770 PRO com tecnologia 55nm. Ao mesmo tempo, todas as recomendações do fabricante da GPU indicada acima são seguidas, para que o acelerador repita os recursos e aparência a esmagadora maioria de 512 MB, exceto talvez para o pacote.

Vamos passar a conhecer melhor a placa de vídeo EAH4850 / HTDI / 512M testada.

A placa de vídeo vem em uma grande caixa dupla de papelão que se abre como um livro. Ao contrário dos pacotes anteriores dos modelos top, esta caixa não tem uma alça de plástico.

A aparência e o design da caixa não mudaram. Como antes, as cores preta e laranja simbolizam o adaptador pertencente à família AMD ATI. O nome do acelerador geralmente está presente na parte inferior da caixa, assim como alguns de seus recursos. Desta vez, o foco principal está no adaptador DVI para HDMI, que o cliente recebe "de graça".

A parte de trás do pacote descreve os recursos do acelerador gráfico, recomendado requisitos de sistema, bem como uma breve apresentação de tecnologias proprietárias, que podem ser encontradas com mais detalhes no site oficial da ASUSTeK Computer.

O conjunto de entrega é suficiente para o uso completo do adaptador de vídeo. Além da placa de vídeo em si, inclui:

  • Adaptador de Molex para conector de alimentação de placa de vídeo de 6 pinos;
  • Adaptador de S-Video para saída de componente;
  • Adaptador DVI para D-Sub;
  • Adaptador de DVI para HDMI;
  • Ponte CrossFire;
  • CD-ROM com drivers;
  • CD-ROM com documentação eletrônica;
  • Breves instruções para instalar uma placa de vídeo.

Externamente, o modelo de teste é muito semelhante ao AMD ATI HD 3850. A placa de vídeo em si é feita de acordo com o design de referência em uma placa de circuito impresso vermelha e equipada com um sistema de resfriamento de slot único que cobre a maior parte dela. A única diferença externa com a nossa placa de vídeo é que o invólucro de plástico não cobre completamente o PCB. As dimensões do adaptador são compactas, o comprimento é de 233 mm, o que permite caber em quase todas as caixas.

No verso há adesivos com o nome exato do acelerador gráfico, número de série e número do lote.

Todos os conectores são protegidos por tampas de plástico, o que nem sempre é possível ver em adaptadores de vídeo de. O painel de interface contém dois Saída DVI bem como saída de TV. Para conectar um monitor analógico, você precisará usar o adaptador fornecido.

Agora vamos dar uma olhada no sistema de refrigeração da placa de vídeo testada. Como descrevemos acima, ele ocupa um slot e é uma placa enorme. No meio está um dissipador de calor de cobre que fica ao lado da GPU.

Os chips de memória e os elementos de energia estão em contato com o substrato do wafer por meio de espaçadores térmicos.

Sob o invólucro de plástico do sistema de resfriamento, há um radiador que consiste em finas aletas de cobre interconectadas. O ar flui do cooler passando por essas aletas para a parede traseira do gabinete, portanto, para a saída de ar quente normal, você precisa remover o plugue no painel traseiro ao lado da placa de vídeo.

A placa de circuito impresso não está saturada com um grande número de elementos, mas há uma inovação - os microcircuitos de memória estão localizados em duas linhas acima e à direita do chip gráfico, e um par de microcircuitos centrais para cada uma das linhas são agrupados .

A parte de poder do conselho não é surpreendente com a complexidade da execução. V canto superior há um conector de alimentação para placa de vídeo de 6 pinos, o que não é surpreendente, dado o consumo de energia declarado de até 110 W. De acordo com a especificação do acelerador de vídeo, é necessária uma fonte de alimentação com capacidade de 450 W ou mais.

A memória consiste em oito chips padrão Qimonda GDDR3 (HYB18H512321BF-10) com um tempo de acesso de 1,0 ns, o que permite operar em frequências de até 2.000 MHz. A frequência efetiva da memória do modelo testado da placa de vídeo é um pouco menor e chega a 1986 MHz, o que deixa um estreito corredor de frequência para reservas. A quantidade total de memória é 512 MB e a largura do barramento não mudou com ele e é de 256 bits.

A frequência da GPU corresponde ao valor recomendado de 625 MHz. Conforme já descrito acima, o próprio chip RV770 é feito de acordo com a tecnologia de processo de 55 nm, o que determina seu consumo de energia relativamente baixo, apesar de incluir 956 milhões de transistores. O número de processadores de sombreador unificados aumentou para 800, as unidades de textura para 40 e o número de ROPs permanece inalterado em 16. A frequência de operação do chip no modo 2D é reduzida para 500 MHz.

Para avaliar a eficiência do sistema de resfriamento de estoque, usamos o utilitário FurMark, e o monitoramento foi realizado usando GPU-Z versão 0.2.6. Trabalhando nas frequências nominais, o processador gráfico esquentou até 92 ° C, o que não é tão pouco, especialmente considerando o aparecimento de algum ruído do cooler.

Testando

Os resultados do teste mostram que ele é um competidor direto da GeForce 9800GTX e praticamente se aproxima do desempenho de aceleradores mais caros na GeForce GTX260. A exceção é aplicativos de jogos otimizado para arquitetura NVIDIA.

O overclock da placa de vídeo foi realizado usando recursos da equipe ATI Controle de catalisador Centro. A placa de vídeo foi capaz de operar de forma estável em frequências de 670 MHz por núcleo gráfico(+45 MHz) e 2180 MHz (1090 MHz DDR) para memória de vídeo (+186 MHz).

Um resultado bastante modesto, inicialmente esperávamos mais, mas vamos ver o quanto o desempenho do adaptador aumentará.

Pacote de teste

Frequências padrão

Placa gráfica com overclock

Aumento da produtividade,%

Futuremark 3DMark'05
Pontuação 3DMark
Pontuação SM2.0
Pontuação HDR / SM3.0

Serious Sam 2, Máxima Qualidade, SEM AA / AF, fps

1024 × 768
1280 × 1024
1600 × 1200

Serious Sam 2, Máxima Qualidade, AA4x / AF16x, fps

1024 × 768
1280 × 1024
1600 × 1200

Call Of Juarez, qualidade máxima, SEM AA / AF, fps

1024 × 768
1280 × 1024
1600 × 1200

Provavelmente, muitos leitores da seção de sistemas de vídeo do site já estão suspirando de cansaço: “Quando vai acabar esse domínio das placas de vídeo nos chips NVIDIA?!" Compreendemos essas exclamações e até lamentações semelhantes. Sim, e no fórum iXBT, como anfitrião da seção, eles me criticam por que vale a pena, porque damos pouca atenção aos produtos ATI. Claro, temos lacunas a esse respeito, mas ainda a principal razão Essa aparente desigualdade é que a ATI produz placas de vídeo apenas por si (somente com o lançamento da RADEON LE ela conseguiu um parceiro pouco conhecido, que passou a ajudar a ATI com o lançamento de modificações mais baratas). Isso significa que a linha de placas-mãe baseadas em RADEON está claramente marcada:

A maioria dos cartões difere apenas em diferentes tipos e frequências de memória instalada neles, o processador gráfico é o mesmo, mas também opera em frequências diferentes. Portanto, a diferença entre eles só pode ser no desempenho. Bem, na configuração VIVO. Existe apenas um tipo - RADEON VE, que difere muito de seus antecessores.

Mas as placas de vídeo baseadas em GPU NVIDIA GeForce2 e especialmente GeForce2 MX foram além últimos seis meses muitos. E se todos fossem iguais como duas gotas de água, então não há nada para escrever sobre cada um deles, mas apenas para liberar algo como revisão resumida como fizemos antes. No entanto, começando a estudar os primeiros cartões semelhantes publicados, descobri que eles podem ser muito diferentes uns dos outros, mesmo com base no mesmo design de referência.

Os usuários das placas GeForce2 MX já sabem muito bem que as placas podem ser muito diferentes, pelo menos na qualidade 2D. Não estou dizendo que muitos cartões apareceram com características individuais, como tipos diferentes memória e seus volumes, a presença de monitoramento de hardware, etc. E quase todos vão à venda, e às vezes os usuários não sabem se devem ou não comprar uma placa baseada na GeForce2 NX de uma determinada marca ou de um determinado fabricante. É por isso que decidimos cobrir a frota de placas de vídeo baseadas no popular chipset sempre que possível.

No entanto, é nossa culpa termos lançado a cobertura das placas de vídeo ATI. Não vou me referir ao emprego constante e procurar motivos, simplesmente admito minha culpa por isso ter acontecido. Eu pensei que demonstrar as capacidades dessas placas-mãe através do 3Digest (links para mini-análises deste material são fornecidos no topo) dará uma imagem mais ou menos completa dos novos produtos da ATI, que, repito, diferem apenas no desempenho ( exceto para RADEON VE). Mas descobriu-se que isso não é suficiente. E agora preencheremos essas lacunas em nossos artigos e cobriremos todos os novos produtos da ATI, independentemente de ser um clone ou uma placa de vídeo fundamentalmente nova.

Agora vamos ao que interessa. Não foi à toa que mencionei pela primeira vez a NVIDIA GeForce2 MX. Um dos "patins" das placas nesta GPU é a tecnologia TwinView. Claro, TwinView não é suportado por todas as placas baseadas no GeForce2 MX, mas apenas por aquelas com um segundo RAMDAC instalado e há um slot para a segunda saída de imagem ou há uma saída de TV. Essas placas são muito mais caras, o que não faz o jogo do TwinView. Eu gostaria de perguntar imediatamente: o que a ATI poderia se opor a esses cartões? Já faz algum tempo que se faz uma comparação:

  • NVIDIA GeForce2 64 MB vs. RADEON 64 MB DDR
  • NVIDIA GeForce2 32 MB vs. RADEON 32 MB DDR
  • NVIDIA GeForce2 MX vs. RADEON 32 MB SDR

Se nas duas primeiras posições a RADEON perdeu em quase toda parte para sua rival, na terceira a situação é ambígua. Em cores de 32 bits, o RADEON 32 MB SDR supera facilmente o NVIDIA GeForce2 MX, e mesmo às vezes as novas "versões" não ajudam o último. E se você levar em conta que hoje em dia RADEON LEs baratos têm aparecido em grandes quantidades, que, embora funcionem em frequências mais baixas, são perfeitamente overclockadas, as nuvens sobre a GeForce2 MX estão se aproximando muito sérias. E, em geral, o lançamento da RADEON VE tornou-se uma "tempestade com relâmpagos".

À primeira vista, gostaria de encolher os ombros com ceticismo: E onde está a "tempestade" com tal e tal 3D lento? Vamos com calma, vamos começar listando os recursos e características da RADEON VE.

  • Controlador gráfico - processador gráfico RADEON VE
    • Frequência operacional 150-166 MHz
    • Pipelines de pixel - 1
    • Módulos de textura - 3
  • Configurações de memória: 64 MB DDR, 32 MB DDR, 16 MB DDR
    • Barramento de memória de 64 bits
    • Frequência operacional 183 (366) MHz
  • Recursos de aceleração 3D
    • Tecnologia HYPER Z
    • Arquitetura PIXEL TAPESTRY
    • Tecnologia de IMERSÃO DE VÍDEO
    • Arquitetura Twin Cache
    • Multi-texturização de passagem única (3 texturas por ciclo de clock)
    • Renderização True Color
    • Motor de configuração do triângulo
    • Cache de textura
    • Filtragem Bilinear / Trilinear
    • Suporte à descompressão de textura em DirectX (DXTC) e OpenGL
    • Destaques especulares
    • Mapeamento de Textura Perspectivamente Correto
    • Mapeamento Mip
    • Z-buffering e Double-buffering
    • Mapeamento de relevo, produto interno 3 e ambiente
    • Mapeamento de ambiente esférico, duplo-parabolóide e cúbico
    • Anti-Aliasing de tela inteira (FSAA)
  • O software de gerenciamento de múltiplos monitores HydraVision oferece a flexibilidade de personalizar a saída de imagem para dois receptores de sinal (tomada VGA para monitores CRT e tomada DVI para monitores digitais)
  • A presença de um adaptador DVI-para-VGA permite que você use um monitor CRT comum em vez de um monitor digital, proporcionando um trabalho completo com dois monitores
  • A saída de TV (S-Video, mas o conjunto inclui um adaptador S-Video-para-RCA) também se encaixa no conceito de multi-monitor, pode ser usada como um segundo receptor de sinal
  • Possibilidade de troca de lugares do primeiro e segundo receptores de sinal
  • O software HydraVision Multidesk permite que você organize até 9 desktops virtuais em um monitor
  • Resolução 3D máxima:
    • 65 mil cores: 1920 x 1440
    • 16,7 milhões de cores: 1920 x 1200

Não prestei atenção especial às peculiaridades do próprio núcleo RADEON, pois tudo é falado sobre isso em nossa análise, e de acordo com as especificações fornecidas acima, você pode ver que a RADEON VE foi feita cortando o bloco de rasterização em 2 vezes , removendo o bloco TCL de Hardware do chip (então há um coprocessador geométrico) e adicionando blocos a ele que enviam a imagem para o segundo receptor de sinal (segundo RAMDAC, CRTC, etc.) Isso lembra você de alguma coisa? É muito semelhante a como a GeForce2 MX saiu da GeForce2 GTS :-) exceto que o Hardware TCL não foi removido da GeForce2 MX.

Assim, vemos que recebemos ... Riva TNT2 Ultra em termos de potência em 3D, só que de uma forma diferente. Julgue por si mesmo: a frequência do chip é 150 para ambos, no modo de multitexturação Riva TNT2 Ultra produz 150 milhões de pixels e 300 milhões de texels por segundo, a mesma quantidade de RADEON VE se 2 unidades de textura estiverem ativas (e ninguém pode usar 3 TMUs agora, como nenhum jogo ainda). A frequência da memória do Riva TNT2 Ultra é de 183 MHz com um barramento de 128 bits. A RADEON VE tem memória DDR de 183 (366) MHz, mas se levarmos em consideração o barramento de 64 bits, teremos quase o mesmo. Apenas o HyperZ exclusivo e as tecnologias de cache duplo ajudarão o RADEON VE a mostrar um desempenho superior do que o Riva TNT2 Ultra de quase 2 anos.

Pagar


A placa de vídeo é baseada em AGP 2x / 4x, possui 32 MB DDR SDRAM localizados em 4 microcircuitos na parte frontal do PCB.

Os módulos de memória têm um tempo de acesso de 5,5 ns e são projetados para uma frequência operacional de 183 (366) MHz, na qual operam.

O chipset é coberto por um dissipador de calor colado nele. Não há ventoinha, porém ela não é necessária, já que o processador esquenta muito pouco. Além do soquete VGA usual, você também pode ver uma saída DVI na placa. Ambas as conclusões, junto com os RAMDACs embutidos no chip, na verdade formam a base da tecnologia HydraVision, que é semelhante à NVIDIA TwinView ou Matrox DualHead, mas ao mesmo tempo única. Cito um comunicado à imprensa datado de 9 de novembro de 2000:

"Toronto, Ontário, Canadá, 9 de novembro de 2000 - ATI Technologies Inc. (TSE: ATY, NASDAQ: ATYT), maior fornecedora mundial de tecnologias gráficas 3D e multimídia, anunciou hoje um acordo estratégico exclusivo com a Appian Graphics Corporation, uma líder em tecnologia de imagem de ponta, a incorporação do HydraVision. Este acordo dá à ATI o direito de integrar o sistema de gerenciamento de display da HydraVision e promovê-lo em produtos da RADEON VE em diante com futuros produtos ATI.

"O HydraVision é há muito tempo o aplicativo padrão para gerenciamento de tela de vários monitores, e a Appian Graphics é a líder na oferta de soluções para oferecer suporte a configurações de vários monitores", disse David Orton, presidente da ATI. "Combinar a experiência da Appian em controles de exibição com nossas tecnologias avançadas de acelerador gráfico cria uma linha de produtos verdadeiramente incomparável."

O sistema de controle de exibição proprietário da AppianHydraVision fornece ao usuário uma interface para controle simples vários monitores. Os recursos do HydraVision incluem controles para exibir aplicativos e caixas de diálogo, atribuições de teclas de atalho, resoluções de tela e taxas de quadros independentes, controle de aplicativos independente e a capacidade de criar até nove espaços de trabalho virtuais. "

Assim, esta tecnologia é uma solução muito interessante não só para exibir imagens em dois monitores, mas também possibilita a criação de desktops virtuais. Mais detalhes sobre isso serão fornecidos abaixo, mas agora estamos retornando aos recursos da RADEON VE e seu pacote.

O conjunto de entrega inclui um adaptador (foto acima), que fornece a capacidade de conectar à segunda tomada não apenas um monitor digital, mas também um convencional.

Devo também observar que a RADEON VE também é equipada com uma saída de TV com um conector S-Video (um adaptador S-Video-para-RCA está incluído no pacote). Portanto, é possível organizar combinações de saída de imagem para quaisquer dois desses três receptores. Os ajustes de saída de imagem estão nos drivers:

Como você pode ver, tudo é claro e acessível. Preste atenção a um detalhe importante: você pode trocar os receptores de sinal, ou seja, os receptores primário e secundário não estão rigidamente amarrados aos soquetes correspondentes. Isso é o que significa ter dois RAMDACs idênticos de 300 MHz e não pensar em qual é o melhor. Portanto, se mesmo com pressa você conectou os monitores incorretamente, não precisa subir novamente e trocá-los, basta trocá-los nos drivers.

É interessante notar que o utilitário proprietário HydraVision permite implementar suporte a vários monitores em quase todos os aplicativos, e mesmo em aplicativos como Adobe Photoshop, podemos ver isso:

O utilitário em si é muito notável. Depois de instalado, o ícone de controle do HydraVision aparece na bandeja do sistema no canto inferior direito. O programa permite que você organize até nove (!) Desktops virtuais! E com um switch, você pode mover imediatamente para uma ou outra área de trabalho.

Os próprios desktops podem ser assinados a seu critério:

O cartão pode ser fornecido em formato OEM (temos apenas um) e em embalagem de varejo. O kit inclui dois adaptadores: DVI para VGA, S-Video para RCA e um CD-ROM com drivers.

Overclocking

Infelizmente, até o momento não existem utilitários capazes de aumentar corretamente as frequências de operação desta placa, portanto, a placa não fez overclock.

Instalação e drivers

Considere a configuração bancada, no qual a placa ATI RADEON VE foi testada:

  • Processador Intel Pentium III 1000 MHz:
  • Chaintech 6OJV (i815) placa-mãe;
  • RAM 256 MB PC133;
  • disco rígido IBM DPTA 20GB;
  • sala de operação Sistema Windows 98 SE;

No estande usamos os monitores ViewSonic P810 (21 ") e ViewSonic P817 (21").

Os testes foram realizados com o VSync desabilitado nos drivers 7.078 da ATI.

Para uma análise comparativa, usamos as leituras de ATI RADEON 32 MB SDR, Hercules Dynamite TNT2 Ultra (frequência reduzida aos valores padrão de 150/183 MHz para Riva TNT2 Ultra), Leadtek WinFast GeForce2 MX / DVI.

Resultado dos testes

A qualidade dos gráficos 2D é tradicional de alto nível para a ATI. Praticamente não há comentários. Recentemente, as questões 2D já foram tão "sugadas" que não há por que levantá-las novamente. Vou apenas observar repetidamente que a qualidade 2D pode depender muito não apenas do fabricante da placa, mas também simplesmente de uma cópia específica.

E também deixe-me lembrá-lo: antes de criticar a placa de vídeo, verifique se o seu monitor atende aos requisitos que você faz para a placa de vídeo.

Vamos começar avaliando o desempenho de uma placa de vídeo em 3D. Usamos os seguintes programas como um kit de ferramentas:

  • id Software Quake3 v.1.17 - um teste de jogo que demonstra o funcionamento da placa em OpenGL usando o benchmark demo002 padrão;
  • Rage Expendable (timedemo) - um teste de jogo que demonstra a operação da placa em Direct3D no modo multitexturante.

Quake3 Arena

Os testes foram realizados em dois modos: Rápido (demonstra o funcionamento do cartão em cores de 16 bits) e Alta Qualidade (demonstra o funcionamento do cartão em cores de 32 bits).

Pode-se ver que minhas suposições sobre a proximidade dos resultados do RADEON VE com o Riva TNT2Ultra acabaram sendo quase corretas. Apenas na cor 32 bits a RADEON VE venceu a última batalha, mas, como esperado, perdeu muito para as demais cartas com as quais foi feita a comparação.

Descartável

Usando este jogo como exemplo, veremos a velocidade da placa no Direct3D.

E aqui a imagem muda completamente, demonstrando a clara vantagem da RADEON VE sobre a Riva TNT2 Ultra. A RADEON VE até conseguiu se equiparar a suas contrapartes 3D mais antigas e famosas. No entanto, a relativa leveza das cenas em Expendable também pode ter desempenhado um papel. Mas há outra suposição em relação ao trabalho da tecnologia HyperZ. Embora, a julgar pelo Registro, ele esteja incluído tanto no OpenGL quanto no Direct3D, no primeiro caso, é possível que o HyperZ não funcione como deveria. E no Direct3D oferece todas as suas vantagens.

Vamos resumir a análise de desempenho da placa ATI RADEON VE revisada:

  • A placa de vídeo demonstra um desempenho geral ligeiramente superior ao Riva TNT2 Ultra e muito superior em cores de 32 bits, mas não se compara às placas ATI RADEON SDR e ATI RADEON LE lançadas anteriormente e também fica atrás da NVIDIA GeForce2 MX;
  • ATI RADEON VE, como todas as placas baseadas em RADEON, se distingue por sua operação otimizada em cores de 32 bits;

conclusões

Como pudemos ver, apesar de toda sua relativa "inferioridade" em termos de 3D, a RADEON VE demonstrou alto nível a relação preço / desempenho / saturação com funções. Sim, a um preço de cerca de US $ 90-95, esta placa fica atrás das placas NVIDIA GeForce2 MX em desempenho, que têm quase o mesmo preço, mas ao mesmo tempo a RADEON VE demonstra excelente qualidade 2D, que às vezes falta "noname "-cards na GeForce2 MX, e também possui a tecnologia HydraVision, semelhante à NVIDIA TwinView. E os cartões com este último custam não mais cerca de US $ 100, mas muito mais.

Podemos recomendar ATI RADEON VE para aqueles que precisam desta placa para trabalhar principalmente no setor de negócios ou em aplicações 2D pesadas. Este cartão ficará bom mesmo com aplicativos de escritório, uma excelente opção será para quem precisa combinar 2 monitores (por exemplo, para layout de texto ou outros materiais). E não se esqueça da alta qualidade de reprodução de filmes em DVD, que é tradicional para a ATI, e hoje em dia os populares clipes MPEG4.

Mais completo características comparativas Você pode ver as placas de vídeo desta e de outras classes em nosso 3Digest.

Prós:

  • Desempenho bastante satisfatório em gráficos 3D;
  • Muito boa qualidade performance do produto;
  • Suporte para tecnologia HydraVision (análogo ao TwinView), mas com recursos mais avançados;
  • Saída de TV suportada por HydraVision;
  • Preço relativamente baixo;

Desvantagens:

  • Atrasos na entrega dos cartões, tradicionais para a ATI, que podem anular as vantagens da RADEON VE em termos de custo;
  • Já existe uma concorrência muito forte no mercado de sistemas informáticos empresariais, dada a presença não só da NVIDIA GeForce2 MX, mas também da Matrox G450.