Newsletter

Abonnement
Désabonnement


Articles en rapport

Home Tests Hardware NVIDIA Fermi : test des GeForce GTX 470 et GeForce GTX 480

NVIDIA Fermi : test des GeForce GTX 470 et GeForce GTX 480

Imprimer Envoyer
Note des utilisateurs: / 0
MauvaisTrès bien 
Écrit par Pascal Thevenier   
Jeudi, 24 Juin 2010 08:03
Alors qu’ATI a simplement fait évoluer une solution existante pour supporter DirectX 11, NVIDIA a conçu une toute nouvelle architecture pour prendre en charge la dernière API de Microsoft. Créer un nouveau GPU n’est pas une tâche simple. En marge de la conception théorique de la puce, un processeur aussi long que complexe, il existe des impératifs « bassement » matériels (comme la production en série de puces très élaborées) qui peuvent retarder la commercialisation. Arrivées sur le marché plus de six mois après les Radeon HD 5870 et 5850, les actuelles GeForce GTX 470 et 480 reposent sur le GF100 dont la totalité des unités de calcul n’est pas fonctionnelle… Quoi qu’il en soit, NVIDIA propose à présent une nouvelle architecture et DirectX 11 n’est plus l’apanage des Radeon HD 5000. Les GeForce GTX 470 et 480 sont-elles une alternative intéressante ?


Le GF100

Parler d’une nouvelle architecture n’est jamais une chose simple. En effet, les constructeurs aiment jouer avec les termes techniques et ont un don particulier à changer l’appellation d’éléments qui jouent un même rôle. Pour mieux comprendre, il est parfois bon de faire quelques rappels même s’ils sont simplistes. Une scène 3D telle que nous la voyons à l’écran est le résultat de nombreux processus. Il faut mettre en place les objets (composés de polygones) de la scène 3D en position, adapter leur taille (Transform), éclairer (Lightening) placer la camera (Viewport), éliminer les zones non visibles et « aplatir » le tout pour passer en 2D (Rasterization). Toutes ces opérations se passent dans une partie du GPU souvent appelée « Setup Engine », « Graphique Engine » ou encore « core ». C’est d’ailleurs à cette partie « géométrique » du GPU que fait référence la « fréquence du core ». Les pixels visibles sont ensuite texturés (texturing units) et les pixels shaders sont appliqués par les très nombreux processeurs de flux (Streaming processor). Il reste ensuite à appliquer certains effets comme le filtrage anisotropique et l’antialiasing (assuré par la ROPs) pour finir l’image 2D qui sera envoyée en mémoire puis à l’écran.


Jusqu’à présent, tous les GPU utilisaient la même construction : un core, des blocs qui regroupent les processeurs de flux ainsi que des unités de texturing et des ROPs communs. Seule évolution mineure apparue dernièrement avec les Radeon HD 5000, le setup engine embarque deux rasterizers simples qui se comportent cependant comme une seule entité.
Avec 4 blocs principaux (appelés GPC pour Graphics Processing Clusters) qui sont pour ainsi dire des GPU entiers, NVIDIA change radicalement la conception traditionnelle. Le « setup engine » habituel cède sa place à 16 Polymorph Engines (1 pour chacun des 4 Streaming Multiprocessors [SM] qui composent les 4 GPC) et 4 Raster Engines (1 dans chaque GPC). Les Polymorph Engines assurent toutes les opérations géométriques antérieures à la Rasterization. Ces Polymorph Engines peuvent communiquer ensemble via le cache L2.On note l’apparition d’une unité appelée Tesselator, une nécessité pour le support de DirectX 11.
Grâce a ses 4 Raster Engines, le GF100 peut traiter 4 triangles par cycle contre maximum 1 pour toutes les générations précédentes de GPU, ce qui lui confère une puissance géométrique sans précédent. Si les 4 Raster Engines peuvent communiquer ensemble, les pixels issus d’un Raster Engine doivent rester dans le GPC de ce dernier.


Les 16 Streaming Multiprocessors (SM) comptent chacun 32 processeurs de flux à présent appelés Cuda Core (soit 512 au total). Au cœur de chaque SM, on retrouve également 4 unités de texturing (pour un total de 64) dédiées comme sur les dernières Radeon HD (mais l’inverse des GeForce des précédentes générations). Chaque bloc SM comporte un double Scheduleur qui envoie deux instructions par cycle à 5 blocs différents : 2 groupes de 16 Cuda Cores, 1 SFU quadruple, 1 bloc d’une unité Load and Store (LD/ST) et 1 groupe de 4 unités de texturing. Comme dans un processeur classique, le scheduleur vise à utiliser au mieux les unités disponibles. Il faut également mentionner que le scheduleur opère à une fréquence deux fois moins élevée que les unités de traitement, ce qui est logique dans la mesure où certaines instructions nécessitent plusieurs cycles...


Avec Fermi, NVIDIA introduit des caches généralistes en remplacement des registres. Chaque bloc SM dispose d’un cache L1 généraliste programmable de 64 Ko qui se comporte comme un cache de premier niveau standard ou comme une mémoire partagée (un impératif de DirectX 11). Les 768 Ko de cache L2 sont constitués des 128 Ko de cache présents dans les 6 contrôleurs mémoire. Enfin, il faut également souligner que le GF100 est le premier GPU à gérer l’ECC (Error Correcting Code) sur toutes les zones de mémoire : cache L1, L2 et sur la mémoire vidéo (la GDDR5 sera prochainement déclinée en ECC).

Enfin les 48 ROP (Raster Output) répartis en 6 groupes assurent les dernières étapes du traitement et définissent le bus mémoire (ici en 6 x 64 bits, soit 384 bits).


Le GF100

Le GF100 est une véritable prouesse technologique. En effet, il compte 3,2 milliards de transistors, soit plus d’un milliard de plus que le Cypress d’ATI et plus du double de la génération précédente ! Malgré une gravure en 40 nm (assurée par TSMC), la puce occupe 529 mm². A titre de rappel, les GT200 ont une surface de 576 mm² en 65 nm et de 470 mm² en 40 nm. Gravé également en 40 nm, le Cypress a une surface de « seulement » 334 mm². La taille a un impact direct sur les coûts de production. Plus la puce est grande, plus leur nombre sur un wafer est faible. En outre, plus cette puce est complexe, plus le nombre d’unités 100% fonctionnelles est réduit (du moins dans un premier temps de production)… Ceci explique le coût élevé des GeForce GTX 400 mais aussi le nombre réduit de Core Cuda actifs. Même sur la GeForce GTX 480, les 512 cores ne sont pas tous opérationnels.


Les cartes

La GeForce GTX 480 est très imposante avec 270 mm et une alimentation auxiliaire mixte composée d’une prise 6 broches secondée par une 8 broches. Comme la Radeon HD 5870, la GeForce GTX 480 n’entre pas dans tous les boîtiers et une alimentation « solide » est nécessaire. Malgré la présence de 5 heatpipes et d’un ventilateur qui peut atteindre 5000 rpm, le GF100 chauffe énormément et flirte avec les 110°C dans certains tests. Même avec un système de refroidissement évolué, il reste difficile de gérer un TDP de 250 Watts…
La GeForce GTX 480 utilise un GF100 cadencé à 700 MHz dont 480 Cores Cuda fonctionnent à 1401 MHz. Elle dispose d’un bus mémoire 384 bits et de 1536 Mo de GDDR5 à 1848 MHz.


La GeForce GTX 470 est nettement plus compacte avec « seulement » 250 mm de long. Moins volumineux également, le système de refroidissement comporte également 5 heatpipes et utilise aussi la technologie de contact direct avec le GPU. Lors de nos mesures, le ventilateur a atteint 2600 rpm et la température n’a pas atteint les 95°C. Toutefois, le bruit émis par la GeForce GTX 470 est plus dérangeant que celui de sa grande sœur… Une fois de plus, il n’est pas simple de dissiper plus de 215 Watts !
La GeForce GTX 470 se contente d’un GF100 qui mouline à 607 MHz et de 448 Cores Cuda à 1215 MHz. Le bus mémoire est réduit à 320 bits ce qui explique la présence de 1280 Mo. Il s’agit ici de GDDR5 à 1674 MHz.



Configuration de test

Il s’agit du second comparatif réalisé avec notre configuration de tests sous Windows 7 64 bits. Nous avons retenu un total de 10 tests dont 2 benchs et 8 jeux représentatifs de différentes catégories. Etant donné le gain de qualité important apporté par les filtres, tous les tests ont été réalisés avec antialiasing 4x (via l’application ou via le pilote si nécessaire) et toutes les options graphiques au maximum en limitant cependant l’anisotropic filtering à 8x. Côté résolutions, nous avons retenu 1920x1200 et 1680x1050 pour les écrans larges courants et 1280x1024 pour les anciens écrans carrés au format 5/4.


Matériel
  • Intel DP55KG
  • Core i7 870
  • Corsair XMS3-1600 Dominator @ 1333 MHz CL7 2 x 2 Go
  • XFX Radeon HD 5870, Gigabyte Radeon HD 5850 (GV-R585OC-1GD refroidissement spécifique), HIS Radeon HD 5830, Saphire Radeon HD 5670, HIS Radeon HD 5750, HIS Radeon HD 5670, Saphire Radeon HD 5570, Saphire Radeon HD 5450, Saphire Radeon HD 5450, Radeon HD 4850, GeForce GTS 250, GeForce GTS 260 216 SP 55 nm, GeForce GTS 285
  • Western Digital Caviar 500 Go
  • Dell 2407WFP
  • Noctua NU-U12P
  • Lian Li PC-B20B

    Logiciel
  • Windows 7 64 bits avec les mises à jour disponibles en mai
  • Pilotes ATI Catalyst 10.3 et NVIDIA 197.45
  • 3D Mark Vantage
  • Heaven benchmark
  • Street Fighter IV (Benchmrak)
  • Tom Clancy's H.A.W.K
  • World In Conflict
  • Crysis
  • Battle Forge
  • Batman Arkham Asylum
  • Need For Seed Shift
  • S.T.A.L.K.E.R. Call of Pripyat (Benchmrak)


    Performances












    Comme nous l’avions déjà signalé dans le dernier test, les Radeon HD 5000 ont des performances plus « constantes » que les GeForce. En effet, quand NVIDIA soutient massivement un jeu, ses cartes se montrent très performantes. Les dernières GeForce GTX 470 et 480 n’échappent pas à une relative variation des performances… Par contre, l’architecture DirectX 11 de NVIDIA se montre plutôt payante comme en attestent les excellentes performances dans Battle Forge et S.T.A.L.K.E.R. Call of Pripyat par rapport au Radeon mais surtout en comparaison avec la génération précédente. Dans des jeux plus classiques, pour ne pas dire plus anciens, les dernières GeForce se retrouvent « seulement » au niveau des Radeon HD 5870 et 5850… Parler d’un bilan mitigé serait excessif d’autant que les pilotes sont encore jeunes mais il reste des performances, qui bien que très bonnes, sont assez variables.


    Nuisances et consommation

    Nous irons droit au but pour ce chapitre : les GeForce GTX 470 et 480 consomment trop, chauffent énormément et sont bien trop bruyantes ! Dans ce domaine, les Radeon HD 5870 et 5850 font beaucoup mieux…





    Conclusion

    Pour prendre en charge DirectX 11, NVIDIA a conçu une nouvelle architecture. Le GF100 est un véritable monstre avec plus de 3 milliards de transistors ! Avec 4 Raster Engines, les GeForce GTX 470 et 480 sont un peu les premiers GPU « Quad Core » et cette innovation se solde par des performances qui peuvent être impressionnantes. Mais à l’image des premiers processeurs Quad Core, cette avancée n’est pas toujours payante et dans certains jeux, les dernières GeForce GTX ont du mal à distancer les Radeon HD 5870 et 5850. En marge de performances très bonnes voire excellentes (mais « inconstantes »), les GeForce GTX 470 et 480 pèchent surtout par une consommation très élevée, une chauffe vraiment importante et un niveau sonore qui nous rebute. Enfin, les tarifs sont élevés, surtout celui de la GeForce GTX 480… Quand les rumeurs parlent déjà d’une future GeForce GTX 485 avec la totalité des unités fonctionnelles, la pilule ne passe pas vraiment ! Bien que plus modeste, la GeForce GTX 470 est plus intéressante et demeure une alternative viable à la Radeon HD 5870. Bref, si l’architecture Fermi est prometteuse et que les performances sont quand même à l’avenant, il reste le problème des nuisances et des tarifs élevés…
  • Mise à jour le Jeudi, 24 Juin 2010 08:08