Salut à tous,
Aujourd'hui mon 8600GT est arrivé et je voudrais vous communiquer mes premières impressions.
Tout d'abord, veuillez excuser la qualité du français, car c'est mon premier essai dans une langue que je connais depuis peu de temps.
Pour commencer, voilà une photo de ma CG emballé:
La version "Sonic" du Palit 8600GT n'a pas les fréquences de référence, mais comme le nom "Sonic" l'indique, elle est une version overclocké. Les 8600GT références de nVidia ont les fréquences suivantes: 540MHz Core et 700MHz (1400 effectives) pour la mémoire GDDR3. Palit a overclocké cette carte jusqu'à 600/1600MHz, un surplus de plus de 10%, pas du tout négligeable. En plus il faut dire que j'ai trouvé cette CG sur l'internet à un prix de 132 ce qui est en dessous du prix auquel on trouve cette carte, 150, voir plus pour les versions overclockés. Pour ne pas être accusé que je fais de la pub, je vais renseigner ceux qui veulent l'acheter par un MP.
Qu'est qui fait cette CG spéciale? Elle montre des fréquences plutôt près d'un GTS (qui vaut 200+), coute moins que d'autres GT (132) et elle a un système de refroidissement un peu plus spécial:
Un radiateur de cuivre de grosses dimensions repose sur la puce graphique. Il occupe deux places, donc le port qui est à coté de la CG va être rendu inutilisable. Par contre, son design et ses nuisances sonores ne rappellent de Zalman VF700 Cu. Dans les États Unis et Allemagne il circule une variante de cette CG qui a un vrai Zalman VF700 d'aluminium. Même si je ne peux pas apprécier si un VF700 d'aluminium est meilleur qu'un ventirad non-Zalman mais de cuivre, peut-être que Palit a eu ses raisons pour vendre la cette CG avec des spécifications identiques, mais avec des ventirads différents.
Version US
Version Europe
Le bruit généré par cette CG est tout à fait acceptable, même si le "husssh" du ventilateur est parfois audible. Je dirais, subjectivement, que son bruit est égal avec un Zalman VF700 Cu en pleine vitesse. Au niveau de l'efficacité, avec un températude de la chambre d'environ 22°C, la CG est au repos à 34-35°C et monte à 45°C après 30 minutes de "Mother Nature".
Maintenant, allons-y aux tests. Comme je l'ai juste depuis quelques heures, je n'ai pas eu vraiment de faire ses tests approfondies, mais au moins les 3DMarks et mon jeu préféré à ce moment, C&C3: Tiberium Wars.
Configuration de test:
AMD Sempron 2800+ AM2 @2.6GHz
DFI Infinity Ultra M2
2Go G-Skill PK @650MHz 3-3-3-9
DD Seagate 7200.10 250Go 16Mo cache
Palit Sonic 8600GT - nVidia 8600GT
Windows XP SP2 + Forcewave 158.78
Je vais commencer par 3DMark 2006, sans AA/AF:
On observe un score assez intéressant compte tenu de la configuration de test. 3DMark 2006 bénéficie d'un processeur double coeur, et aussi du L2 cache. Mon processeur étant un simple - coeur avec 128ko L2 cache on peut dire que la CG a réussi un score assez bon.
En passant au plus ancien 3DMark 2005, celui-ci varie très peu en fonction du processeur. Cest la CG qui fait tout le travail. Pourtant, ils vont être forcement des différences entre un Core2Duo à 3GHz et mon petit Sempron à 2.6GHz.
Un score de 9300 un 3DMark 2005 nest pas quelque chose de révolutionnaire, je mattendait plutôt à quelque chose environ les dix milles. Suivant les articles trouvés sur lInternet jai vu que un GTS vaut jusquenviron 11000-13000, donc où est-elle la problème ?
Pour mettre un peu plus de stress sur le CG, jai refait le test de 3DMark 2005, mais avec 4X Anti-Aliasing et 16X Anisotropic Filtering, imposés dans les drivers nVidia.
Là je suis impressionné. Une baisse de juste 500 points par rapport au cas précédent est quelque chose dintéressant. Si on prend un peu de recul, pourtant, ce nest pas un score inexplicable : à 1024x768 0xAA, 0xAF la CG est limité par le processeur. Par contre, à la même résolution, mais avec 4xAA et 16xAF on ne peut plus dire que la CG est limité par le processeur. Déjà la qualité de limage appui plus fort sur les 32 shaders du 8600GT, et la CG est poussé à la limite.
Command & Conquer 3 : Tiberium Wars na pas un outil de benchmark intégré. Le jeu limite le nombre des frames par secondé à 30 FPS pour sassurer quil marche bien aussi sur un ordinateur moins puissant.
Jai joué environ 30 minutes en 1280x1024 (le maximum de mon LCD de 17 ) avec les détails « Ultra High » AF x16 (dans les drivers nVidia ) et le AA réglé dans le jeu au niveau 8. Il a résté fluide, aucun rélantissement même quand jai tiré avec le « Ion Cannon ». Il à été constant à 30 fps, la maximum permis par le jeu.
En conclusion, à mon avis, sur un matos qui a un écran de 17-19 pouces et une résolution qui ne dépasse 1280*1024, cette CG va rouler tous les jeux à fond avec 4xAA et 16xAF. Il faut toujours tenir compte du système de test, car sur un X2 où un C2D il peut être encore mieux.
La partie intéressante à mon avis cest loverclockage. Larticle où jai vu la première fois cette CG est écrit par Shamino de VR-zone
http://www.vr-zone.com/print.php?i=4925
Sur ma CG (version européene) jai arrivé facilement à 700MHz core/ 1800MHz mémoire, sans des modifications où changer le ventirad. Par contre, compte tenue que cest mon processeur qui mempêche davoir un bon score, le gain pour le passage de 600/1600 à 700/1800 à été minimum : 9451 points en 3DMark 2005 (face à 9300).
Alors, un CG performante pour son prix qui en plus soverclocke bien, quoi demander plus ? Peut être un demande à AMD quil tient son parole de mettre en vente des Quads (Phenom X4) en juillet/août, parce que sinon, le Q6600 révision G0 (90W 65nm) peut devenir assez intéressante.