Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3190 connectés 

  FORUM HardWare.fr
  Hardware
  Carte graphique

  [Topic] X1900 vs GeForce 7 : expériences

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

[Topic] X1900 vs GeForce 7 : expériences

n°4896032
Nestid
Posté le 22-06-2006 à 14:19:22  profilanswer
 

Je me suis longtemps posé la question de savoir si tout ce qu'on raconte sur les ATI et les NVIDIA est vrai ou pas.
Evidemment les possesseurs de ATI disent souvent que c'est le mieux, et pareil pour NVIDIA.  
 
J'ai donc franchi le pas et j'ai acheté une ATI X1900XT que j'ai comparée à mon SLI de 7800GTX.
 
Etant possesseur des 2, j'ai pu faire une comparaison non pas théorique (je suis pas aussi balaise que Damien), non pas avec des benchmarks (peu représentatifs de la réalité en fait), mais avec des jeux et des tests de performances que j'ai l'habitude d'utiliser. Les jeux ne sont pas forcément les derniers sortis mais je fais avec ce que j'ai sous la main, parfois des démos même. La différence est que j'ai l'habitude de jouer avec certains jeux, et je sais voir si c'est plus fluide ou pas.
 
J'ai essayé d'être assez objectif, mais je vous donne mon avis personnel, ce n'est qu'un résumé de mon expérience.
Voilà ce que je pense des essais réalisés avec les Catalyst 6.5 et les Forceware 91.31:
 
- la qualité d'affichage (subjective) : j'ai l'impression que la qualité des couleurs est un poil meilleure chez ATI, parce que j'ai eu la possibilité de tester l'un après l'autre assez rapidement. Il est clair que la différence est tellement faible qu'à moins d'avoir 2 pc l'un pas loin de l'autre, elle restera invisible. Excepté au démarrage de Windows, la police affichée sur la ATI pour les informations système comme sur la fenêtre noire de windows était toute pourrie (aliasée serait le mot si c'était de la 3D). Mais bon ca dure 30s et après on n'y pense plus...
 
- le filtrage Anisotropique ATI est meilleur, il existe un "fourmillement" chez NVIDIA, visible en particulier sur le sol dans Guild Wars (il existe aussi chez ATI mais il faut vraiment le chercher pour le voir). A part ce fourmillement (qui peut être gênant si on est tatillon), peu de différences notables. Il est à noter que je suis en HQ avec toutes les optimisations désactivées, et OUI le fourmillement existe chez NVIDIA !
 
- le filtrage Antialiasing est meilleur chez NVIDIA je trouve. Chez ATI il y a une sorte de "pixelisation", comme si l'aliasing était remplacé par un aliasing beaucoup plus petit, mais visible quand même (pas tout le temps mais assez souvent à partir du moment où je l'ai remarqué), et presque invisible chez NVIDIA (j'ai bien regardé aux mêmes endroits). Peut-être que les possesseurs d'ATI seulement ne le remarquent pas par manque de comparaison ? Cela expliquerait peut-être les meilleures performances d'ATI avec AA activé ??? Je ne sais pas, néanmoins je l'ai remarqué dans plusieurs jeux, que l'AA soit activé dans le CCC ou dans le jeu.
 
- les bugs dans les jeux : j'ai joué à qques jeux et j'avoue que je n'ai trouvé peu de différences, et peu de bugs aussi, de part et d'autres. Il y en a qques-uns quand même, pas aux mêmes endroits, pour chaque constructeur. Le mythe des drivers ATI pourris c'est bien du passé. Peut-être un peu plus de textures qui "clignottent" chez NVIDIA...
 
- Les drivers en pratique: j'ai été impressionné par la lourdeur du CCC de chez ATI, j'ai presque 100Mo de mémoire occupée en plus au démarrage de Windows par rapport aux Forceware. Par contre il faut reconnaitre que le CCC est plus pratique que le nouveau panneau de NVIDIA (pas assez d'accessibilité aux différents paramètrages je trouve), aussi pratique que l'ancien (un gros progrès par rapport aux débuts du CCC). Un seul reproche (à part sa lourdeur) : la gestion des profils voulus par jeu (sur celui-ci je veux du AA2x, celui-ci du AA4x, etc...) n'est pas évidente, loin de là, alors que sur les Forceware c'est très partique.
 
- la maturité des drivers : j'ai utilisé 3 drivers pour la ATI, les 6.5, le chuck Patch pour Oblivion et le 6.5 HotFix pour les mobos NF4. A chaque fois il y a qque chose d'amélioré, mais qque chose qui se dégrade. Par exemple le chuck patch améliore nettement les perfs d'Oblivion, mais quand j'ai essayé le hotfix j'ai non seulement perdu le HDR + AA, mais j'ai eu une dégradation importante des fps sous Oblivion (presque injouable). ATI devrait rapidement sortir une nouvelle version comprenant tous ses "patches", à mon avis. On s'y perd un peu...
 
- les performances : très bonnes chez ATI, la X1900 est une excellente carte, rien à redire. Il est clair que par rapport à un SLI de 7800GTX elle est en dessous, mais pas de beaucoup, voire même des fois au dessus (AOE3 par exemple). J'ai fait tous mes tests en AA4x AF16x, HDR quand je pouvais avec le AA. Certains jeux présentent qques saccades qui s'atténuent avec la ATI, mais je suppose que les 512Mo de mémoire de la ATI y sont pour qque chose.

  • Oblivion : 35 fps avec le SLI AA4x AF16x, 30 fps avec la ATI AA2x AF16x HDR,
  • Fear : 95fps avec le SLI AA4x AF16x (min 43fps), 68fps avec la ATI (min 30fps),
  • Doom 3 (timedemo 1) : 102 fps avec le SLI AA4x, 88fps avec la ATI AA4x,
  • Doom 3 (jeu) : 60fps (presque tout le temps) avec le SLI AA4x, des baisses régulières à 45fps avec la ATI AA4x,
  • AOE 3 : 52 fps avec AA4x AF16x HDR, 62 fps avec la ATI AA4x AF16x HDR,
  • Quake 4 : 42 fps avec le SLI AA4x, 26 fps avec la ATI AA4x (je parle ici d'un test EN JEU, pas un timedemo, et sur un passage qui fait bien ramer),
  • TR : Legend : 27 fps avec le SLI tout à fond, next gen, 23 fps avec la ATI (idem).


- le HDR + AA : ok dans les 2 cas sur AOE3 ou sur Far Cry, j'étais curieux de voir ce que ça donnait dans Oblivion. Et moi qui ne peux plus jouer sans AA (je préfère désactiver le HDR qui est surutilisé dans la plupart des cas, à mon avis), j'ai été agrèablement surpris par le cumul des 2 technos, mais aussi et surtout par les performances (presque aussi jouable en HDR + AA2x qu'en AA 4x !). Mes déceptions : la démo de GRAW n'accepte toujours pas l'AA, Splinter Cell 3 n'accepte pas l'AA lorsqu'on est en SM3 et Les Chroniques de Riddick ne proposent pas l'option SM2.0++ sur la ATI alors que sur la NVIDIA c'est possible (ca donne une petite claque aux perfs mais ca reste très jouable).
 
- l'overclock : très facile sur les 7800 avec les drivers NVIDIA ou Rivatuner, également facile avec l'overdrive ATI jusqu'à que les limites soient atteintes. Après c'est quand même la galère (ATI Tool c'est pas le top). Par contre l'autodetection des fréquences est pas mal dans les 2 cas (mais je crois que NVIDIA a sorti cette option de la série 9x, à confirmer):

  • Les drivers NVIDIA m'ont fait monter à 485/1305 (au lieu de 430/1200), mais c'est stable sans artéfacts à 475/1300,
  • les drivers ATI m'ont fait monter à 670/800 (au lieu de 625/725), mais j'ai eu des plantages sous certains jeux. J'ai redescendu à 655/800 et c'est passé.

Je n'ai pas voulu m'embarquer dans ATITool V25 b14 pour dépasser ces limites (c'était pour me faire une idée de la capacité d'O/C).
Il me semble que les gains sur la ATI dépendent plus de la mémoire que du Core, alors que sur la NVIDIA c'est plus équilibré. Mais passer de 625/725 à 655/800 sur la ATI a été moins intéressant en performances que passer de 430/1200 à 475/1300 sur mon SLI (donc 2 cartes O/C).
 
- La chaleur : un SLI ca chauffe, c'est certain. Mais mes 2 7800GTX sont montées avec des NVSilencer et ca atteint rarement 80°C. Avec la ATI ca a atteint 92°C, mais en plus ca réchauffe l'intérieur du boitier (j'ai pris 4°C sur mon processeur). Le problème des ATI X1900 est qu'il n'existe pas de moyen idéal pour les rafraichir en silence, excepté le watercooling. En air cooling, le X2 apparait comme le meilleur choix (mais garde la chaleur dans le boitier). La seule alernative est la IceQ3 de chez HIS, mais ca fait cher du ventilo !!!
 
- le bruit : je vais parler des ventilateurs de base. ATI a fait ce que j'ai pu entendre de pire, quelle que soit la catégorie de ventilateur dont on parle (CPU, GPU, boitier, etc...). Imaginez un ventilateur 80cm noname attaché par des vis bien rigides à un boitier noname, et vous pouvez imaginer le bruit de moteur amplifié que vous aurez. Ben ATI c'est ça. Peut-être que je n'ai pas eu de chance ? Mais vu les commentaires unanimes sur le bruit, j'en doute... En tout cas rien à voir avec le ventilateur de base de la 7800, c'est du bonheur comparé à ça.
 
- divers : la X1900 que j'ai de chez Sapphire a un problème avec le système de fixation des cartes PCI du boitier 3D Aurora. Je n'arrive pas à le clipser correctement. La carte tient parfaitement, mais cela laisse un jeu sur les autres cartes qui ne sont pas complètement coincées.
 
 
Ma conclusion :
 
un SLI de 7800 vaut entre 400 et 500€, une 7950GX2 presque 600€ et une X1900 on en trouve à 380€. Le rapport performances/prix va en faveur de la carte ATI (la X1900XT, pas la XTX). C'est quand même la carte qui permet de jouer dans les meilleures conditions à tous les jeux (mieux que la 7900GTX puisque elle gère le HDR + AA). Enfin, si le bruit n'est pas un problème majeur chez vous, ou si vous êtes prêt à changer le système de refroidissement.
 
Si vous avez déjà une 7800GT/GTX voire une 7900GT, le meilleur choix pour vous est d'essayer de trouver une carte d'occasion et de faire un SLI. Cette technologie est vraiment au point et permet de gagner bcp en puissance. Même si on ne peut pas activer le HDR + AA, cela ne vous décevra pas.  
 
 
Si vous avez des commentaires, n'hésitez pas à enrichir ce topic... :)


Message édité par Nestid le 22-06-2006 à 14:57:31
mood
Publicité
Posté le 22-06-2006 à 14:19:22  profilanswer
 

n°4897067
o_BlastaaM​oof_o
Posté le 22-06-2006 à 22:17:49  profilanswer
 

Un SLI de 7800 GTX à 400/500 € ?! Tu t'avances un peu je crois...

n°4897070
Nestid
Posté le 22-06-2006 à 22:19:11  profilanswer
 

D'occaze... :)

n°4897081
o_BlastaaM​oof_o
Posté le 22-06-2006 à 22:24:01  profilanswer
 

Mais la X1900 c'est 380 neuve... Et même 330 en Allemagne.

n°4897098
o_BlastaaM​oof_o
Posté le 22-06-2006 à 22:30:24  profilanswer
 

Personnellement je suis passé d'un SLI de 7800 GT à une X1900XT... Et je préfère largement la X1900 !!
 
Les jeux sont plus fluides : F.E.A.R passe mieux, AoE III est devenu parfaitement jouable en HDR alors qu'avant c'était la cata.
 
Au niveau du bruit, je m'en moque, je passe toujours tout sous water.
 
Pour ce qui est de l'overclocking, c'est plus pratique chez nVidia mais un ATI Tool bien configuré c'est tout aussi bien !
 
Et surtout, avec ma X1900 je m'amuse. Par exemple, j'ai fait ça :
 
http://img220.imageshack.us/img220/1023/x190059zq.jpg
 
Chez nVidia ça aurait été impossible : ils ont décidé depuis les GF6 d'utiliser du 2 mm pour les systèmes de fixation. Et bon courage pour trouver des vis et des écrous en 2 mm !!

n°4897099
zbineulong​time
☱☱☱☱☱☱☱☱☱☱☱☱
Posté le 22-06-2006 à 22:30:30  profilanswer
 

Voici mon expérience :
 
J'ai eu une 7900GTX, puis une X1900XT et enfin une X1900XTX.
 
J'ai donc commencé par une 7900GTX car j'ai pu avoir un super prix dessus. J'ai ensuite voulut passer chez ATI pour voir ce que ça donnait coté perf et aussi pour l'histoire du AA + HDR. Pour finir, j'ai pris une XTX car je suis un adepte de l'overclocking et mon ex XT ne montait pas assez à mon goût.
 
 
Sans faire de compte rendu de la qualité du tiens, je dirais que les performances entre une 7900GTX et une X1900XT(X) sont proches mais vont tout de même en faveur de la X1900.
Ceci s'applique à mon cas mais pas forcément aux autres, car j'ai pu remarquer que la GTX était plus véloce sur les jeux un peu plus anciens, alors que la X1900 de par son architecture me semble plus à l'aise sur les jeux récents qui utilisent les pixel shaders en particulier (FEAR, Oblivion, ...).
 
Donc voilà, coté perf dans les jeux comme dans les benchs, la X1900 me donne plus de satisfaction que sa rivale de chez Nvidia. De plus, la qualité des filtres donne un avantage de plus à l'ATI (m'enfin comme tu le dis il faut vraiment avoir l'oeil pour le voir).
 
La seule chose qui est vraiment différente et perceptible, c'est les systèmes de refroidissement. En effet, j'ai trouvé le ventirad de la 7900GTX tout simplement monstrueux (énorme, performant et très très silencieux). Par contre, la X1900 est abominable à ce niveau la (ça chauffe beaucoup et c'est la soufflerie). Mais personellement ça ne me change rien car je suis sous watercooling.
 
Pour finir, coté o/c, la X1900 a plus de potentiel et on peut modifier les voltages à la volée via ATI tools, alors que sur la GTX il faut vmoder la carte.
 
 
En conclusion :
 
Avantage à la X1900 pour ses performances dans les jeux récents, son prix (plus bas que sa rivale), la qualité des filtres et sa capacité à activer AA + HDR. Le CCC ne me dérange pas et est assez convivial. Possibilité de modifier les voltages à la volée via ATI tool.
Pour la 7900GTX, ça reste une excellente carte, avec des perfs un peu en retrait sur les jeux récents par rapport à la X1900 mais dotée d'un ventirad excellent.
 
 
Edit : à titre indicatif, voici mes scores 3DM05 obtenus après o/c des cartes :
 
- 7900GTX : 10900
- X1900XT : 11100
- X1900XTX : 12500 (mais la c'est pas parlant car changement de cpu).


Message édité par zbineulongtime le 22-06-2006 à 22:35:02

---------------
Zbin
n°4898140
ftp381
ça fûme!
Posté le 23-06-2006 à 15:26:19  profilanswer
 

Sympa vos témoignages.
Ils confirment les benchs ("sérieux" ) et montrent aussi que la carte qui tue tout n'est pas encore arrivée (même si la GX2 roxxe elle garde les fourmillements et l'absence AA+HDR).


---------------
"Bite my shiny metal ass."
n°4898154
dami1stm
Eco-coco φ
Posté le 23-06-2006 à 15:31:08  profilanswer
 

ftp381 a écrit :

Sympa vos témoignages.
Ils confirment les benchs ("sérieux" ) et montrent aussi que la carte qui tue tout n'est pas encore arrivée (même si la GX2 roxxe elle garde les fourmillements et l'absence AA+HDR).


 
Encore cette histoire de fourmillements... :pfff:  
Désolé mais en mode haute qualité il n y a pas de fourmillements et la Gx2 est un peu faite pour ça... [:airforceone]


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°4898179
o_BlastaaM​oof_o
Posté le 23-06-2006 à 15:38:28  profilanswer
 

Sauf qu'en mode qualité tu perds 10% de perfs... Et du coup les tests des sites de hardware deviennent caduques.

n°4898185
god is dea​d
Demain, j'arrête de poster.
Posté le 23-06-2006 à 15:46:10  profilanswer
 

ftp381 a écrit :

Sympa vos témoignages.
Ils confirment les benchs ("sérieux" ) et montrent aussi que la carte qui tue tout n'est pas encore arrivée (même si la GX2 roxxe elle garde les fourmillements et l'absence AA+HDR).


J'ai aucun fourmillement sur ma 7800gs :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 23-06-2006 à 15:46:10  profilanswer
 

n°4898205
Nestid
Posté le 23-06-2006 à 15:54:53  profilanswer
 

ftp381 a écrit :

Sympa vos témoignages.
Ils confirment les benchs ("sérieux" ) et montrent aussi que la carte qui tue tout n'est pas encore arrivée (même si la GX2 roxxe elle garde les fourmillements et l'absence AA+HDR).


C'est un peu le problème, quelle que soit la CG haut de gamme (7900GTX, X1900XTX ou 7950GX2), elle n'aura pas l'unanimité parce qu'aucune de ces cartes n'est parfaite. Il faut donc prendre celle qui correspond le mieux à nos besoins (silence, HDR, chaleur, etc...)
 
Et là c'est chacun son opinion, personne n'aura raison. Et ce topic est fait pour donner son retour d'expérience après comparaison, en mettant en avant ce qui a plu et ce qui a déplu...

n°4899374
ftp381
ça fûme!
Posté le 24-06-2006 à 11:19:26  profilanswer
 

Nestid a écrit :

C'est un peu le problème, quelle que soit la CG haut de gamme (7900GTX, X1900XTX ou 7950GX2), elle n'aura pas l'unanimité parce qu'aucune de ces cartes n'est parfaite. Il faut donc prendre celle qui correspond le mieux à nos besoins (silence, HDR, chaleur, etc...)
 
Et là c'est chacun son opinion, personne n'aura raison. Et ce topic est fait pour donner son retour d'expérience après comparaison, en mettant en avant ce qui a plu et ce qui a déplu...


 
+1
et pour les fourmillements c'est juste une réalité chez NVidia et pourtant malgré ça j'en ai une qui globalement me satisfait.
ce que j'apprécie moins c'est quand ça saccade sur certains jeux (Oblivion pour pas le nommer) et que je sais que j'ai une carte déjà haut de gamme.
et je vois que le TRES haut de gamme peut aussi s'accader (ou fourmiller) et lorsque l'on met 600€ et plus dans la partie graphique (hors écran) on aimerait que ce soit nickel.
 
ce topic a le mérite d'informer sur certaines limitations et sur les perf observées : très utile pour ceux qui veulent passer d'une 6600GT à du haut (7900GT, X1800) ou très haut de gamme (X1900, 7900GTX, 7950GX2, SLI ou CF).


---------------
"Bite my shiny metal ass."
n°4899430
Nestid
Posté le 24-06-2006 à 12:04:06  profilanswer
 

Les saccades sous Oblivion c'est peut-être les 256Mo de mémoire qui limitent, donc à chaque chargement de textures ca saccade...
 
Idem pour TR : Legend (en Next Gen), le framerate est plus élevé avec mon SLI qu'avec la X1900, pourtant les saccades sont un peu plus fréquentes. Au final c'est plus agréable avec la X1900.
 
Si qqu'un avec une 7900GTX ou une 7950GX2 (qui a 2x 512Mo) pouvaient donner leur avis là-dessus, ca serait sympa :jap:

n°4899471
o_BlastaaM​oof_o
Posté le 24-06-2006 à 12:26:25  profilanswer
 

Pour Oblivion pensez à dézipper les fichiers compressés du jeu.

n°4899498
zbineulong​time
☱☱☱☱☱☱☱☱☱☱☱☱
Posté le 24-06-2006 à 12:35:56  profilanswer
 

Nestid a écrit :

Les saccades sous Oblivion c'est peut-être les 256Mo de mémoire qui limitent, donc à chaque chargement de textures ca saccade...


 
Non même avec une X1900XTX et 512mo ça arrive que ça saccade. Le jeu est comme ça, il faut tweaker le .ini.
 

Nestid a écrit :


Si qqu'un avec une 7900GTX ou une 7950GX2 (qui a 2x 512Mo) pouvaient donner leur avis là-dessus, ca serait sympa :jap:


 
Avec la 7900GTX même topo.


---------------
Zbin
n°4899647
sniper 46
Posté le 24-06-2006 à 13:45:49  profilanswer
 

Pour les problèmes de saccades sous Oblivion, c'est du au manque d'optimisation du jeux ... même en 1024*768 et que je suis a 50fps ... j'ai défois des petites saccades a 50fps ...
1280*1024 tout à fond, + hdr .... 28/32 fps, avec toujours des petites saccades, mais très rarement, c'est surtout une fois dehors et que l'on bouge assez vite, pourtant aucune baisse des fps lors des saccades ...
 
pour info : sli de 7900gt extrem edition xfx (@ 520/750.)

n°4899665
Pierrolelo​up
Posté le 24-06-2006 à 13:57:02  profilanswer
 

j'avait de meilleurs fps sous oblivion avec juste une x1900xt. et en activant le hdr et l'aa.
 
mais ma carte fonctionne plus sniff.

n°4899672
zbineulong​time
☱☱☱☱☱☱☱☱☱☱☱☱
Posté le 24-06-2006 à 13:59:05  profilanswer
 

Cherchez pas, avec une 7900GTX @715/900 j'avais des saccades ... en 1280x1024.
 
Avec ma X1900XTX @735/865 c'est plus fluide (surtout avec les filtres) mais il y a autant de saccades.
 
Donc oblivion n'est pas vraiment un bon exemple pour comparer les cartes.


---------------
Zbin
n°4899841
shino209
Posté le 24-06-2006 à 15:53:15  profilanswer
 

Merci pour tes tests Nestid.
C'est cool de ta part...
 
Moi j'me suis déjà tourné vers la X1900XT après être passé par une 7900GT.

n°4899900
Vince_le_k​iller
Posté le 24-06-2006 à 16:46:48  profilanswer
 

shino209 a écrit :

Merci pour tes tests Nestid.
C'est cool de ta part...
 
Moi j'me suis déjà tourné vers la X1900XT après être passé par une 7900GT.


 
Oui merci Nestid pour ces tests  :jap:  
 
Moi je vais bientot acheter une X1900XT vus que sont prix a bien baissé  :p  
 
http://www.materiel.net/details_GV-RX19T512VB-RH.html
 
399€ ça va!  :)


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  Carte graphique

  [Topic] X1900 vs GeForce 7 : expériences

 

Sujets relatifs
Geforce 7950 gx2 pour résolution 1280 * 960 ??Problème de flash de GeForce FX 5200.
Différence entre GeForce 7600 GT de NVIDIA ou SPARKLE ou LEADTEKChanger ma GeForce 6200 SE qui rame !!
pb configuration sortie tv geforce FX 5100[aide] Geforce 6200turbocache sparkle
[aide] Geforce 6200turbocache sparkleGeforce 7900 GTX (PNY) et A8N SLI Deluxe ? Ca passe ?
taille GeForce 7800 GS agpmsi geforce 6600 gt vtd 128 mb
Plus de sujets relatifs à : [Topic] X1900 vs GeForce 7 : expériences


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR