Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2856 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  469  470  471  ..  485  486  487  488  489  490
Auteur Sujet :

[Nvidia GeForce série 7] => La fin des GF7 en Avril?

n°4891194
Nestid
Posté le 20-06-2006 à 07:48:59  profilanswer
 

Reprise du message précédent :
Hier j'ai acheté une X1900XT pour tester le HDR + AA, et peut-être remplacer mon SLI de 7800GTX si l'essai était concluant.
 
Ben il ne l'est pas !  
 
Finalement on s'habitue à la puissance du SLI, et une X1900 manque de patate dans certains jeux : Quake 4 et FEAR en particulier.  
Le HDR + AA est pas trop mal, mais quand on est habitué à un certain framerate, la chute de performances ne passe pas inaperçue. Elle tournait aux fréquences d'une XTX, j'ai pas poussé plus loin, je suis pas à 5% près pour me faire une opinion.
Les 512Mo de mémoire apportent peut-être un plus au niveau des micro-saccades pendant le jeu, mais bon...
Par contre elle décoiffe par rapport à une 7800GTX seule, là y a pas photo.
 
Autre point : le bruit et la chaleur. C'est catastrophique, là aussi par rapport à mon SLI de 7800 montées avec NVSilencer. Si j'avais décidé de garder la carte j'aurais peut-être monté un VF900, mais vu que les perfs m'ont décu, donc je ne vais pas le faire.
 
Dernier point : la qualité d'image. Peut-être que certains trouvent une différence sur un screenshot, mais dans un jeu c'est carrément pas visible. Il y a certains bugs chez NVIDIA, d'autres chez ATI, mais globalement on peut dire que c'est du pareil au même en qualité d'image (je suis en HQ chez NV).
 
Conclusion : je fais jouer mon délai de rétractation de 7 jours, sauf si qqu'un est intéressé par une X1900XT Sapphire à 365€ sur Paris/RP... (je préfère perdre un peu d'argent que d'attendre 30 jours mon remboursement donc s'il y en a qui veulent une carte qui a 1 jour, libre à vous :D ).
 
Edit :  
pour les perfs sous Quake 4, je parle bien des perfs dans le jeu, pas dans un benchmark.  
En résumé ca colle mieux à ICI qu'à ICI, où les X1900 font mieux qu'un SLI de 7800. Quand on joue la réalité est tout autre (en particulier les fps mini sont < 30 fps alors que sur mon SLI ca reste > 40 fps). Je ne comprends pas pourquoi mais c'est ainsi chez moi et chez PPC ils ont remarqué la même chose...
Et ce n'est pas parce que j'ai mal installé ma carte, j'ai fait d'autres tests me montrant que mon installation est correcte (3DMark 2006, FEAR, et Doom 3 timedemo pour OpenGL).

Message cité 1 fois
Message édité par Nestid le 20-06-2006 à 08:17:24
mood
Publicité
Posté le 20-06-2006 à 07:48:59  profilanswer
 

n°4891216
Honglobert
Posté le 20-06-2006 à 08:19:44  profilanswer
 

Nestid a écrit :

Hier j'ai acheté une X1900XT ...

Merci pour ce témoignage intéressant. J'étais prêt à prendre une X1900XT le mois dernier, il semble que la GX2 soit arrivée à temps :)
 
As tu essayé Oblivion ? d'après les divers test du net (Anandtech entre autres) les cartes Ati seraient plus à l'aise. Inutile de préciser que même avec une GX2 ce n'est toujours pas fluide (1280x1024, textures 2048, curseurs au max et pas d'ombres, AF 8x). J'imagine qu'un peu de CPU power supplémentaire ne lui ferait pas de mal  :sarcastic:  
 
Avec cette carte, j'ai redécouvert Battlefield2 : avant (avec une 6800GT) je jouais en 1280x1024 "brut", et maintenant (GX2) les réglages sont en 1600x1200, AA 4x et AF 16x... et c'est fluide. Très content de mon achat pour le moment. Et il vaut mieux, vu le prix !!! :ouch:  

n°4891223
Nestid
Posté le 20-06-2006 à 08:39:27  profilanswer
 

Je pense que le CPU a une importance majeure dans Oblivion, la plupart du temps quand les fps baissent, le fait de passer de AA4x en 2x ne change rien (ce qui montre qu'autre chose que la CG limite).
 
D'ailleurs, j'ai sauvegardé spécialement un lieu qui fait ralentir les performances (ca me sert de point de comparaison).
Avec HDR + AA2x sur la ATI, je suis à 30fps alors qu'avec mon SLI je suis à 35fps en AA4x. Les combats ne ralentissent pas plus avec le HDR + AA que sans.
 
Dans ce jeu, je pense que ATI est mieux...

n°4891440
rienfaisan​ce
Posté le 20-06-2006 à 10:56:23  profilanswer
 

Honglobert a écrit :

Merci pour ce témoignage intéressant. J'étais prêt à prendre une X1900XT le mois dernier, il semble que la GX2 soit arrivée à temps :)
 
As tu essayé Oblivion ? d'après les divers test du net (Anandtech entre autres) les cartes Ati seraient plus à l'aise. Inutile de préciser que même avec une GX2 ce n'est toujours pas fluide (1280x1024, textures 2048, curseurs au max et pas d'ombres, AF 8x). J'imagine qu'un peu de CPU power supplémentaire ne lui ferait pas de mal  :sarcastic:  
 
Avec cette carte, j'ai redécouvert Battlefield2 : avant (avec une 6800GT) je jouais en 1280x1024 "brut", et maintenant (GX2) les réglages sont en 1600x1200, AA 4x et AF 16x... et c'est fluide. Très content de mon achat pour le moment. Et il vaut mieux, vu le prix !!! :ouch:


 
 
avec une X1900XT , clairement en 1280X1024 + filtre, c est loin de sacadé (avec un CPU decent bien sur). la decu dessus pas de doute, les X1900 en ont sous le capots  :o

Message cité 1 fois
Message édité par rienfaisance le 20-06-2006 à 10:59:14
n°4891482
rycky
Posté le 20-06-2006 à 11:03:16  profilanswer
 

Pour les possesseurs de config AGP, la dispo de 7600 (GS/GT) semble se préciser:
 
http://www.matbe.com/actualites/13 [...] -7600-agp/

n°4891520
Nestid
Posté le 20-06-2006 à 11:16:17  profilanswer
 

rienfaisance a écrit :

avec une X1900XT , clairement en 1280X1024 + filtre, c est loin de sacadé (avec un CPU decent bien sur). la decu dessus pas de doute, les X1900 en ont sous le capots  :o

Pour une "mono-carte", c'est clair ! Je dirais la meilleure, même...
Mais qu'est-ce que ça chauffe (plus que mon SLI on dirait), et qu'est-ce que ça fait du bruit !!!

n°4891526
god is dea​d
Demain, j'arrête de poster.
Posté le 20-06-2006 à 11:18:50  profilanswer
 

Nestid a écrit :

Pour une "mono-carte", c'est clair ! Je dirais la meilleure, même...
Mais qu'est-ce que ça chauffe (plus que mon SLI on dirait), et qu'est-ce que ça fait du bruit !!!


Me semble que la 7900gtx est globalement devant la 1900xt :o
Après c'est sûr que niveau rapport qualité/prix la x1900xt est plus intéressante, même si le côté silence,conso de la 7900gtx est attrayant.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°4891622
Nestid
Posté le 20-06-2006 à 11:51:03  profilanswer
 

Personnellement, les fonctionnalités et les performances de la X1900 par rapport à la 7900GTX font que je préfère la X1900 (au pire on met un VF900).
Côté perf par contre, rien ne vaut un SLI ou un Crossfire.
 
Mais la conso, le bruit et la chaleur pour le Crossfire (donc 2 X1900 qui chauffent à mort) ainsi que les mobos ATI (jusq'à présent), non merci !

n°4891626
asmomo
Posté le 20-06-2006 à 11:53:06  profilanswer
 

Le rapport puissance/prix est bon parce qu'ATI a dû massacrer ses prix pour arriver à en vendre.

n°4891646
rienfaisan​ce
Posté le 20-06-2006 à 11:57:27  profilanswer
 

god is dead a écrit :

Me semble que la 7900gtx est globalement devant la 1900xt :o


 
sans les filtres [:aloy] , ... oui
 
 
ATI possede le monde [:magnasuprema]


Message édité par rienfaisance le 20-06-2006 à 11:58:07
mood
Publicité
Posté le 20-06-2006 à 11:57:27  profilanswer
 

n°4891762
rycky
Posté le 20-06-2006 à 12:54:11  profilanswer
 

Sans les filtres la X1900 est clairement derrière, avec, en moyenne elle ne fait que jeu égal [:spamafote]
 
http://www.hardware.fr/medias/photos_news/00/17/IMG0017225.gif
 
http://www.hardware.fr/medias/photos_news/00/17/IMG0017226.gif

Message cité 2 fois
Message édité par rycky le 20-06-2006 à 12:54:32
n°4891766
rienfaisan​ce
Posté le 20-06-2006 à 12:55:42  profilanswer
 

rycky a écrit :

Sans les filtres la X1900 est clairement derrière, avec, en moyenne elle ne fait que jeu égal [:spamafote]
 
http://www.hardware.fr/medias/phot [...] 017225.gif
 
http://www.hardware.fr/medias/phot [...] 017226.gif


 
 
 
ca tombe bien. ya plus aucun idiot qui joue sans les filtres  :o  
CQFD
 
edit: non pis , c'est cool , depuis que j'ai mon ATI , je n'ai plus de shimmering sur les texture du sol  :jap:


Message édité par rienfaisance le 20-06-2006 à 12:59:48
n°4891773
rycky
Posté le 20-06-2006 à 12:57:43  profilanswer
 

C'est clair surtout avec des cartes de cette trempe mais bon avec le panel de jeux actuels c'est kifkif entre 7900 et X1900...

n°4891779
rienfaisan​ce
Posté le 20-06-2006 à 12:59:30  profilanswer
 

rycky a écrit :

C'est clair surtout avec des cartes de cette trempe mais bon avec le panel de jeux actuels c'est kifkif entre 7900 et X1900...


 
 
oui , peut etre un chouillat au dessus dans certains jeux , car HDR + MSAA est possible sur X1900. je dis pas qu on peut jouer en 1600 , mais un petit 1152 x 864 voir 1280x960 HDR+4X doit etre faisable  
au moins, on a le choix  :jap:  

n°4891802
rycky
Posté le 20-06-2006 à 13:06:22  profilanswer
 

C'est sur, à mon sens c'est le plus gros manque des GF7 dans la classe du très haut de gamme. Il leur reste leur très faible conso/dégagement thermique et silence d'origine qui a son importance pour certains  ;)

Message cité 2 fois
Message édité par rycky le 20-06-2006 à 16:09:43
n°4891806
god is dea​d
Demain, j'arrête de poster.
Posté le 20-06-2006 à 13:07:55  profilanswer
 

Aprés tout dépend des jeux utilisés, c'est sûr que si tu choisis 4 jeux opengl sur 6 jeux au total... ou inversement :o  
Mais sur un panel très large, la 7900gtx est globalement un poil meilleure je pense.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°4891816
rienfaisan​ce
Posté le 20-06-2006 à 13:10:09  profilanswer
 

rycky a écrit :

C'est sur, à mon sens c'est le plus gros manque des GF7 dans la classe du très haut de gamme. Il leur reste leur très faible conso/dégagement thermique et silence d'origine qui a sont importance pour certains  ;)


 
 
les modeles X1900 ICEQ ont remedier au bruit. pour la chaleur , bah , ces derniers temps CPU et GPU n'en ont pas trop fait l'economie alors bon ....
note que ma tour est ouverte de toute facon. mon pauvre atlhon a 1.55V chaufferait trop. (58° en  full la, le bestiau  :o )

n°4891820
Nestid
Posté le 20-06-2006 à 13:11:21  profilanswer
 

rycky a écrit :

C'est sur, à mon sens c'est le plus gros manque des GF7 dans la classe du très haut de gamme. Il leur reste leur très faible conso/dégagement thermique et silence d'origine qui a sont importance pour certains  ;)

+1
En ce moment, chacun choisit sa priorité : fonctionnalités ou conso/bruit (plutôt conso parce que bruit ça se corrige), les performances étant un coup l'un, un coup l'autre. C'est vraiment HDR + AA qui manque à NVIDIA, leurs cartes seraient vraiment au dessus dans ce cas...

n°4892056
Stef.D
hip..
Posté le 20-06-2006 à 14:40:27  profilanswer
 

rycky a écrit :

Sans les filtres la X1900 est clairement derrière, avec, en moyenne elle ne fait que jeu égal [:spamafote]
 
http://www.hardware.fr/medias/phot [...] 017225.gif
 
http://www.hardware.fr/medias/phot [...] 017226.gif


 
surtout que là c'est comparé à la X1900XTX...

n°4892266
rycky
Posté le 20-06-2006 à 16:12:21  profilanswer
 

Oui enfin la 7900GTX est bien la concurrente de la X1900XTX, la 7950GX2 est à mon sens sans équivalente chez Ati à l'heure actuelle (que ce soit niveau perf ou prix [:spamafote] )

n°4894342
dami1stm
Eco-coco φ
Posté le 21-06-2006 à 17:10:21  profilanswer
 

Des news  :sol:  
 
Pour comparer les résultats du bench de Far-Cry dans certaines conditions, je vais poster un screen de ces tests fait avec mon ancien SLI de 7800GT OC @500/1200...
 
http://img99.imageshack.us/img99/9657/farcryrsultats0lu.th.jpg
 
Les résultats étaient déjà trés satisfaisant !  
 
Et maintenant la 7950Gx2 d'origine (500/1200):
 
http://img99.imageshack.us/img99/9162/origine0cz.th.jpg
 
Et déjà 20FPS de difference entre les tests 2 et 3 du SLI de 7800GT et celui de la Gx2 d'origine...  :whistle:  
Le test 1 n'eyant aucune difference et pour cause, ===> CPU limited   :sol:  
 
Et maintenant la 7950Gx2 @600/1500...
 
http://img148.imageshack.us/img148/6382/farcryoc1to.th.jpg
 
Et là c'est une claque, encore une dizaine d'images par seconde de difference entre la 7950Gx2 OC et pas OC, ce qui fait une trentaine de FPS de difference entre le SLI de 7800GT OC @500/1200 (équivalent au SLI de 7800GTX) et 7950Gx2 OC.  [:nybbas]
 
Alors, c'est nul la Gx2...? :o


Message édité par dami1stm le 21-06-2006 à 17:12:04

---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°4894470
la_lootre
Posté le 21-06-2006 à 18:41:31  profilanswer
 

normal qu'en attribuant des regles dans les drivers pour les jeux ( gestion de jeu 3d ) , il ne les force pas ?


---------------
Psn : bkn_panda || XBL : bkn Panda || Steam : bknpanda
n°4894476
rycky
Posté le 21-06-2006 à 18:44:32  profilanswer
 

Quel jeu?

n°4894477
dami1stm
Eco-coco φ
Posté le 21-06-2006 à 18:46:26  profilanswer
 

la_lootre a écrit :

normal qu'en attribuant des regles dans les drivers pour les jeux ( gestion de jeu 3d ) , il ne les force pas ?


 
Sa depend, les drivers peuvent pas forcer si c'est pas possible (materiel), sinon oui normalement... [:airforceone]  
 
Si tu veux mettre de l'aniso et du HDR, c'est pas possible car ===>incompatibilité materiel... :whistle:  
Maintenant si dans le jeu tu peux choisir max Aniso 8x par exemple et que dans les drivers tu mets 16X, là ca va être forcé... :)


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°4894502
Fouge
Posté le 21-06-2006 à 18:59:37  profilanswer
 
n°4894547
dami1stm
Eco-coco φ
Posté le 21-06-2006 à 19:21:17  profilanswer
 

Fouge a écrit :

FSAA et HDR [:aloy]


 :o  
 
Même les meilleurs ont des moments de faiblesse...  :whistle:   :lol:


Message édité par dami1stm le 21-06-2006 à 19:21:30

---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°4894559
la_lootre
Posté le 21-06-2006 à 19:26:44  profilanswer
 

dami1stm a écrit :

Sa depend, les drivers peuvent pas forcer si c'est pas possible (materiel), sinon oui normalement... [:airforceone]  
 
Si tu veux mettre de l'aniso et du HDR, c'est pas possible car ===>incompatibilité materiel... :whistle:  
Maintenant si dans le jeu tu peux choisir max Aniso 8x par exemple et que dans les drivers tu mets 16X, là ca va être forcé... :)


 
 
j'ia essayé de forcer l'aniso 16x et aa 8x sous wow , il veut rien savoir


---------------
Psn : bkn_panda || XBL : bkn Panda || Steam : bknpanda
n°4894568
olioops
Si jeune et déjà mabuse.
Posté le 21-06-2006 à 19:32:36  profilanswer
 

t'aurais pu attendre que la première couche soit sèche [:epok]

n°4895238
sniper 46
Posté le 22-06-2006 à 00:07:52  profilanswer
 

olioops : ???

n°4895413
dami1stm
Eco-coco φ
Posté le 22-06-2006 à 03:32:34  profilanswer
 

olioops a écrit :

t'aurais pu attendre que la première couche soit sèche [:epok]


 [:fredoloco]


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°4895434
Schtroumpf​lover
Posté le 22-06-2006 à 06:18:53  profilanswer
 

A mon humble avis c'est scato son second degré à rapprocher de la phrase avant " j'ai essayé de forcer l'aniso ..." :D

n°4896313
sennenmout
Cat Addict !
Posté le 22-06-2006 à 16:42:35  profilanswer
 

Salut
Un renseignement SVP..
Si on install une GX2 sur une carte mere NF4 SLI avec le systeme de "carte" entre les 2 port PCI-E..
Faut-il laisser la petite carte sur "normal",comme quand on a qu'une seule carte ou la mettre du coté "SLI" ?
La carte en question Abit AN8 Falality..
Merci

n°4896374
dami1stm
Eco-coco φ
Posté le 22-06-2006 à 17:16:43  profilanswer
 

Non, elle fonctionne comme une mono carte !  :non:  
Si tu mets le SLi déjà tu va passer en 8X au lieu de 16X et si tu le mets dans les option drivers, tu desactives un GPU... [:nybbas]  
 


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°4896392
Nestid
Posté le 22-06-2006 à 17:27:39  profilanswer
 

dami1stm a écrit :

Non, elle fonctionne comme une mono carte !  :non:  
Si tu mets le SLi déjà tu va passer en 8X au lieu de 16X et si tu le mets dans les option drivers, tu desactives un GPU... [:nybbas]


Il ne désactive pas un GPU mais il ne va utiliser que 8 lignes PCIE au lieu de 16 pour alimenter sa carte bi-GPU, donc perte de performances (faible mais perte quand même).

n°4896490
dami1stm
Eco-coco φ
Posté le 22-06-2006 à 18:21:41  profilanswer
 

Nestid a écrit :

Il ne désactive pas un GPU mais il ne va utiliser que 8 lignes PCIE au lieu de 16 pour alimenter sa carte bi-GPU, donc perte de performances (faible mais perte quand même).


 
Désolé mais moi qui ai cette carte, si je met le SLI dans les drivers, je fais + que divisé par deux les résultats aux 3DMark... [:nybbas]  
La difference n'est pas faible dans le cas ou tu l'active dans les drivers, sinon l'activation SLI hardwarement parlant, là oui ca passe en 8X au lieu de 16X et si tu combines ca au faite d'activer le SLI dans les drivers aussi, tu es parti pour avoir l'équivalant d'une 7800GTX... :whistle:


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°4896532
Nestid
Posté le 22-06-2006 à 18:39:03  profilanswer
 

dami1stm a écrit :

Désolé mais moi qui ai cette carte, si je met le SLI dans les drivers, je fais + que divisé par deux les résultats aux 3DMark... [:nybbas]  
La difference n'est pas faible dans le cas ou tu l'active dans les drivers, sinon l'activation SLI hardwarement parlant, là oui ca passe en 8X au lieu de 16X et si tu combines ca au faite d'activer le SLI dans les drivers aussi, tu es parti pour avoir l'équivalant d'une 7800GTX... :whistle:


Il ne parle pas des drivers mais de la carte SLI que tu dois inverser à la mimine quand tu as 2 cartes graphiques au lieu d'1 sur une nforce 4.
L'inversion de la carte ne fait que rediriger les 8 lignes PCIE du port 1 vers le port 2, et s'il n'y a rien sur le port 2 la redirection ne sert à rien (mais ça marche quand même).

n°4896546
Nestid
Posté le 22-06-2006 à 18:43:17  profilanswer
 

Et la 7800GTX je ne vois pas ce qu'elle vient faire dans l'histoire :D

n°4896591
dami1stm
Eco-coco φ
Posté le 22-06-2006 à 18:58:45  profilanswer
 

Nestid a écrit :

Et la 7800GTX je ne vois pas ce qu'elle vient faire dans l'histoire :D


 
Parceque c'est véridique, une fois activé le SLI dans les drivers, je fais plus que 8500pts au 3DMark05... :whistle:


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°4897060
Nestid
Posté le 22-06-2006 à 22:12:40  profilanswer
 

J'ai posté ICI un topic de comparaison des Geforce 7 avec les X1900. J'avais acheté une X1900 parce que j'imaginais qu'elle serait intéressante (au vu des benchmarks), même par rapport à un SLI de 7800. La capacité HDR + AA m'attirait particulièrement. J'ai décrit mon expérience avec cette carte, ce que j'ai trouvé bien et moins bien par rapport à une GF7.
 
Si ceux qui ont eu des X1900 avant leur GF7 (uniquement, pour être le plus objectif possible) pouvaient aller donner leur opinion également, ça enrichirait le topic et permettrait à d'autres de profiter de notre expérience.

n°4897136
ridemetal
Vide
Posté le 22-06-2006 à 22:43:41  profilanswer
 

Hello. Je souhaiterais realiser un "pencil mod " sur ma 7800GS+ (7900GT AGP 512). Je connais la resistance à augmenter mais j'aimerais etre eclairé sur la façon de crayonner la resistance en question.
Merci de votre aide. ;)

n°4897645
Migill
Posté le 23-06-2006 à 09:42:46  profilanswer
 

ridemetal : va sur le topic dédié des 7800GS AGP.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  469  470  471  ..  485  486  487  488  489  490

Aller à :
Ajouter une réponse
 

Sujets relatifs
nVidia FX5200Geforce ti4200 128Mo ou FX5200 128Mo
driver pour geforce 5700leMa geforce 4 (Asus) fait bcp de buit tout a coup...
Geforce passive dans un shuttle: possible ?ATI 9550 ou Nvidia FX5500 pour jouer un peut mais pas trop
nVidia 5700 et pilote nv4_disp.dll ]-> créateur de problèmes.::nVidia 5750 PCI-e::. et son pilote de m****
Carte graphique NVidia GeForce 256 [ résolu ] 
Plus de sujets relatifs à : [Nvidia GeForce série 7] => La fin des GF7 en Avril?


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)