Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2863 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  72  73  74  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7298175
dll_75
Posté le 21-01-2010 à 15:27:55  profilanswer
 

Reprise du message précédent :

bilbo248 a écrit :

Y a quelque info dans ce doc pdf:
http://www.nvidia.fr/object/IO_86775.html
, mais peut être l'avait vous dejà vu.
Le graphe de comparaison sur la tesselation me laisse dubitatif.
edit : la phrase qui tue : "Yesterday’s Extreme Gaming requires 2560 x 1600 x 60 = 245 Million pixels/sec of rendering horsepower"
Euh bon bah ok...


 
Sous couvert de la validation du professeur Gigathlon,
Je dirai que vu que la Tesslation c'est des calculs massifs en parallèle, c'est typiquement le truc idéal pour fermi.

mood
Publicité
Posté le 21-01-2010 à 15:27:55  profilanswer
 

n°7298176
MEI
|DarthPingoo(tm)|
Posté le 21-01-2010 à 15:28:10  profilanswer
 

Space a écrit :

Le HDMI est moins adapté que le DVI-D DL pour le 120Hz.
Ou alors il faudra obligatoirement 3 CG pour faire du tri écran en 3D vision [:ddr555]  
 


Sauf si c'est du HDMI 1.4 :o...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7298177
dll_75
Posté le 21-01-2010 à 15:29:35  profilanswer
 

Space a écrit :

Le HDMI est moins adapté que le DVI-D DL pour le 120Hz.
Ou alors il faudra obligatoirement 3 CG pour faire du tri écran en 3D vision [:ddr555]  
 


 
 
c'est un HDMI 1.4 sur les cartes.
Donc complétement adapté pour cela et compatible bluray 3d, etc  
 
EDIT: Grilled


Message édité par dll_75 le 21-01-2010 à 15:30:15
n°7298180
MEI
|DarthPingoo(tm)|
Posté le 21-01-2010 à 15:30:28  profilanswer
 

dll_75 a écrit :


 
Sous couvert de la validation du professeur Gigathlon,
Je dirai que vu que la Tesslation c'est des calculs massifs en parallèle, c'est typiquement le truc idéal pour fermi.


Non bah c'est normal y'a 4x plus de triangle créés par cycle d'horloge. Et comme en plus on connais pas les freqs utilisé pour le PolyMorph Engine...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7298184
Gigathlon
Quad-neurones natif
Posté le 21-01-2010 à 15:33:26  profilanswer
 

Space a écrit :

AMD fait déja du 3D Vision  [:zaipetruredfadeiping]  


Non, je voulais parler du triple screen... 3DVision est ajouté par dessus mais ne sera de toute façon pax exploitable en 5760x1200 même avec 2 GF100, alors le 7680x1600...

Message cité 1 fois
Message édité par Gigathlon le 21-01-2010 à 15:33:56
n°7298188
dll_75
Posté le 21-01-2010 à 15:37:05  profilanswer
 

Gigathlon a écrit :


Non, je voulais parler du triple screen... 3DVision est ajouté par dessus mais ne sera de toute façon pax exploitable en 5760x1200 même avec 2 GF100, alors le 7680x1600...


 
Si tu peux te payer 3 écrans en 2560*1600 (y'a que DELL qui en fait non?)
Tu peux te payer 3 GF100 sans souci  :o  
 
Vu la puissance de Fermi, un SLI pour de la 3D sur triplescreen, ca peut le faire, on verra pour les perfs.

Message cité 1 fois
Message édité par dll_75 le 21-01-2010 à 15:37:21
n°7298209
Xantar_Eoz​enn
Posté le 21-01-2010 à 15:50:21  profilanswer
 

Attention faut des écrans 120hz, et en 2560*1600 c'est pas encore le cas je pense. et dans la doc, le 3D Vision Surround est supporté au max en 1920*1080*120 x 3 écrans, donc exit le 2560*1600 en 3D Vision Surround.
 
Par contre, un 3D Vision Surround en 5670*1080*120 là c'est possible avec les derniers écrans Acer ou Asus en 24" (l'un des deux).
 

Citation :

GF100 supports 3D Vision Surround when two or more GPUs are paired in an SLI configuration. 3D
Vision Surround will be supported across three of the same 3D Vision capable LCDs or projectors at
resolutions up to 1920x1080. For those not ready to jump into stereoscopic gaming, NVIDIA Surround
will also be supported in non-stereoscopic 3D at resolutions up to 2560 x 1600 across displays that
share a common resolution.


Message édité par Xantar_Eozenn le 21-01-2010 à 16:00:25
n°7298210
Gigathlon
Quad-neurones natif
Posté le 21-01-2010 à 15:50:23  profilanswer
 

dll_75 a écrit :

Si tu peux te payer 3 écrans en 2560*1600 (y'a que DELL qui en fait non?)
Tu peux te payer 3 GF100 sans souci  :o  
 
Vu la puissance de Fermi, un SLI pour de la 3D sur triplescreen, ca peut le faire, on verra pour les perfs.


C'est bien précisé que c'est pas supporté en 3D ;)
 
Niveau perfs, suffit de voir ce que donne une GTX285 actuellement ne serait-ce qu'en 1680x1050, c'est pas glorieux du tout... rien que le 5760x1200 c'est déjà 4x plus gourmand donc pour avoir les perfs d'une GTX285 (actuellement insuffisante pour bien des titres, dans lesquels il faut soit dit en passant désactiver des options non négligeables pour avoir un rendu 3D acceptable) il faudra tabler sur 2 GF100, cqfd.

n°7298235
AbelJemka
Posté le 21-01-2010 à 16:08:43  profilanswer
 

Gigathlon a écrit :


NVidia fait en quelque sorte du mécénat, en fournissant matériel et aide technique sans demander à être rémunéré.


T'écris trop de chose, ça te faire dire n'importe quoi...
 

MEI a écrit :


Perso 450€ pour la GTX380 1,5Go ça me semble un prix correct.
 
100€ de plus de MSRP que la 5870 1Go ça semble cohérent par rapport à ce que propose NVIDIA habituellement.
 
Si ça monte plus haut, là par contre ça sera difficile de la caser.


Aucune chance que la GTX380 soit en dessous de 500€!
20% plus puissante que la 5870 minimum et avec 3 tonnes de features en plus.


---------------
feedback
n°7298242
bjone
Insert booze to continue
Posté le 21-01-2010 à 16:10:19  profilanswer
 

Citation :

Niveau perfs, suffit de voir ce que donne une GTX285 actuellement ne serait-ce qu'en 1680x1050


 
:heink: ça dépends des jeux.
De toutes façon y'a pas de miracles, la stéréoscopie ça tête, le multi-moniteur ça tête.

mood
Publicité
Posté le 21-01-2010 à 16:10:19  profilanswer
 

n°7298244
MEI
|DarthPingoo(tm)|
Posté le 21-01-2010 à 16:10:34  profilanswer
 

Ça fait ~+25% de prix en plus pour ~+25% de perfs en plus... ça reste je dirais logique.
 
Sachant qu'ils ont dit vouloir nous surprendre sur le prix.
 
NVIDIA a de toutes façons besoin de tirer un max sur les prix pour au moins percer.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7298250
dll_75
Posté le 21-01-2010 à 16:12:19  profilanswer
 

Gigathlon a écrit :


C'est bien précisé que c'est pas supporté en 3D ;)
 
Niveau perfs, suffit de voir ce que donne une GTX285 actuellement ne serait-ce qu'en 1680x1050, c'est pas glorieux du tout... rien que le 5760x1200 c'est déjà 4x plus gourmand donc pour avoir les perfs d'une GTX285 (actuellement insuffisante pour bien des titres, dans lesquels il faut soit dit en passant désactiver des options non négligeables pour avoir un rendu 3D acceptable) il faudra tabler sur 2 GF100, cqfd.


Qu'est-ce qui n'est pas supporté en 3D?

n°7298254
Gigathlon
Quad-neurones natif
Posté le 21-01-2010 à 16:13:03  profilanswer
 

MEI a écrit :

Non bah c'est normal y'a 4x plus de triangle créés par cycle d'horloge. Et comme en plus on connais pas les freqs utilisé pour le PolyMorph Engine...


On la connaît "relativement" -> la moitié de celle des unités de calcul, ou autrement dit, celle du scheduler du GPC.
 
Le problème ne porte pas sur le nombre de triangles/samples générés, mais bien sur ce qu'on peut en faire...
 
En admettant des fréquences de 700/1400MHz, le débit de triangles max atteint 1 triangle pour 256 opérations par les ALU...
 
256 opérations qu'il faut répartir entre :
 
- les Hull Shaders
- les Domain Shaders
- les Geometry Shaders
- les Vertex Shaders
- les Pixel Shaders
- les Compute Shaders
- n'importe quelle autre utilisation des unités de calcul (PhysX? :o)
 
Les shaders tirés de la demo de tessellation d'AMD, on ne peut plus basique, dépassent déjà allègrement ces 256 opérations (30+ rien que sur le VS)...


Message édité par Gigathlon le 21-01-2010 à 16:17:45
n°7298255
Sam Erousi​s
Posté le 21-01-2010 à 16:13:17  profilanswer
 

MEI a écrit :

Ça fait ~+25% de prix en plus pour ~+25% de perfs en plus... ça reste je dirais logique.
 
Sachant qu'ils ont dit vouloir nous surprendre sur le prix.
 
NVIDIA a de toutes façons besoin de tirer un max sur les prix pour au moins percer.


Sérieux ?  :??:  
 
J'ai toujours été surpris par les prix du HDG Nvidia !  [:ddr555]  
Wait and see


---------------
Le bien ou le mal n'existe pas, ce n'est qu'une différence de point vue.
n°7298258
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 21-01-2010 à 16:14:04  profilanswer
 

AbelJemka a écrit :


Aucune chance que la GTX380 soit en dessous de 500€!
20% plus puissante que la 5870 minimum et avec 3 tonnes de features en plus.


 [:michaeldell]

Message cité 2 fois
Message édité par TheRealObi-One le 21-01-2010 à 16:16:04

---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°7298260
Xantar_Eoz​enn
Posté le 21-01-2010 à 16:15:13  profilanswer
 

dll_75 a écrit :


Qu'est-ce qui n'est pas supporté en 3D?


Le mode 3D Vision Surround est supporté jusqu'en 1920*1080*120 sur 3 écrans
 
En 2560*1600 seul le mode Surround non 3D est supporté.
 
 
 

Citation :

GF100 supports 3D Vision Surround when two or more GPUs are paired in an SLI configuration. 3D
Vision Surround will be supported across three of the same 3D Vision capable LCDs or projectors at
resolutions up to 1920x1080. For those not ready to jump into stereoscopic gaming, NVIDIA Surround
will also be supported in non-stereoscopic 3D at resolutions up to 2560 x 1600 across displays that
share a common resolution.
 
 

Message cité 1 fois
Message édité par Xantar_Eozenn le 21-01-2010 à 16:16:31
n°7298267
xvince1
Ma question préférée
Posté le 21-01-2010 à 16:16:45  profilanswer
 

MEI a écrit :

Ça fait ~+25% de prix en plus pour ~+25% de perfs en plus... ça reste je dirais logique.
 
Sachant qu'ils ont dit vouloir nous surprendre sur le prix.
 
NVIDIA a de toutes façons besoin de tirer un max sur les prix pour au moins percer.


 
On commence a avoir l'habitude avec eux...


Message édité par xvince1 le 21-01-2010 à 16:17:03

---------------
Sur une trois voies, les relous qui squattent la voie du milieu sans doubler personne méritent d'être ébouillantés au napalm radioactif...
n°7298270
dll_75
Posté le 21-01-2010 à 16:17:18  profilanswer
 

Xantar_Eozenn a écrit :


Le mode 3D Vision Surround est supporté jusqu'en 1920*1080*120 sur 3 écrans
 
En 2560*1600 sur le mode Surround est supporté.
 
 
 


Citation :

GF100 supports 3D Vision Surround when two or more GPUs are paired in an SLI configuration. 3D
Vision Surround will be supported across three of the same 3D Vision capable LCDs or projectors at
resolutions up to 1920x1080. For those not ready to jump into stereoscopic gaming, NVIDIA Surround
will also be supported in non-stereoscopic 3D at resolutions up to 2560 x 1600 across displays that
share a common resolution.
 


 
 
ah oui on est d'accord  :)  
 
1920*1080 * 3 en 3D c'est déjà pas mal non?

n°7298273
o_BlastaaM​oof_o
Posté le 21-01-2010 à 16:18:24  profilanswer
 

MEI a écrit :

Ça fait ~+25% de prix en plus pour ~+25% de perfs en plus... ça reste je dirais logique.


C'est vrai que cette règle est très souvent suivie sur le haut de gamme [:implosion du tibia]

n°7298276
Gigathlon
Quad-neurones natif
Posté le 21-01-2010 à 16:20:01  profilanswer
 


Avocat du diable toussa... c'est une tentative d'utilisation de la technique Wirmish : prêcher contre son église pour se faire contredire et ainsi forcer la partie adverse à admettre qu'elle a tort :o
 
Ceci dit, son point de vue se défend, et ça a pu être vérifié par le passé avec le R600... Je faisais partie de ceux qui y croyaient au super rapport perfs/prix, et au final il est clair que le prix n'était bas que pour avoir une chance de vendre les cartes.

Message cité 1 fois
Message édité par Gigathlon le 21-01-2010 à 16:24:41
n°7298277
xvince1
Ma question préférée
Posté le 21-01-2010 à 16:20:34  profilanswer
 

Citation :

GF100 supports 3D Vision Surround when two or more GPUs are paired in an SLI configuration. 3D  
Vision Surround will be supported across three of the same 3D Vision capable LCDs or projectors at  
resolutions up to 1920x1080
. For those not ready to jump into stereoscopic gaming, NVIDIA Surround  
will also be supported in non-stereoscopic 3D at resolutions up to 2560 x 1600 across displays that  
share a common resolution.  
 


 
Et on pourra jouer avec quels jeux et un framerate correct ?  QuakeIII ??

Message cité 2 fois
Message édité par xvince1 le 21-01-2010 à 16:21:16

---------------
Sur une trois voies, les relous qui squattent la voie du milieu sans doubler personne méritent d'être ébouillantés au napalm radioactif...
n°7298280
foksa37
Posté le 21-01-2010 à 16:22:28  profilanswer
 

MEI a écrit :

Ça fait ~+25% de prix en plus pour ~+25% de perfs en plus... ça reste je dirais logique.

 

Sachant qu'ils ont dit vouloir nous surprendre sur le prix.

 

NVIDIA a de toutes façons besoin de tirer un max sur les prix pour au moins percer.

 

Sauf que plus les performances sont élevées, plus les quelques performances supplémentaires se payent chères. Je pense qu'il se sera plus cher (Edit : gtx380 > 450 euros).

 

Mais si le GTX380 est +25% perfs et prix que la 5870, même à conso et chauffe élevée, alors ça en ferait un excellent GPU. Mais perso j'y crois pas encore. On verra.


Message édité par foksa37 le 21-01-2010 à 16:23:00
n°7298281
AbelJemka
Posté le 21-01-2010 à 16:22:34  profilanswer
 


http://www.hexus.net/content/item.php?item=21996
 :sarcastic:  
 

o_BlastaaMoof_o a écrit :


C'est vrai que cette règle est très souvent suivie sur le haut de gamme [:implosion du tibia]


+1


---------------
feedback
n°7298282
dll_75
Posté le 21-01-2010 à 16:22:41  profilanswer
 

Gigathlon a écrit :


Avocat du diable toussa... c'est une tentative d'utilisation de la technique Wirmish : prêcher contre son église pour se faire contredire et ainsi forcer la partie adverse à admettre qu'elle a tort :o


 
tu as l'air de t'y connaitre en Dogme & Stratégies appliquées des Fanboys  :o  
 
 
 :D    
->

n°7298287
dll_75
Posté le 21-01-2010 à 16:28:24  profilanswer
 

xvince1 a écrit :

Citation :

GF100 supports 3D Vision Surround when two or more GPUs are paired in an SLI configuration. 3D  
Vision Surround will be supported across three of the same 3D Vision capable LCDs or projectors at  
resolutions up to 1920x1080
. For those not ready to jump into stereoscopic gaming, NVIDIA Surround  
will also be supported in non-stereoscopic 3D at resolutions up to 2560 x 1600 across displays that  
share a common resolution.  


Et on pourra jouer avec quels jeux et un framerate correct ? QuakeIII ??


 
Globalement tous les jeux actuels, sauf les titres connus ou il faudra optimiser au mieux les réglages:
Crysis, GTA4, Arma2, ...
 
 
Par contre, si le rendu raytracing est aussi dispo avec 3D Vision et le multiscreen, ca risque d'être un beau Slideshow  :lol:

n°7298289
MEI
|DarthPingoo(tm)|
Posté le 21-01-2010 à 16:28:52  profilanswer
 

xvince1 a écrit :

Citation :

GF100 supports 3D Vision Surround when two or more GPUs are paired in an SLI configuration. 3D  
Vision Surround will be supported across three of the same 3D Vision capable LCDs or projectors at  
resolutions up to 1920x1080
. For those not ready to jump into stereoscopic gaming, NVIDIA Surround  
will also be supported in non-stereoscopic 3D at resolutions up to 2560 x 1600 across displays that  
share a common resolution.  
 


 
Et on pourra jouer avec quels jeux et un framerate correct ?  QuakeIII ??


Sans AA ca devrait passer... CoD 6 par ex tu doit avoir bien 120fps en 1920x1200 AA0X sur GTX 285... :)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7298293
Gigathlon
Quad-neurones natif
Posté le 21-01-2010 à 16:30:44  profilanswer
 

dll_75 a écrit :

tu as l'air de t'y connaitre en Dogme & Stratégies appliquées des Fanboys  :o


J'ai surtout bien compris où menait cette affirmation...
 
"Si c'est plus perf et qu'en prime ça apporte des avantages ça sera inévitablement disproportionnellement plus cher, donc si c'est pas plus de 20% plus cher, c'est que c'est pas 20% plus perf".
 
C'est une question de logique et ça se vérifie presque toujours, comme pour le R600 la dernière fois que j'ai vu ce discours concernant les GPU. Moi aussi j'y croyais à l'époque au "prix bas nécessaire pour s'imposer avec 6 mois de retard"... à la différence qu'à cette époque le R580 qui le précédait mettait une bonne raclée au G71 qui avait précédé le G80... on ne peut pas vraiment en dire autant du GT200 vis à vis du RV770.
 
 
Concernant 3DVision j'ai dit une petite couinerie, les chiffres que j'avais en tête étant relatifs à une GTX275 et non une GTX285... ça ne change pas énormément le tableau, mais il fallait le préciser...  
 
http://www.revioo.com/articles/a13490_4.html
 
Crysis WarHead en Mainstream, HAWX sans HDR...

Message cité 1 fois
Message édité par Gigathlon le 21-01-2010 à 16:38:29
n°7298294
xvince1
Ma question préférée
Posté le 21-01-2010 à 16:31:17  profilanswer
 

MEI a écrit :


Sans AA ca devrait passer... CoD 6 par ex tu doit avoir bien 120fps en 1920x1200 AA0X sur GTX 285... :)


 
Merci, ça en fait... 1.
 
Déjà que pour moi le eyefinity, c'est ninwak, mais alors là : Touchdown...  [:ach_lette]  


---------------
Sur une trois voies, les relous qui squattent la voie du milieu sans doubler personne méritent d'être ébouillantés au napalm radioactif...
n°7298324
MEI
|DarthPingoo(tm)|
Posté le 21-01-2010 à 16:46:42  profilanswer
 

Gigathlon a écrit :


J'ai surtout bien compris où menait cette affirmation...
 
"Si c'est plus perf et qu'en prime ça apporte des avantages ça sera inévitablement disproportionnellement plus cher, donc si c'est pas plus de 20% plus cher, c'est que c'est pas 20% plus perf".
 
C'est une question de logique et ça se vérifie presque toujours, comme pour le R600 la dernière fois que j'ai vu ce discours concernant les GPU. Moi aussi j'y croyais à l'époque au "prix bas nécessaire pour s'imposer avec 6 mois de retard"... à la différence qu'à cette époque le R580 qui le précédait mettait une bonne raclée au G71 qui avait précédé le G80... on ne peut pas vraiment en dire autant du GT200 vis à vis du RV770.


La mauvaise fois  :whistle: ...
 
Donc, à l'époque : (http://www.hardware.fr/articles/637-14/ati-radeon-x1950-xtx-solutions-multi-cartes-haut-gamme.html)
- la X1950 XTX in-extremis repasse légèrement devant la 7900 GTX (+1,6% de perfs moyenne en plus) (en 2560)
- la 7950 GX2 existait et était +15,6% plus perfs que la X1950 XTX.
 
"Aujourd'hui :" (moyenne 1920 AA0X/AA4X/AA8X)
- la GTX285 est +5,8% devant la 4890, et surtout NVIDIA n'a jamais été inquiété niveau perfs depuis l'introduit de la 8800 GTX.
- la GTX295 est +0,8% devant la 4870 X2.
 
Dans les deux cas NVIDIA est devant, donc en fait a la rigueur NVIDIA a une position inverse à ATI à l'époque.
Et j'ai pris volontairement les chiffres les plus défavorable a NVIDIA, car si on gardait que du 1920 AA4X, ça serait plus favorable a NVIDIA. Si on prennais en compte le moyen de gamme comme 4870 512Mo vs GTX 260+ également...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7298339
MEI
|DarthPingoo(tm)|
Posté le 21-01-2010 à 16:53:43  profilanswer
 

xvince1 a écrit :


 
Merci, ça en fait... 1.
 
Déjà que pour moi le eyefinity, c'est ninwak, mais alors là : Touchdown...  [:ach_lette]  


En pratique, les jeux super lourd ce compte quasi que sur les doigts de la mains. BEAUCOUP de jeux (et heureusement) sont fait pour tourner sans pbs sur une config normale (voir qui simplement existe).
 


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7298344
Gigathlon
Quad-neurones natif
Posté le 21-01-2010 à 16:57:32  profilanswer
 

MEI a écrit :

La mauvaise fois  :whistle: ...


Pas mauvaise foi, non, réalisme.
 
Les derniers jeux DX9 foutent une honte terrible au G71 avec un R580 qui lutte sans broncher avec la GX2, et pourtant ils ne sont pas franchement aidés par l'accroissement de la proportion de VS.
 
N'oublie pas non plus que les tests de cette époque ne considéraient jamais ou presque le combo HDR+AA...

Message cité 1 fois
Message édité par Gigathlon le 21-01-2010 à 17:03:19
n°7298350
AbelJemka
Posté le 21-01-2010 à 17:01:00  profilanswer
 

MEI a écrit :


La mauvaise fois  :whistle: ...
 
Donc, à l'époque : (http://www.hardware.fr/articles/637-14/ati-radeon-x1950-xtx-solutions-multi-cartes-haut-gamme.html)
- la X1950 XTX in-extremis repasse légèrement devant la 7900 GTX (+1,6% de perfs moyenne en plus) (en 2560)
- la 7950 GX2 existait et était +15,6% plus perfs que la X1950 XTX.
 
"Aujourd'hui :" (moyenne 1920 AA0X/AA4X/AA8X)
- la GTX285 est +5,8% devant la 4890, et surtout NVIDIA n'a jamais été inquiété niveau perfs depuis l'introduit de la 8800 GTX.
- la GTX295 est +0,8% devant la 4870 X2.
 
Dans les deux cas NVIDIA est devant, donc en fait a la rigueur NVIDIA a une position inverse à ATI à l'époque.
Et j'ai pris volontairement les chiffres les plus défavorable a NVIDIA, car si on gardait que du 1920 AA4X, ça serait plus favorable a NVIDIA. Si on prennais en compte le moyen de gamme comme 4870 512Mo vs GTX 260+ également...


http://www.hardware.fr/articles/64 [...] 0-gts.html
 
http://www.hardware.fr/articles/77 [...] -5850.html
Tu pourrais prendre les tests les plus récents (aux époques concernés) avec les cartes dont tu parles...


---------------
feedback
n°7298360
Xantar_Eoz​enn
Posté le 21-01-2010 à 17:04:58  profilanswer
 

En passant du 1920*1080 @ 5670*1080 on divise les perfs par un chiffre entre 2 ou 3 pour une Radeon 5870.
 
En passant du simple 1680*1050 au 3D Vision 1680*1050 on divise les perfs par un chiffre entre 2 ou 3 pour une Geforce 285.
 
Test HFR
 
Pour cumuler les deux en 5670*1080, il faudra forcement un SLI de Fermi, et qu'il soit très puissant.

n°7298366
Gigathlon
Quad-neurones natif
Posté le 21-01-2010 à 17:06:53  profilanswer
 

Oublie pas de préciser "avec les jeux d'hier", puisqu'ils ont osé parler de "hier 1 écran, demain 3".


Message édité par Gigathlon le 21-01-2010 à 17:07:02
n°7298368
MEI
|DarthPingoo(tm)|
Posté le 21-01-2010 à 17:07:26  profilanswer
 

Gigathlon a écrit :


Pas mauvaise foi, non, réalisme.
 
Les derniers jeux DX9 foutent une honte terrible au G71 avec un R580 qui lutte sans broncher avec la GX2, et pourtant ils ne sont pas franchement aidés par l'accroissement de la proportion de VS.
 
N'oublie pas non plus que les tests de cette époque ne considéraient jamais ou presque le combo HDR+AA...


Sauf que quand ça a chauffé pour les G71 y'avais le G80 ET Vista, donc de toutes façons c'était pas grave.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7298370
MEI
|DarthPingoo(tm)|
Posté le 21-01-2010 à 17:08:32  profilanswer
 

AbelJemka a écrit :


http://www.hardware.fr/articles/64 [...] 0-gts.html
 
http://www.hardware.fr/articles/77 [...] -5850.html
Tu pourrais prendre les tests les plus récents (aux époques concernés) avec les cartes dont tu parles...


La position qui compte c'est la position contemporaine, pas la position des mois après lorsque que la relève est là. :spamafote:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7298380
dll_75
Posté le 21-01-2010 à 17:12:50  profilanswer
 

Xantar_Eozenn a écrit :

En passant du 1920*1080 @ 5670*1080 on divise les perfs par un chiffre entre 2 ou 3 pour une Radeon 5870.
 
En passant du simple 1680*1050 au 3D Vision 1680*1050 on divise les perfs par un chiffre entre 2 ou 3 pour une Geforce 285.
 
Test HFR
 
Pour cumuler les deux en 5670*1080, il faudra forcement un SLI de Fermi, et qu'il soit très puissant.


Ca tombe bien, il faut quoi qu'il arrive un SLI de FERMI pour pouvoir brancher 3 écrans  :o

n°7298383
Gigathlon
Quad-neurones natif
Posté le 21-01-2010 à 17:13:09  profilanswer
 

MEI a écrit :

Sauf que quand ça a chauffé pour les G71 y'avais le G80 ET Vista, donc de toutes façons c'était pas grave.


Ce qui ne change fondamentalement rien au fait qu'à cette époque attendre un R600 plus performant que le G80 était parfaitement compréhensible.
 
Si on remet dans le contexte actuel, attendre un GF100 qui déchire sa race est déjà moins compréhensible, d'autant moins avec le peu d'infos qu'on a qui le placent loin derrière sur certains points importants qui faisaient la force du GT200 face au RV770.
 
Regarde les chiffres annoncés pour les ROPs et les TMU, c'est assez négatif compte tenu des différences... les ROPs sont à peine 50% au-dessus du GT200 en AA 4x, les TMU 20 à 40% au-dessus... mais remis à l'échelle du GPU, c'est de la baisse! :/

Message cité 3 fois
Message édité par Gigathlon le 21-01-2010 à 17:17:05
n°7298389
MEI
|DarthPingoo(tm)|
Posté le 21-01-2010 à 17:18:03  profilanswer
 

Gigathlon a écrit :


Ce qui ne change fondamentalement rien au fait qu'à cette époque attendre un R600 plus performant que le G80 était parfaitement compréhensible.
 
Si on remet dans le contexte actuel, attendre un GF100 qui déchire sa race est déjà moins compréhensible, d'autant moins avec le peu d'infos qu'on a qui le placent loin derrière sur certains points importants qui faisaient la force du GT200 face au RV770.


 
Sauf que pour l'instant les estimation partent sur 1400 MHz... or on connait pas la freq' finale. Et les sources disaient que NVIDIA aimerait arrivé à 1700MHz.
(puis les chiffres sous FC2 reste quand même pas non plus si horribles que ça :o)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7298423
Gigathlon
Quad-neurones natif
Posté le 21-01-2010 à 17:34:57  profilanswer
 

MEI a écrit :

Sauf que pour l'instant les estimation partent sur 1400 MHz... or on connait pas la freq' finale. Et les sources disaient que NVIDIA aimerait arrivé à 1700MHz.
(puis les chiffres sous FC2 reste quand même pas non plus si horribles que ça :o)


Justement, ces chiffres sous FC2, ils ont été obtenus à quelles fréquences, vu qu'ils n'ont rien dit à ce sujet? (un comble, on avait plus que ça dans la preview du NV30...)
 
En admettant que les Tesla utilisent les 1.05v "standards", sachant que le GPU y tourne à 1.4GHz, arriver à 1.7GHz serait comparable à la différence entre 5850 et 5870... cette dernière tournant sous 1.15v, donc la conso monterait de la même manière (+50%...).


Message édité par Gigathlon le 21-01-2010 à 17:35:59
n°7298441
xvince1
Ma question préférée
Posté le 21-01-2010 à 17:42:13  profilanswer
 

MEI a écrit :


En pratique, les jeux super lourd ce compte quasi que sur les doigts de la mains. BEAUCOUP de jeux (et heureusement) sont fait pour tourner sans pbs sur une config normale (voir qui simplement existe).
 


 
Ouai, sauf que Fermi n'est pas encore sorti et que si déjà la solution rame sur des jeux actuels... v'la l'investissement...  
 
Je persiste, à 10 gosses pourris gâtés prêts + gagnants Euro-million, cette "feature" comme ils disent, est simplement du foutage de tronche...  :o


---------------
Sur une trois voies, les relous qui squattent la voie du milieu sans doubler personne méritent d'être ébouillantés au napalm radioactif...
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  72  73  74  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)