Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3296 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  66  67  68  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7294094
hyksos_sow​o
Posté le 18-01-2010 à 23:57:34  profilanswer
 

Reprise du message précédent :

Gigathlon a écrit :


Non, utiliser 4 GPC mais 1 avec seulement 2 SM par exemple.
 
Ca implique qu'un des rasterizers n'aura derrière lui que 2 SM, et donc beaucoup moins de puissance de calcul, ce qui à son tour implique de gérer le phénomène.
 
J'avais envisagé un problème potentiel similaire concernant les TMU, mais à priori ça ne posera pas vraiment de problème, 2 TMU pouvant parfaitement faire le même taf, ça ne diminuerait pas particulièrement les perfs (ça fait du doublon, mais il vaut mieux ça que surcharger les bus/crossbars internes).


Le plus simple c'est si un SM est défect dans un GPC, tu en désactive un par GPC (Même s'ils sont fonctionnels), ça équilibre le tout :D

mood
Publicité
Posté le 18-01-2010 à 23:57:34  profilanswer
 

n°7294126
Wilfried28​_2
Posté le 19-01-2010 à 00:57:27  profilanswer
 

On n'a des dates de sortie pour un GTX-380 ?


---------------
Ex HFR : Wilfried2828 -->>  Wilfried28_2  le retour...
n°7294127
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 19-01-2010 à 00:57:44  profilanswer
 

Ati prudent face au GF100 et prépare une contre-attaque sous forme de refresh en attendant la prochaine archi en 28nm ?
 

Citation :

Much like the Radeon HD 4890 last generation, ATI is rumoured to be preparing a refresh for its Cypress GPU. Details are unavailable at this stage. Whether it will be a die shrink, increase in shader counts, or just clock speed optimizations (ala HD 4890) is unknown.
 
The HD 5800 refresh should come in right after the GF100 as a direct competition. If GF100 does end up competitively priced, ATI have a significant price cut buffer in the short term, with the refresh taking over within a couple of months.

source : http://vr-zone.com/articles/-rumou [...] /8305.html


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7294157
asmomo
Modérateur
Posté le 19-01-2010 à 03:07:38  profilanswer
 

A priori un refresh "ala 4890" n'est pas possible car les apports de la 4890 (venant d'AMD) sont déjà implémentés dans les 5870. Par contre rien n'empêche une 5890 simplement fréquencée plus haut, avec les meilleurs GPUs du wafer, un peu plus de volts, un PCB un peu tweaké, bref ce que fait MSI quoi. Enfin idéalement je voudrais 2Go de RAM :love:


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7294159
asmomo
Modérateur
Posté le 19-01-2010 à 03:09:16  profilanswer
 

manut2500 a écrit :

Topic GF100 je rappelle, donc les anti nv chroniques sans arguments sont priés de se tenir tranquille ou d'aller voir ailleurs, merci.


 
Ce n'est pas parce que des arguments ne te plaisent pas qu'ils n'en sont pas. Quels sont tes arguments à toi qui te font croire que Fermi est une réussite totale (à part pour la date de sortie où là c'est sûr que c'est raté) ?
 
Même en étant optimiste, Fermi n'apparaît pas comme un super produit pour les joueurs (au minimum en rapport perfs/watts, sûrement perfs/prix aussi, à moins qu'nvidia ne vende à perte). Et même en étant pessimiste, on sait que ça se vendra quand même un minimum, et que des gens seront contents avec. J'ai bien une GTX280 (et deux 4870 pour équilibrer :d).
 

Gigathlon a écrit :

Juste une question (piège?) concernant l'ami GF100... z'allez voir, elle fait bien réfléchir :o
 
Ok, on a 4 "GPC" qui sont très grossièrement des GPU à part entière, mais comment NVidia va gérer la situation d'une castration partielle d'un ou deux "GPC"? Ca implique un déséquilibre entre les 4, et dans ce cas ça risque de devenir un casse-tête pour ne pas avoir des performances un pwal aléatoires.


 
J'avais pas pensé à ça. Peut-être que chaque GPC va passer à 112 shaders (et 96 pour le modèle en-dessous).


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7294175
Zack38
Posté le 19-01-2010 à 07:25:35  profilanswer
 

super_newbie_pro a écrit :

Ati prudent face au GF100 et prépare une contre-attaque sous forme de refresh en attendant la prochaine archi en 28nm ?
 

Citation :

Much like the Radeon HD 4890 last generation, ATI is rumoured to be preparing a refresh for its Cypress GPU. Details are unavailable at this stage. Whether it will be a die shrink, increase in shader counts, or just clock speed optimizations (ala HD 4890) is unknown.
 
The HD 5800 refresh should come in right after the GF100 as a direct competition. If GF100 does end up competitively priced, ATI have a significant price cut buffer in the short term, with the refresh taking over within a couple of months.

source : http://vr-zone.com/articles/-rumou [...] /8305.html


 

asmomo a écrit :

A priori un refresh "ala 4890" n'est pas possible car les apports de la 4890 (venant d'AMD) sont déjà implémentés dans les 5870. Par contre rien n'empêche une 5890 simplement fréquencée plus haut, avec les meilleurs GPUs du wafer, un peu plus de volts, un PCB un peu tweaké, bref ce que fait MSI quoi. Enfin idéalement je voudrais 2Go de RAM :love:


 
Peut-être qu'AMD pourrait nous sortir une nouvelle puce avec 1920ALU ... ? [:clooney5]  
 
Bon, d'accord, ça dépasse le simple refresh mais ça pourrait être une bonne solution contre Fermi sans entamer sérieusement le potentiel d'overclocking .

n°7294187
marllt2
Posté le 19-01-2010 à 08:01:14  profilanswer
 

MEI a écrit :

id Software est un partenaire TWIMTBP, DOOM 3 est dans la liste des jeux et pourtant le jeux était certes optimisé GFFX afin de pas ramer, mais il avait aussi un code path pour les ATI... :spamafote:
 
C'est pas NVIDIA qui pousse les dev' a ne pas aller plus loin dans leurs optis...


 
http://www.pcworld.fr/2009/09/30/m [...] ue/450021/

Citation :

En substance, Nvidia affirme qu’il est faux que le programme TWIMTBP empêche les développeurs de travailler avec AMD et qu’il est également faux que la firme au caméléon a interféré dans le support de l’anti-aliasing sur les cartes ATI. Batman est basé sur le moteur Unreal 3 qui ne supporte pas nativement l’anti-aliasing et Nvidia affirme avoir travaillé en étroite collaboration avec Eidos pour optimiser cette option dans le jeu.  
 
La firme de Santa Clara dit aussi que rien n’empêche AMD de faire de même en collaborant avec Eidos et rappelle que les jeux TWIMTBP ne sont pas une exclusivité de Nvidia et que là aussi rien n’empêche ATI de monter un programme similaire.  
 
Sauf que la vérité serait que Nvidia a aidé les développeurs à implémenter l'anti-aliaisng dans le jeu en utilisant des fonctions basiques de DirectX et qu'en échange de ce coup de main, la firme américaine aurait demandé à ce que l'anti-aliasing reste une exclusivité des GeForce dans Batman, bien que ce soit entièrement fonctionnel pour les Radeon. Il s'agirait donc bien d'une limitation intentionnelle.

Citation :

Stéphane
 
J'ai mis à jour la news avec des infos que je viens d'avoir. Nvidia a en effet aidé les développeurs et en échange a demandé que l'AA reste une exclu des GeForce. C'est à la fois logique et contradictoire avec leur discours...

Message cité 1 fois
Message édité par marllt2 le 22-01-2010 à 00:32:56
n°7294196
It_Connexi​on
Posté le 19-01-2010 à 08:28:52  profilanswer
 

Cizia a écrit :


 
 
titus game   :love:  
 
nostalgie de vieux   [:tinostar]


 
+ 1000  :love:  :love:

n°7294199
It_Connexi​on
Posté le 19-01-2010 à 08:38:39  profilanswer
 

cbo a écrit :


 
 
J'ai une 5870, ça ne m'empêche pas de m'intéresser au GF100, surtout pour pouvoir anticiper son successeur
 
Ma carte précédente c'était une 8800GTX,avant une 800XT pro(hard moddé XT),avant une tnt2,encore avant une rage pro ... Amiga ... CPC464
 
La prochaine devrait donc être une nvidia


 
Je suis comme toi, j'ai une 5850 mais ça ne m'empêche pas de m'intéresser au Fermi, ne serait-ce que pour le plaisir de s'informer et d'en apprendre plus sur les futures technologies ;)

n°7294211
beano34
Mon posterieur sur la commode!
Posté le 19-01-2010 à 09:11:14  profilanswer
 

Markus2 a écrit :


 
Lors de ton passage de la 8800 gtx a la 5870,tu as simplement desinstallé les drivers nvidia avant de mettre les ati ou tu as aussi passé un coup de driver cleaner ?
Ou tu as carrement formaté avant de mettre l'ati ?
 
edit: tout le monde peut repondre a cette question,merci ;)


 
moi lors de mon passage de la GTX 295 a HD5870 juste désinstallation des drivers et pas de soucis  :)  
 
 

It_Connexion a écrit :


 
Je suis comme toi, j'ai une 5850 mais ça ne m'empêche pas de m'intéresser au Fermi, ne serait-ce que pour le plaisir de s'informer et d'en apprendre plus sur les futures technologies ;)


 
idem  
 
et question personne a une idée si il y aura du display port sur le GF100 ?


---------------
Feedback
mood
Publicité
Posté le 19-01-2010 à 09:11:14  profilanswer
 

n°7294215
secalex
Stalker forever
Posté le 19-01-2010 à 09:30:46  profilanswer
 

beano34 a écrit :


 
moi lors de mon passage de la GTX 295 a HD5870 juste désinstallation des drivers et pas de soucis  :)  
 
 


Moi j'ai une 8800GT pour le PhysX et une 5870.
Avec seven plus de pb de cohabitation de drivers. ;)  


---------------
FEED-BACK /   I phoque PiseptO (Paidai i7 Owner)
n°7294222
Kyosh1ro
...
Posté le 19-01-2010 à 09:38:41  profilanswer
 

marllt2 a écrit :

Dans le même genre, l'implémentation de DX11 dans Dirt 2, Stalker COP, et BattleForge a été aidée par AMD.  
 
Serait-il normal qu' AMD ne veuille pas que nVidia profite de ce travail ? Et que lorsque le jeu détecte une GeForce, il désactive le mode DX11 même si la carte le supporte ?


Ce serait moche, mais légitime, dans un sens ou dans l'autre, ça ne change absolument rien pour moi.
 
Et je ne cracherais pas sur le concurrent, mais pesterais sur le manque d'activité de la marque chez qui je me retrouve bridé... :spamafote:


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°7294231
o_BlastaaM​oof_o
Posté le 19-01-2010 à 09:50:19  profilanswer
 

Kyosh1ro a écrit :


Ce serait moche, mais légitime, dans un sens ou dans l'autre, ça ne change absolument rien pour moi.
 
Et je ne cracherais pas sur le concurrent, mais pesterais sur le manque d'activité de la marque chez qui je me retrouve bridé... :spamafote:


Mayway, c'est super, comme ça selon la marque de ta CG tu peux bénéficier ou non de certaines options dans les jeux. Un vrai bonheur pour l'utilisateur final tout ça [:cabri74]

n°7294236
Kyosh1ro
...
Posté le 19-01-2010 à 09:53:04  profilanswer
 

Tu le quote, mais t'as oublié de lire que c'était moche ? :o


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°7294243
o_BlastaaM​oof_o
Posté le 19-01-2010 à 09:57:00  profilanswer
 

Kyosh1ro a écrit :

Tu le quote, mais t'as oublié de lire que c'était moche ? :o


Rien que le fait que tu sois prêt à accepter ça, c'est déjà ahurissant :spamafote:
 
Tu en viens à défendre les pratiques d'une entreprise dans laquelle tu n'as à priori aucune action alors même que ces pratiques te desservent. Je ne comprends pas là.

n°7294248
Kyosh1ro
...
Posté le 19-01-2010 à 10:01:30  profilanswer
 

Je suis prêt à l'accepter, car je n'ai absolument pas le choix... :spamafote:
 
Ça ne dépend absolument pas de moi, s'ils veulent se fighter la tronche de façon déloyale, bah qu'ils le fassent, de toute façon qu'est-ce que je pourrais mettre en oeuvre pour les empêcher ? rien. :/
 
Et amha si on en arrivait à cette situation, les développeurs comprendraient réellement que quelquechose ne va pas dans ce genre de pratiques, car leurs ventes s'en ressentiraient grandement, et là ils se sortiraient certainement les doigts du cul au lieu d'optimiser uniquement quand une société annexe leur file du blé...


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°7294252
o_BlastaaM​oof_o
Posté le 19-01-2010 à 10:04:12  profilanswer
 

Kyosh1ro a écrit :

Je suis prêt à l'accepter, car je n'ai absolument pas le choix... :spamafote:
 
Ça ne dépend absolument pas de moi, s'ils veulent se fighter la tronche de façon déloyale, bah qu'ils le fassent, de toute façon qu'est-ce que je pourrais mettre en oeuvre pour les empêcher ? rien. :/
 
Et amha si on en arrivait à cette situation, les développeurs comprendraient réellement que quelquechose ne va pas dans ce genre de pratiques, car leurs ventes s'en ressentiraient grandement, et là ils se sortiraient certainement les doigts du cul au lieu d'optimiser uniquement quand une société annexe leur file du blé...


Justement si, tu peux y faire quelque chose. En l'occurrence, seul nVidia utilise ce genre de pratiques. Ma façon de montrer mon désaccord, c'est de privilégier systématiquement l'offre ATI quand celle-ci est dans le même ordre de performances. Ce qui est le cas depuis un moment maintenant.

n°7294261
MEI
|DarthPingoo(tm)|
Posté le 19-01-2010 à 10:15:51  profilanswer
 

o_BlastaaMoof_o a écrit :


Justement si, tu peux y faire quelque chose. En l'occurrence, seul nVidia utilise ce genre de pratiques. Ma façon de montrer mon désaccord, c'est de privilégier systématiquement l'offre ATI quand celle-ci est dans le même ordre de performances. Ce qui est le cas depuis un moment maintenant.


 
Hormis le cas Batman AA cite moi un seul jeu TWIMTBP ou pas, qui avantage systématiquement NVIDIA, volontairement, du à une directive de NVIDIA.
Tu n'en trouveras je pense heu... aucun.
 
Et même Batman AA c'est qu'une question d'activation de l'AA ou pas, même pas une question de performance. :spamafote:
 
La psychose ça va bien 5 minutes, mais résumer Fermi à "comme c'est NVIDIA c'est de la merde". Ça devient pathétique.

Message cité 3 fois
Message édité par MEI le 19-01-2010 à 10:17:06

---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7294264
Gigathlon
Quad-neurones natif
Posté le 19-01-2010 à 10:17:32  profilanswer
 

asmomo a écrit :

A priori un refresh "ala 4890" n'est pas possible car les apports de la 4890 (venant d'AMD) sont déjà implémentés dans les 5870. Par contre rien n'empêche une 5890 simplement fréquencée plus haut, avec les meilleurs GPUs du wafer, un peu plus de volts, un PCB un peu tweaké, bref ce que fait MSI quoi. Enfin idéalement je voudrais 2Go de RAM :love:


Deux autres types de refresh sont potentiellement envisageables ceci dit :
 
- un shrink bête et méchant (utilisation d'un process 32nm, mais lequel?)
- quelque chose de plus subtil, sur le même process avec les mêmes specs globales, mais corrigeant des goulets d'étranglement
 
Le premier est à mon avis peu probable, et de toute façon si ils faisaient un shrink je ne vois pas en quoi ils seraient tenus de ne pas améliorer leur archi.
 
Pour la 2e hypothèse, ça serait juste bien qu'on puisse mettre le doigt sur ce qui limite vraiment les Evergreen et en particulier Cypress, car là NVidia a montré plein de chiffres très largement en faveur du GF100, mais on ne peut pas savoir lesquels ont un impact réel sur les perfs.

Message cité 2 fois
Message édité par Gigathlon le 19-01-2010 à 10:20:19
n°7294271
Kyosh1ro
...
Posté le 19-01-2010 à 10:23:13  profilanswer
 

o_BlastaaMoof_o a écrit :

Justement si, tu peux y faire quelque chose. En l'occurrence, seul nVidia utilise ce genre de pratiques. Ma façon de montrer mon désaccord, c'est de privilégier systématiquement l'offre ATI quand celle-ci est dans le même ordre de performances. Ce qui est le cas depuis un moment maintenant.


J'achète surtout en fonction des perfs apportées dans mes jeux du moment et du prix de la carte, le reste, je ne m'en préoccupe pas... ;)
 
Et c'est d'ailleurs pour ça que je m'intéresse au GF100, une raison particulière me pousse à envisager l'achat d'une 5970, vu le prix de la carte, je préfère attendre de voir ce que nVidia mettra en face, sans ça j'aurais déjà une 5800. :jap:


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°7294273
o_BlastaaM​oof_o
Posté le 19-01-2010 à 10:24:11  profilanswer
 

MEI a écrit :


 
Hormis le cas Batman AA cite moi un seul jeu TWIMTBP ou pas, qui avantage systématiquement NVIDIA, volontairement, du à une directive de NVIDIA.
Tu n'en trouveras je pense heu... aucun.
 
Et même Batman AA c'est qu'une question d'activation de l'AA ou pas, même pas une question de performance. :spamafote:
 
La psychose ça va bien 5 minutes, mais résumer Fermi à "comme c'est NVIDIA c'est de la merde". Ça devient pathétique.


Honnêtement je n'en sais rien, je ne suis pas assez l'actu du JV. Mais quand bien même, ça a été fait une fois et ça t'amène à te poser des questions : peut-être que ça a été le cas dans d'autres jeux mais qu'on ne l'a pas su ? peut-être que nVidia va généraliser cette pratique à l'avenir ? Là, on est dans le domaine de la spéculation mais cette histoire a clairement montré comment nVidia travaille et ça te rend nécessairement méfiant à leur égard.
 
Quant à la phrase en gras, je ne vois pas d'où tu sors ça, je ne l'ai pas dit. Alors tes trolls et ton discours de chouineuse, tu te les gardes.

n°7294280
hamon6
PSN: HaMoNeR
Posté le 19-01-2010 à 10:33:02  profilanswer
 

J'adore ce topic [:parisbreizh]


---------------
FeedBack -- Zowie -- Profil D3
n°7294291
MEI
|DarthPingoo(tm)|
Posté le 19-01-2010 à 10:42:03  profilanswer
 

Gigathlon a écrit :


ça serait juste bien qu'on puisse mettre le doigt sur ce qui limite vraiment les Evergreen et en particulier Cypress


Leur archi au rendement plus que moyen. :spamafote:
 
 


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7294296
MEI
|DarthPingoo(tm)|
Posté le 19-01-2010 à 10:46:11  profilanswer
 

o_BlastaaMoof_o a écrit :


Honnêtement je n'en sais rien, je ne suis pas assez l'actu du JV. Mais quand bien même, ça a été fait une fois et ça t'amène à te poser des questions : peut-être que ça a été le cas dans d'autres jeux mais qu'on ne l'a pas su ? peut-être que nVidia va généraliser cette pratique à l'avenir ? Là, on est dans le domaine de la spéculation mais cette histoire a clairement montré comment nVidia travaille et ça te rend nécessairement méfiant à leur égard.
 
Quant à la phrase en gras, je ne vois pas d'où tu sors ça, je ne l'ai pas dit. Alors tes trolls et ton discours de chouineuse, tu te les gardes.


Suffit de lire le topic, les seuls arguments contre Fermi qu'on sort c'est "Batman AA c'est la magouille" et "PhysX ca pue en mode CPU". :sleep:  
 
A côté de ça personne ne relevé les points interessants de l'archi :
- le quadruple setup engine
- le CSAA amélioré
- le transparency AA amélioré
Des choses qui au final impact la qualité graphique. Avoir un AA encore meilleur est pour moi un argument de poids. (chose qu'ATI n'a pas su faire a part ressortir le SSAA qu'on avait déjà dans les GF2 par ex et qui est trop lourd et flou...)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7294305
glrpignolo
Posté le 19-01-2010 à 10:53:54  profilanswer
 

MEI a écrit :


 
Hormis le cas Batman AA cite moi un seul jeu TWIMTBP ou pas, qui avantage systématiquement NVIDIA, volontairement, du à une directive de NVIDIA.
Tu n'en trouveras je pense heu... aucun.
 
Et même Batman AA c'est qu'une question d'activation de l'AA ou pas, même pas une question de performance. :spamafote:
 
La psychose ça va bien 5 minutes, mais résumer Fermi à "comme c'est NVIDIA c'est de la merde". Ça devient pathétique.


 
 
Tu as tout à fait raison !
Mais il est tout aussi pathétique de dire que comme c'est nvidia, ça va tout déchirer, que tout ce qui est fait par cette marque est mieux qu'ailleurs, qu'il n'y a aucune question à se poser sur certaines optimisations (ou désoptimisations) et que le concurrent fait forcement de la merde.
 
Faut rester un peu ouvert d'esprit et surtout garder son sens critique.
Beaucoup de fanboys ont des oeillères et c'est pénible franchement.
Ce qui compte c'est de pouvoir avoir le choix du matos que l'on achète, de ne pas se faire forcer la main parce que tel ou tel jeu pourrait être optimisé (ou désoptimisé) par une marque et de ne pas se faire entuber niveau prix parce qu'une marque à le monopole niveau perf.
 
Ouh la la, le méchant anarchiste que je suis  :lol:  
 
Pour ce qui est du GT100, oui il sera surement plus perfs qu'une 5870, il sort 5 mois après, c'est le minimum...
La nouvelle archi est interessante aussi.
Ensuite il faudra voir de combien, à quel prix et ce que ça donne niveau consommation.
 
Maintenant pour celui qui doit changer de carte graphique dans les jours qui viennent, les HD5850/5870 me semble le meilleur choix pour du milieu/haut de gamme.


Message édité par glrpignolo le 19-01-2010 à 10:55:20
n°7294315
Gigathlon
Quad-neurones natif
Posté le 19-01-2010 à 11:04:10  profilanswer
 

MEI a écrit :

Leur archi au rendement plus que moyen. :spamafote:


Je veux pas dire, mais même un normand donne des réponses plus constructives... [:gratgrat]  
 
Sinon en décortiquant encore un peu la présentation, on peut tirer des chiffres à vérifier.
 
HAWX est annoncé à :
 
- 1 pour la GTX285 avec AA 8x
- 1.6 pour la GTX285 avec AA 4x
- 2.33 pour la GTX380 avec AA 8x  
- 2.57 pour la GTX380 avec AA 4x
 
Ca ne correspond pas au benchmark intégré si on regarde l'article sur la 5870, puisque la GTX285 aurait un indice de 1.38 ou 1.74 selon la résolution en AA 4x, mais en étant gentils on peut tirer des performances à confirmer de 108/98fps en 1920 AA 4x/8x (77/67fps pour la 5870) et 59/54fps en 2560 AA 4x/8x (56/48fps pour la 5870).
 
Sachant que dès la sortie de la 5870 le framerate en 1920 était suspect, le résultat "encourageant" de cette extrapolation ne l'est plus tant que ça.
 

MEI a écrit :

Avoir un AA encore meilleur est pour moi un argument de poids. (chose qu'ATI n'a pas su faire a part ressortir le SSAA qu'on avait déjà dans les GF2 par ex et qui est trop lourd et flou...)


Y'a 1 semaine, l'AA 8x était useless pourtant, y'a vraiment des trucs que je pige pas [:gratgrat]

Message cité 1 fois
Message édité par Gigathlon le 19-01-2010 à 11:08:10
n°7294319
MEI
|DarthPingoo(tm)|
Posté le 19-01-2010 à 11:10:47  profilanswer
 

Je crois que ce qui est surtout important à tirer de ce chiffre c'est que l'impact AA4X->AA8X est plus faible sur GF100 que sur GT200.
 
Après a voir comparé à l'impact AA4X->AA8X sur ATI. Mais bon déjà corrigé ce défaut c'est presque miraculeux.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7294322
Profil sup​primé
Posté le 19-01-2010 à 11:11:55  answer
 

MEI a écrit :

Je crois que ce qui est surtout important à tirer de ce chiffre c'est que l'impact AA4X->AA8X est plus faible sur GF100 que sur GT200.
 
Après a voir comparé à l'impact AA4X->AA8X sur ATI. Mais bon déjà corrigé ce défaut c'est presque miraculeux.


 
T'as lu un test de GF100? [:trance]

n°7294326
Gigathlon
Quad-neurones natif
Posté le 19-01-2010 à 11:13:50  profilanswer
 


Va voir sur le comptoir, ils ont mis quelques slides.
 
Maintenant, diminuer l'impact de l'AA 8x est une chose, mais si on part de trop bas ça ne sert pas à grand chose. (à mettre dans le même panier que la meilleure gestion théorique des petits triangles qui, si elle peut permettre de meilleures perfs avec la tessellation, implique à son tour d'avoir une puissance de calcul très importante...)


Message édité par Gigathlon le 19-01-2010 à 11:15:25
n°7294348
alexreunio​n
Posté le 19-01-2010 à 11:26:06  profilanswer
 

Gigathlon a écrit :


Je veux pas dire, mais même un normand donne des réponses plus constructives... [:gratgrat]

 

Sinon en décortiquant encore un peu la présentation, on peut tirer des chiffres à vérifier.

 

HAWX est annoncé à :

 

- 1 pour la GTX285 avec AA 8x
- 1.6 pour la GTX285 avec AA 4x
- 2.33 pour la GTX380 avec AA 8x
- 2.57 pour la GTX380 avec AA 4x

 

Ca ne correspond pas au benchmark intégré si on regarde l'article sur la 5870, puisque la GTX285 aurait un indice de 1.38 ou 1.74 selon la résolution en AA 4x, mais en étant gentils on peut tirer des performances à confirmer de 108/98fps en 1920 AA 4x/8x (77/67fps pour la 5870) et 59/54fps en 2560 AA 4x/8x (56/48fps pour la 5870).

 

Sachant que dès la sortie de la 5870 le framerate en 1920 était suspect, le résultat "encourageant" de cette extrapolation ne l'est plus tant que ça.

 


 
Gigathlon a écrit :


Y'a 1 semaine, l'AA 8x était useless pourtant, y'a vraiment des trucs que je pige pas [:gratgrat]


Pourtant si tu regardes le test de HFR ci dessous:

 

http://www.hardware.fr/medias/photos_news/00/27/IMG0027425.gif

 

Et qu'on prend un indice de 1 pour la GTX 285 en 1920 x 1200 FSAA 8x:

 

- 1 pour la GTX285 avec AA 8x
- 1.6 pour la GTX285 avec AA 4x -----------> 1.25 (selon le test HFR)
- 2.33 pour la GTX380 avec AA 8x
- 2.57 pour la GTX380 avec AA 4x

 

Et pour ceux qui ont la flemme de faire les calculs:

 

pour la GTX 295

 

- 1.96  avec AA 4x
- 1.58  avec AA 8x

 

pour la 5870

 

- 1.56 avec AA 4x
- 1.41 avec AA 8x

 

Pour la 5970

 

- 2.35 avec AA 4x
- 2.04 avec AA 8x

 

Pour un CF de 5870

 

- 3.00 avec AA 4x
- 2.70 avec AA 8x


Message édité par alexreunion le 19-01-2010 à 11:27:04

---------------
Mon feedback
n°7294351
MEI
|DarthPingoo(tm)|
Posté le 19-01-2010 à 11:27:30  profilanswer
 

NVIDIA a forcement pris les chiffres en 2560, là ou la GT200 s'écroule en AA8X, c'est le plus logique.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7294373
Kenshin011
Posté le 19-01-2010 à 11:46:28  profilanswer
 

o_BlastaaMoof_o a écrit :


Justement si, tu peux y faire quelque chose. En l'occurrence, seul nVidia utilise ce genre de pratiques. Ma façon de montrer mon désaccord, c'est de privilégier systématiquement l'offre ATI quand celle-ci est dans le même ordre de performances. Ce qui est le cas depuis un moment maintenant.


 
Sans aucune agressivité de ma part, tu penses sincèrement que faire ça changera quelque chose ?
Agir de la sorte ne changera pas le problème dans le sens ou l'entend Kyosh1ro.
 

n°7294375
Fouge
Posté le 19-01-2010 à 11:51:07  profilanswer
 

MEI a écrit :

Leur archi au rendement plus que moyen. :spamafote:

Tu parles de quel rendement ? perf/puissance_théorique ? perf/transistor ? perf/watt ?

MEI a écrit :

Suffit de lire le topic, les seuls arguments contre Fermi qu'on sort c'est "Batman AA c'est la magouille" et "PhysX ca pue en mode CPU". :sleep:

La psychose ça va bien 5 minutes :sleep:


Message édité par Fouge le 19-01-2010 à 11:52:51
n°7294391
pelouze
Posté le 19-01-2010 à 11:59:09  profilanswer
 

MEI a écrit :
Hormis le cas Batman AA cite moi un seul jeu TWIMTBP ou pas, qui avantage systématiquement NVIDIA, volontairement, du à une directive de NVIDIA.
Tu n'en trouveras je pense heu... aucun.
 
Et même Batman AA c'est qu'une question d'activation de l'AA ou pas, même pas une question de performance. :spamafote:
 
La psychose ça va bien 5 minutes, mais résumer Fermi à "comme c'est NVIDIA c'est de la merde". Ça devient pathétique.
 
 
 
A tout hasard, je dirais assassin's creed, qui a été amputé de directx 10.1 par nv car les ati s'en sortaient mieux que leurs 8800, donc bon.. des pratiques comme celles-ci bah euhh.............

Message cité 1 fois
Message édité par pelouze le 19-01-2010 à 12:00:22
n°7294416
foksa37
Posté le 19-01-2010 à 12:21:42  profilanswer
 

Allez c'est le topic où on se lâche, perso je sens un remake de juin/juillet 2008, GTX380@500-550 euros avec des performances +20% de la 5870, GTX360 de l'ordre de la 5870, avec nvidia qui s'aligne sur son prix plancher (elle doit couter plus cher que la HD5870, mais dans un premier temps il feront pas de bénéfice important, ils voudront juste faire bonne impression, et cette fois c'est eux qui disposent de la connaisance perf/prix de leur concurrent)
(De toute façon y a quasi que Crysis et stalker qui justifient leur acquisition, sauf passionnés ou joueurs sur "ultra" résolution)

n°7294440
MEI
|DarthPingoo(tm)|
Posté le 19-01-2010 à 12:50:38  profilanswer
 

pelouze a écrit :

MEI a écrit :
Hormis le cas Batman AA cite moi un seul jeu TWIMTBP ou pas, qui avantage systématiquement NVIDIA, volontairement, du à une directive de NVIDIA.
Tu n'en trouveras je pense heu... aucun.
 
Et même Batman AA c'est qu'une question d'activation de l'AA ou pas, même pas une question de performance. :spamafote:
 
La psychose ça va bien 5 minutes, mais résumer Fermi à "comme c'est NVIDIA c'est de la merde". Ça devient pathétique.
 
 
 
A tout hasard, je dirais assassin's creed, qui a été amputé de directx 10.1 par nv car les ati s'en sortaient mieux que leurs 8800, donc bon.. des pratiques comme celles-ci bah euhh.............


La cas Assasin's Creed NVIDIA n'a rien à voir la dedans.  :??:  
C'est Ubisoft qui n'a jamais finalisé le mode DX10.1... Qui entre autre zappait une partie du pipeline de rendu. :spamafote:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7294441
Gigathlon
Quad-neurones natif
Posté le 19-01-2010 à 12:50:39  profilanswer
 

Au passage, on peut se demander si des pratiques du genre ne vont pas se généraliser après lecture de l'article de Tridam, c'est surtout là que le cas Batman devient inquiétant.
 
Si on regarde les débits des ROPs et unités de filtrage, l'absence de blending/filtrage à pleine vitesse des formats FP10 et RGB9E5 peut être un tel handicap qu'ils suggèreront aux développeurs de passer sur du FP16 aux performances similaires... sur leur architecture.
 
Maintenant, si on considère que le FP10 et le RGB9E5 sont utilisables mais laissés de côté, quel serait le résultat en pratique? Un avantage en terme de performances totalement artificiel.
 
On pourrait comparer ça à un multi-threading tellement lourd que l'appli ne fonctionne réellement qu'avec un rendement faible même sur 4+ cores et extrêmement faible sur 1-2 cores : en apparence, ça profite bien de plus de cores donc c'est bien, mais en pratique on part de performances par core désastreuses, potentiellement au point de donner l'illusion que multiplier les cores apporte des perfs alors qu'elles restent inférieures à ce qu'un seul pourrait faire.
 
En résumé : diminution artificielle des performances pour donner l'illusion d'une supériorité/compétitivité qui n'est pas réelle.

Message cité 1 fois
Message édité par Gigathlon le 19-01-2010 à 12:56:09
n°7294481
alexreunio​n
Posté le 19-01-2010 à 13:09:10  profilanswer
 

MEI a écrit :

NVIDIA a forcement pris les chiffres en 2560, là ou la GT200 s'écroule en AA8X, c'est le plus logique.


En 2560 x 1600:
 
http://lycos3e.free.fr/Pics/Hawx_2560_indice.png
 
Donc je ne sais pas d'où sors l'indice fournit par Nvidia concernant la GTX 285 mais ça ne donne pas trop confiance sur l'indice que Nvidia donne pour le Fermi.


---------------
Mon feedback
n°7294487
Gigathlon
Quad-neurones natif
Posté le 19-01-2010 à 13:12:24  profilanswer
 

M'est d'avis que t'as dû faire une petite inversion quelque part :o
 
Au passage, je serais curieux de voir d'où pourrait venir le boost avec AA 8x constaté entre les 191.00 et les 195.55, en tout cas il montre à quel point NVidia peut sortir un peu n'importe quels chiffres vu qu'ils n'annoncent rien sur la config.

Message cité 1 fois
Message édité par Gigathlon le 19-01-2010 à 13:16:23
n°7294533
MEI
|DarthPingoo(tm)|
Posté le 19-01-2010 à 13:42:59  profilanswer
 

Gigathlon a écrit :

M'est d'avis que t'as dû faire une petite inversion quelque part :o
 
Au passage, je serais curieux de voir d'où pourrait venir le boost avec AA 8x constaté entre les 191.00 et les 195.55, en tout cas il montre à quel point NVidia peut sortir un peu n'importe quels chiffres vu qu'ils n'annoncent rien sur la config.


C'est surtout qu'on sait pas si y'a du Transparency AA ou pas et/ou du CSAA, et ni même le paramétrage de l'aniso.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7294575
Gigathlon
Quad-neurones natif
Posté le 19-01-2010 à 14:07:31  profilanswer
 

Va falloir arrêter de poster là Mei... je sais pas si tu t'en es rendu compte, mais depuis quelques posts tu descend le GF100 en flammes.
 
Si à chaque fois c'est du best case scenario, ça implique fatalement des perfs réelles pas vraiment glop.
 
Juste à titre de rappel, si on récapitule ce qu'on a eu comme infos jusqu'à présent, le GF100 a :
 
- une puissance de calcul brute minable, mais devrait pouvoir l'exploiter efficacement
- une capacité de filtrage des textures limitée, là où c'était un avantage indéniable du GT200 sur les HD4800
- un fillrate pas terrible sans AA et (à priori) juste comparable à Cypress avec, alors que c'était encore une fois un avantage indéniable du GT200 sur les HD4800
- une meilleure efficacité théorique sur les petits triangles
- des performances qui ne dépassent pas 2x celles d'un GT200, en AA 8x que ce dernier gère très mal
- une bien meilleure efficacité dans quelques tests synthétiques que Cypress
- une BP énorme
- un résultat "pratique" qui montre des perfs nettement supérieures à Cypress dans un bench "demo technologique"
- un résultat "pratique" qui montre des perfs pas forcément extraordinaires dans un des jeux qui a toujours favorisé leurs produits avec les réglages utilisés
 
Au final, si on passe tout ça au mixer on obtient un énorme :??:
 
Si on était optimiste, les quelques nouvelles informations révélées ne peuvent que semer le doute et seule une information peut rassurer un minimum.
 
Si on était péssimiste, une seule des nouvelles informations peut redonner un peu d'espoir, mais les autres sont tellement peu encourageantes que c'est difficile de "changer de camp".


Message édité par Gigathlon le 19-01-2010 à 14:08:54
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  66  67  68  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)