Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
5917 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  16  17  18  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7136145
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 06:45:03  profilanswer
 

Reprise du message précédent :

marllt2 a écrit :


Et tu te trompes. :o


 
 
 
Pour ma part je dirais paper launch vers début novembre, quelques cartes pour le black day aux states  (17novembre).......fin novembre début décembre une dispo plus large........  
 
Tout ça dans le meilleur des cas pour Nvidia ^^
 
 
 
Tu as bien lu tout le message avant de dire je me trompe ??  :D


Message édité par Rafale06 le 27-09-2009 à 06:45:41

---------------
Les kevin (j'ai 12ans lol) je les ignore......
mood
Publicité
Posté le 27-09-2009 à 06:45:03  profilanswer
 

n°7136146
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 06:47:08  profilanswer
 

Pour le moment les vrais infos = 0,40nm, DX11, DDR5 ..... taille du die ?? nouvelle architecture ???? et basta !!!!!! pour le reste ce n'est que des rumeurs et du blaa blaaa
 
Now on peux discuter des suppositions....à savoir que dans la gamme des GT200 !!!
 
GTX260, 275 et GTX 295  bus 448bits
 
GTX 285 bus 512bits
 
 
Au final on va retomber sur un bus 384bits donc retour en arrière (G80) ??? probable si guerre des prix et si la nouvelle architecture ne néçessite pas une telle bande passante.......
 
Pour ma part quand on vois la différence de perfs entre un bus 448bits (toutes les GTX sauf la 285) et 512 (GTX 285).......
 
Je pense que le meilleur rapport prix / perfs se situera la dedans ^^ encore une fois vivement le 30 Septembre voir début octobre pour avoir plus de croustillants à part du blaa blaa plus ou moins sérieux ;)

Message cité 1 fois
Message édité par Rafale06 le 27-09-2009 à 06:59:54

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7136147
marllt2
Posté le 27-09-2009 à 06:48:48  profilanswer
 

Rafale06 a écrit :

Pour le moment les vrais infos = 0,40nm, DX11, DDR5 ..... taille du die ?? et basta !!!!!! pour le reste ce n'est que des rumeurs et du blaa blaaa


Suffit de savoir où chercher.

n°7136148
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 06:50:54  profilanswer
 

marllt2 a écrit :


Suffit de savoir où chercher.


 
 
Je te l'accorde y a des sources plus ou moins fiables...........j'ai préçiser plus haut pour ce qui était dans le véridique et le reste dans l'illumination ^^


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7136149
marllt2
Posté le 27-09-2009 à 07:00:34  profilanswer
 

marllt2 a écrit :

Pas taped out le GT212.
 
Le GT300 oui, et (paper-?) launché en Décembre.

Wirmish a écrit :

Je sais tout ça.
 
Disons que je développe un XY500 et un XY300.
Mais que j'ai de gros problèmes avec le XY500.
Je remet le XY500 à plus tard, le temps de débugger la puce.
Ensuite je fait disparaître le XY300 de la roadmap.
Puis, j'annonce que le XY500 est tape-out.
Magie ?
Non, j'ai simplement fait passer le XY300 pour le XY500.
 
Ce que je dis, c'est que si la rumeur voulant que le GT300 ait un bus de 384 bit est fondée, il est possible que nVidia ait fait comme dans mon petit scénario, mais avec le GT300 et le GT212.


Le GT300 en question est DX11 (ou plutôt un chip Y devant être lancé en Décembre est DX11), donc pas un GT212 retaggé.


Message édité par marllt2 le 27-09-2009 à 07:01:54
n°7136150
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 07:05:15  profilanswer
 

Il est fort probable qu'il y ai X version du GT300.....un haut de gamme mono gpu prévu pour début décembre voir mi décembre !!! et un trés haut de gamme toujours en mono gpu.
 
Sela reste plausible si on regarde du coté des cartes GT200b  (GTX 260, 275 ,285)
 


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7136185
mikestewar​t
Air Roll Spinnin'
Posté le 27-09-2009 à 09:21:01  profilanswer
 

marllt2 a écrit :


Suffit de savoir où chercher.

 

Digitimes (qu'on va difficilement comparer à Charlie/Theo/Fuad...) parlait d'un lancement en Décembre, au mieux.  :jap:

 

Ce qui n'est pas plus surprenant que ça vu qu'on a aucun leak. Pour rappel, fin Juillet (il y a deux mois), Chiphell avait publié une photo de la 5870, mi-Juillet, AMD faisait tourner des démos DX11 sur Evergreen.

 

On est à deux mois de la fin Novembre et toujours rien sur le GT300, malheureusement.


Message édité par mikestewart le 27-09-2009 à 09:23:06
n°7136196
dragonlore
Posté le 27-09-2009 à 09:32:10  profilanswer
 

Wirmish a écrit :


C'est drôle mais moi je préfère la 2e solution.
 
Rien de mieux que 2 gladiateurs ayant la même puissance pour offrir un bon spectacle.
Si un gladiateur est trop puissant, le combat va durer 5 secondes, et je ne pense pas que les spectateurs seront ravis.
 
Quant au retard, nVidia a 2 fois plus d'admirateurs qu'AMD, donc c'est pas quelques semaines ou mois qui vont faire une différence.


tu dois être le seul car je doute que si on sort quelque chose de bien plus puissant que les gens peuvent s'offrir, il y en ait qui disent non je n'en veut pas, je préfère quelque chose de moins bien.

n°7136198
dragonlore
Posté le 27-09-2009 à 09:36:29  profilanswer
 

Wirmish a écrit :


En effet, il est impossible de refaire une archi en moins de 6 mois.

 

Le GT212, étant le GPU juste au dessous du GT300, il était peut-être équippé d'un bus de 384 bit. nVidia, sentant que les retards allaient s'accumuler avec le GT300, son bus de 512 bit, et l'implémentation du DirectX 11, a peut-être "renommé" son GT212 en GT300. Cela expliquerait le fait que le GT212 ait "disparu" de la roadmap du caméléon, et le fait que le GT300 ait maintenant un bus de 384 bit. Le seul problème que cela entraînerait, c'est que le GT300 serait alors compatible DX10.1 au lieu de DX11. nVidia devrait alors minimiser l'importance du DX11 afin de préparer le terrain.

 

C'est seulement une explication parmi tant d'autres.
Y'a très peu de chance que ce soit la bonne.

 

l'histoire du bus n'a rien à voir avec dx11 ou pas.

 

le gt300 n'aurait pas dx11? Si c'est oui alors nvidia veut se ruiner tout seul et c'est tellement stupide que personne ne ferait ça.
Moi aussi j'annonce que le gt300 sera uniquement compatible directx 9 car ils sont trop à la bourre. Même certaines rumeurs font état que d'un support de directx 5 par faute de temps et de moyens :lol:  :lol:  :lol:

 

c'est impossible tellement ça défierait les lois de la logique industrielle. Ce support sera peut être aussi raté que le support de dx9 sur les geforce 5 mais il existera.

 
Citation :

[i]C'est seulement une explication parmi tant d'autres.
Y'a très peu de chance que ce soit la bonne.


c'est sure à 1000%

  

après on peut spéculer sur tout et n'importe quoi vu qu'on ne connait même pas les specs du gt300. donc wait&see.

 

ati est bien passé d'un bus à 512 pour revenir à un bus 256. pourquoi pas nvidia?

Message cité 1 fois
Message édité par dragonlore le 27-09-2009 à 09:43:55
n°7136671
djffff
Time's like ocean in storm.
Posté le 27-09-2009 à 17:15:25  profilanswer
 

512 Bits GDDR3 différent de  512 Bits GDDR5 ... à fréquence également théoriquement 512Bits GDDR3 = 256Bits GDDR5 on peut donc penser que tjs à fréquence égale 384Bits GDDR5 > 512Bits GDDR3.. Ce n'est pas un retour en arrière bien au contraire.


Message édité par djffff le 27-09-2009 à 17:15:35
mood
Publicité
Posté le 27-09-2009 à 17:15:25  profilanswer
 

n°7136674
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-09-2009 à 17:17:47  profilanswer
 

dragonlore a écrit :

le gt300 n'aurait pas dx11? Si c'est oui alors nvidia veut se ruiner tout seul et c'est tellement stupide que personne ne ferait ça.
 
c'est impossible tellement ça défierait les lois de la logique industrielle. Ce support sera peut être aussi raté que le support de dx9 sur les geforce 5 mais il existera.


 
J'ai écrit plusieurs posts sur ce topic, et je me suis fait  :kaola: à chaque fois, ou presque.
 
 
Premièrement je n'invente rien, je prend les infos qui sortent et je fais avec.
Si j'émets une hypothèse, j'avertis qu'il s'agit d'un scénario et non d'un fait.
 
 
Deuxièmement, le GT300 doit être gravé en 40nm, ça c'est un fait.
Je regarde donc ce que produit nVidia dans cette finesse de gravure et je tombe sur une review de la Geforce G210.
Bizarrement nVidia n'a fait aucune pub sur cette carte qui a été lancée quasiment en secret.
Dans la review du G210 on voit que le chip est une 2e révision, qu'il est en 40nm et compatible DX10.1.
Déja, sortir un nouveau GPU en DX10.1 ça fait pas trop nouvelle génération...
Mais c'est pas ça le véritable problème.
Ce qui compte c'est de voir comment se comporte un GPU nVidia en 40nm, car le GT300 sera lui aussi gravé en 40nm.
 
On voit que côté fréquence les 2 cartes se ressemblent, mais côté gravure le G218 est devant la "vieille" 4350.
· G218 : 40nm, Core 589 MHz, Shaders 1402 MHz, DDR2 499 MHz.
· 4350 : 55nm, Core 600 MHz, Shaders   600 MHz, DDR2 500 MHz.
 
Voyons voir pour ce qui est de la conso:
http://filesmelt.com/downloader/G210vsHD4350.jpg
 
Ok, la G210 consomme plus, malgré le 40nm, mais est-elle plus performante ?
http://filesmelt.com/downloader/G20vsHD4250-FPS.jpg
 
Même pas. Elle se fait battre par la plus faible des Radeon, la 4350.
C'est pas moi qui le dit, c'est pas ma review.
 
Je vois pas pourquoi on m'accuse de "vomir sur nvidia" quand je donne un lien intéressant.
C'est la seule puce en 40nm, il est donc normal d'analyser ses perfs et sa conso pour voir si ça s'annonce bien pour le GT300.
On a fait pareil avec le RV740, donc faut cesser de jouer à l'autruche.
 
 
Troisièmement, les rumeurs disent que les yields du GT300 ne sont pas très bons.
Si on se base sur la conso et les perfs du G218, qui a une taille de seulement 57.3mm², on peut comprendre que le GT300, qui doit mesurer plus de 400mm², peut avoir quelques problèmes. De plus, le GT212 a été retiré de la roadmap, pourquoi ? Surement parce qu'il y avait trop de problèmes et trop de retard. Donc, je n'invente rien en disant que tout ne tourne pas rond chez le caméléon.
 
 
Quatrièmement, nVidia semble vouloir offrir une gamme de GPU composée de HDG DX11, de MDG DX10, et de bas de gamme DX10.1.
Encore là, je vois pas pourquoi on m'accuse de troller quand je dis ça puisque je n'invente rien.
La "stratégie" multi-DirectX de nVidia risque de ralentir le développement de jeux DX11. En effet, si seul le HDG est DX11, et que le HDG n'est acheté que par 10% des clients, et que nVidia contrôle 66% du marché, cela fera en sorte qu'au cours de la prochaine année, il se vendra plus de cartes DX10/10.1 que de cartes DX11.
Les développeurs de jeux ciblent généralement la gamme qui est la plus répandue sur le marché, c-à-d les cartes de moins de 150 euros, donc des cartes non-DX11, sauf du côté d'AMD qui ne contrôle que 33% du marché. Et avec les consoles qui sont en DX9, c'est pas ça qui va aider le DX11. Bref, j'aime pas trop ce qui se passe du côté du camélléon.
 
 
Cinquièmement, j'aimerais bien vous donner des news optimistes au sujet du GT300, mais je devrais les inventer.
On n'a rien à se mettre sous la dent. Que des rumeurs. Rien de sûr... même pas la largeur du bus qui change selon la source.
Habituellement, lorsqu'AMD lance une nouvelle archi, nVidia réplique par des slides de benchs, ou par des leaks bien préparés.
Cette fois, la seule réaction de nVidia a été de dire que leur carte à 129$ était plus rapide que le HDG d'AMD à 400$. Non seulement cette déclaration n'a pas de bon sang, mais en plus, si c'est la seule réaction du caméléon, on peut se poser de sérieuses questions.
Je répète que même en voulant être optimiste, les faits ne nous aident pas du tout a l'être.
 
 
Sixièmement, il y a 2 ans, on disait que l'avance de nVidia était quasiment insurmontable.
nVidia était tellement loin devant AMD, et faisait tellement d'argent, qu'on donnait pas cher de la peau d'ATi.
Et puis, aujourd'hui tout a changé, et nVidia s'est fait dépassé comme dans le Lièvre et la Tortue.
Comment voulez-vous être optimiste envers une compagnie qui laisse filer une avance de 2 ans ?
Qu'ont fait les techs du caméléon au cours des dernières années ?
On pourrait même aller jusqu'à dire que la division marketing a "créé" plus de "nouveaux" GPU que les techniciens.
Mais c'est pas le renommage à gogo qui va aider le caméléon sur le long terme.
 
 
Septièmement, on voit que nVidia commence a brider le PhysX sur les GeForce, si une Radeon est détectée dans l'ordinateur.
Alors, je vous le demande, est-ce qu'en faisant cela nVidia agit pour le bien de ses clients ?
Le mec qui a acheté une GT250 et qui désire la recycler pour la PhysX, ce qui serait normal et intelligent, mais qui décide d'opter pour une Radeon 5000 comme carte principale, se retrouve avec une GeForce inutilisable.
Même chose pour le mec qui possède une Radeon 4870 et qui aurait voulu s'acheter une 9800 GT d'occaz pour profiter du PhysX.
nVidia combat les Radeon 5000 en utilisant son PhysX comme moyen de chantage.
Comment voulez-vous que j'approuve ce genre de réaction ?
 
 
Huitièmement, je sais déja qu'on va me tomber dessus pour avoir écrit ce post.
J'imagine qu'on va dire que tout ce que j'ai écrit est faux/exagéré/inventé de toute pièce.
On va me traiter de troll et de pro-AMD, et on ne manquera pas de m'insulter... n'est-ce pas noobzed ?
Mais, bon, certains d'entre vous liront ce post et diront: "C'est pas faux."
Je m'adresse donc à ceux qui peuvent discuter et argumenter comme des gens civilisés.
Pour ce qui est des autres, faites donc comme si je n'existait pas au lieu de polluer le topic.
 
 
Finalement, malgré ce que certaines personnes peuvent penser, j'ai espoir que le GT300 sera aussi perfs que le RV870.
Un combat équitable permet aux clients de bénéficier d'une guerre de prix.
En effet, si les GPU offrent les mêmes perfs, il ne reste que le prix pour convaincre les acheteurs.
Donc, je ne suis pas anti-GT300, loin de là.
Je serais donc très heureux lorsque les bonnes nouvelles commenceront à arriver.
 
 
 :jap:

Message cité 3 fois
Message édité par Wirmish le 27-09-2009 à 17:24:29
n°7136686
campi
V8 FTW
Posté le 27-09-2009 à 17:31:04  profilanswer
 

Moi je suis assez d'accord avec wirmish... J'espère néanmoins que nvidia va nous sortir quelque chose de bien comme carte haut de gamme pour avoir le choix de la marque et la concurrence des prix.


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°7136691
wolfflyter
Posté le 27-09-2009 à 17:37:44  profilanswer
 

Wirmish
 

Citation :

Je vois pas pourquoi on m'accuse de "vomir sur nvidia"


 
Tu ne fais que ça et je me demande bien pourquoi.
 
As tu de l'Ati et du nvidia depuis des années ou bien n'as tu qu'Ati pour objectif produits a utiliser dans ta ou tes machines ?
 
:)


---------------
該反思的是,往往有幫助
n°7136698
trajouf
Posté le 27-09-2009 à 17:41:06  profilanswer
 

Tout ce que je vois c'est que le marché des CG piétine, un G80 a besoin de venir remettre tout à plat.
 
Tous les 3 ans un monstre vient remettre tout le monde d'accord, souvenez-vous :
 
Geforce DDR en 2000
Radeon 9700 Pro en 2003
Geforce 8800 GTX en 2006
et ************ en 2009...
 
En gros seul le GT300 peut faire quelque chose, ce n'est pas le RV870 qui va faire une révolution :/

Message cité 4 fois
Message édité par trajouf le 27-09-2009 à 17:42:24

---------------
Si tu le sais, dis le, sinon ferme la!
n°7136710
sasuke87
Posté le 27-09-2009 à 17:53:22  profilanswer
 

trajouf a écrit :

Tout ce que je vois c'est que le marché des CG piétine, un G80 a besoin de venir remettre tout à plat.
 
Tous les 3 ans un monstre vient remettre tout le monde d'accord, souvenez-vous :
 
Geforce DDR en 2000
Radeon 9700 Pro en 2003
Geforce 8800 GTX en 2006
et ************ en 2009...
 
En gros seul le GT300 peut faire quelque chose, ce n'est pas le RV870 qui va faire une révolution :/


 
avec la HD5870 et ses perfs (et son prix), je ne vois pas comment un GT300 pourrait mettre tout le monde d'accord, sauf s'il est plus 50% plus perf que le RV870. Mais bon ça m'étonnerais quand même ou alors ce serait le plus grand gain observé d'une génération à une autre.

n°7136714
fifi86
Glandeur pro !
Posté le 27-09-2009 à 17:54:44  profilanswer
 

Wirmish a écrit :


 
 
Bizarrement nVidia n'a fait aucune pub sur cette carte qui a été lancée quasiment en secret.
Dans la review du G210 on voit que le chip est une 2e révision, qu'il est en 40nm et compatible DX10.1.
Déja, sortir un nouveau GPU en DX10.1 ça fait pas trop nouvelle génération...


 
Bin en même temps les GT210 et 220 sortent le 12 octobre pour le pubic, attendons vraiment les tests des cartes constructeurs avant de donner un avis sur une carte, je pense que c'est mieux.
 
 

Wirmish a écrit :


Troisièmement, les rumeurs disent que les yields du GT300 ne sont pas très bons.
Si on se base sur la conso et les perfs du G218, qui a une taille de seulement 57.3mm², on peut comprendre que le GT300, qui doit mesurer plus de 400mm², peut avoir quelques problèmes.


 
Je dirai qu'il n'y a aucun rapport. Les GT210 et GT220 c'est juste pour voir ce que donne la production en 40nm, et sortir des cartes pas chères qui sont extrêmement vendues. Ca a deux objectfis pour nvidia : rafraichir sa gamme légèrement et avoir des cartes plus rentables. En aucun cas le but est de sortir un modèle performant.
 
 

Wirmish a écrit :


Quatrièmement, nVidia semble vouloir offrir une gamme de GPU composée de HDG DX11, de MDG DX10, et de bas de gamme DX10.1.


 
 
Pour le bas de gamme ok, de toute manière ces cartes dx10 ou 11 ou 7 ça change rien, on peut pas jouer avec. C'est juste de l'intégration et au maximu on va lui demander de bien décoder du bluray.
 
 
Pour les cartes MDG par contre :??:   D'où ça sort ces infos ??
 
Surtout en sachant que Nvidia ne livre plus de GTX285, et bientôt la même chose pour les GTX275 d'ici peu. C'est pas pour ne rien proposer (enfin j'espère).
 
 

Wirmish a écrit :


Les développeurs de jeux ciblent généralement la gamme qui est la plus répandue sur le marché, c-à-d les cartes de moins de 150 euros, donc des cartes non-DX11, sauf du côté d'AMD qui ne contrôle que 33% du marché. Et avec les consoles qui sont en DX9, c'est pas ça qui va aider le DX11.  


 
Tout a fait, au final ça risque de faire comme dx10.
 

Wirmish a écrit :


Cinquièmement, j'aimerais bien vous donner des news optimistes au sujet du GT300, mais je devrais les inventer.
On n'a rien à se mettre sous la dent. Que des rumeurs. Rien de sûr... même pas la largeur du bus qui change selon la source.
Habituellement, lorsqu'AMD lance une nouvelle archi, nVidia réplique par des slides de benchs, ou par des leaks bien préparés.


 
 
Oui et non. Si Nvidia a réellement un monstre prêt à arriver, quel est l'intérêt pour lui de faire du blabla et des faux power point ?  
Aucun, autant arriver tranquillement, et jeter la surprise sur le marché.
 
D'ailleurs à ce propos, faudra ptet renommer le topic GT300 bientôt, si Nvidia se motive à communiquer dans les prochaines semaines.  


---------------
...
n°7136716
Er1c
Higher is better
Posté le 27-09-2009 à 17:56:50  profilanswer
 

Pour l'instant, le haut de gamme ati nouvelle génération (5870) est tout juste supérieur au haut de gamme nvidia actuel (gtx295), quelques fonctionnalités non exploitées en plus.
 
Peu importe le nombre de GPU, nVidia ne peut pas sortir de solution qui soit juste égale ou inférieure à son haut de gamme actuel. C'est ce tirer une balle dans le pied.

n°7136717
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-09-2009 à 17:56:51  profilanswer
 

wolfflyter a écrit :

Citation :

Je vois pas pourquoi on m'accuse de "vomir sur nvidia"

Tu ne fais que ça et je me demande bien pourquoi.

Et toi tu préfères jouer à l'autruche et croire que tout vas pour le mieux pour nVidia ?
 
 

wolfflyter a écrit :


As tu de l'Ati et du nvidia depuis des années ou bien n'as tu qu'Ati pour objectif produits a utiliser dans ta ou tes machines ? :)

J'ai une 6600GT, une 8800 GTS 320 Mo et une 3850 IceQ3 512 Mo... et une Ti4200 dans un tiroir.

n°7136729
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-09-2009 à 18:03:02  profilanswer
 

Er1c a écrit :

Pour l'instant, le haut de gamme ati nouvelle génération (5870) est tout juste supérieur au haut de gamme nvidia actuel (gtx295), quelques fonctionnalités non exploitées en plus.


La nouvelle génération ce n'est pas que la HD 5870.
C'est aussi la 5850-X2, prévue pour novembre.
Et une rumeur parle déja d'une HD 5890 avant les fêtes.
Donc, si tu compares la GTX295 avec la 5870, faut aussi que tu acceptes de la comparer avec la 5850-X2.
 

Er1c a écrit :

Peu importe le nombre de GPU, nVidia ne peut pas sortir de solution qui soit juste égale ou inférieure à son haut de gamme actuel. C'est ce tirer une balle dans le pied.


C'est pourtant ce que vient de faire AMD.
Sa HD 5870 est 5% en dessous de sa 4870-X2.
AMD c'est donc tiré une balle dans le pied ?


Message édité par Wirmish le 27-09-2009 à 18:04:16
n°7136738
Er1c
Higher is better
Posté le 27-09-2009 à 18:06:02  profilanswer
 

Tu comprends le mot "pour l'instant" ?

n°7136742
wolfflyter
Posté le 27-09-2009 à 18:06:39  profilanswer
 

Wirmish a écrit :

Et toi tu préfères jouer à l'autruche et croire que tout vas pour le mieux pour nVidia ?
 
 


 

Wirmish a écrit :

J'ai une 6600GT, une 8800 GTS 320 Mo et une 3850 IceQ3 512 Mo... et une Ti4200 dans un tiroir.


 
 
je me fiche bien de savoir comment va nvidia ou ati du moment que ce que j'achète ou fait acheter réponds a une demande
précise.
 
je me fiche également de savoir le X du Z = B d'une carte vidéo qui n'a une durée de vie que de quelques mois.
 
Tu fais de la polémique de bas niveau entre Ati et nvidia j'ai pas besoin de lancer une recherche sur tout les
méssages alacon que tu as posté a ce niveau.
 
 
 :)  
 
 
 


---------------
該反思的是,往往有幫助
n°7136743
Gigathlon
Quad-neurones natif
Posté le 27-09-2009 à 18:07:35  profilanswer
 

trajouf a écrit :

En gros seul le GT300 peut faire quelque chose, ce n'est pas le RV870 qui va faire une révolution :/


On verra ça quand on aura des GT300 à se mettre sous la dent, car en attendant en face ils ont une puissance brute quasiment 3x plus importante que le GT200b sans même compter certains ajouts depuis le RV770...
 
Je te rappelle au passage que lors de ses premiers tests le R300 n'était pas si impérial que ça:
 
http://www.hardware.fr/medias/photos_news/00/05/IMG0005089.gif
 
Pourtant on connait tous la suite... les jeux évoluant, ses perfs se sont réellement dévoilées. Note: les scores AA/AF sont plus ou moins à écarter de tout raisonnement tant l'écart en BP et fillrate était important (du simple au double...)
 
Ici, on a une 5870 qui est déjà franchement supérieure au GT200 qui représente la puce la plus puissante de la précédente génération et titille les solutions bi-GPU, sur des jeux d'ancienne génération (DX9/DX10), comme à l'époque (DX8).

Message cité 1 fois
Message édité par Gigathlon le 27-09-2009 à 18:16:08
n°7136786
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 18:43:44  profilanswer
 

Pour moi le prob actuel chez ATI = bus 256bits et 1go de ram......pour l'instant ça va encore à 2 ou 3jeux prés.....mais pour l'avenir ?? ^^
 
Now si Nvidia sort vraiment une nouvelle architecture qui déchire...exemple  comme avec le G80....
 
Bref je vais pas faire de la spéculation digne d'un illuminati ;)....vivement début octobre et voir ce que donnera le salon nvidia du gpu...


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7136789
dragonlore
Posté le 27-09-2009 à 18:44:09  profilanswer
 

Gigathlon a écrit :


On verra ça quand on aura des GT300 à se mettre sous la dent, car en attendant en face ils ont une puissance brute quasiment 3x plus importante que le GT200b sans même compter certains ajouts depuis le RV770...
 
Je te rappelle au passage que lors de ses premiers tests le R300 n'était pas si impérial que ça:
 
http://www.hardware.fr/medias/phot [...] 005089.gif
 
.


pas impériale? regarde ton graphique: en 1600 c'est 50% de perf en plus en 1024 avec aa c'est 100% en plus, en 1600 avec aa c'est plus de 2 fois plus rapide.
 
si la 9700pro était impériale par rapport à sa concurrente et faisait bien mieux. C'est pour ça qu'elle a connu autant de succès sans parler du support dx9 réussit et d'un support driver tout aussi réussit et aussi du ratage du nv30. De plus elle a eu une duré&e de vie longue car même 3 ans après elle permettait de jouer à encore pas mal de jeux à fond (j'ai gardé la mienne 4 ans et demie et à part les gros jeux très gourmand comme fear, j'ai pas eu trop de problème même au bout de 3 ans à part sur la fin)
 
la hd5870 est bien moins impériale par rapport à ses concurrentes existantes même si elle reste une très bonne carte.
 
Et si le GT300 est aussi impériale que l'était le r300, ça va surement être une bête de puissance.

n°7136793
dragonlore
Posté le 27-09-2009 à 18:47:07  profilanswer
 

Wirmish a écrit :


 
J'ai écrit plusieurs posts sur ce topic, et je me suis fait  :kaola: à chaque fois, ou presque.
 
 
Premièrement je n'invente rien, je prend les infos qui sortent et je fais avec.
Si j'émets une hypothèse, j'avertis qu'il s'agit d'un scénario et non d'un fait.
 
 
Deuxièmement, le GT300 doit être gravé en 40nm, ça c'est un fait.
Je regarde donc ce que produit nVidia dans cette finesse de gravure et je tombe sur une review de la Geforce G210.
Bizarrement nVidia n'a fait aucune pub sur cette carte qui a été lancée quasiment en secret.
Dans la review du G210 on voit que le chip est une 2e révision, qu'il est en 40nm et compatible DX10.1.
Déja, sortir un nouveau GPU en DX10.1 ça fait pas trop nouvelle génération...
Mais c'est pas ça le véritable problème.
Ce qui compte c'est de voir comment se comporte un GPU nVidia en 40nm, car le GT300 sera lui aussi gravé en 40nm.
 
On voit que côté fréquence les 2 cartes se ressemblent, mais côté gravure le G218 est devant la "vieille" 4350.
· G218 : 40nm, Core 589 MHz, Shaders 1402 MHz, DDR2 499 MHz.
· 4350 : 55nm, Core 600 MHz, Shaders   600 MHz, DDR2 500 MHz.
 
Voyons voir pour ce qui est de la conso:
http://filesmelt.com/downloader/G210vsHD4350.jpg
 
Ok, la G210 consomme plus, malgré le 40nm, mais est-elle plus performante ?
http://filesmelt.com/downloader/G20vsHD4250-FPS.jpg
 
Même pas. Elle se fait battre par la plus faible des Radeon, la 4350.
C'est pas moi qui le dit, c'est pas ma review.
 
Je vois pas pourquoi on m'accuse de "vomir sur nvidia" quand je donne un lien intéressant.
C'est la seule puce en 40nm, il est donc normal d'analyser ses perfs et sa conso pour voir si ça s'annonce bien pour le GT300.
On a fait pareil avec le RV740, donc faut cesser de jouer à l'autruche.
 
 
Troisièmement, les rumeurs disent que les yields du GT300 ne sont pas très bons.
Si on se base sur la conso et les perfs du G218, qui a une taille de seulement 57.3mm², on peut comprendre que le GT300, qui doit mesurer plus de 400mm², peut avoir quelques problèmes. De plus, le GT212 a été retiré de la roadmap, pourquoi ? Surement parce qu'il y avait trop de problèmes et trop de retard. Donc, je n'invente rien en disant que tout ne tourne pas rond chez le caméléon.
 
 
Quatrièmement, nVidia semble vouloir offrir une gamme de GPU composée de HDG DX11, de MDG DX10, et de bas de gamme DX10.1.
Encore là, je vois pas pourquoi on m'accuse de troller quand je dis ça puisque je n'invente rien.
La "stratégie" multi-DirectX de nVidia risque de ralentir le développement de jeux DX11. En effet, si seul le HDG est DX11, et que le HDG n'est acheté que par 10% des clients, et que nVidia contrôle 66% du marché, cela fera en sorte qu'au cours de la prochaine année, il se vendra plus de cartes DX10/10.1 que de cartes DX11.
Les développeurs de jeux ciblent généralement la gamme qui est la plus répandue sur le marché, c-à-d les cartes de moins de 150 euros, donc des cartes non-DX11, sauf du côté d'AMD qui ne contrôle que 33% du marché. Et avec les consoles qui sont en DX9, c'est pas ça qui va aider le DX11. Bref, j'aime pas trop ce qui se passe du côté du camélléon.
 
 
Cinquièmement, j'aimerais bien vous donner des news optimistes au sujet du GT300, mais je devrais les inventer.
On n'a rien à se mettre sous la dent. Que des rumeurs. Rien de sûr... même pas la largeur du bus qui change selon la source.
Habituellement, lorsqu'AMD lance une nouvelle archi, nVidia réplique par des slides de benchs, ou par des leaks bien préparés.
Cette fois, la seule réaction de nVidia a été de dire que leur carte à 129$ était plus rapide que le HDG d'AMD à 400$. Non seulement cette déclaration n'a pas de bon sang, mais en plus, si c'est la seule réaction du caméléon, on peut se poser de sérieuses questions.
Je répète que même en voulant être optimiste, les faits ne nous aident pas du tout a l'être.
 
 
Sixièmement, il y a 2 ans, on disait que l'avance de nVidia était quasiment insurmontable.
nVidia était tellement loin devant AMD, et faisait tellement d'argent, qu'on donnait pas cher de la peau d'ATi.
Et puis, aujourd'hui tout a changé, et nVidia s'est fait dépassé comme dans le Lièvre et la Tortue.
Comment voulez-vous être optimiste envers une compagnie qui laisse filer une avance de 2 ans ?
Qu'ont fait les techs du caméléon au cours des dernières années ?
On pourrait même aller jusqu'à dire que la division marketing a "créé" plus de "nouveaux" GPU que les techniciens.
Mais c'est pas le renommage à gogo qui va aider le caméléon sur le long terme.
 
 
Septièmement, on voit que nVidia commence a brider le PhysX sur les GeForce, si une Radeon est détectée dans l'ordinateur.
Alors, je vous le demande, est-ce qu'en faisant cela nVidia agit pour le bien de ses clients ?
Le mec qui a acheté une GT250 et qui désire la recycler pour la PhysX, ce qui serait normal et intelligent, mais qui décide d'opter pour une Radeon 5000 comme carte principale, se retrouve avec une GeForce inutilisable.
Même chose pour le mec qui possède une Radeon 4870 et qui aurait voulu s'acheter une 9800 GT d'occaz pour profiter du PhysX.
nVidia combat les Radeon 5000 en utilisant son PhysX comme moyen de chantage.
Comment voulez-vous que j'approuve ce genre de réaction ?
 
 
Huitièmement, je sais déja qu'on va me tomber dessus pour avoir écrit ce post.
J'imagine qu'on va dire que tout ce que j'ai écrit est faux/exagéré/inventé de toute pièce.
On va me traiter de troll et de pro-AMD, et on ne manquera pas de m'insulter... n'est-ce pas noobzed ?
Mais, bon, certains d'entre vous liront ce post et diront: "C'est pas faux."
Je m'adresse donc à ceux qui peuvent discuter et argumenter comme des gens civilisés.
Pour ce qui est des autres, faites donc comme si je n'existait pas au lieu de polluer le topic.
 
 
Finalement, malgré ce que certaines personnes peuvent penser, j'ai espoir que le GT300 sera aussi perfs que le RV870.
Un combat équitable permet aux clients de bénéficier d'une guerre de prix.
En effet, si les GPU offrent les mêmes perfs, il ne reste que le prix pour convaincre les acheteurs.
Donc, je ne suis pas anti-GT300, loin de là.
Je serais donc très heureux lorsque les bonnes nouvelles commenceront à arriver.
 
 
 :jap:


la seule chose que je peux dire c'est que si le gt300 n'est pas directx11, nvidia se tire une balle dans le pied et ferait mieux de ne pas la sortir.
 
Mais bon ça n'est jamais arrivé que ce soit chez ati ou nvidia.
 
Je reste persuadé que le gt300 sera dx11 ou n'existera pas. Après sera-t-elle une bonne carte? là seul certains ingénieurs ou développeurs qui doivent avoir les premiers exemplaires de cette carte le savent.

n°7136850
Gigathlon
Quad-neurones natif
Posté le 27-09-2009 à 19:19:29  profilanswer
 

dragonlore a écrit :


pas impériale? regarde ton graphique: en 1600 c'est 50% de perf en plus en 1024 avec aa c'est 100% en plus, en 1600 avec aa c'est plus de 2 fois plus rapide.


J'ai bien précisé d'occulter les résultats avec AA... :o
 
A l'époque on avait un rapport de 1 à 2 entre la GF4600 et la R9700 aussi bien en terme de rops que de BP, là on en est très loin entre GTX285 et 5870.
 
Or, on n'arrivait qu'à 50% dans des cas déjà pas mal favorables à ce doublement, et à peine mieux en 1024... qui était quand même la résolution courante de l'époque (même si j'étais déjà en 1600x1200@75Hz sur un 17", ces bébés coûtaient quand même 400€ en fin de vie et 500€ 1 an avant, à comparer aux 200-300€ d'un 24" actuellement...)

Message cité 1 fois
Message édité par Gigathlon le 27-09-2009 à 19:20:45
n°7136866
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 19:26:58  profilanswer
 

Tiens j'ai envie de faire l'illuminati sauce Nvidia.....
 
http://img29.imageshack.us/img29/7324/gtx380reference.png

Message cité 3 fois
Message édité par Rafale06 le 27-09-2009 à 19:27:26

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7136870
Ovan
O_O
Posté le 27-09-2009 à 19:31:23  profilanswer
 

Ouai mais là on voit bien que ce sont des conneries (la 5870 fait 42 fps, en 1920 AA4x sur crysis warhead sur le dernier test HFR).

Message cité 2 fois
Message édité par Ovan le 27-09-2009 à 19:31:47
n°7136871
dragonlore
Posté le 27-09-2009 à 19:31:35  profilanswer
 

Gigathlon a écrit :


J'ai bien précisé d'occulter les résultats avec AA... :o
 
A l'époque on avait un rapport de 1 à 2 entre la GF4600 et la R9700 aussi bien en terme de rops que de BP, là on en est très loin entre GTX285 et 5870.
 
Or, on n'arrivait qu'à 50% dans des cas déjà pas mal favorables à ce doublement, et à peine mieux en 1024... qui était quand même la résolution courante de l'époque (même si j'étais déjà en 1600x1200@75Hz sur un 17", ces bébés coûtaient quand même 400€ en fin de vie et 500€ 1 an avant, à comparer aux 200-300€ d'un 24" actuellement...)


le 1024 c'était pas la réso courante. on était déjà au 1280*1024 minimum. Le 1024 c'était en 2000. Le 1600*1200 était déjà monnaie courante avec les crts 19" devenus l'écran à la mode depuis déjà 2-3 ans.
de plus ces cartes étaient bridés par les cpus en 1024 surtout avec ce jeu. comparer en 1024 n'avait aucun intérêt
regarde sur les autres jeux du etst sur hardware.fr tu verras que la geforce se faisait battre à plate couture
 
Et pourquoi ne pas parler de l'aa? C'était déjà utilisé par pas mal de gens donc l'aa il faut le prendre en compte.
 
en aa la radeon pouvait être jusqu'à 400 % plus perfs que la ti4600 et souvent plus du double
 
non la 9700pro était une vrai bombe niveau perf. La première vraie carte 3d réussie d'ati et à l'heure (je ne parle pas des cartes 2d).

n°7136877
hidetoo
J'ai mis un chapeau !
Posté le 27-09-2009 à 19:33:59  profilanswer
 

Rafale06 a écrit :

Tiens j'ai envie de faire l'illuminati sauce Nvidia.....
 
http://img29.imageshack.us/img29/7 [...] erence.png


 
c'est bizarre c'est le seul test où la 295 est tout le temps devant  :whistle:


---------------
ACH/VDS Pornographie pour Geek !!! FEED
n°7136878
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 19:34:14  profilanswer
 

Ovan a écrit :

Ouai mais là on voit bien que ce sont des conneries (la 5870 fait 42 fps, en 1920 AA4x sur crysis warhead sur le dernier test HFR).


 
 
Fort possible ^^ un peu comme tous les posts d'une certaine personne ^^..........
 
Mais au final , pas tant que ça tout dépend de la machine utilisé et ensuite de la scene qui à permis le calcul et des réglages ( gamer ??)  ^^( sauf évidement si le mode bench à été activé)...........


Message édité par Rafale06 le 27-09-2009 à 19:36:39

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7136879
dragonlore
Posté le 27-09-2009 à 19:34:15  profilanswer
 

Ovan a écrit :

Ouai mais là on voit bien que ce sont des conneries (la 5870 fait 42 fps, en 1920 AA4x sur crysis warhead sur le dernier test HFR).


tu te trompes. Elle fait pas 42 car là ce serait extraordinaire. Elle fait seulement 29.
42 c'est pour le mode gamer et non enthousiast.

 

bref elle fait mieux dans l'image ci-dessus que dans le test de hardware.fr


Message édité par dragonlore le 27-09-2009 à 19:35:08
n°7136881
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 19:35:31  profilanswer
 

hidetoo a écrit :


 
c'est bizarre c'est le seul test où la 295 est tout le temps devant  :whistle:


 
 
Et bien il me semble que la GTX 295 est trés souvent devant non ????? ^^ tout dépend des réglages coté filtre etc.....^^
 
Un graph à prendre avec des pincettes évidement ;)


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7136882
dragonlore
Posté le 27-09-2009 à 19:35:39  profilanswer
 

Rafale06 a écrit :

Tiens j'ai envie de faire l'illuminati sauce Nvidia.....

 

http://img29.imageshack.us/img29/7 [...] erence.png


c'est toi qui l'a fait tout seul ou tu l'as trouvé quelque part ce graphique?

 

si le gt300 avait ces perfs, là ce serait une bombe.

Message cité 1 fois
Message édité par dragonlore le 27-09-2009 à 19:36:28
n°7136883
Ovan
O_O
Posté le 27-09-2009 à 19:35:46  profilanswer
 

En effet mea culpa, m'enfin ça me semble tout de même surréaliste ce tableau.

n°7136889
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 19:37:30  profilanswer
 

dragonlore a écrit :


c'est toi qui l'a fait tout seul ou tu l'as trouvé quelque part ce graphique?
 
si le gt300 avait ces perfs, là ce serait une bombe.


 
Non pas de moi ^^  
 
 
source : http://forums.pcgameshardware.com/ [...] php?p=5604


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7136891
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 19:38:27  profilanswer
 

Ovan a écrit :

En effet mea culpa, m'enfin ça me semble tout de même surréaliste ce tableau.


 
Bah tant qu'a part dans la spéculation bas de gamme............fin bref ^^ pour moi je trouve pas tant que ça , on ne connait pas les réglages ni la machine utilisé ...


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7136895
Gigathlon
Quad-neurones natif
Posté le 27-09-2009 à 19:40:42  profilanswer
 

dragonlore a écrit :

Et pourquoi ne pas parler de l'aa? C'était déjà utilisé par pas mal de gens donc l'aa il faut le prendre en compte.


Car ça ne correspond pas du tout à la situation actuelle, 3e fois que je le dis quand même...
 
Entre la GTX285 et la 5870, la BP est quasi identique (+3.5% à la GTX285) et le fillrate seulement 20% plus élevé.
 
Et si à cette époque (GF4 Ti) l'AA était si utilisé, faudra m'expliquer comment les gens jouaient aux 20fps que montrent ces tests...

n°7136902
Ovan
O_O
Posté le 27-09-2009 à 19:45:58  profilanswer
 

Rafale06 a écrit :


 
Bah tant qu'a part dans la spéculation bas de gamme............fin bref ^^ pour moi je trouve pas tant que ça , on ne connait pas les réglages ni la machine utilisé ...


 
Ah non mais je vais pas te reprocher de l'avoir mis ici, au contraire mais bon ça fait quasi 40% de plus que la 295 sur ce panel (c'est une moyenne du panel), j'y crois pas trop donc.

n°7136905
hidetoo
J'ai mis un chapeau !
Posté le 27-09-2009 à 19:49:20  profilanswer
 

Je suis même pas sûr qu'une ait déjà été fabriquée :/

Message cité 2 fois
Message édité par hidetoo le 27-09-2009 à 19:49:30

---------------
ACH/VDS Pornographie pour Geek !!! FEED
n°7136906
globule
Posté le 27-09-2009 à 19:49:23  profilanswer
 

:sleep:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  16  17  18  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)