Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3677 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  9  10  11  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7125048
Rafale06
Vive les Suisses (Neutre..)
Posté le 21-09-2009 à 06:41:48  profilanswer
 

Reprise du message précédent :

Wirmish a écrit :


Je répondais à un post au sujet des ALU et de leur puissance de calcul.
 
Si on prend en compte uniquement la puissance de calcul brut, oui la HD4890 explose la GTX 285.  
J'ai expliqué tout ça sur "l'autre" topic -> LIEN #1, LIEN #2, et LIEN #3.
Tu devrais avoir eu l'occasion de lire ces 3 posts puisque toi aussi tu visites les 2 topics.
 
Donc, oui les SP des Radeon sont très puissants, mais lorsqu'on ajoute à cela la nécessité de trier tout les jolis triangles d'une scène, et y mettre plein de textures, alors là je conviens que la HD4890 n'arrive pas à la cheville de la GTX285. Et comme un jeu n'est pas fait que de calculs, mais aussi de textures et de plein d'autres choses, cela fait en sorte que la puissance de calcul du RV790 ne suffit pas à battre l'archi "mieux équilibrée" du GT200.
 
HD4890 : 160 SP (800 ALU) @ 850 MHz, 40 TMUs et 4 RBEs (16 ROPs)
GTX285 : 240 SP + 30 DP @ 1476 MHz, 80 TMUs, et 32 ROPs.
 
J'oserais ajouter qu'avec l'arrivé de Windows 7 et des Compute Shaders, et avec l'OpenCL d'Apple, ainsi que tous les logiciels qui vont bientôt utiliser les GPU pour faire du calcul, sans utiliser les unités de texturing et les ROPs, la puissance de calcul des SP auront une importance bien plus grande qu'auparavant. C'est pourquoi j'espère pour nVidia qu'ils auront optimisé leurs SP au maximum, tout comme l'ont fait les techs d'AMD avec leur archi.


 
 
On est ok la dessus.......il est clair est net que l'architecture bcp plus complexe et quand même plus homogêne et mieux conçus dans son ensemble....d'ou au final un avantage coté perfs :love:  et malheureusement pour le client un prix plus élevé que chez son concurrent  :pt1cable:


---------------
Les kevin (j'ai 12ans lol) je les ignore......
mood
Publicité
Posté le 21-09-2009 à 06:41:48  profilanswer
 

n°7125050
Rafale06
Vive les Suisses (Neutre..)
Posté le 21-09-2009 à 06:52:02  profilanswer
 

hyksos_sowo a écrit :

Oui la GT300 sera plus puissante que la 5870 (J'espère que ça surprend personne..)
ET oui elle aura un die beaucoup plus gros que la 5870. (Encore la, pas de surprise)
 
Par contre cette foi ATI est 1er, donc Nvidia ne pourra pas enculer ses fanboy avec des prix ridicule au lancement.
 
 
C clair que sur le coté tarif nvidia ne fait aucun cadeau et fait payer trés cher ou son avance technologique et ses perfs......
 
Pour l'arrivée tardive sur le DX11 ils feront moins les malins coté tarifs et logiquement avec des meilleurs perfs (nouvelle architecture et le retard accumulé).
 
------------
 
 
Et oui la superficie de la puce à une importance (Contrairement à certain qui disent le contraire) Plus la puce est grosse, [b]plus c'est difficile de monter les fréquences, il y a moins de puce produite par galette de 300mm de silicium et ajouter à cela que le yield est impérativement plus bas...
[/b]
 
Coté overclocking les puces nvidia sur les GT200B font des étincelles (perso une GTX 275 @ 767 gpu , 1567 shaders, 1260 ram)... donc ont dira que dans une grosse majorité des cas coté overclocking  les HD48XX et les GT200b se valent ^^
 
 
 
---------------------
 
Donc on se retrouve avec une puce nécessairement plus couteuse à produire que la RV870 en plus d'un PCB plus complexe (bus mémoire plus large) donc lui aussi plus couteux.
 
NVidia veux faire de l'argent bien entendu, le semi-échec du GT200 n'était pas du au fait que la puce n'était pas puissante, mais bien au fait que NVidia la vendait beaucoup moins chère que prévu, pour contrer un concurrent beaucoup plus féroce que prévu, NVidia ont voulut protéger leur part de marcher... c'est tout à fait normale, par contre ils ne pourront pas jouer à ce petit jeux indéfiniment.
 
D'où les inquiétudes sur le GT300, à quel point sera-t-elle plus puissante que la RV870.. si c'est seulement 15-20%... j'ai bien peur que NVidia aura une année assez difficile... NVidia doivent absolument avoir une GT300 qui fait au minimum 30% de mieux que la RV870... pour que se soit un succès FINANCIER pour NVidia.
 
 
S'il y a entre 15 et 20% de puissance à un prix équivalent ou légerement supérieur (30 ou 40euros de plus) ce ne sera pas trop difficile pour Nvidia, quand on est capable de sortir entre 350 et 400euros on va pas chipoter pour un pti peu plus cher et entre 15 et 20% de puissance en plus ^^
 
 
-------------
 
Je suis également certain que Nvidia fera un GX2 de GT300.... avec des puces sélectionner pouvant fonctionner à des tensions plus basse mais avec une fréquence plus basse aussi, mais ça devrait être suffisant pour battre la 5870X2...
 
Donc oui ceux qui veulent acheter le top du top devraient attendre la GT300, pas de doute.


 
 
 
Merci pour ton post constructif ;) .....bien analysé au final ^^
 
Pour ma part mes craintes iront sur l'aspect plus cher (combien au final ???) et le rapport prix/perfs.........le retard je m'en tamponne le coquillage il n'y aura aucune appli (jeux)  native en DX11 avant fin 2010 au plus tôt ;)
 
Et au mieux une ptite dizaine de jeux optimisés d'ici cette date.


Message édité par Rafale06 le 21-09-2009 à 06:52:28

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7125051
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 21-09-2009 à 06:53:26  profilanswer
 

Rafale06 a écrit :

On est ok la dessus.......il est clair est net que l'architecture bcp plus complexe et quand même plus homogêne et mieux conçus dans son ensemble....d'ou au final un avantage coté perfs :love:  et malheureusement pour le client un prix plus élevé que chez son concurrent  :pt1cable:


L'archi GT200 est mieux équilibrée en ce qui concerne le nombre de SP vs TMUs vs ROPs.
Par contre "équilibrée" ne veut pas dire mieux conçue, car il est simple de mettre plein de trucs dans une grosse puce.
Ce qui est compliqué c'est de réduire la taille des SP/TMUs/ROPs tout en conservant un bon niveau de puissance.
Car si AMD avait choisi de faire une puce de la taille du GT200, tu ne pourrais plus parler d'avantage côté perfs pour nVidia.
 
À taille égale les specs des 2 puces auraient alors ressemblé à ceci :
 
HD4890 : 320 SP (1600 ALU) @ 850 MHz, 80 TMUs et 4 doubles RBEs (32 ROPs)  
GTX285 : 240 SP + 30 DP @ 1476 MHz, 80 TMUs, et 32 ROPs.
 
Il n'est pas nécessaire de te dire que ces specs sont semblables au RV870.
Et il est encore moins nécessaire de te dire que le RV870 va écraser le GT200.
Il est donc évident que l'archi d'AMD est mieux conçue.
 
Ce qui est mieux conçu est plus performant.
Mais ce qui est plus petit et qui est tout aussi performant est mieux conçu.

Message cité 2 fois
Message édité par Wirmish le 21-09-2009 à 06:58:09
n°7125053
Cizia
Posté le 21-09-2009 à 07:23:51  profilanswer
 

Wirmish a écrit :


L'archi GT200 est mieux équilibrée en ce qui concerne le nombre de SP vs TMUs vs ROPs.
Par contre "équilibrée" ne veut pas dire mieux conçue, car il est simple de mettre plein de trucs dans une grosse puce.
Ce qui est compliqué c'est de réduire la taille des SP/TMUs/ROPs tout en conservant un bon niveau de puissance.
Car si AMD avait choisi de faire une puce de la taille du GT200, tu ne pourrais plus parler d'avantage côté perfs pour nVidia.
 
À taille égale les specs des 2 puces auraient alors ressemblé à ceci :
 
HD4890 : 320 SP (1600 ALU) @ 850 MHz, 80 TMUs et 4 doubles RBEs (32 ROPs)  
GTX285 : 240 SP + 30 DP @ 1476 MHz, 80 TMUs, et 32 ROPs.
 
Il n'est pas nécessaire de te dire que ces specs sont semblables au RV870.
Et il est encore moins nécessaire de te dire que le RV870 va écraser le GT200.
Il est donc évident que l'archi d'AMD est mieux conçue.
 
Ce qui est mieux conçu est plus performant.
Mais ce qui est plus petit et qui est tout aussi performant est mieux conçu.


 
+1
 
mais pour vraiment prendre l'ascendant,il aurait fallu un bus 384bit et dissocier la fréquences des shaders.  
 
ainsi les nouvelles ati aurais était "terriblement" performante.

Message cité 1 fois
Message édité par Cizia le 21-09-2009 à 09:03:36

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°7125054
hyksos_sow​o
Posté le 21-09-2009 à 07:31:22  profilanswer
 

Citation :

S'il y a entre 15 et 20% de puissance à un prix équivalent ou légerement supérieur (30 ou 40euros de plus) ce ne sera pas trop difficile pour Nvidia, quand on est capable de sortir entre 350 et 400euros on va pas chipoter pour un pti peu plus cher et entre 15 et 20% de puissance en plus ^^


 
Tu parle uniquement du haut de gamme ultime, NVidia à rien à mettre devant la 5850, donc ils vont forcément offrir une GT300 bridé (Mais qui leur coute aussi chère que la version haut de gamme à produire)
 
Et tu pari sur le fait que AMD ne baissera pas ses prix... hors AMD ont toujours eu une politique tarifaire agressive, je pari sur une baisse des 5xxx à la sorti de la GT300.  
 
Bien sur Nvidia va suivre... et ont se retrouve dans la situation décrite plus haut, les cartes basé sur GT300 coute plus chère que les 5xxx (Puce plus dispendieuse ET PCB plus complexe), NVidia aura beaucoup moins de marge de manoeuvre au niveau tarifaire que AMD, donc AMD va probablement encore gagner la guerre de la perf/prix... et NVidia aura encore passé une génération de GPU à faire beaucoup moins de profit qu'à l'habitude!! (Point de vue consommateur par contre c'est génial héhé)
 
À moins bien sur que la GT300 soit une bombe et ça serais une belle surprise si ça serait le cas, on verra en temps et lieu.

Message cité 1 fois
Message édité par hyksos_sowo le 21-09-2009 à 07:56:43
n°7125062
Zack38
Posté le 21-09-2009 à 08:22:51  profilanswer
 

Cizia a écrit :


 
+1
 
mais pour vraiment prendre l'ascendant,il faurait fallu un bus 384bit et dissocier la fréquences des shaders.  
 
ainsi les nouvelles ati aurais était "terriblement" performante.


 
Et aussi, il aurait fallu améliorer le CF et permettre de partager la mémoire des GPU dans ce cas-là  ;)

n°7125080
Rafale06
Vive les Suisses (Neutre..)
Posté le 21-09-2009 à 09:06:52  profilanswer
 

Wirmish a écrit :


L'archi GT200 est mieux équilibrée en ce qui concerne le nombre de SP vs TMUs vs ROPs.
Par contre "équilibrée" ne veut pas dire mieux conçue, car il est simple de mettre plein de trucs dans une grosse puce.
Ce qui est compliqué c'est de réduire la taille des SP/TMUs/ROPs tout en conservant un bon niveau de puissance.
Car si AMD avait choisi de faire une puce de la taille du GT200, tu ne pourrais plus parler d'avantage côté perfs pour nVidia.
 
À taille égale les specs des 2 puces auraient alors ressemblé à ceci :
 
HD4890 : 320 SP (1600 ALU) @ 850 MHz, 80 TMUs et 4 doubles RBEs (32 ROPs)  
GTX285 : 240 SP + 30 DP @ 1476 MHz, 80 TMUs, et 32 ROPs.
 
Il n'est pas nécessaire de te dire que ces specs sont semblables au RV870.
Et il est encore moins nécessaire de te dire que le RV870 va écraser le GT200.
Il est donc évident que l'archi d'AMD est mieux conçue.
 
Ce qui est mieux conçu est plus performant.
Mais ce qui est plus petit et qui est tout aussi performant est mieux conçu.


 
 
Encore une fois je te dirais ok.....mais exemple si nvidia avait balançé de la ram DDR5 en lieu et place de la DDR3 ???? sur ses GT200b.........^^ le trou n'aurait été que de 10% ? ^^
 


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7125082
Cizia
Posté le 21-09-2009 à 09:07:41  profilanswer
 

Zack38 a écrit :


 
Et aussi, il aurait fallu améliorer le CF et permettre de partager la mémoire des GPU dans ce cas-là  ;)


 
 
ca a la rigueur ces pas un problème,puisque il y aura une version 2go de la 5870 et une 5870x2 avec 4go.
 
(si les rumeurs sont exact...  :ange: )
 
curieux quand même de voir ce qu'il va y avoir dans la puce nvdia  ...   :)


Message édité par Cizia le 21-09-2009 à 09:10:11

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°7125083
Rafale06
Vive les Suisses (Neutre..)
Posté le 21-09-2009 à 09:10:37  profilanswer
 

hyksos_sowo a écrit :

Citation :

S'il y a entre 15 et 20% de puissance à un prix équivalent ou légerement supérieur (30 ou 40euros de plus) ce ne sera pas trop difficile pour Nvidia, quand on est capable de sortir entre 350 et 400euros on va pas chipoter pour un pti peu plus cher et entre 15 et 20% de puissance en plus ^^


 
Tu parle uniquement du haut de gamme ultime, NVidia à rien à mettre devant la 5850, donc ils vont forcément offrir une GT300 bridé (Mais qui leur coute aussi chère que la version haut de gamme à produire)
 
Et tu pari sur le fait que AMD ne baissera pas ses prix... hors AMD ont toujours eu une politique tarifaire agressive, je pari sur une baisse des 5xxx à la sorti de la GT300.  
 
Bien sur Nvidia va suivre... et ont se retrouve dans la situation décrite plus haut, les cartes basé sur GT300 coute plus chère que les 5xxx (Puce plus dispendieuse ET PCB plus complexe), NVidia aura beaucoup moins de marge de manoeuvre au niveau tarifaire que AMD, donc AMD va probablement encore gagner la guerre de la perf/prix... et NVidia aura encore passé une génération de GPU à faire beaucoup moins de profit qu'à l'habitude!! (Point de vue consommateur par contre c'est génial héhé)
 
À moins bien sur que la GT300 soit une bombe et ça serais une belle surprise si ça serait le cas, on verra en temps et lieu.


 
 
Ben pour l'instant nous ne savons presque rien du GT300 donc pour la moyenne gamme etc.......on verra en temps et heure ^^ mais il est clair que la politique nvidia na jamais été en faveur d'un excellent rapport prix / perfs, du moins jusqu'à l'arrivée des HD 48XX ou le caméléon à fait un gros effort pour une baisse de tarif sur ses GT200b....
 
Pour ma part je serais déja content d'avoir une carte entre 15 et 20% plus rapide qu'une HD 58XX et pour un prix équivalent ou presque... alors il est clair que la marge de manoeuvre coté baisse de prix sera pas top chez nvidia, mais bon on à vu ce qu'a donné la guerre entre les HD 48XX et GT200b donc au pire pour nvidia ils feront bcp moins de bénéf sur une minorité de marché , mais se rattrapperont sur le marché de masse ? :o
 
L'avenir nous le dira ;)


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7125266
dragonlore
Posté le 21-09-2009 à 12:20:09  profilanswer
 

Activation a écrit :

 

justement dire rien
car là tu dis nawak  :whistle:

 

et par rapport à ton point "2)" faut mieux pas qu on compare passage G80/G92 à GT200
avec RV770 à RV870

 

car sinon j espère que tu dira pas que le GT200 t a convaincu

 

sorti de ça je vois pas pourquoi tu veux comparé GTX295 à HD5870 et dire que tu dise après "oueh bof"

 

euuuh youhou la HD5870X2 ça te dit qqchose  [:klemton]

 

maintenant sorti du contexte pure perf, que le gpu gt300 c est tout ce que je lui souhaite et ça me gènera pas

 

mais là on parle de carte dispo dans quoi 5jours avec des carte dispo à une date X non connu

 

quand bien même la HD2900 aurait été une mega tuerie en son temps

 

n en reste pas moins que les "j y crois" ils ont poiroté comme des c**s 6mois avant de la toucher
donc 6mois que beaucoup on pu s eclater sur leur 8800GTX

 

entendre par là: en informatique faut se fixer des objectif de gain de puissance pour changer de matos

 

genre moi par exemple un cpu je change quand pour 250€ j'ai un gain sur mes applis de 60% par rapport à mon cpu actuel

 

pour les CG c est pareil beaucoup se fixe un objectif

 

icic beaucoup avant même de savoir les benchs (fake ou pas) que pour lui une nouvelle CG dx11 qui plus est monogpu doit égalé voir dépassé une HD4870X2 ou GTX295

 

bah contrat remplit et je ne voit rien qui à mon sens les empeche de se jeter sur cette nouvelle HD5870 (ou un crossfire de 2 HD5870 ou la HD5870X2)

 

après ptet que gpu GT300 est plus perf de 20% ... j'en sais rien... personne n'en sait rien
mais limite on s en fout la carte qui sort là repond à la cible qui conditionne l achat

 

que ça soit marqué amd/ati  casimir, nvidia ou danone sur la carte on s en fout limite

 

amd/ati est le premier à repondre à la requete de l acheteur ... bah banco pour eux

 

et si le GT300 est vraiment plus puissant bah une autre vague d acheteur dans 3mois visera celle là

 


alors à moins que nvidia mercredi prochain fasse laché de powerpoint prouvant par A+B que attendre mars 2010 le cebit (date au pif) c'est trop plus mieux mieux que d acheter une ati maintenant et qu il rappel une partie de la populasse à son chevet... bah moi va y en aller m acheter ma CG

 

car j en ai marre de ramer avec ma HD4870 sur mon triple screen


non je ne dis pas n'importe quoi.

 

Je dis juste que performance pas beaucoup plus améliorées par rapport au hdg actuel (en tout cas au vu des tests sur l'autre forum), une longueur qui va surement la priver de pas mal de clients (tu parles du gt200 mais une gtx280 c'était déjà limite pour de nombreux boitiers même gamer donc là j'attends de voir mais sur les images ça semble plus long).

 

après je parle de la HD4870 pas de la x2 qui ne sera pas dispo tout de suite.

 

Donc moi j'attendrais surtout que le gt300 et le larrabee devraient arriver d'ici 3-4 mois surement surtout que 3-4 mois c'est pas beaucoup et comme les jeux dx11 ne sortiront pas avant mi-décembre, je pense qu'on peut attendre à moins d'avoir une CG ne pouvant plus du tout satisfaire aux jeux et de ne pas pouvoir attendre 2-3 mois.

Message cité 1 fois
Message édité par dragonlore le 21-09-2009 à 12:23:34
mood
Publicité
Posté le 21-09-2009 à 12:20:09  profilanswer
 

n°7125274
Gigathlon
Quad-neurones natif
Posté le 21-09-2009 à 12:26:35  profilanswer
 

dragonlore a écrit :

Donc moi j'attendrais surtout que le gt300 et le larrabee devraient arriver d'ici 3-4 mois surement surtout que 3-4 mois c'est pas beaucoup


3-4 mois c'est "juste" le temps nécessaire pour sortir un refresh chez AMD... :o
 
Allez, on va dire qu'ils vont être lents et que ça fera 6 mois... mais du coup, tu attendras bien 2-3 mois pour changer puisque c'est encore moins beaucoup que 3-4 mois, non? [:dawa]

n°7125452
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 21-09-2009 à 14:12:28  profilanswer
 

Citation :

Aux dernières nouvelles, le caméléon pourrait lancer une éventuelle GeForce 380 au CES de Las Vegas, début janvier, avec une « fuite » organisée juste avant Noël (comme l'année dernière avec la GeForce GTX 295).


Y'a tellement pas de puces de GT300 fonctionnelles que nVidia a décidé de mettre ses GTX 380 dans les gros lots des casino de Las Vegas.
 
--->[]

n°7125455
Dyphen
Pull the trigger
Posté le 21-09-2009 à 14:14:31  profilanswer
 

*se force a rire*  :sweat:

n°7125459
Profil sup​primé
Posté le 21-09-2009 à 14:16:52  answer
 

Et dans les comm':

Citation :

Pour information, Kyle Bennett de HardOCP a indiqué que ses sources lui renvoyaient le même son de cloche que Charlie, et Neliz sur Beyond3D dit avoir des échos similaires quoique moins catastrophiques : environ 10 % de rendement sur le GT300.

n°7125477
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 21-09-2009 à 14:21:56  profilanswer
 

10% de puces utilisables (GTX360+GTX380) ou bien 10% de puces parfaites ?
Peut-être que le 2% de Charlie ne fait référence qu'aux puces parfaites.
Autrement dit nVidia pourrait avoir 2% de GTX 380 et 8% de GTX 360.
Ou peut-être que je dis n'impore quoi...

n°7125499
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 21-09-2009 à 14:32:24  profilanswer
 

Wirmish a écrit :

Citation :

Aux dernières nouvelles, le caméléon pourrait lancer une éventuelle GeForce 380 au CES de Las Vegas, début janvier, avec une « fuite » organisée juste avant Noël (comme l'année dernière avec la GeForce GTX 295).


Y'a tellement pas de puces de GT300 fonctionnelles que nVidia a décidé de mettre ses GTX 380 dans les gros lots des casino de Las Vegas.
 
--->[]


 

Citation :

Selon plusieurs sources concordantes, NVIDIA aurait reçu les premières galettes de sa nouvelle puce haut de gamme...la fin du calvaire ?
 
Depuis quelques jours, plusieurs sources affirment que NVIDIA a reçu ses premiers wafers de GT300, en provenance de TSMC. Le rendement du procédé 40 nanomètres du taiwanais s'est nettement améliorés ces derniers temps, avec un chiffre de 60 % avancé en juillet. Il s'agissait cependant probablement d'une petite puce, pas du monstre que sera le GT300. Ce nouveau GPU représentera le haut de gamme DirectX 11 du caméléon.
 
Nvidia Logo Geforce solide aout 2006
 
Selon Charlie Demerjian - un journaliste notoirement connu pour son inimitié vis-à-vis de NVIDIA, qui a souvent de solides sources - sur les quatre wafers reçus, seules sept puces étaient effectivement fonctionnelles ! Si ce chiffre n'est pas confirmé (ou infirmé) pas les autres sources, celles-ci indiquent bien un rendement très bas pour la nouvelle puce NVIDIA.
Reprendre la tête...
 
Aux dernières nouvelles, le caméléon pourrait lancer une éventuelle GeForce 380 au CES de Las Vegas, début janvier, avec une « fuite » organisée juste avant Noël (comme l'année dernière avec la GeForce GTX 295). Beaucoup sont confiants que le nouveau GPU et les cartes qui en seront tirées finiront devant la concurrence, la grande question, seront-elles effectivement disponibles en quantité au lancement ?
 
Si le process 40 nm de TSMC avait déjà posé beaucoup de soucis à AMD, chez NVIDIA c'est une véritable arlésienne, avec de nombreuses rumeurs entrecoupant les informations officielles. Il y a quelques mois, certaines sources indiquaient que le caméléon avait réservé un maximum de lignes de productions de TSMC dans le but d'entraver le lancement des puces DirectX 11 d'AMD...
 
Dernière rumeur en date, le président de NVIDIA, Jen-Hsun Huang, se rendrait à Taïwan début octobre pour rencontrer les partenaires du caméléon ainsi que le président de TSMC, Morris Chang. Sujet principal de la discussion, les tarifs des wafers en 40 nm...


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7125505
mikestewar​t
Air Roll Spinnin'
Posté le 21-09-2009 à 14:35:48  profilanswer
 

La discussion Huang-Chang sur le tarif des wafers confirme indirectement le yield bas du GT300.

n°7125508
White Sh4d​ow
GHz-O-Meter !
Posté le 21-09-2009 à 14:36:24  profilanswer
 

Intéressant  [:canaille] Je suis curieux de voir comment cette situation va évoluer

n°7125595
Rafale06
Vive les Suisses (Neutre..)
Posté le 21-09-2009 à 15:18:50  profilanswer
 

Si on a pas de réponse aprés le salon du gpu fin du mois voir début octobre y aura vraiment de quoi se faire du souçis.......(bis répétita) :(


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7125640
Profil sup​primé
Posté le 21-09-2009 à 15:41:08  answer
 

Wirmish a écrit :

10% de puces utilisables (GTX360+GTX380) ou bien 10% de puces parfaites ?
Peut-être que le 2% de Charlie ne fait référence qu'aux puces parfaites.
Autrement dit nVidia pourrait avoir 2% de GTX 380 et 8% de GTX 360.
Ou peut-être que je dis n'impore quoi...


 
A priori, 10% de puces utilisables...

n°7125644
hifibuff
Posté le 21-09-2009 à 15:45:20  profilanswer
 

Rafale06 a écrit :

Si on a pas de réponse aprés le salon du gpu fin du mois voir début octobre y aura vraiment de quoi se faire du souçis.......(bis répétita) :(

 

C'est vrai qu'on y verra plus clair à ce moment là mais comme tu dis, les problèmes risquent de devenir difficiles à camoufler si on a pas le début d'un commencement d'info sur le GT300...Espérons, au nom de la concurrence, qu'on en arrive pas là :(


Message édité par hifibuff le 21-09-2009 à 15:50:23
n°7125739
dragonlore
Posté le 21-09-2009 à 16:48:35  profilanswer
 

Gigathlon a écrit :


3-4 mois c'est "juste" le temps nécessaire pour sortir un refresh chez AMD... :o
 
Allez, on va dire qu'ils vont être lents et que ça fera 6 mois... mais du coup, tu attendras bien 2-3 mois pour changer puisque c'est encore moins beaucoup que 3-4 mois, non? [:dawa]


6 mois pour un refresh? :lol:  :lol:  :lol:  
 
tu es drôle. Les refresh de 6 mois c'est au max 5 voir 10 % de perf en plus dans de très rares cas.
 
En général un bon refresh c'est minimum 1 an après.
 
De plus le principal atout de la hd58xx par rapport aux cartes actuelles, c'est le support de dx11. Or les jeux dx11 c'est pas avant décembre au plus tôt donc 3-4 mois d'attentes c'est suffisant et pas trop.

n°7125820
ilyama999
Posté le 21-09-2009 à 17:47:45  profilanswer
 

C'est toujours prévu un bi gpu nvidia?
 
Parce que moi, la technique, je m'en fous, je veux des benchs et des prix...
 
Bi-gpu nvidia ou ATI, je veux le meilleur rapport prix/perfs... Le reste...  :heink:

n°7125829
Gigathlon
Quad-neurones natif
Posté le 21-09-2009 à 17:53:49  profilanswer
 

dragonlore a écrit :

6 mois pour un refresh? :lol:  :lol:  :lol:  
 
tu es drôle. Les refresh de 6 mois c'est au max 5 voir 10 % de perf en plus dans de très rares cas.


R600  -> RV670: 6 mois (refresh)
RV670 -> RV770: 8 mois (nouvelle archi)
RV770 -> Cypress: 10 mois (nouvelle archi, lenteur de TSMC)  
 
Et on peut aussi voir du côté du R520 -> R580, qui a pris 3 mois... suite à des retards sur le R520.

n°7125850
Activation
21:9 kill Surround Gaming
Posté le 21-09-2009 à 18:08:36  profilanswer
 

ilyama999 a écrit :

C'est toujours prévu un bi gpu nvidia?
 
Parce que moi, la technique, je m'en fous, je veux des benchs et des prix...
 
Bi-gpu nvidia ou ATI, je veux le meilleur rapport prix/perfs... Le reste...  :heink:


 
 
t es pas pret de la voir de suite la bi gpu de gt300  
 
personne pourrait se payer la carte :D

n°7125851
ilyama999
Posté le 21-09-2009 à 18:10:45  profilanswer
 

Ok mais alors on parle d'une GT 300 mono gpu qui pourrait concurrencer la 5870 X2 ?
Parce que la même puissance que la future x2 dans un mono gpu ca m interesse ...  

n°7125853
mikestewar​t
Air Roll Spinnin'
Posté le 21-09-2009 à 18:11:17  profilanswer
 

Activation a écrit :

 


t es pas pret de la voir de suite la bi gpu de gt300

 

personne pourrait se payer la carte :D

 

Déjà que Huang essaie de négocier les prix des dies de GT300 pour pouvoir vendre des cartes mono-GT300 à un prix décent (comprendre moins de 650€), alors avec 2 GT300... :/

 

Et puis il faut voir si c'est techniquement possible, en restant avec un TDP sous les 300W par exemple...

Message cité 3 fois
Message édité par mikestewart le 21-09-2009 à 18:11:33
n°7125856
Activation
21:9 kill Surround Gaming
Posté le 21-09-2009 à 18:12:24  profilanswer
 

j aimerais y croire mais ça me semblerait trop enorme
et faudrait vraiment que les drivers SFR de la X2 soit naze

n°7125857
Activation
21:9 kill Surround Gaming
Posté le 21-09-2009 à 18:13:23  profilanswer
 

mikestewart a écrit :


 
Déjà que Huang essaie de négocier les prix des dies de GT300 pour pouvoir vendre des cartes mono-GT300 à un prix décent (comprendre moins de 650€), alors avec 2 GT300... :/
 
Et puis il faut voir si c'est techniquement possible, en restant avec un TDP sous les 300W par exemple...


 (colle 2 x 8pins ça fait 375W  :whistle: )

n°7125860
ilyama999
Posté le 21-09-2009 à 18:15:18  profilanswer
 

En gros, faudrait quand même attendre des nouvelles de nvidia avant d'acheter une X2 ?
 
Sûr que des drivers bétons et une X2, je reste sur mon 1920 1200, j'overclocke l'i7 et je suis bon jusque milieu 2011 +- non ?


Message édité par ilyama999 le 21-09-2009 à 18:16:30
n°7125867
mikestewar​t
Air Roll Spinnin'
Posté le 21-09-2009 à 18:20:23  profilanswer
 

Le problème c'est que concernant le GT300 c'est décembre, au mieux. Va savoir ce qu'il peut se passer (énième retard ?) et si tu as attendu pour rien (que vaut le GT300 en pratique ? on en sait rien).

n°7125883
ilyama999
Posté le 21-09-2009 à 18:34:20  profilanswer
 

Attendu pour rien, je crois pas...
Si j'attends la GT300 et que c'est pas terrible, je fonce sur la X2 qui aurait certaineemnt baissé de prix ou alors il y'aura un modele de X2 avec ventirad ou je ne sais quoi en plus...  ;)
 
De toute facon, je n'achete rien tant qu'il n'ya pas de concurrence pour ATI et tant que NVIDIA n'a pas sorti sa réplique aux 5800...
Et si tout va bien, plus de problemes avec ma X2 sur seven et là, pour moi, j'ai limite un nouvel ordi dans 1 mois lol
 
CQFD lol  :D


Message édité par ilyama999 le 21-09-2009 à 18:39:23
n°7125939
mikestewar​t
Air Roll Spinnin'
Posté le 21-09-2009 à 18:56:49  profilanswer
 

En effet tu as une 4870X2, il y a pire pour attendre.  ;)

n°7125952
Yoyo_5
Posté le 21-09-2009 à 19:03:49  profilanswer
 

A noter que la série 5800 est de mauvaise augure pour nVidia à chaque fois... :D


---------------
¤ Paix et félicité ¤

n°7125969
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 21-09-2009 à 19:17:15  profilanswer
 

ilyama999 a écrit :

Ok mais alors on parle d'une GT 300 mono gpu qui pourrait concurrencer la 5870 X2 ?
Parce que la même puissance que la future x2 dans un mono gpu ca m interesse ...

Tu crois au Père Noël et à la Fée des Dents ?

n°7125976
Activation
21:9 kill Surround Gaming
Posté le 21-09-2009 à 19:20:42  profilanswer
 

Wirmish a écrit :

Tu crois au Père Noël et à la Fée des Dents ?


 
 
non à du 32nm tombé du ciel avant noel  :o

n°7125998
hyksos_sow​o
Posté le 21-09-2009 à 19:32:04  profilanswer
 

mikestewart a écrit :


 
Déjà que Huang essaie de négocier les prix des dies de GT300 pour pouvoir vendre des cartes mono-GT300 à un prix décent (comprendre moins de 650€), alors avec 2 GT300... :/
 
Et puis il faut voir si c'est techniquement possible, en restant avec un TDP sous les 300W par exemple...


Le but d'une bi-GT300 serait uniquement de battre une 5870X2, et non pas battre une sli de GT300, donc pas besoin d'avoir 2 GT300 à pleine puissance.
 
Donc techniquement, NVidia pourrait pré-sélectionner des puces qui supporte un voltage plus bas, ajouter à cela une fréquence plus basse et ils peuvent certainement s'en sortir avec un TDP acceptable.

n°7126013
Profil sup​primé
Posté le 21-09-2009 à 19:38:42  answer
 

hyksos_sowo a écrit :


Le but d'une bi-GT300 serait uniquement de battre une 5870X2, et non pas battre une sli de GT300, donc pas besoin d'avoir 2 GT300 à pleine puissance.
 
Donc techniquement, NVidia pourrait pré-sélectionner des puces qui supporte un voltage plus bas, ajouter à cela une fréquence plus basse et ils peuvent certainement s'en sortir avec un TDP acceptable.


 
Tu oublies un peu vite le prix de la puce... :o

n°7126020
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 21-09-2009 à 19:41:18  profilanswer
 

nVidia ne l'a pas fait avec sa GTX 280 première du nom.
Il a dû attendre le shrink du GT200b pour pouvoir y arriver.
Et la GTX295 est arrivé 7 mois après le lancement du GT200.
Alors qu'en ce moment la GT300 n'a pas encore montré le bou de son nez.
Faut donc s'imaginer que la GTX395 va sortir d'ici Noël.

n°7126029
Er1c
Higher is better
Posté le 21-09-2009 à 19:46:01  profilanswer
 

Personnellement j'attendrai la solution bi gpu. J'ai été agréablement supris du gtx295 en terme de performances / chaleur.
 
Et au plus ça va au plus je crois qu'il faut attendre les secondes révisions chez nvidia. car avant d'avoir la 295 j'ai eu "quelques" GTX280 et mis à part les performances qui étaient au rendez-vous (encore heureux), la chaleur dégagée était tout simplement pas raisonnable.

n°7126057
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 21-09-2009 à 20:00:26  profilanswer
 

J'espère que nVidia a trouvé un moyen de diminuer la conso de ses GPU en 40nm.
 
Sa nouvelle GeForce 210, équipée du premier GPU du caméléon qui est gravé en 40nm, est moins performante que la "vieille" Radeon HD 4350 gravée en 55nm, et le pire c'est qu'elle consomme plus !
 
Geforce G210: Nvidia's first DirectX 10.1 card reviewed
 
Donc, si le même phénomène se retrouve sur le GT300 ça risque de faire mal au caméléon.

Message cité 1 fois
Message édité par Wirmish le 21-09-2009 à 20:01:59
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  9  10  11  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)