Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2801 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  45  46  47  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°7049637
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 25-07-2009 à 22:38:44  profilanswer
 

Reprise du message précédent :
Je voulais pas être trop méchant. http://digli.com/images/smiley/kill.gif  
 
Même si en fait la 8800 GT c'est aussi une 8800 GS, ou une 8800 GTS, ou une 9600 GSO, ou une 9800 GTX, ou une 9800 GTX+, ou une GTS 250, et maintenant une GTS 240.

Message cité 2 fois
Message édité par Wirmish le 25-07-2009 à 22:39:18
mood
Publicité
Posté le 25-07-2009 à 22:38:44  profilanswer
 

n°7049641
White Sh4d​ow
GHz-O-Meter !
Posté le 25-07-2009 à 22:42:41  profilanswer
 

Wirmish a écrit :

Je voulais pas être trop méchant. http://digli.com/images/smiley/kill.gif
 
Même si en fait la 8800 GT c'est aussi une 8800 GS, ou une 8800 GTS, ou une 9600 GSO, ou une 9800 GTX, ou une 9800 GTX+, ou une GTS 250, et maintenant une GTS 240.


Toutes les cartes graphiques basées sur le G92 ne sont pas identiques non plus ! la 8800GS et la 9600 GSO sont trop différentes ( largeur de bus, mémoire, rops, shaders ) pour pouvoir être considérées commes les mêmes que la 8800 GT ou 8800 GTS 512 "premières du nom".

n°7049642
mikestewar​t
Air Roll Spinnin'
Posté le 25-07-2009 à 22:43:51  profilanswer
 

Ce sont les marketeux d'Nvidia qui sont méchants. :o
 
Belle gamme "GT" chez Nvidia fin 2009 : un bas de gamme de 2009 (DX10.1 40nm), un milieu de gamme de 2007 (G92), un haut de gamme de 2008 (GT200).  [:implosion du tibia]

n°7049644
White Sh4d​ow
GHz-O-Meter !
Posté le 25-07-2009 à 22:44:42  profilanswer
 

mikestewart a écrit :

Ce sont les marketeux d'Nvidia qui sont méchants. :o
 
Belle gamme "GT" chez Nvidia fin 2009 : un bas de gamme de 2009 (DX10.1 40nm), un milieu de gamme de 2007 (G92), un haut de gamme de 2008 (GT200).  [:implosion du tibia]


Des décisions pareilles, ça se respecte ! [:cyriadis]


Message édité par White Sh4dow le 25-07-2009 à 22:45:03
n°7049680
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 25-07-2009 à 23:09:41  profilanswer
 

White Sh4dow a écrit :

Toutes les cartes graphiques basées sur le G92 ne sont pas identiques non plus ! la 8800GS et la 9600 GSO sont trop différentes ( largeur de bus, mémoire, rops, shaders ) pour pouvoir être considérées commes les mêmes que la 8800 GT ou 8800 GTS 512 "premières du nom".


J'ai bien pris soin de nommer que les cartes basées sur le G92 (754 millions de transistors).
 
Il ne faut pas oublier que la première 9600 GSO était une basée sur un G92 avec un bus de 192 bit.
 
Il faut faire attention de ne pas se tromper avec la 9600 GSO DDR2 avec un bus de 128 bit ou celui de la 9600 GSO GDDR3 avec un bus de 256 bit mais seulement 48 SP au lieu de 96.
 
Elle est tellement simple la gamme du caméléon... http://digli.com/images/smiley/hypnotize.gifhttp://digli.com/images/smiley/hypnotized.gif

Message cité 1 fois
Message édité par Wirmish le 25-07-2009 à 23:11:50
n°7049704
White Sh4d​ow
GHz-O-Meter !
Posté le 25-07-2009 à 23:42:50  profilanswer
 

Wirmish a écrit :


J'ai bien pris soin de nommer que les cartes basées sur le G92 (754 millions de transistors).
 
Il ne faut pas oublier que la première 9600 GSO était une basée sur un G92 avec un bus de 192 bit.
 
Il faut faire attention de ne pas se tromper avec la 9600 GSO DDR2 avec un bus de 128 bit ou celui de la 9600 GSO GDDR3 avec un bus de 256 bit mais seulement 48 SP au lieu de 96.


C'est bien ce que je dis. Elles ne sont pas toutes à mettres dans le même panier. Ce que je veux dire c'est que c'est pas parce que certaines 8800 GS et 9600 GSO sont basées sur le g92 qu'elles sont identiques aux 8800 GT et 8800 GTS 512 "premières du nom" comme j'ai dis plus haut. Et les 8800 GS et 9600 GS qui sont encore différentes le sont encore moins.  [:canaille]


Message édité par White Sh4dow le 25-07-2009 à 23:43:20
n°7049712
Dyphen
Pull the trigger
Posté le 25-07-2009 à 23:46:58  profilanswer
 

vous pensez que les futures carte double GPU, la GTX395 ( ou 5870 x2 ) par exemple chaufferont moins en 40nm ? et auront moins de problèmes ( sifflements, grésillements ? )
 
ou vous pensez que ca y changera rien

n°7049717
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 25-07-2009 à 23:49:39  profilanswer
 

Le grésillements vient de l'étage d'alim, donc rien à voir avec la puce. Quant à la chauffe, même si le 40nm devrait régler ça, ils vont sûrement augmenter les MHz des puces, donc ça devrait revenir au même.
 
 
@White Sh4dow: J'avais compris, mais ce que je voulais dire c'est qu'en fait nVidia a pris une puce (G92) et en a tiré 20 déclinaisons. Au départ toutes ces cartes sont basées sur la même puce. Ensuite, si nVidia s'ammuse à modifier la largeur du bus, le type, la quantité, et la vitesse de la ram, et la fréquence des SP, et puis tout le reste, c'est juste pour occuper le terrain et se débarasse en même temps des puces défectueuses.


Message édité par Wirmish le 25-07-2009 à 23:55:39
n°7049719
White Sh4d​ow
GHz-O-Meter !
Posté le 25-07-2009 à 23:50:26  profilanswer
 

de toute facon, à chaque fois que la finesse de gravure rétrécit, on en profite pour en faire une carte graphique toujours plus puissante, et la puissance augmente toujours de façon plus conséquente que la finesse de gravure, donc à la fin, à chaque nouvelle génération de Carte graphiques, on à droit à une cg qui chauffe plus... En esperant qu'un jour la finesse de gravure sera suffisamment faible pour nous permettre de faire des cartes graphiques très très puissantes consommant autant qu'un ventilo :D
EDIT : on peut toujours rêver  [:tinostar]

Message cité 1 fois
Message édité par White Sh4dow le 25-07-2009 à 23:52:48
n°7049722
Dyphen
Pull the trigger
Posté le 25-07-2009 à 23:52:43  profilanswer
 

dommage , ca serait bien qu'on ai des cartes bi-gpu a 40°C en idle et qui dépasse pas 70°C en charge en air :D
 
*reve*
 

mood
Publicité
Posté le 25-07-2009 à 23:52:43  profilanswer
 

n°7049725
White Sh4d​ow
GHz-O-Meter !
Posté le 25-07-2009 à 23:54:59  profilanswer
 

Dyphen a écrit :

dommage , ca serait bien qu'on ai des cartes bi-gpu a 40°C en idle et qui dépasse pas 70°C en charge en air :D
 
*reve*
 


Mais le progrès se fait aussi dans le sens de la dissipation thermique. Certes les avancées sont moins spéctaculaires et importantes que la puissance de la carte graphique en elle-même, mais regarde les ventirads des cg ou des cpus à travers le temps, ils ne cessent de s'améliorer, mais malheureusement ils ne cessent non plus de grandir. On aura surement bientot (10 ans ?) droit à un tournant, car on à une place limité dans un ordi et pas tout le monde ne peut se payer un WC, donc le traditionnel ventirad devrait laisser sa place à quelque chose de bien plus téchnologique, je l'espère  :)

n°7049727
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 25-07-2009 à 23:58:00  profilanswer
 

White Sh4dow a écrit :

de toute facon, à chaque fois que la finesse de gravure rétrécit, on en profite pour en faire une carte graphique toujours plus puissante, et la puissance augmente toujours de façon plus conséquente que la finesse de gravure


T'es sûr ?
 
8800 GTX (90nm) -> 8800 GT (65nm) -> 9800 GT (55nm) -> 40nm ?
 

n°7049728
Dyphen
Pull the trigger
Posté le 25-07-2009 à 23:58:01  profilanswer
 

oui c'est vrai quand on voit les rad de y'a 10 ans :D
c'est incomparable avec aujourd'hui..
 
et ca serait bien aussi que dans 10 ans la taille des CG rétrécisse.. ca serait quand même pratique
 
et ouais esperons une nouvelle technologie pour la dissipation thermique..

n°7049730
White Sh4d​ow
GHz-O-Meter !
Posté le 25-07-2009 à 23:59:35  profilanswer
 

Wirmish a écrit :


T'es sûr ?
 
8800 GTX (90nm) -> 8800 GT (65nm) -> 9800 GT (55nm) -> 40nm ?
 


Dans le haut de Gamme  :o  Désolé.
 
7900 GTX => 8800 GTX/ultra => 9800 GX2 => GTX280 => GTX295

n°7049734
Dyphen
Pull the trigger
Posté le 26-07-2009 à 00:06:49  profilanswer
 

40nm = GTX395
32nm = GTX495 :D
 
et quand on sera à la GTX995
 
ils vont nous faire quoi ?  
GTY280 ? mdr

n°7049736
White Sh4d​ow
GHz-O-Meter !
Posté le 26-07-2009 à 00:10:03  profilanswer
 

Dyphen a écrit :

oui c'est vrai quand on voit les rad de y'a 10 ans :D
c'est incomparable avec aujourd'hui..
 
et ca serait bien aussi que dans 10 ans la taille des CG rétrécisse.. ca serait quand même pratique
 
et ouais esperons une nouvelle technologie pour la dissipation thermique..


Malheureusement la miniaturisation n'est pas infinie... il y a l'échelle atomique qui est la limite physique. Mais à ce moment là, je ne sais pas ce qu'on saura faire, ni quand ce sera, mais très probablement qu'un jour on y sera  :jap:

Message cité 1 fois
Message édité par White Sh4dow le 26-07-2009 à 00:10:18
n°7049737
mikestewar​t
Air Roll Spinnin'
Posté le 26-07-2009 à 00:10:06  profilanswer
 

Dyphen a écrit :

40nm = GTX395
32nm = GTX495 :D

 

et quand on sera à la GTX995

 

ils vont nous faire quoi ?
GTY280 ? mdr

 


[troll] Pour les noms, ne t'inquiète pas, Nvidia maitrise ce domaine. [/troll]


Message édité par mikestewart le 26-07-2009 à 00:10:19
n°7049738
Dyphen
Pull the trigger
Posté le 26-07-2009 à 00:11:13  profilanswer
 

White Sh4dow a écrit :


Malheureusement la miniaturisation n'est pas infinie... il y a l'échelle atomique qui est la limite physique. Mais à ce moment là, je ne sais pas ce qu'on saura faire, ni quand ce sera, mais très probablement qu'un jour on y sera  :jap:


 
on va remonter la gravure MDR  
 
32 -> 40 -> 55  
 
 :lol:

n°7049739
White Sh4d​ow
GHz-O-Meter !
Posté le 26-07-2009 à 00:15:41  profilanswer
 

Dyphen a écrit :


 
on va remonter la gravure MDR  
 
32 -> 40 -> 55  
 
 :lol:


 [:fa-tt92]

n°7049749
Dyphen
Pull the trigger
Posté le 26-07-2009 à 00:22:42  profilanswer
 

dommage que la miniaturisation marche pas avec la taille des cartes  
 
t'imagines si tout été miniaturisé comme la finesse de gravure ..
 
les cartes ferait plus que 5-10 cm à force , la cm 20 cm  
 
j'ai trop bosser today, j'ai besoin de repos, je dis que des conneries sorry  :whistle:


Message édité par Dyphen le 26-07-2009 à 00:22:55
n°7049751
White Sh4d​ow
GHz-O-Meter !
Posté le 26-07-2009 à 00:24:25  profilanswer
 

C'est sur que ca serait pratique, mais le jour ou t'aura une CG de la taille d'une dongle bluetooth, tu sera moins heureux des progrès de miniaturisation quand tu l'aura perdu entre les touches de ton clavier...

n°7049775
safri_duo
Quelques gouttes de...
Posté le 26-07-2009 à 00:54:24  profilanswer
 

on aura des netbook hexacore avec des gayfaurce GTX580 pour jouer a crysis 3 en quadfull hd sur un 9", pas des ordi de [:phenos]


---------------
macbook air (virtual DJ), pioneer DJM 350, ampli bose 1800 serie VI, panaray digital controler II, 2*bose 802
n°7049801
Activation
21:9 kill Surround Gaming
Posté le 26-07-2009 à 01:48:33  profilanswer
 

Wirmish a écrit :

Je voulais pas être trop méchant. http://digli.com/images/smiley/kill.gif
 
Même si en fait la 8800 GT c'est aussi une 8800 GS, ou une 8800 GTS, ou une 9600 GSO, ou une 9800 GTX, ou une 9800 GTX+, ou une GTS 250, et maintenant une GTS 240.


 
 
dans le meme genre t avais pas des ati 9600 qui se sont renommé x300  :o  
 
ou des hd2600 qui sont devenu des hd3600 ?
 
bon après je suis bien d accord que c est honteux
 
mais y a pas que nvidia dans ce cas .... ati/amd/intel
 
toute la maisonné abuse de cette pratique de merde pour redonner une fausse jeunesse à leur processeur/chipset mobo/gpu
 
partant de là bien sur que c est nous prendre pour des cons... mais nvidia est loin d avoir le monopole

n°7049826
marllt2
Posté le 26-07-2009 à 02:58:13  profilanswer
 

Wirmish a écrit :

http://img31.imageshack.us/img31/7851/g300.png
 
Une image vaut 1000 mots comme on dit. (Et son adresse peut être très utile.)
Ça devrait donc être suffisant.


Si on cherche un peu chez amazon, on trouve ça: http://g-ecx.images-amazon.com/ima [...] 18535_.jpg
 
http://img31.imageshack.us/img31/4089/gtx280legalv254118535.jpg
 
 [:yamusha]  
 
 
Et je fais remonter ce post:
 

marllt2 a écrit :

http://www.diskusjon.no/index.php? [...] 26&st=3620
 
Il y a un [soit-disant] bêta testeur pour nV qui clame que le GT300 est fonctionnel dans les labos de nV, avec des fréquences de 700/1600/2100.  
Il s'appuie aussi sur la news de hardwre-infos (une manière de ne pas outrepasser le NDA ?).
 
Il dit aussi qu'il s'attend à recevoir un exemplaire cet été, pour une commercialsitation en Octobre/Novembre, avec une architecture très différente.


 
 

Dyphen a écrit :

vous pensez que les futures carte double GPU, la GTX395 ( ou 5870 x2 ) par exemple chaufferont moins en 40nm ?


Si AMD aura effectivement du multi-GPU, pour nVidia c'est incertain.
 
La GTX 295 a été lancée 6 mois après la 4870 X2, parce qu'il utilisait un GT200 shrinké en 55nm.
 
Là, le 40nm n'aura pas de shrink, puisque c'est déjà un 45nm shrinké (c'est pas vraiment ça, mais c'est l'idée). L'étape suivante est le 32/28nm, et requiert bien plus de changements que le 65nm -> 55nm.
 
Et ce alors que TSMC galère avec le 40nm. Donc pour les gravures suivantes...  
 
 

Dyphen a écrit :

et ca serait bien aussi que dans 10 ans la taille des CG rétrécisse.. ca serait quand même pratique


Comme ça ?
 
http://img33.imageshack.us/img33/2421/gtx295card3.jpg


Message édité par marllt2 le 26-07-2009 à 05:30:12
n°7049898
Ramichou
Posté le 26-07-2009 à 10:03:19  profilanswer
 

vire le nforce !

n°7050042
White Sh4d​ow
GHz-O-Meter !
Posté le 26-07-2009 à 12:35:25  profilanswer
 

Belle trouvaille marllt2 :)

n°7050252
marllt2
Posté le 26-07-2009 à 16:59:21  profilanswer
 

Ramichou a écrit :

vire le nforce !


 :??:

n°7050287
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 26-07-2009 à 17:40:58  profilanswer
 

ORB vient de perdre toute crédibilité avec son fake.
Faut maintenant trouver un nouveau fake qui tienne un peu plus longtemps.

n°7050339
manut2500
Posté le 26-07-2009 à 18:24:56  profilanswer
 

ok c'est un fake mais l'idée de sortir quelque chose en attendant de pouvoir sortir le GT300 n'est pas bete. C'est peut etre pas trop dur de rendre compatible DX11 l'architecture du GT200 sans pour autant augmenter le nombre de SP. Apres tout le GT200 etait deja presque DX10.1 , le nombre de choses a rajouter ne semblant pas enorme. Qu'en pensez vous ? Le probleme etant bien sur que le GT200 est deja un monstre en 55nm pas forcement facile a convertir au 40nm.

n°7050343
marllt2
Posté le 26-07-2009 à 18:29:54  profilanswer
 

Sauf qu'il ne suffit pas de coller un tesselator dans un GT200 pour le rendre DX11.

n°7050806
White Sh4d​ow
GHz-O-Meter !
Posté le 27-07-2009 à 00:08:24  profilanswer
 

Alors d'après vous, quelles sont les choses qui manquent/à optimiser pour rendre compatible DX11 le GT200 ?  
C'est faisable ? C'est facile ?
Vos réactions :)

n°7050856
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-07-2009 à 01:05:43  profilanswer
 

Que ça soit facile ou pas, ça doit obligatoirement être fait, donc la question ne se pose même pas.

n°7050859
White Sh4d​ow
GHz-O-Meter !
Posté le 27-07-2009 à 01:07:23  profilanswer
 

Bien sur que si ! C'est là tout le problème justement, car ca influencera en bien ou en mal la date de sortie du dit G300

n°7050878
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-07-2009 à 01:47:13  profilanswer
 

Si on se fie au G200 on doit s'attendre à une archi énorme et peu performante comparé au rapport perfs/mm² du G80/G92/G92b. Donc, que le G300 sorte demain ou l'année prochaine il est évident qu'il ne fera pas le poids face au RV870. Où ça un troll ?

n°7050880
White Sh4d​ow
GHz-O-Meter !
Posté le 27-07-2009 à 01:53:26  profilanswer
 

Il sera certes beaucoup plus grand, il s'agit là d'une évidence. Mais il sera a mon avis très puissant également. Le rapport perfs/surface n'est pas important... à part peut être pour avoir une idée de la chauffe, mais le plus important est surtout le rapport perfs/prix, ne penses tu pas ? C'est là qu'amd est beaucoup plus compétitif !


Message édité par White Sh4dow le 27-07-2009 à 01:53:42
n°7050892
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-07-2009 à 02:27:08  profilanswer
 

Étant donné que c'est la surface qui dicte le coût de producion et le prix de vente, la taille d'une puce est ce qui compte le plus.
 
Par exemple, si on prend un wafer de 300mm sur lequel on grave 800 puces, il est évident que le yields sera meilleur qui si on ne peut y graver que 100 puces.
 
Disons que les yields sont de 20%, comme la rumeur le disait avec le RV740 en 40nm chez TSMC.
Sur 800 puces cela veut dire que seule 160 d'entre elles seront parfaites à 100%.
Si chaque produit utilisant une de ces puces se vend $200, cela permet de gagner 32,000$.
Le problème c'est que si la production du wafer à coûté 45,000$ on est dans le rouge.
 
Si les yields passent à 50%, on peut alors vendre 400 puces et se faire 80,000$.
Même en soustrayant les 45,000$ nécessaire à la production, on passe d'une perte de 13,000$ à un profit de 35,000$
 
Et si les yields montent à 95%, comme c'est le cas pour le RV770, on se retrouve avec un potentiel de 107,000$ de profit par wafer.
 
Le rapport perfs/taille est donc extrêmement important.
 
Par exemple, le RV790 est presque 2 fois plus petit que le G200, et pourtant les perfs sont très proches.
Si les yields du RV790 sont de 95% et celui du G200 de 80%, et qu'AMD obtient 2 fois plus de puces par wafer que nVidia, il est évident que nVidia doit se résoudre à ne pas faire de profit.


Message édité par Wirmish le 27-07-2009 à 03:06:29
n°7050894
White Sh4d​ow
GHz-O-Meter !
Posté le 27-07-2009 à 02:33:10  profilanswer
 

C'est sur, mais directement, ce qui intéresse le consommateur, c'est le prix de la puce et non sa surface. Tout en admettant que les deux soient liées, le prix est beaucoup plus sujet à modification, alors que la taille dépend du procédé de fabrication qui ne change que très rarement lors de die-shrinks. Le prix est le résultat de la compétition, du marché visé et des performances de la puces. C'est surtout ca dont le consommateur veut être informé. Même si ce que tu dis est loin d'être faux ! Question de point de vue j'imagine :)
 
EDIT : Sur ce, bonne nuit !


Message édité par White Sh4dow le 27-07-2009 à 02:34:14
n°7050913
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-07-2009 à 04:38:28  profilanswer
 

S'pa bien de veiller aussi tard. http://digli.com/images/smiley/dead.gif

n°7051000
White Sh4d​ow
GHz-O-Meter !
Posté le 27-07-2009 à 10:29:17  profilanswer
 

marllt2 a écrit :


Le fake en question (GTX 380) c'est le GT300. Donc annoncer Octobre pour ce GPU c'était n'importe quoi.
 
 


 
 
 

marllt2 a écrit :


Tu te rends comptes de ce que tu demandes ?  [:gratgrat]  
 
Il faudrait toutes les docs confidentiels de l'archi GT200, et toutes les docs (semi-publiques) de DX11. Et bien sûr un ingénieur bac +8 pour démystifier tout ça.
 
Et puis quel intérêt de parler de ça ? Un GPU se conçoit sur plusiers années (4 ans pour le G80), et on ne peut pas sortir un chip de son chapeau.
 
Le successeur du GT200, le GT212 était justemet un shrink en 40nm avec augmentation des unités. Et il devait être lancé... en Février dernier. Le 40 nm a fait retarder, puis annuler ce GT212.
 
Autrement dit ce GT212 aurait dû être commercialisé à la palce du GT200b. Le GT200b n'était pas prévu par nVidia, mais a été oblié de le faire en vitesse pour réduire les coûts et pouvoir lutter avec AMD sur les prix. (Parce que non, le prix n'est pas que le résultat de la compétition. Si le prix de fabrication est trop élevé, baisser significativements les prix pour s'aligner sur le concurrent = vendre à perte).
 
Un shrink est assez facile à faire, puisqu'il n'y a que peu de redesign à faire .Et pourtant le GT200b est arrivé 7 mois après le GT200.
 
Donc un redisign pour modifier les unités, ajouter de la tessellation, modifier les différents caches... etc ça prendrait plus d'1 an. Aucun intérêt alors qu'ils bossent déjà sur un GT300 plus perf et qui n'est pas du DX11 fait à l'arrache.
 
Et puisqu'on parle de faire à l'arrache, il suffit de constater ce que donnent les Geometry Shaders (une des fonctions de DX10) sur G80 vs R600:
 
http://www.hardware.fr/articles/67 [...] -2400.html
 
 


 
 
 
 
 

marllt2 a écrit :

Pour la chauffe, c'est pareil pour le RV770 et le GT200. Le RV770 étant plus petit, mais plus dense que le GT200.
 
Ensuite AMD est compétitif justement parce que le rapport perf/surface est largement à l'avantage d'AMD !
 
Si AMD avait fait un RV770 50% moins efficace et qu'il aurait fait 520mm² pour les mêmes perfs, il est évident qu'ils n'auraint pas pu lancer leurs cartes aux prix auquels ils les ont lancés. Et ainsi nVidia aurait eu une moins forte concurrence et aurait moins baissé ses prix. Pour rappel la GTX 280 a été lancée à 550€, et une GTX 275 qui a les mêms perfs est 1 an après à 225€.
 
Autre exemple: AMD a vendu la 2900 XT 400€. Soit le même prix qu'une 8800 GTS 640, au moins aussi perf (et bien plus avec AA), mais plus silencieuse et consommant 60W de moins que la 2900XT. Ce qui fait que les ventes de la 2900XT ont étés faibles.
 
Pourquoi donc AMD n'a pas vendu la 2900XT aux prix des 4870 à leur lancement, soit 250€ ? Réponse: parce que le R600 faisait 420mm², et pas 260mm² pour le RV770. De plus le PCB était complexe et était coûteux.
 
Et donc AMD ne pouvait pas baisser les prix comme ils le voulaient. Ils ne vont pas vendre des cartes à pertes avec la situation d'AMD.
 
La situation de nV est différente, puisqu'avec leur situation financière (ils ont gagné des tas de $ entre 2006 et 2007 avec les GF8), ils préféraient vendre certains de leur GPU sans bénéfice, voire à perte pour garder des parts de marché élevées.
 
Et ça marche puisque leur part de marché à encore augmenté et est > 70%.
Soit encore plus élevées qu'à l'époque des GF8, alors que la gamme de GPU AMD était loin de celle actuelle. Mais dans le même temps, les finances de nV se sont dégradées.
 


 

marllt2 a écrit :


Elle va être (très) courte avec toutes ces explications que tu m'a fais faire. :o  
 
Si tu veux du technique, mieux vaut que tu ailles chez beyond3d, tu vas être servi. :whistle:


On est d'accord  :jap:

n°7051568
bjone
Insert booze to continue
Posté le 27-07-2009 à 16:46:01  profilanswer
 

Wirmish a écrit :

Sun dont l'action vallait 257.25$ le 1er septembre 2000, et qui ne vallait plus que 2.83$ huit ans plus tard.
SGI qui a déclaré faillite avant de se faire acheter par Rackable, et dont l'action ne vaut actuellement que 4.72$.
 
Y'a pas à dire, nVidia a l'art de bien choisir ses comparaisons.
 


 
Oui plutôt: ça prouve qu'il connait le passé de Sun & SGI :)
 
---
 
Si on expliquait qu'IBM est passé par le stade de monopole de MS, y'en a qui feraient du négationnisme :D


Message édité par bjone le 27-07-2009 à 16:48:21
n°7051720
White Sh4d​ow
GHz-O-Meter !
Posté le 27-07-2009 à 19:18:55  profilanswer
 

marllt2 a écrit :

 
Non on est pas d'accord. Une entreprise n'est pas là pour perdre des $.
 
Question:  Pourquoi nVidia s'est dépêcher de bosser sur un GT200b, alors que ce n'était pas prévu ? Et qui plus est la conception de ce GT200b a subi de nombreux problèmes qui l'ont retardé. Le GT200 a été conçu pour du 65nm, et un shrink fait à l'arrache est toujours difficile.  
 
Il a fallu 3 steppings pour que le GT200b soit 100% fonctionnel, soit plus que le GT200 alors que l'archi était assez bien connue, de même que le 55nm de TSMC utilisé par AMD dès fin 2007. A noter que nVidia aurrait même essayé de le srinker en 40nm, mais là c'était une catastrophe donc rapidement abandonné.
 
Réponse: parce qu'AMD leur mettait la pression sur les prix.
 
 
nVidia est plutôt attaché à garder une pdm élevée, mais plus le concurrent leur met la pression sur les prix, plus il vont chercher des moyens de diminuer les coûts.
 
Autre exemple: l'étage d'alim qui est analogique sur les GT200b, alors qu'il est numérique sur le GT200. Là encore pour baisser eu maximum les coûts. De même que le PCB a été simplifié, avec toutes les puces mémoires du même côté. Et aussi le ventirad a été simplifié (alors que la conso en charge est la même).
 
Pourquoi nVidia ne l'avait pas fait sur le GT200 ? Parce que lorsque les cartes ont été conçues, les HD 4800 d'AMD n'étaient pas encore là, donc pas besoin pour nV de cherchez à grapiller quelques $ par ci par là.
 
Surtout que nVidia est réputé (à raison), pour la qualité de leurs cartes, celle du ventilo, etc... Sur une carte à 400 ou 550€ ça pose pas de problème. Pas sur une carte à 200 ou 300€.
 
Et la stratégie pdm est celle de nV. Si les rôles avaient étés inversés entre nVidia et AMD (un GT200 de 260mm² quasi aussi perf qu'un RV770 de 576mm²) AMD n'aurait en aucun cas vendu à perte pour gagner des pdm. Comme dans l'exemple de la 2900XT cité plus haut.
 
La 2900XT à 400€ n'était pas compétitive face à la 8800 GTS 640. Pourtant AMD n'a que peu baissé son prix, ce qui n'a pas amélioré des masses les ventes. Pourquoi AMD n'a pas plus baissé son prix ?
 
Et ce alors que la 4870 a été lancée à 250€ et a été un pavé dans la marre de nVidia question Q/P. Et pourtant chauque 4870 à 250€ vendue faisait gagner bien plus de $ à AMD que chaque 2900XT vendue à 400€.
 
 
PS: Je suis le seul sur ce topic à répondre à White Sh4dow ? Où sont les Activation, Gigathlon, soa et co ? :o


T'as pas compris, t'es en train de débatre contre toi même. Je ne t'ai jamais contre dis, mais t'arrête pas d'essayer de te justifier. Je ne cesse de te dire que t'as raison.
Je ne me donne même plus la peine de lire tes messages si tu veux savoir :/
Y a le point de vue du consommateur, celui que je donne, et il y a celui de l'entreprise que tu semble te donner. C'est tout. On ne parles pas de la même chose.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  45  46  47  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)