MacIntoc a écrit :
Et Intel a montré que plus on diminuait la finesse de gravure, plus on augmentait le courant de fuite et donc la consommation.
|
Oui mais non. Clairement quand on diminue la finesse de gravure on augmente les courants de fuite, mais il y a des techniques pour éviter ça (modification du substrat & co), au final on s'en sort avec une consommation effectivement plus faible, cf les penryn (et toutes les réductions de finesses ayant eu lieu depuis le début des micro processeurs).
Après pour le sujet initial, seul Nvidia le sait ^^
Ils ont eu un gros gros succès avec leur G80 : la puce est sortie dans les temps, et les performances sont plus qu'au rendez vous, on avait jamais vu un tel écart entre 2 générations! En plus elle est parré pour DX10 & co, et surtout les performances tiennent dans le temps! (à l'image des 9800 ou x1900).
En face c'est l'inverse, ils ont eu de gros problèmes chez AMD avec leur r600, et ont été obligé de le sortir avec ces problèmes (consommation, chauffe, bug avec les filtres...). Ils ont une architecture sympa sur certains points (ring bus pour la mémoire), mais qui avait besoin d'un an de developpement en plus apparement.
A coté de ça, ATI comme Nvidia ont été incapable de sortir un mileu de gamme potable pendant 1 an! Je pense qu'ils ont pas mal bossé pendant ce temps pour faire le G92, ou alors ils ont attendu que leur fondeur maitrise la finesse de gravure.
Dans ce 2eme cas, le seul truc qu'ils ont pu faire, c'est bosser sur la suite, en prenant leur temps, pour que le succès soit aussi grand qu'avec le g80. Et ils auront peut être des problèmes avec cette suite, ça leur est déjà arrivé (haa les FX), et ça leur arrivera encore. En plus ça doit être dur de sortir une architecture plus performante que la g80, il n'y a pas grand chose à optimiser dans celle ci.
L'avantage c'est que le temps, ils l'ont, vu qu'ATI/AMD revient à peine dans la course.
Message édité par super-kanard le 26-10-2007 à 11:47:57