Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1452 connectés 

  FORUM HardWare.fr
  Hardware
  Carte graphique

  Qu'a fait nVidia pendant 1 an ?

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

Qu'a fait nVidia pendant 1 an ?

n°5962391
MirageFL
Uplifted
Posté le 25-10-2007 à 16:32:28  profilanswer
 

Bonjour ! :hello:  
 
Depuis le rachat d'ATI par AMD en juillet 2006, vous avez tous constaté un certain retard pris par les deux sociétés sur leurs concurrents respectifs que sont nVidia et Intel. Depuis l'arrivée des Core 2 Duo et des GeForce 8800, l'écart est encore plus grand.
 
1 an plus tard, nVidia s'apprète à sortir sa 8800 GT, et Intel ses nouveaux Penryn.
 
Je ne me fais aucun souci pour Intel et sa nouvelle gamme de processeurs qui, malgré l'arrivée des Phenom d'AMD, garderont à mon avis une certaine avance sur leurs concurrents.
 
En revanche, je me demande ce qu'a bien pu faire nVidia pendant une année (Depuis la sortie du G80)..
 
Nous avons eu la sortie du G84 avec les 8600, mais rien de bien significatif quant-à l'amélioration des performances.. Le haut de gamme est et reste le G80. Malgré la sortie imminente du G92 et de la 8800GT, les choses devraient rester en l'état, vu la rapidité ahurissante des 8800 Ultra.
 
Je vous/me demande donc : Que prépare nVidia ? Comment expliquer cette "pause" en matière de performances pures ? Attendent-ils volontairement qu'AMD/ATI rattrape son retard ?
 
J'essaye moi-même de répondre à ma question :
-Le niveau de réalisme des jeux est devenu tel qu'on peut se demander s'il devient nécessaire d'augmenter de beaucoup les performances des CG
-Voyant leur avance sur AMD/ATI, nVidia s'est penché sur la démocratisation de la HD.
-Préparation de la série 9xxx mais ça ne semblait pas être leur priorité pendant 1 an..
 
Au vu de ce que propose aujourd'hui la marque, je constate que les 8800GTS/GTX sorties il y a 1 an sont toujours ce qui se fait de mieux. C'est pour cette raison que je ne trouve pas ma question si bête que ça  :D  
 
Cordialement :jap:


Message édité par MirageFL le 25-10-2007 à 16:34:13
mood
Publicité
Posté le 25-10-2007 à 16:32:28  profilanswer
 

n°5962409
god is dea​d
Demain, j'arrête de poster.
Posté le 25-10-2007 à 16:43:38  profilanswer
 

1 : aucune concurrence sérieuse de la part d'AMD sur le très haut de gamme.
2 : les archis Dx10 sont complexes et coûteuses, c'est sans doute difficile d'en augmenter la "taille".
3 : nul doute que Nvidia ne se tourne pas les pouces.  
 
L'augmentation de la puissance brute se trouve d'avantage dans le 65-55nm (augmentation fréquences gpu) et dans l'emploi de la gddr4 et/ou bus mémoire (augmentation bande passante), plutôt que dans l'ajout de ROPs, Unité de calculs ou de texturing.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5962418
MirageFL
Uplifted
Posté le 25-10-2007 à 16:49:56  profilanswer
 

god is dead a écrit :

1 : aucune concurrence sérieuse de la part d'AMD sur le très haut de gamme.


 
N'était-ce pas là l'occasion rêvée d'enfoncer le clou ?

n°5962426
god is dea​d
Demain, j'arrête de poster.
Posté le 25-10-2007 à 16:52:51  profilanswer
 

Le clou est déjà enfoncé je crois.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5962457
Power Nabo​t
Verticalement désavantagé.
Posté le 25-10-2007 à 17:07:51  profilanswer
 

Nvidia améliore ses drivers linux (bon, d'ici à ce qu'ils arrivent au niveau des drivers windows, ya un moment, mais quand même...).
Ils tentent de rejoindre ATI quant à la prise en charge de la HD (aux dernières nouvelles les HD2K sont devant.


---------------
Encore une victoire de canard !
n°5962479
sasuke87
Posté le 25-10-2007 à 17:21:35  profilanswer
 

god is dead a écrit :

Le clou est déjà enfoncé je crois.


 
pas vraiment, je crois plutôt qu'ATI est carrément en train de se refaire, surtout quand on voit les résultats financiers d'AMD (les revenus du secteur graphique sont en hausse)...  
 
Selon moi, nvidia prépare quelque chose de bien méchants pour le premier trismestre (peut être un bi-gpu à la manière des GX2).  
En tout cas ça serait dommage de perdre laur avance si bêtement (enfin c'est cool quand même pour la concurrence  :D )

n°5963600
MacIntoc
tu lis une phrase formidable.
Posté le 26-10-2007 à 11:22:47  profilanswer
 

God is dead>Augmenter le bus mémoire ne sert à rien, le R600 en est la preuve : diviser la fréquence de la RAM par deux (ce qui revient à baisser la taille du bus par deux, donc revenir à un bus 256bit) diminue les performance de moins de 5%, même filtre activé.
Augmenter la fréquence revient à augmenter la consommation. Et Intel a montré que plus on diminuait la finesse de gravure, plus on augmentait le courant de fuite et donc la consommation. Hors la tendance n'est clairement pas à ça.
Diminuer la finesse de gravure permet surtout de réduire le cout des puces ou pouvoir mettre plus de transistor sur une puce. Actuellement, c'est surtout ce premier point qui est visé.

n°5963617
super-kana​rd
Posté le 26-10-2007 à 11:37:09  profilanswer
 

MacIntoc a écrit :

Et Intel a montré que plus on diminuait la finesse de gravure, plus on augmentait le courant de fuite et donc la consommation.


 
 
Oui mais non. Clairement quand on diminue la finesse de gravure on augmente les courants de fuite, mais il y a des techniques pour éviter ça (modification du substrat & co), au final on s'en sort avec une consommation effectivement plus faible, cf les penryn (et toutes les réductions de finesses ayant eu lieu depuis le début des micro processeurs).
 
Après pour le sujet initial, seul Nvidia le sait ^^
 
Ils ont eu un gros gros succès avec leur G80 : la puce est sortie dans les temps, et les performances sont plus qu'au rendez vous, on avait jamais vu un tel écart entre 2 générations! En plus elle est parré pour DX10 & co, et surtout les performances tiennent dans le temps! (à l'image des 9800 ou x1900).
En face c'est l'inverse, ils ont eu de gros problèmes chez AMD avec leur r600, et ont été obligé de le sortir avec ces problèmes (consommation, chauffe, bug avec les filtres...). Ils ont une architecture sympa sur certains points (ring bus pour la mémoire), mais qui avait besoin d'un an de developpement en plus apparement.  
 
A coté de ça, ATI comme Nvidia ont été incapable de sortir un mileu de gamme potable pendant 1 an! Je pense qu'ils ont pas mal bossé pendant ce temps pour faire le G92, ou alors ils ont attendu que leur fondeur maitrise la finesse de gravure.  
Dans ce 2eme cas, le seul truc qu'ils ont pu faire, c'est bosser sur la suite, en prenant leur temps, pour que le succès soit aussi grand qu'avec le g80. Et ils auront peut être des problèmes avec cette suite, ça leur est déjà arrivé (haa les FX), et ça leur arrivera encore. En plus ça doit être dur de sortir une architecture plus performante que la g80, il n'y a pas grand chose à optimiser dans celle ci.
L'avantage c'est que le temps, ils l'ont, vu qu'ATI/AMD revient à peine dans la course.


Message édité par super-kanard le 26-10-2007 à 11:47:57
n°5963619
god is dea​d
Demain, j'arrête de poster.
Posté le 26-10-2007 à 11:38:07  profilanswer
 

Le R600 n'est pas le G80. Ce qui ne marche pas sur R600, peut très bien fonctionner sur un autre Gpu. Sur ma 8800gts, passer la ram de 800@1000mhz me fait gagner des perfs, et pas 2fps. Et diviser par deux la fréquence fait baisser sensiblement les perfs. En fait, c'est le R600 qui fonctionne différement, car sur toutes les autres cartes, diviser par deux la fréquence ram = chute de perf sensible.
 
Ensuite, une finesse de gravure plus fine permet (théoriquement) aussi d'augmenter la fréquence gpu sans pour autant nuire à la conso. Exemple avec la 8800gt, qui sera cadencé à 600mhz, certains modèles o/c d'usine seront à 700/750mhz.  
 
Le 65/55nm permettra à la fois de baisser très sensiblement la conso et par la même occas d'augmenter la fréquence gpu, ce qui permettra un gain de perf non négligeable.


Message édité par god is dead le 26-10-2007 à 11:45:47

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  Carte graphique

  Qu'a fait nVidia pendant 1 an ?

 

Sujets relatifs
que choisir ? Nvidia 8600 GT(S) ou... ?nvidia quadro2 MXR : pas de driver pr Win XP?
[Résolu] Nvidia GeForce 8800 GTX @ 420 €Nvidia ou ATI ? à moins de 200 €...
nvidia image etirée sur tvutilité de 128 ou 256 mo sur nVidia 8600Gt
carte graphique Nvidia Force4a quand la baisse des prix des carte Nvidia
nvidia vs ATI Novembre.Overclock impossible Gigabyte P35-DS4, Cause Nvidia 8600 - HELP
Plus de sujets relatifs à : Qu'a fait nVidia pendant 1 an ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR