Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2416 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  64  65  66  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°7089832
kaiser52
Posté le 28-08-2009 à 09:01:03  profilanswer
 

Reprise du message précédent :
Bah 300€ la GTX285 Gainward (soit 430$ de l'autre coté de la mère) pour un prix de 163.46$.
Soit 270$ de marge. (si c'est du 50/50, ça fait 1 carte vendu, le prix de 2 carte pour nVIDIA ?)
 
Je me disais aussi qu'ils pouvaient très bien vendre les GTX275 aussi chére que les HD4890 ! avec quasiment la même marge !
 
Comme quoi, même si ils vendent moins, ils gagnent plus quoi ^^


Message édité par kaiser52 le 28-08-2009 à 09:01:32

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
mood
Publicité
Posté le 28-08-2009 à 09:01:03  profilanswer
 

n°7089851
trajouf
Posté le 28-08-2009 à 09:26:33  profilanswer
 

Oui depuis l'arrivé des Shaders, on ce fait enculer à tous les niveaux sur le nombre de polygones. Je n'aime pas trop la 3D "shadé" car ça fait vraiment "faux", enfin dessin animé quoi. Le réalisme on sent qu'il veut s'imposer mais à chaque fois c'est un coté "raté". Les jeux ont beau être super beau (cf. GT4 4, Crysis, etc.) mais perso je ne trouve pas cela réaliste (enfin le mod Natural sur Crysis corrige un peu cela tout de même :) ). Autant dans Unreal Tournament 3 les shaders sont utilisés à foison, mais ce jeu ne cherche pas le réalisme, juste à être "beau", car de toute façon l'état d'esprit du jeu ne peut être corrélé avec le monde réel. Je pense qu'on peut faire un très beau jeu réaliste sans utiliser le trompe l'œil "les shaders" et en utilisant des vrais méthode qui étaient utilisés avant les shaders (avant 2002). Je cite par exemple, le Gouraud, l'environement Bump Mapping, l'augmentation du nombre de polygones (quand on voit que le tout premier GPU, cf. Geforce 256, qui était capable de générer 15 000 000 polygones/s). Prenez n'importe quel jeu actuel, compter le nombre de polygones sur un personnage, on arrive à 10 000 voir 50 000 mais pas plus, alors qu'il est conçu sur un base qui à beaucoup de polygones. Vous allez me dire pourquoi les développeurs passent-ils par les shaders depuis DX8? Tout simplement parce que c'est plus simple! Perso je trouve que depuis DX9 on a rien inventé en 3D (mise à part quelques techniques sympa comme Ambiant Occlusion ou Tesselation), on a juste permis au développeurs de faire leur travail plus rapidement, ce qui n'est pas un mal non plus. Bref, vu les cartes actuelles (je ne sais pas combien elles sont capables de chier de poly/s, mais je dirai pas loin de 1 000 000 000), il y aurait moyen de faire un vrai personnage avec beaucoup de polygones presque comme Toy Story (ben oui d'ailleurs, dans ce genre de film, pas de shaders! Juste des techniques éprouvé pour l'éclairage avec un nombre énorme de polygones).

n°7089866
kaiser52
Posté le 28-08-2009 à 09:43:41  profilanswer
 

Ouai je suis d'accord, mais c'est surtout à cause des consoles qu'on est "bridé".
Je pense que Crysis a beaucoup plus de polygones que GTA4.
 
La surenchère de shader est assez abusé ces temps si.
 
PS : Sautes des lignes !!!
 
[edit :]
 
http://www.hardware.fr/medias/photos_news/00/24/IMG0024470.jpg
 
Polys /frame = 2 623 042....
Comme quoi !


Message édité par kaiser52 le 28-08-2009 à 09:47:04

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7089992
bjone
Insert booze to continue
Posté le 28-08-2009 à 11:16:10  profilanswer
 

trajouf a écrit :

Oui depuis l'arrivé des Shaders, on ce fait enculer à tous les niveaux sur le nombre de polygones. Je n'aime pas trop la 3D "shadé" car ça fait vraiment "faux", enfin dessin animé quoi. Le réalisme on sent qu'il veut s'imposer mais à chaque fois c'est un coté "raté". Les jeux ont beau être super beau (cf. GT4 4, Crysis, etc.) mais perso je ne trouve pas cela réaliste (enfin le mod Natural sur Crysis corrige un peu cela tout de même :) ). Autant dans Unreal Tournament 3 les shaders sont utilisés à foison, mais ce jeu ne cherche pas le réalisme, juste à être "beau", car de toute façon l'état d'esprit du jeu ne peut être corrélé avec le monde réel. Je pense qu'on peut faire un très beau jeu réaliste sans utiliser le trompe l'œil "les shaders" et en utilisant des vrais méthode qui étaient utilisés avant les shaders (avant 2002). Je cite par exemple, le Gouraud, l'environement Bump Mapping, l'augmentation du nombre de polygones (quand on voit que le tout premier GPU, cf. Geforce 256, qui était capable de générer 15 000 000 polygones/s). Prenez n'importe quel jeu actuel, compter le nombre de polygones sur un personnage, on arrive à 10 000 voir 50 000 mais pas plus, alors qu'il est conçu sur un base qui à beaucoup de polygones. Vous allez me dire pourquoi les développeurs passent-ils par les shaders depuis DX8? Tout simplement parce que c'est plus simple! Perso je trouve que depuis DX9 on a rien inventé en 3D (mise à part quelques techniques sympa comme Ambiant Occlusion ou Tesselation), on a juste permis au développeurs de faire leur travail plus rapidement, ce qui n'est pas un mal non plus. Bref, vu les cartes actuelles (je ne sais pas combien elles sont capables de chier de poly/s, mais je dirai pas loin de 1 000 000 000), il y aurait moyen de faire un vrai personnage avec beaucoup de polygones presque comme Toy Story (ben oui d'ailleurs, dans ce genre de film, pas de shaders! Juste des techniques éprouvé pour l'éclairage avec un nombre énorme de polygones).


 
Non un shader n'est pas plus simple que la machine à état de base. C'est juste plus élégant et plus exact en termes de traitement.
 
Et justement dans les rendus cinémas actuels il y a plein d'endroits pauvres en géométrie et compensés par les textures, les techniques d'éclairage et les propriétés des matériaux (ce qui est du domaine du shader). Seul l'anti-aliasing est vraiment poussé à fond ce qui aide vraiment.
 
Après ce qui joue vraiment, et fait la différence entre du rendu hors-ligne TV baclé ou ciné, c'est l'exactitude colorimétrique ça joue énormément sur le photo-réalisme. Un jour il faudra jouer avec des écrans calibrés, et pas avec une dynamique fakée à deux balles (LCD grand public style).

Message cité 1 fois
Message édité par bjone le 28-08-2009 à 11:17:12
n°7090012
trajouf
Posté le 28-08-2009 à 11:23:59  profilanswer
 

bjone a écrit :

Après ce qui joue vraiment, et fait la différence entre du rendu hors-ligne TV baclé ou ciné, c'est l'exactitude colorimétrique ça joue énormément sur le photo-réalisme. Un jour il faudra jouer avec des écrans calibrés, et pas avec une dynamique fakée à deux balles (LCD grand public style).


 
Heu pourquoi quand je regarde un film c'est réaliste et quand je joue ça ne l'est pas? C'est le même écran je précise  [:hugueslebon]  

n°7090041
bjone
Insert booze to continue
Posté le 28-08-2009 à 11:42:32  profilanswer
 

La colorimétrie dans un jeu est dépendant de la chaine texture-lumière & tonemapper dans le cas du HDR.  
 
Avant ça se faisait au blair avec les textures travaillées au feeling, alors que de plus en plus, vu qu'on évolue vers des modèles d'éclairage avancé avec HDR, il faut travailler les textures avec une colorimétrie contrôlée (et avec un stockage final des textures et des shaders cohérents).
 
C'est tout un bordel, t'as un article dans le dernier GPU Gem, mais les jeux vidéos qui vont se vouloir photo-réaliste devront emprunter les chemins de contrôle colorimétrie et de compositing des effets spéciaux type ciné.  
 
Et c'est plus important que la densité géométrique sur le rendu final.  
 
Gollum était énormément normal-mappé. Et ça se voit pas.
Les derniers progrès dans les CG ciné sont plus du domaine du shader que de la géométrie.


Message édité par bjone le 28-08-2009 à 11:43:47
n°7090505
Gigathlon
Quad-neurones natif
Posté le 28-08-2009 à 16:27:06  profilanswer
 

trajouf a écrit :

Je cite par exemple, le Gouraud, l'environement Bump Mapping, l'augmentation du nombre de polygones (quand on voit que le tout premier GPU, cf. Geforce 256, qui était capable de générer 15 000 000 polygones/s).


Wé, wé... 15M poly/s... sans texture et en rendu flat [:gratgrat]  
 
Pour ton information "le Gouraud" est plus communément appelé "Gouraud SHADING" et c'est pas une coïncidence si ce terme ressemble à "shader".
 
Le fait est qu'avec un GPU actuel on est en mesure de faire du photo-réalisme, simplement pas forcément en temps réel car le simple rendu d'une peau humaine nécessite déjà une quantité invraisemblable de calculs, idem pour les yeux, et n'oublions pas les poils et cheveux qui ont cet aspect brillant du fait de leur structure externe, alors qu'ils sont représentés par des polygones de taille inférieure à un pixel, quand c'est des polygones d'ailleurs. C'est à ça que servent les shaders, plutôt que d'utiliser des bidouilles plus ou moins correctes visuellement.


Message édité par Gigathlon le 28-08-2009 à 16:28:48
n°7090596
White Sh4d​ow
GHz-O-Meter !
Posté le 28-08-2009 à 17:14:14  profilanswer
 

marllt2 > concernant ton tableau, j'ai quelques questions :
- C'est quoi MP ?
- pourquoi la "ram" des gt200 coute plus cher que la ram des 4870/90 alors qu'il y a la même quantité et que la 4870/90 utilise de la GDDR5 ?
 
Merci :)

n°7090624
kaiser52
Posté le 28-08-2009 à 17:32:41  profilanswer
 

White Sh4dow a écrit :

marllt2 > concernant ton tableau, j'ai quelques questions :
- C'est quoi MP ?
- pourquoi la "ram" des gt200 coute plus cher que la ram des 4870/90 alors qu'il y a la même quantité et que la 4870/90 utilise de la GDDR5 ?
 
Merci :)


 
Marqué sur l'image !
http://img90.imageshack.us/img90/451/29268575.jpg
 
MP => Median Price => le prix moyen en gros  :o  
 
Pour la ram, peut-être pas la même qualitatÿ !!!


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7090703
Gigathlon
Quad-neurones natif
Posté le 28-08-2009 à 18:14:10  profilanswer
 

White Sh4dow a écrit :

marllt2 > concernant ton tableau, j'ai quelques questions :
- C'est quoi MP ?
- pourquoi la "ram" des gt200 coute plus cher que la ram des 4870/90 alors qu'il y a la même quantité et que la 4870/90 utilise de la GDDR5 ?
 
Merci :)


La RAM est vendue par AMD et nV en bundle avec le GPU et éventuellement le cooling... donc ça parait logique :o
 
4830: $42.03
4850: $53.93
4870: $65.20
GTX260: $93.60
4890: $98.85
GTX275: $107.83


Message édité par Gigathlon le 28-08-2009 à 18:19:53
mood
Publicité
Posté le 28-08-2009 à 18:14:10  profilanswer
 

n°7090717
loneliness
BTC accepted here
Posté le 28-08-2009 à 18:22:30  profilanswer
 

Ils vont d'abord sortit les cartes Geforce 3xx sur portable on dirait non ?? Cf le inf 186.82:
 
NVIDIA GeForce GT 335M"NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M "

Message cité 2 fois
Message édité par loneliness le 28-08-2009 à 18:22:43
n°7090734
Gein
Posté le 28-08-2009 à 18:31:00  profilanswer
 

loneliness a écrit :

Ils vont d'abord sortit les cartes Geforce 3xx sur portable on dirait non ?? Cf le inf 186.82:
 
NVIDIA GeForce GT 335M"NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M "


 

Citation :

Nvidia's new 40nm GeForce 210 (GT218) GPU-based graphics cards will be available in the retail channel in October, as yield of the 40nm process at foundry partner Taiwan Semiconductor Manufacturing Company (TSMC) has improved, according to industry sources.
 
The GeForce 210 graphics cards will feature either DDR2 or DDR3 memory, and support DirectX 10.1 and Shader Model 4.1.
 
In addition to GeForce 210, Nvidia is also expected to launch GPUs codenamed GT230 and GT300 in the fourth quarter of 2009, the sources said.
 
Nvidia has recently adjusted its GPU naming scheme and removed marks such as GTX, GT and G, and will instead just simply use GeForce plus the number.
 
Shipments of AMD's long-awaited RV870 GPU are expected to kick off in September at the earliest, the sources added.


 
source

n°7090761
loneliness
BTC accepted here
Posté le 28-08-2009 à 18:43:15  profilanswer
 

Activation a écrit :

mais non c est la nouvelle nomenclature :O
 
GT330=GTX280 :O


 
Excuse moi de pas passer ma vie sur ce topic :o
 
Et merci Gein

n°7090824
mikestewar​t
Air Roll Spinnin'
Posté le 28-08-2009 à 19:16:05  profilanswer
 

Nvidia le vaut bien. ;)

 

Par contre gaffe à ne pas mélanger les noms des cartes et les noms de code des GPU, ce sont deux choses différentes. Comme pour la carte GT230 à base de GPU GT215, par exemple.

 

Quoi qu'il en soit, étranges ces noms...  [:million dollar baby]


Message édité par mikestewart le 28-08-2009 à 19:16:56
n°7091016
mikestewar​t
Air Roll Spinnin'
Posté le 28-08-2009 à 22:14:19  profilanswer
 

Theo vs. Charlie : Theo à la "rescousse" du GT300 ?
 
 
http://www.brightsideofnews.com/ne [...] ember.aspx
 
 

Citation :

nVidia plans GT300 demos for late September
 
After hearing from multiple sources spanning on several continents, we can be fairly certain that the samples of nVidia's first DirectX 11 GPU are going to depart from engineering labs. Just like GT200, GT300 spent several months in the Labs while the drivers were being created.
 
Given that today's GeForce drivers contain more code than Windows XP core, we aren't surprised that nVidia is taking time to get the product ready for market (  [:xp1700] ). Just like some media were suggesting that GT200 taped out in March 2008 [while some developers got the GT200 cards as early as three months before that tape out story], GT300 needs time [and human resources] to finish the development. GT300 is the base graphics architecture not just for the standard desktop or notebook graphics, but also as a future graphics base for the Tegra generation of products. And with recent rumors of nVidia implementing ECC feature into the GPU [which is a given, since GDDR5 comes with ECC], Tesla parts should be quite interesting as well.
 
But now, we have received words that AIBs are getting time frames forthe demonstrations to their own partners and press, with the firstevents happening in September. The dates are obviously planned to bluntthe katana-sharp market attack from ATI's Radeon 5000 series.
 
On nVidia's annual gathering of add-in-board manufacturers [happened a while ago], a lot of harsh words were spoken due to renaming policies, OEM positioning and more importantly, how to combat resurgent ATI - it was stated that a lot is expected from the NV70 e.g. GT300 generation.
 
Now, the only question is how long it will take for nVidia's demo team and software vendors to create traditional launch demos. ATI dropped the practice with the Radeon 4000 series, showing raytraced Ruby in its Cinema 2.0 event, but the demo didn't became available to general public. All in all, computer graphics arena is never boring.


 
 
Donc le hardware est fin prêt selon Theo, manque juste les demos et puis, accessoirement, les pilotes.  [:chromium]  
 
Avec la petite illustration taggée "NVDA_September_GT300_215.jpg" : http://www.brightsideofnews.com/ThumbL.aspx?file=/Data/2009_8_28/nVidia-plans-GT300-demos-for-late-September\NVDA_September_GT300_215.jpg , qui a une forte ressemblance avec un PCB de GTX280  [:million dollar baby]  :
 
http://www.frageek.com/files/images/GeForce%20GTX%20280%20Preview%201.jpg
 
De l'info de qualité, pour sûr.  ;)


Message édité par mikestewart le 28-08-2009 à 22:16:57
n°7091021
Gein
Posté le 28-08-2009 à 22:22:21  profilanswer
 

C'est le die qui est gros comme ça  :pt1cable:
 
Tiens a gauche le Nvio.

Message cité 1 fois
Message édité par Gein le 28-08-2009 à 22:23:00
n°7091042
mikestewar​t
Air Roll Spinnin'
Posté le 28-08-2009 à 22:33:39  profilanswer
 

Theo a quand même l'audace de recycler des illustrations qu'il utilisait déjà en Mai 2008, je cherchais le lien, le voici ;) :
 
http://www.tgdaily.com/content/view/37377/135/
 
http://www.tgdaily.com/images/stories/article_images/nvidia/gt200_leak_02.jpg
 
Concernant les éventuelles démos par contre, on verra bien, Nvidia ne va pas regarder le lancement des Evergreen sans rien faire. :)

Message cité 1 fois
Message édité par mikestewart le 28-08-2009 à 22:34:25
n°7091044
Gein
Posté le 28-08-2009 à 22:36:14  profilanswer
 

je comprend pas c'est bien le PCB du GT300 ?

Message cité 1 fois
Message édité par Gein le 28-08-2009 à 22:36:31
n°7091045
mikestewar​t
Air Roll Spinnin'
Posté le 28-08-2009 à 22:36:34  profilanswer
 

Non, c'est celui d'une GTX280.

n°7091099
mikestewar​t
Air Roll Spinnin'
Posté le 28-08-2009 à 23:18:29  profilanswer
 

loneliness a écrit :

Ils vont d'abord sortit les cartes Geforce 3xx sur portable on dirait non ?? Cf le inf 186.82:

 

NVIDIA GeForce GT 335M"NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M "

 

Petit éclaircissement là-dessus et de façon ironique Activation, tu avais presque visé juste mais en fait ça pourrait être bien pire ;) :

 
Citation :

Nvidia renames 2xx parts to 3xx

 

http://www.semiaccurate.com/2009/0 [...] parts-3xx/

 

Basiquement ce sont les "à peine annoncées, quasi pas dispos" nouvelles cartes pour portables à base de GPU DX10.1 40nm (GT215/216/218) qui auraient déjà été renommées...qui plus est en remplaçant  la GDDR5 par de la GDDR3 sur les plus puissantes. Là, je ne sais pas si c'est Charlie ou Nvidia que je n'arrive plus à suivre...

 

Donc selon Charlie, de la même façon qu'il y a eu du G92 dans la gamme 2xx (GTS240/250), il y aurait du GT2xx dans la gamme 3xx (du GT300...).  :pt1cable: En attendant que des déclinaisons moins onéreuses du GT300 fasse leur apparition...

  


Message cité 1 fois
Message édité par mikestewart le 28-08-2009 à 23:22:15
n°7091104
Profil sup​primé
Posté le 28-08-2009 à 23:20:52  answer
 

Pour moi c'est clair: c'est le bazar :d

n°7091108
mikestewar​t
Air Roll Spinnin'
Posté le 28-08-2009 à 23:23:24  profilanswer
 

Bah une GeForce 3xx DX10.1 avec 16SP...pourtant.  :o


Message édité par mikestewart le 28-08-2009 à 23:23:44
n°7091144
Fantryt
Posté le 28-08-2009 à 23:47:56  profilanswer
 

Honnêtement, 2Go, c'est vraiment mieux que 1Go ? Différence nette ou simple gadget marketing ?


Message édité par Fantryt le 28-08-2009 à 23:48:10
n°7091146
trajouf
Posté le 28-08-2009 à 23:49:30  profilanswer
 

entre 512mo et 1go, il y a une diff mais sur de tres grosses reso avec AA and co...
entre jusqua 1.5 sa doit valoir le coup mais au dela je doute
 
Enfin faire gaffe aux cartes biGPU qui n'ont en fait que la moitié de memoire par rappiort a ce qui est annoncé.

n°7091149
Fantryt
Posté le 28-08-2009 à 23:52:26  profilanswer
 

Oui, celle-là, me suis fait avoir, puis j'ai compris en venant sur ce forum que chaque GPU avait en fait 1Go (HD4870X2) ou 896Mo (GTX295) .
Enfin, à cause de ça, je n'arrive toujours pas à croire maintenant que les multi-GPU de type CrossFire/SLI ou multi-GPU dans la même carte puissent fonctionner avec de la mémoire partagée ...  :pt1cable:

n°7091257
marllt2
Posté le 29-08-2009 à 02:42:57  profilanswer
 

White Sh4dow a écrit :

- pourquoi la "ram" des gt200 coute plus cher que la ram des 4870/90 alors qu'il y a la même quantité et que la 4870/90 utilise de la GDDR5 ?

kaiser52 a écrit :

Pour la ram, peut-être pas la même qualitatÿ !!!


C'est surtout GDDR3 vs GDDR5.
 

Gein a écrit :

C'est le die qui est gros comme ça  


Un HS, comme depuis le G80 sur chez nV sur le HDG:
 
http://img241.imageshack.us/img241/4683/g80nvidiapi7.jpg
 

mikestewart a écrit :

Theo a quand même l'audace de recycler des illustrations qu'il utilisait déjà en Mai 2008, je cherchais le lien, le voici :
 
http://www.tgdaily.com/content/view/37377/135/
 
http://img402.imageshack.us/img402/1466/gt200leak02.jpg

Gein a écrit :

je comprend pas c'est bien le PCB du GT300 ?

mikestewart a écrit :

Non, c'est celui d'une GTX280.


 
Comme dit mike, c'est un PCB de GTX 280 leaké un mois avant son lancement. On peut d'ailleurs en retrouver trace sur le topic GT200.
 
Donc Theo crée du FUD en essayant de faire passer cette image pour un PCB de GT300.


Message édité par marllt2 le 29-08-2009 à 03:07:10
n°7091260
marllt2
Posté le 29-08-2009 à 03:07:18  profilanswer
 

mikestewart a écrit :

Petit éclaircissement là-dessus et de façon ironique Activation, tu avais presque visé juste mais en fait ça pourrait être bien pire :
 

Citation :

Nvidia renames 2xx parts to 3xx


 
http://www.semiaccurate.com/2009/0 [...] parts-3xx/
 
Basiquement ce sont les "à peine annoncées, quasi pas dispos" nouvelles cartes pour portables à base de GPU DX10.1 40nm (GT215/216/218) qui auraient déjà été renommées...qui plus est en remplaçant  la GDDR5 par de la GDDR3 sur les plus puissantes. Là, je ne sais pas si c'est Charlie ou Nvidia que je n'arrive plus à suivre...
 
Donc selon Charlie, de la même façon qu'il y a eu du G92 dans la gamme 2xx (GTS240/250), il y aurait du GT2xx dans la gamme 3xx (du GT300...).   En attendant que des déclinaisons moins onéreuses du GT300 fasse leur apparition...


Ils font un pari interne dans le département marketing chez nV, ou quoi. [:prozac]
 

Citation :

Nvidia renames 2xx parts to 3xx
Worked well last time, consumers are sheep
 
NVIDIA IS DOING what it knows how to do best once again - not making chips, but renaming old parts into the new 'GT300' series. Yes, it is funny, but there is a good reason for the renaming.
 
As you might be aware, Nvidia is the master of screwing consumers by renaming old cards to sound like they are new.

Citation :

But how do you do that and snow an already clued-in set of reviewers? Easy enough, you... wait for it, make the cards slower! Yes, slower.  
 
Don't ask me how the big thinkers in Nvidia product planning remember to breathe. If they use the same mental pathways for basic bodily functions as they do to 'make' 'new' parts, they would have died long ago.


 
 :lol:
 
 

Citation :

The GT212/214/216/218 going to GT214/216/218 then on to GT215/216/218 saga of 2009 is emblematic of its failures, and the lack of consumer versions just makes things sadder.


Des failures, où ça ?    
 
Tout va pour le mieux. Le line-up de nV est "perfect" serlon J-S Huang, et depuis qu'ils utilisent les outils de design de chez Magma's Quartz ils peuvent faire des "aggressive design schedules". [:yamusha]  
 
 

Citation :

http://www.marketwatch.com/story/m [...] 2009-08-25
 
James Chen, VLSI technology manager at NVIDIA:
 
Though design sizes and rule complexity have increased significantly, we've been [at nVidia] able to meet aggressive design schedules by leveraging Quartz's linear scalability

 
 
Et comme dit Théo, la méthode Coué ne peut pas marcher indéfiniment:
 

Citation :

Something is badly wrong at Nvidia central. It simply can't make parts that work. While there are signs of that the repeated cluetrain impacts are sinking in, there are still huge gaps remaining. Q4 2009 is lost to Nvidia, Q1 2010 seems to be as well, and there is little hope on the horizon.  
 
Funny as it is to watch Nvidia's bluster turn to ashes, if it doesn't pick up its game very soon, the company may implode


Message édité par marllt2 le 29-08-2009 à 03:34:07
n°7091263
marllt2
Posté le 29-08-2009 à 03:17:23  profilanswer
 

http://www.semiaccurate.com/2009/0 [...] parts-3xx/

Citation :

Yes, the parts in the G3xx series that do not end in 00 are missing in action, so Nvidia is going to make some up.[...]  
 
More importantly, this says that the follow up parts to the GT300 are not imminent. ( http://www.semiaccurate.com/2009/0 [...] iants-tip/ )
 
Very not imminent. If they are feasible at all now.

 
Hum, donc le GT300 est encore plus "scalable design" que le GT200, selon les termes de Dally. Les déclinaisons MDG du GT300 ne semblent pas prêtes d'arriver.  
 
Si ça fait comme avec les déclinaisons du GT200, il faudra attendre fin 2010. Bref quand TSMC aura du 32nm dispo.
 
Et voilà qui "confirme" les propos des Chinois dont j'ai déjà parlé dans ce topic: http://forum.hardware.fr/hfr/Hardw [...] m#t7074198
 
edit:  
 
http://img56.imageshack.us/img56/7471/tsmc28.jpg
 
En gros autour du Computex 2010 il pourra y avoir des GPU 32nm annoncés, alors qu'il faudra attendre autour du Cebit 2011 pour du 28nm.
 
Des GPU bien sûr raisonnables, genre pas plus de 250mm². Pour du plus gros, il faudra sans doute attendre 1 à 2 trimestres de plus.
 
Pourquoi pas un "GT 312" en 32nm dès l'automne 2010, et un "GT 400" en 28nm fin 2011...

Message cité 3 fois
Message édité par marllt2 le 29-08-2009 à 04:25:34
n°7091265
mikestewar​t
Air Roll Spinnin'
Posté le 29-08-2009 à 03:26:09  profilanswer
 

Honnêtement, je me demande ce qu'il se passe en interne chez Nvidia depuis quelques temps : deux "gros" départs cette année (David Kirk et Derek Perez), les remplaçants des G92 et GT200 annulés (respectivement GT214 et GT212), bien plus de mal avec le 40nm qu'AMD (qui prépare un gros lancement actuellement), etc...

 

Le GT300 porte donc tout sur ses épaules, alors en attendant "la meilleure chose" à faire est de laisser la section marketing tenter de sauver les meubles dans la limite de leur compétences : comprendre "tromper" l'acheteur lamdba en faisant du renommage à la pelle dans les bas-moyen de gamme, pour les OEM notamment...pour les "gamers" ils vont préparer quelque chose en Septembre, l'accro à Nvidia ne s'empêchera de suivre bêtement la carotte, sans savoir quand arrivera le GT300 ni ce qu'il vaudra en pratique...

 

Si le GT300 se plante, alors là...

 
marllt2 a écrit :

Hum, donc le GT300 est encore plus "scalable design" que le GT200, selon les termes de Dally. Les déclinaisons MDG du GT300 ne semblent pas prêtes d'arriver.

 

Si ça fait comme avec les déclinaisons du GT200, il faudra attendre fin 2010. Bref quand TSMC aura du 32nm dispo.
 
Et voilà qui "confirme" les propos des Chinois dont j'ai déjà parlé dans ce topic: http://forum.hardware.fr/hfr/Hardw [...] m#t7074198

 

Et le goufre entre le GT215 et le GT300... :/ Donc "Papy G92" toujours de service ? et au dessus, un GT200 au rapport perf/coût encore plus obsolète (sans parler du perf/watts et de DX  [:slackerbitch] ) ?

 

La gamme Nvidia en 2010...  :pfff:

 


En passant, les premiers benchs de la GT240M (nouveau GPU GT216) sont loin d'être fameux alors qu'elle est censée concurrencer la 4650 Mobility (en 55nm, elle), qui commence à fleurir dans les portables (où AMD a depuis peu plus de parts de marché qu'Nvidia) :

 

http://www.notebookjournal.de/test [...] 50mn-967/2
http://www.notebookcheck.net/Revie [...] 255.0.html

 

Ça doit expliquer en partie ce renommage à la va-vite. :/


Message édité par mikestewart le 29-08-2009 à 04:20:00
n°7091339
Gigathlon
Quad-neurones natif
Posté le 29-08-2009 à 10:00:48  profilanswer
 

Vu que le GT215 a des specs à rapprocher de la 9600GT ces chiffres sont assez logiques et démontrent bien que chez nV "scalable" n'a pas vraiment le même sens que pour le reste du monde...

n°7091418
trajouf
Posté le 29-08-2009 à 11:59:33  profilanswer
 

Ca raconte tellement nimpe dans tous les sens que je ne lis pu :D
 
On en discutera avec Jen-Hsun Huang quand il viendra prendre l'apero chez moi  [:power9999]

Message cité 1 fois
Message édité par trajouf le 29-08-2009 à 12:01:47
n°7091419
Ramichou
Posté le 29-08-2009 à 12:01:08  profilanswer
 

Ca va se finir avec des G92 ces histoires !
 
J'aurais jamais pensé que fin 2007, j'avais acheté la puce avec la plus grande durée de vie jamais vue pour du haut de gamme graphique.


Message édité par Ramichou le 29-08-2009 à 12:03:03
n°7091454
mikestewar​t
Air Roll Spinnin'
Posté le 29-08-2009 à 12:27:52  profilanswer
 

trajouf a écrit :

Ca raconte tellement nimpe dans tous les sens que je ne lis pu :D
 
On en discutera avec Jen-Hsun Huang quand il viendra prendre l'apero chez moi  [:power9999]


 
Ce sujet n'est que le reflet de la situation chez Nvidia.  :whistle:
 
Sérieusement, si vous avez de l'info positive et crédible concernant la future gamme Nvidia, n'hésitez pas, ça devient affreusement rare. :/

n°7091463
mikestewar​t
Air Roll Spinnin'
Posté le 29-08-2009 à 12:35:48  profilanswer
 

3DVision sera le dernier rempart. :o

 

http://www.delta-sierra.com/hardware_software_reseaux/i.jpg

 

A moins qu'AMD annonce son système 3D Stéréo dans 2 semaines...

 

Vraiment des sadiques chez AMD...  :ange:

Message cité 1 fois
Message édité par mikestewart le 29-08-2009 à 12:36:05
n°7091603
marllt2
Posté le 29-08-2009 à 14:31:54  profilanswer
 

Activation a écrit :

à trop vouloir se la péter devant intel avec son computing via gpu nvidia on se demande encore si il s adresse au gamer  
déjà le gt200 ça ressemble plus à un cadeau de programmation cuda à destination des pro qu à une vrai puce pour la 3D


Il se murmure chez les Chinois que les G90 et G100 auraient étés annulés, remplacé par le GT200. T pour Tesla. Propos invérifiables bien sûr.
 
N'empêche, il y a que moi qui regrette le temps pré- FX 5800 ? :/ Même si les GF6 et GF8 GTX ont été un joli coup.
 

mikestewart a écrit :

A moins qu'AMD annonce son système 3D Stéréo dans 2 semaines...


Justement il y a une source sur ça ?

Message cité 1 fois
Message édité par marllt2 le 29-08-2009 à 14:37:22
n°7091639
trajouf
Posté le 29-08-2009 à 14:53:23  profilanswer
 

La Geforce FX 5800 Ultra était une super carte! Usine à chaleur, usine à bruit, usine à aspiration de poussière, et usine à 2fps :D
 
Bon sans être médisant, Nvidia à vraiment chié sur ce coup car la carte était foireuse mais les drivers encore plus! Il a fallu un bon moment avant que Nvidia chie des drivers qui exploite correctement la carte, et c'est seulement la que la carte équivalait à la 9700 pro! Mais c'était trop tard car les gens avaient déjà pris des 9700 pro mdr! Et la série 5900 est sortie environ en même temps et la série 5800 était retiré de la vente. J'ai acheté une 5600 Ultra, quelle connerie que j'ai pas fait la! En plus c'était la version I (350/700) alors que la version II faisait 400/800 et toute à la fin la version III (450/900) juste avant la 5700 Ultra. Payer 250€ pour une carte pourrie sans driver c'est abusé! Carton rouge Nvidia sur ce coup la!

n°7091665
mikestewar​t
Air Roll Spinnin'
Posté le 29-08-2009 à 15:17:04  profilanswer
 

marllt2 a écrit :

Justement il y a une source sur ça ?


 
J'en ai vu aucune. ;)

n°7091792
Rafale06
Vive les Suisses (Neutre..)
Posté le 29-08-2009 à 17:14:57  profilanswer
 

Juste une question on est bien sur le topic du GT300........ou bien sur le topic on chie sur la gueule de Nvidia à donf juste parce qu'on a rien à dire et qu'on trolle de la merde........
 
Au lieu d'aller faire mumuse sur le topic ATI qui va bien .......
 
Je ne cite personne il n'y a qu'a voir les dernieres messages sur ce topic la......
 
A quand une modération efficace ????  
 
Le libre échange d'opinion OK, tout en respectant le topic à la base et éviter de chier sur une marque qui a fait énormément pour le jeux pc et les joueurs........


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7091821
Rafale06
Vive les Suisses (Neutre..)
Posté le 29-08-2009 à 17:42:23  profilanswer
 

ATI 128 Rage pro, ATI X800 , ATI 1800XT ...(une belle enculade)
 
Geforce 2, Geforce 3, Geforce4, 8800 GTX, GTX 275.............
 
Je crois que j'ai eu pas mal de carte 3d je pense............ et ça m'évite de chier sur telle ou telle marque......
 
Mêle si à l'époque de la X1800XT je me suis fais (censuré) 560euros dans les dents....... 1mois aprés mon achat une certaine X1950XT est apparue comme par magie..............
 
Bref sujet clos vu qu'on est ici pour parler du GT300 ^^


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7091827
Profil sup​primé
Posté le 29-08-2009 à 17:47:19  answer
 

Petit florilège de mots bien 'sentis' sur les derniers Posts :/
Ça va couper :o...

n°7091845
Rafale06
Vive les Suisses (Neutre..)
Posté le 29-08-2009 à 17:58:35  profilanswer
 

Des mots bien sentis certes mais franchement quand on vois les derniers messages sur un TOPIC conçernant le GT300........
 
Bierman moi aussi je t'aime ;)


---------------
Les kevin (j'ai 12ans lol) je les ignore......
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  64  65  66  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)