Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3880 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  10  11  12  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°6955505
Activation
21:9 kill Surround Gaming
Posté le 13-05-2009 à 19:24:38  profilanswer
 

Reprise du message précédent :

White Sh4dow a écrit :

le larrabee, est ce que ce sera un cpu sur un pcb a intégrer sur un port pci e ?


 
ça sera... un truc cher  [:dr house]

mood
Publicité
Posté le 13-05-2009 à 19:24:38  profilanswer
 

n°6955509
White Sh4d​ow
GHz-O-Meter !
Posté le 13-05-2009 à 19:25:20  profilanswer
 

mais encore...

n°6955515
Gigathlon
Quad-neurones natif
Posté le 13-05-2009 à 19:29:10  profilanswer
 

god is dead a écrit :

Dans tous les cas, à grosse puissance de calcule and co, grosse bp. Faudrait surtout pas négliger la bp, on voit d'ailleurs qu'elle est un élément limitant sur rv770, après le texturing.


Anandtech est pas trop d'accord avec toi, et ça se comprend vu leurs chiffres...
 
Sur le RV790, l'augmentation de 17.6% du GPU apporte ~13%, contre 3% au mieux pour les 23% à la RAM.
 
Les RV770/790 sont principalement limités par les ROPs, puis le texturing, et enfin la RAM, et le RV740 en est une bien jolie preuve puisqu'une 4770 arrive très près d'une 4850 de puissance de calcul (960 vs 1000GFlops) et de texturing (24 vs 25Gtexels/s) comparable mais disposant de 16.7% de fillrate en moins et 19.5% de BP en plus (et si on suit ton raisonnement, le RV740 aurait même un handicap de 35% sur la BP...)
 
Pour le GT200 par contre j'arrive pas à voir où se situent les goulets d'étranglement tant tout est surdimensionné, et pourtant il est évident qu'il y en a, sans quoi ses perfs seraient largement supérieures.
 
 
D'autre part les rumeurs du moment sur le GT300 sont carrément trop optimistes, j'ai énormément de mal à croire à un GPU de 480mm² en 40nm et je vois plutôt une puce sensiblement plus petite, tout simplement car si ils se loupent une seconde fois sur un mastodonte les finances vont aller très mal.

Message cité 2 fois
Message édité par Gigathlon le 13-05-2009 à 19:33:27
n°6955518
Activation
21:9 kill Surround Gaming
Posté le 13-05-2009 à 19:30:08  profilanswer
 


 
un truc au depart destiné qu'aux monde pro (genre des carte quadro ou firegl)
 
donc bon... larabee tu le met dans une capsule temporel marqué dessus "à déterré en 2012-2013 quand les dev auront pu touché à ce truc paperlaunch pour faire peur aux concurrents"
 
moi j ai surtout en souvenir le 740
 
une solution graph intel de l epoque des pentium 2/3
 
qui avait des drivers pourri avec des bugs visuel chiant sous les jeux... chez un pote  :whistle:

n°6955531
campi
V8 FTW
Posté le 13-05-2009 à 19:37:21  profilanswer
 

Gigathlon a écrit :

si ils se loupent une seconde fois sur un mastodonte les finances vont aller très mal.


 
Je ne suis pas tout à fait d'accord vu que la où le très gros des ventes se font c'est sur le MDG/BDG...
 
Peu de personnes jouent sur pc, et encore moins achètent des cg à 400/500 E ;)


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°6955559
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 13-05-2009 à 19:53:23  profilanswer
 

Avec la HD 4770 à 90 euros, AMD a redéfini l'univers des gamers sur PC.
Il est terminé le temps des cartes vidéo potables à environ 500 euros.
 
Maintenant que les prix sont devenus abordable pour M Toutlemonde, peut-être que si les gens commencent à s'équipper de cartes de ce genre, et que le bassin de PC capable de faire tourner des jeux du genre Crysis/Stalker augmente rapidement, les développeurs de jeux vont se remettre à développer des jeux spécialement conçus pour les PC...

n°6955561
Gigathlon
Quad-neurones natif
Posté le 13-05-2009 à 19:55:15  profilanswer
 

campi a écrit :

Je ne suis pas tout à fait d'accord vu que la où le très gros des ventes se font c'est sur le MDG/BDG...
 
Peu de personnes jouent sur pc, et encore moins achètent des cg à 400/500 E ;)


D'accord là-dessus, mais en attendant, si leur puce de 480mm² revient à $100 la pièce et ne parvient pas à se démarquer, ils auront encore plus de mal à la vendre et ça sera une perte sèche de dizaines de millions de R&D.
 
C'est pas du tout la même situation que quand ils ont foiré leur NV30 là, AMD a fait méchemment baisser le prix moyen du haut de gamme (ou monter la puissance du milieu de gamme, c'est comme on le sent) et ils ne peuvent pas décemment espérer vendre leur carte $600 si ils se plantent, notamment si AMD vend ses 5870 à $400-450 (faire plus de marge c'est bien, mais si en plus on peut augmenter le volume de ventes c'est encore mieux).


Message édité par Gigathlon le 13-05-2009 à 19:55:51
n°6955581
Activation
21:9 kill Surround Gaming
Posté le 13-05-2009 à 20:02:59  profilanswer
 

le problème pour nvidia c est son milieu de gamme
 
avant 8600GT puis 9600GT c est un vieux 8800GT (bref 9800GT et maintenant GTS250) et peu avant du 8800GS à bus 192bits qui a prit la relève
 
si nvidia grogne après tsmc et commence à allez voir ailleurs c est justement car le milieu de gamme est une grosse bouse qui n'est plus rentable avec le produit qu'il y met dans cette grille
 
hors nvidia sur PC fixe et portable à souvent fait son fric sur le dit milieu de gamme
 
le plus gros problème pour le moment c est le milieu de gamme
 
et à mon avis nvidia aurait voulu sortir bien plus tot ses GT216
car maintenant en face y a du HD4770  
faudrait pas que nvidia louppe la sortie d'un milieu de gamme plus frais rentable
 
en bref nvidia doit sortir en masse dès juillet son nouveau milieu de gamme (meme si pas dx11 lui) rentable sinon NV va louper le coche du marché de rentrée de septembre aupès des constructeur (dell, hp, packard bell, acer, etc...)
sinon c'est les investisseurs qui feront la gueule


Message édité par Activation le 13-05-2009 à 20:03:58
n°6955594
Gigathlon
Quad-neurones natif
Posté le 13-05-2009 à 20:10:54  profilanswer
 

Le GT216 devait théoriquement remplacer la 9600gt hein, et avec le rapport entre 4670 et 9500gt on a vite fait d'imaginer qu'il serait insuffisant... tout en coûtant aussi cher que le RV740 (la 4770 est 30% plus perf que la 9600gt... qui n'en veut d'un GT216 à 850/2100/1150?)


Message édité par Gigathlon le 13-05-2009 à 20:22:01
n°6955633
mikestewar​t
Air Roll Spinnin'
Posté le 13-05-2009 à 20:35:51  profilanswer
 

Wirmish a écrit :

Le Larrabee n'a rien de comparable avec les GPU nVidia et ATi.
Le Larrabee n'est rien d'autre qu'un proco dédié principalement aux calculs intensif.

 

Clairement. Je sais pas comment PCInpact peut relayer une rumeur comme ça. Qui a le moyen de comparer leur perfs pratiques en ce moment ? (personne ?)

 

Avec ça le reste de la news en prend un coup. D'ailleurs au début, le "certains" qu'ils ne nomment pas, c'est BrightSideofNews (BSoN). On l'a vu ici, BSoN a juste fait une déduction à partir de 2 rumeurs. La première, de Fud, tablant sur une arrivée du RV870 au Q4 2009 au plus tôt, qui est relativement crédible. La seconde, qui évoque un lancement du GT300 à partir d'Août 2009, pas vraiment crédible. Si Nvidia pouvait le faire, ça ferait belle lurette que le G92 en 40nm serait dispo. Enfin on verra.


Message édité par mikestewart le 13-05-2009 à 20:38:31
mood
Publicité
Posté le 13-05-2009 à 20:35:51  profilanswer
 

n°6955670
Fantryt
Posté le 13-05-2009 à 20:59:38  profilanswer
 

Wirmish, pourquoi tu dis que LARRABEE n'aura rien de comparable avec un GPU ? Et qu'est-ce que tu fais des unités de texture ?

n°6955773
kaiser52
Posté le 13-05-2009 à 21:52:41  profilanswer
 

campi a écrit :


 
Je ne suis pas tout à fait d'accord vu que la où le très gros des ventes se font c'est sur le MDG/BDG...
 
Peu de personnes jouent sur pc, et encore moins achètent des cg à 400/500 E ;)


 
Clair surtout avec ca comme annonce : Apple consomme un peu plus de 50 % du total des chipsets 9400M produits par Nvidia
Avec ce petit Ion, ca fait quand même remonté les pepetes pour un truc soit disant mort née à cause d'intel !


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6955861
marllt2
Posté le 13-05-2009 à 22:49:56  profilanswer
 

kaiser52 a écrit :

La puce serait aussi plus puissante que le processeur Larrabee d'Intel, dont la surface actuelle est d'environ 600 mm² pour une gravure en 45 nm => J'aime  :love:


Sauf que:
 
1) On ne connait rien (à part une équivalence faite à l'arrache dans Fear qui ne nous avance pas plus) des perfs/core et de la fréquence du Larrabee.
 
2) Les 600mm² (mesuré à 667mm² par moi-même) sont pour 32 cores en 65nm. Donc 64 cores @ 45nm, et pas seulement 32 comme immaginé au départ.
 

Wirmish a écrit :

Le Larrabee n'a rien de comparable avec les GPU nVidia et ATi.
Le Larrabee n'est rien d'autre qu'un proco dédié principalement aux calculs intensif.
 
Un simple RV770/G80b sera suffisant pour écraser le Larrabee dans les jeux.


Personne n'en sais rien à l'heure actuelle.
 
Même si nVidia l'appelle Laughabee, alors qu'ils n'ont même pas vu venir le RV770 d'AMD...
 

White Sh4dow a écrit :

le larrabee, est ce que ce sera un cpu sur un pcb a intégrer sur un port pci e ?


http://www.delta-sierra.com/hardware_software_reseaux/59311-larrabee.gif


Message édité par marllt2 le 13-05-2009 à 22:55:30
n°6955880
marllt2
Posté le 13-05-2009 à 23:01:56  profilanswer
 

Gigathlon a écrit :

D'autre part les rumeurs du moment sur le GT300 sont carrément trop optimistes, j'ai énormément de mal à croire à un GPU de 480mm² en 40nm et je vois plutôt une puce sensiblement plus petite, tout simplement car si ils se loupent une seconde fois sur un mastodonte les finances vont aller très mal.


Pour rappel au départ la roadmap de nV était:

Citation :

- GT200 65nm Q4 2007  
- GT212 40nm Q1 2009  
- GT300 40nm Q4 2009

Qui a été décalée en:

Citation :

- GT200 65nm Q2 2008
- GT200b 55nm Q1 2009
- GT212 40nm Q3 2009 (annulé donc)
- GT300 40nm fin Q4 2009 (et plutôt optimiste)


 
Le GT212 était un dérivé de GT200 avec 384 SP en 40nm. Donc pour 3 trimestres plus tard, le GT300 devrait être bien plus perf.
 
Avec de telles perfs et l'histoire de nV sur l'adoption de nouvelles technos, ils ont sûrement misé sur de la GDDR5 plutôt faiblement cadencée (à l'ivnerse du pari d'AMD avec le RV770), donc bus 512 bits obligatoire.
 
Pour la taille ça dépend des modifs faites à l'achi, mais dans tous les cas avec un bus 512 bits le taille minimum serait de +/- 420mm².
 

Gigathlon a écrit :

Pour le GT200 par contre j'arrive pas à voir où se situent les goulets d'étranglement tant tout est surdimensionné, et pourtant il est évident qu'il y en a, sans quoi ses perfs seraient largement supérieures


Peut-être une puce d'essai en vue du GT300...

Message cité 1 fois
Message édité par marllt2 le 13-05-2009 à 23:08:01
n°6956033
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-05-2009 à 01:05:09  profilanswer
 

Fantryt a écrit :

Wirmish, pourquoi tu dis que LARRABEE n'aura rien de comparable avec un GPU ? Et qu'est-ce que tu fais des unités de texture ?


Il sera comparable avec un GPU... mais pas avec un RV770/G92b... et encore moins avec les GPU DX11.
Autrement dit les perfs dans les jeux seront très en deça de ce que produira AMD/ATi et nVidia.

n°6956047
marllt2
Posté le 14-05-2009 à 01:42:53  profilanswer
 

Wirmish a écrit :

Il sera comparable avec un GPU... mais pas avec un RV770/G92b... et encore moins avec les GPU DX11.
Autrement dit les perfs dans les jeux seront très en deça de ce que produira AMD/ATi et nVidia.


Source ? Mr Dally ?


Message édité par marllt2 le 14-05-2009 à 02:08:41
n°6956051
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-05-2009 à 02:04:03  profilanswer
 

Non, la source c'est la 477e synapse de mon hémisphère droit.

n°6956054
Gigathlon
Quad-neurones natif
Posté le 14-05-2009 à 02:20:55  profilanswer
 

marllt2 a écrit :

Le GT212 était un dérivé de GT200 avec 384 SP en 40nm. Donc pour 3 trimestres plus tard, le GT300 devrait être bien plus perf.


Sauf que les 384SP sont tout aussi peu étayés que les 512 du GT300...
 
Pour les nouvelles technos, c'est tout simple:  
 
- 40nm
- gddr5 (il faudra de toute façon y passer...)
- schéma de distribution dans la puce (déjà le cas dans le GT200 avec un schéma en arbre, contrairement aux RV7x0)
 
Quant à la GDDR5 faiblement cadencée, c'est ce qu'on a actuellement chez AMD, avec des cellules qui se tournent les pouces à 500MHz à comparer aux 1200MHz de la GDDR3 de la GTX285.

n°6956061
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-05-2009 à 03:03:47  profilanswer
 

Citation :

"The site put together some specifications of what's theoretically possible with the 40nm process but says it's very likely the next-generation GPUs will have totally different specifications than what they've come up with. Theoretically, the 40nm process may enable AMD to create a RV870 with 2.2 billion transistors, 1.2GHz clockspeed, 1800 shaders, 90 texture units and 32 ROPs while NVIDIA could use it to make a GT300 with 3.2 billion transistors, 960/2100MHz clockspeeds, 500 shaders, 180 texture units and 64 ROPs." - DarkVision Hardware

RV870 : 2200 M de transistors, 1200 MHz, 1800 SP, 90 TMUs, 32 ROPs
GT300 : 3200 M de transistors, 960/2100 MHz, 500 SP, 180 TMUs, 64 ROPs
 
 :pt1cable:  
 
 

Citation :

Hynix has announced the development of 7 GT/s GDDR5 memory chips built on the company's 54nm silicon fabrication technology. The 1 Gb (128 MB) chips labelled H5GQ1H24AFR operate at 7 Gbps, which is a 40% boost in speeds compared to the older 5 GT/s chips already in production. The chip handles up to 28 GB of data per second across a 32-bit wide interface, with reduced power consumption at 1.35V. The company will commence volume production in the first half of 2009. Sources in the industry point out that these memory chip would make it to several major graphics board SKUs by both AMD and NVIDIA. Additionally, there is also word that AMD will be using the said DRAM chip in its current flagship graphics card, the Radeon HD 4870 X2 in the near future.

:)  

n°6956063
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 14-05-2009 à 03:15:56  profilanswer
 

Wirmish cite tes sources stp :-/
 
http://www.theinquirer.net/inquire [...] chitecture ; traduction approximative et corrigée (en vert ce que je n'ai pas compris, en bleu mes commentaires) de cet article très très instructif et qui calme... Pauvre nvidia :-/ :
 
 
Un regard sur l'architecture Nvidia GT300
Par Charlie Demerjian
Jeudi 14 mai 2009, 00:55
 
IL Y A beaucoup de fausses nouvelles circulant au sujet du prochain de GPU appelé le GT300. Apportons quelques lumières et dégageons un peu d'air sur cette architecture de << Larrabee-lite >> (petit larrabee, qui est le nom du futur GPU d'intel).
 
Tout d'abord, presque tout ce que vous avez entendu à propos des deux prochaines architectures DX11est erroné. Il y a une unique source qui compose des nouvelles (un wirmish N°2 ? mdrrr) , pour des sites de second plan repris à gauche et à droite. Les nouvelles à propos du R870 sont risiblement imprécises, et l'information sur le GT300 est tout à fait curieuse aussi. Soit ATI a figuré est sur la voie de réussir à violer les lois de la physique avec la vitesse de sa puce et Nvidia à parvenir à doubler la mémoire pour doubler presque sa densité de transistor - faites des maths sur des nombres prétendus, ils ne sont pas (très réalistes...)  même dans le stade de base-ball - ou quelqu'un compose d'une manière flagrante des nombres.
 
Cela dit, voyons ce que nous savons, et fouillons un peu dans les architectures. Le GT300 est parti pour perdre, gravement, dans les GPU de joueurs, et nous irons au-dessus en disant pourquoi et comment. D'abord un peu de science et maths de fond. Il y a trois processus de fabrication dehors, qu'utilisent ATI et Nvidia, tous de TSMC, 65nm, 55nm et 40nm.
 
Ils sont chacun une « demi étape » du prochain, et 65nm à 40nm est une pleine étape. Si vous faites les maths, le rétrécissement de 65nm à 55nm ((55 * 55)/~= (65 *65) 0.72) vous sauve environ 1/4 du secteur, c.-à-d., 55nm a 0.72 (valeur mathématique qui servira pour plus tard) de la taille du 65nm pour le même nombre de transistor. 55nm rétréci à 40nm te donne 0.53 de l'ère, et 65nm rétréci à 40nm te donne 0.38 de l'ère. Nous emploierons ces derniers plus tard.
 
Est en second lieu le temps où il prend pour faire des choses. Nous emploierons les scénarios des meilleur cas, avec un sort chaud de la prise de TSMC de seules six semaines, et le temps des gaufrettes dedans aux conseils hors d'un AIB étant de 12 semaines. Complétez-le au loin avec l'essai et corrigez les périodes de deux semaines pour le premier silicium et d'une semaine pour chaque rotation suivante. Pour simplifier des calculs approximatifs, on assumera que tous les mois ont 4 semaines.
 
ok, ATI a déclaré qu'il aura des GPUs DX11 en vente quand Windows 7 sera lancé, soi-disant le 23 octobre 2009. Puisque ceci a été dit dans une conférence téléphonique financière, SEC ordonne l'application, vous pouvez être à peu prés certain qu'ATI est sérieux à ce sujet. Nvidia d'une part a fondamentalement esquivé la question, dure, dans sa conférence téléphonique l'autre jour.
 
Au moins vous devriez savoir pourquoi Nvidia a sélectionné la date absurde du 15 octobre pour ses associés. Pourquoi absurde ? Laissez vous aller au-dessus des nombres de nouveau.
 
Selon des sources dans Satan Clara, le GT300 n'est pas encore "taped out" (développement terminé), en date de la semaine dernière. Ce dernier est encore placé pour juin, qui signifie le meilleur cas, 1er juin. Ajoutez six semaines pour le premier silicium, deux davantage pour les corrections initiales, et vous êtes à huit semaines, minimum. Cela signifie que l'aller ou la décision "no-go" pourrait être pris dès le 1er août. Si tout va parfaitement, et il n'y a aucune deuxième rotation exigée, vous devriez ajouter 90 jours à cela, signifiant le 1er novembre, avant que vous pourriez voir tous les détails.
 
Ainsi, si toutes les étoiles s'alignent, et tout va parfaitement, Nvidia pourrait frapper Q4 de 2009. Mais cela ne se produira pas.
 
Pourquoi pas ? Il y a un concept appelé le risque quand on produit des puces électroniques, et le GT300 en est une à haut risque ; En effet le GT300 est la première puce d'une nouvelle architecture, de se qu'en réclame Nvidia. Cela va également être la première puce GDDR5, et d'ailleurs, ce sera la première grande puce graphique (haut de gamme) de Nvidia sur le processus 40nm.
 
Récemment, la réalisation de puces nvidia a été risiblement mauvaise. En effet GT200 repoussé pour novembre de 2007 et est sorti en mai 2008, deux quarts en retard. Nous attendons toujours les pièces dérivées (moyen et bas de gamme). Le rétrécissement, GT206/GT200b est techniquement une bêtise, mais au lieu de l'arrivée en août 2008, elle s'est écoulée goutte à goutte au-delà de janvier 2009. Le rétrécissement de ce dernier en 40nm, le GT212/GT200c a d'ailleurs été annulé, Nvidia ne pouvait pas le faire.
 
La prochaine plus grande partie en 40nm, le GT214 a également échoué, et il a été refait sous le nom de GT215. Les prochaines plus petites pièces, les GT216 et GT218, puces très petites, sont énormément retardées, peut-être pour apparaître finalement en juin. Nvidia ne peut pas faire une puce qui est un quart de la taille prétendue du GT300 sur le processus de TSMC 40nm. C'est-à-dire, faites-le du tout, période - la fabrication de lui est profitablement, bien, un concept plein d'humour pour maintenant.
 
GT300 est également la première partie DX11 de l'équipe verte, et il n'a pas même eu les pièces DX10.1. Entre le nouveau processus, une plus grande taille, technologie de mémoire de saignement-bord, équipes de conception dysfonctionnelles, nouveau dispositif en place et les associés ouvriers << trashed >> à chaque occasion, vous pourriez à peine imaginer des manières d'avoir plus de risque dans une nouvelle conception de puces graphiques qu'a Nvidia avec le GT300.
 
Si tout va parfaitement et que Nvidia réalise un GT300 sans bogues, ou que les bogues sont mineurs et de difficulté facile à résoudre, alors il pourrait sortir en novembre. Étant donné qu'il y a seulement un GPU dont nous avons entendu parler qui pourrait être produit à cette étape importante, une puce "dérivée", pas une nouvelle architecture (le RV870), il ne va presque assurément pas se produire (le GT300 à cette période). Aucun OEM ne va parier leur lancement de Windows 7 sur l'expérience professionnelle de Nvidia. (mouaarrfff...) Ils se rappellent les 9400, le GT200, et bien d'autres, tout autrement.
 
S'il y a seulement un problème majeur, vous êtes déjà en 2010. S'il y a un deuxième problème majeur (avec un deuxième repassage), alors vous pourriez avoir une difficulté de le produire avant Q1 de 2010. Récemment, nous ne pouvons pas nous rappeler d'un seul produit graphique Nvidia qui n'a pas eu au moins deux problèmes majeurs (deux repassages), qu'ils soient de simples rétrécissements d'architectures existantes ou les nouvelles puces.
 
Réciproquement, l'ATI R870 est une puce graphique à faible risque, ATI a déjà une puce 40nm fonctionnelle sur le marché avec le RV740/HD4770, et a eu la GDDR5 sur des cartes depuis juin passé. Estacade à claire-voie, il a fondamentalement développé GDDR5. Le RV740 - encore, une puce déjà sur le marché - est présumée pour être notamment plus performante que le GT216 ou 218, et plus ou moins la même taille comme le GT215 que Nvidia ne semble pas arriver à réaliser. (arrrffff)
 
DX11 est une histoire beaucoup plus drôle. La liste du dispositif DX10 était tout à fait longue quand on lui a proposé la première fois. ATI avec dévouement a travaillé avec Microsoft pour obtenir sa mise en application, et a fait ainsi le pas avec le HD2900. Nvidia a frappé du pied autour comme un enfant irritable et a refusé de soutenir la plupart de ces dispositifs, et Microsoft a stupidement capitulé et a enlevé de grandes régions de la fonctionnalité DX10. (mdrrr ça je ne le savais pas, oh les coquins exptdrrr !!!  :lol: )
 
Ceci a eu plusieurs effets, dont le plus notable est que maintenant DX10 a été "charcuté" et était devenue une api assez triste, faisant avancer à peine n'importe quoi. Il a également eu pour conséquence qu'ATI a dépensé beaucoup de secteur de silicium à mettre en application les choses qui ne seraient jamais employées. DX10.1 a remis certaines de ceux-là, mais pas les grandes. (on comprend désormais mieux l'attitude de nvidia quant à dx10.1)
 
DX11 est fondamentalement ce que devait être DX10 avec cependant quelques ajouts mineures en sus. Cela signifie qu'ATI a eu la plupart du temps une partie DX11 conforme depuis le HD2900. Le R870/HD5870 effectivement sera la quatrième génération DX11 GPU de l'équipe rouge. Rappelez-vous le "tessellator" ? C'était déjà là, réalisé depuis le 80nm ! :ouch:  :sweat:  
 
Ce n'est pas de dire que ce soit facile pour l'un ou l'autre côté, TSMC a fondamentalement sorti et a indiqué que son processus 40nm est fondamentalement horrible, une affirmation soutenue par chacun qui l'emploie. Cela dit, le GT300 et le R870 sont conçus pour ce processus, ainsi ils sont coincés avec lui. :lol:  Si des rendements ne peuvent pas être rendus économiquement viables, vous serez dans une situation des pièces 55nm plus anciennes allant tête à tête pour tout en 2010. Le manque total de compétitivité de la part de Nvidia a engendré un surcoût sur ce processus (40nm), il serait désormais plus question de survie pour lui (le processus 40nm), pour cette année.
 
Cela nous amène à la question principale, ce qu'est le GT300 ? Si vous vous rappelez les coups moqueurs de Jen-Hsun au sujet de Larrabee (intel), vous pourriez trouver ironique que le GT300 est fondamentalement un clone de Larrabee. Tristement cependant, il n'a pas la technologie du procédé, le support logiciel, ou l'architecture derrière pour le faire fonctionner, cependant, ceci n'est pas la première fois que les grands pronostics de Nvidia lui sont retombés sur sa tête.
 
La structure de base du GT300 est identique à Larrabee. Nvidia va employer des « shaders » d'usage universel pour faire des tâches de calcul, et les choses que n'importe quelle compagnie raisonnable mettrait dans le matériel consacré vont être faites dans le logiciel. Fondamentalement DX11 sera code de shader sur un générique Unité-comme la structure. Juste comme Larrabee, mais de sont regard à lui, Larrabee a obtenu la droite fondamentale de matériel.
 
Avant que vous sautiez en haut et en bas, et avant que tous les Nvidiots (nvidia-idiot ? mdr.. dsl j'ai pas compris) radotent, c'est un problème massif pour Nvidia. La puce a été conçu à un moment où le calcul de la pensée GPU de Nvidia allait réellement lui apporter une certaine somme d'argent, et c'était une stratégie de sortie pour la compagnie quand les GPUs sont sortis.
 
Il ne s'est pas produit de cette façon, partiellement en raison du matériel avec des erreurs, partiellement en raison d'au-dessus-prometteur et de la sous-livraison, et alors est venu les coups fatals de Larrabee et de fusion. Les grandes ambitions de Nvidia ont été bourrées dans la saleté, et correctement cette fois. :sweat:  
 
Les relations avec les investisseurs de Nvidia indiquent qu'entre 5 à 10% du GT200 meurent secteur (?) sont consacrées aux tâches de calcul de GPU. Le GT300 va de toute manière plus loin ici, mais soyons charitables et disons 10 pour cent. Ceci met Nvidia à un inconvénient régional de 10 pour cent à ATI sur l'avant DX11, et c'est avant que vous parliez de toute autre chose. Hors de la porte dans le deuxième endroit.
 
Sur le 55nm, l'ATI RV790 accroche fondamentalement le GT200b dans l'exécution, mais avec une puce d'une taille de seulement 60% que le GT200, et cela signifie un coût en moins de 60%. Notez svp, nous ne prenons pas en considération des coûts de conseil, et si vous regardez le rendement aussi, les choses deviennent très laides pour Nvidia. Qu'il suffise de dire que structuralement, GT200 est un chien, une graisse, chien gonflé. :lol:  
 
Plutôt que disparaissent le maigre et le moyen pour GT300, probablement avec la stratégie "multi-die" comme ATI, Nvidia est parti pour une puce plus grande et moins efficace. Ils abandonnent l'exécution de GPU pour chasser sur un marché qui n'existe pas, mais étaient d'une imagination gentille il y a trois ans. En outre, rappelez-vous cette histoire au sujet du DX10 d'ATI qui est maintenant intégralement existante dans le DX11 d'aujourd'hui. ATI ne va pas devoir enfler la taille de sa puce pour obtenir DX11, mais Nvidia sera forcé à le faire, d'une manière ou d'une autre. Étape 1) rassemblent le slip. Étape 2) ? ? ? Bénéfice d'étape 3) ! (??)
 
Sur le rétrécissement du 55nm au 40nm, vous pouvez doubler le nombre de transistor, mais en raison de la fuite de courant, mais si vous le faites, ce serait comme frapper puissamment un mûr. Supposons que les deux côtés (nvidia et ati) peuvent doubler leur nombre de transistor et rester dans leurs budgets de puissance cependant, cela serait plus profitable pour Nvidia.
 
Si AMD double son nombre de transistor, il pourrait presque doubler la puissance d'exécution. S'il le fait, Nvidia doit pouvoir faire aussi bien. Mais, parce que Nvidia doit ajouter des éléments dans tous les dispositifs DX11, ou des shaders additionnels à lui consacrer essentiellement, l'efficacité régionale de ses morceaux descendra probablement. En attendant, ATI a ses dispositifs déjà en place, et il rétrécira ses tailles de sa puce à un quart de ce qu'elles étaient dans les 2900, ou moitié de ce qu'elles étaient dans le R770.
 
Nvidia gagnera une certaine surface sur son die quand il va passer à la GDDR5. Alors la question ouverte sera comment au loin l'interface de mémoire devra-t-elle être pour soutenir une stratégie énormément inefficace de GPGPU. Que le code doit être chargé, stocké et rincé, prenant la largeur de bande et la mémoire.
 
En fin de compte, avec ce que nous savons, ATI progressera vers le haut en doublant la puissance d'exécution s'il fait quelque chose pour doubler le nombre de shader, alors que Nvidia peut doubler le nombre de shader, mais lui perdra beaucoup de puissance d'exécution dans les cas concrets, s'il le fait.
 
Dans le R870, si vous comparez le temps qu'il prend pour rendre 1 million de triangles de 250K utilisant le tesselator, il faudrait un peu plus longgtemps pour calculer ces mêmes 1 million de triangles à travers sans tesselator. Tesselation ne prend aucun temps de shader, sauf la latence et la largeur de bande, il y a essentiellement un coût nul. Si ATI mettait en application des choses bien, et se rappelle que c'est la génération quatre de sa technologie, les choses devraient être presque transparente.
 
Contrastez cela avec l'approche GT300. Il n'y a aucun tesselator consacré, et si vous employez ce dispositif DX11, il prendra beaucoup de temps des shader, utilisés inefficacement comme cela est le cas pour le matériel d'usage universel. Vous aurez encore besoin alors des mêmes shaders pour rendre les triangles. 250K à 1 million de triangles sur le GT300 devrait être notamment plus lent que directement 1 million de triangles.
 
Les mêmes exemples devraient être vraies pour tous les cas des dispositifs DX11, ATI a consacré le matériel aux applications, Nvidia ont des shaders d'usage universel "roped" (?) pour faire des choses plus larges, plus variées mais moins efficacement. Quand vous allumez les dispositifs DX11, le GT300 prendra une exécution "nosedive"(?) , le R870 pas.
 
Plus mauvais encore, quand les dérivés sortent, la proportion de shaders requis pour lancer DX11 montera pour Nvidia, mais le matériel consacré ne changera pas pour ATI. Il vend actuellement des puces graphiques sur les bas de gamme du marché qui ont tous les « presque » dispositifs DX11, et fait tellement profitablement. Nvidia aura une situation dans ses mains, dans le bas de gamme, où l'exécution DX10 par les cartes 8600 et 8400 ressemblera aux coureurs de drague. (?)
 
En fin de compte, Nvidia structuralement parlant, a fait tout faux concernant cette partie. Il chasse un marché qui n'existe pas, et biaisant leurs parties à partir de leur propositions de core, des graphiques, pour accomplir ce rêve de pipe. (?) En attendant, ATI t'offrira une pièce x86 pièce hybride de fusion si c'est ce que vous voulez faire, et Intel aura Larrabee dans le même délai.
 
Le GT300 est fondamentalement un Larrabee mal fait pour des raisons faussées. D'une manière amusante cependant, il manque toutes les deux cibles essayées. R870 devrait le frapper dans l'exécution DX10/DX11, mais si vous achetez des GPU à $400-600 GPU pour ripper des DVDs pour votre IPod, Nvidia a une carte pour vous. (ouh, c'est pas gentil pour nvidia ça....) Peut-être. Malgré les problèmes de rendement.
 
GT300 sera en retard de nombreux quarts (quart = 3 mois), et sans miracle, manquera la rentrée scolaire et le lancement de Windows 7, mais aussi noël. Il ne viendra pas près du R870 dans l'exécution de graphiques, et cela coûtera beaucoup plus à produire. Ce n'est pas une architecture qui sortira Nvidia hors de son trou, mais à la place le creusera plus profond. Elle a fait un Larrabee. (ARFF... :sweat: )

Message cité 3 fois
Message édité par super_newbie_pro le 14-05-2009 à 04:57:19

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6956069
Gigathlon
Quad-neurones natif
Posté le 14-05-2009 à 03:42:46  profilanswer
 


Effectivement, si c'est ça le GT300, ça va pas le faire...
 
Avec 512SP soit dans les 2TFlops à tout péter, ils ont intérêt à avoir un plan de secours.

n°6956070
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 14-05-2009 à 03:44:00  profilanswer
 

Je suis en train de corriger la traduction en Français pour que tout le monde puisse la lire. J'édite régulièrement au fur et à mesure... nvidia semble être dans une passe très très difficile :-/
 
Je crois qu'on peut dire maintenant ; ils sont dans la merde. :sweat:


Message édité par super_newbie_pro le 14-05-2009 à 04:04:30

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6956073
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-05-2009 à 04:13:15  profilanswer
 

super_newbie_pro a écrit :

Wirmish cite tes sources stp :-/


Heu... j'ai peut-être pas mis le lien direct mais j'ai cité la source: DarkVision Hardware

n°6956076
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 14-05-2009 à 04:58:32  profilanswer
 

Wirmish a écrit :


Heu... j'ai peut-être pas mis le lien direct mais j'ai cité la source: DarkVision Hardware

http://www.dvhardware.net/article28836.html ton article date d'un an, août 2008 :pfff:  


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6956077
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-05-2009 à 05:22:42  profilanswer
 

super_newbie_pro a écrit :

DX11 est une histoire beaucoup plus drôle. La liste du dispositif DX10 était tout à fait longue quand on lui a proposé la première fois. ATI avec dévouement a travaillé avec Microsoft pour obtenir sa mise en application, et a fait ainsi le pas avec le HD2900. Nvidia a frappé du pied autour comme un enfant irritable et a refusé de soutenir la plupart de ces dispositifs, et Microsoft a stupidement capitulé et a enlevé de grandes régions de la fonctionnalité DX10. (mdrrr ça je ne le savais pas, oh les coquins exptdrrr !!!  :lol: )


Moi je le savais.  :jap:  
 
En avril 2008 -> LIEN
Extrait: "Et bien, puisque Microsoft n'a pas implémenté la virtualisation dans son DX10 (à cause de nVidia), c'est donc dire que rien n'empêche Microsoft d'offrir une version de ses drivers DX10 pour Windows XP."
 
Post du mois de mai... il y a un an -> ICI
Extrait: "Même que Microsoft a retiré le Tesselator des specs de DX10 afin de ne pas nuire à nVidia. Le Tesselator a donc été reporté au DX11, en attendant que nVidia parvienne à l'intégrer dans ses puces..."
 
Sur Clubic, il y a un an -> LIEN
Extrait: "Dans ce PDF, Microsoft parle du futur de DirectX. Il parle de Tesselation, d'illumination globale, de DX10.1. Ces technologies "du futur" sont DÉJA intégrées dans les Radeons 3000, mais dans aucune GeForce. Le DX10.1 est ce que le DX10 devait être."
 
Microsoft a déja modifié (à la baisse) les specs de DX10 à plus d'une reprise -> Post du 1er mai 2008
Extrait: "AMD s'applique à la tâche et parvient à sortir un GPU qui répond aux standards de Microsoft. Puis Intel annonce que son dernier IGP est une merde sans nom et qu'il ne fonctionnera pas correctement sous DX10. Microsoft ajoute alors une version super légère de Vista, sans Aero, afin qu'Intel ne perde pas de ventes. Puis nVidia annonce qu'il n'est pas parvenu à implémenter la virtualisation de la mémoire graphique. Microsoft décide alors de retirer des specs de DX10 cette virtualisation. AMD est donc pénalisé pour avoir implémenté tout ça. Sinon, il aurait pu utiliser ces transistors pour autre chose, et il aurait gagné du temps de développement."
 
À cette époque je me suis fait démolir pcq j'affirmais que le DX10.1 permettait d'accélérer le rendu sans altérer sa qualité -> LIEN
 
 :p

n°6956078
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-05-2009 à 05:38:32  profilanswer
 


C'est pour ça le " :pt1cable: ".
 
Mais comme c'est une "source" qui n'a pas été référencée précédemment je pensais qu'il serait juste de l'ajouter à la longue liste de "source" qui disent avoir raison... mais qui ont peut-être tord. En fait il est possible ( :whistle: ) que cette vieille "source" ait raison et que les autres soit dans l'erreur.
 
Cela dit, la 2e citation (Hynix GDR5 7 GHz #H5GQ1H24AFR) a beaucoup plus de chance d'être vraie.

n°6956083
marllt2
Posté le 14-05-2009 à 06:33:01  profilanswer
 

Tu as passé l'article à la traduction automatique ?  
 
Parce que le résultat est :/ par rapport à l'original. En même temps vu la longueur c'est pas trop possible non plus de traduire à la mano.
 
Bah sinon que dire, c'est du Charlie...

Message cité 1 fois
Message édité par marllt2 le 14-05-2009 à 06:34:25
n°6956090
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 14-05-2009 à 06:51:35  profilanswer
 

marllt2 a écrit :

Tu as passé l'article à la traduction automatique ?  
 
Parce que le résultat est :/ par rapport à l'original. En même temps vu la longueur c'est pas trop possible non plus de traduire à la mano.
 
Bah sinon que dire, c'est du Charlie...

yep... et c'était totalement incompréhensible... j'ai essayé de corriger dans la mesure du possible ce que je comprenais du français traduit LOL


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6956096
marllt2
Posté le 14-05-2009 à 07:12:02  profilanswer
 

Pour (essayer) de rendre l'article de Charlie moins illisible:
 

  • Introduction:
Citation :

THERE'S A LOT of fake news going around about the upcoming GPUish chip called the GT300. Let's clear some air on this Larrabee-lite architecture.
 
First of all, almost everything you have heard about the two upcoming DX11 architectures is wrong. There is a single source making up news, and second rate sites are parroting it left and right. The R870 news is laughably inaccurate, and the GT300 info is quite curious too. Either ATI figured out a way to break the laws of physics with memory speed and Nvidia managed to almost double its transistor density - do the math on purported numbers, they aren't even in the ballpark - or someone is blatantly making up numbers.
 
That said, lets get on with what we know, and delve into the architectures a bit. The GT300 is going to lose, badly, in the GPU game, and we will go over why and how. First a little background science and math. There are three fabrication processes out there that ATI and Nvidia use, all from TSMC, 65nm, 55nm and 40nm.
 
They are each a 'half step' from the next, and 65nm to 40nm is a full step. If you do the math, the shrink from 65nm to 55nm ((55 * 55) / (65 *65) ~= 0.72) saves you about 1/4 the area, that is, 55nm is 0.72 of the area of 65nm for the same transistor count. 55nm shrunk to 40nm gives you 0.53 of the area, and 65nm shrunk to 40nm gives you 0.38 of the area. We will be using these later.
 
Second is the time it takes to do things. We will use the best case scenarios, with a hot lot from TSMC taking a mere six weeks, and the time from wafers in to boards out of an AIB being 12 weeks. Top it off with test and debug times of two weeks for first silicon and one week for each subsequent spin. To simplify rough calculations, all months will be assumed to have 4 weeks.
 
Okay, ATI stated that it will have DX11 GPUs on sale when Windows 7 launches, purportedly October 23, 2009. Since this was done in a financial conference call, SEC rules applying, you can be pretty sure ATI is serious about this. Nvidia on the other hand basically dodged the question, hard, in its conference call the other day.
 
At least you should know why Nvidia picked the farcical date of October 15 for its partners. Why farcical? Lets go over the numbers once again.
 
According to sources in Santa Clara, GT300 has not taped out yet, as of last week. It is still set for June, which means best case, June 1st. Add six weeks for first silicon, two more for initial debug, and you are at eight weeks, minimum. That means the go or no-go decision might be made as early as August 1st. If everything goes perfectly, and there is no second spin required, you would have to add 90 days to that, meaning November 1st, before you could see any boards.
 
So, if all the stars align, and everything goes perfectly, Nvidia could hit Q4 of 2009. But that won't happen.


 

  • Difficulté de fabrication pour le GT300:
Citation :

Why not? There is a concept called risk when doing chips, and the GT300 is a high risk part. GT300 is the first chip of a new architecture, or so Nvidia claims. It is also going to be the first GDDR5 part, and moreover, it will be Nvidia's first 'big' chip on the 40nm process.
 
Nvidia chipmaking of late has been laughably bad. GT200 was slated for November of 2007 and came out in May or so in 2008, two quarters late. We are still waiting for the derivative parts. The shrink, GT206/GT200b is technically a no-brainer, but instead of arriving in August of 2008, it trickled out in January, 2009. The shrink of that to 40nm, the GT212/GT200c was flat out canceled, Nvidia couldn't do it.
 
The next largest 40nm part, the GT214 also failed, and it was redone as the GT215. The next smallest parts, the GT216 and GT218, very small chips, are hugely delayed, perhaps to finally show up in late June. Nvidia can't make a chip that is one-quarter of the purported size of the GT300 on the TSMC 40nm process. That is, make it at all, period - making it profitably is, well, a humorous concept for now.
 
GT300 is also the first DX11 part from the green team, and it didn't even have DX10.1 parts. Between the new process, larger size, bleeding-edge memory technology, dysfunctional design teams, new feature sets and fab partners trashed at every opportunity, you could hardly imagine ways to have more risk in a new chip design than Nvidia has with the GT300.
 
If everything goes perfectly and Nvidia puts out a GT300 with zero bugs, or easy fix minor bugs, then it could be out in November. Given that there is only one GPU that we have heard of that hit this milestone, a derivative part, not a new architecture, it is almost assuredly not going to happen. No OEM is going to bet their Windows 7 launch vehicles on Nvidia's track record. They remember the 9400, GT200, and well, everything else.
 
If there is only one respin, you are into 2010. If there is a second respin, then you might have a hard time hitting Q1 of 2010. Of late, we can't think of any Nvidia product that hasn't had at least two respins, be they simple optical shrinks or big chips.


 

  • Facilité de fabrication pour AMD:
Citation :

Conversely, the ATI R870 is a low risk part. ATI has a functional 40nm part on the market with the RV740/HD4770, and has had GDDR5 on cards since last June. Heck, it basically developed GDDR5. The RV740 - again, a part already on the market - is rumored to be notably larger than either the GT216 or 218, and more or less the same size as the GT215 that Nvidia can't seem to make.
 
DX11 is a much funnier story. The DX10 feature list was quite long when it was first proposed. ATI dutifully worked with Microsoft to get it implemented, and did so with the HD2900. Nvidia stomped around like a petulant child and refused to support most of those features, and Microsoft stupidly capitulated and removed large tracts of DX10 functionality.
 
This had several effects, the most notable being that the now castrated DX10 was a pretty sad API, barely moving anything forward. It also meant that ATI spent a lot of silicon area implementing things that would never be used. DX10.1 put some of those back, but not the big ones.
 
DX11 is basically what DX10 was meant to be with a few minor additions. That means ATI has had a mostly DX11 compliant part since the HD2900. The R870/HD5870 effectively will be the fourth generation DX11 GPU from the red team. Remember the tessellator? Been there, done that since 80nm parts.
 
This is not to say that is will be easy for either side, TSMC has basically come out and said that its 40nm process basically is horrid, an assertion backed up by everyone that uses it. That said, both the GT300 and R870 are designed for the process, so they are stuck with it. If yields can't be made economically viable, you will be in a situation of older 55nm parts going head to head for all of 2010. Given Nvidia's total lack of cost competitiveness on that node, it would be more a question of them surviving the year.


 

  • Architecture du GT300:
Citation :

That brings us to the main point, what is GT300? If you recall Jen-Hsun's mocking jabs about Laughabee, you might find it ironic that GT300 is basically a Larrabee clone. Sadly though, it doesn't have the process tech, software support, or architecture behind it to make it work, but then again, this isn't the first time that Nvidia's grand prognostications have landed on its head.
 
The basic structure of GT300 is the same as Larrabee. Nvidia is going to use general purpose 'shaders' to do compute tasks, and the things that any sane company would put into dedicated hardware are going to be done in software. Basically DX11 will be shader code on top of a generic CPU-like structure. Just like Larrabee, but from the look of it, Larrabee got the underlying hardware right.
 
Before you jump up and down, and before all the Nvidiots start drooling, this is a massive problem for Nvidia. The chip was conceived at a time when Nvidia thought GPU compute was actually going to bring it some money, and it was an exit strategy for the company when GPUs went away.
 
It didn't happen that way, partially because of buggy hardware, partially because of over-promising and under-delivering, and then came the deathblows from Larrabee and Fusion. Nvidia's grand ambitions were stuffed into the dirt, and rightly so.
 
Nvidia Investor Relations tells people that between five to ten per cent of the GT200 die area is dedicated to GPU compute tasks. The GT300 goes way farther here, but let's be charitable and call it 10 per cent. This puts Nvidia at a 10 per cent areal disadvantage to ATI on the DX11 front, and that is before you talk about anything else. Out of the gate in second place.
 
On 55nm, the ATI RV790 basically ties the GT200b in performance, but does it in about 60 per cent of the area, and that means less than 60 per cent of the cost. Please note, we are not taking board costs into account, and if you look at yield too, things get very ugly for Nvidia. Suffice it to say that architecturally, GT200 is a dog, a fat, bloated dog.
 
Rather than go lean and mean for GT300, possibly with a multi-die strategy like ATI, Nvidia is going for bigger and less areally efficient. They are giving up GPU performance to chase a market that doesn't exist, but was a nice fantasy three years ago. Also, remember that part about ATI's DX10 being the vast majority of the current DX11? ATI is not going to have to bloat its die size to get to DX11, but Nvidia will be forced to, one way or another.

 

Citation :

On the shrink from 55nm to 40nm, you about double your transistor count, but due to current leakage, doing so will hit a power wall. Let's assume that both sides can double their transistor counts and stay within their power budgets though, that is the best case for Nvidia.
 
If AMD doubles its transistor count, it could almost double performance. If it does, Nvidia will have to as well. But, because Nvidia has to add in all the DX11 features, or additional shaders to essentially dedicate to them, its chips' areal efficiency will likely go down. Meanwhile, ATI has those features already in place, and it will shrink its chip sizes to a quarter of what they were in the 2900, or half of what they were in the R770.
 
Nvidia will gain some area back when it goes to GDDR5. Then the open question will be how wide the memory interface will have to be to support a hugely inefficient GPGPU strategy. That code has to be loaded, stored and flushed, taking bandwidth and memory.


 

  • Tessellation: AMD vs nVidia:
Citation :

In the end, what you will end up with is ATI that can double performance if it choses to double shader count, while Nvidia can double shader count, but it will lose a lot of real world performance if it does.
 
In the R870, if you compare the time it takes to render 1 Million triangles from 250K using the tesselator, it will take a bit longer than running those same 1 Million triangles through without the tesselator. Tesselation takes no shader time, so other than latency and bandwidth, there is essentially zero cost. If ATI implemented things right, and remember, this is generation four of the technology, things should be almost transparent.
 
Contrast that with the GT300 approach. There is no dedicated tesselator, and if you use that DX11 feature, it will take large amounts of shader time, used inefficiently as is the case with general purpose hardware. You will then need the same shaders again to render the triangles. 250K to 1 Million triangles on the GT300 should be notably slower than straight 1 Million triangles.
 
The same should hold true for all DX11 features, ATI has dedicated hardware where applicable, Nvidia has general purpose shaders roped into doing things far less efficiently. When you turn on DX11 features, the GT300 will take a performance nosedive, the R870 won't.
 
Worse yet, when the derivatives come out, the proportion of shaders needed to run DX11 will go up for Nvidia, but the dedicated hardware won't change for ATI. It is currently selling parts on the low end of the market that have all the "almost DX11" features, and is doing so profitably. Nvidia will have a situation on its hands in the low end that will make the DX10 performance of the 8600 and 8400 class parts look like drag racers.


 

  • Conclusion:
Citation :

In the end, Nvidia architecturally did just about everything wrong with this part. It is chasing a market that doesn't exist, and skewing its parts away from their core purpose, graphics, to fulfill that pipe dream. Meanwhile, ATI will offer you an x86 hybrid Fusion part if that is what you want to do, and Intel will have Larrabee in the same time frame.
 
GT300 is basically Larrabee done wrong for the wrong reasons. Amusingly though, it misses both of the attempted targets. R870 should pummel it in DX10/DX11 performance, but if you buy a $400-600 GPU for ripping DVDs to your Ipod, Nvidia has a card for you. Maybe. Yield problems notwithstanding.
 
GT300 will be quarters late, and without a miracle, miss back to school, the Windows 7 launch, and Christmas. It won't come close to R870 in graphics performance, and it will cost much more to make. This is not an architecture that will dig Nvidia out of its hole, but instead will dig it deeper. It made a Laughabee.


Message édité par marllt2 le 14-05-2009 à 07:38:25
n°6956312
campi
V8 FTW
Posté le 14-05-2009 à 11:22:33  profilanswer
 

ouch, je vais surement retourner chez ATI moi après avoir lu tout ça  [:squale25]  
 
Remarquez ça ne me dérange pas plus que ça moi :p
 
J'ai eu les 2 marques et les deux fonctionnent bien :)


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°6956319
Yoyo_5
Posté le 14-05-2009 à 11:24:46  profilanswer
 

Pour la peine j'irai chez nVidia, moi...! :o


---------------
¤ Paix et félicité ¤

n°6956346
sasuke87
Posté le 14-05-2009 à 11:42:16  profilanswer
 

Hé bein...
 
à croire que le g80 (gt200, g92...) est à DX10 ce que le nv30 était à DX9...  :??:
 
Finalement tout était contre DX10:
 
- Les consoles qui se limite à DX9: la plupart des jeux ne sont que des portages de consoles vers pc, DX10 en a pris cher.
 
- Vista ne séduit pas: c'est encore un élément qui a dû jouer dans la balance, vu que DX10 ne fonctionne que sur Vista.
 
- Nvidia: quand le leader du marché des CG préfère promouvoir ses histoires de physX, 3dvision ou encore CUDA, plutôt que de mettre à profit son énergie dans la gestion des GS (grande nouveauté de DX10) ou le tesselator... on comprend mieux pourquoi DX10 n'a pas tellement séduit les développeurs.  
 
J'espère qu'avec le GT300, nvidia corrigera le tir.


Message édité par sasuke87 le 14-05-2009 à 12:02:00
n°6956365
bjone
Insert booze to continue
Posté le 14-05-2009 à 11:55:55  profilanswer
 

Les trucs les plus discutables:
 

Citation :

This had several effects, the most notable being that the now castrated DX10 was a pretty sad API, barely moving anything forward.


Ouais enfin bon c'est quand même plus clean, et ça sert à rien de taper trop haut en specs, la philosophie du D3D est d'avoir une API et du hardware associés de manière efficace avec des spécifications réellement utilisables en production. D'où un rythme de révision régulier pour avoir des features intéressantes au fur et à mesure qu'elles sont exploitable en production. (Bon il est vrai qu'un design Larrabee-like peut résoudre le problème, mais une technique de rendu n'a pas d'intérêt si tu tournes à 2fps sur le matos commercialisé à moyen terme)
 

Citation :

The basic structure of GT300 is the same as Larrabee. Nvidia is going to use general purpose 'shaders' to do compute tasks, and the things that any sane company would put into dedicated hardware are going to be done in software. Basically DX11 will be shader code on top of a generic CPU-like structure. Just like Larrabee, but from the look of it, Larrabee got the underlying hardware right.


 
Déjà pour commencer, pour un GPU, le Larrabee est orienté plutôt software que hardware dédié, alors que le GT300 est plutôt orienté hardware dédié vis à vis des specs D3D11 (il pourra tirer parti d'optimisations dû aux specs limitées). Donc mon feeling est que le plus software des deux est le Larrabee (donc d'après la logique du monsieur, le plus sain d'esprit des deux serait nVidia).
Ensuite l'enfer est dans les détails d'implémentation, donc bon bon je m'attends à ce que Ati ou nVidia puissent offrir du hardware à meilleur rapport perf/prix que le Larrabee.... (le temps que le modèle de programmation du Larrabee devienne le modèle de référence)
 

Citation :

In the R870, if you compare the time it takes to render 1 Million triangles from 250K using the tesselator, it will take a bit longer than running those same 1 Million triangles through without the tesselator. Tesselation takes no shader time, so other than latency and bandwidth, there is essentially zero cost. If ATI implemented things right, and remember, this is generation four of the technology, things should be almost transparent.
 
Contrast that with the GT300 approach. There is no dedicated tesselator, and if you use that DX11 feature, it will take large amounts of shader time, used inefficiently as is the case with general purpose hardware. You will then need the same shaders again to render the triangles. 250K to 1 Million triangles on the GT300 should be notably slower than straight 1 Million triangles.


 
C'est toujours discutable.
Le tesselateur hardware ne prends peut-être pas de coût shader, mais il représente un coût en transistors.
A faible utilisation du tesselateur, avoir un maximum de transistors dédié aux unités shaders est plus intéressant à même budget transistor.
Autrement avec une utilisation massive, c'est la solution hardware qui devrait prendre l'avantage.
Avec un taux modéré d'utilisation, ça dépendra de l'implémentation par shader: si il y a une assistance hardware à faible coût transistor pour faciliter certaines étapes de la tesselation.... (cachage, etc....)
Mais avoir beaucoup de transistors accaparés par le tesselateur, si il est pas utilisé, c'est des perfs perdues.
 

Citation :

Worse yet, when the derivatives come out, the proportion of shaders needed to run DX11 will go up for Nvidia, but the dedicated hardware won't change for ATI. It is currently selling parts on the low end of the market that have all the "almost DX11" features, and is doing so profitably. Nvidia will have a situation on its hands in the low end that will make the DX10 performance of the 8600 and 8400 class parts look like drag racers


 
En l'occurrence non.
Par exemple si nVidia fait du milieu de gamme avec les shaders au prorata du budget transistor, les perfs shaders & tesselation sont en toute logique au prorata du budget transistor.
En tout logique Ati avec un tesselateur hardware, devra réduire les unitées de tesselation, si ils ne le font pas et qu'ils se retrouvent avec une carte milieu de gamme avec un tesselateur haut de gamme sur une carte milieu de gamme, les perfs shaders seront inférieur au prorata du budget transistor (mais bien évidemment que ça n'arrivera pas, c'est évident que le design est scalable un minimum chez tout le monde).
Enfin je vois pas l'argument là.


Message édité par bjone le 14-05-2009 à 12:34:09
n°6956408
mikestewar​t
Air Roll Spinnin'
Posté le 14-05-2009 à 12:30:10  profilanswer
 

Pfff...trop pessimiste The Inq. :/ (marrant comment ils défoncent Fud  :D )
 
On verra mais ça sent un remake de la GF FX, en pire.  :sweat:
 
Ce serait une première, dans la lignée de leurs résultats financiers. :/

n°6956412
John Difoo​l
Détective privé de classe R
Posté le 14-05-2009 à 12:31:10  profilanswer
 

Wirmish a écrit :


Justement, pour une fois que j'écris un truc qui avantage nVidia, vous devriez être heureux.
 
RV670 (666 MT @ 775 MHz ) vs RV770 (956 MT @ 750 MHz) -> Gain = ~100% avec 43% plus de transistors.
G80 (686 MT @ 612/1500/1080 MHz) vs GT200 (1400 MT @ 602/1296/1107 MHz) -> Gain = ~50% avec 200% plus de transistors.
 
C'est la première fois que je fais ce calcul et là j'en reste bouche bée.  :ouch:
Sérieusement, les techs de nVidia ont tout fait de travers !
Ou bien ce sont les techs d'AMD qui font de la magie.
 
http://static.pcinpact.com/images/smiles/phibee.gif


Ton calcul est incorrect (si je peux me permettre) : la règle de 3 est formelle  :D  
RV670 (666 MT) vs RV770 (956 MT) = 43,5% plus de transistors.
G80 (686 MT) vs GT200 (1400 MT) = 104.1% plus de transistors.


---------------
Aussi haut qu'on monte, on finit toujours par des cendres
n°6956428
bjone
Insert booze to continue
Posté le 14-05-2009 à 12:46:41  profilanswer
 

Remarque de principe: le gain de perfs n'est pas forcément représentatif, ce qu'il faut c'est comparer un score de performance absolu/transistors (bon Ati gagne toujours, enfin justement ça dépendra de la mesure du score).
 
Imaginons que Matrox sorte un remplaçant au Parhelia avec perfs et rendements contemporains (entre 4890 et 285), ça ferait du 4000% de perfs en plus avec 500% de transistors par exemple.


Message édité par bjone le 14-05-2009 à 12:49:32
n°6956433
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-05-2009 à 12:55:54  profilanswer
 

John Difool a écrit :

Ton calcul est incorrect (si je peux me permettre) : la règle de 3 est formelle  :D  
RV670 (666 MT) vs RV770 (956 MT) = 43,5% plus de transistors.
G80 (686 MT) vs GT200 (1400 MT) = 104.1% plus de transistors.


Pas faux.  :whistle:  :sweat:

n°6956435
mikestewar​t
Air Roll Spinnin'
Posté le 14-05-2009 à 12:57:56  profilanswer
 

Même pour des archis à priori très proches d'ailleurs (RV670 vs. RV 770). AMD a optimisé l'espace, donc le rendement par transistor est bien meilleur.

n°6956460
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-05-2009 à 13:16:04  profilanswer
 

La question est: "Pourquoi les techs de nVidia n'ont pas fait de même ?"
Ils étaient en avance de presque 2 ans... alors qu'est-ce qu'ils ont fait pendant tout ce temps ?

n°6956467
Fantryt
Posté le 14-05-2009 à 13:23:35  profilanswer
 

Ils se sont probablement reposé sur leurs lauriers  :whistle:

n°6956468
Activation
21:9 kill Surround Gaming
Posté le 14-05-2009 à 13:24:11  profilanswer
 

moi je vais dire une truc... y a beaucoup de bla bla de qqun qui pense que le GT300 est une merde alors qu il est pas encore tapeout
 
nvidia nous a montré que quand ils s en donne les moyen il peut le faire (exemple G80)
depuis le temps que dx10.1 est sorti  
qui plus est je pense tout de meme qu ils se sont rendu compte que qqchose n allait pas avec le GT200
 
alors dire que le gt300 sera une merde.... euuh comment dire
 
c'est vraiment prendre les ingenieurs nvidia pour des cons
 
si ils sont si nul... je pense pas qu ils pourrait sortir des trucs genre une option SSAO que l on peut aplliqué par exemple dans un half life 2
 
je pense aussi que nvidia à compris qu'à l avenir on se dirige vers du rendu raytracing temps reel
 
le petit gars qui crache si fort son venin sur le prochain gpu de nvidia semble aussi oublié que nvidia ce n est pas seulement du hard, nvidia possède des boite de soft dont le fameux mental ray (mental images)
 
et que dans la catégorie du traitement de l image autodesk règne maintenant en quasi monopole (il  d ailleurs il y a pas si longtemps racheté softimage... donc bon si tu veux faire de la 3D maintenant autodesk c est devenu quasi obligatoire)
 
aussi avec tout le chemin parcouru le long de la route autodesk, et le suivi de projet de jeux en regardant comment se comporte les devs (dont l ecoute de ceux ci qui a valu pas mal de mise à jours des sdk de cuda et des version de cuda)
 
nop franchement je pense pas que les ingenieurs de nvidia soit complètement con

Message cité 1 fois
Message édité par Activation le 14-05-2009 à 13:26:42
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  10  11  12  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)