Wirmish cite tes sources stp :-/
http://www.theinquirer.net/inquire [...] chitecture ; traduction approximative et corrigée (en vert ce que je n'ai pas compris, en bleu mes commentaires) de cet article très très instructif et qui calme... Pauvre nvidia :-/ :
Un regard sur l'architecture Nvidia GT300
Par Charlie Demerjian
Jeudi 14 mai 2009, 00:55
IL Y A beaucoup de fausses nouvelles circulant au sujet du prochain de GPU appelé le GT300. Apportons quelques lumières et dégageons un peu d'air sur cette architecture de << Larrabee-lite >> (petit larrabee, qui est le nom du futur GPU d'intel).
Tout d'abord, presque tout ce que vous avez entendu à propos des deux prochaines architectures DX11est erroné. Il y a une unique source qui compose des nouvelles (un wirmish N°2 ? mdrrr) , pour des sites de second plan repris à gauche et à droite. Les nouvelles à propos du R870 sont risiblement imprécises, et l'information sur le GT300 est tout à fait curieuse aussi. Soit ATI a figuré est sur la voie de réussir à violer les lois de la physique avec la vitesse de sa puce et Nvidia à parvenir à doubler la mémoire pour doubler presque sa densité de transistor - faites des maths sur des nombres prétendus, ils ne sont pas (très réalistes...) même dans le stade de base-ball - ou quelqu'un compose d'une manière flagrante des nombres.
Cela dit, voyons ce que nous savons, et fouillons un peu dans les architectures. Le GT300 est parti pour perdre, gravement, dans les GPU de joueurs, et nous irons au-dessus en disant pourquoi et comment. D'abord un peu de science et maths de fond. Il y a trois processus de fabrication dehors, qu'utilisent ATI et Nvidia, tous de TSMC, 65nm, 55nm et 40nm.
Ils sont chacun une « demi étape » du prochain, et 65nm à 40nm est une pleine étape. Si vous faites les maths, le rétrécissement de 65nm à 55nm ((55 * 55)/~= (65 *65) 0.72) vous sauve environ 1/4 du secteur, c.-à-d., 55nm a 0.72 (valeur mathématique qui servira pour plus tard) de la taille du 65nm pour le même nombre de transistor. 55nm rétréci à 40nm te donne 0.53 de l'ère, et 65nm rétréci à 40nm te donne 0.38 de l'ère. Nous emploierons ces derniers plus tard.
Est en second lieu le temps où il prend pour faire des choses. Nous emploierons les scénarios des meilleur cas, avec un sort chaud de la prise de TSMC de seules six semaines, et le temps des gaufrettes dedans aux conseils hors d'un AIB étant de 12 semaines. Complétez-le au loin avec l'essai et corrigez les périodes de deux semaines pour le premier silicium et d'une semaine pour chaque rotation suivante. Pour simplifier des calculs approximatifs, on assumera que tous les mois ont 4 semaines.
ok, ATI a déclaré qu'il aura des GPUs DX11 en vente quand Windows 7 sera lancé, soi-disant le 23 octobre 2009. Puisque ceci a été dit dans une conférence téléphonique financière, SEC ordonne l'application, vous pouvez être à peu prés certain qu'ATI est sérieux à ce sujet. Nvidia d'une part a fondamentalement esquivé la question, dure, dans sa conférence téléphonique l'autre jour.
Au moins vous devriez savoir pourquoi Nvidia a sélectionné la date absurde du 15 octobre pour ses associés. Pourquoi absurde ? Laissez vous aller au-dessus des nombres de nouveau.
Selon des sources dans Satan Clara, le GT300 n'est pas encore "taped out" (développement terminé), en date de la semaine dernière. Ce dernier est encore placé pour juin, qui signifie le meilleur cas, 1er juin. Ajoutez six semaines pour le premier silicium, deux davantage pour les corrections initiales, et vous êtes à huit semaines, minimum. Cela signifie que l'aller ou la décision "no-go" pourrait être pris dès le 1er août. Si tout va parfaitement, et il n'y a aucune deuxième rotation exigée, vous devriez ajouter 90 jours à cela, signifiant le 1er novembre, avant que vous pourriez voir tous les détails.
Ainsi, si toutes les étoiles s'alignent, et tout va parfaitement, Nvidia pourrait frapper Q4 de 2009. Mais cela ne se produira pas.
Pourquoi pas ? Il y a un concept appelé le risque quand on produit des puces électroniques, et le GT300 en est une à haut risque ; En effet le GT300 est la première puce d'une nouvelle architecture, de se qu'en réclame Nvidia. Cela va également être la première puce GDDR5, et d'ailleurs, ce sera la première grande puce graphique (haut de gamme) de Nvidia sur le processus 40nm.
Récemment, la réalisation de puces nvidia a été risiblement mauvaise. En effet GT200 repoussé pour novembre de 2007 et est sorti en mai 2008, deux quarts en retard. Nous attendons toujours les pièces dérivées (moyen et bas de gamme). Le rétrécissement, GT206/GT200b est techniquement une bêtise, mais au lieu de l'arrivée en août 2008, elle s'est écoulée goutte à goutte au-delà de janvier 2009. Le rétrécissement de ce dernier en 40nm, le GT212/GT200c a d'ailleurs été annulé, Nvidia ne pouvait pas le faire.
La prochaine plus grande partie en 40nm, le GT214 a également échoué, et il a été refait sous le nom de GT215. Les prochaines plus petites pièces, les GT216 et GT218, puces très petites, sont énormément retardées, peut-être pour apparaître finalement en juin. Nvidia ne peut pas faire une puce qui est un quart de la taille prétendue du GT300 sur le processus de TSMC 40nm. C'est-à-dire, faites-le du tout, période - la fabrication de lui est profitablement, bien, un concept plein d'humour pour maintenant.
GT300 est également la première partie DX11 de l'équipe verte, et il n'a pas même eu les pièces DX10.1. Entre le nouveau processus, une plus grande taille, technologie de mémoire de saignement-bord, équipes de conception dysfonctionnelles, nouveau dispositif en place et les associés ouvriers << trashed >> à chaque occasion, vous pourriez à peine imaginer des manières d'avoir plus de risque dans une nouvelle conception de puces graphiques qu'a Nvidia avec le GT300.
Si tout va parfaitement et que Nvidia réalise un GT300 sans bogues, ou que les bogues sont mineurs et de difficulté facile à résoudre, alors il pourrait sortir en novembre. Étant donné qu'il y a seulement un GPU dont nous avons entendu parler qui pourrait être produit à cette étape importante, une puce "dérivée", pas une nouvelle architecture (le RV870), il ne va presque assurément pas se produire (le GT300 à cette période). Aucun OEM ne va parier leur lancement de Windows 7 sur l'expérience professionnelle de Nvidia. (mouaarrfff...) Ils se rappellent les 9400, le GT200, et bien d'autres, tout autrement.
S'il y a seulement un problème majeur, vous êtes déjà en 2010. S'il y a un deuxième problème majeur (avec un deuxième repassage), alors vous pourriez avoir une difficulté de le produire avant Q1 de 2010. Récemment, nous ne pouvons pas nous rappeler d'un seul produit graphique Nvidia qui n'a pas eu au moins deux problèmes majeurs (deux repassages), qu'ils soient de simples rétrécissements d'architectures existantes ou les nouvelles puces.
Réciproquement, l'ATI R870 est une puce graphique à faible risque, ATI a déjà une puce 40nm fonctionnelle sur le marché avec le RV740/HD4770, et a eu la GDDR5 sur des cartes depuis juin passé. Estacade à claire-voie, il a fondamentalement développé GDDR5. Le RV740 - encore, une puce déjà sur le marché - est présumée pour être notamment plus performante que le GT216 ou 218, et plus ou moins la même taille comme le GT215 que Nvidia ne semble pas arriver à réaliser. (arrrffff)
DX11 est une histoire beaucoup plus drôle. La liste du dispositif DX10 était tout à fait longue quand on lui a proposé la première fois. ATI avec dévouement a travaillé avec Microsoft pour obtenir sa mise en application, et a fait ainsi le pas avec le HD2900. Nvidia a frappé du pied autour comme un enfant irritable et a refusé de soutenir la plupart de ces dispositifs, et Microsoft a stupidement capitulé et a enlevé de grandes régions de la fonctionnalité DX10. (mdrrr ça je ne le savais pas, oh les coquins exptdrrr !!!
)
Ceci a eu plusieurs effets, dont le plus notable est que maintenant DX10 a été "charcuté" et était devenue une api assez triste, faisant avancer à peine n'importe quoi. Il a également eu pour conséquence qu'ATI a dépensé beaucoup de secteur de silicium à mettre en application les choses qui ne seraient jamais employées. DX10.1 a remis certaines de ceux-là, mais pas les grandes. (on comprend désormais mieux l'attitude de nvidia quant à dx10.1)
DX11 est fondamentalement ce que devait être DX10 avec cependant quelques ajouts mineures en sus. Cela signifie qu'ATI a eu la plupart du temps une partie DX11 conforme depuis le HD2900. Le R870/HD5870 effectivement sera la quatrième génération DX11 GPU de l'équipe rouge. Rappelez-vous le "tessellator" ? C'était déjà là, réalisé depuis le 80nm !
Ce n'est pas de dire que ce soit facile pour l'un ou l'autre côté, TSMC a fondamentalement sorti et a indiqué que son processus 40nm est fondamentalement horrible, une affirmation soutenue par chacun qui l'emploie. Cela dit, le GT300 et le R870 sont conçus pour ce processus, ainsi ils sont coincés avec lui.
Si des rendements ne peuvent pas être rendus économiquement viables, vous serez dans une situation des pièces 55nm plus anciennes allant tête à tête pour tout en 2010. Le manque total de compétitivité de la part de Nvidia a engendré un surcoût sur ce processus (40nm), il serait désormais plus question de survie pour lui (le processus 40nm), pour cette année.
Cela nous amène à la question principale, ce qu'est le GT300 ? Si vous vous rappelez les coups moqueurs de Jen-Hsun au sujet de Larrabee (intel), vous pourriez trouver ironique que le GT300 est fondamentalement un clone de Larrabee. Tristement cependant, il n'a pas la technologie du procédé, le support logiciel, ou l'architecture derrière pour le faire fonctionner, cependant, ceci n'est pas la première fois que les grands pronostics de Nvidia lui sont retombés sur sa tête.
La structure de base du GT300 est identique à Larrabee. Nvidia va employer des « shaders » d'usage universel pour faire des tâches de calcul, et les choses que n'importe quelle compagnie raisonnable mettrait dans le matériel consacré vont être faites dans le logiciel. Fondamentalement DX11 sera code de shader sur un générique Unité-comme la structure. Juste comme Larrabee, mais de sont regard à lui, Larrabee a obtenu la droite fondamentale de matériel.
Avant que vous sautiez en haut et en bas, et avant que tous les Nvidiots (nvidia-idiot ? mdr.. dsl j'ai pas compris) radotent, c'est un problème massif pour Nvidia. La puce a été conçu à un moment où le calcul de la pensée GPU de Nvidia allait réellement lui apporter une certaine somme d'argent, et c'était une stratégie de sortie pour la compagnie quand les GPUs sont sortis.
Il ne s'est pas produit de cette façon, partiellement en raison du matériel avec des erreurs, partiellement en raison d'au-dessus-prometteur et de la sous-livraison, et alors est venu les coups fatals de Larrabee et de fusion. Les grandes ambitions de Nvidia ont été bourrées dans la saleté, et correctement cette fois.
Les relations avec les investisseurs de Nvidia indiquent qu'entre 5 à 10% du GT200 meurent secteur (?) sont consacrées aux tâches de calcul de GPU. Le GT300 va de toute manière plus loin ici, mais soyons charitables et disons 10 pour cent. Ceci met Nvidia à un inconvénient régional de 10 pour cent à ATI sur l'avant DX11, et c'est avant que vous parliez de toute autre chose. Hors de la porte dans le deuxième endroit.
Sur le 55nm, l'ATI RV790 accroche fondamentalement le GT200b dans l'exécution, mais avec une puce d'une taille de seulement 60% que le GT200, et cela signifie un coût en moins de 60%. Notez svp, nous ne prenons pas en considération des coûts de conseil, et si vous regardez le rendement aussi, les choses deviennent très laides pour Nvidia. Qu'il suffise de dire que structuralement, GT200 est un chien, une graisse, chien gonflé.
Plutôt que disparaissent le maigre et le moyen pour GT300, probablement avec la stratégie "multi-die" comme ATI, Nvidia est parti pour une puce plus grande et moins efficace. Ils abandonnent l'exécution de GPU pour chasser sur un marché qui n'existe pas, mais étaient d'une imagination gentille il y a trois ans. En outre, rappelez-vous cette histoire au sujet du DX10 d'ATI qui est maintenant intégralement existante dans le DX11 d'aujourd'hui. ATI ne va pas devoir enfler la taille de sa puce pour obtenir DX11, mais Nvidia sera forcé à le faire, d'une manière ou d'une autre. Étape 1) rassemblent le slip. Étape 2) ? ? ? Bénéfice d'étape 3) ! (??)
Sur le rétrécissement du 55nm au 40nm, vous pouvez doubler le nombre de transistor, mais en raison de la fuite de courant, mais si vous le faites, ce serait comme frapper puissamment un mûr. Supposons que les deux côtés (nvidia et ati) peuvent doubler leur nombre de transistor et rester dans leurs budgets de puissance cependant, cela serait plus profitable pour Nvidia.
Si AMD double son nombre de transistor, il pourrait presque doubler la puissance d'exécution. S'il le fait, Nvidia doit pouvoir faire aussi bien. Mais, parce que Nvidia doit ajouter des éléments dans tous les dispositifs DX11, ou des shaders additionnels à lui consacrer essentiellement, l'efficacité régionale de ses morceaux descendra probablement. En attendant, ATI a ses dispositifs déjà en place, et il rétrécira ses tailles de sa puce à un quart de ce qu'elles étaient dans les 2900, ou moitié de ce qu'elles étaient dans le R770.
Nvidia gagnera une certaine surface sur son die quand il va passer à la GDDR5. Alors la question ouverte sera comment au loin l'interface de mémoire devra-t-elle être pour soutenir une stratégie énormément inefficace de GPGPU. Que le code doit être chargé, stocké et rincé, prenant la largeur de bande et la mémoire.
En fin de compte, avec ce que nous savons, ATI progressera vers le haut en doublant la puissance d'exécution s'il fait quelque chose pour doubler le nombre de shader, alors que Nvidia peut doubler le nombre de shader, mais lui perdra beaucoup de puissance d'exécution dans les cas concrets, s'il le fait.
Dans le R870, si vous comparez le temps qu'il prend pour rendre 1 million de triangles de 250K utilisant le tesselator, il faudrait un peu plus longgtemps pour calculer ces mêmes 1 million de triangles à travers sans tesselator. Tesselation ne prend aucun temps de shader, sauf la latence et la largeur de bande, il y a essentiellement un coût nul. Si ATI mettait en application des choses bien, et se rappelle que c'est la génération quatre de sa technologie, les choses devraient être presque transparente.
Contrastez cela avec l'approche GT300. Il n'y a aucun tesselator consacré, et si vous employez ce dispositif DX11, il prendra beaucoup de temps des shader, utilisés inefficacement comme cela est le cas pour le matériel d'usage universel. Vous aurez encore besoin alors des mêmes shaders pour rendre les triangles. 250K à 1 million de triangles sur le GT300 devrait être notamment plus lent que directement 1 million de triangles.
Les mêmes exemples devraient être vraies pour tous les cas des dispositifs DX11, ATI a consacré le matériel aux applications, Nvidia ont des shaders d'usage universel "roped" (?) pour faire des choses plus larges, plus variées mais moins efficacement. Quand vous allumez les dispositifs DX11, le GT300 prendra une exécution "nosedive"(?) , le R870 pas.
Plus mauvais encore, quand les dérivés sortent, la proportion de shaders requis pour lancer DX11 montera pour Nvidia, mais le matériel consacré ne changera pas pour ATI. Il vend actuellement des puces graphiques sur les bas de gamme du marché qui ont tous les « presque » dispositifs DX11, et fait tellement profitablement. Nvidia aura une situation dans ses mains, dans le bas de gamme, où l'exécution DX10 par les cartes 8600 et 8400 ressemblera aux coureurs de drague. (?)
En fin de compte, Nvidia structuralement parlant, a fait tout faux concernant cette partie. Il chasse un marché qui n'existe pas, et biaisant leurs parties à partir de leur propositions de core, des graphiques, pour accomplir ce rêve de pipe. (?) En attendant, ATI t'offrira une pièce x86 pièce hybride de fusion si c'est ce que vous voulez faire, et Intel aura Larrabee dans le même délai.
Le GT300 est fondamentalement un Larrabee mal fait pour des raisons faussées. D'une manière amusante cependant, il manque toutes les deux cibles essayées. R870 devrait le frapper dans l'exécution DX10/DX11, mais si vous achetez des GPU à $400-600 GPU pour ripper des DVDs pour votre IPod, Nvidia a une carte pour vous. (ouh, c'est pas gentil pour nvidia ça....) Peut-être. Malgré les problèmes de rendement.
GT300 sera en retard de nombreux quarts (quart = 3 mois), et sans miracle, manquera la rentrée scolaire et le lancement de Windows 7, mais aussi noël. Il ne viendra pas près du R870 dans l'exécution de graphiques, et cela coûtera beaucoup plus à produire. Ce n'est pas une architecture qui sortira Nvidia hors de son trou, mais à la place le creusera plus profond. Elle a fait un Larrabee. (ARFF...
)
---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~