Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2486 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  20  21  22  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°6967465
Arthyr
Posté le 22-05-2009 à 17:10:49  profilanswer
 

Reprise du message précédent :
Bonjour les gens,
 
 
je vais vous suivre pour cette aventure qu'est le GT300.
comme certain je suppose. Je compter monté une nouvelle configuration 100% neuve mais
je me suis dis que j'allais attendre le GT300 et peut-être des nouveaux processeurs entre temps si il y en a,  
j'ai pas regardé l'actualité intel depuis la sorti du I7.
 

enzo069 a écrit :

donc je me fais plaisir et achete mon sli de gtx285


Si ta une carte Graphique qui tien encore la route jusqu'au GT300 je te conseil de ne pas acheter enfin bon, c'est un avis personnel après :p

mood
Publicité
Posté le 22-05-2009 à 17:10:49  profilanswer
 

n°6967521
mikestewar​t
Air Roll Spinnin'
Posté le 22-05-2009 à 18:06:23  profilanswer
 

olioops a écrit :


heu ! il voulait dire à prix intérressant ... pour l'acheteur hein !  :D  
 
 
[:windir]


 
Clair qu'avec une 5870 à 250€ à la fin de l'année, le prix de la 285 va fondre affreusement...mais bon... :/

n°6967526
Profil sup​primé
Posté le 22-05-2009 à 18:10:14  answer
 

Elle ne se fera plus la 285 à ce moment là
Les hauts de gamme sont ceux qui partent en 1er quand une remplaçante (de leur rang) arrive!

Message cité 1 fois
Message édité par Profil supprimé le 22-05-2009 à 18:10:29
n°6967531
mikestewar​t
Air Roll Spinnin'
Posté le 22-05-2009 à 18:12:37  profilanswer
 


 
Clairement. Mais une 285 sur le marché de l'occas à ce moment là...  :sweat:  

n°6967536
enzo069
Posté le 22-05-2009 à 18:14:50  profilanswer
 

pas de souci, j'ai déja le nom du futur preneur de mon sli.....

n°6967539
mikestewar​t
Air Roll Spinnin'
Posté le 22-05-2009 à 18:16:52  profilanswer
 

enzo069 a écrit :

pas de souci, j'ai déja le nom du futur preneur de mon sli.....

 

Un ferrailleur ?  :whistle:

 

Enfin HS de toute façon, c'est le sujet GT300 ici.


Message édité par mikestewart le 22-05-2009 à 18:17:31
n°6967627
bjone
Insert booze to continue
Posté le 22-05-2009 à 19:27:34  profilanswer
 

Activation a écrit :

sauf que pour aller plus loin dans l'idée du SFR  
 
faut perdre cette notion que 2 GPU donc les unité shader font bande à part
et partir du principe que le core maitre de la CG ou est branché l ecran s approprie les unité shader de la CG esclave (le core de la CG esclave devient en qq sorte un simple répéteur)
 
l approche du SFR qui trace une droite horizontal qui varie plus ou moins en hauteur pour avoir 50% de charge au dessous et au dessus de cette ligne horizontal imaginaire est révolu
ça date de dx9 ça
 
tu as deux GPU dont chacun on je sait pas 200SP
faut le voir comme un seul 400SP
 
osef que les SP soit pas sous la meme enveloppe


 
Et par quelle techno-magie ?
 
Les positions projetées ne sont connues qu'après le vertex shader, ce qui oblige chaque GPU à passer les mêmes batches en SFR pour savoir si il est dans sa portion de frustum, jusqu'à preuve du contraire, en SFR, tu n'a pas de linéarité en géométrie. Seuls les predicats D3D10 peuvent drastiquement aider la linéarité dans cette situation, mais ils ont un coût.


Message édité par bjone le 23-05-2009 à 01:36:22
n°6967712
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 22-05-2009 à 20:26:11  profilanswer
 

Le Larrabee utilisera le Tile Rendering, comme les Kyro de PowerVR.
Je préfère 100% plus le TR que le SFR ou l'AFR.

n°6967726
Gigathlon
Quad-neurones natif
Posté le 22-05-2009 à 20:40:18  profilanswer
 

Sauf que le tile rendering ça n'existe plus.
 
Tous les GPU actuels travaillent sur des tiles, mais uniquement pour la partie PS, et évidemment rien à voir avec le multi-GPU...

Message cité 1 fois
Message édité par Gigathlon le 22-05-2009 à 20:42:04
n°6967745
Arthyr
Posté le 22-05-2009 à 20:56:23  profilanswer
 

Bonsoir,
 
J'ai l'impression d'entendre des Techniciens Nvidia, c'est marrant,
plus besoin d'envoyer d'emails a Nvidia, allons sur Hardware.
 
lol :p

mood
Publicité
Posté le 22-05-2009 à 20:56:23  profilanswer
 

n°6967978
bjone
Insert booze to continue
Posté le 23-05-2009 à 01:37:16  profilanswer
 

Wirmish a écrit :

Le Larrabee utilisera le Tile Rendering, comme les Kyro de PowerVR.
Je préfère 100% plus le TR que le SFR ou l'AFR.


Et c'est une mauvaise préférence car ce sont des solutions qui ne travaillent pas dans le même domaine :D
Enfin quelque part le SFR et le rendu par Tile sont dans la même philosophie: le parallélisme sur le rendu d'une frame.
Par contre tu peux parfaitement avoir AFR et rendu par Tile.
Voir du rendu par Tile avec du SFR, le tout encapsulé par de l'AFR.
 
Deux frames, rendues par quatre cartes, mais par Tile avec le framebuffer d'une frame composé de manière répartie sur une paire de cartes.
 


Message édité par bjone le 23-05-2009 à 01:44:56
n°6967982
bjone
Insert booze to continue
Posté le 23-05-2009 à 01:57:25  profilanswer
 

Gigathlon a écrit :

Sauf que le tile rendering ça n'existe plus.
 
Tous les GPU actuels travaillent sur des tiles, mais uniquement pour la partie PS, et évidemment rien à voir avec le multi-GPU...


 
Plus précisement les GPU nVidia & ATI travaillent par quad, mais surtout chaque pixel est commis dans le framebuffer, l'overdraw provoquant alors beaucoup de consommation de bande-passante mémoire.
Alors que le Larrabee génére d'abord une queue de triangles par Tile, tous les pixels commis tiennent en cache L2 (pour toutes les rendertargets de préférence), ceci neutralisant la bande-passante mémoire consommée par l'overdraw, puis le L2 est flushé en ram vidéo.
 
Sur un GPU classique, le framebuffer est construit à la vitesse de la ram vidéo, sur le Larrabee l'idée est d'essayer de construire le framebuffer non pas à la vitesse de la ram vidéo, mais à la vitesse d'une mémoire cache (en gros x5~x10 en bande-passante).


Message édité par bjone le 23-05-2009 à 01:59:46
n°6967986
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 23-05-2009 à 02:19:03  profilanswer
 

L'AFR cay le mal.  :o  
 
Maintenant que j'y pense, y'a une nouvelle technique bien plus intéressante que celles qu'on connait !
Je parle bien sûr du DDaBTR ou si vous préférez: Dynamically Distributed and Balanced Tasks Rendering.
(Je viens d'inventer ce terme, donc c'est normal que ça ne vous dise rien.)
 
En fait j'ai inventé le terme, mais pas la technique.
Car c'est celle qui est utilisée par l'Hydra de Lucid.
 
Cette technique est la meilleure car elle permet d'accoupler 2 cartes graphique (ou plus), de puissance, de marque, et de série différente, tout en les utilisant au maximum de leurs capacités, et sans qu'une carte ne ralentisse le travail des autres.
 
L'avenir ne vient donc ni d'Intel, ni de nVidia, ni d'AMD, ni de VIA, ni de SIS, ni de Matrox, ni de SGI, mais d'une petite compagnie qui n'existait même pas il y a 10 ans. C'est à ce demander ce que foutent toutes ces compagnies avec leur R&D.

Message cité 1 fois
Message édité par Wirmish le 23-05-2009 à 02:20:10
n°6968000
marllt2
Posté le 23-05-2009 à 04:38:30  profilanswer
 

Dans un brevet que nVidia a déposé, on peut constater ceci: http://www.google.com/patents?id=I [...] 26&num=100
 
http://img29.imageshack.us/img29/5156/35545376.jpg
 
Autrement dit: un hub mémoire en dehors du GPU, afin d'augmenter la BP.

Message cité 1 fois
Message édité par marllt2 le 23-05-2009 à 04:42:37
n°6968144
Gigathlon
Quad-neurones natif
Posté le 23-05-2009 à 11:51:36  profilanswer
 

marllt2 a écrit :

Dans un brevet que nVidia a déposé, on peut constater ceci: http://www.google.com/patents?id=I [...] 26&num=100
 
http://img29.imageshack.us/img29/5156/35545376.jpg
 
Autrement dit: un hub mémoire en dehors du GPU, afin d'augmenter la BP.


C'est assez flou quand même...
 
En admettant qu'ils fassent ça, je suis pas certain que le gain soit probant, car le hub est forcément limité par les mêmes contraintes qu'un bus mémoire. L'avantage par contre c'est de pouvoir partager la RAM entre 2 GPU mais je vois pas le rapport avec un quelconque brevet tellement ça tombe sous le sens.

n°6968292
mikestewar​t
Air Roll Spinnin'
Posté le 23-05-2009 à 14:25:17  profilanswer
 

Idem et faudra un sacré bus entre le GPU et le HUB. :/

 

Et puis là tu rajoutes une interface qui n'existerait pas avec une seule puce, ce qui va inévitablement rajouter pas mal de coûts. :/ (et puis plus de transistors, plus de conso, etc...)


Message édité par mikestewart le 23-05-2009 à 14:31:20
n°6968297
Gigathlon
Quad-neurones natif
Posté le 23-05-2009 à 14:33:07  profilanswer
 

L'avantage serait là pour une X2 (ou X3) mais ça sous-entendrait que le contrôleur mémoire d'origine de chaque GPU fonctionne dans un mode spécifique pour causer au contrôleur mémoire déporté qui lui-même devrait avoir un die conséquent pour coller un gros bus.
 
Au final ça fait plus penser à un partage des contrôleurs mémoire dans des GPU de taille raisonnable: chaque GPU aurait alors son bus 256bits et un bus auxiliaire 32 voire 64bits à fréquence élevée se chargerait de permettre l'accès à l'autre.
 
Pour résumer, on aurait ça:
 


MC              MC               MC
Hub ----------- Hub ----------- Hub
ROPs/TMU      ROPs/TMU     ROPs/TMU    
Shader core Shader core Shader core


 
Dans ce schéma, chaque GPU aurait accès à la BP d'un bus 768bits et surtout à la totalité des données, au prix d'une latence un peu plus importante.


Message édité par Gigathlon le 23-05-2009 à 14:39:27
n°6968308
mikestewar​t
Air Roll Spinnin'
Posté le 23-05-2009 à 14:43:17  profilanswer
 

Ah oui.  :jap:

 

Mais du coup comment on colle tout ça sur une seule carte graphique ? :/


Message édité par mikestewart le 23-05-2009 à 14:43:26
n°6968311
Gigathlon
Quad-neurones natif
Posté le 23-05-2009 à 14:45:21  profilanswer
 

C'est effectivement une bonne question [:ddr555]
 
Ceci dit, j'ai mis 3 GPU car c'est le maximum avant de devoir recourir à des connexions en étoile, mais avec seulement 2 c'est équivalent à une X2 actuelle.
 
Maintenant, si ce "brevet" concerne le GT300 ça implique un petit GPU...  [:gratgrat]


Message édité par Gigathlon le 23-05-2009 à 14:46:55
n°6968313
mikestewar​t
Air Roll Spinnin'
Posté le 23-05-2009 à 14:48:48  profilanswer
 

Rien que 2 GPU avec chacun un bus 256bits vers le HUB qui aura un bus énorme (+ de 512bits) vers la mémoire... :/

 

Déjà qu'Nvidia a du mal à caser la GTX295 sur un PCB...  :sweat:

 

Ça devait être une tech. 3Dfx à tous les coups. :o


Message édité par mikestewart le 23-05-2009 à 14:54:02
n°6968317
Gigathlon
Quad-neurones natif
Posté le 23-05-2009 à 14:55:30  profilanswer
 

Sauf si comme je l'ai dit chaque GPU a en réalité un bus 256bits et un accès haute vitesse sur la crossbar d'une largeur raisonnable.
 
Avec une liaison de ce type, la carte n'a que 2 puces (voire 3 avec un switch PCI-E qui finira certainement par être intégré), la complexité globale se retrouve similaire à une 3870/4870X2.
 
En réalité c'est ni plus ni moins qu'une évolution des connecteurs SLI/CF.

n°6968327
mikestewar​t
Air Roll Spinnin'
Posté le 23-05-2009 à 15:09:54  profilanswer
 

et le HUB on le met où ? :/

 

Ce HUB c'est quand même la particularité de la tech. d'Nvidia.


Message édité par mikestewart le 23-05-2009 à 15:27:40
n°6968356
Gigathlon
Quad-neurones natif
Posté le 23-05-2009 à 15:40:50  profilanswer
 

Le terme "hub" désigne toute interconnexion point à point, ici l'accès à la crossbar du contrôleur mémoire, et ne nécessite en aucun cas une puce supplémentaire.
 
Si sur les schémas c'est représenté avec un contrôleur mémoire et un GPU c'est pour simplifier la chose, car fondamentalement c'est bien le principe, si ce n'est qu'il aurait fallu doubler tous les bus transcrits.
 
 
*Rappel: ceci n'est que mon interprétation.

n°6968366
mikestewar​t
Air Roll Spinnin'
Posté le 23-05-2009 à 15:56:46  profilanswer
 

La doc parle de traduction de signaux donc je pensais à une puce. Bien, merci. :)

n°6968383
Gigathlon
Quad-neurones natif
Posté le 23-05-2009 à 16:15:50  profilanswer
 

En tout cas je confirme que c'est la merde à schématiser avec une interconnexion, quoi qu'il en soit ce brevet n'a aucune valeur (on a parlé d'un système similaire destiné à la seule utilisation qui semble cohérente ici-même et ailleurs bien avant son dépôt...)
 
Sinon petit extrait:

Citation :

A method of operating a graphics system, comprising:
 
 
providing a graphics processing unit that has a first hub interface, the graphics processing unit being designed to not natively support at least one dynamic random access memory (DRAM) memory interface process defined by a DRAM standard; and
 
linking the graphics process unit to a second hub interface of a memory hub, the memory hub having a DRAM interface supporting the DRAM interface process defined by the standard;
 
wherein the DRAM interface process is offloaded to the memory hub.


 
Ce qui donne en traduction libre:
"Un mode de fonctionnement d'un système graphique, incluant:
 
Etant donné un GPU ayant un premier hub, ne supportant nativement aucune interface RAM standardisée et lié à un second hub d'un "memory hub" disposant d'une interface DRAM standardisée déchargeant le GPU de l'interfaçage de la mémoire."

 
Le but est clairement de découpler le contrôleur mémoire du GPU, mais rien n'implique un découplage physique, c'est plus à assimiler à des blocs fonctionnels.
 
A noter dans la section [0025] qu'il est fait mention d'une utilité particulière: diminuer l'impact financer des droits d'utilisation des technologies tierces (RAMbus & co.), qui sont semble-t-il actuellement calculés sur le prix de vente de la puce. Reste que l'interface mémoire nécessite quoi qu'il en soit un nombre de pins, et donc un die, conséquent.


Message édité par Gigathlon le 23-05-2009 à 16:42:38
n°6968444
darkorel
Posté le 23-05-2009 à 17:39:21  profilanswer
 

Le g300 sera capable de rendering texturing raytracing grace au controleur hdr sfr bouygue orange , qui permet de paralleliser les données pixeliennes sur un bus de 666 bites, et le calcul de la coordonnée z des pixels morts de l'écran permet de gagner un débit de l'ordre de 3 gb/s; ce qui n'est pas négligeable vous en conviendrez. Il sera accompagné de 1036 mo de gddr5,3 fonctionnant en mode différentiel, mai la carte possèdera 3 hub usb ou l on pourra brancher des clés rambus et donc porter la mémoire a 18 go. Cette gddr fonctionnera de manière synchrone/asynchrone/bisynchone avec le gpu et 3 unités de tesselation, dont 1 est dédiée à la lissification des palmiers dans crysis. Enfin une unité spécialisée calulera la tangente scalaire de l abscisse de la circonférence des shaders.
ce gpu sera gravé selon mes source moitié en 180 nm et moitié 39,4;et la carte serait alimentée par de nouveau connecteurs  ide/sata 9pin et demi, le demi pin permettant une économie de 30w.
Voila, et ça sortirai courant Q5 2009, soit grosso merdo aux alentours du 34 juillet, avec un prix compris entre 2 cents et 800 euros.


Message édité par darkorel le 23-05-2009 à 17:41:31
n°6968446
Klivan
Ach... Encore raté...
Posté le 23-05-2009 à 17:41:31  profilanswer
 

Et elle fera le café?
 
 [:drapo]


---------------
We are the knights who say : Ni! / 'Bye Julfisher, so long Shepard :(
n°6968450
darkorel
Posté le 23-05-2009 à 17:44:24  profilanswer
 

Klivan a écrit :

Et elle fera le café?
 
 [:drapo]


Seulement du déca, car la caféine exciterait l' horloge interne du gpu, entrainant une arythmie de celui ci, et provocant donc des accélérations dans les jeux.

n°6968452
mikestewar​t
Air Roll Spinnin'
Posté le 23-05-2009 à 17:45:43  profilanswer
 

Klivan a écrit :

Et elle fera le café?

 

[:drapo]

 

Si la GTX380 ressemble à ça :

 

http://www.isomac.it/i_produkter/alba_big.jpg

 

Probable oué. :o

 

P.S. : toute ressemblance avec une usine à gaz est purement fortuite.

Message cité 1 fois
Message édité par mikestewart le 23-05-2009 à 17:49:51
n°6968456
darkorel
Posté le 23-05-2009 à 17:49:39  profilanswer
 

mikestewart a écrit :


 
Si la GTX380 ressemble à ça :
 
http://www.isomac.it/i_produkter/alba_big.jpg
 
Probable oué. :o


Ah t'as les mêmes sources que moi toi, on voit bien les caloducs spéciaux et les manettes pour réguler manuellement la pression de la nouvelle chambre à vapeur.

n°6968545
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 23-05-2009 à 18:49:39  profilanswer
 

Au sujet du brevet précédent...  
 
20. The memory hub of claim 13, wherein said DRAM interface supports at least one DRAM protocol from the group consisting of SDR SDRAM, DDR SDRAM, DDR2 SDRAM, GDDR SGRAM, GDDR2 SGRAM, GDDR3 SGRAM, and GDDR4 SGRAM.
 
Suis-je le seul à avoir remarqué l'absence de GDDR5 ?  


Message édité par Wirmish le 23-05-2009 à 19:46:32
n°6968550
Gigathlon
Quad-neurones natif
Posté le 23-05-2009 à 18:51:44  profilanswer
 

Non, ceci dit en 2008 ça courait pas les rues ;)

n°6968567
White Sh4d​ow
GHz-O-Meter !
Posté le 23-05-2009 à 18:59:59  profilanswer
 

la 4870 est sortie en 2008...

n°6968570
mikestewar​t
Air Roll Spinnin'
Posté le 23-05-2009 à 19:00:40  profilanswer
 

Oui enfin chez Nvidia.

n°6968654
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 23-05-2009 à 19:46:40  profilanswer
 

J'ai lu le brevet, tout comme Gigathlon, et au final ça n'a absolument rien a voir (pour l'instant) avec le SLi ou un truc du même genre.
Je précise aussi que ça n'a rien à voir avec une certaine machine à café.
 
 
C'est seulement un moyen pour diminuer la complexité du contrôleur mémoire du GPU, et ainsi parvenir à diminuer le nombre de pins requis pour accéder à différents types de mémoire.
 
De plus, cela permettrait à nVidia de ne pas avoir à payer des redevances à AMD ou à RAMBUS pour implémenter un contrôleur mémoire compatible avec certains types de mémoire qui ne seront pas utilisés sur certains modèles de cartes, alors qu'ils seront utilisés sur d'autres.
 
 
Ce que j'ai compris c'est que le GPU embarquerait un contrôleur mémoire spécial, du genre HT, QPI, FlexIO ou Ethernet. Bref, un truc créé par nVidia lui-même afin de ne pas payer de redevances à un tiers. Une 2e puce (hub) s'occuperait d'accéder à un type de mémoire en particulier, et transmettrait ensuite les données au GPU par le bus spécial.
 
Par exemple, si nVidia créé un contrôleur mémoire compatible DDR2, DDR3, GDDR2, GDDR3, GDDR4 et GDDR5, il doit payer des redevances pour chaque type de mémoire... et comme AMD a créé la GDDR3, la GDDR4 et la GDDR5, je pense que nVidia désire limiter sa contribution aux coffres d'AMD... et je suis sûr que RAMBUS reçoit aussi sa part.
 
Le truc c'est que la redevance dépend du prix de vente de la puce qui est compatible avec la mémoire.
Le coût de la redevance est peut-être de 5$ pour un GT200 qui coûte disons 120$ à produire.
Mais si le hub ne coûte que 2$ à produire, la redevance serait alors de seulement 8 cents.
 
 
De plus, nVidia doit prévoir des pins sous son GPU pour relier ces différents type de mémoire au contrôleur. Mais quand on a 6 types de mémoire possible, on finit par mettre plein de pins qui ne seront pas utilisées, pcq soit le GPU utilisera de la DDR2, soit il utilisera de la GDDR5, mais pas les 2 en même temps, même si les pins sont là.
 
Donc, en utilisant un hub, nVidia peut conçevoir un contrôleur mémoire très simplifié, et n'a qu'à mettre les pins nécessaires au bus qui doit relie le GPU au hub. Le GPU peut donc être produit sans payer la moindre redevance. Seul le hub nécessitera de payer une redevance, mais uniquement sur le type de mémoire dont il est compatible. nVidia n'a donc plus qu'à créer un petit hub compatible GDDR5, un autre compatible GDDR3, un autre compatible DDR2, etc.
 
Lorsque nVidia assemble une carte moyen de gamme, il peut relier son GPU à un hub GDDR3, et ne payer que la redevance sur la GDDR3. Et s'il veut en faire une version haut de gamme, il suffit de remplacer le hub GDDR3 par un hub GDDR5, et de payer uniquement la redevance sur la GDDR5. Un peut à la manière des HD 4850 vs HD 4870.
 
 
Ça permet aussi d'ajouter la compatibilité à un nouveau type de mémoire, sans devoir modifier le GPU.
Par exemple, il suffit de créer un petit hub GDDR6 pour remplacer le hub GDDR5 et le tour est joué.
 
 
Ça permet aussi de mettre le hub à divers endroits sur le PCB.
nVidia pourrait alors positionner les puces mémoire à des endroits stratégiques, ce qui permettrait de simplifier le PCB.
 
 
Et finalement, ça permet d'avoir une fréquence pour le GPU qui soit différente de celle du hub.
Est-ce bien utile ? Je ne sais pas, mais la possibilité existe tout de même.
 
 
En fait c'est le même principe que les CPU d'Intel qui ont un FSB:
   Un chipset contient le contrôleur mémoire et fait le lien entre le CPU et la banque de mémoire.
   Suffit de changer ce chipset pour changer de type de mémoire, sans devoir changer le CPU.
   Puis, à la manière des CPU multi-dies, le chipset peut relier 2 cores non natifs à une banque de mémoire.
   Ce qui permet de croire que le hub de nVidia pourrait, dans le futur, relier 2 GPU à une même banque mémoire.

   Mais je répète que ce n'est pas le but de ce brevet.


Message édité par Wirmish le 23-05-2009 à 19:54:25
n°6968688
Gigathlon
Quad-neurones natif
Posté le 23-05-2009 à 20:02:39  profilanswer
 

Le côté "baisse de la redevance par réduction du prix de la puce faisant office d'interface mémoire" ne tient pas la route du moment que ladite interface est forcément large.
 
D'autre part, dire qu'AMD a des droits sur la GDDR5 est stupide, puisque ces droits appartiennent au JEDEC auquel nVidia participe tout autant qu'AMD, à la présidence pendant le développement de la GDDR5 près.
 
Quant à tes hypothèses sur les pins inutilisées, sache que généralement on utilise les mêmes pins pour différents signaux liés à chaque protocole, à charge du bios de signaler quel type de RAM est utilisé.
 
Enfin, concernant toutes tes hypothèses sur le placement des hubs ou encore l'évolutivité, ça ne tient pas la route... les traces doivent forcément être les plus courtes possible entre GPU et hub si on utilise des liens haute vitesse et, honnêtement, je vois pas l'intérêt de se préparer à de nouvelles normes de RAM avec un GPU dont la durée de vie n'excèdera sans doute pas 2 ans.
 
Bref, la seule hypothèse valable est bel et bien le partage de l'interface RAM entre plusieurs GPU, ce qui:
 
- réduirait le gâchis sur la RAM embarquée (Hynix paye aussi des redevances...)
- augmenterait les perfs
- simplifierait le design du PCB
 
Une GTX295 conçue de la sorte n'utiliserait plus que 16 puces de GDDR3 (bus ramené à 256bits) au lieu de 28, soit dans les $24 d'économie brute sur la RAM, sans compter les composants annexes et la conception plus simple du PCB. On est bien au delà des hypothétiques gains sur les licences pour un GPU vendu dans les $40...

Message cité 1 fois
Message édité par Gigathlon le 23-05-2009 à 20:04:05
n°6968711
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 23-05-2009 à 20:14:19  profilanswer
 

Gigathlon a écrit :

D'autre part, dire qu'AMD a des droits sur la GDDR5 est stupide, puisque ces droits appartiennent au JEDEC auquel nVidia participe tout autant qu'AMD, à la présidence pendant le développement de la GDDR5 près.


Ah bon.
 
Comme ça tu crois qu'AMD a inventé la GDDR3, la GDDR4, et la GDDR5, uniquement pour enrichir la JEDEC.
AMD a dépensé des millions de dollars... pour ne rien reçevoir en retour... comme s'il jetait le peu d'argent qu'il a par les fenêtres.
Et AMD a inventé tout ça... sans demander de brevets, sans demander de redevances à personne, juste pour le bien de l'humanité.
 

Gigathlon a écrit :

Bref, la seule hypothèse valable est bel et bien le partage de l'interface RAM entre plusieurs GPU...


C'est pas le but de ce brevet.
Ça n'a rien a voir avec le SLI.
 
PS: Tu peux ne pas partager mon avis, c'est pas grâve.   ;)

Message cité 1 fois
Message édité par Wirmish le 23-05-2009 à 20:18:20
n°6968719
mikestewar​t
Air Roll Spinnin'
Posté le 23-05-2009 à 20:18:07  profilanswer
 

L'économie est vraiment rentable si l'on doit rajouter une puce (même très peu couteuse) sur le PCB ? :/

n°6968725
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 23-05-2009 à 20:22:39  profilanswer
 

mikestewart a écrit :

L'économie est vraiment rentable si l'on doit rajouter une puce (même très peu couteuse) sur le PCB ? :/


C'est ce que fait présentement nVidia avec la NVIO2 qui gère les sorties vidéo.
 
 
En passant... j'ai plusieurs infos qui me laissent croire que le prochain monstre de nVidia utilisera encore de la GDDR3.

Message cité 2 fois
Message édité par Wirmish le 23-05-2009 à 20:24:01
n°6968732
Gigathlon
Quad-neurones natif
Posté le 23-05-2009 à 20:27:10  profilanswer
 

Wirmish a écrit :


C'est pas le but de ce brevet.
Ça n'a rien a voir avec le SLI.
 
PS: Tu peux ne pas partager mon avis, c'est pas grâve.   ;)  


Le problème n'est pas d'être d'un avis contraire au tien, c'est que ton avis ne repose sur rien...
 
Le texte indique des utilisations possibles, mais c'est tout. D'autre part certains passages sont tout simplement loufoques, comme l'utilisation d'un contrôleur mémoire externe pour diminuer les frais de licences alors que ladite puce devrait être relativement grosse (dans les 300mm² en étant très optimiste) pour un GPU de classe GT200 en GDDR3, voire pire pour la classe GTX295 (bus 1024bits). Si on ajoute à ça la nécessaire R&D pour concevoir cette puce supplémentaire, c'est totalement absurde.
 
Par contre, une utilisation est possible: un contrôleur mémoire externe uniquement pour l'entrée de gamme. Avec une puce de 25mm² il serait alors possible d'obtenir une bande passante décente, ceci dit, à ce niveau pourquoi ne pas directement intégrer la RAM dans le die?

n°6968754
mikestewar​t
Air Roll Spinnin'
Posté le 23-05-2009 à 20:39:10  profilanswer
 

Wirmish a écrit :


C'est ce que fait présentement nVidia avec la NVIO2 qui gère les sorties vidéo.

 


En passant... j'ai plusieurs infos qui me laissent croire que le prochain monstre de nVidia utilisera encore de la GDDR3.

 

Le NVIO sert surtout à réduire le nombre de transistors du GPU. Là tu l'as même pas évoqué à propos du HUB.  :o


Message édité par mikestewart le 23-05-2009 à 20:39:28
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  20  21  22  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)