Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2322 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  13  14  15  ..  987  988  989  990  991  992
Auteur Sujet :

[Topic Unique] AMD Radeon R9/R7 200; HD 7000 Southern Islands (28nm)

n°7720382
nofoger
Posté le 28-12-2010 à 18:12:05  profilanswer
 

Reprise du message précédent :
mais raf et osef de pc/mac
 
vous pouvez débattre ati/nvidia au moins ça aura un rapport.


Message édité par nofoger le 28-12-2010 à 18:14:50
mood
Publicité
Posté le 28-12-2010 à 18:12:05  profilanswer
 

n°7720391
samosasse
Posté le 28-12-2010 à 18:14:42  profilanswer
 

C'est les fêtes, on s'écarte un peu !...

n°7720392
stephane91​0
Posté le 28-12-2010 à 18:14:44  profilanswer
 

samosasse a écrit :

Sinon je suis d'accord avec buffo, Win 7 ne plante jamais de chez jamais. En tout cas, pas chez moi !
ça démarre vite, s'éteint vite, c'est beau. Franchement, je n'ai pas pour habitude d'encenser Microsoft mais ils ont assuré avec cet OS.


C'est comme ça depuis windows 2000 (voir windows NT pour les pros) donc c'est pas nouveau. Heureusement que microsoft n'a pas attendu 10 ans pour migrer leurs windows sur la base NT.

n°7720395
samosasse
Posté le 28-12-2010 à 18:15:36  profilanswer
 

stephane910 a écrit :


C'est comme ça depuis windows 2000 (voir windows NT pour les pros) donc c'est pas nouveau. Heureusement que microsoft n'a pas attendu 10 ans pour migrer leurs windows sur la base NT.


C'est pas faux !  
Tous les effets du bureau (fenêtres translucides, prévisu des fenêtres ouvertes, etc...) ont été possibles grâce à l'évolution des composants (proc, RAM, carte graphique) donc l'amélioration de l'ergonomie est logique.  
On peut tout de même noter un effort dans la rapidité de boot de l'OS Win7.


Message édité par samosasse le 28-12-2010 à 18:20:42
n°7720396
nofoger
Posté le 28-12-2010 à 18:15:52  profilanswer
 

:o  
 
bon faut surveiller pcworld devrait pas tarder à sortir un teste hd7000. sont toujours un peu en avance  :D

n°7720423
mum1989
Posté le 28-12-2010 à 18:30:51  profilanswer
 

stephane910 a écrit :


C'est comme ça depuis windows 2000 (voir windows NT pour les pros) donc c'est pas nouveau. Heureusement que microsoft n'a pas attendu 10 ans pour migrer leurs windows sur la base NT.


non la la nouvelle sur Windows 7 ça fonctionne très bien sans service pack et même en version beta, alors qu'avant Windows 2000/Xp il était préférable d'avoir un SP1 voir SP2, et vista je n'en parle même pas sans SP1 c'est une catastrophe.
 

Citation :

bon faut surveiller pcworld devrait pas tarder à sortir un teste hd7000. sont toujours un peu en avance


 :D  
 

Citation :

Tous les effets du bureau (fenêtres translucides, prévisu des fenêtres ouvertes, etc...) ont été possibles grâce à l'évolution des composants (proc, RAM, carte graphique) donc l'amélioration de l'ergonomie est logique.  


non sous Gnu/linux ça existe depuis longtemps et ça tourne très bien sur des machines modestes (compiz par exemple), c'est juste que Windows était un peu à la ramasse niveau ergonomie/effets et tout, un peu en retard.

n°7720433
samosasse
Posté le 28-12-2010 à 18:35:29  profilanswer
 

mum1989 a écrit :


non la la nouvelle sur Windows 7 ça fonctionne très bien sans service pack et même en version beta, alors qu'avant Windows 2000/Xp il était préférable d'avoir un SP1 voir SP2, et vista je n'en parle même pas sans SP1 c'est une catastrophe.
 

Citation :

bon faut surveiller pcworld devrait pas tarder à sortir un teste hd7000. sont toujours un peu en avance


 :D  
 

Citation :

Tous les effets du bureau (fenêtres translucides, prévisu des fenêtres ouvertes, etc...) ont été possibles grâce à l'évolution des composants (proc, RAM, carte graphique) donc l'amélioration de l'ergonomie est logique.  


non sous Gnu/linux ça existe depuis longtemps et ça tourne très bien sur des machines modestes (compiz par exemple), c'est juste que Windows était un peu à la ramasse niveau ergonomie/effets et tout, un peu en retard.


ça aussi c'est pas faux mais Win7 sur une machine modeste, avec tous les effets c'est pas gagné !

n°7720437
stephane91​0
Posté le 28-12-2010 à 18:36:10  profilanswer
 

mum1989 a écrit :


non la la nouvelle sur Windows 7 ça fonctionne très bien sans service pack et même en version beta, alors qu'avant Windows 2000/Xp il était préférable d'avoir un SP1 voir SP2, et vista je n'en parle même pas sans SP1 c'est une catastrophe.
.


Win 2000 ou xp étaient très stables sans service pack aussi (plus xp qui au final n'était qu'une évolution de 2000). De plus il faut leur mettre à décharge que 2000 et xp inauguraient le passage du noyau NT au grand public alors que seven a déjà profité de l'expérience acquise sur xp,2000 et vista.

n°7720439
stephane91​0
Posté le 28-12-2010 à 18:37:27  profilanswer
 

samosasse a écrit :


ça aussi c'est pas faux mais Win7 sur une machine modeste, avec tous les effets c'est pas gagné !


Tout dépend de ce que tu appelles modeste. Win7 n'est pas très gourmand quand même vu le parc moyen actuel. Au pire tu supprimes les effets cosmétiques et ton système sera bien plus réactif pour les mêmes possibilités de travail.


Message édité par stephane910 le 28-12-2010 à 18:37:41
n°7720444
mum1989
Posté le 28-12-2010 à 18:39:03  profilanswer
 

stephane910 a écrit :


Win 2000 ou xp étaient très stables sans service pack aussi (plus xp qui au final n'était qu'une évolution de 2000). De plus il faut leur mettre à décharge que 2000 et xp inauguraient le passage du noyau NT au grand public alors que seven a déjà profité de l'expérience acquise sur xp,2000 et vista.


oui c'était correct, m'enfin bon Windows 7 quand même je trouve est  bien plus stable.
 

Citation :

Win7 n'est pas très gourmand quand même vu le parc moyen actuel


oui de ce point de vue,  
mais c'est pas avec Windows 7 que tu feras tourner de façon fluide avec les effets sur un P4 ou Athlon à 2ghz + 512mo de ram et une vielle geforce 4, sur Gnu/Linux par contre ça tourne très bien et avec les effets graphiques(avec distribution adaptée).

Message cité 2 fois
Message édité par mum1989 le 28-12-2010 à 18:40:59
mood
Publicité
Posté le 28-12-2010 à 18:39:03  profilanswer
 

n°7720450
stephane91​0
Posté le 28-12-2010 à 18:42:42  profilanswer
 

mum1989 a écrit :


oui c'était correct, m'enfin bon Windows 7 quand même je trouve est  bien plus stable.


Tout dépend de ce que tu appelles stable. Pour moi stable c'est quand ça ne plante pas et avec 2000 ou xp j'ai très rarement eu des plantages et quand j'en ai eu c'était du à de mauvais drivers ou une appli buggué ou alors à du matériel qui commençait à mourir. Et encore à part pour le matériel, ça m'a jamais pourris le système.
D'ailleurs depuis mes derniers déboires avec une mémoire récalcitrante je n'ai jamais plus eu de plantages du système sous xp et ça fait bien 3 ans.
Enfin on est très très loin des win95 ou 98 qui plantaient pour un rien et rendait le système inutilisable

n°7720453
stephane91​0
Posté le 28-12-2010 à 18:45:27  profilanswer
 

mum1989 a écrit :

 


Citation :

Win7 n'est pas très gourmand quand même vu le parc moyen actuel


oui de ce point de vue,
mais c'est pas avec Windows 7 que tu feras tourner de façon fluide avec les effets sur un P4 ou Athlon à 2ghz + 512mo de ram et une vielle geforce 4, sur Gnu/Linux par contre ça tourne très bien et avec les effets graphiques(avec distribution adaptée).


En même temps linux c'est un OS qui a plus de 20 ans et donc qui doit tourner de base sur de très très vieux pcs. Après i l ya des distributions avec des effets cosmétiques ou des interfaces plus gourmandes mais un linux de base en commande façon dos, ça consomme très peu.

 

Win7 est sortit récemment et donc ils l'adaptent au marché actuel et ils ne vont pas l'adapter avec du matériel vieux que plus grand monde utilise. Au pire tu enlèves les effets et ça tournera surement sur les pcs dont tu parles (les effets cosmétiques c'est quand même optionnel et juste fait pour rendre l'os plus joli mais ça change en rien l'utilisation qu'on en fait)


Message édité par stephane910 le 28-12-2010 à 18:45:50
n°7720455
Zack38
Posté le 28-12-2010 à 18:46:16  profilanswer
 

[/HS]
 
Merci.
 
Quitte à faire un débat sans issue, autant rester dans le sujet, non ? :D


Message édité par Zack38 le 28-12-2010 à 18:46:45
n°7720458
samosasse
Posté le 28-12-2010 à 18:50:21  profilanswer
 

stephane910 a écrit :


Tout dépend de ce que tu appelles stable. Pour moi stable c'est quand ça ne plante pas et avec 2000 ou xp j'ai très rarement eu des plantages et quand j'en ai eu c'était du à de mauvais drivers ou une appli buggué ou alors à du matériel qui commençait à mourir. Et encore à part pour le matériel, ça m'a jamais pourris le système.
D'ailleurs depuis mes derniers déboires avec une mémoire récalcitrante je n'ai jamais plus eu de plantages du système sous xp et ça fait bien 3 ans.
Enfin on est très très loin des win95 ou 98 qui plantaient pour un rien et rendait le système inutilisable


Oui mais on peut aussi juger de l'OS à sa façon de gérer les applis qui plantent. Et je trouve que Win 7 le fait mieux que Win XP. Notamment l'explorer.exe qui plantait de temps en temps sous XP alors que sous Win 7, ça ne m'est tout simplement jamais arrivé.  

n°7720462
stephane91​0
Posté le 28-12-2010 à 18:52:32  profilanswer
 

samosasse a écrit :


Oui mais on peut aussi juger de l'OS à sa façon de gérer les applis qui plantent. Et je trouve que Win 7 le fait mieux que Win XP. Notamment l'explorer.exe qui plantait de temps en temps sous XP alors que sous Win 7, ça ne m'est tout simplement jamais arrivé.  


Jamais eu ça par contre.
Par contre oui les plantages d'applis sont mieux gérés avec seven et vista du fait d'une gestion de la mémoire et des processus séparés avec le noyau.

n°7720470
nofoger
Posté le 28-12-2010 à 18:59:33  profilanswer
 

bon je tente un truc
 
les drivers ati sont meilleurs que les nvidia  :D  
 
ou l'inverse  :whistle:

n°7720549
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 28-12-2010 à 19:43:25  profilanswer
 

Tu crois qu'on va tomber aussi facilement dans ton troll velu ?

n°7720557
stephane91​0
Posté le 28-12-2010 à 19:48:31  profilanswer
 

nofoger a écrit :

bon je tente un truc

 

les drivers ati sont meilleurs que les nvidia  :D

 

ou l'inverse  :whistle:


Allez je tente un truc aussi: Est-ce que les prévisions de wirmirsh seront bonnes ou erronées comme d'hab (merci pour le fou rire sur les hd9xxx)? :lol:  :lol:

 

Plus sérieusement les HD7xxxx on devrait avoir des news fraiches surement d'ici 3-4 mois minimum je pense


Message édité par stephane910 le 28-12-2010 à 19:49:32
n°7720572
nofoger
Posté le 28-12-2010 à 19:55:57  profilanswer
 

Wirmish a écrit :

Tu crois qu'on va tomber aussi facilement dans ton troll velu ?


oui car fin du hs :D  
 
wirmish elle dit quoi deja ta boule de cristal ?

n°7720671
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 28-12-2010 à 21:08:26  profilanswer
 

nofoger a écrit :

wirmish elle dit quoi deja ta boule de cristal ?


Elle dit ceci (plus ça) et cela.

n°7721135
0b1
There's good in him
Posté le 29-12-2010 à 10:04:11  profilanswer
 

buffo a écrit :

Si on se débrouille un peu on peut... Ensuite donne moi l'utilité de MacOS, alors qu'un base UNIX fait pareil


C'est clair que c'est super facile a utiliser pour l'utilisateur moyen.
Amuse toi a tester une BSD tu vas vite changer d'avis :o

n°7721152
buffo
Redfarceur :o
Posté le 29-12-2010 à 10:15:42  profilanswer
 

0b1 a écrit :


C'est clair que c'est super facile a utiliser pour l'utilisateur moyen.
Amuse toi a tester une BSD tu vas vite changer d'avis :o

 

Bon ça doit pas être ici que je l'ai dis, mais je bosse sur solaris (ou freebsd, et tant d'autres), donc tout ça hein...

 

Ensuite Ubuntu c'est pas fait pour les chiens :o

 

Et puis je me rends compte qu'en réalité, c'est tous les appeuliens qui essaient de justifier leur achat démesuré, qui à l'arrivée fait décoration :o

 

1700€ dans un MBP en neuf, alors qu'au même prix y'a moyen de trouver un PC portable de qualité largement bien supérieur en perfs, et pas forcément moins bien en qualité même si c'est sur ce sera jamais aussi fin. M'enfin vu comment ça chauffe j'ai envie de dire que ça sert à rien, surtout que à quoi bon être fin en fait? Le transport? De toute façon les sacoches pour portables seront toujours grosses....
On peut aussi trouver un PC portable équivalent, pour un tarif de 800 ou 900€, et à côté t'as gagné une tour gamer avec les ~1000€ qu'il te reste. Donc 1700€ injustifiable, là que quelqu'un ose dire le contraire

 

Donc non, je cherche encore.

 

STOP HS pour moi j'avais dis :o

Message cité 1 fois
Message édité par buffo le 29-12-2010 à 10:27:04

---------------
On peut voir si une femme est vraiment belle, le matin, quand elle se réveille
n°7721167
0b1
There's good in him
Posté le 29-12-2010 à 10:28:14  profilanswer
 

Tu peux pas comparer Ubuntu a une BSD. D'abord c'est même pas un système UNIX contrairement a MacOS qui s'en rapproche davantage.

n°7721168
samosasse
Posté le 29-12-2010 à 10:28:46  profilanswer
 

buffo a écrit :


 
Bon ça doit pas être ici que je l'ai dis, mais je bosse sur solaris (ou freebsd, et tant d'autres), donc tout ça hein...
 
Ensuite Ubuntu c'est pas fait pour les chiens :o
 
Et puis je me rends compte qu'en réalité, c'est tous les appeuliens qui essaient de justifier leur achat démesuré, qui à l'arrivée fait décoration :o


LOL
Voilà un exemple de discussion entre un utilisateur windows et un utilisateur Mac :  
- Il est beau mon Macbook hein ?!!  
- Magnifique, à quoi te sert-il ?
- A naviguer sur Internet et faire du traitement de texte.
- Ah ouais... C'est génial Mac ! (pour pas le contrarier)
 

n°7721169
buffo
Redfarceur :o
Posté le 29-12-2010 à 10:30:56  profilanswer
 

0b1 a écrit :

Tu peux pas comparer Ubuntu a une BSD. D'abord c'est même pas un système UNIX contrairement a MacOS qui s'en rapproche davantage.

 

Mouais, enfin même si les programmes externes sont différents, les noyaux ont la même base, et les programmes sont compatibles sous réserve d'une simple recompilation, ensuite pour le dev ou autres choses liées aux systèmes plus orientés "pros", aucune différence  [:prodigy]

 

Et bref, qu'est ce que ça change que Mac se rapproche plus d'unix, ben rien, les softs sont plus ou moins les mêmes...  :sleep:

 

bref a quoi bon essayer de mettre Apple sur un pied d'estale, y'a longtemps qu'on a démonté tous les arguments, tout simplement parce qu'ils n'existent pas, à par les dimensions et la qualité.


Message édité par buffo le 29-12-2010 à 10:33:12

---------------
On peut voir si une femme est vraiment belle, le matin, quand elle se réveille
n°7721173
buffo
Redfarceur :o
Posté le 29-12-2010 à 10:35:24  profilanswer
 

Et maintenant, STOP HS BOURDAÿL avant qu'un modo passe par là  [:_-neon-_:1]

 

j'ai pas envie de me retrouver...  [:antptt]


Message édité par buffo le 29-12-2010 à 10:35:47

---------------
On peut voir si une femme est vraiment belle, le matin, quand elle se réveille
n°7721200
wazany
Posté le 29-12-2010 à 10:55:53  profilanswer
 

Allez hop [:haltias]  
j'ai pas lu tout le topic ( la flegme) il y as pas d'information intéressante à savoir ( surtout si elle sorte en 2011 en fait ^^ )?? merki :D


---------------
L'annuaire des serveurs Discord Hardware.fr Aidez nous à le compléter ! | Mes ventes
n°7721276
stephane91​0
Posté le 29-12-2010 à 11:28:45  profilanswer
 

wazany a écrit :

Allez hop [:haltias]  
j'ai pas lu tout le topic ( la flegme) il y as pas d'information intéressante à savoir ( surtout si elle sorte en 2011 en fait ^^ )?? merki :D


Non aucune info pour le moment.

n°7721287
Tahitiflo
éponge carré(e)
Posté le 29-12-2010 à 11:31:53  profilanswer
 

wazany a écrit :

Allez hop [:haltias]  
j'ai pas lu tout le topic ( la flegme) il y as pas d'information intéressante à savoir ( surtout si elle sorte en 2011 en fait ^^ )?? merki :D


 
t as rien perdu sur les 2 dernieres pages,le hs était de mise. :pfff:


---------------
Je ne sais pas si HFR rend fou, ou si c'est un asile de fou.©havoc_28    We are doomed
n°7721548
couillesho​t
Les bouboules et la boubouche
Posté le 29-12-2010 à 13:59:10  profilanswer
 

en 2008/2009 quand AMD parlait de "Hecatoncheires" cela correspondait aux HD6900 ou HD7000?
 
http://www.presence-pc.com/actuali [...] res-36755/
 
et quid du RV970??  :??:


---------------
:o :o :o
n°7721705
Zack38
Posté le 29-12-2010 à 15:13:21  profilanswer
 

L'autre nom de Cypress est RV870. Je te laisse deviner l'autre nom qu'aurait pu avoir le GPU Cayman.
 
Par contre, c'est vrai qu'Hecatonchire semble être passé à la trappe. Pour le moment en tout cas.
En effet, les HD7k, leur nom de code c'est Northern (ou Southern ? sais plus) Islands, donc les GPU devraient logiquement avoir des noms de code d'îles. (ou de crocos :D ) Or, Hécatonchire c'est en rapport avec la mythologie. Je pense donc que si des GPUs avec un tel nom de code devraient sortir, ce seraient au minimum les HD8k.

n°7721843
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-12-2010 à 16:37:16  profilanswer
 

Cayman, 389mm², Bus de 256 bit :
http://filesmelt.com/dl/Cayman_Pins.png
 
Malgré son petit bus, le dessous du Cayman est bien rempli.
Et la bande passante suffit tout juste à nourrir le GPU.
 
Je vous demande maintenant d'imaginer le successeur du Cayman qui sera gravé en 28nm.
Les 28nm permet de diminuer de moitié la taille d'une puce en 40nm.
Autrement dit le Cayman de 389mm² ne mesurerait plus que 190mm² en 28nm.
 
Et pourtant, un Cayman en 28nm aurait les mêmes specs que la version en 40nm.
Ce qui veut dire que ce "mini-Cayman" aurait 1536 ALUs, 96 TMUs, et 32 ROPs, soit un bus de 256 bit.
Mais comment AMD pourrait mettre toutes les pins nécessaires au branchement des puces mémoire sous une puce ayant une superficie diminuée de moitié ?
 
La réponse c'est qu'il est impossible de mettre toutes les pins du Cayman sur une surface de 190mm².
Il est donc impossible d'avoir un bus de 256 bit.
Et dans ce cas il est impossible d'avoir une bande passante adéquate pour nourrir tous les ALUs et TMUs de ce "mini-Cayman".
Par conséquent il est inutile d'intégrer autant d'ALUs et de TMUs dans cette puce vu qu'ils vont se tourner les pouces.
 
Mais si on diminue le nombre d'ALUs et de TMUs, afin de créer un équilibre entre la bande passante réduite, on diminue d'autant plus la taille de la puce, ce qui diminue l'espace disponible pour les pins, ce qui risque de limiter d'avantage la taille du bus, et ainsi de suite.
 
Il faut donc équilibrer le nombre d'ALUs/TMUs et la bande passante, et donc la taille du bus, dès le début de la conception de la puce.
AMD doit donc calculer la taille minimale requise pour intégrer un bus de 64, 128, ou 256 bit.
Ensuite, il doit déterminer le nombre d'ALUs/TMUs maximum que ce bus pourra nourrir efficacement.
Puis, il doit calculer si ce nombre d'ALUs/TMUs entre dans une puce de cette taille.
Ce n'est qu'une fois que tous cela a été calculé qu'on peut passer à la conception de la puce finale.
 
 
Revenons-en au Cayman et au "mini-Cayman"...
 
Il est clair qu'une puce de 190mm² ne peut avoir un bus de 256 bit avec des puces de GDDR5 qui possèdent 170 pins chacune.
Seule le RV670 (HD 3800) avait un bus de cette taille sur un puce de 192mm² mais avec des puces de GDDR3/GDDR4 qui n'ont que 136 pins.
 
http://filesmelt.com/dl/GDDR5_PINS.png http://2.bp.blogspot.com/_BGvgroHHiOU/SHWnvRkpORI/AAAAAAAAApA/ZZjb_MzEytM/s320/GDDR5-Solder-ball-package.jpg
 
Donc, au mieux, une puce de 190mm² (mini-Cayman) pourrait avoir un bus de 192 bit, et donc 3/4 de la bande passante du Cayman actuel.
Cela voudrait dire que le bus ne pourrait satisfaire qu'environ 1152 ALUs et 72 TMUs, et que les perfs descendraient au niveau de Barts XT.
 
De plus, ce n'est pas dans les habitudes d'AMD d'utiliser des bus de 192, 320, ou 384 bit.
On pourrait alors penser que ce "mini-Cayman" ne serait pourvu que d'un bus de 128 bit, et d'une bande passante divisée par 2.
La moitié des ALUs et des TMUs se tourneraient alors les pouces, et les perfs seraient catastrophiques.
 
 
Selon moi il est clair que pour le 28nm, AMD devra commencer à utiliser des bus non standard, comme nVidia le fait depuis des années.
Il faudra aussi penser à utiliser un nouveau type de mémoire, accessible en série, c-à-d de type Chained-Memory-Chip (Copyright Wirmish  :p ).
 
http://filesmelt.com/dl/Chained-Memory-Chip.png
 
L'idée c'est d'ajouter une pin de plus, soit 171 pins, qui transporte un "0" lorsque le GPU veut accéder à la 1ère puce de mémoire, et un "1" lorsqu'il veut accéder à la 2e puce de mémoire.
De cette façon on n'a plus qu'à relier 1 puce mémoire sur 2 au GPU, ce qui diminue de moitié le nombre de pins sous celui-ci.
Par contre il faut utiliser une mémoire plus rapide car l'accès simultané aux 2 puces est impossible, ce qui diminue la bande passante.
 
Je vais devoir inventer une autre méthode afin de diviser le nombre de pins sans diminuer la bande passante...  :whistle:

Message cité 2 fois
Message édité par Wirmish le 29-12-2010 à 17:00:30
n°7721852
buffo
Redfarceur :o
Posté le 29-12-2010 à 16:43:56  profilanswer
 

Wirmish a écrit :

Il faudra aussi penser à utiliser un nouveau type de mémoire, accessible en série, c-à-d de type Chained-Memory-Chip (Copyright Wirmish).

 


 

C'est quoi ce copyright à la con? Tu nous fais du Apple like? :o

 

BTW merci pour l'explication :)


Message édité par buffo le 29-12-2010 à 16:44:18

---------------
On peut voir si une femme est vraiment belle, le matin, quand elle se réveille
n°7721887
Gigathlon
Quad-neurones natif
Posté le 29-12-2010 à 17:12:05  profilanswer
 

Wirmish a écrit :

Cayman, 389mm², Bus de 256 bit :
http://filesmelt.com/dl/Cayman_Pins.png
 
Malgré son petit bus, le dessous du Cayman est bien rempli.
Et la bande passante suffit tout juste à nourrir le GPU.
 
Je vous demande maintenant d'imaginer le successeur du Cayman qui sera gravé en 28nm.
Les 28nm permet de diminuer de moitié la taille d'une puce en 40nm.
Autrement dit le Cayman de 389mm² ne mesurerait plus que 190mm² en 28nm.
 
Et pourtant, un Cayman en 28nm aurait les mêmes specs que la version en 40nm.
Ce qui veut dire que ce "mini-Cayman" aurait 1536 ALUs, 96 TMUs, et 32 ROPs, soit un bus de 256 bit.
Mais comment AMD pourrait mettre toutes les pins nécessaires au branchement des puces mémoire sous une puce ayant une superficie diminuée de moitié ?
 
La réponse c'est qu'il est impossible de mettre toutes les pins du Cayman sur une surface de 190mm².
Il est donc impossible d'avoir un bus de 256 bit.
Et dans ce cas il est impossible d'avoir une bande passante adéquate pour nourrir tous les ALUs et TMUs de ce "mini-Cayman".
Par conséquent il est inutile d'intégrer autant d'ALUs et de TMUs dans cette puce vu qu'ils vont se tourner les pouces.
 
Mais si on diminue le nombre d'ALUs et de TMUs, afin de créer un équilibre entre la bande passante réduite, on diminue d'autant plus la taille de la puce, ce qui diminue l'espace disponible pour les pins, ce qui risque de limiter d'avantage la taille du bus, et ainsi de suite.
 
Il faut donc équilibrer le nombre d'ALUs/TMUs et la bande passante, et donc la taille du bus, dès le début de la conception de la puce.
AMD doit donc calculer la taille minimale requise pour intégrer un bus de 64, 128, ou 256 bit.
Ensuite, il doit déterminer le nombre d'ALUs/TMUs maximum que ce bus pourra nourrir efficacement.
Puis, il doit calculer si ce nombre d'ALUs/TMUs entre dans une puce de cette taille.
Ce n'est qu'une fois que tous cela a été calculé qu'on peut passer à la conception de la puce finale.
 
 
Revenons-en au Cayman et au "mini-Cayman"...
 
Il est clair qu'une puce de 190mm² ne peut avoir un bus de 256 bit avec des puces de GDDR5 qui possèdent 170 pins chacune.
Seule le RV670 (HD 3800) avait un bus de cette taille sur un puce de 192mm² mais avec des puces de GDDR3/GDDR4 qui n'ont que 136 pins.
 
http://filesmelt.com/dl/GDDR5_PINS.png http://2.bp.blogspot.com/_BGvgroHH [...] ackage.jpg
 
Donc, au mieux, une puce de 190mm² (mini-Cayman) pourrait avoir un bus de 192 bit, et donc 3/4 de la bande passante du Cayman actuel.
Cela voudrait dire que le bus ne pourrait satisfaire qu'environ 1152 ALUs et 72 TMUs, et que les perfs descendraient au niveau de Barts XT.
 
De plus, ce n'est pas dans les habitudes d'AMD d'utiliser des bus de 192, 320, ou 384 bit.
On pourrait alors penser que ce "mini-Cayman" ne serait pourvu que d'un bus de 128 bit, et d'une bande passante divisée par 2.
La moitié des ALUs et des TMUs se tourneraient alors les pouces, et les perfs seraient catastrophiques.
 
 
Selon moi il est clair que pour le 28nm, AMD devra commencer à utiliser des bus non standard, comme nVidia le fait depuis des années.
Il faudra aussi penser à utiliser un nouveau type de mémoire, accessible en série, c-à-d de type Chained-Memory-Chip (Copyright Wirmish  :p ).
 
http://filesmelt.com/dl/Chained-Memory-Chip.png
 
L'idée c'est d'ajouter une pin de plus, soit 171 pins, qui transporte un "0" lorsque le GPU veut accéder à la 1ère puce de mémoire, et un "1" lorsqu'il veut accéder à la 2e puce de mémoire.De cette façon on n'a plus qu'à relier 1 puce mémoire sur 2 au GPU, ce qui diminue de moitié le nombre de pins sous celui-ci.
Par contre il faut utiliser une mémoire plus rapide car l'accès simultané aux 2 puces est impossible, ce qui diminue la bande passante.
 
Je vais devoir inventer une autre méthode afin de diviser le nombre de pins sans diminuer la bande passante...  :whistle:


Ce post mérite un quote intégral pour la postérité... :o
 
Ce que tu veux inventer, ça s'appelle le Chip Select, et ça existe depuis les premières puces de RAM (voire avant en fait). En pratique, on l'utilise comme une ligne d'adressage en mettant les chips en parallèle sauf elle qu'on relie à une logique de contrôle plus ou moins complexe, ce que le mode Clamshell propre à la GDDR5 permet d'améliorer en ne mettant en parallèle que les lignes de commande (séparation du bus 32bits en 2 bus 16bits).

Message cité 1 fois
Message édité par Gigathlon le 29-12-2010 à 17:21:29
n°7721903
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-12-2010 à 17:20:04  profilanswer
 

Gigathlon a écrit :

Ce post mérite un quote intégral pour la postérité... :o


Mais à part me quoter, quel est ton point de vu sur la taille des puces en 28nm versus la taille du bus nécessaire pour satisfaire les unités de calcul du GPU ?
 

Gigathlon a écrit :

Ce que tu veux inventer, ça s'appelle le Chip Select, et ça existe depuis les premières puces de RAM (voire avant en fait).


Le Chip Select ça n'affecte qu'une puce, alors que moi je veux choisir parmis 2 puces différentes.
En fait mon idée ressemble beaucoup plus au mode Clamshell qui permet de doubler la quantité de mémoire par contrôleur, sauf que moi je ne veux pas doubler la quantité de mémoire mais réduire de moitié la quantité de pins sous le GPU.
 
EDIT: En fait y'a 2 types de Chip Select, et j'avais lu la définition du 1er type.
         Le 2e type de Chip Select est en tout point semblable à mon "invention".
         https://users.cs.fiu.edu/~downeyt/cda4101/chipselect.png
         Mais moi je fais comme RAMBUS, je met des copyright sur les inventions des autres, et j'empoche le cash! :)

Message cité 1 fois
Message édité par Wirmish le 29-12-2010 à 17:32:06
n°7721913
Gigathlon
Quad-neurones natif
Posté le 29-12-2010 à 17:26:26  profilanswer
 

Wirmish a écrit :

Mais à part me quoter, quel est ton point de vu sur la taille des puces en 28nm versus la taille du bus nécessaire pour satisfaire les unités de calcul du GPU ?


Mon point de vue est simple: regarde à quoi ressemble un Zacate avec son bus 64bits à 2 étages.
 
Oui, il faudra plus de bande passante que ce que devrait pouvoir fournir la GDDR5 et même n'importe quelle RAM "externe" avec 256 lignes, si c'est pas pour la prochaine génération ça sera pour la suivante et ça imposera de dédier plus d'espace aux contrôleurs/phy.

n°7721918
buffo
Redfarceur :o
Posté le 29-12-2010 à 17:29:00  profilanswer
 

AMD aura de toute façon pas le choix, comme tu l'as dit toi même on se trouve face à un goulot d'étranglement des données au niveau du bus mémoire, donc soit AMD s'adapte, soit c'est terminé. Ca fait bien trop longtemps qu'ils trainent leur bus de 256bits sur leurs GPU, j'espère que ils on prévu le coup à l'avance, m'enfin sait-on jamais...
 
Sinon du point de vue des dimensions du bus, je pense qu'il doit y avoir un moyen de passer par un genre de réducteur de pins, afin qu'ils puissent passer sur le chip. Mais de toute façon il faudra un bus >256 bit (320 bits?) pour assurer la BP pour le GPU.
 
M'enfin je fais confiance à notre ami AMD, qui déçoit parfois au premier coup d'oeil, et qui fait des trucs à la flashage de 6950 en 6970 :jap:


---------------
On peut voir si une femme est vraiment belle, le matin, quand elle se réveille
n°7721921
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-12-2010 à 17:30:13  profilanswer
 

On est donc d'accord sur le fait que la GDDR5+ devra se retrouver sur les Southern Islands, sans quoi les perfs des GPU en 28nm vont souffrir d'un manque de bande passante.

n°7721932
Gigathlon
Quad-neurones natif
Posté le 29-12-2010 à 17:34:59  profilanswer
 

buffo a écrit :

Sinon du point de vue des dimensions du bus, je pense qu'il doit y avoir un moyen de passer par un genre de réducteur de pins, afin qu'ils puissent passer sur le chip. Mais de toute façon il faudra un bus >256 bit (320 bits?) pour assurer la BP pour le GPU.


Le plus intéressant est la 1T-SRAM/eDRAM, à condition que la production à très grande échelle soit fiable.
 
Ca permettrait de créer des cartes très simples (excellent pour les très petits GPU) ou à l'inverse de doubler la quantité de RAM et la BP via l'ajout de RAM externe (comme actuellement)

n°7721954
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-12-2010 à 17:48:04  profilanswer
 

Encore plus intéressant serait le 3D Stacked Thyristor-RAM (NPN bipolar transistor eDRAM) die MCP.
 
http://www.intel.com/technology/itj/2007/v11i3/3-bandwidth/figures/figure_7_lg.gif
 
http://www.intel.com/technology/itj/2007/v11i3/3-bandwidth/figures/figure_8_lg.gif
 
http://www.intel.com/technology/itj/2007/v11i3/3-bandwidth/figures/paper3_table3_lg.gif
 

Citation :

"One solution to address the bandwidth challenge and to stave off the continued increase in package pin count is to incorporate memory into a CPU + Memory Multichip Package (MCP). This changes the paradigm of packaging and the role of packaging in the memory hierarchy. Whereas packaging has previously been an enabler of higher bandwidths, now packaging would become a crucial sub-level in the overall memory system hierarchy." - Intel

Message cité 1 fois
Message édité par Wirmish le 29-12-2010 à 17:53:02
n°7721997
mdc888
01010100 01101111 01110101 011
Posté le 29-12-2010 à 18:05:04  profilanswer
 

Wirmish a écrit :

Encore plus intéressant serait le 3D Stacked Thyristor-RAM (NPN bipolar transistor eDRAM) die MCP.
 
http://www.intel.com/technology/it [...] e_7_lg.gif
 
http://www.intel.com/technology/it [...] e_8_lg.gif
 
http://www.intel.com/technology/it [...] le3_lg.gif
 

Citation :

"One solution to address the bandwidth challenge and to stave off the continued increase in package pin count is to incorporate memory into a CPU + Memory Multichip Package (MCP). This changes the paradigm of packaging and the role of packaging in the memory hierarchy. Whereas packaging has previously been an enabler of higher bandwidths, now packaging would become a crucial sub-level in the overall memory system hierarchy." - Intel



 
Intéressant effectivement...
Mais quid du cout de prod d'un telle soluce ? :/
 
Je me dde aussi ce qu'a prévu Nvidia la dessus, car le problème est le même pour eux...

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  13  14  15  ..  987  988  989  990  991  992

Aller à :
Ajouter une réponse
 

Sujets relatifs
AMD 6850 ou Nvidia gtx 460 ?Une question rapide pour l'achat d'un ssd+chip7 AMD
Choix alimentation (i5 760 et AMD HD6870) ?Radeon HD6870 vs Geforce 460 GTX vs GTX 470
Quel Radeon HD pour un 32" ?[Topic unique] LanBoy Air
radeon 6850Home Cinema : AMD / nVidia
ventilateur AMD Phenom II X2 555 Black...SSD sur contrôleur AMD, AHCI ou IDE, et quels pilotes ?
Plus de sujets relatifs à : [Topic Unique] AMD Radeon R9/R7 200; HD 7000 Southern Islands (28nm)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)