Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2453 connectés 

 

 

L'évolution de votre machine...




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  11  12  13  ..  988  989  990  991  992  993
Auteur Sujet :

[Topic Unique] Processeurs AMD Bulldozer FX-8100/6100/4100 (32nm)

n°7242884
Zack38
Posté le 11-12-2009 à 17:31:33  profilanswer
 

Reprise du message précédent :

regis183 a écrit :

D'un point de vue marketing ça l'est, car à comparer deux procs similaires, le Llano sera bien plus homogène que le Sandy-bridge.
 
En même temps il n'y a pas besoin d'attendre un an. Un simple athlon II couplé à une carte en RV830 (à sortir bientôt), et hop on a notre Llano.
 
Donc on récapitule:
quad Sandybridge < Llano = AthlonII + CGmin < Penryn +CGmin.  :ouch:
 
Conclusion: avec un petit Q8300 (ou même un vieux Q6600) on est tranquille pour un bout de temps   :lol:


 
Sauf que le Llano sera complètement en 32nm (ou 32nm pour le CPU et 40nm pour le GPU), alors que le Q8200 est en 45nm .
 

Gigathlon a écrit :


Si Bobcat est effectivement en 40nm initialement, on peut penser qu'ils passeront au 28nm puisque le 40nm est un process bulk lui-aussi ;)
 
"Bobcat 1" @40nm bulk, CPU.
"Bobcat 2" @28nm bulk, APU (2 cores CPU + GPU).
 
Logiquement, ce segment ne devrait pas évoluer au-delà du combo CPU+GPU, contrairement aux segments high performance qui devraient concrétiser le projet Fusion bien après Bulldozer (le fameux diagramme à base de "~" et "." présenté par AMD : une archi capable de traiter indifféremment du code typé CPU - les "." - ou "Stream" - les "~" -, avec les avantages des 2 mondes).


 
Quel diagramme ?!?
Tu pourrais le retrouver ? Merci ! :)

mood
Publicité
Posté le 11-12-2009 à 17:31:33  profilanswer
 

n°7242885
Profil sup​primé
Posté le 11-12-2009 à 17:32:30  answer
 

qqun sait pk je reçois des mails à chaque post sur ce topic ?
ça se passe seulement sur ce topic :o

n°7242889
NoradII
Il y a 17 ans naquit un PC
Posté le 11-12-2009 à 17:34:25  profilanswer
 

Zack38 a écrit :


 
Sauf que le Llano sera complètement en 32nm (ou 32nm pour le CPU et 40nm pour le GPU), alors que le Q8200 est en 45nm .


faut zappé cette idée de suite, parce qu'utiliser deux proceder de gravure sur un wafer c'est juste inutile, cher et sans interêt qui plus est !!! :pt1cable:

Message cité 1 fois
Message édité par NoradII le 11-12-2009 à 17:34:51

---------------
valid.x86.fr/575505 /842925 /902578
n°7242897
chrisleurn
Hardcore Will Never Die !
Posté le 11-12-2009 à 17:39:05  profilanswer
 


La petite icone en haut a droite http://forum-images.hardware.fr/themes_static/images_forum/1/subscribe.gif  :D

n°7242904
Zack38
Posté le 11-12-2009 à 17:43:36  profilanswer
 


 


 
 [:al zheimer]  
 

NoradII a écrit :


faut zappé cette idée de suite, parce qu'utiliser deux proceder de gravure sur un wafer c'est juste inutile, cher et sans interêt qui plus est !!! :pt1cable:


 
Tant mieux, il sera tout en 32nm ! :)

n°7242912
NoradII
Il y a 17 ans naquit un PC
Posté le 11-12-2009 à 17:48:51  profilanswer
 

Zack38 a écrit :

Tant mieux, il sera tout en 32nm ! :)


 :jap:


---------------
valid.x86.fr/575505 /842925 /902578
n°7242928
Zack38
Posté le 11-12-2009 à 18:04:55  profilanswer
 

La question, aujourd'hui, c'est :
Est-ce que ce sera TSMC qui produira le Llano ? (vu l'état des choses aujourd'hui, ça n'a pas l'air évident)
Si non, seras-ce UMC ou GF qui se chargera d'honorer la commande ?
 
Euh, deux questions, en fait . :D


Message édité par Zack38 le 11-12-2009 à 18:05:09
n°7243053
Gigathlon
Quad-neurones natif
Posté le 11-12-2009 à 19:35:30  profilanswer
 

Zack38 a écrit :

Quel diagramme ?!?
Tu pourrais le retrouver ? Merci ! :)


Celui en page 6 là : http://phx.corporate-ir.net/Extern [...] BlPTM=&t=1
 
On voit bien qu'il est question d'abord de coupler un GPU et un CPU dans le même die, puis de les fusionner pour obtenir un nouveau type d'architecture.

n°7243059
NoradII
Il y a 17 ans naquit un PC
Posté le 11-12-2009 à 19:42:31  profilanswer
 

a long terme c'est un truc qui va arriver, puisque la puissance de calcul de CPU et d'un GPU sont de deux mondes différents  :ange:


---------------
valid.x86.fr/575505 /842925 /902578
n°7243071
Gigathlon
Quad-neurones natif
Posté le 11-12-2009 à 19:51:44  profilanswer
 

NoradII a écrit :

a long terme c'est un truc qui va arriver, puisque la puissance de calcul de CPU et d'un GPU sont de deux mondes différents  :ange:


Les charges sont différentes, mais les calculs, eux... :o
 
La raison de cette fusion est très bien expliquée je trouve : trop de contraintes avec le multi-cores, du coup autant passer à un autre modèle de programmation, héritant à la fois des actuels CPU et GPU.
 
Bulldozer est une première tentative si leurs illustrations ne sont pas volontairement trompeuses, au final on devrait retrouver de plus en plus de pipelines d'exécution sous un même décodeur, et donc ni plus ni moins que le shader core d'un GPU derrière un étage de décodage...
 
C'est proche de ce que nVidia a tenté avec Fermi en fait, mais AMD a probablement plus de background sur les CPU et leurs fréquences élevées, sans oublier que la cible est beaucoup moins élitiste (y'a que le caméléon pour sortir des bestiaux de 500mm² au lieu d'attendre sagement que l'archi soit réalisable).

mood
Publicité
Posté le 11-12-2009 à 19:51:44  profilanswer
 

n°7243108
NoradII
Il y a 17 ans naquit un PC
Posté le 11-12-2009 à 20:16:29  profilanswer
 

Gigathlon a écrit :


Les charges sont différentes, mais les calculs, eux... :o
 
La raison de cette fusion est très bien expliquée je trouve : trop de contraintes avec le multi-cores, du coup autant passer à un autre modèle de programmation, héritant à la fois des actuels CPU et GPU.
 
Bulldozer est une première tentative si leurs illustrations ne sont pas volontairement trompeuses, au final on devrait retrouver de plus en plus de pipelines d'exécution sous un même décodeur, et donc ni plus ni moins que le shader core d'un GPU derrière un étage de décodage...
 
C'est proche de ce que nVidia a tenté avec Fermi en fait, mais AMD a probablement plus de background sur les CPU et leurs fréquences élevées, sans oublier que la cible est beaucoup moins élitiste (y'a que le caméléon pour sortir des bestiaux de 500mm² au lieu d'attendre sagement que l'archi soit réalisable).

+1 :) en même temps elle bluff grave leur gross puce  [:ramseys]


Message édité par NoradII le 11-12-2009 à 20:19:00

---------------
valid.x86.fr/575505 /842925 /902578
n°7243132
Zack38
Posté le 11-12-2009 à 20:30:19  profilanswer
 

Gigathlon a écrit :


Celui en page 6 là : http://phx.corporate-ir.net/Extern [...] BlPTM=&t=1
 
On voit bien qu'il est question d'abord de coupler un GPU et un CPU dans le même die, puis de les fusionner pour obtenir un nouveau type d'architecture.


 

NoradII a écrit :

a long terme c'est un truc qui va arriver, puisque la puissance de calcul de CPU et d'un GPU sont de deux mondes différents  :ange:


 

Gigathlon a écrit :


Les charges sont différentes, mais les calculs, eux... :o
 
La raison de cette fusion est très bien expliquée je trouve : trop de contraintes avec le multi-cores, du coup autant passer à un autre modèle de programmation, héritant à la fois des actuels CPU et GPU.
 
Bulldozer est une première tentative si leurs illustrations ne sont pas volontairement trompeuses, au final on devrait retrouver de plus en plus de pipelines d'exécution sous un même décodeur, et donc ni plus ni moins que le shader core d'un GPU derrière un étage de décodage...
 
C'est proche de ce que nVidia a tenté avec Fermi en fait, mais AMD a probablement plus de background sur les CPU et leurs fréquences élevées, sans oublier que la cible est beaucoup moins élitiste (y'a que le caméléon pour sortir des bestiaux de 500mm² au lieu d'attendre sagement que l'archi soit réalisable).


 
Je crains que le projet d'AMD ne tombe à l'eau vu comme ça ... puisqu'Intel semble bien décidé à conserver le ^m genre d'architecture, avec davantage de cores, comme le montre son prototype de 48 cores x86 .
 
Pour moi, l'architecture à laquelle AMD voudrait aboutir, c'est des cores capables de gérer les threads compliqués et en ^m temps d'avoir une haute puissance de calcul ... malheureusement, polyvalence et vélocité ne riment pas . AMD a peu de chances de réussir si là est son dessein .
 
A mes yeux, le top, ce serait par exemple un réseau de cores x86 reliés entre eux par le biai de fibre optique, chacun possédant un certain nombre de shaders dédiés et ne pouvant reçevoir d'ordres que de lui . Comme ça, les cores pourraient gérer les threads complexes et transférer la gestion des applis optimisées GPGPU aux shaders, plus véloces .
Ce serait bien, non ? Ou il vaut mieux privilégier une archi où les shaders sont disponibles pour tous les cores ?

n°7243134
NoradII
Il y a 17 ans naquit un PC
Posté le 11-12-2009 à 20:33:02  profilanswer
 

Zack38 a écrit :


 
Je crains que le projet d'AMD ne tombe à l'eau vu comme ça ... puisqu'Intel semble bien décidé à conserver le ^m genre d'architecture, avec davantage de cores, comme le montre son prototype de 48 cores x86 .
 
Pour moi, l'architecture à laquelle AMD voudrait aboutir, c'est des cores capables de gérer les threads compliqués et en ^m temps d'avoir une haute puissance de calcul ... malheureusement, polyvalence et vélocité ne riment pas . AMD a peu de chances de réussir si là est son dessein .
 
A mes yeux, le top, ce serait par exemple un réseau de cores x86 reliés entre eux par le biai de fibre optique, chacun possédant un certain nombre de shaders dédiés et ne pouvant reçevoir d'ordres que de lui . Comme ça, les cores pourraient gérer les threads complexes et transférer la gestion des applis optimisées GPGPU aux shaders, plus véloces .
Ce serait bien, non ? Ou il vaut mieux privilégier une archi où les shaders sont disponibles pour tous les cores ?


Le dessein d'AMD a toujours été celui-là, Zack38, peut-être ne faudrait-il pas l'oublier  ;)


---------------
valid.x86.fr/575505 /842925 /902578
n°7243157
Zack38
Posté le 11-12-2009 à 20:49:02  profilanswer
 

Actuellement, AMD n'est pas en état d'investir assez en R&D pour aboutir au résultat escompté .
C'est sûr qu'une architecture de la sorte sera révolutionnaire, mais inutile pour le moment en tout cas . Il faudra beaucoup de travail de la part des développeurs pour que leurs applis tirent parti d'un tel CPU ...
 
Je suis assez perplexe quand je vois ça, puisque finalement, c'est le nombre qui fait la puissance . Un seul shader n'est pas très puissant . Si AMD veut fusionner un core x86 et un shader, le résultat ne sera pas vraiment satisfaisant . Et s'il faut en fusionner plusieurs, je dis pas le boulot ni la taille du die au final ... :sarcastic:

n°7243244
josedsf
Posté le 11-12-2009 à 21:44:59  profilanswer
 

Wirmish a écrit :

Un début d'explication du pourquoi que l'archi actuelle d'AMD n'est pas aussi performante que celle d'Intel:
 
Si AMD a amélioré la latence de ces instructions, ça va faire beaucoup de bien au Bulldozer.


RWT avait essayé de comprendre, sans grand succès :
http://www.realworldtech.com/page. [...] 2808015436
 

Wirmish a écrit :

Comparaison d'une core de Phenom II s'il était gravé en 32nm, et un core de Westmere en 32nm. Les 2 avec la même quantité de cache.
http://chip-architect.com/news/32nm_core_compare.jpg


Comment as tu trouvé l'image, aucune news n'apparait sur leur site.
 

boblion a écrit :

J'aime bien Wirmish mais c'est pas un peu le fils caché de Paco Rabanne et de la madame Irma du forum ?
 
Est ce que toutes tes prédictions se sont révélées juste jusqu'à ce jour [:transparency]


Humm je n'ai pas souvenir de prédiction de sa part antérieurement.

Zack38 a écrit :


 
Qui se charge de réorganiser le flux de données+instructions exécutées, alors ?


Les derniers étages du pipeline, situés après les unités d'exécution. Tu devrais lire ce mémento sur le pipelining
http://arstechnica.com/old/content [...] ning-1.ars
Le fait de mettre les instruction dans le désordre suppose aussi des transistors de traçabilité des instructions. On en parle rarement, mais plus un pipeline compte d'étages et plus il faut de ces transistors. C'est un des facteurs qui plombaient le p4.
 
Les 4 étapes d'exécution classiques sont :
chargement (fetch)
décodage/répartition (dispatch)
exécution proprement dite
remise dans l'ordre/écriture en mémoire

Zack38 a écrit :

Actuellement, AMD n'est pas en état d'investir assez en R&D pour aboutir au résultat escompté .
C'est sûr qu'une architecture de la sorte sera révolutionnaire, mais inutile pour le moment en tout cas . Il faudra beaucoup de travail de la part des développeurs pour que leurs applis tirent parti d'un tel CPU ...
 
Je suis assez perplexe quand je vois ça, puisque finalement, c'est le nombre qui fait la puissance . Un seul shader n'est pas très puissant . Si AMD veut fusionner un core x86 et un shader, le résultat ne sera pas vraiment satisfaisant . Et s'il faut en fusionner plusieurs, je dis pas le boulot ni la taille du die au final ... :sarcastic:


Qu'appelles tu un shader exactement ?

Message cité 2 fois
Message édité par josedsf le 11-12-2009 à 22:01:36

---------------
Guide cpu / Zen6-7
n°7243267
Zack38
Posté le 11-12-2009 à 22:05:19  profilanswer
 

josedsf a écrit :

Qu'appelles tu un shader exactement ?


 
Une unité vectorielle, par exemple un "CUDA Core" .
Le genre d'unité incapable d'exécuter les instructions x86, mais pouvant gérer très rapidement (bien plus que les cores x86, d'où la naissance du GPGPU) les opérations simples .

Message cité 1 fois
Message édité par Zack38 le 12-12-2009 à 10:54:54
n°7243273
Gigathlon
Quad-neurones natif
Posté le 11-12-2009 à 22:10:42  profilanswer
 

Zack38 a écrit :

Je suis assez perplexe quand je vois ça, puisque finalement, c'est le nombre qui fait la puissance . Un seul shader n'est pas très puissant . Si AMD veut fusionner un core x86 et un shader, le résultat ne sera pas vraiment satisfaisant . Et s'il faut en fusionner plusieurs, je dis pas le boulot ni la taille du die au final ... :sarcastic:


Sitôt qu'on a compris comment est fait un CPU, on se rend compte que tout ça n'est qu'un épais brouillard dû à un manque de perspective ;)
 
Un "shader" comme tu le dis, c'est ni plus ni moins que plusieurs unités spécialisées mises côte à côte, pour au final être activées sélectivement par le biais d'une commande.
 
Si je donne à mon unité 1 la fonction d'addition et à mon unité 2 la fonction de multiplication, en fonction de l'opcode je pourrai exécuter l'une ou l'autre des opérations.
 
Contrairement à ce que tu sembles penser, un shader processor est proche d'un CPU in order complet, et au final une HD5870 contient donc pas moins de 20 processeurs capables de réaliser de 1 à 5 opérations par cycle par paquets de 16.
 
De son côté, un GF100 est composé de 16 processeurs capables de réaliser 2 opérations par cycle sur des paquets de 16 données.
 
Si tu reprends un schéma fonctionnel de CPU 8bits, tu verras un peu mieux ce dont je parle, et tu devrais au passage t'apercevoir que quelque chose a changé depuis lors dans nos chers CPU, et pas forcément dans le bon sens (à l'origine, le contrôleur mémoire en faisait directement partie...)

n°7243294
Gigathlon
Quad-neurones natif
Posté le 11-12-2009 à 22:24:59  profilanswer
 

josedsf a écrit :

Les derniers étages du pipeline, situés après les unités d'exécution. Tu devrais lire ce mémento sur le pipelining
http://arstechnica.com/old/content [...] ning-1.ars
Le fait de mettre les instruction dans le désordre suppose aussi des transistors de traçabilité des instructions. On en parle rarement, mais plus un pipeline compte d'étages et plus il faut de ces transistors. C'est un des facteurs qui plombaient le p4.
 
Les 4 étapes d'exécution classiques sont :
chargement (fetch)
décodage/répartition (dispatch)
exécution proprement dite
remise dans l'ordre/écriture en mémoire


Si on réfléchit un peu, on se rend compte que l'écriture en mémoire est directe, puisque les instructions sont exécutées dans un ordre qui ne permet aucune confusion. Si un branchement a été mal prédit, le pipeline est simplement invalidé et re-rempli quand arrive la vérification, qui a quand même lieu avant l'obtention du premier résultat de la "mauvaise branche", tout du moins c'est comme ça que je l'ai compris.

n°7243320
josedsf
Posté le 11-12-2009 à 22:42:43  profilanswer
 

Gigathlon a écrit :


Si on réfléchit un peu, on se rend compte que l'écriture en mémoire est directe, puisque les instructions sont exécutées dans un ordre qui ne permet aucune confusion. Si un branchement a été mal prédit, le pipeline est simplement invalidé et re-rempli quand arrive la vérification, qui a quand même lieu avant l'obtention du premier résultat de la "mauvaise branche", tout du moins c'est comme ça que je l'ai compris.


Tu as raison, c'est bien expliqué ici, avec le système de queues :
http://en.wikipedia.org/wiki/Out_of_order_execution


---------------
Guide cpu / Zen6-7
n°7243415
Gigathlon
Quad-neurones natif
Posté le 11-12-2009 à 23:56:54  profilanswer
 

D'ailleurs ça me fait repenser à cette hypothèse sur la convergence/divergence des threads potentiellement rendue possible par le décodeur global...
 
X threads sont envoyés au décodeur, qui mélange le tout et transforme ça en instructions "natives" (pas des µOps mais des "fronts de µOps" pour remplir les différents pipelines). Il est tout à fait possible d'augmenter sensiblement les perfs avec ce type de réorganisation et au final 1 seul des "cores" du module Bulldozer pourrait exécuter les X threads entrants, ou les 2 si nécessaire, sans jamais subir de pénalité contrairement au SMT.
 
Reste qu'ils doivent aussi améliorer les performances de leurs caches.

n°7243448
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 12-12-2009 à 00:28:57  profilanswer
 

Le truc pour améliorer les perfs de traitement des macro-ops -> micro-ops, c'est d'utiliser la fusion de micro-ops et de macro-ops.
 
micro-ops: oad reg1,[mem32]
               add reg2,reg1
  fusion -> add reg1,[mem32]
 
macro-ops: cmp eax,[mem32]
                jne target
   fusion -> cmpjne eax,[mem32],target
 

Citation :

The purpose of macro-fusion is really not much to reduce the number of x86 instructions to be decoded, but again to reduce decode interruptions/stalls due to predicted-taken branches.


 

Citation :

"Instruction scheduling hardware can be simplified and easily pipelined if pairs of dependent instructions are fused so they share a single instruction scheduling slot. We study an implementation of the x86 ISA that dynamically translates x86 code to an underlying ISA that supports instruction fusing. A microarchitecture that is co-designed with the fused instruction set completes the implementation. In this paper, we focus on the dynamic binary translator for such a co-designed x86 virtual machine. The dynamic binary translator first cracks x86 instructions belonging to hot superblocks into RISC-stylemicro-operations, and then uses heuristics to fuse together pairs of dependent micro-operations. Experimental results with SPEC2000 integer benchmarks demonstrate that: the fused ISA with dynamic binary translation reduces the number of scheduling decisions by about 30% versus a conventional implementation that uses hardware cracking into RISCmicro-operations; an instruction scheduling slot needs only hold two source register fields even thoughit may hold two instructions; translations generated in the proposed ISA consume about 30% less storage than a corresponding fixed-length RISC-style ISA." (Source)


Message édité par Wirmish le 12-12-2009 à 00:35:34
n°7243522
NoradII
Il y a 17 ans naquit un PC
Posté le 12-12-2009 à 02:27:46  profilanswer
 

Zack38 a écrit :

Il faudra beaucoup de travail de la part des développeurs pour que leurs applis tirent parti d'un tel CPU.
:non: Pas forcément la transparence de ces unités de calcul est un facteur primordial pour AMD qui va de plus en plus dans ce sens et on ne peut que saluer cet état de fait que en saluant le QuadCore Native du Phenom, qui était plus un défi technologique pour AMD qu'une réussite commeciale, ce qui lui allais finalement très bien :jap:.
 
Je suis assez perplexe quand je vois ça, puisque finalement, c'est le nombre qui fait la puissance. Un seul shader n'est pas très puissant .
Le vrai problème de viens pas de là. Il y a quelque temps, les fondeurs se rendirent compte des limitations monocoriennes que cela soit en polyvalence d'exécution que en fréquences. Pour rappel dans les années 90 et ce pendant près de 10 ans, tout les processeurs disponible sur le marché avait réussi a triplé tout leur atout, que cela soit le cache de 64-128Ko à 512Ko, les extensions ou instructions simple x86 pour finir MMX/3Dnow!, SSE & SSE2, mais surtout leurs fréquences, passant ainsi de 400 à 1400 Mhz :ouch: ! je reste néanmoins perplexe vu que pour moi le meilleur noyau étant le ClawHammer ou le SledgeHammer :jap:. Mais le nombre ne fait effectivement la puissance, uniquement depuis que les calculs sont devenus massivement parallèle et multi-threadé :pfff:
 
Si AMD veut fusionner un core x86 et un shader, le résultat ne sera pas vraiment satisfaisant et s'il faut en fusionner plusieurs, je dis pas le boulot ni la taille du die au final ... :sarcastic:
La logique de cela, en allant dans ce sens serait plutôt de pouvoir "personnaliser" la puissance de sortie d'un core CPU en celui d'un core GPU, capable alors de manipuler les index des données en même temps que les données comme un "'shader'" core sait le faire en traitant,  et ce depuis les architectures unifiées, à la fois les sommets/vertices et les géométries/effets
[:dream49]


Le tirage dans les pattes n'est pas une méthode productive, cher meussieu  ;)  

Zack38 a écrit :

Une unité vectorielle, par exemple un "CUDA Core".
Le genre d'unité incapable d'exécuter les instructions x86, mais pouvant gérer très rapidement (bien plus que les cores x86, d'où la naissance du GPGPU) les opérations simples


[:ultravox]
les Shaders sont des sous-programmes x86 codés en 32, 64 ou même 128 bits, afin d'être traiter par des processeur "super-scalaire" (sisi  :) ). Bon la on s'égare du bulldo'  :whistle:  
 
 
 

Gigathlon a écrit :


Sitôt qu'on a compris comment est fait un CPU, on se rend compte que tout ça n'est qu'un épais brouillard dû à un manque de perspective ;)
Mais encore ?
 
Un "shader" c'est ni plus ni moins que plusieurs unités spécialisées mises côte à côte, pour au final être activées sélectivement par le biais d'une commande.
Oui c'est le principe d'exécution de se qu'on peut appeler des tâches spécifiées add mul et.. mais j'y pense c'est comme ça que marche un proco  :D   ;)
 
Si je donne à mon unité 1 la fonction d'addition et à mon unité 2 la fonction de multiplication, en fonction de l'opcode je pourrai exécuter l'une ou l'autre des opérations. Contrairement à ce que tu sembles penser, un shader processor est proche d'un CPU in order complet, et au final une HD5870 contient donc pas moins de 20 processeurs capables de réaliser de 1 à 5 opérations par cycle par paquets de 16. De son côté, un GF100 est composé de 16 processeurs capables de réaliser 2 opérations par cycle sur des paquets de 16 données. Si tu reprends un schéma fonctionnel de CPU 8bits, tu verras un peu mieux ce dont je parle, et tu devrais au passage t'apercevoir que quelque chose a changé depuis lors dans nos chers CPU, et pas forcément dans le bon sens (à l'origine, le contrôleur mémoire en faisait directement partie).
[:noradii] hein ? mhm ah oui pardon [:cricrou92] !!!


[:ostro gaud:1]


---------------
valid.x86.fr/575505 /842925 /902578
n°7243537
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 12-12-2009 à 03:25:03  profilanswer
 

Je veux pas faire de la peine à ceux qui pensent que les SP d'un GPU ne sont pas d'une grande utilité pour un CPU, mais suffit de voir le super-ordinateur chinois doté de 2560 Radeon HD 4870 X2 pour comprendre que c'est la voie du futur. Sans compter que les chinois peuvent remplacer ces X2 par des HD 5970 pour doubler la puissance de calcul GPU sans consommer d'avantage, et avoir en prime l'OpenCL sur les Compute Shaders.
 
Un petit vidéo: ICI

n°7243543
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 12-12-2009 à 03:55:17  profilanswer
 

Bon, je pense qu'il serait temps qu'on reparle un peu du petit Bulldozer...
 
AMD Valencia/Zambezi 8-Core (4 modules "Bulldozer" -> 8 INT / 4 FP)
 
http://blogs.amd.com/work/wp-content/uploads/2009/12/bulldozer-cache.jpg

n°7243545
Profil sup​primé
Posté le 12-12-2009 à 03:57:20  answer
 

trop petit

n°7243546
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 12-12-2009 à 04:00:46  profilanswer
 

Oh my god !  
 
Il se pourrait que le 32nm de GlobalFoundries soit pire que le 65nm d'AMD ! http://files.myopera.com/haru18/albums/260354/1153324693.gif
 

Citation :

Pressure Builds on Gate First High-k
 
Problems with the gate-first approach to high-k/metal gate deposition may force IBM to switch to the gate-last approach pioneered by Intel, technologists said this week at the International Electron Devices Meeting (IEDM) in Baltimore. GlobalFoundries and other members of the Fishkill Alliance are putting pressure on IBM to reconsider its gate-first approach, which technologists said has problems with yields, threshold voltage stability, and mobilities.


http://files.myopera.com/haru18/albums/260354/1181407086.gif

Message cité 1 fois
Message édité par Wirmish le 12-12-2009 à 04:26:28
n°7243547
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 12-12-2009 à 04:25:05  profilanswer
 

 


Message édité par Wirmish le 12-12-2009 à 04:26:02
n°7243597
Gein
Posté le 12-12-2009 à 09:50:49  profilanswer
 

Agena II le retour  :D


Message édité par Gein le 12-12-2009 à 09:51:00
n°7243605
josedsf
Posté le 12-12-2009 à 09:59:09  profilanswer
 

@NORADII
Pour rebondir sur l'histoire des fréquences qui plafonnent (le power wall : http://en.wikipedia.org/wiki/Multi [...] incentives ) et du multi thread, on pourrait ajouter qu'une certaine limite semble atteinte dans l'ILP (instruction level parallelism), et que cela oblige à passer à une échelle plus grande, le parallèlisme des threads, en tout cas pour les entiers (code riche en branches).
Parce qu'au lieu de rajouter des cores, on pourrait rajouter plus d'ALUs, mais il y a une limite aux performances, du fait que les ALUs glandent souvent lorsqu'elles sont en surnombre. D'où le SMT, et autre multitreadage.
 
Je vois le buldozer comme une approche intermédiaire entre l'ajout de cores complet et l'ajout d'ALUs. Cà n'a jamais été fait et il sera intéressant de voir le gain de performances.
 
@ TLM :
Si les GPU sont efficaces, c'est qu'ils s'occupent d'un code avec peu de branches. On aura toujours besoin de matériel généraliste à côté. Les GPU sont un gros plus pour les calculs "données intensifs", mais pour compiler un prog ou faire une IA, bah y a de la branche, du logique itou :D


Message édité par josedsf le 12-12-2009 à 10:14:45

---------------
Guide cpu / Zen6-7
n°7243616
seth-01
Posté le 12-12-2009 à 10:15:47  profilanswer
 

Wirmish a écrit :

Oh my god !  
 
Il se pourrait que le 32nm de GlobalFoundries soit pire que le 65nm d'AMD ! http://files.myopera.com/haru18/albums/260354/1153324693.gif
 


Citation :

Pressure Builds on Gate First High-k
 
Problems with the gate-first approach to high-k/metal gate deposition may force IBM to switch to the gate-last approach pioneered by Intel, technologists said this week at the International Electron Devices Meeting (IEDM) in Baltimore. GlobalFoundries and other members of the Fishkill Alliance are putting pressure on IBM to reconsider its gate-first approach, which technologists said has problems with yields, threshold voltage stability, and mobilities.http://files.myopera.com/haru18/albums/260354/1181407086.gif


Ohh my god !!!! bon ben faudra attendre le Bulldozer 2 alors comme ce fut le cas pour le premier Phenom :/

n°7243637
Zack38
Posté le 12-12-2009 à 10:59:48  profilanswer
 

J'espère que c'est une plaisanterie ... :sweat:  
Je redoutais ce facteur d'échec ... mais wirmish m'avait toujours affirmé le contraire .
 
Si le BD est une réussite architecturale, ça limitera peut-être la casse ... :whistle:  
Parce que les Agena avaient un process moisi et une architecture largement perfectible .
BD n'aura que le process pourri . On progresse . :D

n°7243668
Gigathlon
Quad-neurones natif
Posté le 12-12-2009 à 11:35:03  profilanswer
 

J'ai pas l'impression que ça soit particulièrement problématique avant un moment, et c'est ce qu'on retire des réponses des représentants d'IBM, qui disent grosso merdo "ça peut poser problème à l'avenir, mais on ne sait pas encore ce qu'il se passera et on devra probablement changer le process radicalement d'ici au 15nm, on conservera notre approche jusqu'au 28nm et on avisera pour les process suivants".
 
Donc pour résumer :
 
- problème impactant peu le 32nm
- changement radical à envisager pour le 22nm (dernier node avant le 15nm)
 
Il est même possible que cette approche soit la base du process 15nm malgré des prévisions à moyen terme péssimistes.

n°7243949
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 12-12-2009 à 15:27:05  profilanswer
 

Zack38 a écrit :

Je redoutais ce facteur d'échec ... mais wirmish m'avait toujours affirmé le contraire .


C'est IBM qui développe le process, alors moi je leur ai fait confiance.
Sauf que la news indique que GF, Chartered, Qualcomm, Toshiba, et quelques autres, ne sont pas satisfait des premiers échantillons.
Pourtant IBM continue de dire que le Gate First est plus simple...
J'ai maintenant tendance à croire GF au lieu d'IBM.
 
Reste plus qu'à prier.

n°7243952
NoradII
Il y a 17 ans naquit un PC
Posté le 12-12-2009 à 15:30:16  profilanswer
 

[:yoda_aloy]"La vérité seule, le temps venu, nous dira quid de la raison ou du tort"


---------------
valid.x86.fr/575505 /842925 /902578
n°7244988
Zack38
Posté le 13-12-2009 à 15:48:47  profilanswer
 

Wirmish a écrit :


C'est IBM qui développe le process, alors moi je leur ai fait confiance.
Sauf que la news indique que GF, Chartered, Qualcomm, Toshiba, et quelques autres, ne sont pas satisfait des premiers échantillons.
Pourtant IBM continue de dire que le Gate First est plus simple...
J'ai maintenant tendance à croire GF au lieu d'IBM.
 
Reste plus qu'à prier.


 
Fort heureusement, il reste encore bien six mois avant que le procédé ne soit officiellement prêt et utilisable à grande échelle .
Donc, pas la peine de s'alarmer pour le moment . Si d'ici quatre ou cinq mois les fondeurs ne sont toujours pas satisfaits de la qualité du procédé, le Bulldozer aura un handicap non-négligeable par rapport à son concurrent . J'espère que ce ne sera pas le cas . :sweat:

n°7245436
Ramichou
Posté le 13-12-2009 à 20:38:25  profilanswer
 

Ca fait cb de temps que Intel n'a pas foiré un process ?
 
AMD n'a vraiment pas besoin d'un handicap vu son état financier... Et il en ont déjà avec TSMC...

n°7245616
Silicium77​7
█▓▒░ 22 ans sur HFR! ░▒▓█
Posté le 13-12-2009 à 22:31:51  profilanswer
 

Ramichou a écrit :

Ca fait cb de temps que Intel n'a pas foiré un process ?
 
AMD n'a vraiment pas besoin d'un handicap vu son état financier... Et il en ont déjà avec TSMC...


En fin de 1999 à 2000 avec le 0,18µm et la transition aluminium --> cuivre pour les interconnexions.  
 
Quand pour faire l'évolution de son Pentium III (avec le cache L2 intégré à la puce), Intel s'est heurté à des rendements pas terribles au départ, et du mal à monter en fréquence. En face AMD, parti avec un peu de délai comme d'habitude (mais moins que les longs mois actuels) turbinait son Athlon 0,18µm à cadence de combat, 100 MHz par 100 MHz pour passer la barre du GHz avant Intel. AMD a très bien géré la transition aluminium --> cuivre, avec de bons rendements dès le départ. [:powa]
 
Voilà deux processeurs qui, outre des performances comparables à fréquence égale ont joué du coude-à coude tout du long. Sauf que le Pentium 3 s'est vautré en poussant à 1,13 GHz, alors que l'Athlon Thunderbird a vaillamment atteint 1,4GHz. Et même 1,7 GHz pour l'Athlon XP en 0,18µm.  
 [:tux rulezz]  
 
 
Il aura fallu attendre le 0,13µm pour voir Intel reprendre les devants avec le P4.
Mais c'est le seul cas où c'est arrivé.
 :sweat:


Message édité par Silicium777 le 13-12-2009 à 22:33:32
n°7245620
Profil sup​primé
Posté le 13-12-2009 à 22:34:19  answer
 

et la suprématie intellienne dura du P4 au Gulftown supplanté de loin par le vaillant Bulldozer  :sol:

n°7245622
Silicium77​7
█▓▒░ 22 ans sur HFR! ░▒▓█
Posté le 13-12-2009 à 22:40:46  profilanswer
 

Vente, peau de l'ours, tout ça... :whistle:

n°7247116
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 15-12-2009 à 04:27:30  profilanswer
 

Une autre news...

Citation :

What is neat about the Bulldozer design is that either "core" in the module can grab the scheduler and if the other core is not doing floating point, then it can take all 256 bits and do four double precision or eight single precision ops in a clock.
 
The Interlagos chips (12 et 16 cores) will come in standard speeds with the 75 watt power envelope, with slightly higher clock speeds coming with Special Edition (SE) parts that are rated at 105 watts, and Highly Efficient (HE) low-voltage parts rated at 55 watts.
 
The Valencia variants (6 et 8 cores) of the Bulldozer chips will come in standard, HE, and EE variants, but will not have SE parts. By chopping out the SE power requirements, AMD can make cheaper and more power-conserving Valencia parts.
 
This is exactly the same distribution of Opteron parts we will see in the first quarter of next year with the high-end Opteron 6100s and the low-end Opteron 4100s.
 
John Fruehe, director of server product marketing at AMD


Message édité par Wirmish le 15-12-2009 à 04:31:40
n°7247744
Zack38
Posté le 15-12-2009 à 16:44:33  profilanswer
 

Je MàJ, merci ;)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  11  12  13  ..  988  989  990  991  992  993

Aller à :
Ajouter une réponse
 

Sujets relatifs
[topic uniq] LanParty MI P55-T36 mini itx[Topic unique] Crucial M225 (Version 64, 128, 256 Go)
AMD Athlon 64 FX-57 overclocké à 3.1ghz s/A8N32-SLI Deluxe+SLI 8800GTX[Topic unique] Gigabyte GA-MA770T-UD3P
Erreur CRC WinRar Config AMD 3 Windows 7 64[Topic Unique] Thermaltake Level 10
Plus de sujets relatifs à : [Topic Unique] Processeurs AMD Bulldozer FX-8100/6100/4100 (32nm)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)