Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
723 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : 18 coeurs par Socket pour les Broadwell-EP en 2015

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

[HFR] Actu : 18 coeurs par Socket pour les Broadwell-EP en 2015

n°8978246
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 18-12-2013 à 16:20:02  profilanswer
1Votes positifs
 

On savait depuis avril dernier que les futurs Xeon E5-2600 V3, nom de code Haswell-EP, prévus pour le Socket 2011-3 embarqueront jusqu'à 14 cœurs et 35 Mo de ...
Lire la suite ...


Message édité par Marc le 18-12-2013 à 17:19:53
mood
Publicité
Posté le 18-12-2013 à 16:20:02  profilanswer
 

n°8978254
Profil sup​primé
Posté le 18-12-2013 à 16:24:20  answer
2Votes positifs
 

On a une idée de la surface du die ?

n°8978313
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 18-12-2013 à 17:20:11  profilanswer
7Votes positifs
 


Gros ... :D

n°8978333
Orochi
Posté le 18-12-2013 à 17:40:09  profilanswer
0Votes positifs
 

AVX-512 au programme ? Ou c'est pour la génération encore après ?


Message édité par Orochi le 18-12-2013 à 17:42:08
n°8978354
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 18-12-2013 à 17:54:10  profilanswer
0Votes positifs
 

AVX 512 ce n'est pas Broadwell mais Skylake, en 2014 en version desktop/portable et probablement 2016 en version serveur

n°8978361
cbo
Posté le 18-12-2013 à 18:00:22  profilanswer
0Votes positifs
 

Pour Skylake j'espère qu'ils sortiront au moins un 6 cœur 12 thread en version non E, 8/16 ça serait mieux

n°8978366
Profil sup​primé
Posté le 18-12-2013 à 18:03:59  answer
0Votes positifs
 

IBM  a des soucis à se faire, non?

n°8978398
Er1c
Higher is better
Posté le 18-12-2013 à 18:33:46  profilanswer
0Votes positifs
 

Etonnant que le multi core se développant si bien et si monstrueusement dans les CPUs, que ce ne soit pas le cas pour les GPUs.

n°8978405
iapx
euuuhhhh.....
Posté le 18-12-2013 à 18:39:13  profilanswer
8Votes positifs
 

Er1c a écrit :

Etonnant que le multi core se développant si bien et si monstrueusement dans les CPUs, que ce ne soit pas le cas pour les GPUs.


En fait les GPU sont monstrueusement multi-core, avec un grand nombre d'unités qui elle-mêmes exécutent plusieurs threads en parallèle, chaque thread réelle utilisant des unités de calculs vectorielles avec stockage des résultats conditionnels pour chaque entrée d'un vecteur.
 
Sans parler des fausses Threads accessibles en OpenCL ou CUDA, les GPU haut-de-gamme font tourner plus d'une centaine de threads en parallèle (chacune pouvant regrouper jusqu'à 64 entrées dans un vecteur).

n°8978406
Profil sup​primé
Posté le 18-12-2013 à 18:39:34  answer
9Votes positifs
 

Er1c a écrit :

Etonnant que le multi core se développant si bien et si monstrueusement dans les CPUs, que ce ne soit pas le cas pour les GPUs.


http://forum-images.hardware.fr/icones/smilies/heink.gif
Les GPU modernes sont intrinsèquement multi-core.

mood
Publicité
Posté le 18-12-2013 à 18:39:34  profilanswer
 

n°8978449
job31
Posté le 18-12-2013 à 19:15:46  profilanswer
1Votes positifs
 

Er1c a écrit :

Etonnant que le multi core se développant si bien et si monstrueusement dans les CPUs, que ce ne soit pas le cas pour les GPUs.


 
Jerry :D

n°8978469
Wils
Posté le 18-12-2013 à 19:29:21  profilanswer
0Votes positifs
 

A quand une fusion des deux (CPU et GPU) :??:
Cad avoir des cores multi-fonction capable de traiter des opérations que ferait un CPU ainsi que les opérations des GPU.
Comme cela si on a plus besoin de puissance CPU pour une application/tache "on" attribue plus de cores pour cette fonction et si une tache/application demande plus de puissance GPU "on" attribue plus de cores pour cette fonction. Et tout cela en auto et transparent pour l'utilisateur.


Message édité par Wils le 18-12-2013 à 19:30:03
n°8978509
ppaluplp
Posté le 18-12-2013 à 19:56:37  profilanswer
0Votes positifs
 

Er1c a écrit :

Etonnant que le multi core se développant si bien et si monstrueusement dans les CPUs, que ce ne soit pas le cas pour les GPUs.


Je viens de comprendre pourquoi il dit ça, il pensait au carte bi-gpu. Qui n'ont pas un intérêt énorme, puisqu'autant prendre un mono-gpu avec un nombre d'unités de calcul ultra élevé.

n°8978571
ockiller
Posté le 18-12-2013 à 20:36:31  profilanswer
3Votes positifs
 

Wils a écrit :

A quand une fusion des deux (CPU et GPU) :??:
Cad avoir des cores multi-fonction capable de traiter des opérations que ferait un CPU ainsi que les opérations des GPU.
Comme cela si on a plus besoin de puissance CPU pour une application/tache "on" attribue plus de cores pour cette fonction et si une tache/application demande plus de puissance GPU "on" attribue plus de cores pour cette fonction. Et tout cela en auto et transparent pour l'utilisateur.


On ne demande pas du tout la même chose à un CPU qu'à un GPU. Pour un GPU c'est facile, la tâche qu'il doit accomplir est massivement parallèle, donc on blinde d'unités de calcul et quand il y a besoin de masquer de la latence (attente d'une unité de texture par exemple), on n'a qu'à prendre un autre jeu de données (thread) pour faire tourner l'unité de calcul en attendant. C'est très schématique mais en gros sur un GPU on met le paquet sur la logique d'exécution et y a pas de gros besoins sur la logique de contrôle (bon c'est en train d'évoluer là aussi).
 
Pour un CPU la plupart du temps il n'a pas vraiment souvent des problèmes à traiter qui se parallélisent aussi bien, parce que sinon on serait maintenant capable de le faire traiter par le GPU de toutes façons. Il faut donc pousser vers plus de performances par thread, essayer de décortiquer la file d'instructions pour pouvoir être capable de faire tourner un maximum d'unités de calcul en parallèle. Et c'est pas simple à cause principalement de la nature séquentielle des instructions et des dépendances entre elles. C'est pour ça qu'on ne peut pas mettre autant d'unités de calcul, on ne pourrait pas toutes les exploiter en même temps, et on complexifie à mort la logique de contrôle pour trouver un maximum d'occasions de faire tourner celles présentes.
 
Donc non, a priori on continuera encore longtemps à voir une nette séparation entre CPU et GPU, et du coup ça ne semble pas très judicieux d'avoir beaucoup de coeurs pour la partie CPU...


Message édité par ockiller le 18-12-2013 à 20:38:43
n°8978646
Wils
Posté le 18-12-2013 à 21:35:49  profilanswer
0Votes positifs
 

ockiller,
 :jap: pour ces explications

n°8978702
tolunoide
Posté le 18-12-2013 à 22:21:21  profilanswer
0Votes positifs
 

18 cores, 36 threads, impressionnant !! Evidemment à 5000 euros le CPU, ce sera pas pour le quidam du coin et celui qui sait faire de la programmation parallèle aura plutôt intérêt à investir dans le GPU, beaucoup moins cher par TFlops.

n°8978744
jdemouth
Posté le 18-12-2013 à 22:47:02  profilanswer
0Votes positifs
 

@wils: En fait c'est déjà le cas sur les CPUs. Les unités SIMD (SSE, AVX) sont proches des unités des GPUs. L'idée de base est d'exécuter une instructions sur plusieurs données.  Pour autant, ce que dit ockiller est tout à fait juste. Les architectures sont fondamentalement différentes (latency vs throughput oriented).

n°8978754
marc_colli​n
Posté le 18-12-2013 à 22:51:45  profilanswer
1Votes positifs
 


 
pas vraiment
 
le power8 a 12 coeurs et chaque coeur supporte 8 threads
le sparc m6 a 12 coeurs et chaque coeur supporte 8 threads
Sparc X+ a 16 coeurs et chaque coeurs supporte 2 threads
 
spact t5 a 16 coeur et chaque coeur supporte 8 thread
 
faut voir combien de ram est supporté, bande passante, combien de socket est supporté par le mainframe
 
par exemple pour le  
 
spart X+, 64 cpu peut être mis dans un mainframe ce qui donne 2048 threads simultannée
sparc m6 , 96 cpu peut être mis dans un mainframe ce qui donne 9216 threads simultannée
 
l'architecture sparc est en autre libre


---------------
http://www.laboiteaprog.com
n°8978782
Singman
The Exiled
Posté le 18-12-2013 à 23:17:09  profilanswer
0Votes positifs
 

marc_collin a écrit :

l'architecture sparc est en autre libre


Je tousse un peu sur ta dernière phrase, dans le sens ou l'architecture du SPARC est libre mais son implémentation est propriétaire, c'est à dire que chaque constructeur fait sa tambouille pour améliorer la base qui est libre, sans un devoir d'en faire profiter les autres.
Les T1 (2006) et T2 (2008) sont les seules implémentations qui ont été rendu disponibles au public. Depuis, Oracle (qui a racheté Sun) a travaillé sur une nouvelle spécification mais je ne suis pas pas certain quelle soit "libre" (ou alors au sens Oracle du terme, c'est dire...).


Message édité par Singman le 18-12-2013 à 23:19:16
n°8978811
Mysterieus​eX
Chieuse
Posté le 18-12-2013 à 23:43:30  profilanswer
0Votes positifs
 

Wils a écrit :

A quand une fusion des deux (CPU et GPU) :??:
Cad avoir des cores multi-fonction capable de traiter des opérations que ferait un CPU ainsi que les opérations des GPU.
Comme cela si on a plus besoin de puissance CPU pour une application/tache "on" attribue plus de cores pour cette fonction et si une tache/application demande plus de puissance GPU "on" attribue plus de cores pour cette fonction. Et tout cela en auto et transparent pour l'utilisateur.

ockiller a écrit :

Wils a écrit :

A quand une fusion des deux (CPU et GPU) :??:
Cad avoir des cores multi-fonction capable de traiter des opérations que ferait un CPU ainsi que les opérations des GPU.
Comme cela si on a plus besoin de puissance CPU pour une application/tache "on" attribue plus de cores pour cette fonction et si une tache/application demande plus de puissance GPU "on" attribue plus de cores pour cette fonction. Et tout cela en auto et transparent pour l'utilisateur.


On ne demande pas du tout la même chose à un CPU qu'à un GPU. Pour un GPU c'est facile, la tâche qu'il doit accomplir est massivement parallèle, donc on blinde d'unités de calcul et quand il y a besoin de masquer de la latence (attente d'une unité de texture par exemple), on n'a qu'à prendre un autre jeu de données (thread) pour faire tourner l'unité de calcul en attendant. C'est très schématique mais en gros sur un GPU on met le paquet sur la logique d'exécution et y a pas de gros besoins sur la logique de contrôle (bon c'est en train d'évoluer là aussi).
 
Pour un CPU la plupart du temps il n'a pas vraiment souvent des problèmes à traiter qui se parallélisent aussi bien, parce que sinon on serait maintenant capable de le faire traiter par le GPU de toutes façons. Il faut donc pousser vers plus de performances par thread, essayer de décortiquer la file d'instructions pour pouvoir être capable de faire tourner un maximum d'unités de calcul en parallèle. Et c'est pas simple à cause principalement de la nature séquentielle des instructions et des dépendances entre elles. C'est pour ça qu'on ne peut pas mettre autant d'unités de calcul, on ne pourrait pas toutes les exploiter en même temps, et on complexifie à mort la logique de contrôle pour trouver un maximum d'occasions de faire tourner celles présentes.
 
Donc non, a priori on continuera encore longtemps à voir une nette séparation entre CPU et GPU, et du coup ça ne semble pas très judicieux d'avoir beaucoup de coeurs pour la partie CPU...


 
http://www.intel.fr/content/www/fr [...] etail.html
 
Ca vous dit quelque chose ? C'est du x86
 
Power et Sparc, c'pas trop la même chose, entre IBM/Apple/Motorola et Sun/Oracle ... Tu voulais peut être parler du CELL ?

n°8978859
krumli
Posté le 19-12-2013 à 00:32:26  profilanswer
0Votes positifs
 

tolunoide a écrit :

18 cores, 36 threads, impressionnant !! Evidemment à 5000 euros le CPU, ce sera pas pour le quidam du coin et celui qui sait faire de la programmation parallèle aura plutôt intérêt à investir dans le GPU, beaucoup moins cher par TFlops.


 
J'y vois surtout un intérêt pour la virtualisation (cloud, infra entreprise, etc...) comme VMware vend ses licences par CPU physique.
D'ailleurs ça serait sympa de voir des tests de CPU pro (Xeon et AMD jesaispasquoi) sur de la virtualisation.

n°8978920
ledesillus​ionniste
Posté le 19-12-2013 à 03:38:14  profilanswer
2Votes positifs
 

opteron

n°8978999
ockiller
Posté le 19-12-2013 à 08:53:19  profilanswer
1Votes positifs
 


Là c'est un peu spécial. On peut toujours faire exécuter les tâches d'un GPU par un CPU. Pour du rendu 3D basé sur de la rastérisation (DirectX, OpenGL, ...) c'est pas une bonne idée, les GPU sont bien plus efficaces. Un coeur de CPU moderne arrive quand même a sortir une bonne puissance de calcul grâce effectivement à ses unités vectorielles et sa fréquence. Par contre quand on n'est pas en manque de threads à exécuter, masquer la latence devient beaucoup plus simple et on peut drastiquement simplifier les coeurs pour en mettre beaucoup plus (pas besoin d'Out of Order par exemple !).
 
Le Xeon Phi c'est juste ça, Intel a repris un coeur CPU relativement simple qu'il avait (Pentium 1), lui a remis des unités vectorielles pour redonner de la puissance de calcul, et je ne sais plus s'ils ont aussi mis des unités spécialisées comme des unités de texturing/filtrage, ce qui est bien plus efficace que d'utiliser les unités généralistes (aussi pour la consommation).
 
Par contre ça reste du x86, donc du point de vue taille du CPU et efficacité énergétique ça doit quand même peser un peu, par contre la volonté d'Intel était d'être raisonnablement compétitif sur la rastérisation, mais profiter de la polyvalence de leur puce pour enfoncer tout ce qui se faisait sur du ray tracing par exemple. Finalement ça s'est pas passé exactement comme ça...

n°8979799
ledesillus​ionniste
Posté le 19-12-2013 à 19:50:47  profilanswer
0Votes positifs
 

à quand les 8 coeurs sur desktop...ça stagne trop...on veut envoyer du pâté sur des apps multithread  avec des puces à moins de 300eur.


Message édité par ledesillusionniste le 19-12-2013 à 19:51:32
n°8982746
fofo9012
Posté le 22-12-2013 à 12:25:07  profilanswer
0Votes positifs
 

krumli a écrit :

J'y vois surtout un intérêt pour la virtualisation (cloud, infra entreprise, etc...) comme VMware vend ses licences par CPU physique.

ça serait pas par thread physique (hors HT) plutôt ?
Après le pb du gros serveur avec pleins de VM, c'est qu'en cas de panne / maintenance les impacts sont énormes

n°8985160
_klesk_
Posté le 23-12-2013 à 23:55:14  profilanswer
0Votes positifs
 

fofo9012 a écrit :

krumli a écrit :

J'y vois surtout un intérêt pour la virtualisation (cloud, infra entreprise, etc...) comme VMware vend ses licences par CPU physique.

ça serait pas par thread physique (hors HT) plutôt ?
Après le pb du gros serveur avec pleins de VM, c'est qu'en cas de panne / maintenance les impacts sont énormes


 
Sauf que tu as tout de même des limites de nombre de cœurs par CPU que ce soit pour Veeam ou pour Vmware.

mood
Publicité
Posté le   profilanswer
 


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : 18 coeurs par Socket pour les Broadwell-EP en 2015

 

Sujets relatifs
[HFR] Actu : AMD lance la Radeon R7 260 à moins de 100 €€[AVIS - CONSEIL] Futur config Socket 1150 Mobo + Proc
Help - Socket 2011Maj bios G1.Assassin 2 Socket 2011
[HFR] Actu : Haswell Refresh : +100 MHz ?! ...[HFR] Actu : Nvidia G-SYNC : les tests sont en cours
[HFR] Actu : Les GeForce Maxwell pour bientôt ? Oui et non 
Plus de sujets relatifs à : [HFR] Actu : 18 coeurs par Socket pour les Broadwell-EP en 2015


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR