Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1628 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Intel présente un prototype de (mini) dGPU

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

[HFR] Actu : Intel présente un prototype de (mini) dGPU

n°10330301
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 19-02-2018 à 21:10:40  profilanswer
0Votes positifs
 

Lors de l'ISSCC 2018 qui se déroulait début février, Intel a présenté un prototype de GPU. Pour rappel, lors de l'arrivée de Raja Koduri en novembre dernier ...
Lire la suite ...

mood
Publicité
Posté le 19-02-2018 à 21:10:40  profilanswer
 

n°10330302
lulunico06
Posté le 19-02-2018 à 21:10:40  profilanswer
0Votes positifs
 

La fréquence double grosse erreure

n°10330423
thomser
Posté le 20-02-2018 à 00:31:32  profilanswer
0Votes positifs
 

Les EU sont les mêmes que dans les iGPU ? Si c'est le cas le iGPU avec 48 EU d'Intel devrait être pas trop mal... ça pourrait faire des ultrabooks avec un iGPU intégré de la puissance d'une 1050 ou 1050Ti grosso merdo.
 
Edit: ah non 48EU ça fait 384 shaders donc c'est plutôt une 1030 pas une 1050 :(


Message édité par thomser le 20-02-2018 à 00:33:45
n°10330481
CL8i
Posté le 20-02-2018 à 06:18:03  profilanswer
0Votes positifs
 

thomser a écrit :

Les EU sont les mêmes que dans les iGPU ? Si c'est le cas le iGPU avec 48 EU d'Intel devrait être pas trop mal... ça pourrait faire des ultrabooks avec un iGPU intégré de la puissance d'une 1050 ou 1050Ti grosso merdo.
 
Edit: ah non 48EU ça fait 384 shaders donc c'est plutôt une 1030 pas une 1050 :(

Les gamers ont une certaine haine sur les pilotes d'AMD, je n'ose pas imaginer comment ils trouveront ceux d'Intel...

n°10330482
samurai80
Posté le 20-02-2018 à 06:43:09  profilanswer
0Votes positifs
 

Je ne pense pas que ces slides puisse avoir un quelconque avenir en temps que produit final, et ca m'etonnerait que ce soit le but. FPGA en temps que pont PCIe, faibles frequences, ca ressemble a un prototype servant a certaines demos.

n°10330492
Dark Schne​iderr
⭐⭐
Posté le 20-02-2018 à 07:52:58  profilanswer
0Votes positifs
 

Commentaires de nVidia en regardant les slides : "Ha ha".

n°10330516
Zlandicae
Posté le 20-02-2018 à 09:00:50  profilanswer
0Votes positifs
 

Commentaires des lecteurs qui lisent cette news : "Ha ha ha ha ha ha..."

n°10330533
U235
Posté le 20-02-2018 à 09:58:27  profilanswer
1Votes positifs
 

Même Intel semble souffrir des prix de la ram: sur le block diagram, cache est remplacé par $$$ (cash).

n°10330545
SirGallaha​d
What's your favorite color ?
Posté le 20-02-2018 à 10:26:04  profilanswer
1Votes positifs
 

Je pense que l'on aurait tord de sous estimé intel. C'est un mastodonte lent a bougé mais ils ont les capacités de faire quelque chose.
Après, a voir s'ils s'en donnent les moyens.


---------------
Blue,no ! Yellow ! ... Aaaaaaaaaaaaahhhhhhhhhh
n°10330572
marcci
Brouille l'écoute
Posté le 20-02-2018 à 11:10:03  profilanswer
0Votes positifs
 

La gifles (je ne trouve pas de mot assez fort) qu'ils ont pris il y a une 15aines d'années du coté GPU doit encore avoir un arrière gout amère.
Le PB c'est que pour revenir dans la course, soit ils le font, soit ils ne le font pas, il n'y a pas d'essai. Pas le choix que de démonter Nvidia sur les perf, là, il y a du boulot, ils ont les moyens financier, ont-ils les compétences ?...

mood
Publicité
Posté le 20-02-2018 à 11:10:03  profilanswer
 

n°10330577
SirGallaha​d
What's your favorite color ?
Posté le 20-02-2018 à 11:20:27  profilanswer
0Votes positifs
 

Citation :

Fait le, ou ne le fait pas. Il n'y a pas d'essai


 [:yoda_57]


---------------
Blue,no ! Yellow ! ... Aaaaaaaaaaaaahhhhhhhhhh
n°10330640
Antimasse
Posté le 20-02-2018 à 12:41:49  profilanswer
1Votes positifs
 

CL8i a écrit :

Les gamers ont une certaine haine sur les pilotes d'AMD, je n'ose pas imaginer comment ils trouveront ceux d'Intel...


 
*Haine sur les pilotes nVidia.
 
AMD a totalement inversé la tendance depuis fin 2015, ce sont les meilleurs drivers qu'on puisse avoir, même sur Linux.
 
Les drivers Intel sont pourris sur Windows (mais moins qu'avant), mais sont les deuxièmes sur Linux.


Message édité par Antimasse le 20-02-2018 à 12:42:28
n°10330644
Antimasse
Posté le 20-02-2018 à 12:45:51  profilanswer
0Votes positifs
 

marcci a écrit :

La gifles (je ne trouve pas de mot assez fort) qu'ils ont pris il y a une 15aines d'années du coté GPU doit encore avoir un arrière gout amère.
Le PB c'est que pour revenir dans la course, soit ils le font, soit ils ne le font pas, il n'y a pas d'essai. Pas le choix que de démonter Nvidia sur les perf, là, il y a du boulot, ils ont les moyens financier, ont-ils les compétences ?...


 
Ils ont les compétences, ou les moyens d'en avoir facilement.
 
Mais comme c'est un traître (Brian Kraznich est un ingénieur passé du côté financier) qui dirige Intel, ben ça donne la lenteur de réaction que l'on voit.
Mais bon, on en a bien besoin de cette autodestruction pour la concurrence...
 
Si je me rappelle bien, ils ont virés pas mal d'ingénieurs qui ont conçu ou amélioré l'archi Core il y a quelques années...


Message édité par Antimasse le 20-02-2018 à 12:49:58
n°10330652
B00lay Ier
Posté le 20-02-2018 à 12:50:46  profilanswer
0Votes positifs
 

lulunico06 a écrit :

La fréquence double grosse erreure


L'erreur c'est de parler de fréquence doublée alors qu'en fait on a juste un morceau qui tourne à demi-fréquence :o

n°10330665
Antimasse
Posté le 20-02-2018 à 13:17:14  profilanswer
0Votes positifs
 

Ils parlent de GPU "Haut de Gamme", hors le marché est impossible à pénétrer avec nVidia et AMD...
 
En fait, c'est surtout le marché du GP-GPU qu'ils veulent pénétrer vu le marché du crypto-mining et du deep-learning.
 
Vu que Xeon-Phi ne convainc pas...

n°10330682
SirGallaha​d
What's your favorite color ?
Posté le 20-02-2018 à 13:45:48  profilanswer
0Votes positifs
 

Antimasse a écrit :

Ils parlent de GPU "Haut de Gamme", hors le marché est impossible à pénétrer avec nVidia et AMD...


Je ne suis pas d'accord. Ils ont tout ce qu'il faut au contraire pour y arriver. Argent et Fab. Maintenant, reste la question de la volontée.
Mais rien que pour éviter de nouveaux affront du type Kaby-lake G, je pense qu'il vont le faire.
 

Antimasse a écrit :


En fait, c'est surtout le marché du GP-GPU qu'ils veulent pénétrer vu le marché du crypto-mining et du deep-learning.


Le crypto mining, je ne pense pas trop, c'est trop opportuniste. Par contre sur le deep-learning, oui. Il y a clairement une place a se faire.
 


---------------
Blue,no ! Yellow ! ... Aaaaaaaaaaaaahhhhhhhhhh
n°10330700
Antimasse
Posté le 20-02-2018 à 14:07:14  profilanswer
0Votes positifs
 

Ils ont pas vraiment d'argent, enfin si, mais il faudrait que les actionnaires comprennent qu'il va falloir rogner sur les dividendes pour faire un gros investisment sur le long terme, et le retour qui va avec.
Mais comme ces vrais parasites de la société sont du genre à faire du court terme...
 
Pour les fab, ils sont en retard maintenant. Le 7nm approche alors qu'ils n'en sont qu'au 10nm.
 
Après, pour ce qui est de l'affront ça ne change rien. Ca restera toujours du GPU AMD dedans.
Mais il ne le feront pas sur ce segment car ce n'est pas du dédié.
 
 
Intel a le marketting de son côté, mais une mauvaise réputation.
Il faut aussi que leurs drivers Windows suivent.


Message édité par Antimasse le 20-02-2018 à 14:08:03
n°10330703
roukinette
Couple de geeks en RP
Posté le 20-02-2018 à 14:16:27  profilanswer
0Votes positifs
 

Au delà de la taille de la puce, bonjour l'architecture, ça semble surréaliste...
 
Intel a tout ce qu'il faut pour arriver à faire du haut de gamme en GPU certes, après ça m'étonnerait fort qu'un design à base de FPGA avance à quoi que ce soit leurs projets à part faire rire tout les acteurs du marché.
 
Plusieurs challenges sont sur leur route :  
-arriver à un bon design/équilibre d'architecture. ce point n'est pas forcément gagné d'avance... après tout intel s'est déjà fourvoyé dans le passé...
-relever le niveau des drivers intel (sans ça point de salut)
-augmenter la taille des puces!
-réobtenir la confiance des gamers


Message édité par roukinette le 20-02-2018 à 14:18:36
n°10330808
vincenmar
Posté le 20-02-2018 à 16:48:09  profilanswer
3Votes positifs
 

Personnellement, je pense que l'arrivée (ou le retour) d'un troisième acteur dans les GPU haut de gamme ne peut être que bénéfique pour nous les consommateurs.

n°10330847
roukinette
Couple de geeks en RP
Posté le 20-02-2018 à 18:08:51  profilanswer
0Votes positifs
 

vincenmar a écrit :

Personnellement, je pense que l'arrivée (ou le retour) d'un troisième acteur dans les GPU haut de gamme ne peut être que bénéfique pour nous les consommateurs.


tu as certainement raison, surtout si le mining continue, il y a de la place pour un troisième producteur de cartes. Par contre si le mining  n'est plus rentable, je suis pas certain que le seul marché gamer puisse supporter une concurrence à 3 acteurs et leur permettre à tous d'en obtenir des bénéfices... du coup si intel réussissait sa réintroduction ce serait potentiellement à plus ou moins long terme un retrait de l'un des deux autres acteurs...

n°10330866
Antimasse
Posté le 20-02-2018 à 18:29:08  profilanswer
0Votes positifs
 

Pour le mining ça m'étonnerais que le marché s'écroule, il y a limite tous les jours de nouvelles monnaies, et les ASICs coûtent un bras.
 
Après, en quoi le marché gamer ne peut pas supporter une concurrence à 3 acteurs ?
Même à plus de 3 acteurs, il y avait toujours de l'argent à se faire il y a 20 ans (3dFX, ATI, nVidia, etc).
 
AMD est en train de galérer avec GCN, et nVidia se goinfre comme pas permis. Un 3ème acteur est plus que bienvenu. D'ici là, AMD devrait avoir abandonné GCN.


Message édité par Antimasse le 20-02-2018 à 18:30:27
n°10330867
vincenmar
Posté le 20-02-2018 à 18:29:48  profilanswer
0Votes positifs
 

Possible s'il ne reste que les joueurs pour utiliser les GPU.
Mais les technologies de blockchain peuvent toujours être utilisées pour autre chose que les cryptodevises, et les développements de l'IA assurent peut-être une certaine marge de manoeuvre.
En plus, en ce qui concerne Intel, tous les investissements qu'ils feront en GPU haut de gamme pourront être rentabilisés en moins en partie dans les GPU intégrés aux processeurs.
Je pense qu'Intel n'aime pas la situation actuelles ou ils sont obligés d'utiliser des GPU AMD avec leurs CPU Intel sur les Macbook.

n°10330884
Antimasse
Posté le 20-02-2018 à 19:07:43  profilanswer
0Votes positifs
 

En dehors du blockchain, il y a beaucoup d'autres domaines qui auront besoin de GPU: Deep Learning, IA, Visual Computing, etc
Donc pas de soucis à se faire amha.
 
Pour ce qui est des Macbook, c'est totalement vrai. Mais comme la réputation compte beaucoup chez eux, voir des CPU AMD dedans ne se fera pas avant plusieurs années.
Après, ça ne m'étonnerais pas qu'ils en aient marre de l'x86_64 et qu'ils iront directement voir ailleurs avec leur propre CPU Arm (dont l'IPC est immense, merci Jim Keller).
Après tout, ils sont facilement passés du PowerPC à de l'x86_64...

n°10331009
roukinette
Couple de geeks en RP
Posté le 20-02-2018 à 23:04:34  profilanswer
0Votes positifs
 

@antimasse je suis d'accord avec toi concernant le fait qu'amha le mining ça vas pas s'écrouler + tous les autres usages que tu as pu citer
 
par contre concernant "Après, en quoi le marché gamer ne peut pas supporter une concurrence à 3 acteurs ?"
il y a 20 ans justement.... cette époque est révolue, le marché gamer est devenue ultra-concurrentiel, grosso modo il y a de la place pour le meilleur et le second, quand au troisième dans les perfs il va voir ses ventes se réduire à peau de chagrin (en ce qui concerne le marché gamer uniquement). En plus il y a des couts fixe assez important (mise à jour de drivers pour qu'ils soient au top)
 
pour qu'un marché à trois acteurs fonctionne il faudrait amha que le roi des perfs change régulièrement, on voit bien que déjà à deux acteurs c'est pas franchement évident, alors avec 3 acteurs .....
 
edit: (bien sur toute cette logique suppose que seul le marché gamer compte, voire commentaires précédents)


Message édité par roukinette le 20-02-2018 à 23:05:26
n°10331029
Antimasse
Posté le 20-02-2018 à 23:43:28  profilanswer
0Votes positifs
 

3dFX malgré son avancée technologique avait coulé parce qu'ils ne géraient pas la 2D, et que DirectX devenait le standard car ça mâchait le boulot des développeurs qui veulent surtout une API "API-less" (tout comme DirectX 12 vs Vulkan aujourd'hui).
Pour les autres marques, je ne sais plus pourquoi car ça date. Si quelqu'un veut bien me rappeller...
 
Après justement, si nVidia devait régulièrement changer, les deux autres ne pourraient plus suivre.
Si la situation est tendue pour AMD, car ils ont eu la "brillante" idée d'aller virer les architectes... de GCN juste avant que les HD 7000 sortent (de mémoire) dont faisait parti Raja Koduri (et qui sont partis chez Apple).
Du coup, pas étonnant qu'ils se trainent GCN qui en est à sa 5ème génération aujourd'hui, ainsi qu'un retard face à nVidia.
D'un autre côté, Pascal n'est qu'un Kepler 1.6 (Maxwell était Kepler 1.5), donc c'est toujours une ancienne architecture améliorée. Mais AMD n'arrive pas a significativement le faire pour GCN.
M'est d'avis que soit des architectes doués en 3D ça doit vraiment pas courir les rues, soit l'architecture était bonne au départ, mais très difficilement améliorable.
Voire un peu des deux.
 
Pour ce qui est des drivers, les coûts fixes se sont aussi réduit avec DirectX 12.
Comme AMD l'a finement introduite, ça a reporté tout le travail que les devs de jeu auraient dû faire depuis longtemps de nouveau dans leur mains.
Les drivers n'ont plus à gérer le multi-GPU et le bas niveau non plus.


Message édité par Antimasse le 20-02-2018 à 23:49:13
n°10331065
roukinette
Couple de geeks en RP
Posté le 21-02-2018 à 04:59:00  profilanswer
0Votes positifs
 

les motifs des uns et des autres pour lesquels ils n'ont pas réussi à rester dans la course n'ont finalement que peu de rapport avec le nombre d'acteur que peux supporter un marché.

n°10331291
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 21-02-2018 à 14:36:10  profilanswer
0Votes positifs
 

Précision d'Intel, il ne s'agit pas d'une puce pour explorer le concept de dGPU chez eux mais pour tester de nouvelles techniques d'optimisations du power au sein des GPU (intégrés ou non) :jap:

n°10332350
sr16
@*#%$*%§!!
Posté le 23-02-2018 à 08:32:48  profilanswer
0Votes positifs
 

marcci a écrit :

La gifles (je ne trouve pas de mot assez fort) qu'ils ont pris il y a une 15aines d'années du coté GPU doit encore avoir un arrière gout amère.
Le PB c'est que pour revenir dans la course, soit ils le font, soit ils ne le font pas, il n'y a pas d'essai. Pas le choix que de démonter Nvidia sur les perf, là, il y a du boulot, ils ont les moyens financier, ont-ils les compétences ?...


 
Une gifle ? Rappelons qu'intel est quand même autour de 70% de parts de marché en terme de GPU si l'on compte les GPU intégrés.
 
La carte qu'ils ont sorti à l'époque était un bon moyen de tester leur GPU. Et rien ne dit qu'ils avaient d'autres buts.
 
Leurs GPU intégrés ont relégué les gpu dédiés à un marché de niche...


Message édité par sr16 le 23-02-2018 à 08:34:58
n°10334757
roukinette
Couple de geeks en RP
Posté le 27-02-2018 à 22:44:47  profilanswer
0Votes positifs
 

Marc a écrit :

Précision d'Intel, il ne s'agit pas d'une puce pour explorer le concept de dGPU chez eux mais pour tester de nouvelles techniques d'optimisations du power au sein des GPU (intégrés ou non) :jap:

ha oui ça a du sens tout d'un coup lol...
Intel integrated AMD APU ou l'inverse je sais pas trop


Message édité par roukinette le 27-02-2018 à 22:49:31
n°10334762
roukinette
Couple de geeks en RP
Posté le 27-02-2018 à 22:51:11  profilanswer
0Votes positifs
 

sr16 a écrit :


 
Une gifle ? Rappelons qu'intel est quand même autour de 70% de parts de marché en terme de GPU si l'on compte les GPU intégrés.
 
La carte qu'ils ont sorti à l'époque était un bon moyen de tester leur GPU. Et rien ne dit qu'ils avaient d'autres buts.
 
Leurs GPU intégrés ont relégué les gpu dédiés à un marché de niche...


spa faux mais faut'il rappeler que les GPU couplés aux pilotes intel sont systématiquement ou presque un problème en gaming ?
 
crashs en tout genre. Je sais pas si c'est intel à blamer ou si c'est les devs qui s'en foutent mais des fois c'est lourd. (certes les recommendations mentionnent souvent au dessus de intel....)
 
bref, si intel arrive à intégrer ses pilotes à l'équipe AMD, ça pourrait vraiment être du bonheur pour les techniciens de support en première ligne.
 
"your gfx card doesn't support this game title, please refer to the game documentation or website to learn how to solve this issue!"


Message édité par roukinette le 27-02-2018 à 23:06:39
mood
Publicité
Posté le   profilanswer
 


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Intel présente un prototype de (mini) dGPU

 

Sujets relatifs
Mini-upgrade graphiqueboitier sfx mini itx
Carte mère mini itx AM4[conseils] Quel mini-PC acheter avec win10 ?
Config Mini PC base Ryzen 3 2200G[HFR] Actu : AMD lance les APU Ryzen 5 2400G et Ryzen 3 2200G
[HFR] Actu : Résultats records pour Nvidia 
Plus de sujets relatifs à : [HFR] Actu : Intel présente un prototype de (mini) dGPU


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR