Forum |  HardWare.fr | News | Articles | PC | Prix | S'identifier | S'inscrire | Aide | Shop Recherche
2090 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3
Page Suivante
Auteur Sujet :

[HFR] Actu : Raja Koduri chez Intel avec l'ambition d'un GPU maison

n°10271704
bgx
reviens brunette!
Posté le 09-11-2017 à 20:04:51  profilanswer
0Votes positifs
 

Reprise du message précédent :
PA risc, c'est pas l'ancetre spirituel des IA-64. Les 2 viennent de HPs, mais c'etait des tracks different, et pour vendre l'IA 64, HP a volontairement sabordé les PA RISC.
 
De ce que j'ai compris les premier IA64 (merced) etait tout pourri et l'idée principale de HP (on fait tout a la compilation) foirait grave.
 
Pour les itanium II, intel a participé plus au dev et c'etait mieux, mais le concept de base etait qd meme mal pensé...

mood
Publicité
Posté le 09-11-2017 à 20:04:51  profilanswer
 

n°10271721
Invite_Sur​prise
Racaille de Shanghaï
Posté le 09-11-2017 à 20:28:40  profilanswer
1Votes positifs
 

L'explosion de nVidia dénote les errances de ces 2 principaux concurrents.
Ce mouvement et les ambitions déclarées d'Intel dans le marché des cartes graphiques additionnelles m’apparaît plutôt inquiétant pour AMD.
Déjà que se cogner les verts c'est compliqué alors si les bleus s'en mêlent, j'ai peur qu'ils en payent un lourd tribut.
Il faut déjà voir si Raja part tout seul ou pas et surtout ça prend du temps de faire une nouvelle archi. AMD va devoir enchaîner pour les prendre de vitesse, une mission supplémentaire pour la courageuse Lisa Su. En souhaitant qu'ils réussissent dans leur tâche.
Intel montre des faiblesses ces derniers temps. Zen est une très bonne archi et ça les a sorti de leur léthargie.
Mis dehors du monde mobile, rattrapé par TSMC & Samsung niveau fonderie, inquiété sérieusement par cet ancien nain de nVidia, l'entreprise parait en manque de vision malgré ses moyens hors normes.
A penser que le x86 peut faire le thé et le café, ils en sont quasiment arrivés à une impasse et un renforcement sur la partie GPU fait évidemment sens, même si c'est peut-être un peu trop tard. Avec l'acquisition, entres autres, d'Altera en 2015, ils disposent d'un panel certes attractif mais l'important et de savoir si cela portera ses fruits.


Message édité par Invite_Surprise le 09-11-2017 à 20:40:06
n°10271723
B00lay Ier
Posté le 09-11-2017 à 20:30:27  profilanswer
0Votes positifs
 

bgx a écrit :

PA risc, c'est pas l'ancetre spirituel des IA-64. Les 2 viennent de HPs, mais c'etait des tracks different, et pour vendre l'IA 64, HP a volontairement sabordé les PA RISC.

 

De ce que j'ai compris les premier IA64 (merced) etait tout pourri et l'idée principale de HP (on fait tout a la compilation) foirait grave.

 

Pour les itanium II, intel a participé plus au dev et c'etait mieux, mais le concept de base etait qd meme mal pensé...


C'est le principe du processeur vectoriel ça :o

 

Le problème n'est du coup pas là, mais (éventuellement) dans les charges qu'on lui donnait à exécuter.

 

x64 c'est pas franchement glorieux non plus dans le genre, mais comme c'est pas du VLIW vectoriel ça passe.

 


Invite_Surprise a écrit :

Intel montre des faiblesses ces derniers temps. Zen est une très bonne archi et ça les a sorti de leur léthargie.


L'expression "on ne frappe pas un ennemi à terre" est devenue obsolète : maintenant il faudra dire "on ne refile pas Raja" :o


Message édité par B00lay Ier le 09-11-2017 à 20:32:06
n°10271823
theangel54​0
Posté le 09-11-2017 à 23:39:54  profilanswer
1Votes positifs
 

bgx a écrit :

PA risc, c'est pas l'ancetre spirituel des IA-64. Les 2 viennent de HPs, mais c'etait des tracks different, et pour vendre l'IA 64, HP a volontairement sabordé les PA RISC.
 
Pour les itanium II, intel a participé plus au dev et c'etait mieux, mais le concept de base etait qd meme mal pensé...
De ce que j'ai compris les premier IA64 (merced) etait tout pourri et l'idée principale de HP (on fait tout a la compilation) foirait grave.


 
...Oui, les premiers Itanium sont basés, en grande partie, sur les dernier PA-RISC de HP, les PA8800 et 8900.  
Le 8900 avait 1.5MO de L1 (!) et 64MO de L2 (!!!) avec 80W de TDP @ 1.1GHZ sur une puce dual core.
C'était du lourd même en 2005 face aux opteron 180.
Une HP C8000 est encore une "belle" workstation sous HP-UX.


Message édité par theangel540 le 09-11-2017 à 23:41:52
n°10271858
guig2000
Posté le 10-11-2017 à 00:24:23  profilanswer
0Votes positifs
 

Les i740 était puissants comme cartes 2D/3D à l'époque (enfin ça a été vite dépassé par le riva tnt), plus que les nvidia et ati. Mais ça ne valait pas une 3DFX.

n°10271914
ba666kille​r_benchmar​k
Posté le 10-11-2017 à 07:51:27  profilanswer
1Votes positifs
 

Combien de temps restera ce monsieur chez Intel ? Va-t-il se faire virer par le CEO pour avoir émis la moindre critique, ou bien va-t-il partir de lui-même car n'ayant pas eu assez de liberté décisionnelle ?
La fuite des gens compétents chez Intel est très inquiétante pour le géant, ce monsieur va-t-il pouvoir y exercer ses compétences ?
A vos paris...

n°10271992
Eric B
Posté le 10-11-2017 à 10:01:57  profilanswer
0Votes positifs
 

pour continuer le HS sur le IA64, d un pt de vue technologique, il était bcp plus abouti que le x64, mais une fois de +, une des raisons de son échec étaient les performances misérables sur les binaines x86 et Win32.
AMD en proposant avec x64 une "simple" extension au x86 n'avait pas ce pb et donc proposait au day1 des perfs au moins similaires aux CPU x86 only.
D ailleurs en remontant plus loin ds l histoire, Intel avait déjà tenté l aventure 64bits dès le i860 en 1989 qui était un RISC non compatible x86. Cad 10 ans avant meme le lancement de IA64, Intel avait déjà connu le même échec à cause du manque de x86.
Et en CPU 64 bits RISC non x86, le maitre des années 90 était DEC avec son Alpha qui atteignait déjà 200Mhz quand Intel sortait son 1er Pentium 66 Mhz. L'Alpha monta jusqu'à 1.25 Ghz en 2001, et n avait sans doute pas à rougir face aux P3 et Athlon de même fréquence. L archi et le bus Alpha ont d'ailleurs bien inspiré AMD pour ses K7 et K8, puisque Derrick Meyer and James Keller sont passés de DEC à AMD pour développer ces archi!
Alpha fut revendu à Compaq en 2001, au moment où le IA-64 s'annoncait prometteur: Compaq a préféré l IA-64 et a tué l archi Alpha, avant de revendre les brevets à... Intel, qui s'en est probablement inspiré pour améliorer le IA-64!
Alpha fut une perle d'ingénierie mais tué par le management de DEC qui maintenait une politique de vente exclusive sans proposer de CPU abordable pour les particuliers.
EDIT: article + complet sur le sujet: http://alasir.com/articles/alpha_h [...] apse.shtml

Citation :

266MHz and 300MHz EV5 were offered in the beginning of 1995 for 2052 and 2937 USD respectively in lots of 1000 units — both prices were enormous even if to take into account average estimated manufacturing costs of 430 USD per unit. Considering price per one "parrot" of SPECint92, EV5 cost about 2 times higher than competitive RISC designs.

 

Depuis 30 ans, le x86 est aussi bien le moteur de réussite de Intel que son boulet. Les CPU RISC aurait pu/du prendre le dessus ds les années 90.
Et en 2017, l archi ARM (qui prends ses sources ds les années 80!) semble le plus sérieux concurrent, la compatibilité x86 empeche Intel d'avoir des CPU aussi efficaces que les ARM en perf/watt.
Les CPU actuels ont tellement évolué par rapport au x86 que la portion x86 est vraiment très réduite ds le CPU: alors que Microsoft essaie aussi tant bien que mal de se débarrasser du Win32, Intel osera t il un jour supprimer le support hardware x86 de ses CPU pour ne proposer qu une émulation, comme le SoC 835 de Qualcomm?


Message édité par Eric B le 11-11-2017 à 12:34:46
n°10272026
bgx
reviens brunette!
Posté le 10-11-2017 à 10:40:09  profilanswer
0Votes positifs
 

theangel540 a écrit :


 
...Oui, les premiers Itanium sont basés, en grande partie, sur les dernier PA-RISC de HP, les PA8800 et 8900.  
Le 8900 avait 1.5MO de L1 (!) et 64MO de L2 (!!!) avec 80W de TDP @ 1.1GHZ sur une puce dual core.
C'était du lourd même en 2005 face aux opteron 180.
Une HP C8000 est encore une "belle" workstation sous HP-UX.


 
ah oui, excuse moi, si il y a la meme frequence et la meme quantité de caches, c'est que c'est la meme architecture !!
 
qd a la compatibilité x86 pour expliquer l'echec du IA64... la marmotte. Quand tu as le code, la compatibilité tu t'en branles. C'etait pas prevu pour le grand public de toutes facons.

n°10272035
bgx
reviens brunette!
Posté le 10-11-2017 à 10:48:01  profilanswer
0Votes positifs
 

B00lay Ier a écrit :


C'est le principe du processeur vectoriel ça :o  
 
Le problème n'est du coup pas là, mais (éventuellement) dans les charges qu'on lui donnait à exécuter.
 
x64 c'est pas franchement glorieux non plus dans le genre, mais comme c'est pas du VLIW vectoriel ça passe.


 
principe du proc vectoriel.... poussé a l'extreme.
 
je ne compprends pas ton passage sur le x86/x64, on ne peut pas faire plus eloigné que VLIW vs x86/IA64, ou il y a bcp de choses faite execution time, en particulier avec un tres gros Front end.
 
Pour x86 vs RISC/ARM, le probleme est de moins en moins vrai. Les proc sont des RISC en interne, avec un gros front end pour faire la conversion. Or le front end a un nombre de transistor a peut pres fixe, et donc a chaque rafinement de la gravure, ca prend de moins en moins de place. Bon, apres, c'est de plu sen plus difficile de graver plus petit :). l'EUV devrait aider.
 
La philisophie de ARM, c'est on n'implemente que les trucs qui marche super bien et qui ne consome pas trop.
La philisophie derriere le x86 (jusqu'a recemment), c'est on implemente tout ce qu'on peut qui peut aider meme un peu la perf (les optis des dernieres années suivent une philisophie plus ARMesque, mais reste tout le passé). A priori, en 10nm, le x86->RISC actuel ne devrait pas theoriquement etre un boulet pour le rapport perf/conso.
 
Globalement, la conso a qd meme bcp baissé les derniers années (mais au detriment d'une stagnation globale des perfs).

n°10272054
Eric B
Posté le 10-11-2017 à 11:20:15  profilanswer
0Votes positifs
 

l'AVX entre toutefois bien dans cette philophie x86, cela permet d augmenter les perfs, mais au détriment de la conso.

mood
Publicité
Posté le 10-11-2017 à 11:20:15  profilanswer
 

n°10272197
C_Wiz
Super Administrateur
Profil : Equipe HardWare.fr
Posté le 10-11-2017 à 13:51:35  profilanswer
0Votes positifs
 

bgx a écrit :


je ne compprends pas ton passage sur le x86/x64, on ne peut pas faire plus eloigné que VLIW vs x86/IA64, ou il y a bcp de choses faite execution time, en particulier avec un tres gros Front end.


Oui oui oui !

 
bgx a écrit :


Pour x86 vs RISC/ARM, le probleme est de moins en moins vrai. Les proc sont des RISC en interne, avec un gros front end pour faire la conversion. Or le front end a un nombre de transistor a peut pres fixe, et donc a chaque rafinement de la gravure, ca prend de moins en moins de place. Bon, apres, c'est de plu sen plus difficile de graver plus petit :). l'EUV devrait aider.

 

La philisophie de ARM, c'est on n'implemente que les trucs qui marche super bien et qui ne consome pas trop.
La philisophie derriere le x86 (jusqu'a recemment), c'est on implemente tout ce qu'on peut qui peut aider meme un peu la perf (les optis des dernieres années suivent une philisophie plus ARMesque, mais reste tout le passé). A priori, en 10nm, le x86->RISC actuel ne devrait pas theoriquement etre un boulet pour le rapport perf/conso.


Ca dépend à quel TDP (x3) !

 

Oui pour le RISC interne sur x86, oui pour le frontend (a peu près) fixe (mais gros). Oui a 130/200W l'impact du frontend x86 est négligeable. Si on s'arrête là, on peut dire que CISC vs RISC c'est un faux combat ((c) Intel 2000).

 

Dans le monde moderne, sur une archi mobile, le gros frontend de x86 est un handicap important sur la consommation en charge faible où le frontend coûteux en ressources pompe significativement la batterie malgré les gros efforts pour le race to sleep (qui ont été massifs post Core 2 ou c'était catastrophique, Intel a été a peu près au bout de ce qu'il pouvait sur Skylake qui est un step massif sur ce plan). Voir l'oeuvre d'Intel a 1.5W pour voir le problème poussé à son paroxysme.

 

D'après des ingés qui ont bossé sur les 2 récemment, l'avantage d'ARM sur les TDP mobiles, à toutes autres choses égale, n'est pas négligeable.

Message cité 1 fois
Message édité par C_Wiz le 10-11-2017 à 13:52:45
n°10272206
bgx
reviens brunette!
Posté le 10-11-2017 à 14:00:34  profilanswer
0Votes positifs
 

C_Wiz a écrit :


Ca dépend à quel TDP (x3) !
 
Oui pour le RISC interne sur x86, oui pour le frontend (a peu près) fixe (mais gros). Oui a 130/200W l'impact du frontend x86 est négligeable. Si on s'arrête là, on peut dire que CISC vs RISC c'est un faux combat ((c) Intel 2000).
 
Voir l'oeuvre d'Intel a 1.5W pour voir le problème poussé à son paroxysme.
 
D'après des ingés qui ont bossé sur les 2 récemment, l'avantage d'ARM sur les TDP mobiles, à toutes autres choses égale, n'est pas négligeable.


 
C'est pas faux que 130W ou 5W, c'est pas le meme combat.
j'ai encore dans la tete mes cours de M2 (enfin DEA) d'archi, qui commence à remonter...

n°10272424
mogana
Posté le 10-11-2017 à 21:27:41  profilanswer
0Votes positifs
 

les commentaires de huang sur ces derniers jours

 

http://www.tomshardware.com/news/n [...] 35895.html

 

et il pense bien qu'intel rentre dans les gpu pour l'ia
"Huang's statement aligns with our thoughts that Intel's return to the discrete graphics industry is more centered on capturing some of the burgeoning use-cases for parallelized workloads, such as AI, than it is about gaming. Nvidia's push into the data center has been fruitful, as evidenced by the 109% YoY revenue growth, but it's really just the beginning of GPU penetration into several other segments, such as autonomous driving."

 

ensuite concevoir un gpu, c'est une chose, faire le soft derrière c'est aussi voire plus difficile

 

et je pense amha qu'intel n'arrivera pas à rattrapper 10-20 ans d'expérience gpu, donc la collaboration avec amd devrait ne pas s'arrêter à des kbg...


Message édité par mogana le 10-11-2017 à 21:28:04
n°10272602
B00lay Ier
Posté le 11-11-2017 à 12:08:11  profilanswer
0Votes positifs
 

bgx a écrit :

principe du proc vectoriel.... poussé a l'extreme.

 

je ne compprends pas ton passage sur le x86/x64, on ne peut pas faire plus eloigné que VLIW vs x86/IA64, ou il y a bcp de choses faite execution time, en particulier avec un tres gros Front end.


Bah non, si on veut du vectoriel il faut des gros caches pour pouvoir étaler/dérouler le travail et en éxécuter le plus possible par unité de temps.

 

Netburst avait pris l'approche des threads pipelinés (exécution série la plus rapide possible) donc l'exact opposé d'IA-64 qui visait à exécuter le plus possible de front), mais au final les 2 ont copulé et on se retrouve avec les archis Core.

 

Si je reprends les arguments d'époque pour IA-64, c'est amusant de constater que grossièrement Core = IA-64 + ce qui coûtait cher et n'était donc pas implémenté (mais d'où venait donc cette consommation de ouf du coup?). En fait, en étant mauvaise langue, on peut dire qu'il est vraisemblable qu'IA-64 tel qu'il nous a été vendu n'était pas ce qu'on retrouvait dans le silicium, qui était la seconde voie de l'époque (possiblement à l'image des PPC)... et si ça rappelle la comm d'AMD quand ils se chient dessus (les "optimisations" et autres "nouveautés" dont la présence est on ne peut plus transparente, bref les promesses non-tenues), c'est normal :o


Message édité par B00lay Ier le 11-11-2017 à 12:11:32
n°10272617
Eric B
Posté le 11-11-2017 à 12:44:20  profilanswer
0Votes positifs
 

C_Wiz a écrit :


Dans le monde moderne, sur une archi mobile, le gros frontend de x86 est un handicap important sur la consommation en charge faible où le frontend coûteux en ressources pompe significativement la batterie malgré les gros efforts pour le race to sleep (qui ont été massifs post Core 2 ou c'était catastrophique, Intel a été a peu près au bout de ce qu'il pouvait sur Skylake qui est un step massif sur ce plan). Voir l'oeuvre d'Intel a 1.5W pour voir le problème poussé à son paroxysme.
D'après des ingés qui ont bossé sur les 2 récemment, l'avantage d'ARM sur les TDP mobiles, à toutes autres choses égale, n'est pas négligeable.


 
on est d'accord. Du coup, penses tu qu Intel laissera un jour tomber ce gros front-end x86? Il reste la base de toutes les instructions simples, donc j imagine que c est pas facile.
 
D un autre côté, en baissant massivement la fréquence (32 Mhz), Intel sait faire du x86 équivalent Pentium à 0.025W, avec Quark qui sert de microcontrolleur pour certaines cartes et pour l AMT (management des PC éteints!):  
https://en.wikipedia.org/wiki/Intel_Quark
https://en.wikipedia.org/wiki/Intel [...] Technology
 
Intel pourrait donc imaginer de conserver une partie x86 ds ses CPU mais à une fréquence bien moindre que le reste des instructions! Quoique si toutes les autres instructions sont baties 'on top of x86', cela n'a peut etre pas de sens.


Message édité par Eric B le 11-11-2017 à 12:45:06
n°10273064
tolunoide
Posté le 12-11-2017 à 04:06:34  profilanswer
1Votes positifs
 

C_Wiz a écrit :


Raja fait du management d'équipes et pas du design aujourd'hui, c'est pour ca qu'Intel l'a embauché. Son challenge c'est de réunir les équipes d'ingénieurs, les intégrer avec l'existant, poser la question des pilotes, se frotter a la culture Intel qui croyait encore il y a peu que le x86 avait sa place dans les GPU... Designer une archi graphique a côté est presque trivial comme challenge ;)


 
C'est avec ce genre de commentaire que l'on voit à quel point le métier d'ingénieur est désormais si peu considéré ...
On en arrive au point où les managers ont moitié moins de QI que les ingénieurs qu'ils encadrent, et je ne parle même pas des compétences !!!

n°10273114
loustic
Posté le 12-11-2017 à 09:48:49  profilanswer
0Votes positifs
 

On est arrivé à un époque où le marketing est roi et où nombres d'entreprises sont dirigés par des gestionnaires.(et donc mathématiquement voué à disparaitre à long terme)
Pourtant dans le mot entreprise il y a entreprendre. Durant les 100 derrières années on a découverts et créer nombre de choses formidable. Depuis 15ans c'est plutôt le calme plat. Intel en est le parfait exemple.
L'espoir n'est pas perdu, Elon musk arrive presque tout seul à sortir la Tesla, ridiculise la Nasa alors qu'ils sont pourtant bardés d'ingénieurs et doté d'un budget colossale... C'est là où tu dis qu'il y a vraiment un problème quelque part.
Au niveau informatique on en est encore à la préhistoire, quand tu vois ce que ça consomme sans avoir intelligence d'un simple lézard...
Mais ces grosses sociétés de semi-conducteurs sont en train à coup de milliards de créer une paraffine 5% plus durable pour leurs bougies. :o Voie de garage assuré.
Quant au X86, mon dieu...

n°10273130
ravenloft
Posté le 12-11-2017 à 10:14:36  profilanswer
0Votes positifs
 

loustic a écrit :

On est arrivé à un époque où le marketing est roi et où nombres d'entreprises sont dirigés par des gestionnaires.(et donc mathématiquement voué à disparaitre à long terme)


Dans les multinationales, le marketing est roi depuis très longtemps. C'est très très loin d'être nouveau

 
Citation :

Pourtant dans le mot entreprise il y a entreprendre. Durant les 100 derrières années on a découverts et créer nombre de choses formidable. Depuis 15ans c'est plutôt le calme plat. Intel en est le parfait exemple.
L'espoir n'est pas perdu, Elon musk arrive presque tout seul à sortir la Tesla, ridiculise la Nasa alors qu'ils sont pourtant bardés d'ingénieurs et doté d'un budget colossale... C'est là où tu dis qu'il y a vraiment un problème quelque part.


C'est vrai qu'elon musk c'est le pauvre qui n'a pas de sou et que la nasa ne sert qu'à une chose.  :lol:

 
Citation :

Au niveau informatique on en est encore à la préhistoire, quand tu vois ce que ça consomme sans avoir intelligence d'un simple lézard...
.


En même temps, l'informatique c'est récent. Même pas un siècle. De plus, reproduire l'intelligence humaine, c'est peut être une des choses les plus complexes a laquelle l'humain s'est attelée. C'est normal que ça prend du temps.

 
loustic a écrit :

Mais ces grosses sociétés de semi-conducteurs sont en train à coup de milliards de créer une paraffine 5% plus durable pour leurs bougies. :o Voie de garage assuré
Quant au X86, mon dieu...


Le x86 a presque 40 ans, c'est normal que ça soit moins adapté qu'une archi qui est récente.
Intel a déjà essayé de tuer le x86 à 2 reprises (fin des années 80 et fin des années 90) avec l'échec à chaque fois.
Le pc a tiré son succès depuis 40 ans avec la rétrocompatibilité comme un de ses gros avantages sur tous les autres qui sont tous morts depuis à part arm mais arm est récent en comparaison et n'investit que maintenant le domaine des ordinateurs. Ils n'ont jamais vraiment été en concurrence avec le x86 excepté la timide et surtout trop tardive tentative sur les smartphones. Tant que le pc durera, enlever la rétrocompatibilité n'aura aucun sens ou alors ce ne sera plus vraiment du PC. Sur le marché du serveur, c'est possible car la rétro ça n'a jamais été un élément important mais pour le moment, faire des cpus très perfs et plus efficace que le x86, ils n'ont pas réussi et ça n'existe pas. Il y a bien que sur le marché où la conso est plus important que les perfs que là il y a du travail surtout pour concurrencer arm.

 



Message édité par ravenloft le 12-11-2017 à 10:17:47

---------------
Non. Pas a ses yeux. il exprime SES gouts et SA vision du rpg occidental. -Zefly
n°10273198
CardinalFu​neste
Posté le 12-11-2017 à 12:34:28  profilanswer
0Votes positifs
 

Tuer le X86 très bien mais pour la remplacer par quoi ? Quelle architecture avec haute performance débarrassé de toute héritage passé peut le remplacer ? A par le PowerPC (rip) il n'y a pas eu masse d'archi plus moderne/performante que l'X86


Message édité par CardinalFuneste le 12-11-2017 à 12:35:36
n°10273261
B00lay Ier
Posté le 12-11-2017 à 13:51:59  profilanswer
1Votes positifs
 

CardinalFuneste a écrit :

Tuer le X86 très bien mais pour la remplacer par quoi ? Quelle architecture avec haute performance débarrassé de toute héritage passé peut le remplacer ? A par le PowerPC (rip) il n'y a pas eu masse d'archi plus moderne/performante que l'X86


A un moment faut juste revenir à la base : y'a quoi dans x86 qu'on ne retrouve pas dans les autres ISA et à quoi ça sert?
 
D'après ce que j'ai compris, pas mal des "optimisations" sont relatives à l'exécution dans un unique thread de code bourré d'appels avec passages de pointeurs, ceci dit j'ai pas encore eu la motivation pour aller voir à quoi ça ressemblait en asm.

n°10273293
the_pdf
Posté le 12-11-2017 à 14:57:26  profilanswer
0Votes positifs
 

@raven loft
Le x86 à 40 ans, mais on peut extrapoler l'âge de l'arm à environ 30 ans, c'est pas tant l'âge qui compte que la philosophie (il y a aussi au moins un mode legacy sur arm)

n°10273302
ravenloft
Posté le 12-11-2017 à 15:08:45  profilanswer
0Votes positifs
 

the_pdf a écrit :

@raven loft
Le x86 à 40 ans, mais on peut extrapoler l'âge de l'arm à environ 30 ans, c'est pas tant l'âge qui compte que la philosophie (il y a aussi au moins un mode legacy sur arm)


Oui il y a la philosophie mais il y a peu de chance que les puces arm aujourd'hui ait une quelconque compatibilité avec les premières puces arms. Au final, arm peut se défaire de la conception de l'époque alors que les puces x86 doivent conserver une compatibilité avec des puces de près de 40 ans. Cela change beaucoup de chose.


---------------
Non. Pas a ses yeux. il exprime SES gouts et SA vision du rpg occidental. -Zefly
n°10273394
B00lay Ier
Posté le 12-11-2017 à 18:38:46  profilanswer
0Votes positifs
 

Mouais... j'ai été vérifier, et en dehors du fait que tout doit être "microcodé", y'a pas vraiment de souci avec le x86/x64. Après, je dois avouer trouver étrange qu'une instruction ne soit pas codée de façon similaire au VLIW, à savoir instruction à proprement parler + flags qui en définissent la variante dans un nombre de bits donné qui définiront la signification des "champs" restants (valeurs, adresses, registres).

n°10273772
Vaestmanna​eyjar
Posté le 13-11-2017 à 12:18:59  profilanswer
1Votes positifs
 

Citation :

- Pour la fanbase AMD présente en nombre sur les forums hardware, je ne sais pas si vous avez compris, AMD c'est le passé, ils n'ont aucun avenir sauf retournement de situation improbable. Et cet état de fait ne date pas de la débauche de Raja.


 
Pas d'accord. Si Vega est un peu un pétard mouillé, AMD a montré avec leurs CPU qu'ils avaient un savoir faire technique. Ils ont l'air de s'être extraits de leurs probleme de fondeur et ont enrgangé les sous cette année, ils sont sur une bonne dynamique. Mon Pc me permet encore de ne pas changer de matosse cette année, j'aurais pu a la limite changer de CG mais les prix Nvidia je rentre pas dans la combine, c'est bien trop cher pour du matériel à courte durée de vie.

n°10273781
CardinalFu​neste
Posté le 13-11-2017 à 12:32:34  profilanswer
1Votes positifs
 

Non mais t’embête pas a répondre a ce troll en papier crépon hein :D

n°10277129
Activation
21:9 kill Surround Gaming
Posté le 19-11-2017 à 15:38:54  profilanswer
0Votes positifs
 

Le premier probleme chez intel qui daigne s interesser à qqs bug qu'une fois tout les 10mois
 
Avant de pondre u. Nouveau gpu chez intel, faudrait déjà arreter de prendre le client pour un con en passant au moins à 1 drivers correcteur de bug à un rythme d au moins 1 par trimestre, pour intel ça serait un pas de geant.... Et ça sans même parler de jeu video, rien que les bug graphique rencontré sur des notebook en entreprise sur de l applicatif

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : 1ere GTX 1080 Ti avec GDDR5X 12 Gbps chez EVGA[HFR] Actu : Raja Koduri quitte AMD
Evolution station de travail montage Vidéo : Intel vers AMDUnité centrale Intel
[HFR] Actu : Des CPU Intel avec GPU... AMD ! 
Plus de sujets relatifs à : [HFR] Actu : Raja Koduri chez Intel avec l'ambition d'un GPU maison



Copyright © 1997-2016 Hardware.fr SARL (Signaler un contenu illicite) / Groupe LDLC / Shop HFR