Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1308 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Apple premier en 10nm chez TSMC

 


 Mot :   Pseudo :  
 
 Page :   1  2  3
Page Précédente
Auteur Sujet :

[HFR] Actu : Apple premier en 10nm chez TSMC

n°10179601
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 03-07-2017 à 15:32:41  profilanswer
0Votes positifs
 

C'est finalement Apple qui est le premier à lancer dans le commerce un produit utilisant une puce gravée en 10nm FF par TSMC. C'est en effet le cas du SoC ...
Lire la suite ...

mood
Publicité
Posté le 03-07-2017 à 15:32:41  profilanswer
 

n°10179604
GrouikR7
Posté le 03-07-2017 à 15:38:05  profilanswer
0Votes positifs
 

Le S835 se retrouve aussi sous le capot de l'excellent OnePlus 5 et du HTC U11 qui est tout aussi sympa d'ailleurs.

n°10179613
Riseoflege​nds
Posté le 03-07-2017 à 15:48:07  profilanswer
0Votes positifs
 

Je trouve assez douteux de dire que le S835 ne serait qu'un die shrink du S820... Le S835 apporte son lot de nouveauté, on ne peut pas en déduire le gain de densité en comparant les 2.

n°10179618
thomser
Posté le 03-07-2017 à 15:53:20  profilanswer
0Votes positifs
 

et les puces haute performance ARM comme l'A10X et peut être aussi le 835 viennent chatouiller les core Y de Intel pour faire des devices type tablette / ultrabook. voir les scores de Geekbench en single core et multicore de ces puces.

n°10179625
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 03-07-2017 à 15:56:45  profilanswer
2Votes positifs
 

Riseoflegends a écrit :

Je trouve assez douteux de dire que le S835 ne serait qu'un die shrink du S820... Le S835 apporte son lot de nouveauté, on ne peut pas en déduire le gain de densité en comparant les 2.


Je me suis mal exprimé, je voulais parler d'un point de vue IP ;)

n°10179630
C_Wiz
Profil : Equipe HardWare.fr
Posté le 03-07-2017 à 16:00:14  profilanswer
3Votes positifs
 

thomser a écrit :

et les puces haute performance ARM comme l'A10X et peut être aussi le 835 viennent chatouiller les core Y de Intel pour faire des devices type tablette / ultrabook. voir les scores de Geekbench en single core et multicore de ces puces.

Je crois que ca fait plus que chatouiller ;)

n°10179653
lulunico06
Posté le 03-07-2017 à 16:15:21  profilanswer
1Votes positifs
 

C_Wiz a écrit :

Je crois que ca fait plus que chatouiller ;)


Surtout côté gpu qui fait aussi bien voir mieux sans edram coûteuse pour une consommation bien moindre.
Intel doit profondément revoir son aritecture gpu et/ou ces pilotes.

Message cité 2 fois
Message édité par lulunico06 le 03-07-2017 à 16:16:47
n°10179655
ockiller
Posté le 03-07-2017 à 16:15:50  profilanswer
2Votes positifs
 

Y aurait moyen de faire des tests pour voir l'écart actuel en single thread entre ces derniers SoC et un CPU desktop haut de gamme ? Histoire de voir si de l'ARM en desktop va se concrétiser, et à peu près quand ;)

n°10179676
fkanker
Posté le 03-07-2017 à 16:30:56  profilanswer
4Votes positifs
 

lulunico06 a écrit :


Surtout côté gpu qui fait aussi bien voir mieux sans edram coûteuse pour une consommation bien moindre.
Intel doit profondément revoir son aritecture gpu et/ou ces pilotes.


Même chose côté CPU...
 

ockiller a écrit :

Y aurait moyen de faire des tests pour voir l'écart actuel en single thread entre ces derniers SoC et un CPU desktop haut de gamme ? Histoire de voir si de l'ARM en desktop va se concrétiser, et à peu près quand ;)


Si un acteur commençant par A et finissant par pple le voulait, ce serait déja une réalité.
D'après mes tests très personnels qui sont loins de valoir ceux de HFR (slurp), Hurricane aurait +20% d'IPC que Skylake. Reste à voir s'il pourrait monter aussi haut en fréquence et en plus scaler avec ladite fréquence...
 
Mais je plussoies un test HFR serait bienvenu :D

n°10179682
zezinho
Posté le 03-07-2017 à 16:35:22  profilanswer
1Votes positifs
 

ockiller a écrit :

Y aurait moyen de faire des tests pour voir l'écart actuel en single thread entre ces derniers SoC et un CPU desktop haut de gamme ? Histoire de voir si de l'ARM en desktop va se concrétiser, et à peu près quand ;)


 
Ce qui tient l'ARM loin du desktop n'est plus la performance depuis des années, mais l'ecosystème : il n'y a pas une architecture PC ARM standard, qui permettrait d'installer une même distribution Linux ou un windows 10 sur n'importe quelle machine. Android est adapté par les fabricants à chaque carte mère, on ne peut pas se permettre ça quand on veut diffuser un système d'exploitation indépendant du matériel.

mood
Publicité
Posté le 03-07-2017 à 16:35:22  profilanswer
 

n°10179691
C_Wiz
Profil : Equipe HardWare.fr
Posté le 03-07-2017 à 16:42:49  profilanswer
1Votes positifs
 

ockiller a écrit :

Y aurait moyen de faire des tests pour voir l'écart actuel en single thread entre ces derniers SoC et un CPU desktop haut de gamme ? Histoire de voir si de l'ARM en desktop va se concrétiser, et à peu près quand ;)


(....)
 
C'est un sujet compliqué. Si on se fie a Geekbench 4 qui ne donne pas une si mauvaise idée que ca du rapport des forces, un A10X c'est 3877 en single thread et 9178 en MT (pour 5W en gros).
 
3877 c'est a peu près ce que font en single core un Core i7-2700K, un Core i5-6400, ou un... Ryzen 7 1700 ;)
En MT c'est plus loin (y'a que 3 coeurs) : c'est entre un Core i5-2500 et un Core i3-7300.
 
Plus là : http://browser.geekbench.com/processor-benchmarks
 
En 5W. Et 2.3 GHz sans "turbo" (bonjour l'IPC...). Alors oui c'est Geekbench qui n'est pas parfait (même si la V4 n'est pas si mal), oui ce sont des benchs théoriques, oui Neon est probablement moins "riche" que les AVXs... mais quand même ;)


Message édité par C_Wiz le 03-07-2017 à 16:49:23
n°10179719
Eric B
Posté le 03-07-2017 à 17:03:23  profilanswer
1Votes positifs
 

en tous cas, Windows 10 ARM compte bien profiter de ces générations de CPU ARM pour proposer un OS desktop en ARM.
Après, qu'il soit proposé sur tablette, tel mobile ou ordi mobile, on verra.

 

Sauf que malheusement, Apple ne propose pas ses A10X sur vitaminés aux autres, le SoC 835 semble assez loin derrière en perf.

 

Geekbench se dit multi plateforme, mais les scores sont ils vraiment comparables entre les plateformes?
De par la nature des bench synthétiques, c est surtout les instructions spécifiques (AVX and co) qui sont mises en valeur, n'est ce pas?
En mono core comme en multi, j ai du mal à croire que le A10X puisse être au niveau d'un i5 2500!

 

n'y a t il pas une version de superPi sur ARM/iOS ?


Message édité par Eric B le 03-07-2017 à 17:09:09
n°10179721
lulunico06
Posté le 03-07-2017 à 17:03:56  profilanswer
0Votes positifs
 

Oui pour 5w c'est pas mal du tout  
Apple peut augmenter le nombre de core et la fréquence.

n°10179742
C_Wiz
Profil : Equipe HardWare.fr
Posté le 03-07-2017 à 17:17:28  profilanswer
2Votes positifs
 

Eric B a écrit :


Geekbench se dit multi plateforme, mais les scores sont ils vraiment comparables entre les plateformes?


Oui c'est comparable, c'est fait pour.
 

Eric B a écrit :

De par la nature des bench synthétiques, c est surtout les instructions spécifiques (AVX and co) qui sont mises en valeur, n'est ce pas?


La V3 avait ce problème, la V4 utilise des tests beaucoup plus réalistes à mes yeux (compression LZMA, JPEG, AES, des tests Lua, SQLite, de rendu pdf, compilations LLVM, etc). Description complète ici : http://geekbench.com/doc/geekbench4-cpu-workloads.pdf
 
Ca n'est pas parfait mais c'est plutôt "pas mal".

n°10179766
thomser
Posté le 03-07-2017 à 17:42:26  profilanswer
2Votes positifs
 

moralité pour un ultrabook ou une tablette ca tient largement la comparaison avec ce qui se fait chez Intel

n°10179784
TotalRecal​l
Modérateur
Posté le 03-07-2017 à 17:58:59  profilanswer
1Votes positifs
 

[:grammar nazi] cette honneur -> cet


---------------
Réalisation amplis classe D / T      Topic .Net - C# @ Prog
n°10179786
Eric B
Posté le 03-07-2017 à 18:03:20  profilanswer
0Votes positifs
 

si les A10X valent vraiment un i5 2500k, et que Apple continue seul devant dans la meilleure maîtrise de l ARM, il est fort possible que les prochains MacBook & co délaissent Intel pour avoir des CPU maison Apple!
mais bon, je reste qd meme un peu sceptique, j attends de voir un Photoshop complet qui tourne aussi bien sur un A10X qu un quad core i5!

Message cité 1 fois
Message édité par Eric B le 03-07-2017 à 18:04:28
n°10179805
fkanker
Posté le 03-07-2017 à 18:14:47  profilanswer
1Votes positifs
 

Eric B a écrit :

si les A10X valent vraiment un i5 2500k, et que Apple continue seul devant dans la meilleure maîtrise de l ARM, il est fort possible que les prochains MacBook & co délaissent Intel pour avoir des CPU maison Apple!
mais bon, je reste qd meme un peu sceptique, j attends de voir un Photoshop complet qui tourne aussi bien sur un A10X qu un quad core i5!


Je doute qu'Apple intègre le SoC maison dans les macbook avant d'avoir implémenté SVE, histoire d'avoir la performance sur tous les terrains. Cependant avec l'équipe de brutes qu'ils ont ça peut aller très vite (disons pour le A12 Fusion XtraVector).
 
Puis pour Photoshop, comme je vois Lightroom tourner sur iPhone 7, j'ai aucun doute sur la question...

n°10179846
fredo3
Posté le 03-07-2017 à 18:36:21  profilanswer
5Votes positifs
 

lulunico06 a écrit :


Intel doit profondément revoir son aritecture gpu et/ou ces pilotes.


Intel et les GPU ca n'a jamais été une histoire d'amour...
 
Je vous parie qu'ils vont même commettre l'erreur de laisser filer Imagination Tech (dont ils sont actionnaire à 10 ou 15% il me semble), dans les mains d'Apple, alors que d'un point de vue financier ca ne coûte qu'une bagatelle.
C'est une boite qui est capable de dépenser des milliards et des milliards pour des McAfee, IoT (MCU), pour un but totalement floue (où même un simple geek comprend tout de suite que ca ne marchera pas :D), mais pas investir intelligemment dans son cœur de métier...
 
Intel a raté le coche GPU il y a 15-20 ans. Sauf grosses acquissions, ils ne rattraperont plus le retard. Si Intel a accepeté de placer des GPU AMD sur leur package CPU, c'est qu'ils n'ont rien de potable à proposer dans les 5 ans.
Je n'arrive pas à comprendre comment cette boîte n'est pas arrivée à l'époque à comprendre que la 3D c'était un business qui ne pouvait que se développer massivement. Au pire lorsque que les premiers travaux universitaires sur le GPGPU commençaient à être publiés, ils auraient dû comprendre l'intérêt de ce business. Ca me dépasse complètement. Moralité NVidia se remplit les poches...
 
Ca sent très mauvais chez Intel. A moins que des ingénieurs ne réussissent à reprendre les reines de l'entreprise, l’avenir risque d'être chaotique.


Message édité par fredo3 le 03-07-2017 à 19:01:07
n°10179868
ockiller
Posté le 03-07-2017 à 18:59:09  profilanswer
0Votes positifs
 

Intel a beaucoup investi dans le GPU avec Larrabee, et se sont bien plantés  (ça a été bien recyclé avec Atom et Xeon Phi mais c'est loin des objectifs initiaux)

n°10179876
fredo3
Posté le 03-07-2017 à 19:09:30  profilanswer
0Votes positifs
 

ockiller a écrit :

Intel a beaucoup investi dans le GPU avec Larrabee, et se sont bien plantés  (ça a été bien recyclé avec Atom et Xeon Phi mais c'est loin des objectifs initiaux)


Le soucis c'est qu'ils ont pris le problème à l'envers: d'abord on impose le x86 à tout prix et après on s'arrange pour en faire un GPU :o
 
Nous geek et la presse informatique n'ont pas su voir que ca ne pouvait pas marcher, mais c'est assez normal.  
Par contre je doute fortement que des ingénieurs compétents chez Intel n'a pas su voir dès le départ qu'ils partaient d'une mauvaise base. Parce que bon attendre que le premier die sorte d'usine pour dire: ah ben non ca va pas marcher, c'est quand même un peu gros :o.  
Bref un choix technique imposé par la direction d'Intel incompétente sur le sujet, et les ingénieurs ont fait ce qu'ils pouvaient avec ça. Ce n'est pas ce que j'appelle investir intelligemment. Intel c'est une boîte à cramer du fric.
 
 
/T'es bavard aujourd'hui proof :o :D

Message cité 1 fois
Message édité par fredo3 le 03-07-2017 à 19:13:17
n°10179885
C_Wiz
Profil : Equipe HardWare.fr
Posté le 03-07-2017 à 19:19:06  profilanswer
1Votes positifs
 

fredo3 a écrit :


Nous geek et la presse informatique n'ont pas su voir que ca ne pouvait pas marcher, mais c'est assez normal.  
Par contre je doute fortement que des ingénieurs compétents chez Intel n'a pas su voir dès le départ qu'ils partaient d'une mauvaise base. Parce que bon attendre que le premier die sorte d'usine pour dire: ah ben non ca va pas marcher, c'est quand même un peu gros :o.  
Bref un choix technique imposé par la direction d'Intel incompétente sur le sujet, et les ingénieurs ont fait ce qu'ils pouvaient avec ça. Ce n'est pas ce que j'appelle investir intelligemment. Intel c'est une boîte à cramer du fric.
 
 
/T'es bavard aujourd'hui proof :o :D


C'est excessivement off topic :o
 
Mais je crois que c'est :
- un peu révisionniste
- et carrément à l'envers sur certains points
 
Les gens qui poussaient LRB en interne dans la direction étaient peut être les meilleurs décideurs qu'avait Intel (Gelsinger au hasard) justement. L'histoire est un peu plus compliqué que ingénieurs gentils et direction incompétente, amha.

n°10179892
fredo3
Posté le 03-07-2017 à 19:26:40  profilanswer
1Votes positifs
 

C_Wiz a écrit :


C'est excessivement off topic :o

 

J'avoue :D

 
C_Wiz a écrit :


L'histoire est un peu plus compliqué que ingénieurs gentils et direction incompétente, amha.


Oui j'avoue j'y connais pas grand chose sur cette histoire.
Mais faire du DirectX software, c'était quand même vachement osé, je doute qu'il n'y ait pas eu une grosse vague de scepticisme au sein des ingénieurs d'Intel à l’époque.
(Surtout connaissant la qualité douteuse des drivers GPU Intel)

Message cité 1 fois
Message édité par fredo3 le 03-07-2017 à 19:28:00
n°10179913
C_Wiz
Profil : Equipe HardWare.fr
Posté le 03-07-2017 à 20:07:57  profilanswer
0Votes positifs
 

fredo3 a écrit :


Mais faire du DirectX software


On va clore ici l'off topic parce que c'était vraiment pas ça, l'idée derrière LRB ;)

n°10179937
Triple-Nax
Demi-Core Atom + HT
Posté le 03-07-2017 à 20:56:59  profilanswer
0Votes positifs
 

Pour ma culture, pourquoi intel à perdu son avance en terme de gravure ? C'est plus compliqué de graver du x86 ?

n°10179940
robin4002
Posté le 03-07-2017 à 21:00:00  profilanswer
1Votes positifs
 

J'ai l'impression que le fail d'AMD avec bulldozer, la non concurrence que cela causé pendant 6 années et le fait qu'Intel en a profité pour ne pas se bouger risque de coûter cher au monde x86.
 
Vu la monter des SoC ARM en performance ça risque de faire de mal pendant les prochaines années. L'arrivé d'un Windows 10 ARM capable d'émulé du x86 et Apple qui semble préparer une version de MacOS pour ARM n'est que le début.
 
 
D'un côté je me dis que c'est pas plus mal, on va avoir plus de concurrence et une belle monté en performance et performance par watt. D'un autre côté j'ai peur d'une fermeture des écosystèmes, ARM étant généralement assez fermé par manque de standard (pas de bootloader standardisé IIRC, l'une des raisons pour laquelle il est si compliqué d'avoir une image universel qui boot sur n'importe quel matériel ARM (ajouté au gros manque de pilote libre Linux pour cette plateforme ...).
 
 
En tout cas ce A10X est un joli petit monstre ^^

n°10179945
fredo3
Posté le 03-07-2017 à 21:13:16  profilanswer
0Votes positifs
 

Triple-Nax a écrit :

Pour ma culture, pourquoi intel à perdu son avance en terme de gravure ? C'est plus compliqué de graver du x86 ?


Argent lié au secteur des télécom/SoC, où la baisse de conso est déterminant, qui a afflué en masse vers TSMC et par ricochet vers Samsung.

 

Après peut-être qu'intel a fait de mauvais choix techniques (j'en sais rien).


Message édité par fredo3 le 03-07-2017 à 21:27:28
n°10179953
Invite_Sur​prise
Racaille de Shanghaï
Posté le 03-07-2017 à 21:31:53  profilanswer
0Votes positifs
 

Triple-Nax a écrit :

Pour ma culture, pourquoi intel à perdu son avance en terme de gravure ? C'est plus compliqué de graver du x86 ?


C'est certainement un mélange de plusieurs circonstances et il est bien difficile de répondre avec assurance à une telle question, très bonne d'ailleurs.
Intel était tellement dominateur dans ce secteur que les voir vaciller est plutôt surprenant.
Je pense que leur première et principale erreur a été de sous-estimer TSMC, Samsung et AMD.
Après, le fait de fabriquer principalement pour ses produits in-house ne les met pas face aux mêmes contraintes des autres fondeurs, énormément poussés au train par leurs clients, qui sont sur des rythmes plus soutenus.
Le 14nm a été très laborieux et stratégiquement Intel en a pâti et le 10nm n'a pas l'air non plus pressé de sortir.
Le manque de gain entre les différentes archis montrent qu'Intel a été trop conservateur et trop immobiliste également ce qui pourrait avoir imprimé une mauvaise dynamique.
Après, comme le souligne fredo, techniquement ça a du pêcher également mais bon on le saura peut-être jamais ^^


Message édité par Invite_Surprise le 03-07-2017 à 21:34:08
n°10179964
fkanker
Posté le 03-07-2017 à 21:58:11  profilanswer
0Votes positifs
 

N'empêche, 96 mm2 pour le A10X, on est dans les tailles des SoC pour iPhone là. Ca semble augurer d'un A11 qui mettra sans doute un peu plus sur le GPU pour rester devant face au Snapdragon 835 (la routine), mais qui restera dual-core (big) sans trop de place en plus. Vu le process il est probable qu'ils augmentent la fréquence de 20%, mais comme ils ont l'air de partir vers le parallélisme, je ne serais pas surpris qu'ils implémentent un SMT. En prévision du Desktop...

 


robin4002 a écrit :

D'un autre côté j'ai peur d'une fermeture des écosystèmes, ARM étant généralement assez fermé par manque de standard (pas de bootloader standardisé IIRC, l'une des raisons pour laquelle il est si compliqué d'avoir une image universel qui boot sur n'importe quel matériel ARM (ajouté au gros manque de pilote libre Linux pour cette plateforme ...).


Je regardais les sources de Linux 4.11 récemment, j'ai eu l'impression que pour ARM64 ça glissait vers une "organisation" proche de x86. Avec des drivers libres qui deviennent un peu plus fonctionnels à chaque version, pour du matériel relativement récent. C'est pas encore génial, mais j'ai eu le sentiment que ça progressait dans la bonne voie et plus rapidement.
Je pense que Windows 10 ARM va également être un bon catalyseur vers une standardisation façon x86.


Message édité par fkanker le 03-07-2017 à 21:59:31
n°10180046
B00lay Ier
Posté le 04-07-2017 à 00:08:30  profilanswer
0Votes positifs
 

fkanker a écrit :

N'empêche, 96 mm2 pour le A10X, on est dans les tailles des SoC pour iPhone là. Ca semble augurer d'un A11 qui mettra sans doute un peu plus sur le GPU pour rester devant face au Snapdragon 835 (la routine), mais qui restera dual-core (big) sans trop de place en plus. Vu le process il est probable qu'ils augmentent la fréquence de 20%, mais comme ils ont l'air de partir vers le parallélisme, je ne serais pas surpris qu'ils implémentent un SMT. En prévision du Desktop...


Vu que la principale critique envers les smartphones est l'autonomie faiblarde, ils pourraient aussi tout à fait se contenter d'évoluer gentiment en baissant la conso...

n°10180102
heiwa-FR
Posté le 04-07-2017 à 08:15:00  profilanswer
0Votes positifs
 

Askip on peut miner avec et y'a déjà des pénuries. Ok je sors... ^^'

n°10180113
fkanker
Posté le 04-07-2017 à 08:46:51  profilanswer
0Votes positifs
 

B00lay Ier a écrit :


Vu que la principale critique envers les smartphones est l'autonomie faiblarde, ils pourraient aussi tout à fait se contenter d'évoluer gentiment en baissant la conso...


C'est les 10 ans de l'iPhone, ils peuvent pas. Le GPU doit être plus costaud sinon ils se feront doubler par Qualcomm. Puis ils écrasent tout le monde en single thread, mais il est probable qu'ils souhaitent également passer en tête en multi thread. Avec 2 cores, le SMT serait parfait pour ça.

n°10180127
SirGallaha​d
What's your favorite color ?
Posté le 04-07-2017 à 09:12:24  profilanswer
0Votes positifs
 

Et pourquoi pas un 3cores+SMT ?


---------------
Blue,no ! Yellow ! ... Aaaaaaaaaaaaahhhhhhhhhh
n°10180277
fkanker
Posté le 04-07-2017 à 12:16:50  profilanswer
0Votes positifs
 

SirGallahad a écrit :

Et pourquoi pas un 3cores+SMT ?


3 cores ça veut dire qu'ils gardent à peu près la configuration du A10X pour le GPU, en terme de taille. Mais 3 cores pareils dans un téléphone, j'ai un doute pour la dissipation thermique. A ce stade en tous cas.

n°10180369
lulunico06
Posté le 04-07-2017 à 14:07:34  profilanswer
0Votes positifs
 

Les version x pour tablette ont un bus 128 bits.
Les autres un bus 64 bits.
Donc un trop gros gpu est inutile sur les non x la bande passante limiterai le gpu.
Moi je vois bien 3 core haute performance et 3 basse performance et 6 cluster gpu de génération furian de power vr adapté à la sauce Apple pour le a11.
4 core cpu de chaque et 12 cluster gpu pour l a11x.
Si smt on reste à 2 et 3 comme pour l a10 et a10x.

n°10180378
C_Wiz
Profil : Equipe HardWare.fr
Posté le 04-07-2017 à 14:17:58  profilanswer
0Votes positifs
 

(le sens du vent pointe vers un GPU custom pour l'A11)

n°10180449
lulunico06
Posté le 04-07-2017 à 15:17:13  profilanswer
0Votes positifs
 

Imagination parle plus de d en 2 ans donc l a12.
Pour l a11 je vois plus un furian très modifier.
L a12 un gpu nouveau.
D'ailleurs pour moi Apple passera surtout au mac arm pour avoir des portable avec un gpu à eux plus que pour vraiment passer à arm.
Les cpu Intel sont assez puissant pour Apple arm permettra de consommer un peu moins.
Mais par contre le gpu bien plus efficace permettra de gros gain d'autonomie et/ou de performance.
Un soc x86 gpu Apple étant impossible il faut passer à l arm.

n°10180463
fredo3
Posté le 04-07-2017 à 15:38:14  profilanswer
0Votes positifs
 

lulunico06 a écrit :

Imagination parle plus de d en 2 ans donc l a12.
Pour l a11 je vois plus un furian très modifier.
L a12 un gpu nouveau.
D'ailleurs pour moi Apple passera surtout au mac arm pour avoir des portable avec un gpu à eux plus que pour vraiment passer à arm.
Les cpu Intel sont assez puissant pour Apple arm permettra de consommer un peu moins.
Mais par contre le gpu bien plus efficace permettra de gros gain d'autonomie et/ou de performance.
Un soc x86 gpu Apple étant impossible il faut passer à l arm.


Dans le fond ca n'a plus trop d'intérêt de vouloir bloquer l'accès à une techno (x86) qui est entrain de perdre sa domination/monopole.
Bref ne jamais dire jamais.
(Même si je n'y crois pas il est vrai, tellement l'archi ARM semble efficace)


Message édité par fredo3 le 04-07-2017 à 15:39:45
n°10180493
C_Wiz
Profil : Equipe HardWare.fr
Posté le 04-07-2017 à 16:21:04  profilanswer
0Votes positifs
 

lulunico06 a écrit :

Imagination parle plus de d en 2 ans

Pour la fin *totale* des royalties.

n°10180514
SirGallaha​d
What's your favorite color ?
Posté le 04-07-2017 à 16:37:14  profilanswer
0Votes positifs
 

Et vu que Apple a tout fait pour tuer Imagination. Ils vont les racheter a vil prix et hop le prochain GPU sera full Apple. ( A moins que je me trompe de boite)


---------------
Blue,no ! Yellow ! ... Aaaaaaaaaaaaahhhhhhhhhh
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Apple premier en 10nm chez TSMC

 

Sujets relatifs
[HFR] Actu : 3D NAND 96 couches chez Toshiba et Western[HFR] Actu : Minage : les GTX 1060 et 1070 impactées
[HFR] Actu : 1ers tests de la Radeon Vega Frontier Edition[HFR] Dossier : Intel Core i9-7900X et Core i7-7740X en test : déjà-vus ?
[HFR] Actu : Intel 545s, 1er SSD en NAND 3D 64 couches[HFR] Actu : Toshiba combine NAND 3D et QLC
Plus de sujets relatifs à : [HFR] Actu : Apple premier en 10nm chez TSMC


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR