Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4496 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3
Auteur Sujet :

[HFR] Actu : Apple premier en 10nm chez TSMC

n°10180514
SirGallaha​d
Girouette Pro
Posté le 04-07-2017 à 16:37:14  profilanswer
0Votes positifs
 

Reprise du message précédent :
Et vu que Apple a tout fait pour tuer Imagination. Ils vont les racheter a vil prix et hop le prochain GPU sera full Apple. ( A moins que je me trompe de boite)


---------------
Oui. Non. Peut être...
mood
Publicité
Posté le 04-07-2017 à 16:37:14  profilanswer
 

n°10180541
fkanker
Posté le 04-07-2017 à 17:04:21  profilanswer
0Votes positifs
 

lulunico06 a écrit :

Les cpu Intel sont assez puissant pour Apple arm permettra de consommer un peu moins.


Ou d'avoir encore plus de puissance tout en consommant (éventuellement) moins  :whistle:  
 

lulunico06 a écrit :


Un soc x86 gpu Apple étant impossible il faut passer à l arm.


Pas forcément, AMD pourrait être ouvert à ce genre de chose (CPU AMD custom et GPU Apple).

n°10180574
lulunico06
Posté le 04-07-2017 à 17:32:34  profilanswer
0Votes positifs
 

C_Wiz a écrit :

Pour la fin *totale* des royalties.


Oui mais vu que cette année ils payent encore autant utiliser se qu'ils payent.
L'an prochain ils ont finis de payer il passe à autre chose.
Je peux me tromper bien sûr.

n°10180575
Eric B
Posté le 04-07-2017 à 17:33:13  profilanswer
0Votes positifs
 

fkanker a écrit :


Pas forcément, AMD pourrait être ouvert à ce genre de chose (CPU AMD custom et GPU Apple).


 
et pourquoi pas l inverse? CPU Apple et GPU custom AMD!
 
Ou autrement dit, dans quelle mesure l archi ARM peut s émanciper d'un cadre mobile pour utiliser les bus et archi PC (PCI Express, etc) et donc devenir une plateforme desktop, et ce sans avoir besoin de x86?

Message cité 1 fois
Message édité par Eric B le 04-07-2017 à 19:35:25
n°10180593
C_Wiz
Profil : Equipe HardWare.fr
Posté le 04-07-2017 à 17:51:27  profilanswer
0Votes positifs
 

lulunico06 a écrit :


Oui mais vu que cette année ils payent encore autant utiliser se qu'ils payent.
L'an prochain ils ont finis de payer il passe à autre chose.
Je peux me tromper bien sûr.


Les royalties sont payés par device qui utilisent la techno. C'est autour de 30 ct par device.  
 

Eric B a écrit :


Ou autrement dit, dans quelle mesure l archi ARM peut s émanciper d'un cadre mobile pour utiliser les bus et archi PC (PCI Express, etc) et donc devenir une plateforme desktop, et ceux sans avoir besoin de x86?


C'est déjà le cas ce sont les mêmes technos partout.


Message édité par C_Wiz le 04-07-2017 à 17:51:41
n°10180596
fkanker
Posté le 04-07-2017 à 17:54:29  profilanswer
0Votes positifs
 

Eric B a écrit :

et pourquoi pas l inverse? CPU Apple et GPU custom AMD!


Techniquement ça doit pouvoir se faire, mais l'intérêt d'avoir un CPU x86 custom serait d'éviter une migration de macOS tout en ayant un peu plus de contrôle sur le design du CPU. A terme la migration de macOS vers le SoC maison semble de toute manière inévitable.
 

Eric B a écrit :


Ou autrement dit, dans quelle mesure l archi ARM peut s émanciper d'un cadre mobile pour utiliser les bus et archi PC (PCI Express, etc) et donc devenir une plateforme desktop, et ceux sans avoir besoin de x86?


Ben totalement en fait, il faut juste un acteur qui le veuille. AMD avait commencé avec Skybridge, mais ils semblent avoir mis ça de côté pour se concentrer sur x86. S'ils en restent là c'est à mes yeux une erreur stratégique monumentale, mais le board d'AMD nous a habitué à ça....
 
edit : ach grilled


Message édité par fkanker le 04-07-2017 à 17:55:28
n°10180748
gurv75
Posté le 04-07-2017 à 21:17:27  profilanswer
0Votes positifs
 

zezinho a écrit :


 
Ce qui tient l'ARM loin du desktop n'est plus la performance depuis des années, mais l'ecosystème : il n'y a pas une architecture PC ARM standard, qui permettrait d'installer une même distribution Linux ou un windows 10 sur n'importe quelle machine. Android est adapté par les fabricants à chaque carte mère, on ne peut pas se permettre ça quand on veut diffuser un système d'exploitation indépendant du matériel.


 
Sans compter les drivers à la qualité et au suivi... "variables"...

n°10180770
Eric B
Posté le 04-07-2017 à 21:40:29  profilanswer
0Votes positifs
 

ARM sur desktop, avec un A10x si prometteur, Apple peut justement changer la donne.
Reste à savoir où Apple en est entre la convergence MacOS / iOS.

 

Sur ce coup, Microsoft a un point d avance, en tous cas sur le papier puisque Win10 ARM tel qu'annoncé est censé faire tourner tous les logiciels desktop.

 

Apple ayant la culture du secret, il serait plus du style à ne rien dévoiler jusqu'à l'annonce produit au keynote, et commandable dans la foulée. Par exemple avec une nouvelle gamme de MacBook Air en ARM!


Message édité par Eric B le 04-07-2017 à 22:00:12
n°10180771
gurv75
Posté le 04-07-2017 à 21:40:54  profilanswer
0Votes positifs
 

fkanker a écrit :


Ben totalement en fait, il faut juste un acteur qui le veuille. AMD avait commencé avec Skybridge, mais ils semblent avoir mis ça de côté pour se concentrer sur x86. S'ils en restent là c'est à mes yeux une erreur stratégique monumentale, mais le board d'AMD nous a habitué à ça....


 
Mouais, l'écosystème ARM reste misérable avec aucun acteur ne faisant d'effort sérieux en standardisation ou open/source. Si AMD a abandonné, c'est qu'il n'y a aucun intérêt en entreprise pour des solutions ARM.
 
Edit: un avis récent de Linus Torvald: https://linux.slashdot.org/story/16 [...] 6-over-arm
People are too fixated with the instruction set and the CPU core, Torvalds said. But ultimately "what matters is all the infrastructure around the instruction set, and x86 has all that infrastructure... at a lot of different levels. It's open in a way that no other architecture is... Being compatible just wasn't as big of a deal for the ARM ecosystem as it has been traditionally for the x86 ecosystem... I've been personally pretty disappointed with ARM as a hardware platform, not as an instruction set, though I've had my issues there, too. As a hardware platform, it is still not very pleasant to deal with."
 
 
Et je reste sceptique sur la capacité des solutions ARM à concurrencer les performances des CPU x86-64 dans des applications réelles.
 

Message cité 1 fois
Message édité par gurv75 le 04-07-2017 à 22:28:16
n°10180969
C_Wiz
Profil : Equipe HardWare.fr
Posté le 05-07-2017 à 10:23:53  profilanswer
0Votes positifs
 

gurv75 a écrit :


Mouais, l'écosystème ARM reste misérable avec aucun acteur ne faisant d'effort sérieux en standardisation ou open/source. Si AMD a abandonné, c'est qu'il n'y a aucun intérêt en entreprise pour des solutions ARM.


AMD n'a pas abandonné ?
 


C'est pas très récent. Un peu comme ces efforts que personne ne fait pour la standardisation open/source : https://www.arm.com/about/newsroom/ [...] andard.php
 
Ne surtout pas cliquer ce lien : https://github.com/ARM-software/sbsa-acs
 

gurv75 a écrit :


Et je reste sceptique sur la capacité des solutions ARM à concurrencer les performances des CPU x86-64 dans des applications réelles.


(...)

mood
Publicité
Posté le 05-07-2017 à 10:23:53  profilanswer
 

n°10181051
fkanker
Posté le 05-07-2017 à 12:19:28  profilanswer
0Votes positifs
 

C_Wiz a écrit :


AMD n'a pas abandonné ?


 
En parlant d'abandon, certains écrivent sur le forum de RWT que K12 aurait été annulé, ce qui serait une des raisons voire LA raison du départ de Jim Keller.
Kanter semble également affirmer que du fait de K12, Zen aurait été développé avec ARM en tête plutôt que x86.
Des infos sérieuses sur tout ça?

n°10181095
C_Wiz
Profil : Equipe HardWare.fr
Posté le 05-07-2017 à 13:33:09  profilanswer
0Votes positifs
 

Mes dernières nouvelles est qu'ils ont mis la priorité assez tôt sur Ryzen pour des raisons d'équipes, et de focus marketing (lancer un CPU arm serveur en même temps qu'Epyc c'était trop compliqué en message). De mémoire 2 ans avant le launch ils avaient mis toutes les équipes sur Ryzen pour tenter de tenir les délais.
 
"Kanter semble également affirmer que du fait de K12, Zen aurait été développé avec ARM en tête plutôt que x86."
 
Un lien ?

Message cité 1 fois
Message édité par C_Wiz le 05-07-2017 à 13:36:49
n°10181118
fkanker
Posté le 05-07-2017 à 13:52:43  profilanswer
0Votes positifs
 

C_Wiz a écrit :


"Kanter semble également affirmer que du fait de K12, Zen aurait été développé avec ARM en tête plutôt que x86."
 
Un lien ?


http://www.realworldtech.com/forum [...] tid=168578
 
Les quote du post devraient suffire à la compréhension, mais tu peux remonter un peu le thread pour avoir une meilleure vue du contexte.


Message édité par fkanker le 05-07-2017 à 13:52:58
n°10181150
Eric B
Posté le 05-07-2017 à 14:16:01  profilanswer
0Votes positifs
 

L'argument est: FPU limitée sur Zen à 128b car c'est la limite d ARM, donc pensée pour mutualiser la FPU entre Zen et K12.

 

Kanter et les autres intervenants sur ce topic sont qui? Car là bas comme ici maintenant, cela ressemble bcp à la prolifération de rumeurs...

Message cité 1 fois
Message édité par Eric B le 05-07-2017 à 14:34:55
n°10181161
fkanker
Posté le 05-07-2017 à 14:27:07  profilanswer
0Votes positifs
 

Eric B a écrit :

L'argument est: FPU limitée sur Zen à 128b car c'est la limite d ARM, donc pensée pour mutualisé la FPU entre Zen et K12.


Yep, mais c'est ce qui fait dire à certains que le pipeline tire plus sur ARM. Et Kanter semble aller dans ce sens. Et en soit, si l'objectif initial est juste de modifier le front-end entre K12 et Zen, ça parait logique.
 

Eric B a écrit :

Kanter et les autres intervenants sur ce topic sont qui? Car là bas comme ici maintenant, cela ressemble bcp à la prolifération de rumeurs...


Kanter dans le passé a fait des analyses pertinentes, Torvalds on connait, les autres je sais pas. Comme tout forum il faut prendre des pincettes oui, c'est pour ça que je demandais des infos "sérieuses".

n°10181261
C_Wiz
Profil : Equipe HardWare.fr
Posté le 05-07-2017 à 16:17:56  profilanswer
0Votes positifs
 

fkanker a écrit :


Yep, mais c'est ce qui fait dire à certains que le pipeline tire plus sur ARM. Et Kanter semble aller dans ce sens. Et en soit, si l'objectif initial est juste de modifier le front-end entre K12 et Zen, ça parait logique.


J'ai parcouru le thread donc, merci. C'est de la supposition de son côté pour être clair (il y a beaucoup d'intervenants qui spéculent à tout va et qui n'ont pas le "niveau" de Kanter qui fait de très bonnes analyses en général).
 
Je pense que sur les FPU 128 bits c'est un gros raccourci de relier ca au "pipeline designé pour ARM", mais je peux me tromper. Mutualiser des blocs pourquoi pas, mais les 2 designs étaient différents a ce qu'on m'avait dit. AMD a souvent fait des annonces marketing ou la mutualisation était vendue comme une sorte de synergie, ou je ne sais quel rêve de VP mal-formaté, qui n'avaient aucune réalité côté ingénieurs. Sous réserve qu'on ne m'ait pas pipoté, K12 a existé (contrairement a Skybridge qui était du vent complet).  
 
Pour moi il a été mis de côté (assez tôt) pour des raisons marketing et d'équipes. En fonction de comment Epyc prend, AMD le ressortira du carton plus ou moins vite je pense. C'est difficile comme message de dire d'un côté "l'avenir c'est les serveurs ARM" ou le marché, si il prend, sera beaucoup plus ouvert, et de l'autre se rappeler la réalité où l'on est une des deux sociétés a avoir la licence x86 à jour (coucou VIA !). De la même manière dire "dans un an on sort du ARM, achetez quand même des EPYC"...
 
C'est le genre de décisions stratégiques qui avait été prise plutôt assez en amont (pour le fait de mettre tout le monde sur Ryzen), la décision stratégique de continuer, en parler ou pas, je pense qu'il est difficile de savoir ce qu'ils ont en tête. A mon avis ils se laissent la possibilité d'ajuster la stratégie plus qu'une annulation. Mais si personne ne sort de CPU serveur ARM et qu'Epyc prend 30% de marché a Intel, ils annuleront :D
 

fkanker a écrit :


Kanter dans le passé a fait des analyses pertinentes, Torvalds on connait, les autres je sais pas. Comme tout forum il faut prendre des pincettes oui, c'est pour ça que je demandais des infos "sérieuses".


Personne n'est infaillible ! Sauf Marc bien sur :o


Message édité par C_Wiz le 05-07-2017 à 16:19:42
n°10181332
Eric B
Posté le 05-07-2017 à 18:50:56  profilanswer
0Votes positifs
 

Analyse pertinente, Guillaume.
Donc le AMD K12, pas pour tout de suite, mais à suivre suivant l'évolution du marché.

 

Et je persiste à penser que celui qui peut le plus pousser ARM sur desktop est Apple!
Dans son habitude de changer de plateforme tous les 10-15 ans (68k->PowerPC->Intel x86), Apple pourrait bien maximiser sa maîtrise de l ARM (comme montre ce A10x) et à moyen terme se débarrasser de la dépendance d'Intel!
Ce serait assez marrant de voir un MacOS et un Win10 ARM en // sur un CPU Apple A12 en ~2020 ;)


Message édité par Eric B le 05-07-2017 à 18:51:23
n°10181358
fkanker
Posté le 05-07-2017 à 19:38:52  profilanswer
0Votes positifs
 

Yep bonne analyse merci.
Pour le K12, une source plus ou moins crédible dit qu'il était taped-out fin 2015.

n°10181360
C_Wiz
Profil : Equipe HardWare.fr
Posté le 05-07-2017 à 19:47:50  profilanswer
0Votes positifs
 

Pour Apple la question c'est est ce que ca en vaut l'investissement (pour développer des puces a plus haut TDP).
 
En 2016, ventes en unités :
- Mac : 18,5 millions
- iPad : 45,5 millions
- iPhone : 211,8 millions (!)
 
Donc iPhone + iPad (les SoC ARM) ca représente juste 13.9x plus de ventes en unités (d'ou les économies d'échelles que j'évoquais ici ou dans l'autre).
 
A titre indicatif, marché mondial du PC (PC + Mac) en 2016 : 260-270 millions d'unités.

Message cité 1 fois
Message édité par C_Wiz le 05-07-2017 à 19:49:38
n°10181396
fkanker
Posté le 05-07-2017 à 21:00:35  profilanswer
0Votes positifs
 

C_Wiz a écrit :

Pour Apple la question c'est est ce que ca en vaut l'investissement (pour développer des puces a plus haut TDP).
 
En 2016, ventes en unités :
- Mac : 18,5 millions
- iPad : 45,5 millions
- iPhone : 211,8 millions (!)
 
Donc iPhone + iPad (les SoC ARM) ca représente juste 13.9x plus de ventes en unités (d'ou les économies d'échelles que j'évoquais ici ou dans l'autre).
 
A titre indicatif, marché mondial du PC (PC + Mac) en 2016 : 260-270 millions d'unités.


Clair que ça vaut le coup dans les macbook, dans le desktop/pro ça peut valoir le coup s'ils le vendent cher. En soit ils font bien un AxX pour 45 millions d'iPad. A priori un futur ARM AMD est cependant plus rentable pour une utilisation desktop/pro.
Mais justement, K12 étant un core hautes performances, possiblement utilisé pour du HPC, il est possible que non seulement ils attendent de voir comment tourne Epyc, mais surtout qu'ils implémentent SVE avant de le lancer?

n°10181439
C_Wiz
Profil : Equipe HardWare.fr
Posté le 05-07-2017 à 21:51:06  profilanswer
0Votes positifs
 

fkanker a écrit :


Clair que ça vaut le coup dans les macbook, dans le desktop/pro ça peut valoir le coup s'ils le vendent cher. En soit ils font bien un AxX pour 45 millions d'iPad. A priori un futur ARM AMD est cependant plus rentable pour une utilisation desktop/pro.
Mais justement, K12 étant un core hautes performances, possiblement utilisé pour du HPC, il est possible que non seulement ils attendent de voir comment tourne Epyc, mais surtout qu'ils implémentent SVE avant de le lancer?


Je crois que si Apple vendait 45 millions de Mac (et pas 18) la question se poserait franchement. 18 c'est quand même beaucoup moins que 45 :D
 
Après y'a une question de message donné aux développeurs. Apple a fait 2 transitions d'archis dans son histoire, 680X0 vers PowerPC, et PowerPC vers x86. Ce sont des transitions qui se sont faites plus ou moins rapidement (la deuxième a été très rapide), mais qui ont été totales. Aujourd'hui un A10X dans un Macbook (le plus petit modèle) serait déjà largement suffisant et meilleur que la chose qui sert de processeur a cette machine, sans besoin d'investissement nécéssaire. Aucun doute que ceux qui ont ces protos en mains doivent en être bien heureux comparativement à une version Core M. La question c'est, et après ?
 
Quand on fait une transition, c'est pour qu'elle soit totale. Donc ca veut dire sortir des relations contractuelles et de la dépendance au fournisseur précédent. Commencer à quitter Intel, ca veut dire avoir un plan pour toute la gamme de haut en bas. Parce que pour Intel, perdre Apple serait extrêmement dommageable en termes d'image, et de volume de ventes (18.5 Millions de CPU en moins, quand même, sur un marché déjà en contraction). Donc aucune raison pour Intel d'être arrangeant si Apple n'a pas de solution pour ses hauts de gamme (en termes de TDP). Aujourd'hui on peut imaginer facilement qu'ils peuvent couvrir toute la gamme laptop en déclinant leur archi, tout ce qui est desktop est plus compliqué parce que des TDP plus hauts. Et même si techniquement c'est plus facile de scaler les perfs en augmentant les TDP que l'inverse, c'est un chantier épais qui va réclamer au moins 3/4 dies différents par refresh (vs 2 pour iOS), pour quelques millions de pièces seulement.  
 
Bien sur AMD existe, on peut imaginer un Zen 2 dans un Mac Pro en solution de rattrapage, mais ca veut dire déclarer que MacOS est une plateforme double architecture. Microsoft semble vouloir faire ca (je reste prudent sur les restrictions de la plateforme ARM après RT) aujourd'hui, mais dans l'histoire sur les plateformes grand public on a rarement eu des coexistances d'archi, ou jamais très longtemps. Et l'idée d'utiliser un ARM concurrent, je n'y crois pas trop.  
 
Apple, après, évalue et prototype tout. Il y a eu des prototypes de Macbook Pro avec des APU AMD tellement... piètres, que le simple fait d'avoir l'idée d'en faire un prototype était déjà jeter de l'argent par les fenêtres. Alors les construire...
 
De ce qu'on sait, les relations sont tendues avec Intel d'un point de vue technique (Intel a planté Apple sur les GT4e empêchant les refresh de MBP, avec aucune solution de sortie sur les GPU vu que GT3e est ce qu'il y a de mieux sur les roadmaps), mais probablement avantageuses sur un plan commercial. Elles sont excessivement bonnes avec AMD, en très grande partie parce qu'elles sont cryogéniques avec Nvidia post Kepler licensing (ou Nvidia a vraiment fait n'importe quoi d'un point de vue stratégique).  
 
A court terme, panacher Intel/AMD en x86, clairement une option (si on vise le refresh de Zen/Zen2) même si en termes de couts, les gains seront probablement faibles parce qu'Intel fera tout commercialement pour que ca ne se fasse pas (en bradant sauvagement ses prix, la marge qu'Apple doit faire sur les futurs iMac Pro avec les Xeon 18C, qui sont pricés "contractuellement" aux prix Intel [pour ne pas les dévaluer] mais qu'Apple doit toucher trois cacahuetes et demi, d'ailleurs y'a surement une compensation par rapport aux bisbilles commerciales précédentes... oh que j'aimerai voir ce contrat !).
 
A moyen terme, transitionner vers du ARM maison (quitte à redéfinir les gammes), ca me parait une forte possibilité mais uniquement si poussée par des raisons autres que le cout (un // avec PowerPC serait l'impossibilité de fournir certains types de SKU, ce qui ne semble pas évident, ca peut être une dispute contractuelle [douteux tant pour Intel c'est critique de tuer l'idée qu'une alternative au x86 est possible, si la société qui fait les meilleurs coeurs ARM donne l'exemple en terme d'image c'est la fin], éventuellement quelque chose de technique [pour moi SVE, et tout le reste des arguments techniques arrive très loin derrière toutes autres considérations business]). A tout prendre, une simple raison interne genre faire plaisir aux équipes qui ont envie de jouer avec plus de 5W, ne m'étonnerai pas (pour lancer le développement des dies, et si ils sont effectivement déboitants, pourquoi ne pas les utiliser). Ca me parait (malheureusement) être un très gros chantier et beaucoup de moyens pour "pas grand chose".
 
Rendez vous dans un an j'imagine.

n°10181690
Eric B
Posté le 06-07-2017 à 10:43:20  profilanswer
0Votes positifs
 

Joli résumé! :jap:

 

18 millions de Mac, en effet, c est pas énorme.
Un macbook en ARM qui tient 30 h au lieu des 10-15h d un Core M pourrait bien trouver + de clients :)
Le chantier semble toutefois assez énorme du côté des éditeurs (Adobe& co): les app iOS sont encore loin d avoir la puissance des appli desktop! Comme les clients Apple sont traditionnellement des clients Adobe, je pense qu'Apple s'assura d'abord du soutien d Adobe / avancée du dev, avant de proposer une telle plateforme.


Message édité par Eric B le 06-07-2017 à 10:43:52
n°10181961
Yog Sothot​h
Conchie les religions
Posté le 06-07-2017 à 16:50:31  profilanswer
0Votes positifs
 

Lors de la transition 68K/powerPC il y avait des applications compilées pour les deux jeux d'instructions. Codes "FAT"

n°10181989
C_Wiz
Profil : Equipe HardWare.fr
Posté le 06-07-2017 à 17:35:26  profilanswer
0Votes positifs
 

Yog Sothoth a écrit :

Lors de la transition 68K/powerPC il y avait des applications compilées pour les deux jeux d'instructions. Codes "FAT"


Oui et le concept est revenu sous une forme plus élégante pour MacOS X et la transition PPC-> Intel.
 
Pour ceux que ca intéresse une application sur Mac (ou iOS), ca n'est pas un fichier (comme les .exe sous Windows) mais un répertoire (ce qu'Apple appelle un App Bundle : https://developer.apple.com/library [...] -CH8-SW2).
 
A l'intérieur d'un bundle on retrouve les ressources (divers fichiers qui sous Windows sont à côté de l'exe) et plusieurs executables compilés en fonction. Dans un bundle on peut avoir plusieurs archis target (plusieurs exe dans le repertoire, l'OS lancant automatiquement la plus adaptée), c'est utilisé sur iOS avec la génération d'un binaire 32 bits et 64 bits (et selon les époques d'autres binaires optimisés pour une archi précise, même si pour cet usage ils ont déplacé le problème dans LLVM récemment).  

n°10182038
Eric B
Posté le 06-07-2017 à 18:35:21  profilanswer
0Votes positifs
 

d'ailleurs, si Apple pousse autant à l ARM 64 avec la fin prévue du support de l ARM 32, c est peut etre pour laisser la place à une autre archi (x86-64)  :D

n°10182070
fkanker
Posté le 06-07-2017 à 19:50:00  profilanswer
1Votes positifs
 

Eric B a écrit :

d'ailleurs, si Apple pousse autant à l ARM 64 avec la fin prévue du support de l ARM 32, c est peut etre pour laisser la place à une autre archi (x86-64)  :D


Je pencherais plus vers la simplification du design des cores : plus besoin d'intégrer la rétrocompatibilité ARMv7.

n°10182166
ccomesa
Mr Slogan
Posté le 06-07-2017 à 23:49:22  profilanswer
0Votes positifs
 

Une question que personne n'a posser quoi faire de ce monstres dans un simple «smartphone» ça me dépasse

n°10182276
C_Wiz
Profil : Equipe HardWare.fr
Posté le 07-07-2017 à 09:47:05  profilanswer
0Votes positifs
 

fkanker a écrit :


Je pencherais plus vers la simplification du design des cores : plus besoin d'intégrer la rétrocompatibilité ARMv7.


Ding!
 
Y a aussi un problème au niveau des API/ABI, virer le 32 bits ca simplifie massivement les choses (et ca permet de ne pas avoir toutes les bibliothèques systèmes en double). Ils ont fait le choix assez tôt de laisser tomber le 32 bits pour iOS et deprecated l'année prochaine aussi pour Mac.

n°10182317
Eric B
Posté le 07-07-2017 à 10:55:30  profilanswer
0Votes positifs
 

bien sur, on l'a tous compris ainsi, mon précédent post était plutôt une boutade!
Si vraiment Apple supprime la couche 32b de ses OS, ils vont mathématiquement fortement diminuer, cad avec le prochain iOS, les iphone proposeront un espace utilisateur agrandi!
 
La maîtrise du SW et du HW sur qques modèle permet mine de rien à Apple de faire de telles choses (tout comme les migrations d archi).
 
Ceci est bcp plus difficilement pensable sur PC / Windows: même si MS pousse avec .NET Standard / UWP, c'est pas demain la veille que le Win32 va disparaître!
Au moins, le mode 64bits a permis de supprimer partiellement le mode 16bits (quoique encore dispo en legacy ou compatibility/protected: https://en.wikipedia.org/wiki/X86-64 )
 
Et sur mobile, c est encore pire, win10 mobile ne supporte QUE le mode ARM 32 bits. Le mode ARMv8 /64bits prévu est finalement passé à la trappe avec la fin annoncée de windows 10 mobile et ne sera supporté (et requis) pour Windows 10 ARM (où la compatibilité win32 est comparable à celle de x86-64, WoW). J'ai d'ailleurs tjs pas compris si Win10ARM pourra faire tourner du code x86-64, j ai l impression que la compatibilité x86 est limitée au 32 bits)

n°10182329
C_Wiz
Profil : Equipe HardWare.fr
Posté le 07-07-2017 à 11:16:55  profilanswer
0Votes positifs
 

Eric B a écrit :

Si vraiment Apple supprime la couche 32b de ses OS, ils vont mathématiquement fortement diminuer, cad avec le prochain iOS, les iphone proposeront un espace utilisateur agrandi!

Yep, supprimé sur iOS 11 (en septembre), deprecated dans un an sur Mac et probablement supprimé dans 2 ans sur Mac.  
 

Eric B a écrit :

J'ai d'ailleurs tjs pas compris si Win10ARM pourra faire tourner du code x86-64, j ai l impression que la compatibilité x86 est limitée au 32 bits)

L'émulateur de Microsoft est x86 only. Le problème de x86-64 est qu'il inclut de facto SSE/SSE2 (pour remplacer x87) et je pense que légalement Microsoft a préféré éviter d'aller au clash légal (cf un autre thread où ca off topic la dessus, celui sur le Pentium). Sur une émulation x86 basique Microsoft s'évite beaucoup de casses têtes et affaibli significativement la créativité des avocats d'Intel pour tenter de bloquer la chose, par rapport a une émulation x86-64 :)

n°10182341
Eric B
Posté le 07-07-2017 à 11:39:37  profilanswer
0Votes positifs
 

une fois de plus, les raisons business/marketing/légales sont plus importantes que celles techniques :jap:

n°10182489
C_Wiz
Profil : Equipe HardWare.fr
Posté le 07-07-2017 à 15:07:07  profilanswer
0Votes positifs
 

Intriguant : https://9to5mac.com/2017/07/07/appl [...] echnology/  
 
Ce qui est intriguant c'est ce passage : "We began working with Imagination in 2007 and stopped accepting new IP from them in 2015"
 
Y a eu beaucoup de suppositions comme quoi Apple modifiait allègrement l'IP qu'ils licenciaient (?) à ImgTech, c'est la première confirmation concrète (par Apple) que ça n'était pas juste un mythe (ca n'est clairement pas l'histoire que ImgTech racontait !).


Message édité par C_Wiz le 07-07-2017 à 15:09:02
n°10182893
fkanker
Posté le 08-07-2017 à 11:38:41  profilanswer
0Votes positifs
 

Si on mix ton lien avec le papier de Kanter sur le sujet il y a quelques mois, ça semble confirmer un GPU fully custom pour le A11.
 

C_Wiz a écrit :


Je crois que si Apple vendait 45 millions de Mac (et pas 18) la question se poserait franchement. 18 c'est quand même beaucoup moins que 45 :D


Je reviens un peu là-dessus. Avant je pensais aussi que le desktop ne permettait pas assez de volume pour qu'une archi "dédiée" à plus haut TDP et les dies qui vont avec soient rentables. Mais tes chiffres me font justement reconsidérer ça : ce sont des chiffres bruts, qu'on trouve un peu partout, mais par contre on ne trouve pas le détail des ventes, ce qui est dommage : Il faut voir la gestion des dies derrière les chiffres.
Dans les 45 millions d'iPad, on trouve les Air/2017, Mini et Pro. Si on regarde en 2016, seuls les Pro avaient le A9X, aujourd'hui seuls les Pro ont le A10X. Combien de Pro dans les 45 millions d'iPad? Ils ont fait un die pour peut-être 10/15 millions d'unités, qui aura été utilisé 1 an. Certes c'est le même core et même archi GPU que le SoC iPhone, mais quand même.
 
Dans les 18 millions de Mac, on doit trouver la moitié de macbook. Je vais être pessimiste et considérer 7 millions d'iMac/Mac Pro. Les refresh sur cette gamme ont été lents ces derniers temps, la faute d'Intel on va dire, d'AMD aussi pour les GPU d'ailleurs. Mais du coup, ils pourraient très bien faire évoluer l'archi mobile vers de plus hautes fréquences et fabriquer un seul die, sans GPU, qu'ils utiliseraient 2 ans ou plus. Quand je vois le gâchis de silicium pour l'Apple watch, je me dis qu'ils ne seraient pas à ça près.
Après, je pense que pour le Desktop, un seul die suffirait. Ils pourraient utiliser les SoC iPad sur les macbook et iMac 21" premier prix, le die Desktop sur les macbook pro, iMac avec GPU dédié et Mac Pro (en SMP ou multi comme Epyc).
 
Le tout serait de lancer le mouvement, après ils pourraient demander un K12+ à AMD pour baisser les coûts si ça se passe mal.
 

C_Wiz a écrit :

Après y'a une question de message donné aux développeurs. Apple a fait 2 transitions d'archis dans son histoire, 680X0 vers PowerPC, et PowerPC vers x86. Ce sont des transitions qui se sont faites plus ou moins rapidement (la deuxième a été très rapide), mais qui ont été totales. Aujourd'hui un A10X dans un Macbook (le plus petit modèle) serait déjà largement suffisant et meilleur que la chose qui sert de processeur a cette machine, sans besoin d'investissement nécéssaire. Aucun doute que ceux qui ont ces protos en mains doivent en être bien heureux comparativement à une version Core M. La question c'est, et après ?
 
Quand on fait une transition, c'est pour qu'elle soit totale. Donc ca veut dire sortir des relations contractuelles et de la dépendance au fournisseur précédent. Commencer à quitter Intel, ca veut dire avoir un plan pour toute la gamme de haut en bas. Parce que pour Intel, perdre Apple serait extrêmement dommageable en termes d'image, et de volume de ventes (18.5 Millions de CPU en moins, quand même, sur un marché déjà en contraction). Donc aucune raison pour Intel d'être arrangeant si Apple n'a pas de solution pour ses hauts de gamme (en termes de TDP). Aujourd'hui on peut imaginer facilement qu'ils peuvent couvrir toute la gamme laptop en déclinant leur archi, tout ce qui est desktop est plus compliqué parce que des TDP plus hauts. Et même si techniquement c'est plus facile de scaler les perfs en augmentant les TDP que l'inverse, c'est un chantier épais qui va réclamer au moins 3/4 dies différents par refresh (vs 2 pour iOS), pour quelques millions de pièces seulement.


 
Dans un cas défavorable, s'ils gardent x86 pour le desktop, ils peuvent très bien revenir aux Universal Binaries en standalone, et binaire ciblé pour l'appstore, sur du long terme. Je pense qu'aujourd'hui il est possible de faire coexister plusieurs ISA, et à terme ça peut faciliter une migration vers RISC-V par exemple. Et vu qu'ils ont porté Metal sur macOS et que ça a l'air de devenir l'API de choix, la seule question épineuse que je vois serait Thunderbolt sur les macbook.
 
Dans le pire des cas, qui ne nous intéresse pas, mais alors pas du tout, ils peuvent également ne rien changer et garder tranquillement x86 vu les volumes, et comme tu dis, la générosité commerciale d'Intel. Sans parler de la course à la puissance qui est revenue et demanderait du coup plus d'investissements et serait donc moins rentable (or Tim Cook ne voit que ça, la rentabilité).

n°10184118
C_Wiz
Profil : Equipe HardWare.fr
Posté le 10-07-2017 à 16:29:41  profilanswer
0Votes positifs
 

fkanker a écrit :


Je reviens un peu là-dessus. Avant je pensais aussi que le desktop ne permettait pas assez de volume pour qu'une archi "dédiée" à plus haut TDP et les dies qui vont avec soient rentables. Mais tes chiffres me font justement reconsidérer ça : ce sont des chiffres bruts, qu'on trouve un peu partout, mais par contre on ne trouve pas le détail des ventes, ce qui est dommage : Il faut voir la gestion des dies derrière les chiffres.
Dans les 45 millions d'iPad, on trouve les Air/2017, Mini et Pro. Si on regarde en 2016, seuls les Pro avaient le A9X, aujourd'hui seuls les Pro ont le A10X. Combien de Pro dans les 45 millions d'iPad? Ils ont fait un die pour peut-être 10/15 millions d'unités, qui aura été utilisé 1 an. Certes c'est le même core et même archi GPU que le SoC iPhone, mais quand même.


Bah on en revient au même, la gamme iOS, iPhone+iPad, c'est 2 dies par an. Par dessus ça, les gammes sont construites en utilisant soit le die inférieur, soit celui de l'an passé. Ca reste 2 dies.  
 
Mais je concède facilement qu'il y a un die qui ne sert probablement que sur très peu d'unités (parce qu'ils ont changé la constitution des gammes bizarrement autour des "Pro"/"reste", dans le but de relancer les ventes d'iPad).
 

fkanker a écrit :


Dans les 18 millions de Mac, on doit trouver la moitié de macbook. Je vais être pessimiste et considérer 7 millions d'iMac/Mac Pro.  


Dans le marché PC worldwide dans son ensemble, c'est au moins 60% laptop aujourd'hui. C'est probablement beaucoup, beaucoup plus chez Apple qui avait passé la barre des 50% très longtemps avant le monde du PC. 80% ne m’étonnerai pas du tout mais je crois pas qu'il y ait de chiffres récents (la PDM du Macbook Air serait sûrement inquiétante).  
 

fkanker a écrit :


Les refresh sur cette gamme ont été lents ces derniers temps, la faute d'Intel on va dire, d'AMD aussi pour les GPU d'ailleurs. Mais du coup, ils pourraient très bien faire évoluer l'archi mobile vers de plus hautes fréquences et fabriquer un seul die, sans GPU, qu'ils utiliseraient 2 ans ou plus.  
Après, je pense que pour le Desktop, un seul die suffirait. Ils pourraient utiliser les SoC iPad sur les macbook et iMac 21" premier prix, le die Desktop sur les macbook pro, iMac avec GPU dédié et Mac Pro (en SMP ou multi comme Epyc).


Les refresh ont été lents, oui, mais Intel a un "produit" par an. Il suffit de voir, même ici, le fait que Kaby Lake ne soit pas vu par beaucoup comme un stepping de Skylake. Donc d'un point de vue marketing si Apple dit "tous les deux ans", c'est un peu compliqué. Après on peut considérer laptop sur un cycle a un an et desktop sur un cycle a 2 ans.  
 
Pour le nombre de dies sinon, au doigt levé, j'en vois au minimum 3/4 en tout :
- Macbook (disons 5W) : on peut réutiliser le die iPad disons, on compte pas
- Macbook Pro (15-45W) : la gamme est bien compliquée avec un 15W de MBA et des dies plus gros sur les autres modèles, clarifier la gamme avec un seul die est possible, même si c'est tirer sur la corde. Je compterais deux dies, quitte a avoir un die 10 et un die 35W (et pas réutiliser le die de l'iPad).
- iMac : (65-90W selon le sens du vent) : là il faut un die  
- iMac Pro/Mac Pro (135-165W) : il faut aussi un die, ca va être difficile d'abandonner le segment quand ils lancent des machines avec des CPU Intel 18 coeurs dans 2 mois.  
 
Donc moi je compte facile 4 dies sans prendre en compte la question GPU pour couvrir toute la gamme. C'est quand même beaucoup d'efforts pour un marché de 18.5M. Le fait que la PDM des laptops soit énorme joue en la faveur de le faire (plus le TDP est faible et plus ils ont un avantage compétitif face au x86), il est vrai.  
 
Mais commercialement je ne suis toujours pas convaincu cf message précédent.  
 

fkanker a écrit :


Dans un cas défavorable, s'ils gardent x86 pour le desktop, ils peuvent très bien revenir aux Universal Binaries en standalone, et binaire ciblé pour l'appstore, sur du long terme. Je pense qu'aujourd'hui il est possible de faire coexister plusieurs ISA, et à terme ça peut faciliter une migration vers RISC-V par exemple. Et vu qu'ils ont porté Metal sur macOS et que ça a l'air de devenir l'API de choix, la seule question épineuse que je vois serait Thunderbolt sur les macbook.


Je ne crois pas a la coexistence des ISA sur le long terme pour des raisons commerciales (et c'est probablement dans un autre thread que je l'ai dit mais les "app bundle" sont déjà multi ISA), c'est trop dangereux de s'exposer a des "livraisons retardées" de la part d'Intel. Les choses sont déjà compliquées avec Qualcomm, si il faut entretenir une semi relation avec Intel... (Si Qualcomm s'excite, c'est qu'ils sentent leur fin venir).
 
Sinon pour Thunderbolt le problème est résolu dès l'année prochaine vu qu'Intel est forcé d'ouvrir son standard : http://www.hardware.fr/news/15124/ [...] olt-3.html  
 

fkanker a écrit :


Dans le pire des cas, qui ne nous intéresse pas, mais alors pas du tout, ils peuvent également ne rien changer et garder tranquillement x86 vu les volumes, et comme tu dis, la générosité commerciale d'Intel. Sans parler de la course à la puissance qui est revenue et demanderait du coup plus d'investissements et serait donc moins rentable (or Tim Cook ne voit que ça, la rentabilité).


Disons que quand je regarde les CPU dans les actuels Mac Pro, j'ai du mal a voir une volonté forte derrière le marché Mac. C'est de l'Ivy Bridge quand même, en 2017. Et globalement ils se sont un peu perdus sur la gamme Mac même si là ils tentent de changer les choses (avec un nouveau Mac Pro l'année prochaine, et des changements d'orientation après le bad buzz de la touch bar).
 

fkanker a écrit :


Quand je vois le gâchis de silicium pour l'Apple watch, je me dis qu'ils ne seraient pas à ça près.


Mais ce coup bas  :o

Message cité 1 fois
Message édité par C_Wiz le 10-07-2017 à 16:37:31
n°10184157
Eric B
Posté le 10-07-2017 à 17:34:22  profilanswer
0Votes positifs
 

Vu l age du mac pro, il y avait eu des rumeurs sur sa mort prochaine.
Difficile car c'est le cœur historique des machines Apple, mais c est vrai qu avec un volume aussi faible, c est commercialement discutable.
Surtout qu avec ce imac pro avec un xeon 18 cores
( https://www.theverge.com/2017/6/5/1 [...] -wwdc-2017 )
j ai du mal à voir le besoin d une gamme mac pro en +

 

Autant dire qu Apple va rester le gros client d Intel sur les modèles Xeon à faible consommation!
La gamme choisie sera à priori le Skylake EP E5 qui sort ces jours ci, non? A moins qu Apple attendre le Cannonlake en 10nm, mais cela semble risqué niveau timing.

Message cité 1 fois
Message édité par Eric B le 10-07-2017 à 17:40:46
n°10184215
fkanker
Posté le 10-07-2017 à 18:46:11  profilanswer
0Votes positifs
 

C_Wiz a écrit :


Dans le marché PC worldwide dans son ensemble, c'est au moins 60% laptop aujourd'hui. C'est probablement beaucoup, beaucoup plus chez Apple qui avait passé la barre des 50% très longtemps avant le monde du PC. 80% ne m’étonnerai pas du tout mais je crois pas qu'il y ait de chiffres récents (la PDM du Macbook Air serait sûrement inquiétante).  
 
Les refresh ont été lents, oui, mais Intel a un "produit" par an. Il suffit de voir, même ici, le fait que Kaby Lake ne soit pas vu par beaucoup comme un stepping de Skylake. Donc d'un point de vue marketing si Apple dit "tous les deux ans", c'est un peu compliqué. Après on peut considérer laptop sur un cycle a un an et desktop sur un cycle a 2 ans.  


 
Je n'imaginais pas autant de PdM pour les macbook. Donc 4-5 millions de machines... Mais je pense qu'ils pourraient s'en sortir avec un seul die Desktop. Un core Hurricane fait 4.2 mm2 en 16nm TSMC. Donc sur un process 10nm, en incluant le L2, on peut dire 5 mm2 par core. Donc 8 cores, un bon L3 et tout ce qui va autour, on doit arriver à environ 100 mm2 ?  
 

C_Wiz a écrit :


Pour le nombre de dies sinon, au doigt levé, j'en vois au minimum 3/4 en tout :
- Macbook (disons 5W) : on peut réutiliser le die iPad disons, on compte pas
- Macbook Pro (15-45W) : la gamme est bien compliquée avec un 15W de MBA et des dies plus gros sur les autres modèles, clarifier la gamme avec un seul die est possible, même si c'est tirer sur la corde. Je compterais deux dies, quitte a avoir un die 10 et un die 35W (et pas réutiliser le die de l'iPad).
- iMac : (65-90W selon le sens du vent) : là il faut un die  
- iMac Pro/Mac Pro (135-165W) : il faut aussi un die, ca va être difficile d'abandonner le segment quand ils lancent des machines avec des CPU Intel 18 coeurs dans 2 mois.  
 
Donc moi je compte facile 4 dies sans prendre en compte la question GPU pour couvrir toute la gamme. C'est quand même beaucoup d'efforts pour un marché de 18.5M. Le fait que la PDM des laptops soit énorme joue en la faveur de le faire (plus le TDP est faible et plus ils ont un avantage compétitif face au x86), il est vrai.  


 
Apple pourrait faire avec le die Desktop exactement ce que fait AMD avec Zeppelin : Exploiter les 8 cores, en désactiver, coller 4 dies sur un socket. Ca a l'air de se vendre (à prendre avec des pincettes...), et je n'ai pas l'impression qu'Epyc ait reçu un mauvais accueil.
 
- Macbook : on est d'accord.
- Macbook Pro : die iPad en entrée de gamme, die Desktop/4 cores@35W + GPU dédié en plus haut de gamme.
- iMac : die iPad sur le 21" en entrée de gamme, die Desktop 4/6/8 cores et GPU dédié pour le reste.
- iMac Pro/Mac Pro : 2/4 dies Desktop sur un socket, ou SMP.
 
Le but, vu les volumes, c'est d'être présent sur le desktop. Et sans trop d'efforts.
 
 

C_Wiz a écrit :


Disons que quand je regarde les CPU dans les actuels Mac Pro, j'ai du mal a voir une volonté forte derrière le marché Mac. C'est de l'Ivy Bridge quand même, en 2017. Et globalement ils se sont un peu perdus sur la gamme Mac même si là ils tentent de changer les choses (avec un nouveau Mac Pro l'année prochaine, et des changements d'orientation après le bad buzz de la touch bar).


Vu les volumes, pourquoi changer trop vite... Et en effet, ils se sont perdus sur la gamme Mac. Supprimer la tour était une erreur.
 

C_Wiz a écrit :


Mais ce coup bas  :o


Tu m'as tué  :lol:

n°10184414
lulunico06
Posté le 10-07-2017 à 23:35:48  profilanswer
0Votes positifs
 

Si apple fait un die pour iPad un peu plus gros que d'habitude 150-175 mm2 il peut le décliner en iPad avec des fréquences basses pour maintenir le tdp.
Il pourra être utilisé en MacBook.
Ce même die avec des fréquences plus haute  pourra être utilisé en MacBook pro 13 pouces.
Pour le reste de la gamme un seul die plus gros suffit.
Basse fréquence pour le MacBook pro 15 pouces et en haute fréquence pour les iMac.
Dans les 2 cas un gpu dédié en plus si besoin.
Reste le mac pro.
Lui je ne vois pas trop.
Un die rien que pour lui ne serait pas rentable.
Si Apple avait encore les xserve il y aurait plus de volume.
Peut être un mcm du die MacBook pro 15 pouces / iMac avec gpu désactivé.
Avec la aussi gpu dédié.
Niveau cpu si que 64 bits Apple va pouvoir simplifier le design des core.
Par contre il serait intéressant de rajouter smt et turbo.
Le a11 si smt toujours 2 core haute performance si non 3 et le a11x 3 core si smt si non 4.
Pour le die MacBook pro 15 pouces / iMac le double 6 si smt si non 8 core.

n°10184529
C_Wiz
Profil : Equipe HardWare.fr
Posté le 11-07-2017 à 10:20:05  profilanswer
0Votes positifs
 

Eric B a écrit :

Vu l age du mac pro, il y avait eu des rumeurs sur sa mort prochaine.  
Difficile car c'est le cœur historique des machines Apple, mais c est vrai qu avec un volume aussi faible, c est commercialement discutable.
Surtout qu avec ce imac pro avec un xeon 18 cores
( https://www.theverge.com/2017/6/5/1 [...] -wwdc-2017 )
j ai du mal à voir le besoin d une gamme mac pro en +
 
Autant dire qu Apple va rester le gros client d Intel sur les modèles Xeon à faible consommation!
La gamme choisie sera à priori le Skylake EP E5 qui sort ces jours ci, non? A moins qu Apple attendre le Cannonlake en 10nm, mais cela semble risqué niveau timing.


Oui c'est Skylake EP pour l'iMac Pro.
 
Pour le Mac Pro, c'est eux qui l'ont annoncé en fait : https://daringfireball.net/2017/04/the_mac_pro_lives
 
L'intérêt principal, c'est le TDP global de la machine. Un iMac (même plus épais) c'est tout petit, et ca ne tient pas une carte graphique 300W (encore moins deux) en plus d'un Xeon (ou deux).
 

fkanker a écrit :


Apple pourrait faire avec le die Desktop exactement ce que fait AMD avec Zeppelin : Exploiter les 8 cores, en désactiver, coller 4 dies sur un socket. Ca a l'air de se vendre (à prendre avec des pincettes...), et je n'ai pas l'impression qu'Epyc ait reçu un mauvais accueil.
 


Oui c'est une possibilité, mais ca veut dire développer les interconnexions nécessaires et gérer des choses en plus, niveau cout je ne sais pas. Mais un unique die du laptop au desktop trop haut de gamme, c'est complètement inélégant à mon gout. Le pseudo Ryzen "laptop" en Zeppelin c'est pas exactement élégant non plus.  
 

fkanker a écrit :


Le but, vu les volumes, c'est d'être présent sur le desktop. Et sans trop d'efforts.


Je reste perplexe parce qu'en général quand tu annonces du changement, c'est pour quelque chose de significativement mieux. Je vois bien l'argument sur laptop, je le vois moins sur Desktop (le prix n'étant pas un argument).  
 

fkanker a écrit :


Vu les volumes, pourquoi changer trop vite... Et en effet, ils se sont perdus sur la gamme Mac. Supprimer la tour était une erreur.


Et visiblement ils ne s'en sont aperçus qu'en début d'année, post touch bar. Vu l'état de semi abandon d'une grande partie de la gamme Mac, je pense qu'ils vont plutôt concentrer leurs efforts a cout terme sur leur autre plateforme. Mais j'aimerais être surpris. A moyen terme c'est une autre histoire.

n°10184591
Eric B
Posté le 11-07-2017 à 12:12:12  profilanswer
0Votes positifs
 

C_Wiz a écrit :


Oui c'est Skylake EP pour l'iMac Pro.
Pour le Mac Pro, c'est eux qui l'ont annoncé en fait : https://daringfireball.net/2017/04/the_mac_pro_lives
L'intérêt principal, c'est le TDP global de la machine. Un iMac (même plus épais) c'est tout petit, et ca ne tient pas une carte graphique 300W (encore moins deux) en plus d'un Xeon (ou deux).


Ok, un mac pro avec gros GPU, mais pas avant 2018. Et très probablement plus gros physiquement que le MacPro actuel qui justement pose problème avec le TDP d'un gros GPU.
L'article confirme par ailleurs ton estimation 80/20 sur la part des notebook:

Citation :

  • Apple’s research shows that 15 percent of all Mac users use at least one “pro” app frequently. These are apps for things like music creation, video editing, graphic design, and software development. Basically, apps that are performance intensive. An additional 15 percent of Mac users use pro apps less frequently but at least a few times per month. That 30 percent of the overall Mac user base is what Apple considers the “pro” market.
  • Overall, the split between notebooks and desktops in Mac sales is roughly 80/20.
  • Even among pro users, notebooks are by far the most popular Macs. In second place are iMacs. The Mac Pro is third. Apple declined to describe the Mac Pro’s share of all Mac sales any more specifically than “a single-digit percent”, but my gut feeling is that the single digit is a lot closer to 1 than it is to 9.


Clairement, 20% de desktops, avec une large majorité pour les iMac, à la louche disons aussi 80/20.
Donc sur les 18 millions de Mac, cela fait ~14 millions de mac book (air et pro), 3 millions de iMac, et < 1 million de MacPro, sans doute même < 500 k.

 

Avec le iMac Pro annoncé, il est probable que bcp de clients du macPro fassent l upgrade, ne laissant vraiment qu une part encore bcp plus petite (250k?) pour le 'MacPro 2018 super GPU' !


Message édité par Eric B le 11-07-2017 à 12:22:53
n°10184594
C_Wiz
Profil : Equipe HardWare.fr
Posté le 11-07-2017 à 12:17:23  profilanswer
0Votes positifs
 

Yep pour le Mac Pro, probablement pas une énormeeeeuh tour mais probablement plus gros que l'actuel (tout petit) tube.
 

Eric B a écrit :


L'article confirme par ailleurs ton estimation 80/20 sur la part des notebook:

Citation :

Overall, the split between notebooks and desktops in Mac sales is roughly 80/20.



Il me semblait bien l'avoir lu mais pas retrouvé la source ! Merci pour la confirmation !

n°10184762
fkanker
Posté le 11-07-2017 à 14:57:04  profilanswer
0Votes positifs
 

C_Wiz a écrit :


Oui c'est une possibilité, mais ca veut dire développer les interconnexions nécessaires et gérer des choses en plus, niveau cout je ne sais pas. Mais un unique die du laptop au desktop trop haut de gamme, c'est complètement inélégant à mon gout. Le pseudo Ryzen "laptop" en Zeppelin c'est pas exactement élégant non plus.  


On est bien d'accord, c'est pas très propre. Et selon le goût actuel, s'ils appliquent la philosophie Steve Jobs, ils ne le feront pas (même leurs barrettes de RAM sont des oeuvres d'art...).
Mais, quand Intel l'a fait avec le Pentium D, tout le monde disait "quelle horreur". Quand ils l'ont fait avec le Core 2 Quad, ça n'a pas gêné grand monde.
Réciproquement, on se souvient tous de l'élégant Barcelona et son "quad-core natif".... Quand le produit est bon, l'élégance de la solution ne compte plus.
 

C_Wiz a écrit :


Je reste perplexe parce qu'en général quand tu annonces du changement, c'est pour quelque chose de significativement mieux. Je vois bien l'argument sur laptop, je le vois moins sur Desktop (le prix n'étant pas un argument).  


Au niveau marketing c'est en effet dur à justifier si la performance est la même. Mais tant que la compatibilité Windows reste, et elle devrait rester, pas de soucis à mon avis. Si par contre le CPU déboite ou fait même juste 20% de plus, là c'est jackpot.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : 3D NAND 96 couches chez Toshiba et Western[HFR] Actu : Minage : les GTX 1060 et 1070 impactées
[HFR] Actu : 1ers tests de la Radeon Vega Frontier Edition[HFR] Dossier : Intel Core i9-7900X et Core i7-7740X en test : déjà-vus ?
[HFR] Actu : Intel 545s, 1er SSD en NAND 3D 64 couches[HFR] Actu : Toshiba combine NAND 3D et QLC
Plus de sujets relatifs à : [HFR] Actu : Apple premier en 10nm chez TSMC


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)