Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2737 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11
Auteur Sujet :

[Topic unique] AMD Zen 5 9xxx, 2024, +15%IPC 4nm?

n°11327726
tomballast​t
Posté le 04-03-2024 à 21:44:40  profilanswer
 

Reprise du message précédent :
Salut à tous !
 
Sait-on si les futurs Ryzen 9 9950X seront compatibles avec les chipset B650 actuels ? :jap:

Message cité 1 fois
Message édité par tomballastt le 04-03-2024 à 21:44:53
mood
Publicité
Posté le 04-03-2024 à 21:44:40  profilanswer
 

n°11327730
havoc_28
Posté le 04-03-2024 à 21:53:10  profilanswer
 

tomballastt a écrit :

Salut à tous !
 
Sait-on si les futurs Ryzen 9 9950X seront compatibles avec les chipset B650 actuels ? :jap:


 
Zen 5 (donc la série 9000), sortira sur AM5, y aura pas de DDR6 cette année, donc pas d'AM6, donc oui ça sortira sur AM5 et l'actuelle série 600 de chipset.


Message édité par havoc_28 le 04-03-2024 à 21:54:27
n°11327789
PSX86
ZeroAndOne
Posté le 05-03-2024 à 10:21:52  profilanswer
 

DDR6 on en a pour quelques années ... Zen 7 sur AM6 peut être à peu près ... En sachant que ça va pas être sympa sur les prix de la DDR6 pendant au moins 1 an et demi.

Message cité 1 fois
Message édité par PSX86 le 05-03-2024 à 10:22:30
n°11327811
havoc_28
Posté le 05-03-2024 à 11:48:20  profilanswer
 

PSX86 a écrit :

DDR6 on en a pour quelques années ... Zen 7 sur AM6 peut être à peu près ... En sachant que ça va pas être sympa sur les prix de la DDR6 pendant au moins 1 an et demi.


 
Quand l'AM5 est sortie, la DDR5 n'était pas spécialement abordable. La ratification de la DDR6 c'est toujours prévu pour fin 2024 avec une production en masse courant 2025.
 
AMD la prévision de support de l'AM5 c'est jusqu'à présent un vague 2025+. Avec leurs systèmes à Chiplets, ceux ci sont agnostique à la ram utilisé, suffit d'avoir un IOD compatible avec la ram en question. On aurait même pu avoir du Zen 5 sur AM4, mais les gains auraient été moindre (pas les gains de la BP de la DDR5, pas la dernière connectique du moment) et faut bien tracer une ligne à un moment l'AM4 avait déjà bien vécu. Donc Zen 6 peut très bien être sur AM5, comme il pourrait être sur AM6 en fonction du calendrier du JEDEC et si la DDR6 offre suffisamment de gains ou non vs la DDR5 à ce moment là.  
 
Le cycle de vie de la DDR4 a été particulièrement long, une anomalie par rapports aux autres standards coté DDR.

Message cité 1 fois
Message édité par havoc_28 le 05-03-2024 à 11:56:50
n°11327813
MEI
|DarthPingoo(tm)|
Posté le 05-03-2024 à 11:55:16  profilanswer
 

havoc_28 a écrit :


 
Quand l'AM5 est sortie, la DDR5 n'était pas spécialement abordable. La ratification de la DDR6 c'est toujours prévu pour fin 2024 avec une production en masse courant 2025.
 
AMD la prévision de support de l'AM5 c'est jusqu'à présent un vague 2025+.  
 
Le cycle de vie de la DDR4 a été particulièrement long, une anomalie par rapports aux autres standards coté DDR.


Comme dit, perso je pense qu'on aura au l'AM5 jusqu'à Zen 6. La stratégie d'AMD c'est de rester accessible. On a encore en 2024 l'AM4 au catalogue, avec des nouveaux produit. Je vois pas même en fin 2026/début 2027 de l'AM6.
 
Comme d'hab Intel va débroussailler ça avec leur avantage de géré plusieurs standard RAM avec le même socket.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°11327814
havoc_28
Posté le 05-03-2024 à 11:57:29  profilanswer
 

MEI a écrit :


Comme dit, perso je pense qu'on aura au l'AM5 jusqu'à Zen 6. La stratégie d'AMD c'est de rester accessible. On a encore en 2024 l'AM4 au catalogue, avec des nouveaux produit. Je vois pas même en fin 2026/début 2027 de l'AM6.


 
C'était accessible l'AM5 à sa sortie ? Que ce soit le prix des cartes mères, la DDR5 ou même le ticket d'entrée (7600X à l'époque). On était clairement pas sur  une plateforme amie du porte monnaie.  
 
Et si l'AM6 sort en 2026 c'est quoi le problème au fond ? Comme lors de l'introduction de l'AM5, celui ci pourrait faire office d'entrée de gamme dans un premier temps, le temps que l'écosystème AM6 baisse petit à petit niveau tarif.
 

MEI a écrit :

Comme d'hab Intel va débroussailler ça avec leur avantage de géré plusieurs standard RAM avec le même socket.


 
Parce qu'AMD n'a jamais fait quelque chose de similaire ? :o. Sauf qu'au lieux d'avoir un même socket, ils ont utilisé la même génération de proc mais sur deux sockets différents, AM2+ et AM3.

Message cité 1 fois
Message édité par havoc_28 le 05-03-2024 à 12:06:25
n°11327817
MEI
|DarthPingoo(tm)|
Posté le 05-03-2024 à 12:06:16  profilanswer
 

havoc_28 a écrit :


 
C'était accessible l'AM5 à sa sortie ? Que ce soit le prix des cartes mères, la DDR5 ou même le ticket d'entrée (7600X à l'époque). On était clairement pas sur  une plateforme amie du porte monnaie.  
 
Et si l'AM6 sort en 2026 c'est quoi le problème au fond ? Comme lors de l'introduction de l'AM5, celui ci pourrait faire office d'entrée de gamme dans un premier temps, le temps que l'écosystème AM6 baisse petit à petit niveau tarif.


Zen 5 n'étais pas ultra accéssible, mais déjà BEAUCOUP plus que la DDR5 Intel ~ 1 an plus tôt.
 
Après le vrai soucis pour moi, c'est la compétitivité. Et ça joue aussi chez Intel. Mais si la DDR6 n'apporte pas un vrai gain quantifiable en IPC, ça n'a pas d'intérêt. Et vu les benchs DDR4 vs DDR5 chez Intel, bah on peux vraiment se demander l'intérêt de la DDR6. Et ça a tjrs été le cas, la RAM est utilisé que si les perfs sont nécessaires.
 
Avec des projections chez AMD toujours en 16C et chez Intel à passer de 8P+16E => 16 RU, j'ai peur que le besoin en BP n'explose pas tout de suite.
 
AMHA on risque plutôt de voir la AM6 débuter avec un APU Zen 6+RDNA5 ~ 12 mois après le Zen 6 desktop. Car là oui en APU ça peux faire sens. Mais sinon non.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°11327820
havoc_28
Posté le 05-03-2024 à 12:13:49  profilanswer
 

MEI a écrit :


Zen 5 n'étais pas ultra accéssible, mais déjà BEAUCOUP plus que la DDR5 Intel ~ 1 an plus tôt.


 
A peine un peu moins coté DDR5, les cartes mères  :sarcastic:  Et puis Intel a rapidement sortie la série de proc non K, alors qu'avant de voir débarquer les 7600 non et 7500f il en a fallut du temps.  
 

MEI a écrit :


Après le vrai soucis pour moi, c'est la compétitivité. Et ça joue aussi chez Intel. Mais si la DDR6 n'apporte pas un vrai gain quantifiable en IPC, ça n'a pas d'intérêt. Et vu les benchs DDR4 vs DDR5 chez Intel, bah on peux vraiment se demander l'intérêt de la DDR6. Et ça a tjrs été le cas, la RAM est utilisé que si les perfs sont nécessaires.


 
Si la DDR5 n'apporte rien ou presque, on aurait pu avoir du Zen 5 sur AM4 en suivant cette logique.  
 
Zen 3, le scalling du 5950X vs le 5900 est un peu moins bon que celui de Zen 2 en passant de 12 à 16 coeurs, la DDR4 devenant un frein.  
 

MEI a écrit :


Avec des projections chez AMD toujours en 16C et chez Intel à passer de 8P+16E => 16 RU, j'ai peur que le besoin en BP n'explose pas tout de suite.


 
C'est pour Zen 5 ça, si tu as déjà les projections pour Zen 6 ou l'après Arrow Lake, chapeau. Et y a des domaines ou la BP est toujours bonne à prendre, compression / décompression et dans une moindre mesure les jeux si les cartes graphiques progressent fortement niveau perf.  
 

MEI a écrit :


AMHA on risque plutôt de voir la AM6 débuter avec un APU Zen 6+RDNA5 ~ 12 mois après le Zen 6 desktop. Car là oui en APU ça peux faire sens. Mais sinon non.


 
Moi j'aurais aucune certitude sur le socket employé par AMD pour Zen 6, je dis juste que c'est tout à fait possible que l'AM6 sorte plus tôt qu'envisagé par beaucoup.


Message édité par havoc_28 le 05-03-2024 à 12:19:48
n°11327821
PSX86
ZeroAndOne
Posté le 05-03-2024 à 12:21:38  profilanswer
 

Alors j'avais vu une roadmap AM5 mais retrouve plus qui disais jusqu'à Zen 6. Mais nouveau IOD pour Zen 6, alors j'ai des petits doutes :s.

n°11327825
havoc_28
Posté le 05-03-2024 à 12:34:19  profilanswer
 

PSX86 a écrit :

Alors j'avais vu une roadmap AM5 mais retrouve plus qui disais jusqu'à Zen 6. Mais nouveau IOD pour Zen 6, alors j'ai des petits doutes :s.


 
Zen 6, une des rumeurs parle de passer à un système type interposer (donc une solution "active" ), IOD et Chiplet collés les uns au autre sur un même substrat, fini les actuels pistes cuivre sur un simple PCB comme actuellement.
 
Ce qui réduirait la consommation au repos et surtout permettrait des débits plus important entre IOD et Chiplet le tout avec moins de latence, après le coût du packaging sera plus élevé en contre partie mais rien d'insurmontable.
 
ça ne contredit en rien une utilisation sur AM5 cela dit, sur AM4 on est passé d'une puce monolithique à un système à chiplet.


Message édité par havoc_28 le 05-03-2024 à 12:36:56
mood
Publicité
Posté le 05-03-2024 à 12:34:19  profilanswer
 

n°11327827
PSX86
ZeroAndOne
Posté le 05-03-2024 à 12:40:50  profilanswer
 

Mais un nouveau IOD serait utile pour 2 générations .. du coup petit doutes qu'il soit forcement avec des contrôleurs mémoires pour de la DDR5. Quelques questions se posent à moi :s

Message cité 1 fois
Message édité par PSX86 le 05-03-2024 à 12:42:58
n°11327912
MEI
|DarthPingoo(tm)|
Posté le 05-03-2024 à 15:41:30  profilanswer
 

PSX86 a écrit :

Mais un nouveau IOD serait utile pour 2 générations .. du coup petit doutes qu'il soit forcement avec des contrôleurs mémoires pour de la DDR5. Quelques questions se posent à moi :s


AMHA, avec un interposer, on peut largement imaginer un cIOD, un MCD DDR5 et un CCD Zen 6.
 
Ce qui pourrait laisser une grosse flexibilité pour le futur !
- avoir un MCD DDR6 et sortir du Zen 6 DDR6
- avoir un cIOD qui évolue en fonction du marcher en limitant le cout du redesign, genre pour PCIe Gen 6 ou surtout l'USB4+...
 
Je pense même qu'à plus long terme, chez Intel comme AMD, on aura aussi le GCD à part. Ce qui permettrais de faire des APU non monolithique


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°11327986
spark
Luc ?
Posté le 05-03-2024 à 21:27:47  profilanswer
 

[:ill nino]


---------------
Un cycle complet sera une série de 100.
n°11329323
Zack38
Posté le 14-03-2024 à 03:29:06  profilanswer
 

[:jcqs]


---------------
Méta-Topic Hardware
n°11330804
josedsf
Posté le 20-03-2024 à 10:50:43  profilanswer
 

Lancement en septembre ?
https://www.hardwaretimes.com/amd-r [...] rrow-lake/


---------------
Guide cpu / Zen4
n°11332192
PSX86
ZeroAndOne
Posté le 28-03-2024 à 03:18:51  profilanswer
 

https://www.tweaktown.com/news/9715 [...] index.html
 
Qu'est ce que je disais sur Microsoft sur les besoins de NPU pour du local (Havoc) ? XD Et après ça va être d'autres applications bien sûr.
Comme disais un collègue ici les NPU vont être le Ray Tracing des CPU .. ça enchante pas vraiment hein ? XD

Message cité 1 fois
Message édité par PSX86 le 28-03-2024 à 10:30:03
n°11332241
havoc_28
Posté le 28-03-2024 à 13:05:54  profilanswer
 

PSX86 a écrit :

https://www.tweaktown.com/news/9715 [...] index.html
 
Qu'est ce que je disais sur Microsoft sur les besoins de NPU pour du local (Havoc) ? XD Et après ça va être d'autres applications bien sûr.
Comme disais un collègue ici les NPU vont être le Ray Tracing des CPU .. ça enchante pas vraiment hein ? XD


 
Je dirais déjà,  Copilot, ça sert à quoi ?   [:cerveau quest]  . Et quelles autres applications ?  
L'IA va accélérer internet comme les pentium 4 ?  [:cerveau du chaos] .
 
J'attend toujours qu'on me démontre les apports concret pour une utilisation lambda de ce genre de trucs, plus de TOPs ? Mais à quoi ils servent vos TOPs déjà ?  [:cerveau kneu]  . Genre je vais composer une image via IA en local ? Ha bas un GPU c'est clairement plus véloce pour ça  [:cerveau afrojojo]  
 
https://www.tomshardware.com/pc-com [...] erformance
 
Economiser un peu de batterie et de bande passante pour les ordinateurs portables ? Mais sur desktop ?  [:cerveau chacal_one]  
 
Je lis des articles comme ça, j'ai toujours aucune idée de comment ça améliore mon expérience au quotidien concrètement. Quand y aura des exemples en utilisation réelle très bien, jusqu'à présent à nouveau j'ai toujours rien vu, si ce n'est surfé sur la vague de l'IA.
 
Je dois donc m'extasier pour ça :  
 
https://www.microsoft.com/en-us/win [...] atures?r=1
 
 [:cerveau skyzor]
 

Citation :

New for Windows 11, Copilot in Windows is an AI-powered assistant that helps you get answers and inspirations from across the web, supports creativity and collaboration, and helps you focus on the task at hand.


 
 [:cerveau pingouino]
 
Le RayTracing au moins je sais facilement à quoi il sert, tout comme 5 ans et demis après Turing, jouer sans RT est toujours possible, de toute façon la comparaison est pas forcément très pertinente.

Message cité 2 fois
Message édité par havoc_28 le 28-03-2024 à 15:26:41
n°11332264
MEI
|DarthPingoo(tm)|
Posté le 28-03-2024 à 15:30:14  profilanswer
 

havoc_28 a écrit :


 
Je dirais déjà,  Copilot, ça sert à quoi ?   [:cerveau quest]  . Et quelles autres applications ?  
L'IA va accélérer internet comme les pentium 4 ?  [:cerveau du chaos] .
 
J'attend toujours qu'on me démontre les apports concret pour une utilisation lambda de ce genre de trucs, plus de TOPs ? Mais à quoi ils servent vos TOPs déjà ?  [:cerveau kneu]  . Genre je vais composer une image via IA en local ? Ha bas un GPU c'est clairement plus véloce pour ça  [:cerveau afrojojo]  
 
https://www.tomshardware.com/pc-com [...] erformance
 
Economiser un peu de batterie et de bande passante pour les ordinateurs portables ? Mais sur desktop ?  [:cerveau chacal_one]  
 
Je lis des articles comme ça, j'ai toujours aucune idée de comment ça améliore mon expérience au quotidien concrètement. Quand y aura des exemples en utilisation réelle très bien, jusqu'à présent à nouveau j'ai toujours rien vu, si ce n'est surfé sur la vague de l'IA.
 
Je dois donc m'extasier pour ça :  
 
https://www.microsoft.com/en-us/win [...] atures?r=1
 
 [:cerveau skyzor]
 

Citation :

New for Windows 11, Copilot in Windows is an AI-powered assistant that helps you get answers and inspirations from across the web, supports creativity and collaboration, and helps you focus on the task at hand.


 
 [:cerveau pingouino]
 
Le RayTracing au moins je sais facilement à quoi il sert, tout comme 5 ans et demis après Turing, jouer sans RT est toujours possible, de toute façon la comparaison est pas forcément très pertinente.


De mémoire une 7900 XTX c'est ~200 TOPS en IA. Donc oui on s'est un faux pb.
 
De plus des accélérateur d'IA en M.2 arrivent, y'a au moins 2 modèles quasi production ready. Donc les CPU actuels ne seront pas obsolètes si facilement que ça.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°11332266
chaced
Posté le 28-03-2024 à 15:33:47  profilanswer
 

après de l'ia avec un gpu c'est loin de l'optimal.
 
https://www.lesnumeriques.com/intel [...] 18815.html


---------------
CPU-Z | Timespy | Mes bd
n°11332268
havoc_28
Posté le 28-03-2024 à 15:42:29  profilanswer
 

chaced a écrit :

après de l'ia avec un gpu c'est loin de l'optimal.
 
https://www.lesnumeriques.com/intel [...] 18815.html


 
Bon là c'est un processeur extrêmement spécialisé dans le langage donc d'un coté ? Tu vas pas générer d'image avec ça par exemple, c'est super pour Chat GPT et compagnie mais la plage d'utilisation est beaucoup plus réduite par rapport à ce qu'englobe la sphère de l'apprentissage machine / IA.

n°11332270
MEI
|DarthPingoo(tm)|
Posté le 28-03-2024 à 15:43:41  profilanswer
 

chaced a écrit :

après de l'ia avec un gpu c'est loin de l'optimal.
 
https://www.lesnumeriques.com/intel [...] 18815.html


En rendement non, puisque c'est une capacité complémentaire.
 
Donc oui un M.2 d'IA @ 50Tops consommera que quelques W pour ses 50Tops, alors qu'un GPU @ 200Tops sera plutôt dans les quelques centaines de W.
 
 


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°11332272
chaced
Posté le 28-03-2024 à 15:55:12  profilanswer
 

havoc_28 a écrit :


 
Bon là c'est un processeur extrêmement spécialisé dans le langage donc d'un coté ? Tu vas pas générer d'image avec ça par exemple, c'est super pour Chat GPT et compagnie mais la plage d'utilisation est beaucoup plus réduite par rapport à ce qu'englobe la sphère de l'apprentissage machine / IA.


 
je parlais plutôt face a un H200 qui est un vrai gpu mais dédié a l'ia, c'est la façon facile de faire de l'ia mais qui est un gouffre a watt.


---------------
CPU-Z | Timespy | Mes bd
n°11332274
havoc_28
Posté le 28-03-2024 à 16:14:51  profilanswer
 

chaced a écrit :

je parlais plutôt face a un H200 qui est un vrai gpu mais dédié a l'ia, c'est la façon facile de faire de l'ia mais qui est un gouffre a watt.


 
Que l'on puisse avoir des solutions plus spécialisés encore oui, surement, d'ailleurs le H200 etc y a pas mal de truc qui ont sauté par rapport à un GPU classique :D.
Il y a aura surement à un moment des rivaux sérieux face à Nvidia, mais pour l'instant ?  Faut prendre aussi en compte que nvidia c'est pas juste le matériel qu'il offre, mais une bonne partie de l'écosystème logiciel, bref du clé en main.
 
Après on était plus sur le sujet des NPU et de leurs utilités réels sur PC (surtout coté desktop).

n°11332277
chaced
Posté le 28-03-2024 à 16:19:11  profilanswer
 

par contre on notera un vieux 14nm pour le LPU Groc :D
 


---------------
CPU-Z | Timespy | Mes bd
n°11332338
PSX86
ZeroAndOne
Posté le 29-03-2024 à 07:49:24  profilanswer
 

Groq est dérivé des Tensor de google,  il y a 2 3 mecs qui viennent de l'équipe de google... https://en.wikipedia.org/wiki/Tensor_Processing_Unit
 
M'enfin bon XD.


Message édité par PSX86 le 29-03-2024 à 08:00:46
n°11332340
PSX86
ZeroAndOne
Posté le 29-03-2024 à 07:54:03  profilanswer
 

Ceux qui vont utiliser l'IA dans leur process métier vont avoir un léger avantage (encore que ça dépend du métier on est d'accord). Ensuite ça sera utilisé dans les applications en général.


Message édité par PSX86 le 29-03-2024 à 07:54:17
n°11332355
chaced
Posté le 29-03-2024 à 09:21:24  profilanswer
 

ça me rappelle l'époque des cartes accélératrices SSL, on avait ça sur nos serveurs au boulot, puis un jour l'accélération a été mis en hard dans le cpu... et hop plus besoin de ces cartes :D (instruction AES-NI)
 


---------------
CPU-Z | Timespy | Mes bd
n°11332504
PSX86
ZeroAndOne
Posté le 30-03-2024 à 05:28:31  profilanswer
 

Depuis que Jim Keller a été en roue libre sur son estimation de Zen 5 de 40% de puissance en Specs INT de plus que Zen 4 (a moins que cela soit une fuite externe d'AMD envers le sacrée Jim). Cela fait des émules des mois après :
https://wccftech.com/ex-amd-legenda [...] estimates/
https://wccftech.com/amd-zen-5-cpu- [...] han-zen-4/
https://forums.anandtech.com/thread [...] t-41180149
 

n°11332506
Red face
Posté le 30-03-2024 à 06:12:10  profilanswer
 

havoc_28 a écrit :

 

Je dirais déjà, Copilot, ça sert à quoi ? [:cerveau quest] . Et quelles autres applications ?
L'IA va accélérer internet comme les pentium 4 ? [:cerveau du chaos] .

 

J'attend toujours qu'on me démontre les apports concret pour une utilisation lambda de ce genre de trucs, plus de TOPs ? Mais à quoi ils servent vos TOPs déjà ? [:cerveau kneu] . Genre je vais composer une image via IA en local ? Ha bas un GPU c'est clairement plus véloce pour ça [:cerveau afrojojo]

 

https://www.tomshardware.com/pc-com [...] erformance

 

Economiser un peu de batterie et de bande passante pour les ordinateurs portables ? Mais sur desktop ? [:cerveau chacal_one]

 

Je lis des articles comme ça, j'ai toujours aucune idée de comment ça améliore mon expérience au quotidien concrètement. Quand y aura des exemples en utilisation réelle très bien, jusqu'à présent à nouveau j'ai toujours rien vu, si ce n'est surfé sur la vague de l'IA.

 

Je dois donc m'extasier pour ça :

 

https://www.microsoft.com/en-us/win [...] atures?r=1

 

[:cerveau skyzor]

 
Citation :

New for Windows 11, Copilot in Windows is an AI-powered assistant that helps you get answers and inspirations from across the web, supports creativity and collaboration, and helps you focus on the task at hand.

 

[:cerveau pingouino]

 

Le RayTracing au moins je sais facilement à quoi il sert, tout comme 5 ans et demis après Turing, jouer sans RT est toujours possible, de toute façon la comparaison est pas forcément très pertinente.

 

Ça sera utilisé dans les outils de bureautique et de productivité de Microsoft au lieu de faire appel à des serveurs distant.

Message cité 1 fois
Message édité par Red face le 30-03-2024 à 06:13:06
n°11332579
havoc_28
Posté le 30-03-2024 à 13:56:03  profilanswer
 

Red face a écrit :


 
Ça sera utilisé dans les outils de bureautique et de productivité de Microsoft au lieu de faire appel à des serveurs distant.  


 
ça reste la même chose que le blabla vague de Microsoft, à nouveau je veux une démonstration en condition réelle. Tant que les gains ne me sont pas démontrés, je vais pas prendre ça pour argent comptant.

n°11332689
TotalRecal​l
Modérateur
Posté le 31-03-2024 à 09:31:21  profilanswer
 

L'IA ça ne se limite pas à de l'IA conversationnelle ou générative pour discuter avec un ordinateur ou générer des images.  
D'autant que pour le moment ces usages exigent un gros volume de données pour fonctionner donc peu d'intérêt en local avec les capacités actuelles : l'IA qui écrit tes mails juridiques à ta place purement en local à partir d'un prompt détaillé c'est pas pour tout de suite (même si on commence à voir des SLM qui donnent de bons résultats).
De ce point de vue l'intégration de ces fonctions dans les CPUs/GPUs ne fera pas une grosse différence pour le moment.
 
En revanche l'IA c'est aussi du traitement d'information pour quoi il y a des applications plus immédiates en local : améliorer en temps réel une vidéo de mauvaise qualité, faire de la retouche d'image assistée par IA, améliorer les correcteurs orthographiques, la reconnaissance faciale, l'OCR... Tout ça c'est des applications réalistes en local donc ça a du sens d'intégrer des instructions spécialisées.
 
On n'en est qu'au début et en terme de temps CPU et de trafic réseau, l'IA bouffe déjà un max de ressources dans les datacenters, on sait que ça va devenir monstrueux dans les années à venir, c'est impératif de ramener ça en local lorsque c'est possible donc autant commencer maintenant.  
De toute façon tous les fabricants le font : Qualcomm, Intel, ARM, nVidia... Donc que tu crois ou non aux applications, faut t'habituer à bouffer de l'IA dans tout ce que tu achèteras, aussi bien pour le marketing que l'usage réel [:spamafote].


---------------
Réalisation amplis classe D / T      Topic .Net - C# @ Prog
n°11332719
havoc_28
Posté le 31-03-2024 à 14:32:59  profilanswer
 

TotalRecall a écrit :

L'IA ça ne se limite pas à de l'IA conversationnelle ou générative pour discuter avec un ordinateur ou générer des images.  
D'autant que pour le moment ces usages exigent un gros volume de données pour fonctionner donc peu d'intérêt en local avec les capacités actuelles : l'IA qui écrit tes mails juridiques à ta place purement en local à partir d'un prompt détaillé c'est pas pour tout de suite (même si on commence à voir des SLM qui donnent de bons résultats).
De ce point de vue l'intégration de ces fonctions dans les CPUs/GPUs ne fera pas une grosse différence pour le moment.
 
En revanche l'IA c'est aussi du traitement d'information pour quoi il y a des applications plus immédiates en local : améliorer en temps réel une vidéo de mauvaise qualité, faire de la retouche d'image assistée par IA, améliorer les correcteurs orthographiques, la reconnaissance faciale, l'OCR... Tout ça c'est des applications réalistes en local donc ça a du sens d'intégrer des instructions spécialisées.
 
On n'en est qu'au début et en terme de temps CPU et de trafic réseau, l'IA bouffe déjà un max de ressources dans les datacenters, on sait que ça va devenir monstrueux dans les années à venir, c'est impératif de ramener ça en local lorsque c'est possible donc autant commencer maintenant.  
De toute façon tous les fabricants le font : Qualcomm, Intel, ARM, nVidia... Donc que tu crois ou non aux applications, faut t'habituer à bouffer de l'IA dans tout ce que tu achèteras, aussi bien pour le marketing que l'usage réel [:spamafote].


 
Revenons un peu en arrière, pour clarifier car il est clair qu'en me lisant, je suis en train de dire que l'IA ça ne sert à rien dans les applications. Pour être plus précis c'est en l'état actuel coté processeur, est ce que les NPU vont être si critique que cela surtout dans une utilisation Desktop dans le cas où l'on dispose d'une carte graphique dédiée.  
 
En mobile, où la batterie est importante, si on se met à taxer processeur, GPU pour de l'IA ça va consommer un minimum et pouffe la batterie.  
 
Mais en utilisation desktop, en ayant un GPU un minimum récent avec des capacités à ce niveau, quel est le réel intérêt de la partie NPU, qui du coté processeur jusqu'à présent est clairement plus faiblarde par rapport à ce que l'on trouve dans les GPU.  
 
Amélioration de vidéo ? Nvidia n'a pas attendu les NPU, génération d'images Intel le fait sans soucis dés sa première génération de carte graphique etc.
 
Que ça se généralise et y a des applications pour oui, mais pour être tout à fait clair, j'aurais du préciser, en quoi un NPU coté processeur est réellement nécessaire si l'on dispose d'un GPU un minimum capable à ce niveau en utilisation Desktop ? A moins de jouer et par exemple de générer des images en même temps etc, je vois pas trop.  
 
Donc le NPU coté ordinateur portable oui ça fait assez sens, sur Desktop (avec une carte graphique dédiée), ça m'a l'air pour l'instant clairement moins évident. Même s'il est vrai que sur desktop il y a beaucoup de machine si ce n'est la majorité sans carte graphique dédiée.

n°11332768
PSX86
ZeroAndOne
Posté le 31-03-2024 à 21:18:08  profilanswer
 

TotalRecall a écrit :

L'IA ça ne se limite pas à de l'IA conversationnelle ou générative pour discuter avec un ordinateur ou générer des images.  
D'autant que pour le moment ces usages exigent un gros volume de données pour fonctionner donc peu d'intérêt en local avec les capacités actuelles : l'IA qui écrit tes mails juridiques à ta place purement en local à partir d'un prompt détaillé c'est pas pour tout de suite (même si on commence à voir des SLM qui donnent de bons résultats).
De ce point de vue l'intégration de ces fonctions dans les CPUs/GPUs ne fera pas une grosse différence pour le moment.
 
En revanche l'IA c'est aussi du traitement d'information pour quoi il y a des applications plus immédiates en local : améliorer en temps réel une vidéo de mauvaise qualité, faire de la retouche d'image assistée par IA, améliorer les correcteurs orthographiques, la reconnaissance faciale, l'OCR... Tout ça c'est des applications réalistes en local donc ça a du sens d'intégrer des instructions spécialisées.
 
On n'en est qu'au début et en terme de temps CPU et de trafic réseau, l'IA bouffe déjà un max de ressources dans les datacenters, on sait que ça va devenir monstrueux dans les années à venir, c'est impératif de ramener ça en local lorsque c'est possible donc autant commencer maintenant.  
De toute façon tous les fabricants le font : Qualcomm, Intel, ARM, nVidia... Donc que tu crois ou non aux applications, faut t'habituer à bouffer de l'IA dans tout ce que tu achèteras, aussi bien pour le marketing que l'usage réel [:spamafote].


 
En plus de ce que tu souligne, je note le côté privatif (si ils abusent pas) de l'execution en local.

n°11332769
PSX86
ZeroAndOne
Posté le 31-03-2024 à 21:19:39  profilanswer
 

havoc_28 a écrit :


 
Revenons un peu en arrière, pour clarifier car il est clair qu'en me lisant, je suis en train de dire que l'IA ça ne sert à rien dans les applications. Pour être plus précis c'est en l'état actuel coté processeur, est ce que les NPU vont être si critique que cela surtout dans une utilisation Desktop dans le cas où l'on dispose d'une carte graphique dédiée.  
 
En mobile, où la batterie est importante, si on se met à taxer processeur, GPU pour de l'IA ça va consommer un minimum et pouffe la batterie.  
 
Mais en utilisation desktop, en ayant un GPU un minimum récent avec des capacités à ce niveau, quel est le réel intérêt de la partie NPU, qui du coté processeur jusqu'à présent est clairement plus faiblarde par rapport à ce que l'on trouve dans les GPU.  
 
Amélioration de vidéo ? Nvidia n'a pas attendu les NPU, génération d'images Intel le fait sans soucis dés sa première génération de carte graphique etc.
 
Que ça se généralise et y a des applications pour oui, mais pour être tout à fait clair, j'aurais du préciser, en quoi un NPU coté processeur est réellement nécessaire si l'on dispose d'un GPU un minimum capable à ce niveau en utilisation Desktop ? A moins de jouer et par exemple de générer des images en même temps etc, je vois pas trop.  
 
Donc le NPU coté ordinateur portable oui ça fait assez sens, sur Desktop (avec une carte graphique dédiée), ça m'a l'air pour l'instant clairement moins évident. Même s'il est vrai que sur desktop il y a beaucoup de machine si ce n'est la majorité sans carte graphique dédiée.


 
Un NPU a une meilleur efficacité énergétique que les GPU, et puis si ça peux travailler en parallèle du GPU c'est un plus.

n°11332776
havoc_28
Posté le 31-03-2024 à 22:28:28  profilanswer
 

PSX86 a écrit :


 
Un NPU a une meilleur efficacité énergétique que les GPU, et puis si ça peux travailler en parallèle du GPU c'est un plus.


 
Une RTX 3050 8 go pour donner une idée, c'est 72.8 "TOPS", le NPU de Meteor Lake c'est 11 "TOPS", coté AMD Hawks Point le refresh De Phoenix on est à 16 "TOPS" (plus si on combine les capacités CPU / iGPU / NPU on arrive à un total de 34 et 39 "TOPS" respectivement), mais ça reste inférieur à un seul GPU :o.  
 
C'est peut être plus efficient, mais en usage Desktop vu la différence de puissance qu'il y a ce niveau ...


Message édité par havoc_28 le 05-04-2024 à 14:03:24
n°11333037
It_Connexi​on
Posté le 02-04-2024 à 11:18:49  profilanswer
 

A prendre avec les mage pincettes de rigueur :
 
40 % de mieux pour ZEN 5 par rapport à ZEN 4 :
https://www.cowcotland.com/news/908 [...] zen-4.html

Message cité 1 fois
Message édité par It_Connexion le 02-04-2024 à 11:19:35

---------------
Galerie Photo Personnelle
n°11333043
MEI
|DarthPingoo(tm)|
Posté le 02-04-2024 à 11:46:36  profilanswer
 

It_Connexion a écrit :

A prendre avec les mage pincettes de rigueur :
 
40 % de mieux pour ZEN 5 par rapport à ZEN 4 :
https://www.cowcotland.com/news/908 [...] zen-4.html


Plus que des pincettes, c'est une estimation au doigt mouillé - sous SPECINT - de Jim Keller, basé sur son expérience perso/pro et sur les bruits de couloir qu'il a pu entendre des liens qu'il a encore avec des gens de chez AMD.
 
On ne sait ni si c'est en IPC ou en perf brute, ni si c'est en 1T ou nT. Et si c'est en nT, si c'est avec le même nombre de thread que Zen 4.
Bref, on ne sait pas grand-chose.
 
Parce qu'un 9(7/8)00X @ IF 2400 + DDR5-8000 = 1,4x 7700X @ IF 2000 + DDR5-6000 en perfs MT. Si on passe de 105W de TDP à 170W... En passant du N5 au N4, bon, c'est pas forcément autant impressionnant que si c'est 40% d'IPC 1T.
Et AMHA on est plus proche de la première hypothèse.
 
Et si on regarde l'ecart de perfs entre 3700X et 5800X par ex, bah il était conséquent dans pas mal de workload. Pourtant l'IPC n'avais pas évolué d'autant.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°11333705
aliss
Rhyme the Rhyme Well
Posté le 05-04-2024 à 08:45:16  profilanswer
 

MLID dans les cordes... :o  
 
https://x.com/SquashBionic/status/1 [...] 13035?s=20
 
Edit : ainsi que ceux qui le relaient (trop) souvent.  :D
 
https://www.techpowerup.com/321201/ [...] 12-bit-fpu
https://www.cowcotland.com/news/908 [...] 2-bit.html

Message cité 1 fois
Message édité par aliss le 05-04-2024 à 09:17:36
n°11333780
josedsf
Posté le 05-04-2024 à 13:54:34  profilanswer
 

Plus raisonnable, environ +17% d'IPC. N'oublions pas que cela varie selon les applis.
 
En revanche la FPU sera capable de traiter l'AVX 512 en entier, et non en 2x256bits comme sur Zen4, et il y aurait donc des gains importants sur les applis qui l'utilisent :
 
https://www.youtube.com/watch?v=oho0QzrfxWc


---------------
Guide cpu / Zen4
n°11333781
josedsf
Posté le 05-04-2024 à 13:56:05  profilanswer
 

Arrow Lake pourrait avoir un avantage, vu qu'il sera en 3nm TSMC...


---------------
Guide cpu / Zen4
n°11333782
havoc_28
Posté le 05-04-2024 à 14:00:25  profilanswer
 

aliss démontre la fraude juste au dessus avec les implications que ça a sur le contenu :o.
 
Faut attendre encore un certain temps avant d'y voir clair, pour l'instant les "fuites" vont dans tous les sens et le niveau de consistance est des plus faible.
 

josedsf a écrit :

Plus raisonnable, environ +17% d'IPC. N'oublions pas que cela varie selon les applis.
 
En revanche la FPU sera capable de traiter l'AVX 512 en entier, et non en 2x256bits comme sur Zen4, et il y aurait donc des gains importants sur les applis qui l'utilisent :
 
https://www.youtube.com/watch?v=oho0QzrfxWc


 
MLID
 

josedsf a écrit :

Arrow Lake pourrait avoir un avantage, vu qu'il sera en 3nm TSMC...


 
MLID²
 
C'était quoi déjà les gains qu'il avait estimé pour Meteor Lake ? Et on a finit avec quoi ? Un simple Die Shrink coté P cœurs et des modifications mineurs pour les E coeurs.
 
Ou la branche graphique d'Intel déjà enterrée ? :o.

Message cité 2 fois
Message édité par havoc_28 le 05-04-2024 à 14:55:45
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11

Aller à :
Ajouter une réponse
 

Sujets relatifs
Config AMD 5950X + 6900XT[Topic Unique] Cartes mères X670(E) / B650(E) / A620
Problème de conflit entre NZXT Z73 Karken et GPU AMD[Topic Unique] RDNA3 - AMD RX7x00 - 5nm
[Topic unique] AMD Zen 4Ma "Station Gamer" 100% "AMD"
Plus de sujets relatifs à : [Topic unique] AMD Zen 5 9xxx, 2024, +15%IPC 4nm?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR