Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2908 connectés 

  FORUM HardWare.fr
  Hardware
  Carte graphique

  GPU gen 2025 : la bataille de la dèche ?

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Précédente
Auteur Sujet :

GPU gen 2025 : la bataille de la dèche ?

n°11416207
crazytiti
http://crazytiti.free.fr/
Posté le 12-03-2025 à 22:53:17  profilanswer
 

Salut,
Je voudrais ouvrir ce topic pour parler de cette "disponibilité" des nouveaux gpus si famélique, associé à des prix MSRP aussi tangible que le soutient de Trump à l'écologie quand il achète une Tesla :o  
Bref, il y a le topic RX90x0 : https://forum.hardware.fr/hfr/Hardw [...] 0444_1.htm
Le topic des RTX50x0 : https://forum.hardware.fr/hfr/Hardw [...] 1629_1.htm
 
Sur le premier ça parle de MSRP pas respecté et de choix de carte limité.
Sur le deuxième ça parle de ces fameuses cartes très rares et très chères que certains auraient aperçus un soir de pleine lune avec Yoda dans un panier à vélo volant.
 
J'ai également vu l'article de cowcotland qui indique que plus de Rx se sont vendus en 7j que sur 2 mois de ventes de RTX.
cf https://www.cowcotland.com/news/952 [...] jours.html
Et là je vois que c'est basé sur 700 gpu vendus (dont 0ex de 5070).
Et je me dit : vu la non-dispo des nvidia ça ne doit pas être trop dur d'en vendre 2 ou 3 fois plus pour AMD :D
 
Mais surtout j'aimerais comprendre :
Cette pénurie ne vient pas des scalpers, il n'y a clairement pas beaucoup de cartes à vendre tout court.
Alors pourtant que le marché du GPU en boite pour gamer a plutôt tendance à diminuer (en volume).
 
    Est-ce Nvidia et Amd qui provoquent la pénurie pour écouler à fort prix ?
Ca me parait peu probable :
Nvidia ne doit plus prêter une très forte attention au marché GPU gamer vu son CA dans les calculateurs et IA.
AMD lui a tout intérêt à vendre autant de cartes que possible, jusqu'à preuve du contraire c'est une boite capitaliste dans un monde capitaliste avec des comptes à rendre aux actionnaires. Une fausse dispo de gpu avec de faux MSRP ce n'est pas un très bon signal.
 
- Est-ce parceque tous les gpu sont gravés chez TSMC ?
- Est-ce que le marché du gpu en boite est en train de s'éteindre ?
- Est-ce que vous trouvez vous aussi que ces 2 lancements de nouvelles gen ont été une vaste blague ?
- Est-ce que mon topic va être clôt à cause de ma boutade sur Trump ?


---------------
Le PC est une drogue... Téléchargez mes modèles 3D pour que j'ai du filament gratuit :-D https://www.printables.com/fr/@Crazytiti_1456354
mood
Publicité
Posté le 12-03-2025 à 22:53:17  profilanswer
 

n°11416218
zaggon
Posté le 13-03-2025 à 06:21:45  profilanswer
 

Une pénurie de puces HBM3E seraient à l'origine de la pénurie actuelle selon Micron. Le demande est trop forte (IA) et les fabricants de semi conducteurs n'arriveraient pas à suivre.
 
Le cirque avec les cryptos a été remplacé par les calculateurs pour l'IA et ce n'est pas près de s'arrêter...


---------------
Feed sur mon topic : http://forum.hardware.fr/hfr/Achat [...] 7444_1.htm
n°11416234
crazytiti
http://crazytiti.free.fr/
Posté le 13-03-2025 à 08:06:24  profilanswer
 

Tu veux dire qu'a cause de la fabrication des puces HBM3E, il n'y a plus de GDDR6 ou 7 ?


---------------
Le PC est une drogue... Téléchargez mes modèles 3D pour que j'ai du filament gratuit :-D https://www.printables.com/fr/@Crazytiti_1456354
n°11416255
mrdoug
Posté le 13-03-2025 à 09:05:45  profilanswer
 

zaggon a écrit :

Une pénurie de puces HBM3E seraient à l'origine de la pénurie actuelle selon Micron. Le demande est trop forte (IA) et les fabricants de semi conducteurs n'arriveraient pas à suivre.
 
Le cirque avec les cryptos a été remplacé par les calculateurs pour l'IA et ce n'est pas près de s'arrêter...


 
La bulle spéculative finira bien par éclater.
Remplacer un cirque par un autre cirque. C'est vraiment pénible n'empêche...

n°11416285
mitose
Posté le 13-03-2025 à 10:14:45  profilanswer
 

crazytiti a écrit :

Salut,
Je voudrais ouvrir ce topic pour parler de cette "disponibilité" des nouveaux gpus si famélique, associé à des prix MSRP aussi tangible que le soutient de Trump à l'écologie quand il achète une Tesla :o  
Bref, il y a le topic RX90x0 : https://forum.hardware.fr/hfr/Hardw [...] 0444_1.htm
Le topic des RTX50x0 : https://forum.hardware.fr/hfr/Hardw [...] 1629_1.htm
 
Sur le premier ça parle de MSRP pas respecté et de choix de carte limité.
Sur le deuxième ça parle de ces fameuses cartes très rares et très chères que certains auraient aperçus un soir de pleine lune avec Yoda dans un panier à vélo volant.
 
J'ai également vu l'article de cowcotland qui indique que plus de Rx se sont vendus en 7j que sur 2 mois de ventes de RTX.
cf https://www.cowcotland.com/news/952 [...] jours.html
Et là je vois que c'est basé sur 700 gpu vendus (dont 0ex de 5070).
Et je me dit : vu la non-dispo des nvidia ça ne doit pas être trop dur d'en vendre 2 ou 3 fois plus pour AMD :D
 
Mais surtout j'aimerais comprendre :
Cette pénurie ne vient pas des scalpers, il n'y a clairement pas beaucoup de cartes à vendre tout court.
Alors pourtant que le marché du GPU en boite pour gamer a plutôt tendance à diminuer (en volume).
 
    Est-ce Nvidia et Amd qui provoquent la pénurie pour écouler à fort prix ?
Ca me parait peu probable :
Nvidia ne doit plus prêter une très forte attention au marché GPU gamer vu son CA dans les calculateurs et IA.
AMD lui a tout intérêt à vendre autant de cartes que possible, jusqu'à preuve du contraire c'est une boite capitaliste dans un monde capitaliste avec des comptes à rendre aux actionnaires. Une fausse dispo de gpu avec de faux MSRP ce n'est pas un très bon signal.
 
- Est-ce parceque tous les gpu sont gravés chez TSMC ?
- Est-ce que le marché du gpu en boite est en train de s'éteindre ?
- Est-ce que vous trouvez vous aussi que ces 2 lancements de nouvelles gen ont été une vaste blague ?
- Est-ce que mon topic va être clôt à cause de ma boutade sur Trump ?


 
Je ne doute pas que le problème soit plus complexe que ce que j'en comprends mais pour moi il semble que le cœur de la situation actuelle (qui alimente les prix indécents et le business des scalpers) c'est la faible disponibilité des GPU. Et là je suppose qu'il s'explique effectivement le boom actuel de l'IA (et les investissements délirants que le secteur engouffre) qui raréfie les ressources pour des activités en proportion moins lucratives. Peut-être aussi la compétition avec d'autres secteurs sur certaines ressources (node de gravure, puces mémoire) mais là je spécule tout à fait, ne connaissant pas grand chose à la situation.
 
De manière plus subjective - et en m'éloignant du sujet - j'ai quand même le sentiment que le combo ray-tracing (surtout) et QHD/4K a fait entrer le jeu vidéo dans une période où le coût matériel a augmenté de manière démesurée au regard du résultat affiché (je ne dis pas que ça ne permet pas de chouettes choses mais trop gourmandes en puissance de calcul... d'ailleurs de manière ironique il peut arriver que le jeu soit rendu à des résolutions inférieures à 1080 x 1920, et sans doute aussi en terme de coût de développement des jeux pour les AA/AAA). Personnellement, s'il faut choisir, je préfère que les ressources soient consacrées à un jeu propre et au gameplay audacieux et/ou irréprochable plutôt qu'obtenir un titre médiocre avec une performance visuelle saisissante (mais moins sur ma config. Mais je comprends bien que les deux font progresser le média.

Message cité 1 fois
Message édité par mitose le 13-03-2025 à 10:19:39
n°11416300
Sylean
Posté le 13-03-2025 à 10:29:48  profilanswer
 

Une autre chose à prendre en compte, il est plus intéressant pour les entreprises d'être en flux tendu que d'avoir du stock dormant. Le stock dormant, c'est cher.

n°11416304
mrdoug
Posté le 13-03-2025 à 10:34:01  profilanswer
 

mitose a écrit :

 

Je ne doute pas que le problème soit plus complexe que ce que j'en comprends mais pour moi il semble que le cœur de la situation actuelle (qui alimente les prix indécents et le business des scalpers) c'est la faible disponibilité des GPU. Et là je suppose qu'il s'explique effectivement le boom actuel de l'IA (et les investissements délirants que le secteur engouffre) qui raréfie les ressources pour des activités en proportion moins lucratives. Peut-être aussi la compétition avec d'autres secteurs sur certaines ressources (node de gravure, puces mémoire) mais là je spécule tout à fait, ne connaissant pas grand chose à la situation.

 

De manière plus subjective - et en m'éloignant du sujet - j'ai quand même le sentiment que le combo ray-tracing (surtout) et QHD/4K a fait entrer le jeu vidéo dans une période où le coût matériel a augmenté de manière démesurée au regard du résultat affiché (je ne dis pas que ça ne permet pas de chouettes choses mais trop gourmandes en puissance de calcul... d'ailleurs de manière ironique il peut arriver que le jeu soit rendu à des résolutions inférieures à 1080 x 1920, et sans doute aussi en terme de coût de développement des jeux pour les AA/AAA). Personnellement, s'il faut choisir, je préfère que les ressources soient consacrées à un jeu propre et au gameplay audacieux et/ou irréprochable plutôt qu'obtenir un titre médiocre avec une performance visuelle saisissante (mais moins sur ma config. Mais je comprends bien que les deux font progresser le média.

 

Totalement d'accord  :jap:
Surtout qu'avec l'Unreal Engine 5, tous les jeux se ressemblent actuellement, c'est affligeant...
Non seulement c'est un moteur mauvais, mais en plus tout le monde l'utilise :/

 

Les jeux avaient clairement plus de gueule à l'époque en plus.


Message édité par mrdoug le 13-03-2025 à 10:34:24
n°11416314
Neji Hyuga
Modérateur
:grut:
Posté le 13-03-2025 à 10:43:05  profilanswer
 

mrdoug a écrit :

La bulle spéculative finira bien par éclater.
Remplacer un cirque par un autre cirque. C'est vraiment pénible n'empêche...


 
A considérer le deep learning comme une bulle spéculative strictement identique au fait de pouvoir fabriquer arbitrairement de l'argent numérique à la maison, vous faites fausse route et ce n'est pas faute de le répéter.
 
Le deep learning est un outil de production en gestation depuis les années 40, c'est une (très grosse) brique de plus dans l'industrialisation de processus complexes, quoi qu'en dise la presse tech (en bien ou en mal) qui ne fait souvent que survoler le fond du sujet (même si elle ne se retient pas pour en parler).
 
Cette techno est un enjeu majeur de la souveraineté numérique et dans le contexte géopolitique actuel, ce n'est pas très étonnant que ce soit la course à l'armement.
 
Attendre un retour arrière et l'abandon définitif de la discipline c'est un peu comme attendre la fin du transistor pour retourner aux tubes à vide.
 
En revanche, à moyen terme la demande finira par décroître, pour tout un tas de facteurs, ça me parait évident.  
 
Et plus loin que la mémoire, les GPU Blackwell réservés à ce marché utilisent les même lignes de prod que les puces pour GeForce, je serais curieux de connaître l'allocation des lignes chez TSMC...
 

crazytiti a écrit :

Est-ce que mon topic va être clôt à cause de ma boutade sur Trump ?


 
Je vais être clair, la modération de cette section n'en a rien à foutre du théatre politique, tout du moins des affrontements à la con entre divers camps (on a déjà bien assez des guéguerres stériles entre pro et anti Nvidia/AMD/Intel/whatever).
 
Mais étant donné qu'elle a désormais un impact assez visible sur ce qu'il se passe dans le monde des semi conducteurs, je ne vois pas d'objection à ce que l'on en discute, mais dans la limite d'un cadre technique puisque les autres considérations n'ont rien à faire ici (vous avez discu pour ça).
 
Maintenant, si le sous texte de cette remarque est une provoc sortie de nulle part, lancée à la modération pour la qualifier gratuitement de trumpiste, effectivement, ça risque de couper court.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11416368
Klivan
Ach... Encore raté...
Posté le 13-03-2025 à 12:16:15  profilanswer
 

+1

 

Tout le monde rush pour construire des capacités d'entraînement pour les modèles AI. À un moment les courbes entre demande et l'offre vont finir par coïncider... Mais quand ?

 

Il y a des raisons d'être optimiste : la croissance de Nvidia ralentit un peu, et l'industrie a l'air de se tourner vers l'optimisation des modèles plutôt que de continuer la course à l'armement.

 

Sauf que pour le moment ça ne se traduit pas par une meilleure disponibilité en magasin :/

 

J'aimerais également être une petite souris chez TSMC et avoir une idée de la répartition de leurs lignes de prod... Comme dit sur un autre topic, d'habitude Apple s'accapare une énorme partie, mais je n'ai pas l'impression que les derniers iPhones soient un succès fou  [:spamafote]


---------------
We are the knights who say : Ni! / 'Bye Julfisher, so long Shepard :(
n°11416371
zaggon
Posté le 13-03-2025 à 12:29:51  profilanswer
 

crazytiti a écrit :

Tu veux dire qu'a cause de la fabrication des puces HBM3E, il n'y a plus de GDDR6 ou 7 ?


 
C'est l'idée, la demande est telle que les fabricants n'arrivent pas à suivre.

mood
Publicité
Posté le 13-03-2025 à 12:29:51  profilanswer
 

n°11416376
Neji Hyuga
Modérateur
:grut:
Posté le 13-03-2025 à 12:40:26  profilanswer
 

Klivan a écrit :

Il y a des raisons d'être optimiste : la croissance de Nvidia ralentit un peu, et l'industrie a l'air de se tourner vers l'optimisation des modèles plutôt que de continuer la course à l'armement.


 
Tout à fait et c'est une démarche très saine :jap:
 
Les gens ne s'en rendent pas compte parce que le sujet est très technique, mais on avance à grand pas dans le domaine, des premiers Perceptron multi couches aux MoE, il y a un gouffre abyssal.
 
Pour Apple, ils ont bougé sur le N3 depuis un moment, c'est peut-être, avec le prix, l'une des raisons pour lesquelles Nvidia et AMD se contentent encore du 5nm.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11416448
crazytiti
http://crazytiti.free.fr/
Posté le 13-03-2025 à 15:02:15  profilanswer
 

J'avoue que pour le moment, à part les ressources, je ne vois pas trop ce qui limiterais l'expansion de l'utilisation de modèle IA.
J'en vois à toutes les sauces dans tous les secteurs.


---------------
Le PC est une drogue... Téléchargez mes modèles 3D pour que j'ai du filament gratuit :-D https://www.printables.com/fr/@Crazytiti_1456354
n°11416452
Klivan
Ach... Encore raté...
Posté le 13-03-2025 à 15:06:45  profilanswer
 

Mon espoir : que l'infrastructure s'oriente plus vers des puces spécialisées dans l'inférence plutôt que l'utilisation de GPUs pour faire à la fois de l'entraînement et de l'inférence. Ça permettrait de réduire la tension sur le marché grand public, mais cela ne se fera pas du jour au lendemain :/


---------------
We are the knights who say : Ni! / 'Bye Julfisher, so long Shepard :(
n°11416470
Neji Hyuga
Modérateur
:grut:
Posté le 13-03-2025 à 15:40:50  profilanswer
 

Klivan a écrit :

Mon espoir : que l'infrastructure s'oriente plus vers des puces spécialisées dans l'inférence plutôt que l'utilisation de GPUs pour faire à la fois de l'entraînement et de l'inférence. Ça permettrait de réduire la tension sur le marché grand public, mais cela ne se fera pas du jour au lendemain :/


 
Si le problème vient des lignes de prod et de la capacité de production de la mémoire vive, la puce spécialisée gravée chez le même fondeur posera le même problème.
 
Et d'ailleurs, ce que vous demandez existe déjà : les puces que Nvidia vend aux professionnels ne sont pas celles qui équipent les GeForce même si ce sont toujours des GPU à la base. Le problème ne vient pas de particuliers et petites boîtes qui se jettent comme des zombies sur des palettes de GeForce comme de l'époque de la crise des crypto, mais de la priorisation des puces spéciaalisées sur les lignes de gravure.


Message édité par Neji Hyuga le 13-03-2025 à 15:41:19

---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11416478
Klivan
Ach... Encore raté...
Posté le 13-03-2025 à 15:53:52  profilanswer
 

Normalement les puces pour l'inférence sont plus petites (par exemple, la 5ème génération de TPU Google fait 350mm2 d'après Wikipedia, vs. 814mm2 pour une Nvidia H100) donc on peut espérer en fabriquer plus par wafer, et de ce fait libérer de la place pour les gammes grands publics [:agkklr]

 

J'entends que les puces entre GPUs pro et grand public sont différentes, mais pour une capacité de production données, Nvidia/AMD vont favoriser les puces pro car plus rentables, ce qui est logique.

 

Si bascule vers l'inférence, plus besoin d'autant de GPUs pro, donc on espère plus de place pour nos GPUs à nous  [:theorie du chaos]


---------------
We are the knights who say : Ni! / 'Bye Julfisher, so long Shepard :(
n°11416531
Neji Hyuga
Modérateur
:grut:
Posté le 13-03-2025 à 17:45:12  profilanswer
 

"basculer vers l'inférence" ça ne veut pas dire grand chose, il y a toujours besoin d'entraîner les réseaux et pour ça il y a besoin d'avoir des muscles. Et dans l'absolu, l'inférence de très gros modèles génératifs demande aussi des ressources, même si l'on travaille à optimiser les réseaux.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11416539
Klivan
Ach... Encore raté...
Posté le 13-03-2025 à 18:12:38  profilanswer
 

De ce que j'ai compris, en schématisant:
- première partie du cycle: les modèles transformer émergent, il n'y a pas encore d'applications à large échelle, par contre on a besoin d'infrastructure pour entraîner de nouveaux modèles.
- deuxième partie du cycle: les applications commencent à émerger, et les modèles gagnent en complexité.
- troisième partie: les applications gagnent en popularité, les modèles atteignent un plafond en terme de complexité et un travail d'optimisation commence (ex: DeepSeek).
- quatrième partie: tout le monde commence à utiliser de l'AI, les modèles sont de plus en plus optimisés.

 

Selon cette approche, on serait au début du dernier point. Oui, il y a aura toujours besoin d'entraîner des modèles, mais leur complexité n'ira plus en augmentant car trop peu rentable. En revanche, vu que de plus en plus de monde utilisera des applications, le gros de la demande en infrastructure basculera vers de l'inférence. C'est une de raisons qui font que tous les hyperscalers développent des puces custom, afin de maîtriser les coûts.

 

Alors oui, on peut faire de l'inférence sur GPU, mais c'est overkill et trop peu efficient économiquement pour un Google, qui préfère développer ses propres puces.

 

À l'échelle de TSMC c'est la même, par contre Nvidia aura de la dispo pour nous :o


---------------
We are the knights who say : Ni! / 'Bye Julfisher, so long Shepard :(
n°11416597
crazytiti
http://crazytiti.free.fr/
Posté le 13-03-2025 à 21:24:12  profilanswer
 

[:lapanne:1]


---------------
Le PC est une drogue... Téléchargez mes modèles 3D pour que j'ai du filament gratuit :-D https://www.printables.com/fr/@Crazytiti_1456354
n°11416684
Neji Hyuga
Modérateur
:grut:
Posté le 14-03-2025 à 09:15:41  profilanswer
 

Klivan a écrit :

De ce que j'ai compris, en schématisant:
- première partie du cycle: les modèles transformer émergent, il n'y a pas encore d'applications à large échelle, par contre on a besoin d'infrastructure pour entraîner de nouveaux modèles.
- deuxième partie du cycle: les applications commencent à émerger, et les modèles gagnent en complexité.
- troisième partie: les applications gagnent en popularité, les modèles atteignent un plafond en terme de complexité et un travail d'optimisation commence (ex: DeepSeek).
- quatrième partie: tout le monde commence à utiliser de l'AI, les modèles sont de plus en plus optimisés.
 
Selon cette approche, on serait au début du dernier point. Oui, il y a aura toujours besoin d'entraîner des modèles, mais leur complexité n'ira plus en augmentant car trop peu rentable. En revanche, vu que de plus en plus de monde utilisera des applications, le gros de la demande en infrastructure basculera vers de l'inférence. C'est une de raisons qui font que tous les hyperscalers développent des puces custom, afin de maîtriser les coûts.
 
Alors oui, on peut faire de l'inférence sur GPU, mais c'est overkill et trop peu efficient économiquement pour un Google, qui préfère développer ses propres puces.
 
À l'échelle de TSMC c'est la même, par contre Nvidia aura de la dispo pour nous :o


 
Oulà, c'est une vision assez spéciale de l'histoire du deep learning :o
 
Ce que je trouve assez marrant, c'est qu'il y a deux mois, pas grand monde ici ne connaissait l'existence des transformateurs ou même de ce à quoi pouvait bien ressembler l'architecture d'un réseau de neurones, mais depuis que Nvidia à pondu un slide sur le sujet, le forum est curieusement devenu peuplé de data scientists :o
 
Le transformateur est une architecture puissante capable de belles prouessse mais ce n'est pas l'alpha et l'omega et il ne change pas grand chose à la problématique de l'entrainement et de la recherche : il y a toujours besoin d’énormément de ressources pour ça et considérer que l'on est arrivé à un plafond technologique qui ne nécessite plus d'entrainer quoi que ce soit bah... Je ne sais pas comment on peut arriver à ce raisonnement, entre les besoins de fine tuning et les sorties incessantes de nouveau modèles/archi, c'est pas prêt de se calmer :D
 
Oui on travaille à optimiser au mieux les nouveaux modèles pour ça (en revanche, laissez DeepSeek R1 là où il est, c'est un move politique dans lequel la presse entière s'est vautrée) mais de la mémoire et de la grosse puissance en manipulation de tenseurs, on en a toujours besoin.
 
Et donc dans ta vision on en est à déployer des serveurs d'inférence partout pour répondre aux besoin des applis que l'on pousse partout aux particuliers : ok, mais même à partir sur des ASIC spécialisés, moins énergivores et plus modestes que des gros GB200, bah il va y avoir une forte demande et on revient encore au problème de saturation des lignes de gravures. Avec en prime le fait de toujours devoir disposer de puces puissantes pour l'entrainement.
 
Ça ne se calmera que lorsque tous les grands acteurs du numérique seront "armés" jusqu'aux dents : à partir de là on peut imaginer partir sur un rythme de renouvellement plus classique du matériel, la demande se calmera d'elle même.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11416692
Klivan
Ach... Encore raté...
Posté le 14-03-2025 à 09:36:41  profilanswer
 

Je n'ai pas la prétention de refaire toute l'histoire du deep learning ;) Seulement, pour des raisons professionnelles, je me retrouve à suivre le cycle AI actuel de très près depuis grosso modo 2021, donc même si je ne me considère absolument pas un expert, je suis au moins un amateur partiellement éclairé bien qu'intrinsèquement limité :o

 

Je cite DeepSeek car c'est le truc qui a fait le plus de bruit, mais l'industrie a tout de même l'air de se diriger vers une logique d'optimisation des resources car on se heurte clairement à un plafond (difficulté d'approvisionnement des datacenters en énergie qui conduit à remettre en service des centrales à charbon ou nucléaire).

 

De même, la dépendance à Nvidia commence à devenir gênante même pour les plus gros, typiquement Facebook est en train de développer une puce qui servira pour l'entraînement de modèles et dont les tests viennent de commencer (Zuckerberg ne kiff pas vraiment d'engraisser Jensen :o).

 

Là où je te rejoins, c'est que si on fait juste un swap sur les lignes de prod, ça ne nous arrangera pas vraiment, ou peu... Mais je vois quand même la pression diminuer sur les GPUs à terme, au profit de puces plus spécialisées, ce qui devrait in fine être positif.

 

Bref je suis peut être à côté de la plaque, mais je trouve le sujet super intéressant, si tu veux on peut en discuter en MP pour éviter de polluer le topic  :)


---------------
We are the knights who say : Ni! / 'Bye Julfisher, so long Shepard :(
n°11416708
Neji Hyuga
Modérateur
:grut:
Posté le 14-03-2025 à 10:02:17  profilanswer
 

Je suis globalement d'accord avec toi : il y a un problème de ressources, d'approvisionnement énergétique et de situation de quasi monopole d'un acteur du hardware.
 
Par contre, tu ranges l'offre data center des verts dans la catégorie "GPU", ce qui techniquement est le cas, mais si l'on parle de Hopper et de la déclaison pro de Blackwell, c'est bien dans la case "puces spécialisées" qu'il faut les ranger de mon point de vue (même si, on est d'accord, un GB200 ça sait faire autre chose que de multiplier/additionner des matrices).
 
D'ailleurs, cette dépendance hardware au GPU à une cause logicielle : CUDA, qui est quasi incontournable dans la discipline.
 
DeepSeek R1, je mets un point d'honneur à en faire une légère aparté parce qu'il s'est raconté une quantité phénoménale de bêtises dessus, entretenues par des gens qui ne voient ce qu'il se passe dans le domaine que par le petit bout de la lorgnette, et qui est allé jusqu'à avoir un gros impact en bourse.  
 
Je ne prétends pas non plus être une référence du milieu, très, très loin de là, mais l'odeur d'un truc fumeux était détectable à des kilomètres, une partie de la presse est allée à la soupe sans prendre le moindre recul sur des affirmations balancées sans preuves.
 
Encore en aparté, si chaque fois que sort un modèle relativement efficient ou performant tout le monde s'affole, on a pas le cul sorti des ronces :o
 
Mais je ne digresserais plus ici à ce propos.
 
Parce que sur le reste, je ne pense pas que l'on soit si hors sujet : ça fait vraiment partie du problème de la difficulté que l'on a à trouver de quoi jouer à sans avoir à être obligé de faire le pied de grue avec une mallette de billets devant les boutiques...
 
La problématique est complexe, dépendante de la politique à échelle mondiale, c'est intéressant de mettre pour une fois le nez dans les causes profondes du problème et de ne pas s'arrêter à de l'analyse très, très superficielle pour ne pas dire bien pétée comme on peut le voir sur les topics uniques réservés aux GPU : je pense que c'est justement ce que recherche l'auteur du topic :jap:
 
Edit : un dernier truc, c'est difficile de reprocher au gens de ne pas vraiment comprendre les tenants et aboutissant du deep learning puisque la presse, même technique, traite le sujet de manière globalement lunaire, que ça vienne des "pros", des "antis", ou de ceux qui ne suivent que le sujet de loin. De mémoire je n'ai pas souvenir d'un autre sujet technique dans le milieu de l'informatique qui ait été traitée d'une manière aussi WTF.


Message édité par Neji Hyuga le 14-03-2025 à 10:10:32

---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11416730
crazytiti
http://crazytiti.free.fr/
Posté le 14-03-2025 à 11:04:02  profilanswer
 

Oui Neji Hyuga, c'est mon but d'essayer de comprendre ce qu'il se passe "derrière", comme tu le dit la plupart des articles que l'on trouve se contentent de faire des constats "yen a plus", "c'est pas au MSRP" mais sans creuser le pourquoi, si c'était prévisible...
D'ailleurs tu mentionne deepseek, quand j'ai vu l'action nvidia perdre 17% suite à ça ma 1er réaction c'est "mais ils sont tous cons ! ?"
Ma 2eme ce fut d'aller acheter une action nvidia car c'est évident que ça va remonter, nvidia ne vas pas couler à cause d'un modèle de LLM bien peaufiné :lol:  
 
Mais comme tu le dit "on a pas le cul sorti des ronces" malheureusement...
 
Tout ça me fait un peu penser au coup des cryptos, à la fois pour le coté tech. et aussi pour le côté le grand publique y pige quedalle.
Au final maintenant j'ai l'impression que la demande de puces de block-chain n'influe plus la fabrication de GPU.
Ca n'a pas non plus révolutionné notre monde, ni fait disparaitre d'anciens système bien établis (la monnaie et les banques ?)
 
Je penche pour la même chose sur l'IA (purement ma pensé) : il vas y avoir des puces spécialisées et on va jouir d'un outil supplémentaire, cela ne vas pas faire disparaitre les outils actuels.
Peut être que certains vont devenir marginaux comme c'est devenus le cas avec les vinyles ou les CD audio par exemples.
 
De toute façon dans notre histoire d'évolution technique peut importe la nouvelle invention au final on fait toujours plus de choses même si cette invention aurait pu permettre des économies.
Par exemple :
- des moteurs qui consomment moins => on roule plus
- des voitures moins chères => plus de gens en achètent
- des plantes qui poussent plus vites, avec un meilleur rendement => on produit plus quitte à jeter.
 
On est toujours dans un systeme de croissance, donc nvidia va très bien se porter, L'IA aussi :)
J'espère juste qu'on va trouver un moyen pour rendre tout ça plus ou moins compatible au maintient des êtres humains dans un environnement correct [:heow]  
(oui je suis un peu écolo sur les bords)


---------------
Le PC est une drogue... Téléchargez mes modèles 3D pour que j'ai du filament gratuit :-D https://www.printables.com/fr/@Crazytiti_1456354
n°11416748
Klivan
Ach... Encore raté...
Posté le 14-03-2025 à 11:53:01  profilanswer
 

Je ne serais pas aussi catégorique sur DeepSeek, et encore moins pour l'impact sur le cours de Nvidia :o

 

De mon point de vue de béotien, leur travail doit être confirmé par des sources externes, et ça tombe bien ils ont l'air d'être assez open sur le sujet. On devrait avoir donc une confirmation à plus ou moins court terme, mais perso je suis plutôt enclin à les croire (dans le sens d'avoir développé des optimisations qui permettent de réduire la puissance de calcul nécessaire et les coûts opérationnels, pas d'avoir inventé l'alphabet l'oméga de l'AI).

 

Si c'est du vent, ça aura au moins mis un coup de pied au derrière aux autres acteurs pour qu'ils optimisent leurs modèles. Ça devient une nécessité de toute façon, cf. GPT4.5 qui explose tous les compteurs en terme de complexité pour une efficacité... discutable.

 

Pour le cours de Nvidia, je ne suis pas d'accord. Déjà, il y a le côté indépendance de la Chine sur le plan techno. Ils finiront par y arriver. Mais comme je l'ai abordé plus haut, même la big tech US en a assez de subventionner les marges de Nvidia et cherche d'autres solutions. Un autre exemple historique dans la tech: tous les fabricants de fibre optique ou d'équipement telecom au début des années 2000 (jetez un œil à l'histoire de Nortel, le parallèle avec Nvidia est assez intéressant).

 

Alors clairement les GPUs ne vont pas disparaître de sitôt dans le deep learning. Mais je ne pense clairement pas que les quantités nécessaires seront au niveau de celles estimées aujourd'hui.

 

Reste maintenant à voir à quelle vitesse les choses évoluent, et quel va être l'impact sur la disponibilité de nos GPUs.

Message cité 1 fois
Message édité par Klivan le 14-03-2025 à 11:53:34

---------------
We are the knights who say : Ni! / 'Bye Julfisher, so long Shepard :(
n°11416749
Neji Hyuga
Modérateur
:grut:
Posté le 14-03-2025 à 11:57:45  profilanswer
 

crazytiti a écrit :

D'ailleurs tu mentionne deepseek, quand j'ai vu l'action nvidia perdre 17% suite à ça ma 1er réaction c'est "mais ils sont tous cons ! ?"
Ma 2eme ce fut d'aller acheter une action nvidia car c'est évident que ça va remonter, nvidia ne vas pas couler à cause d'un modèle de LLM bien peaufiné :lol:


 
Ça a été exactement la mienne, si ce n'est que j'ai un peu trop attendu avant de me décider à acheter (j'ai voulu être trop gourmand et compter sur une hystérie collective plus débile encore :o).
 
Et sans compter les dizaines de SMS/WhatsApp/Whatever que j'ai reçu de gens qui savent que j'ai un pied dans le milieu du hardware et qui étaient tous fiers de m'annoncer un scoop sur la mort imminente de Nvidia et de la recherche IA occidentale (ce qui explique que je sois un peu chafouin chaque fois que l'on me balance ici la "propagande" DeepSeek, parce que ce n'est pas comme si j'avais eu à expliquer 100 cents fois la même chose :o).
 

crazytiti a écrit :

Je penche pour la même chose sur l'IA (purement ma pensé) : il vas y avoir des puces spécialisées et on va jouir d'un outil supplémentaire, cela ne vas pas faire disparaitre les outils actuels.
Peut être que certains vont devenir marginaux comme c'est devenus le cas avec les vinyles ou les CD audio par exemples.


 
Les réseaux de neurones formels sont des classificateurs extrêmement puissants, ça permet d'imaginer des modèles capables de classifier très efficacement des données et de s'en servir pour y faire émerger de nouvelles données. C'est très résumé et très raccourci, mais dans le fond ce n'est pas grand chose de plus.
 
Il y a plein de trucs que ça peut remplacer en étant plus efficient et c'est un outil de production formidable que l'on aurait jamais imaginé pouvoir utiliser à cette échelle quand il a été théorisé.
 
Pour moi, c'est surtout à voir comme une (belle) brique de plus dans l'industrialisation de processus complexe.
 
A titre perso je trouve dommage que le grand public n'y mette pas plus les mains et laissent les géants de la tech dicter ce que l'on doit faire des modèles génératifs : pour la grande majorité du public ça se résume à utiliser GPT4 et Midjourney dans des interfaces minimalistes, mais c'est vraiment l'arbre qui cache la forêt, il y a moyen de faire des choses vraiment dingues avec la quantité astronomique de modèles open source disponible. Il y aurait peut être moins de scandales et moins de levées de boucliers futiles si les gens avaient une connaissance plus profonde du sujet.
 
Enfin, pour faire le lien avec le monde du jeu vidéo, ça commence à y prendre une place important et l'intérêt est visible.
 

crazytiti a écrit :

J'espère juste qu'on va trouver un moyen pour rendre tout ça plus ou moins compatible au maintient des êtres humains dans un environnement correct [:heow]  
(oui je suis un peu écolo sur les bords)


 
Ça c'est effectivement un enjeu de taille et avec les fermes monumentales que les gouvernements et grands acteurs privés projettent de construire un peu partout, dans le contexte actuel où un mec qui ne trie pas bien ses déchets est considéré comme un criminel, on peut se poser la question de la nécessité d'exploiter sans retenue des quantités de ressources énormes.
 
Pour revenir sur l'analyse des causes du problème de dispo actuel, je suis un peu fatigué de lire sur les topics uniques les proses de membres qui s'imaginent que le problème de l'IA vient de particuliers/semi pro qui se jettent sur des palettes de GeForce pas vraiment faites pour ça comme de l'époque des cryptos.
 
Le minage d'une blockchain sur GPU, c'était l'appât du gain rapide, un programme qui tourne dans un coin et qui génère de la monnaie numérique. Les IA génératives sont des outils de production, pas de génération d'argent "magique", à moins de s'amuser à générer des To de photos de Chat via SDXL et d'essayer de les vendre en NFT :o
 
Une partie du problème vient bien de la demande en deep learning, mais la source est en amont de la vente de GeForce au grand public...
 
...Sauf pour la RTX 5090, éventuellement, mais qui parasite qui ? Les créateurs qui utilisent la carte pour l'inférence de gros modèles génératifs et privent les joueurs du flagship du moment, ou les joueurs qui font un caprice de riche et privent les créateurs d'un outil utile à leur travail :o ?
 

Klivan a écrit :

Je ne serais pas aussi catégorique sur DeepSeek, et encore moins pour l'impact sur le cours de Nvidia :o
 
De mon point de vue de béotien, leur travail doit être confirmé par des sources externes, et ça tombe bien ils ont l'air d'être assez open sur le sujet. On devrait avoir donc une confirmation à plus ou moins court terme, mais perso je suis plutôt enclin à les croire (dans le sens d'avoir développé des optimisations qui permettent de réduire la puissance de calcul nécessaire et les coûts opérationnels, pas d'avoir inventé l'alphabet l'oméga de l'AI).


 
Je ne sais pas s'ils ont fini par publier les datasets et les scripts d'entrainement, mais le réseau était encore "juste" openweight il y a quelques semaines. Et l'affaire avec Singapour qui leur aurait effectivement fournis des container de GPU n'est pas terminée. R1 et les déclaration de son équipe sont arrivées peu après les annonces tonitruante de Trump sur le sujet, il y a clairement une volonté politique derrière.
 
Après, je n'ai rien contre le modèle et je me fiche dans le fond de la propagande de X ou Y puissance mondiale, mais j'ai bien une dent contre ceux qui ont rafalé de la fake news en surréagissant.
 
Les mecs ont découvert que l'on travaille à optimiser nos modèles et qu'il y a des alternatives Chinoises openweight à GPT, incroyable, le monde ne s'en remettra jamais :o
 
Et je dis ça en étant particulièrement "fan" de Qwen :o
 

Klivan a écrit :

Alors clairement les GPUs ne vont pas disparaître de sitôt dans le deep learning. Mais je ne pense clairement pas que les quantités nécessaires seront au niveau de celles estimées aujourd'hui.


 
Je suis d'accord, mais je pense aussi que c'est un peu illusoire d'imaginer que ça réglera définitivement le problème du cirque auquel on assiste sur le marché grand public :/

Message cité 1 fois
Message édité par Neji Hyuga le 14-03-2025 à 12:28:52

---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11416797
PSX86
ZeroAndOne
Posté le 14-03-2025 à 15:05:56  profilanswer
 

Nous sommes encore loin de quelque chose de probant en IA même si c'est utile pour pleins de truc. Je vois ça plutôt comme un super couteau suisse. Mais nous n'avons pas encore atteins un plafond ou par exemple ça remplace le codeur informatique. Après je ne pense pas que la frénésie va se tarir tant qu'ils n'auront pas atteins une certaines efficacité et probité des résultats (en plus il y a une période cyclique de dégradation de l'IA). Bref, ça va durer encore longtemps et cela ne m'étonnerais pas que ce soucie de production dure encore 10 ans. Après, à eux d'améliorer l'efficacité, parce que bon, ça consomme aussi donc bon. Je les voient bien aller vers une mutualisation des ressources pour l'entrainement via cloud, parce que sinon ça va devenir n'importe quoi. N'importe quel boite qui voudrait créer une IA s'endette à acheter une tonnes de matos pour l'entrainement, je ne sais pas si c'est pertinent.


Message édité par PSX86 le 14-03-2025 à 15:09:01
n°11416819
Neji Hyuga
Modérateur
:grut:
Posté le 14-03-2025 à 16:11:26  profilanswer
 

Ça dépend ce que tu appelles probant, le deep learning a révolutionné le domaine de l'analyse visuelle et remplacé tout un tas de programmes lourds et chiadés dans le monde de la data science. Pareil pour tout ce qui touche au traitement du langage. Ça permet aussi de faire des simulations dans des domaines très pointus que l'on aurait énormément eu de mal à faire sans le neurone formel.  
 
Dans le JV on commence à prendre aussi ce virage pour faire évoluer à la fois le rendu et le contenu, même si pour l'instant on est au tout début en ce qui concerne le deuxième point.  
 
Après c'est sur que si tu entends par là l'arrivée d'une AGI qui mettra l'humanité au chômage, on est très loin d'y être, oui.  
 
Et effectivement tout ce que l'on nous vend soit disant bardé d'IA comme le barbecue intelligent est loin de révolutionner le quotidien. Il y a énormément de bullshit marketing qui enrobe la discipline et c'est bien regrettable.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11416823
chriskenob​y
Que la force soit avec vous
Posté le 14-03-2025 à 16:26:57  profilanswer
 

[:mycrub]


---------------
Les créateurs de l'Electro, c'est eux KRAFTWERK http://www.kraftwerk.com/concerts/ [...] _robo.html - Mes Cartes https://drive.google.com/drive/fold [...] 0-vZPkdfoi
n°11416969
Klivan
Ach... Encore raté...
Posté le 14-03-2025 à 22:29:13  profilanswer
 

Neji Hyuga a écrit :


 
Je ne sais pas s'ils ont fini par publier les datasets et les scripts d'entrainement, mais le réseau était encore "juste" openweight il y a quelques semaines. Et l'affaire avec Singapour qui leur aurait effectivement fournis des container de GPU n'est pas terminée. R1 et les déclaration de son équipe sont arrivées peu après les annonces tonitruante de Trump sur le sujet, il y a clairement une volonté politique derrière.
 
Après, je n'ai rien contre le modèle et je me fiche dans le fond de la propagande de X ou Y puissance mondiale, mais j'ai bien une dent contre ceux qui ont rafalé de la fake news en surréagissant.
 
Les mecs ont découvert que l'on travaille à optimiser nos modèles et qu'il y a des alternatives Chinoises openweight à GPT, incroyable, le monde ne s'en remettra jamais :o
 
Et je dis ça en étant particulièrement "fan" de Qwen :o
 


 
Y'a tellement eu de bullshit autour de l'AI ces derniers temps (merci Altman, merci Etron) que la vérité peut être surprenante pour les non-avertis  :o Mais perso ça me plaît bien cette histoire, c'est comme le mining, une bien belle techno quelque peu dévoyée, ça serait un pas dans la bonne direction  [:tiibo:1]  
 

Neji Hyuga a écrit :


 
Je suis d'accord, mais je pense aussi que c'est un peu illusoire d'imaginer que ça réglera définitivement le problème du cirque auquel on assiste sur le marché grand public :/


 
Hélas non, mais là aussi ça aidera...
 
Du coup je pense que l'on est d’accord sur le fond, c'est juste que je suis un poil plus optimiste (ou naïf  :o )


---------------
We are the knights who say : Ni! / 'Bye Julfisher, so long Shepard :(
n°11417391
TotalRecal​l
Modérateur
Posté le 16-03-2025 à 15:57:59  profilanswer
 

Neji Hyuga a écrit :

 

A considérer le deep learning comme une bulle spéculative strictement identique au fait de pouvoir fabriquer arbitrairement de l'argent numérique à la maison, vous faites fausse route et ce n'est pas faute de le répéter.

 

Le deep learning est un outil de production en gestation depuis les années 40, c'est une (très grosse) brique de plus dans l'industrialisation de processus complexes, quoi qu'en dise la presse tech (en bien ou en mal) qui ne fait souvent que survoler le fond du sujet (même si elle ne se retient pas pour en parler).

 

Cette techno est un enjeu majeur de la souveraineté numérique et dans le contexte géopolitique actuel, ce n'est pas très étonnant que ce soit la course à l'armement.

 

...

 

Ce qui brouille les lignes c'est l'entrelacement de plusieurs choses comme :
- La concrétisation tant attendue de technos aux applications indéniables qui vont prendre de l'essor pendant les décennies à venir pour des domaines pointus et pas forcément évidents pour le grand public,
- Les usages "grand public" déjà disponibles et enthousiasmants : IA générative et conversationnelle principalement, mais aussi leurs implications à long terme (y compris sociétaux comme la dévalorisation de certains emplois) ou encore les conséquences négatives de la très forte demande en puces qui en résultent,
- Le marketing-bullshit omniprésent qui nous fourre de l'IA dans absolument tout des roues de voiture jusqu'aux friteuses en passant par le papier toilette depuis un an. Et cette cacophonie est insupportable, donc les moins informés sont tentés d'y voir un effet de mode ridicule sans être conscient de la réalité qui vient derrière.

 

A la fin, ça donne un sacré bordel :o


Message édité par TotalRecall le 16-03-2025 à 15:59:33

---------------
Topic .Net - C# @ Prog
n°11417506
Neji Hyuga
Modérateur
:grut:
Posté le 16-03-2025 à 20:41:31  profilanswer
 

Oui la cacophonie marketing est juste insupportable. J'ai dû couvrir les annonces du CES pour CPC et malgré mon biais pro deep learning (j'assume :o), j'ai trouvé ça consternant. Sans parler des dérives où l'outil est utilisé à des fins peu avouables (ceci dit, des gens tuent leurs voisins avec des marteaux conçus pour planter des clous).  
 
Concernant la dévalorisation des métiers, c'est plus complexes que ça de mon point de vue : dans certains domaines ça va sûrement faire des dégâts , mais paradoxalement je pense que les gens très bons dans ces métiers et qui sont encore capables de damer le pion aux IA vont pouvoir réajuster leurs TJM (et ça va sûrement en faire grimper certains aux rideaux, mais je ne trouve pas que ce soit un si grand mal) :o
 
C'est malheureux mais à notre échelle c'est difficile de faire autre chose que de subir pour l'instant. Perso, je milite pour que le grand public s'approprie les outils Open Source plutôt que de laisser les grands acteurs de la tech décider pour nous de ce que l'on soit faire du deep learning, ce sera déjà ça.  
 
Il sera intéressant de vérifier les résultats de ce trumestre pour Nvidia, si la division datacenter a encore tout explosé, c'est que le carnet de commande est pleine et on saura à quoi s'attendre pour la dispo des puces grand public, même si officieusement c'est censé aller mieux cet été.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11417633
crazytiti
http://crazytiti.free.fr/
Posté le 17-03-2025 à 13:20:39  profilanswer
 

Haha, VCG qui jette un peu d'huile sur le feu :bounce:
https://youtu.be/xATF77txQgM?si=v6s [...] 9v-&t=1000
https://rehost.diberie.com/Picture/Get/f/378809


---------------
Le PC est une drogue... Téléchargez mes modèles 3D pour que j'ai du filament gratuit :-D https://www.printables.com/fr/@Crazytiti_1456354
n°11417647
mitose
Posté le 17-03-2025 à 14:09:14  profilanswer
 


 
De toute manière ce graphique est une ânerie dès l'origine (pas d'échelle des ordonnées, et du fait de la chronologie on y compare choux et carottes avec choux, carottes et pommes de terre). Je ne vois même pas comment on peut l'exploiter pour y ajouter des informations  :whistle:

Message cité 1 fois
Message édité par mitose le 17-03-2025 à 14:10:09
n°11417649
havoc_28
Posté le 17-03-2025 à 14:15:48  profilanswer
 

crazytiti a écrit :

Tu veux dire qu'a cause de la fabrication des puces HBM3E, il n'y a plus de GDDR6 ou 7 ?


 
Pour la GDDR6 ça colle pas vu les tarifs de ces puces actuellement ...

n°11417651
Neji Hyuga
Modérateur
:grut:
Posté le 17-03-2025 à 14:24:30  profilanswer
 

mitose a écrit :

De toute manière ce graphique est une ânerie dès l'origine (pas d'échelle des ordonnées, et du fait de la chronologie on y compare choux et carottes avec choux, carottes et pommes de terre). Je ne vois même pas comment on peut l'exploiter pour y ajouter des informations  :whistle:


 
D'autant plus que les livraisons d'Ada avaient démarré timidement pour permettre aux partenaires d'écouler les cartes Ampere invendues après la fin de la folie du mining sur GPU.
 
Et que l'on compare en plus les envois de trois références par rapport à une seule.
 
Ce ne veut pas dire grand chose si ce n'est que les stocks d'AD102 eux aussi étaient mauvais.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°11417754
crazytiti
http://crazytiti.free.fr/
Posté le 17-03-2025 à 21:40:14  profilanswer
 

On est bien d'accord que ya pas de cartes, mais pourquoi nvidia et amd ont joués les pingres à annoncer pleins de stocks pour l'un, pleins de stocks et des faux prix pour l'autre ?
Je veux dire, faire du marketing pour en vendre des pelles OK.
Mais là faire du marketing bidon alors que même sans lever le petit doigt et raconter des conneries tout se serait vendu vu le peu de stock.
Soit les services marketing sont en roue libre après des années à vendre mass gpu... soit ya un autre truc...
C'est quand même pas possible que nvidia et amd aient crus possible qu'ils allaient pouvoir produire plus de cartes (et puis genre beaucoup plus pour que ça fasse une différence) ?


Message édité par crazytiti le 17-03-2025 à 21:41:24

---------------
Le PC est une drogue... Téléchargez mes modèles 3D pour que j'ai du filament gratuit :-D https://www.printables.com/fr/@Crazytiti_1456354
n°11418038
crazytiti
http://crazytiti.free.fr/
Posté le 19-03-2025 à 00:00:24  profilanswer
 

Quelqu'un aurait les chiffres de ventes des RTX 2000 ?
J'aimerais comparer avec les ventes de RTX 5000.
Je regardais la vidéo de hardware unboxed : https://www.youtube.com/watch?v=eGx_T8zCkWc
Et le gars dit que les cartes se vendent.
Je veux bien qu'il y ais des gens pour mettre 1000 balles dans un GPU mais il ne me semblait pas que c'était la majorité des gens.
Or actuellement je vois que même ma rtx 4070 simple est plus chère d’occasion que ce que je l'ai payé !
Même une vielle RTX 3060 ne descend pas sous les 200€
La demande m'étonne, je me dit que en 3 générations (car on peut encore jouer très correctement avec une RTX2080 ou une 3060ti) on aurait du saturer le marché, manifestement non...
Il y avait même une époque où les cartes customs étaient moins chère que les cartes Made by ATI ou founders edition...


---------------
Le PC est une drogue... Téléchargez mes modèles 3D pour que j'ai du filament gratuit :-D https://www.printables.com/fr/@Crazytiti_1456354
n°11418085
Quentin-Be​lgium
Posté le 19-03-2025 à 09:56:52  profilanswer
 

Il y a jamais de chiffres précis publics sur les ventes hardware j'ai l'impression.
Au mieux on peut extrapoler les données de steam


Message édité par Quentin-Belgium le 19-03-2025 à 10:35:18
n°11418107
mitose
Posté le 19-03-2025 à 10:36:48  profilanswer
 

crazytiti a écrit :

Quelqu'un aurait les chiffres de ventes des RTX 2000 ?
J'aimerais comparer avec les ventes de RTX 5000.
Je regardais la vidéo de hardware unboxed : https://www.youtube.com/watch?v=eGx_T8zCkWc
Et le gars dit que les cartes se vendent.
Je veux bien qu'il y ais des gens pour mettre 1000 balles dans un GPU mais il ne me semblait pas que c'était la majorité des gens.
Or actuellement je vois que même ma rtx 4070 simple est plus chère d’occasion que ce que je l'ai payé !
Même une vielle RTX 3060 ne descend pas sous les 200€
La demande m'étonne, je me dit que en 3 générations (car on peut encore jouer très correctement avec une RTX2080 ou une 3060ti) on aurait du saturer le marché, manifestement non...
Il y avait même une époque où les cartes customs étaient moins chère que les cartes Made by ATI ou founders edition...


 
Curieux aussi des volumes vendus, histoire de me rendre compte de l'évolution de la segmentation du marché et des volumes en valeur absolue. Mais bon, au mieux il n'existe que des estimations indirectes : les constructeurs ne communiqueront jamais sur le sujet.
 
Je suis d'accord que la grande majorité des joueurs ne peuvent / veulent pas lâcher 1000 balles et plus pour une carte graphique (et ne s'en portent pas plus mal) mais le marché du haut / très haut de gamme se porte bien : la frange de personnes capables de payer ces sommes représente sans doute une population assez considérable. J'imagine particulièrement aux USA où, pour une partie de la population, les salaires ont galopé derrière l'inflation. Le décrochage de niveau de vie entre US et Europe commence à devenir assez net (après comme toute généralité ça serait évidemment à nuancer).


Message édité par mitose le 19-03-2025 à 10:38:15
n°11418149
crazytiti
http://crazytiti.free.fr/
Posté le 19-03-2025 à 12:19:29  profilanswer
 

Et même à partir du CA de la partie GPU gamer ?
C'est vrai qu'on ne trouve que les stats steam ou les stats de quelques magasins type mindfactory.


---------------
Le PC est une drogue... Téléchargez mes modèles 3D pour que j'ai du filament gratuit :-D https://www.printables.com/fr/@Crazytiti_1456354
n°11418151
crazytiti
http://crazytiti.free.fr/
Posté le 19-03-2025 à 12:24:23  profilanswer
 

J'ai trouvé des valeurs là :
https://overclocking.com/les-parts- [...] monter-90/
Si je comprends bien le rouge c'est les livraisons en milions.
Donc clairement ya un soucis depuis début 2018 !
Actuellement ça livre 2 fois moins de gpu :ouch:  
https://rehost.diberie.com/Picture/Get/f/379416


Message édité par crazytiti le 19-03-2025 à 12:25:15

---------------
Le PC est une drogue... Téléchargez mes modèles 3D pour que j'ai du filament gratuit :-D https://www.printables.com/fr/@Crazytiti_1456354
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  Carte graphique

  GPU gen 2025 : la bataille de la dèche ?

 

Sujets relatifs
GPU Z m'indique un pcie bizarreCâble management pour du 2x8 pin - GPU 9070 xT
Mise à jour PC 2018-2025Upgrade Pc AMD ou NVIDIA 2025
Remplacement config i5 2500k sans GPUAvis Config - Choix GPU
[Laptop] CPU (75°) et GPU (65°) en idle sans rien d'ouvert.Upgrade GPU potentiel bottleneck
Comptabilité carte mère/GPU/CPUInstabilité inconnu CPU ou GPU
Plus de sujets relatifs à : GPU gen 2025 : la bataille de la dèche ?


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)