Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3929 connectés 

  FORUM HardWare.fr
  Hardware
  Carte graphique

  modèle IA en local sur son PC, quel GPU ?

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

modèle IA en local sur son PC, quel GPU ?

n°11431585
-thot-
Posté le 30-05-2025 à 14:30:48  profilanswer
 

Bonjour à tous,
 
Avez-vous des liens intéressants vers du benchmarking/point de vue sur le GPU à choisir pour faire du "local AI" demain ?
 
On parle pas mal de la 4090 aujourd'hui car 24 go de VRAM. Mais demain les gros modèles demanderont peut être + que 32 go de VRAM (donc + que la 5090) là où les plus petits modèles seront potentiellement suffisant pour toutes les taches et demanderont "seulement" du 16 go.
 
Autrement dit sous ces considérations il y a plusieurs choix possibles et je n'arrive pas à m'orienter :
- 4090 si on reste sur le standard 24 go
- 5090 si on veut le max, en espérant qu'il y ait des modèles opti à 32 à l'avenir
- 50...70 Ti ? si on mise sur les plus petits modèles (voire moins ?)

mood
Publicité
Posté le 30-05-2025 à 14:30:48  profilanswer
 

n°11431701
zonka
x58 forever!
Posté le 31-05-2025 à 15:59:38  profilanswer
 

Salut.
 
Je n'y connais rien en IA, mais bon, vu que tu es là dedans, je pense que pourrais détailler ton utilisation pour aider ceux qui s'y connaissent à t'orienter = quels programmes / quel matériel tu as actuellement.
 
J'utilise juste Rescayl et Video2x pour du rescaling image/video et la RAM n'a pas un impact notable dans ces deux cas, certes particuliers, mais c'est de l'IA aussi, donc...quelle utilisation. Et dans ce cas, ce qui impacte ça n'est pas la VRAM mais la quantité de tensor cores et la taille du bus mémoire (ma 3080 fait 2x plus vite que ma 3060Ti)


---------------
Guide OC x58 - Guide d'achat de config - ALIMS:qui fait quoi? - RKO - Radiooooo
n°11431812
PSX86
ZeroAndOne
Posté le 02-06-2025 à 05:12:54  profilanswer
 

Si on parle de Mistral malheureusement le ticket d'entrée pour l'instant c'est la 4090 (à partir de 24 Go de Vram) pour pas mal de leurs IA calibrés pour du local et performants, sinon ils ont des plus petits modèles mais qui ne seront pas à la hauteur espéré. En sachant que Mistral est spécialisé dans les petits modèles je te laisse imaginer les autres.  
 
J'ai testé des modèles avec mes 12 Go de Vram et c'est pas concluant comparé à ChatGPT même gratuit alors que cela aurait été le cas en 24 Go de Vram.
 
Tu peux peut être attendre pour une hypothétique 5080 SUPER 24 Go début 2026. Sinon la 5090 est à surveiller sur Dealabs.


Message édité par PSX86 le 02-06-2025 à 05:14:56
n°11431813
Scrabble
Posté le 02-06-2025 à 05:40:52  profilanswer
 

Les LLM en local faut les faire tourner sur CPU, ou alors en hybride CPU/GPU, avec KoboldCpp
Tu met 128 Go de RAM sur la carte mere, ou alors a defaut 96 Go, et ca roule.
Pour ce qui est de la generation d'images, je n'en fait pas, mais la oui c'est plus pour la carte graphique


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  Carte graphique

  modèle IA en local sur son PC, quel GPU ?

 

Sujets relatifs
PC qui s'éteintNouvelle conf CAO/IA
La température de mon CPU monte et descend alors que le PC ne fait rieBus interface Load GPU-Z
Pc Gamer 4k pour 2000€choix d'un mini PC miniforum
Nouveau Pc pour traitement photoConfig PC gaming - 1500 € - 1440p
Pc bureautique , multimedia dans les 1000 euroDans un jeu, qu'est-ce qui fait chauffer le GPU ?
Plus de sujets relatifs à : modèle IA en local sur son PC, quel GPU ?


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)