| |||||
| Auteur | Sujet : Infra IA : aide au choix et troubleshot de LLM locaux |
|---|---|
speedboyz30 Guide Michelin :o | Reprise du message précédent : Edit: bordel ça bug Message édité par speedboyz30 le 01-05-2026 à 17:49:20 |
Publicité | Posté le 01-05-2026 à 17:47:49 ![]() ![]() |
neo world | merci Claude |
gremi Vieux con des neiges d'antan |
Je ne retrouve plus les échanges mais au final j'utilise ça, sur un R7 9800x3D, 64 Go de DDR5, 5070 ti 16Go :
Et c'était ma première fois avec llama (d'habitude j'utilisais LMStudio), il m'a fait aussi remarquer que je n'avais pas le bon binaire, j'étais full CPU au début, avec le binaire cuda c'était aussi mieux Message cité 1 fois Message édité par gremi le 01-05-2026 à 19:15:29 --------------- In aligot we trust. |
Tronklou ❤❤ Vrp Bambulab à mi-temps ❤❤ |
--------------- Victime de girafophobie, mais se soigne. |
oh_damned | --------------- “Everyone has a plan: until they get punched in the face.” – Mike Tyson |
the_fennec f3nn3cUs z3rd4 |
--------------- Faudra que je teste un jour :o |
neo world |
|
neo world |
Message cité 1 fois Message édité par neo world le 01-05-2026 à 21:32:32 |
Publicité | Posté le 01-05-2026 à 21:32:09 ![]() ![]() |
LibreArbitre La /root est longue |
--------------- Hebergement d'images |
neo world | on est entre gens de qualité sur ce topic |
neo world | pour les aventuriers : un GPU de 96GB pour 1400$ |
the_fennec f3nn3cUs z3rd4 | Pas mal, a voir pour les perfs avec 150W seulement. Mais bon, on est pas près d'en voir dans nos PC. --------------- Faudra que je teste un jour :o |
LibreArbitre La /root est longue | Ça avait déjà été benché et certes ça peut loader des gros modèles mais en terme de génération de token par seconde c'était l'équivalent d'une 3060 Ti... --------------- Hebergement d'images |
TotalRecall | Yop Des gens ici qui pourraient m'aiguiller pour faire fonctionner sans trop de galères Ollama + gemma4 en ROCm sur une AMD RX9070XT (donc "gfx1201" il me semble) sous Windows 11 ? J'ai testé Ollama en CLI avec Vulkan ( $env:OLLAMA_VULKAN="1" ) mais c'est pas concluant, il me sort toutes sortes de trucs fantaisistes : des réponses vides ou tronquées, des caractères aléatoires... Alors qu'en CPU c'est ok. Je testerai donc bien ROCm mais le support Windows a l'air pas mal à la bourre. C'est très chiant rien que pour trouver quoi installer Message cité 2 fois Message édité par TotalRecall le 03-05-2026 à 17:00:23 --------------- Topic .Net - C# @ Prog |
LibreArbitre La /root est longue |
Quich Pouet ? | LM studio c'est plug and play, en tout cas sur ma Rx6800 puis la 7900, je n'ai rien eu à faire. --------------- Feedback |
Tronklou ❤❤ Vrp Bambulab à mi-temps ❤❤ |
llama.cpp avec vulkan et ça roule tout seul --------------- Victime de girafophobie, mais se soigne. |
gremi Vieux con des neiges d'antan |
Message cité 1 fois Message édité par gremi le 03-05-2026 à 18:55:37 --------------- In aligot we trust. |
speedboyz30 Guide Michelin :o | Tout simplement |
the_fennec f3nn3cUs z3rd4 |
--------------- Faudra que je teste un jour :o |
neo world | +1 avec les commentaires au dessus (et préference pour LM Studio ou Lemonade qui supporte mieux ROCM et tout ce qui va avec côté AMD https://lemonade-server.ai/install_options.html ) |
Kyjja Y'a pot ! |
neo world | Pour ceux qui cherchent à s'équiper niveau matériel réfléchissez bien à votre timing. La RAM a plutôt un peu diminué depuis le pic. On peut espérer que ça va continuer à diminuer mais les fabricants de puces DRAM (présents aux côtés des GPU / CPU) lancent des alertes sur leur capacité à y répondre.
Message cité 1 fois Message édité par neo world le 03-05-2026 à 21:48:20 |
TotalRecall |
Des gens disent "avoir réussi après moults bidouilles" et après ça part très vite dans toutes les directions (j'en ai résumé quelques unes).
Message édité par TotalRecall le 03-05-2026 à 22:57:05 --------------- Topic .Net - C# @ Prog |
neo world | Si je regarde dans ce fil ( https://github.com/lmstudio-ai/lmst [...] issues/574 ) il semblerait que oui à condition d'avoir ROCM 6.4.1 minimum sur Linux. J'imagine que c'est pareil côté windows ? |
TotalRecall | Béh non apparemment pas, pour la 9070XT le support Windows est nettement en retrait sur celui pour Linux, surtout en ce qui concerne Ollama. Donc je suis preneur des alternatives éprouvées si ici quelqu'un l'a fait avec ce modèle. --------------- Topic .Net - C# @ Prog |
neo world | https://learn.microsoft.com/fr-fr/w [...] pu-compute
|
the_fennec f3nn3cUs z3rd4 |
--------------- Faudra que je teste un jour :o |
ibuprophet |
|
speedboyz30 Guide Michelin :o |
|
Tronklou ❤❤ Vrp Bambulab à mi-temps ❤❤ | L'anomalie c'était la 3090 avec ses 24gb et le nvlink. NVIDIA a bien retenu la leçon depuis --------------- Victime de girafophobie, mais se soigne. |
Scrabble |
|
the_fennec f3nn3cUs z3rd4 |
--------------- Faudra que je teste un jour :o |
neo world | Si y’a le support de cuda je pense que tu peux mettre n’importe quel produit Nvidia avec autant de VRaM dedans et gagner par ko face à Intel ou AMD |
bounty2k |
Message cité 1 fois Message édité par bounty2k le 04-05-2026 à 16:12:35 |
Publicité | Posté le ![]() ![]() |

| Sujets relatifs | |
|---|---|
| Besoin d'aide pour tour | Besoin d'aide, problème avec mon pc |
| AIde pour config 4K | Besoin d'aide pour config rapport/qualité prix |
| Choix disspateur NVMe | Ajout de RAM , meilleur choix ? DDR4 2400 |
| Aide pour config Graphiste 2D/3D | Besoin d'aide sur projet config fanless linux mint |
| Conseil choix 2 configs avant achat | Choix GPU - Jeux sur 49" 5120X1440p |
| Plus de sujets relatifs à : Infra IA : aide au choix et troubleshot de LLM locaux | |





