Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2034 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18  19
Auteur Sujet :

[Topic unique] Développement via IA

n°2521696
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 05-04-2026 à 16:28:27  profilanswer
 

Reprise du message précédent :

MilesTEG1 a écrit :


Salut  :hello:
Et bien ça va dépendre de ce que peux me faire Claude ! Vu que je ne connais pas grand chose d’autre que le client textuel où on dialogue avec lui …

 

J’ai joué hier avec le Cowork (je crois) en lui donnant accès à on dossier téléchargement : je lui ai demandé de le trier et de placer tout ce qu’il jugeais inutile dans un dossier POUBELLE que je vérifierai.
Avec quelques ajustements postérieurs j’ai eu ce que je voulais : dossiers avec tags de couleurs et donc icône de dossier coloré (je suis sous macOS ).

 

Mais vraiment je ne sais pas ce qu’il est possible de faire avec …
Ni comment borner le tout niveau sécurité.

 

Même chose , j’aimerai ne plus avoir à demander dans le client desktop de l’aide sur un script. Si c’est possible depuis Vscode ce serait top (je crois que oui mais je ne sais pas comment sont décomptes les tokens … je ne veux pas payer de supplément…).
J’utilise aussi PyCharm pour les scripts python qu’il m’a créé pour des graphiques / figures / schéma scientifiques que j’utilise dans mes cours.

 


Je crois avoir vu aussi Claude Excel : qu’est-ce qu’il peu faire dedans ? Peut-il me faire les formules dans les cellules en fonction de ce que je demande ?

 

Et que pourrait-il faire d’autre ?

 

Ha si, j’ai une idée qui me serait utile.
Gérer les commits de mon dépôt Gitea auto-hébergé : qu’il me les crée , avec message de changelog aussi.
Qu’il les fasse aussi à interval de temps régulier car j’oublie régulièrement de le faire lol
Et peut être d’autres trucs que je n’ai pas encore eu idée…

 


Voilà voilà.
J’ai donc besoin de vous  :)

 


Édit : actuellement j’ai une discussion sur ma mise en route de BunkerWeb (pour remplacer NPMplus/Crodwsec/Fail2ban).
Il explique plutôt bien les choses. Je n’ai pas encore pu tester le docker compose qu’il m’a créé mais je pense que ce sera bon  :)  [:zigg]

 


Édit 2 : quid de tout ce que lui balance ? Ça peut être utilisé par d’autres ?
De ce paramètre non coché :
https://img3.super-h.fr/images/2026 [...] 5e6e93.jpg
Faut-il le cocher ? Est-ce que ça consomme plus de token quand on lui demande quelque chose ?

 

Car oui j’ai aussi besoin de conseils sur comment formuler mes demandes car j’ai l’impressions que les tokens partent super vite !! (Bon là c’est mon expérience avec la version gratuite…)


Ah oui ça fait beaucoup de choses
Pour répondre à ta dernière question, oui Claude ça part vite :??:


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
mood
Publicité
Posté le 05-04-2026 à 16:28:27  profilanswer
 

n°2521697
the_fennec
f3nn3cUs z3rd4
Posté le 05-04-2026 à 16:33:58  profilanswer
 

bulldozer_fusion a écrit :

Et les fournisseurs de IA ils vont pas l'intégrer, c'est ce que j'attends surtout


 
Ya pas de raison qu'ils le fassent pas sur le long terme, mais certains modèles comme les GPTs ont peu de gains et c'est pas encore stable. J'imagine que quand ça sera dans VLLM les gros fournisseurs le proposeront.


---------------
Faudra que je teste un jour :o
n°2521698
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 05-04-2026 à 16:36:05  profilanswer
 

the_fennec a écrit :

 

Ya pas de raison qu'ils le fassent pas sur le long terme, mais certains modèles comme les GPTs ont peu de gains et c'est pas encore stable. J'imagine que quand ça sera dans VLLM les gros fournisseurs le proposeront.


Ok je pensais que le gain était énorme aussi pour eux


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521699
the_fennec
f3nn3cUs z3rd4
Posté le 05-04-2026 à 16:44:34  profilanswer
 

bulldozer_fusion a écrit :


Ok je pensais que le gain était énorme aussi pour eux


 
J'ai juste vu un retour comme quoi GPT-OSS compressait très peu; mais c'était ya un moment et c'était un vieux modèle.
 
Pour l'instant il me semble que les TQ ont un coût de traitement GPU supérieur, qui pourrait rendre le truc moins intéressant a grande échelle. Genre tu peux mettre 10% d'utilisateurs de moins avec un contexte 2x plus gros, sachant que la plupart vont pas l'utiliser c'est pas forcément rentable.


---------------
Faudra que je teste un jour :o
n°2521703
Circenses
Posté le 05-04-2026 à 19:03:09  profilanswer
 

:hello:
 
(Reprise de mon message sur "IA générative de texte, ChatGPT, Copilot, Gemini & co" :o )
 
Certains font-ils tourner des LLM en local ? Pour ma part, je suis sous Linux Mint, avec une RTX 5090 ( :o ).
 
Il y a un peu moins d'un an, j'avais testé plusieurs LLM (Gemma3, Qwen, etc.), via Ollama / AnythingLLM en docker, et c'était franchement décevant.
 
Là, il y a Gemma4 qui vient de sortir (j'utilise Gemma4:26b, la version 31b sature la VRAM), et c'est tout juste bluffant ! J'ai comparé plusieurs réponses (avec Gemini Pro et ChatGPT Plus), et ça semble tenir la route ! Bon, le délai de réponse est quand même plus long, mais les perspectives sont franchement enthousiasmantes !

n°2521709
oh_damned
Posté le 05-04-2026 à 19:34:15  profilanswer
 

[:michrone]


---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°2521714
ionik
Posté le 05-04-2026 à 20:04:41  profilanswer
 

Circenses a écrit :

:hello:

 

(Reprise de mon message sur "IA générative de texte, ChatGPT, Copilot, Gemini & co" :o )

 

Certains font-ils tourner des LLM en local ? Pour ma part, je suis sous Linux Mint, avec une RTX 5090 ( :o ).

 

Il y a un peu moins d'un an, j'avais testé plusieurs LLM (Gemma3, Qwen, etc.), via Ollama / AnythingLLM en docker, et c'était franchement décevant.

 

Là, il y a Gemma4 qui vient de sortir (j'utilise Gemma4:26b, la version 31b sature la VRAM), et c'est tout juste bluffant ! J'ai comparé plusieurs réponses (avec Gemini Pro et ChatGPT Plus), et ça semble tenir la route ! Bon, le délai de réponse est quand même plus long, mais les perspectives sont franchement enthousiasmantes !


Merci pour le retour, et pour info sur windows LM studio est beaucoup niveau utilisation VRAM et tu peux sélectionner plus de paramètre sur qui charge le llm etc ... Ce que ne propose pas ollama et je trouve donc que c'est plus rapide aussi.


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°2521717
LibreArbit​re
La /root est longue
Posté le 05-04-2026 à 21:23:08  profilanswer
 

LM Studio c'est fait pour tester des modèles et différents paramètres mais pas à mettre en prod à mon sens...


---------------
Hebergement d'images
n°2521718
oh_damned
Posté le 05-04-2026 à 22:14:32  profilanswer
 

Et pourquoi pas ?


---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°2521719
LibreArbit​re
La /root est longue
Posté le 05-04-2026 à 22:17:48  profilanswer
 

oh_damned a écrit :

Et pourquoi pas ?


Car un serveur ça n'a pas besoin d'une GUI :)


---------------
Hebergement d'images
mood
Publicité
Posté le 05-04-2026 à 22:17:48  profilanswer
 

n°2521720
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 05-04-2026 à 22:24:44  profilanswer
 

Y a un mode server sur lm studio
https://lmstudio.ai/docs/developer/core/headless

 

Et connecter tes clients avec
https://lmstudio.ai/link

Message cité 1 fois
Message édité par bulldozer_fusion le 05-04-2026 à 22:25:35

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521722
LibreArbit​re
La /root est longue
Posté le 06-04-2026 à 01:25:24  profilanswer
 

bulldozer_fusion a écrit :

Y a un mode server sur lm studio
https://lmstudio.ai/docs/developer/core/headless
 
Et connecter tes clients avec
https://lmstudio.ai/link


Je ne savais pas, merci beaucoup :jap:


---------------
Hebergement d'images
n°2521726
the_fennec
f3nn3cUs z3rd4
Posté le 06-04-2026 à 10:40:20  profilanswer
 

ionik a écrit :


Merci pour le retour, et pour info sur windows LM studio est beaucoup niveau utilisation VRAM et tu peux sélectionner plus de paramètre sur qui charge le llm etc ... Ce que ne propose pas ollama et je trouve donc que c'est plus rapide aussi.


 
beaucoup quoi?


---------------
Faudra que je teste un jour :o
n°2521727
the_fennec
f3nn3cUs z3rd4
Posté le 06-04-2026 à 20:08:43  profilanswer
 

Bordel, je voulais tester les Turbo Quants, le build de llama.ccp prends genre 15 minutes sous Linux/Vulkan avec la BC250, le Windows/CUDA sur Ryzen3600/4060Ti approche des 1h45 2h10 4h20 et c'est pas fini :(.
 
Ça tournait encore après la nuit, j'imagine que compiler toutes les archi avec une 4060 était une mauvaise idée.


Message édité par the_fennec le 07-04-2026 à 08:23:16

---------------
Faudra que je teste un jour :o
n°2521728
ionik
Posté le 06-04-2026 à 20:30:50  profilanswer
 
n°2521730
the_fennec
f3nn3cUs z3rd4
Posté le 06-04-2026 à 20:36:56  profilanswer
 

ionik a écrit :


Beaucoup mieux  :D


 
ce cliffhanger :o


---------------
Faudra que je teste un jour :o
n°2521733
MilesTEG1
Posté le 06-04-2026 à 22:32:08  profilanswer
 

Bon, j'ai essayé Claude for Excel.
Et bien je suis bien bluffé...
 
Contexte : j'utilise un classeur pour stocker les notes des évaluations de mes étudiants.
Une feuille par évaluation.
Dans une, feuille, j'ai une grille d'évaluation par question, et je numérote les questions comme ceci : E1Q1, E2Q2-A, E2Q2-B, etc...
Et pour chaque question il y a un barème par compétence, et il peut y avoir 1 à 3 compétences.
 
Bref, j'ai demandé à claude de me générer, depuis mon PDF d'évaluation, la liste des questions, avec leurs compétences, le barème (tout ça c'est présent dans le PDF) et la Capacité évaluée qui est présente dans une liste dans une autre feuille (je lui ai donné carte blanche sur ça, il peut ajouter des choses, car quoiqu'il arrive, je repasse derrière.).
Puis une fois que j'ai corrigé l'évaluation, je lui ai demandé de me faire une appréciation dans une autre feuille pour les copies corrigées en lui demandant d'apprendre des miennes sur les autres feuilles d'évaluations et d'utiliser les notes que j'ai mises dans les cellules de certaines copies.
Et bien, ça sonne vraiment comme moi. En un peu mieux écrit ^^  
 
Bref, content de moi et de son travail.
 
Le hic : c'est que ça m'a pris quasi plus de temps de faire les prompts que de corriger les copies XD et de faire moi-même les appréciations.
Mais au moins c'est fait pour les futures :)
(je lui ai demandé de me faire les prompts pour lui redemander ce travail, car je ne sais pas trop si d'un classeur XLSX à un autre il conserve une mémoire...)


---------------
Mes ventes : [FeedBack] http://forum.hardware.fr/hfr/Achat [...] 4599_1.htm
n°2521735
fabien
Vive la super 5 !
Posté le 07-04-2026 à 07:34:15  profilanswer
 

dans les fichiers, il y a les noms et prénoms des élèves ? tout ça sur les serveurs de Claude ?
j'espère qu'ils sont honnête et ne stockent rien.


---------------
Découvre le HFRcoin ✈ - smilies
n°2521736
MilesTEG1
Posté le 07-04-2026 à 09:52:24  profilanswer
 

fabien a écrit :

dans les fichiers, il y a les noms et prénoms des élèves ? tout ça sur les serveurs de Claude ?  
j'espère qu'ils sont honnête et ne stockent rien.


Ha crap, j'avais pas vu ce hic...
Faudra que j'anonymise les feuilles de calculs alors  :pt1cable:


---------------
Mes ventes : [FeedBack] http://forum.hardware.fr/hfr/Achat [...] 4599_1.htm
n°2521738
LibreArbit​re
La /root est longue
Posté le 07-04-2026 à 10:25:01  profilanswer
 

MilesTEG1 a écrit :

Ha crap, j'avais pas vu ce hic...
Faudra que j'anonymise les feuilles de calculs alors  :pt1cable:


Alors non seulement Anthropic n'entraîne pas les données des utilisateurs payants (sauf si tu es en gratuit) mais comme déjà répété, des données ne peuvent remonter dans un LLM que si les occurrences sont présentes des millions de fois...

 

Et avant de s'inquiéter de ça il faudrait déjà prendre garde de ne jamais utiliser iCloud, Google Drive, OneDrive ni aucun espace de stockage dans le cloud (et ne jamais rien stocker de données personnelles sur son téléphone également, comme des contacts, adresses mails, numéros de téléphone, SMS, etc.) :o

 

Par contre il reste un point réglementaire cela dit, sur le traitement automatique des données... Demande donc à Claude ce qu'il en est juridiquement :jap:


Message édité par LibreArbitre le 07-04-2026 à 10:27:25

---------------
Hebergement d'images
n°2521747
yohaskan
Posté le 07-04-2026 à 13:03:32  profilanswer
 

Tu peux rajouter Github à la liste... :o  
GitHub va utiliser vos données Copilot pour entraîner ses modèles d'IA
https://korben.info/github-va-utili [...] s-dia.html

n°2521748
LibreArbit​re
La /root est longue
Posté le 07-04-2026 à 14:04:56  profilanswer
 

yohaskan a écrit :

Tu peux rajouter Github à la liste... :o  
GitHub va utiliser vos données Copilot pour entraîner ses modèles d'IA
https://korben.info/github-va-utili [...] s-dia.html


Il suffit de ne pas utiliser cette merdasse de Copilot et sinon on peut désactiver ça :
 

Citation :

L'option à désactiver s'appelle "Allow GitHub to use my data for AI model training". GitHub insiste sur le fait que le contenu des dépôts privés n'est pas collecté "au repos", mais attention, si vous utilisez Copilot activement avec le partage activé, vos interactions dans un dépôt privé sont bien concernées.


 
Le plus simple est de désactiver Copilot ou de passer sur GitLab (ce que je vais faire pour mes repo privés)...


---------------
Hebergement d'images
n°2521749
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 07-04-2026 à 14:25:42  profilanswer
 

Citation :

An AI coding assistant skill. Type /graphify in Claude Code, Codex, OpenCode, OpenClaw, or Factory Droid - it reads your files, builds a knowledge graph, and gives you back structure you didn't know was there. Understand a codebase faster. Find the "why" behind architectural decisions.

 

Fully multimodal. Drop in code, PDFs, markdown, screenshots, diagrams, whiteboard photos, even images in other languages - graphify uses Claude vision to extract concepts and relationships from all of it and connects them into one graph.


https://github.com/safishamsi/graphify
Tout nouveau tout chaud


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521750
the_fennec
f3nn3cUs z3rd4
Posté le 07-04-2026 à 15:44:49  profilanswer
 

Bon je laisse tomber les turbo quants pour le moment. Un des forks ne marche pas, j'ai peut être loupé un truc, mais il prends pas les KV tq3. Il y en a un autre qui marche, mais que sur CUDA pas Vulkan, donc ma config hybride plante.
 
Si quelqu'un veut tester un build CUDA, il vaut mieux utiliser -DCMAKE_CUDA_ARCHITECTURES=xxx pour ne compiler que sa propre archi, je suspecte que ma 4060 n'est pas capable de compiler les shaders pour les A10+.
 
Je suis en train de tester les APEX de coder-next:
https://huggingface.co/mudler/Qwen3 [...] -APEX-GGUF
 
Le plus petit modèle fait 2GB de plus que le Unsloth, je sais pas comment ça rentre, il doit me rester 200MB de RAM/VRAM combinées sur les deux systèmes :o.  
 

Spoiler :

Je veux une autre BC-250 :D

Message cité 1 fois
Message édité par the_fennec le 07-04-2026 à 15:45:26

---------------
Faudra que je teste un jour :o
n°2521755
MilesTEG1
Posté le 07-04-2026 à 16:24:38  profilanswer
 

bulldozer_fusion a écrit :

Citation :

An AI coding assistant skill. Type /graphify in Claude Code, Codex, OpenCode, OpenClaw, or Factory Droid - it reads your files, builds a knowledge graph, and gives you back structure you didn't know was there. Understand a codebase faster. Find the "why" behind architectural decisions.
 
Fully multimodal. Drop in code, PDFs, markdown, screenshots, diagrams, whiteboard photos, even images in other languages - graphify uses Claude vision to extract concepts and relationships from all of it and connects them into one graph.


https://github.com/safishamsi/graphify
Tout nouveau tout chaud


Comment on se sert de ça ?
Ca semble intéressant mais je n’ai aucune idée de comment faire  :pt1cable:  
Déjà Claude code je ne vois pas comment m’en servir lol


---------------
Mes ventes : [FeedBack] http://forum.hardware.fr/hfr/Achat [...] 4599_1.htm
n°2521761
le canard ​nouveau
coin
Posté le 07-04-2026 à 16:59:34  profilanswer
 

Pour faire tourner en local, jan server existe aussi, agentic compliant, toussa
 
https://www.jan.ai/
 
Comme Ollama mais bien plus complet, gestion native des MCP, un peu comme LM Studio, et se base sur Llama.cpp plutôt que le backend propriétaire d'Ollama


---------------
Sivouplé, un referral scam citizen https://robertsspaceindustries.com/ [...] -SVBP-3PT3
n°2521765
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 07-04-2026 à 17:10:56  profilanswer
 

MilesTEG1 a écrit :


Comment on se sert de ça ?
Ca semble intéressant mais je n’ai aucune idée de comment faire  :pt1cable:
Déjà Claude code je ne vois pas comment m’en servir lol


C'est expliqué dans le lien


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521766
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 07-04-2026 à 17:12:42  profilanswer
 

Un nouveau système de gestion de mémoire IA
 [:tfpsly:4]
Vous allez voir qui l'a fait [:doak82]
https://github.com/milla-jovovich/mempalace


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521768
Olivie
SUUUUUUUUUUUUUU
Posté le 07-04-2026 à 18:38:55  profilanswer
 

MilesTEG1 a écrit :


Comment on se sert de ça ?
Ca semble intéressant mais je n’ai aucune idée de comment faire  :pt1cable:  
Déjà Claude code je ne vois pas comment m’en servir lol


 
Tu installes claude code. Tu le lances puis tu lui files le lien du skill en lui demandant de l'installer. Tu relances Claude code et tu lui demandes d'utiliser le skill  [:michel_cymerde:7]


---------------

n°2521769
le canard ​nouveau
coin
Posté le 07-04-2026 à 18:43:30  profilanswer
 

the_fennec a écrit :

Bon je laisse tomber les turbo quants pour le moment. Un des forks ne marche pas, j'ai peut être loupé un truc, mais il prends pas les KV tq3. Il y en a un autre qui marche, mais que sur CUDA pas Vulkan, donc ma config hybride plante.
 
Si quelqu'un veut tester un build CUDA, il vaut mieux utiliser -DCMAKE_CUDA_ARCHITECTURES=xxx pour ne compiler que sa propre archi, je suspecte que ma 4060 n'est pas capable de compiler les shaders pour les A10+.
 
Je suis en train de tester les APEX de coder-next:
https://huggingface.co/mudler/Qwen3 [...] -APEX-GGUF
 
Le plus petit modèle fait 2GB de plus que le Unsloth, je sais pas comment ça rentre, il doit me rester 200MB de RAM/VRAM combinées sur les deux systèmes :o.  
 

Spoiler :

Je veux une autre BC-250 :D



Je veux même pas imaginer chez toi dans 5 ans à ce rythme [:vave:4]


---------------
Sivouplé, un referral scam citizen https://robertsspaceindustries.com/ [...] -SVBP-3PT3
n°2521770
the_fennec
f3nn3cUs z3rd4
Posté le 07-04-2026 à 19:04:40  profilanswer
 

le canard nouveau a écrit :


Je veux même pas imaginer chez toi dans 5 ans à ce rythme [:vave:4]


 
Oui :o je dois être fort!


---------------
Faudra que je teste un jour :o
n°2521773
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 07-04-2026 à 19:41:04  profilanswer
 

Olivie a écrit :


 
Tu installes claude code. Tu le lances puis tu lui files le lien du skill en lui demandant de l'installer. Tu relances Claude code et tu lui demandes d'utiliser le skill  [:michel_cymerde:7]


aussi simple que ça


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521774
the_fennec
f3nn3cUs z3rd4
Posté le 07-04-2026 à 19:52:05  profilanswer
 

Bon, j'ai laissé tombé le modèle APEX, pas de bénéfice visible et 2GB de VRAM en moins.
J'ai testé Gemma-4 31B Q6, et il a crashé llama.cpp au bout d'une heure de taf'
 
Bref, je retourne sur Qwen3-coder-next d'Unsloth.


---------------
Faudra que je teste un jour :o
n°2521776
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 07-04-2026 à 20:04:27  profilanswer
 
n°2521778
le canard ​nouveau
coin
Posté le 07-04-2026 à 20:27:01  profilanswer
 

Sacré budget pour choper le hardware du truc :sweat:

 

EDIT: j'ai la version dans une taille plus... hmm... modeste :o
https://rehost.diberie.com/Picture/Get/f/504286

Message cité 1 fois
Message édité par le canard nouveau le 07-04-2026 à 20:28:29

---------------
Sivouplé, un referral scam citizen https://robertsspaceindustries.com/ [...] -SVBP-3PT3
n°2521780
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 07-04-2026 à 20:30:09  profilanswer
 

le canard nouveau a écrit :

Sacré budget pour choper le hardware du truc :sweat:
 
EDIT: j'ai la version dans une taille plus... hmm... modeste :o  
https://rehost.diberie.com/Picture/Get/f/504286


faut investir :o  [:jiejie999]


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521783
le canard ​nouveau
coin
Posté le 07-04-2026 à 20:58:30  profilanswer
 

J'ai pas 10k€ à mettre dans un PéCé, déso pas déso [:d_omi]  
 
De toute façon, à la vitesse où ça va (algo, compression, etc.), dans 3 ans, 16 Go de DDR3 et un i5-4600K fais tourner gpt-oss-120b :o


---------------
Sivouplé, un referral scam citizen https://robertsspaceindustries.com/ [...] -SVBP-3PT3
n°2521784
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 07-04-2026 à 21:03:53  profilanswer
 

Peut être, peut être pas :O


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521787
Implosion ​du Sord
Fesseur de chameaux
Posté le 07-04-2026 à 21:42:49  profilanswer
 

le canard nouveau a écrit :

J'ai pas 10k€ à mettre dans un PéCé, déso pas déso [:d_omi]

 

De toute façon, à la vitesse où ça va (algo, compression, etc.), dans 3 ans, 16 Go de DDR3 et un i5-4600K fais tourner gpt-oss-120b :o


On joue peut-être pas dans la même cours, mais je me pose sérieusement la question de claquer pour +10k€ en materiel


---------------
[VDS]AIO Fractal Design Celsius S36 | Carte Wifi N Intel 5100 mPCIe | divers accessoire boitier Fractal Design | Away from keyboard, close to your breast
n°2521788
XaTriX
Posté le 07-04-2026 à 21:46:21  profilanswer
 

Si c'est pour taffer avec ça peut se réfléchir mais je pense que le ROI est largement plus élevé en claquant ça en AboMax20 ou TeamPremium chez Claude (et Codex aussi si jamais). Ou API si tu veux brancher un soft précis dessus.
 
Le use case du gros setup qui fait tourner un bon LLM en local ça serait plutôt pour des clients exigeants (et auquel cas je sais pas comment un solo-entrepreneur peut montrer patte blanche sur des projets secure), enfin j'sais pas trop bien sur :o


---------------
Proxytaf ? non rien
n°2521789
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 07-04-2026 à 21:52:15  profilanswer
 

Implosion du Sord a écrit :


On joue peut-être pas dans la même cours, mais je me pose sérieusement la question de claquer pour +10k€ en materiel


Avec le boulot ou toi perso? c'est pas pareil :O

Message cité 1 fois
Message édité par bulldozer_fusion le 07-04-2026 à 21:52:24

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18  19

Aller à :
Ajouter une réponse
 

Sujets relatifs
Un assistant IA m’a pondu un script Bash… et une blague en bonus ![React] Comment changer le state de manière unique dans une map
Macros MS Publisher 2007 (Topic Unique ?)Environnement de développement modulaire basé sur node.js avec docker
Les truc indispensable sur du gros développementIA
MonoGame 3.8 - Le topic Unique[Développement Web] Votre parcours en tant que développeur web
[POSTGRESQL] WTF création unique impossibeondage sur votre expérience en développement web (dette technique)
Plus de sujets relatifs à : [Topic unique] Développement via IA


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)