Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2766 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18
Auteur Sujet :

[Topic unique] Développement via IA

n°2521651
XaTriX
Posté le 04-04-2026 à 23:01:34  profilanswer
 

Reprise du message précédent :
Tiens, petit retour sur comment bosser avec Claude Code + GitHub de manière un peu structurée :o

 

Depuis quelques jours je fais évoluer un projet (un MCP pour poster sur HFR, pour les curieux) et j'ai mis en place un workflow complet piloté quasi entièrement par l'IA :

 

Issues comme spec
Chaque feature ou bug a son issue GitHub avec le contexte technique. L'IA les lit, les crée, les met à jour, les ferme avec un commentaire explicatif. Les issues deviennent la mémoire du projet — plus besoin de se souvenir de ce qu'on a décidé et pourquoi.

 

Labels + Milestone v1.0
Un label v1.0 regroupe tout ce qui doit être fait pour la release. Les issues sont taggées bug, enhancement, documentation. Ça permet de filter et prioriser sans se prendre la tête.

 

GitHub Project (kanban cross-repo)
Un seul board "HFR Ecosystem" au niveau user qui agrège les issues de 3 repos différents (hfr-mcp, hfr-redkit, ForumHFR/Redface). Vue kanban Todo/In Progress/Done + vue Roadmap avec des dates start/end sur chaque issue. Tout géré via gh project en CLI.

 

Le flow concret
1. On discute d'une feature ou d'un bug
2. L'IA crée l'issue avec le contexte technique
3. On code (l'IA fait le gros du boulot, review humaine)
4. Commit avec Closes #N → auto-close + commentaire
5. Le board se met à jour tout seul

 

Le truc qui m'a surpris c'est à quel point l'IA est bonne pour la gestion de projet "boring" : trier les issues, mettre les bons labels, écrire les commentaires de closing, maintenir la roadmap. C'est la partie que personne veut faire et qui finit toujours en bordel sur un side project.

 

Par contre faut être directif : si tu lui dis pas de commenter quand elle ferme une issue, elle le fera pas. Si tu lui dis pas de vérifier les labels, elle oublie. Le secret c'est de sauvegarder ces règles en mémoire persistante pour qu'elle les applique automatiquement dans les futures sessions.

 

Le board : https://github.com/users/XaaT/projects/2

Message cité 1 fois
Message édité par XaTriX le 04-04-2026 à 23:03:16

---------------
Proxytaf ? non rien
mood
Publicité
Posté le 04-04-2026 à 23:01:34  profilanswer
 

n°2521652
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 04-04-2026 à 23:07:09  profilanswer
 
n°2521653
XaTriX
Posté le 04-04-2026 à 23:09:22  profilanswer
 

oui alors opus t'es gentil mais parle en ton nom hein :o
précisions: niveau project y'a des trucs qui sont pas CLIasble/automatisable, la création des vues, leurs noms ou la même start date de la vue roadmap. Même si le llm/gh peut mettre des dates sur chaque issues qui va remonter automatiquement
tout le reste peut se faire via gh et git donc en gros le llm peut tout faire à 99%
il a fait un post un random mais lfemme de le faire à sa place :o

 

il a comparé avec le mcp anthropic/github et certains trucs sont pas gérés genre projects v2 et son api graphql, donc le gh (cli github) a l'air plus supérieur


Message édité par XaTriX le 04-04-2026 à 23:10:19

---------------
Proxytaf ? non rien
n°2521654
XaTriX
Posté le 04-04-2026 à 23:29:44  profilanswer
 

@ezzz du coup pour la requete de savoir si le llm peut résumer les 10 dernières pages d'un topic par exemple, oui, déjà de base mais j'ai maj la fonction read pour batcher un nombre de page pour les ouvrir en parralele, ça devrait aller beaucoup plus vite.
 
https://github.com/XaaT/hfr-mcp/iss [...] 4187771886
 
https://i.imgur.com/n7GKd2F.png


---------------
Proxytaf ? non rien
n°2521655
XaTriX
Posté le 04-04-2026 à 23:43:14  profilanswer
 

premier essai de résumé, bon il l'a fait en markdown, pas de bbcode hfr puisque je lui ai pas demandé pour pas flooder ici, c'est perfectible mais c'est un début : https://gist.github.com/XaaT/9b2a38 [...] 82c6621121 (onp ourra fiare un skill pour lui dire de citer des posts, mettre des psuedos, etc)
par contre le gros soucis c'est que ça va vite, très vite bouffer du contexte et coûter cher :D


---------------
Proxytaf ? non rien
n°2521656
Implosion ​du Sord
Fesseur de chameaux
Posté le 04-04-2026 à 23:44:45  profilanswer
 

XaTriX a écrit :

Le flow concret
1. On discute d'une feature ou d'un bug
2. L'IA crée l'issue avec le contexte technique
3. On code (l'IA fait le gros du boulot, review humaine)
4. Commit avec Closes #N → auto-close + commentaire
5. Le board se met à jour tout seul


J'ai mis en place à peu prêt le même flow que toi, mais avec Jira pour les tickets. Dans les repos, j'ai néanmoins également un fichier "roadmap.md" qui permet d'économiser pas mal de tokens en évitant de trop scanner Jira via le MCP d'Atlassian.


---------------
[VDS]AIO Fractal Design Celsius S36 | Carte Wifi N Intel 5100 mPCIe | divers accessoire boitier Fractal Design | Away from keyboard, close to your breast
n°2521657
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 04-04-2026 à 23:45:23  profilanswer
 

Implosion du Sord a écrit :


J'ai mis en place à peu prêt le même flow que toi, mais avec Jira pour les tickets. Dans les repos, j'ai néanmoins également un fichier "roadmap.md" qui permet d'économiser pas mal de tokens en évitant de trop scanner Jira via le MCP d'Atlassian.


Intégré au taf ou pour du perso ?


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521658
XaTriX
Posté le 04-04-2026 à 23:47:47  profilanswer
 

Implosion du Sord a écrit :


J'ai mis en place à peu prêt le même flow que toi, mais avec Jira pour les tickets. Dans les repos, j'ai néanmoins également un fichier "roadmap.md" qui permet d'économiser pas mal de tokens en évitant de trop scanner Jira via le MCP d'Atlassian.


C'est pas con j'ai déjà un roadmap.md quelque part je crois, faut que je retrouve le repo avec :o
Après faut voir la conso de token pour ce genre d'outillage, faut comparer aussi le coût à l'utilisation du mcp vs une autre méthode


---------------
Proxytaf ? non rien
n°2521659
Implosion ​du Sord
Fesseur de chameaux
Posté le 04-04-2026 à 23:54:50  profilanswer
 

bulldozer_fusion a écrit :


Intégré au taf ou pour du perso ?


Usage pro oui

 
XaTriX a écrit :


C'est pas con j'ai déjà un roadmap.md quelque part je crois, faut que je retrouve le repo avec :o
Après faut voir la conso de token pour ce genre d'outillage, faut comparer aussi le coût à l'utilisation du mcp vs une autre méthode


Le coût du MCP Atlassian est assez catastrophique, mais l'API n'est pas envisageable. Pour github par contrr je passe par la CLI pour les PR.
Depuis la généralisation de Opus[1M] je n'ai plus trop de soucis de token ceci dit, on est à l'aide maintenant ! Enfin sauf quand je m'emballe en oubliant de compacter ou de démarrer de fresh sessions :o

Message cité 1 fois
Message édité par Implosion du Sord le 04-04-2026 à 23:55:03

---------------
[VDS]AIO Fractal Design Celsius S36 | Carte Wifi N Intel 5100 mPCIe | divers accessoire boitier Fractal Design | Away from keyboard, close to your breast
n°2521660
XaTriX
Posté le 04-04-2026 à 23:57:50  profilanswer
 

pas de cli jira ? :o


---------------
Proxytaf ? non rien
mood
Publicité
Posté le 04-04-2026 à 23:57:50  profilanswer
 

n°2521661
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 05-04-2026 à 00:01:15  profilanswer
 
n°2521662
Implosion ​du Sord
Fesseur de chameaux
Posté le 05-04-2026 à 00:23:07  profilanswer
 

XaTriX a écrit :

pas de cli jira ? :o


Je crois qu'un collègue à testé sans grand succès. On a des limitations d'accès comme pour l'API mais n'en ai aucune idée de pourquoi, pas eu trop le temps de secouer les gens responsables :o

 

J'utilise le MCP via le plugin Claude. Faudrait que je creuse ce qui pourrait être optimisé mais dans l'absolu ça fait le taf et je déborde que rarement de mon abonnement Max 5x
J'utilise plus du tout mon abo Copilot, mais continue d'invoquer codex CLI pour le gros de la génération de code avec review par Claude Code


---------------
[VDS]AIO Fractal Design Celsius S36 | Carte Wifi N Intel 5100 mPCIe | divers accessoire boitier Fractal Design | Away from keyboard, close to your breast
n°2521663
MilesTEG1
Posté le 05-04-2026 à 00:26:30  profilanswer
 

Salut  :hello:  
J'admire vos savoirs-faire, enfin celui de XaTriX car je n'ai pas vraiment lu les 15 pages du sujet; )
 
Je viens d'ailleurs sur ses conseils ;)
Et autant vous le dire, je suis plus que débutant avec les LLM...
Jusqu'à présent, je me contentais de leur poser des questions avec contextualisation de mon problème à résoudre, et avec un peu de chance, la conversation finissait par résoudre mon problème, parfois non XD
 
J'en ai essayé plusieurs des LLM : ChatGPT, Gemini, Claude, Le Chat, Copilot. Et c'est clairement Claude qui m'a le plus aidé et que je préfère, et celui qui tourne le moins en rond après un certains nombre de messages.
J'ai pris un abo ce matin.
 
Bref, j'aimerias bien avoir un vrai tuto didactique sur comment on peut utiliser Claude pour faire ce que XaTriX à fait ( https://forum.hardware.fr/forum2.ph [...] 0#t2521651 ) par exemple.
 
Je me suis essayé au tri/rangement de mon dossier téléchargement, et après quelques essais, et échanges, ça fonctionne pas mal ;)
 
Mais j'ai toujours un soucis de confiance XD
Comment m'assurer qu'il ne va pas faire n'importe quoi, envoyer mes fichiers ou mon code avec les variables sensibles sur le net ?
 
 
Bref, me faut des bases que je n'ai pas encore.
 
J'espère que vous pourrez m'aider :)


---------------
Mes ventes : [FeedBack] http://forum.hardware.fr/hfr/Achat [...] 4599_1.htm
n°2521664
XaTriX
Posté le 05-04-2026 à 00:26:33  profilanswer
 

@sord: abo payé par le taf ?

 

codex cli tul le wrap dans CC ?

Message cité 1 fois
Message édité par XaTriX le 05-04-2026 à 00:26:55

---------------
Proxytaf ? non rien
n°2521665
Implosion ​du Sord
Fesseur de chameaux
Posté le 05-04-2026 à 00:46:44  profilanswer
 

XaTriX a écrit :

@sord: abo payé par le taf ?

 

codex cli tul le wrap dans CC ?


Je paye mon abo avec ma boite, je suis passé indep depuis quelques années

 

J'ai créé un skill pour que Claude ai les bonnes instructions d'invocation. Il fait ça dans un sous-agent de type shell, avec des cas d'exclusion : update de code triviaux, commentaires de méthodes, ... j'ai généré le skill avec le plugin Claude dédié à cette tâche et en lui faisan digérer la doc de codex + plusieurs skill trouvé ça et là sur le net mais qui ne me convenaient pas parfaitement. En général Claude l'invoque bien tout seul, mais parfois je dois lui dire d'utiliser le skill /codex
L'inconvénient de codex par contre c'est qu'il est pas super rapide (je suis en xhigh), mais la qualité du code produit est réellement supérieur, surtout sur du dev avec une approche ultra-défensive et sur les tests de unhappy path.
J'utilise aussi un skill de confrontation d'analyse entre opus et codex où chacun produit une ou plusieurs review (via des fichiers MD) et critique ensuite celles de l'autre.

Message cité 1 fois
Message édité par Implosion du Sord le 05-04-2026 à 00:47:46

---------------
[VDS]AIO Fractal Design Celsius S36 | Carte Wifi N Intel 5100 mPCIe | divers accessoire boitier Fractal Design | Away from keyboard, close to your breast
n°2521666
XaTriX
Posté le 05-04-2026 à 00:48:03  profilanswer
 

pk le 100 et pas le 200, c'est celui qui vaut vraiment le coup non ? (je pense qeu tu as plus que le "simple" x4 sur le quota non ? genre des trucs en preview, etc)


---------------
Proxytaf ? non rien
n°2521667
XaTriX
Posté le 05-04-2026 à 00:49:08  profilanswer
 

pour le reste bien cool :D faudrait quej e test, tu publies ton truc quelque part ou non ?  
p'tet qu'il existe déjà des trucs tu me diras.
 
abo gpt à 20 boules ? :o


---------------
Proxytaf ? non rien
n°2521668
Implosion ​du Sord
Fesseur de chameaux
Posté le 05-04-2026 à 01:00:35  profilanswer
 

XaTriX a écrit :

pk le 100 et pas le 200, c'est celui qui vaut vraiment le coup non ? (je pense qeu tu as plus que le "simple" x4 sur le quota non ? genre des trucs en preview, etc)


Sauf si j'ai loupé un truc, aucune diff entre x5 et x20 (le ~200) a part le nombre de token max par session de 5h. Tant que j'en ai pas besoin, je prend pas. Même si c'est ma boite qui paye, les dépenses c'est du benef en moins en fin d'année :o

 
XaTriX a écrit :

pour le reste bien cool :D faudrait quej e test, tu publies ton truc quelque part ou non ?
p'tet qu'il existe déjà des trucs tu me diras.

 

abo gpt à 20 boules ? :o


Oui c'est l'abo à 20 balles et j'ai jamais rencontré de limite, pourtant il paraît qu'elle existe
Pour les skills j'hésite à publier, car c'est clairement fait sur le temps chez mon client (et je dois faire un petit clean au cas où). Je poserai la question, je pense qu'il dira oui.
Je pourrais partager les liens des skills dont je me suis inspiré ceci dit (pour l'invoke de codex)


---------------
[VDS]AIO Fractal Design Celsius S36 | Carte Wifi N Intel 5100 mPCIe | divers accessoire boitier Fractal Design | Away from keyboard, close to your breast
n°2521669
XaTriX
Posté le 05-04-2026 à 01:02:52  profilanswer
 

ceci dit si tu décris assez on pourra en faire un communautaire :o


---------------
Proxytaf ? non rien
n°2521670
XaTriX
Posté le 05-04-2026 à 01:08:13  profilanswer
 

sinon y'a ce "bug" sur le probleme de cache hit à la reprise d'une session, je sais pas si c'est corrigé upstream puis que le blog post a 4 jours ond c'est VIEUX [:ocolor]

 

https://docs.bswen.com/blog/2026-04 [...] e-caching/

 

en tout cas j'ai fiat un skill pour, je laisse opus résumer j'ai la flemme:

Citation :

Skill custom "/switch" pour Claude Code — préparer un changement de compte ou une fin de session proprement.

 

Le problème : quand tu switches de compte, que tu fais une pause, ou que tu reprends le lendemain, le prompt cache est purgé (TTL 5 min sur l'API, inconnu sur Pro/Team). Tout le contexte est re-ingéré from scratch. Sur une session à 200K+ tokens ça fait mal au quota.

 

Le skill /switch automatise la checklist de sortie :
1. Audit des repos — changements non commités, stash oubliés
2. Vérification CI — dernière run green/red sur chaque repo
3. Audit mémoire — parcourt la conversation, identifie ce qui devrait être sauvé en mémoire persistante et ne l'est pas
4. Cohérence des issues — issues qui auraient dû être fermées ou mises à jour
5. Switchover brief — résumé compact avec état des repos, CI, mémoire, et un "resume prompt" prêt à copier-coller
6. Suggestion de /compact pour réduire le contexte

 

Le but : la session suivante repart sur 20-30K tokens (mémoire + issues) au lieu de 200K+ de conversation.

 

Y'a aussi un hook PreCompact possible pour que /compact trigger automatiquement les étapes du switch avant de compresser.

 

Stats de ma session : 96.5% de cache hit sur 338M tokens (1876 requêtes). Les données sont dans les JSONL locaux (~/.claude/projects/), champ message.usage avec cache_read_input_tokens / cache_creation_input_tokens.

 

mais comme il peut pas appeler /compact en fin de skill ça fait chier :o
alors je vois qu'il y'a un hook avant le compact donc je peux l'appeler mais non parce qu'on peut pas appeler un skill comme ça [:dawa] donc je peux le foutre dans uns cript bash en prehook. a tester mais la flemme :o

 


edit:
https://i.imgur.com/AZjE9iw.png


Message édité par XaTriX le 05-04-2026 à 01:10:47

---------------
Proxytaf ? non rien
n°2521671
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 05-04-2026 à 01:12:45  profilanswer
 

Implosion du Sord a écrit :


Je paye mon abo avec ma boite, je suis passé indep depuis quelques années

 

J'ai créé un skill pour que Claude ai les bonnes instructions d'invocation. Il fait ça dans un sous-agent de type shell, avec des cas d'exclusion : update de code triviaux, commentaires de méthodes, ... j'ai généré le skill avec le plugin Claude dédié à cette tâche et en lui faisan digérer la doc de codex + plusieurs skill trouvé ça et là sur le net mais qui ne me convenaient pas parfaitement. En général Claude l'invoque bien tout seul, mais parfois je dois lui dire d'utiliser le skill /codex
L'inconvénient de codex par contre c'est qu'il est pas super rapide (je suis en xhigh), mais la qualité du code produit est réellement supérieur, surtout sur du dev avec une approche ultra-défensive et sur les tests de unhappy path.
J'utilise aussi un skill de confrontation d'analyse entre opus et codex où chacun produit une ou plusieurs review (via des fichiers MD) et critique ensuite celles de l'autre.


Monsieur est entrepreneur [:delprozac:1]


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521672
XaTriX
Posté le 05-04-2026 à 01:13:28  profilanswer
 

vu les taxes bien moins prenantes en pologne je pense le faire dès que c'est possible :D


---------------
Proxytaf ? non rien
n°2521673
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 05-04-2026 à 01:15:10  profilanswer
 

MilesTEG1 a écrit :

Salut  :hello:
J'admire vos savoirs-faire, enfin celui de XaTriX car je n'ai pas vraiment lu les 15 pages du sujet; )

 

Je viens d'ailleurs sur ses conseils ;)
Et autant vous le dire, je suis plus que débutant avec les LLM...
Jusqu'à présent, je me contentais de leur poser des questions avec contextualisation de mon problème à résoudre, et avec un peu de chance, la conversation finissait par résoudre mon problème, parfois non XD

 

J'en ai essayé plusieurs des LLM : ChatGPT, Gemini, Claude, Le Chat, Copilot. Et c'est clairement Claude qui m'a le plus aidé et que je préfère, et celui qui tourne le moins en rond après un certains nombre de messages.
J'ai pris un abo ce matin.

 

Bref, j'aimerias bien avoir un vrai tuto didactique sur comment on peut utiliser Claude pour faire ce que XaTriX à fait ( https://forum.hardware.fr/forum2.ph [...] 0#t2521651 ) par exemple.

 

Je me suis essayé au tri/rangement de mon dossier téléchargement, et après quelques essais, et échanges, ça fonctionne pas mal ;)

 

Mais j'ai toujours un soucis de confiance XD
Comment m'assurer qu'il ne va pas faire n'importe quoi, envoyer mes fichiers ou mon code avec les variables sensibles sur le net ?

 


Bref, me faut des bases que je n'ai pas encore.

 

J'espère que vous pourrez m'aider :)


Tu es au bon endroit pour ça
 :hello:
Tu veux faire quoi concrètement avec Claude?
Et tu veux utiliser quels outils de Claude (Claude code, Claude desktop, Claude cowork, etc?)

Message cité 1 fois
Message édité par bulldozer_fusion le 05-04-2026 à 01:16:07

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521674
XaTriX
Posté le 05-04-2026 à 01:38:00  profilanswer
 

bon je vais tester si garder le cache au chaud (un ping toutes les 50mn) empêche de recharger le contexte au prix fort à la reprise de la session :D
ca implique de jamais péter la session par contre, donc tmux & terminal/vty hébergé en ligne je ne sais où, à voir.
(doit y'avoir un garde fou :o)


---------------
Proxytaf ? non rien
n°2521675
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 05-04-2026 à 02:42:08  profilanswer
 

Une nouvelle méthode de quantification intéressante https://github.com/cenconq25/Turbo-Lossless


---------------
Victime de girafophobie, mais se soigne.
n°2521677
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 05-04-2026 à 02:49:10  profilanswer
 

Tronklou a écrit :

Une nouvelle méthode de quantification intéressante https://github.com/cenconq25/Turbo-Lossless


Ça ou turbo qwant c'est intégrable facilement?
J'avais l'impression que ce n'était que du proof of concept


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521678
pich_mu
Posté le 05-04-2026 à 07:37:08  profilanswer
 

Salut à tous  :hello:  
 
Pour un projet perso j’ai besoin d’un site web. Comme je suis pas dev j’ai demandé à l’IA de le faire.
 
Et vu que j’ai pas envie que ça me coûte un rond j’utilise des modèles local.
 
J’ai commencé avec LM Studio et des modèles comme Devstral avec juste la fenêtre de chat. Bon c’est assez limité on va dire (pas la faute du modèle).
 
Du coup jai trouvé ce tuto et je suis passé à la vitesse supérieure : LMStudio en backend, un serveur MCP et VSCode+Roo Code pour le front end (tuto ici : https://www.reddit.com/r/LocalLLaMA [...] ust/?tl=fr)
 
Et la  [:apges:5]  
C’est ouf comment ça marche bien  :love:  
 
Pour le moment je suis en phase d’apprentissage, la seule limite que je vois c’est la capacité de mémoire de mon PC (16Go de VRAM et 64go de RAM). Faut que je règle finement les capa en token de mes modèles et que je configure Roo code pour pas trop en bouffer.

n°2521679
fabien
Vive la super 5 !
Posté le 05-04-2026 à 07:54:02  profilanswer
 

ca serait plus simple d'installer WordPress si tu veux pas dépenser un rond...

 

avec l'ia les gens réinvente la roue. en plus t'es pas dev, tu pourras pas vérifier le code et encore moins voir s'il y a des failles de sécurité.

 

après si c'est perso et que ça t'amuse de tester l'ia c'est autre chose.


---------------
Découvre le HFRcoin ✈ - smilies
n°2521680
ezzz
23
Posté le 05-04-2026 à 08:46:30  profilanswer
 

XaTriX a écrit :

@ezzz du coup pour la requete de savoir si le llm peut résumer les 10 dernières pages d'un topic par exemple, oui, déjà de base mais j'ai maj la fonction read pour batcher un nombre de page pour les ouvrir en parralele, ça devrait aller beaucoup plus vite.
 
https://github.com/XaaT/hfr-mcp/iss [...] 4187771886
 
https://i.imgur.com/n7GKd2F.png


Pas mal ! Je vais tester quand j’aurais 5 min.  
Ce que je voudrais exactement c’est :  
- lire les derniers posts des 2 topics des app iOS, idéalement à partir du post de la dernière release et ensuite de manière incrémentale  
- faire la synthèse des pb rencontrés
- et en même temps comparer avec une base d’issues genre GitHub de référence et proposer d’ajouter les manquantes  
 
Ensuite pour aller plus loin  [:sei7h:1]  
- bonus1 : proposer des réponses au utilisateur> genre « ce bug est connu et pas encore corrigé mais en haute priorité pour la prochaine release » en fonction du contenu du ticket GitHub
-bonus 2: aller lire le code directement et donner un avis : c’est un bug lié à xxx, pour le résoudre il faut modifier yyy (et derrière je check juste l’impact pour savoir si je l’implémente ou pas maintenant)


---------------
mon flick r - 23 - https://youtu.be/LAr6oAKieHk
n°2521681
pich_mu
Posté le 05-04-2026 à 09:04:18  profilanswer
 

fabien a écrit :

ca serait plus simple d'installer WordPress si tu veux pas dépenser un rond...  
 
avec l'ia les gens réinvente la roue. en plus t'es pas dev, tu pourras pas vérifier le code et encore moins voir s'il y a des failles de sécurité.
 
après si c'est perso et que ça t'amuse de tester l'ia c'est autre chose.


 
Ouaip je pourrais, mais WordPress d’expérience (ça fait longtemps que j’ai pas testé) faut payer pour avoir des trucs un peu au delà du basique, non ? Et faut quand même mettre un peu les mains dans le cambouis.
 
Après faut pas se mentir, c’est aussi pour faire mumuse  :D

n°2521682
the_fennec
f3nn3cUs z3rd4
Posté le 05-04-2026 à 09:06:31  profilanswer
 

Tronklou a écrit :

Une nouvelle méthode de quantification intéressante https://github.com/cenconq25/Turbo-Lossless


 
J'en ai vu passer sur le topic TQ:
https://github.com/ggml-org/llama.cpp/discussions/20969
 
Mais pas mal, dont celui-la, ont un soucis sur les gros contextes.
 

bulldozer_fusion a écrit :


Ça ou turbo qwant c'est intégrable facilement?
J'avais l'impression que ce n'était que du proof of concept


 
Ya pas mal de forks de llama.cpp en cours, le meilleur sera probablement mergé. Celui-la a l'air de bien progresser:
https://github.com/TheTom/llama-cpp-turboquant


---------------
Faudra que je teste un jour :o
n°2521683
fabien
Vive la super 5 !
Posté le 05-04-2026 à 09:09:44  profilanswer
 

pich_mu a écrit :

 

Ouaip je pourrais, mais WordPress d’expérience (ça fait longtemps que j’ai pas testé) faut payer pour avoir des trucs un peu au delà du basique, non ? Et faut quand même mettre un peu les mains dans le cambouis.

 

Après faut pas se mentir, c’est aussi pour faire mumuse :D


ben installe le et test, ca prend 5 min, plus rapide que de faire de l'ia. le reste c'est pas spécialement payant, c'est des plugin, pour le prix c'est comme les logiciels, t'en a des gratuit et des payants et justement avec l'ia tu peux faire des plugins, le reste est déjà prêt.


---------------
Découvre le HFRcoin ✈ - smilies
n°2521684
pich_mu
Posté le 05-04-2026 à 09:14:15  profilanswer
 

fabien a écrit :


ben installe le et test, ca prend 5 min, plus rapide que de faire de l'ia. le reste c'est pas spécialement payant, c'est des plugin, pour le prix c'est comme les logiciels, t'en a des gratuit et des payants et justement avec l'ia tu peux faire des plugins, le reste est déjà prêt.  


 
C’est gentil mais si je voulais faire du WordPress je ferais du WordPress et j’irais sur le topic WordPress  :D  
 
La je veux faire un site « from scratch », en apprenant à me servir de l’IA générative en //.
 
Cela dit merci pour les mises en garde concernant la sécurité, il faudra que je vérifie ça, peut être au travers d’un checker dédié ?

n°2521685
the_fennec
f3nn3cUs z3rd4
Posté le 05-04-2026 à 10:05:08  profilanswer
 

pich_mu a écrit :


 
C’est gentil mais si je voulais faire du WordPress je ferais du WordPress et j’irais sur le topic WordPress  :D  
 
La je veux faire un site « from scratch », en apprenant à me servir de l’IA générative en //.
 
Cela dit merci pour les mises en garde concernant la sécurité, il faudra que je vérifie ça, peut être au travers d’un checker dédié ?


 
Vu que tu n'as pas beaucoup de VRAM, je te conceilerais de passer sur llama.cpp directement, comme le gars de ton tuto a finis par faire:
https://github.com/Danmoreng/local-qwen3-coder-env
 
Si tu veux gagner un peut de VRAM, tu peux virer le mmproj, c'est pour la "vision" le fait de pouvoir coller un screenshot.
 
Pour la sécu: Semgrep, Trivy, OWASP ZAP, ya Snyk aussi avec un "compte free".
 
Après le mieux pour du perso qui n'est pas partagé, c'est Cloudflare en gratuit avec un login/pw devant.

Message cité 1 fois
Message édité par the_fennec le 05-04-2026 à 10:09:07

---------------
Faudra que je teste un jour :o
n°2521687
XaTriX
Posté le 05-04-2026 à 10:15:29  profilanswer
 

ezzz a écrit :


Pas mal ! Je vais tester quand j’aurais 5 min.
Ce que je voudrais exactement c’est :
- lire les derniers posts des 2 topics des app iOS, idéalement à partir du post de la dernière release et ensuite de manière incrémentale
- faire la synthèse des pb rencontrés
- et en même temps comparer avec une base d’issues genre GitHub de référence et proposer d’ajouter les manquantes

 

Ensuite pour aller plus loin  [:sei7h:1]
- bonus1 : proposer des réponses au utilisateur> genre « ce bug est connu et pas encore corrigé mais en haute priorité pour la prochaine release » en fonction du contenu du ticket GitHub
-bonus 2: aller lire le code directement et donner un avis : c’est un bug lié à xxx, pour le résoudre il faut modifier yyy (et derrière je check juste l’impact pour savoir si je l’implémente ou pas maintenant)


Oui c'est possible. Côté MCP il servira le contenu que tu veux puis tu peux demander à Opus/Sonnet de te faire un skill pour les demandes même les bonus. Le seul problème c'est la consommation de token/quota :o

 

Mais avec le repo git en sync en local plus la cli GH tu peux faire ce que tu veux ;)


---------------
Proxytaf ? non rien
n°2521688
pich_mu
Posté le 05-04-2026 à 10:28:08  profilanswer
 

the_fennec a écrit :


 
Vu que tu n'as pas beaucoup de VRAM, je te conceilerais de passer sur llama.cpp directement, comme le gars de ton tuto a finis par faire:
https://github.com/Danmoreng/local-qwen3-coder-env
 
Si tu veux gagner un peut de VRAM, tu peux virer le mmproj, c'est pour la "vision" le fait de pouvoir coller un screenshot.
 
Pour la sécu: Semgrep, Trivy, OWASP ZAP, ya Snyk aussi avec un "compte free".
 
Après le mieux pour du perso qui n'est pas partagé, c'est Cloudflare en gratuit avec un login/pw devant.


 
Merci pour les conseils  :jap:  
 
Llama.cpp c’est en remplacement de LM Studio c’est ça ? Pour faire tourner les modèles ?
 
Je regarde le reste quand je serais tranquille et je poserait des questions si jamais.

n°2521689
the_fennec
f3nn3cUs z3rd4
Posté le 05-04-2026 à 10:55:03  profilanswer
 

pich_mu a écrit :


 
Merci pour les conseils  :jap:  
 
Llama.cpp c’est en remplacement de LM Studio c’est ça ? Pour faire tourner les modèles ?
 
Je regarde le reste quand je serais tranquille et je poserait des questions si jamais.


 
Oui c'est ça, c'est le moteur qu'utilisent LMStudio et Ollama, il n'y qu'une ligne de commande, et une interface web simpliste. L'avantage c'est que c'est plus léger et une fois que tu as choisis ton modèle tu n'as pas besoin de plus. Le reste tu le fais avec VScode et Roo.


---------------
Faudra que je teste un jour :o
n°2521690
extenue1
Posté le 05-04-2026 à 10:59:09  profilanswer
 

drapal

n°2521693
MilesTEG1
Posté le 05-04-2026 à 15:03:40  profilanswer
 

bulldozer_fusion a écrit :


Tu es au bon endroit pour ça
 :hello:  
Tu veux faire quoi concrètement avec Claude?  
Et tu veux utiliser quels outils de Claude (Claude code, Claude desktop, Claude cowork, etc?)


Salut  :hello:  
Et bien ça va dépendre de ce que peux me faire Claude ! Vu que je ne connais pas grand chose d’autre que le client textuel où on dialogue avec lui …
 
J’ai joué hier avec le Cowork (je crois) en lui donnant accès à on dossier téléchargement : je lui ai demandé de le trier et de placer tout ce qu’il jugeais inutile dans un dossier POUBELLE que je vérifierai.
Avec quelques ajustements postérieurs j’ai eu ce que je voulais : dossiers avec tags de couleurs et donc icône de dossier coloré (je suis sous macOS ).  
 
Mais vraiment je ne sais pas ce qu’il est possible de faire avec …
Ni comment borner le tout niveau sécurité.
 
Même chose , j’aimerai ne plus avoir à demander dans le client desktop de l’aide sur un script. Si c’est possible depuis Vscode ce serait top (je crois que oui mais je ne sais pas comment sont décomptes les tokens … je ne veux pas payer de supplément…).
J’utilise aussi PyCharm pour les scripts python qu’il m’a créé pour des graphiques / figures / schéma scientifiques que j’utilise dans mes cours.
 
 
Je crois avoir vu aussi Claude Excel : qu’est-ce qu’il peu faire dedans ? Peut-il me faire les formules dans les cellules en fonction de ce que je demande ?
 
Et que pourrait-il faire d’autre ?
 
Ha si, j’ai une idée qui me serait utile.
Gérer les commits de mon dépôt Gitea auto-hébergé : qu’il me les crée , avec message de changelog aussi.
Qu’il les fasse aussi à interval de temps régulier car j’oublie régulièrement de le faire lol
Et peut être d’autres trucs que je n’ai pas encore eu idée…
 
 
Voilà voilà.
J’ai donc besoin de vous  :)
 
 
Édit : actuellement j’ai une discussion sur ma mise en route de BunkerWeb (pour remplacer NPMplus/Crodwsec/Fail2ban).
Il explique plutôt bien les choses. Je n’ai pas encore pu tester le docker compose qu’il m’a créé mais je pense que ce sera bon  :)  [:zigg]
 
 
Édit 2 : quid de tout ce que lui balance ? Ça peut être utilisé par d’autres ?
De ce paramètre non coché :
https://img3.super-h.fr/images/2026/04/05/snapshot_28247524918d473254a5e6e93.jpg
Faut-il le cocher ? Est-ce que ça consomme plus de token quand on lui demande quelque chose ?
 
Car oui j’ai aussi besoin de conseils sur comment formuler mes demandes car j’ai l’impressions que les tokens partent super vite !! (Bon là c’est mon expérience avec la version gratuite…)

Message cité 1 fois
Message édité par MilesTEG1 le 05-04-2026 à 15:08:44

---------------
Mes ventes : [FeedBack] http://forum.hardware.fr/hfr/Achat [...] 4599_1.htm
n°2521695
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 05-04-2026 à 16:25:31  profilanswer
 

the_fennec a écrit :

 

J'en ai vu passer sur le topic TQ:
https://github.com/ggml-org/llama.cpp/discussions/20969

 

Mais pas mal, dont celui-la, ont un soucis sur les gros contextes.

 


 
the_fennec a écrit :

 

Ya pas mal de forks de llama.cpp en cours, le meilleur sera probablement mergé. Celui-la a l'air de bien progresser:
https://github.com/TheTom/llama-cpp-turboquant


Et les fournisseurs de IA ils vont pas l'intégrer, c'est ce que j'attends surtout


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521696
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 05-04-2026 à 16:28:27  profilanswer
 

MilesTEG1 a écrit :


Salut  :hello:
Et bien ça va dépendre de ce que peux me faire Claude ! Vu que je ne connais pas grand chose d’autre que le client textuel où on dialogue avec lui …

 

J’ai joué hier avec le Cowork (je crois) en lui donnant accès à on dossier téléchargement : je lui ai demandé de le trier et de placer tout ce qu’il jugeais inutile dans un dossier POUBELLE que je vérifierai.
Avec quelques ajustements postérieurs j’ai eu ce que je voulais : dossiers avec tags de couleurs et donc icône de dossier coloré (je suis sous macOS ).

 

Mais vraiment je ne sais pas ce qu’il est possible de faire avec …
Ni comment borner le tout niveau sécurité.

 

Même chose , j’aimerai ne plus avoir à demander dans le client desktop de l’aide sur un script. Si c’est possible depuis Vscode ce serait top (je crois que oui mais je ne sais pas comment sont décomptes les tokens … je ne veux pas payer de supplément…).
J’utilise aussi PyCharm pour les scripts python qu’il m’a créé pour des graphiques / figures / schéma scientifiques que j’utilise dans mes cours.

 


Je crois avoir vu aussi Claude Excel : qu’est-ce qu’il peu faire dedans ? Peut-il me faire les formules dans les cellules en fonction de ce que je demande ?

 

Et que pourrait-il faire d’autre ?

 

Ha si, j’ai une idée qui me serait utile.
Gérer les commits de mon dépôt Gitea auto-hébergé : qu’il me les crée , avec message de changelog aussi.
Qu’il les fasse aussi à interval de temps régulier car j’oublie régulièrement de le faire lol
Et peut être d’autres trucs que je n’ai pas encore eu idée…

 


Voilà voilà.
J’ai donc besoin de vous  :)

 


Édit : actuellement j’ai une discussion sur ma mise en route de BunkerWeb (pour remplacer NPMplus/Crodwsec/Fail2ban).
Il explique plutôt bien les choses. Je n’ai pas encore pu tester le docker compose qu’il m’a créé mais je pense que ce sera bon  :)  [:zigg]

 


Édit 2 : quid de tout ce que lui balance ? Ça peut être utilisé par d’autres ?
De ce paramètre non coché :
https://img3.super-h.fr/images/2026 [...] 5e6e93.jpg
Faut-il le cocher ? Est-ce que ça consomme plus de token quand on lui demande quelque chose ?

 

Car oui j’ai aussi besoin de conseils sur comment formuler mes demandes car j’ai l’impressions que les tokens partent super vite !! (Bon là c’est mon expérience avec la version gratuite…)


Ah oui ça fait beaucoup de choses
Pour répondre à ta dernière question, oui Claude ça part vite :??:


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18

Aller à :
Ajouter une réponse
 

Sujets relatifs
Un assistant IA m’a pondu un script Bash… et une blague en bonus ![React] Comment changer le state de manière unique dans une map
Macros MS Publisher 2007 (Topic Unique ?)Environnement de développement modulaire basé sur node.js avec docker
Les truc indispensable sur du gros développementIA
MonoGame 3.8 - Le topic Unique[Développement Web] Votre parcours en tant que développeur web
[POSTGRESQL] WTF création unique impossibeondage sur votre expérience en développement web (dette technique)
Plus de sujets relatifs à : [Topic unique] Développement via IA


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)