Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3625 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7
Page Suivante
Auteur Sujet :

[Topic unique] Développement via IA

n°2519624
Olivie
SUUUUUUUUUUUUUU
Posté le 09-03-2026 à 00:44:45  profilanswer
 

Reprise du message précédent :
J'ai l'impression qu'en passant par l'application Codex (mac), le quota n'est pas pris en compte...j'ai vu passer un tweet d'un membre de l'équipe hier qui demandait ce qu'ils devaient améliorer pour que l'app soit plus utilisée...


---------------

mood
Publicité
Posté le 09-03-2026 à 00:44:45  profilanswer
 

n°2519780
the_fennec
f3nn3cUs z3rd4
Posté le 10-03-2026 à 23:17:37  profilanswer
 

Bon je tente le coup, 126€ pour un APU 16GB:
https://www.dealabs.com/bons-plans/ [...] ux-3290423


---------------
Faudra que je teste un jour :o
n°2519785
Quich
Pouet ?
Posté le 10-03-2026 à 23:44:19  profilanswer
 

Attention, il faut une alimentation en plus et des ventilos a minima pour la refroidir.
C'est moyen pour les LLMs de ce que j'en ai lu car pas de bon support ROCm.
Je n'ai pas testé sur le mien l'inférence, faudrait que j'essaie.


Message édité par Quich le 10-03-2026 à 23:49:45

---------------
Feedback
n°2519787
the_fennec
f3nn3cUs z3rd4
Posté le 11-03-2026 à 00:06:49  profilanswer
 

Oui j'ai ce qu'il faut, et j'imprimerai le reste :o merci!
 
Ca à l'air de bien marcher en Vulkan.
 
J'ai fait un bench avec lama-bench sur ma 4060Ti 16GB et c'est kif-kif en tg128 t/s (par contre je suis a 2k vs 300 en pp512 t/s):
https://github.com/ggml-org/llama.cpp/discussions/10879
 
Pour le prix ya moyen de s'amuser. Je vais essayer de split un modèle par réseau avec rpc-server, même si j'ai peu d'espoir que ça marche :/


---------------
Faudra que je teste un jour :o
n°2519890
lady287
La lumière fuse
Posté le 12-03-2026 à 06:30:41  profilanswer
 

LibreArbitre a écrit :

OpenClaw
 
https://img.super-h.fr/images/2026/ [...] dc.md.webp
 
 
 
1. Introduction : le développement assisté par IA
 
Définition du vibe coding : co-développement humain/IA, logique exploratoire plutôt qu’automatisée.
 
Différence entre :
 
- IA conversationnelle (ChatGPT, Claude, Gemini)
- IA orientée code (Copilot, Codex, Kilo Code, etc.)
- IA agentique (outils capables d’exécuter du code et d’agir de manière autonome).
 
- Limites du "prompt + copier/coller" et risques (erreurs silencieuses, dette technique, perte de contexte, code non testable).
 
2. Interfaces web et sandboxes : les solutions "plug & play"
 
Interfaces Web
 
ChatGPT, Claude, Gemini, Copilot Chat :
- Points forts : accessibilité, contexte riche, multitâche.
- Points faibles : limitations d’exécution, gestion du code peu pratique, perte de contexte sur grands projets.
 
Sandboxes intégrées
 
OpenAI Codex, Claude Code, Gemini Advanced :
- Exécution isolée du code côté serveur
- Utilisation pour tests rapides et proof-of-concepts
- Risques de confidentialité (code uploadé dans le cloud)
 
3. Intégration locale dans les IDE
 
VS Code et forks "AI-native"
 
- Copilot / Copilot Labs
- ChatGPT VS Code Plugin
- Claude for VS Code
- Cursor, Kiro, Roo Code, Cline
 
Configuration type d’environnement local
 
- VS Code + Codex CLI / Kilo Code CLI
- Raccourcis et workflow type : "Prompt -> Génération -> Exécution -> Commit -> Review IA"
 
4. CLI et agents de génération
 
Les CLI modernes
 
Codex CLI, Claude Code CLI, Gemini CLI, Kilo Code CLI :
 
- Avantages : intégration shell/git, historique contextuel, multi-LLM
- Exemples d’usage (init de projet, refactor, ajout de tests)
 
Multi-LLM et plugins intelligents
 
- Kilo Code : sélection dynamique de LLM selon la tâche
- Roo Code / Cline : exécution et test de code, édition contextuelle
- Exemples d’usages : Génération backend -> test -> doc automatique et CI/CD automatisé via CLI
 
5. Bonnes pratiques et sécurité
 
Frameworks de sécurité
 
- S.E.C.U.R.E. Framework, AI-Sandboxing, CodeGuard
- Isolation du code généré et contrôle de l’exécution
- Revue humaine obligatoire pour les modifications en production
 
Gestion du contexte et de la cohérence
 
- Structuration des prompts (fichiers PROMPT.md ou AGENTS.md)
- Conservation du contexte via fichiers .chat, .session, ou repo Git
- Réutilisation des prompts via templates (.prompt.json)
 
6. CI/CD et gestion de code source
 
GitHub / GitLab / Bitbucket
 
- Intégration native de Copilot et des actions CI
- Utilisation d’agents pour PR automatiques, tests, linting
- LLM Reviewers (PR-AI, CodiumAI)
 
Pipelines intelligents
 
- Exemple : commit -> PR -> test IA -> merge -> déploiement Dokploy
- Bonnes pratiques de commit message générés par IA (conventionnal commits).
 
7. Déploiement et infrastructure
 
Stacks open source
 
- Dokploy, Coolify, CapRover, Kamal, Dokku
- Comparaison rapide : Docker Compose, autoscaling, reverse proxy, GitHub Action intégrée, etc.
 
Stacks propriétaires
 
- Vercel, Netlify, Render, Heroku, Fly.io
- Avantages : simplicité, intégration GitHub native
- Inconvénients : coût, dépendance plateforme
 
8. Vers l’IA agentique
 
Concept et typologie
 
- Agent = modèle + mémoire + outils + autonomie partielle
- Exemples : OpenDevin, Devin-like Agents, AutoGPT, Smol-Agents, CrewAI
 
Bonnes pratiques
 
- Séparer la logique métier du raisonnement IA
- Toujours conserver un journal d’actions
- Utiliser des environnements isolés (VM, container, sandbox)
 
Ressources clés
 
- Recommandation : lire et adapter AGENTS.md
 
9. Le dev local via des LLM open source
 
IDE
[En cours]
 
LLM
[En cours]
 
Hardware, GPU, VRAM
[En cours]
 
10. Ressources utiles et veille
 
- Repos GitHub (Codex CLI, Roo Code, Kilo Code, etc.)
- Blogs / chaînes YouTube orientées dev+IA
- Comparateurs de modèles (OpenRouter, LMSys, HuggingFace)
- Discords ou forums communautaires utiles
 
11. Annexes
 
- Fichier type .env.example pour projets IA
- Exemple d’arborescence Git d’un projet vibe-coded
- Table de correspondance : modèles LLM vs usage optimal (Claude Sonnet 4.5 pour refacto, GPT-5 pour CI/CD, etc.)
 
EDIT : Je ne suis pas dev, je cherche juste à centraliser les informations de base sur un topic :o


 
ChatGPT peut être bavare avec deux ou trois requête ç en couper le souffle.
J'ai une page configuré pour qu'il répondre en une phrase parce que parfois, c'est l'utopi d'une capacité incontenable en réalité.
Cependant, ChatGPT est un programme supervisé et orienté ignorant des faits pour tester l'utilisateur est n'intègre ou n'intégrait pas les notion du langage de France nécessaire à l'entendement de la sémantique pouvant découler de celui ci.


---------------
jovalise (C) 2002 Manuel De Girardi ; web site
n°2519891
LibreArbit​re
La /root est longue
Posté le 12-03-2026 à 07:19:58  profilanswer
 

Ha, on a un nouveau bot sur le topic ? Il semble pas à l'aise avec le français et la sémantique :o


Message édité par LibreArbitre le 12-03-2026 à 07:20:53

---------------
Hebergement d'images
n°2519892
kaloskagat​os
Posté le 12-03-2026 à 07:32:42  profilanswer
 

Et vice versa  [:bighead:2]


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°2519955
the_fennec
f3nn3cUs z3rd4
Posté le 12-03-2026 à 23:20:17  profilanswer
 

Nouveau modèle NVidia Nemotron:
https://blogs.nvidia.com/blog/nemot [...] gentic-ai/
 
il est rapide, mais ça n'a pas l'air top niveau qualité.
Un gars le fait tourner sur un Mac avec 196GB de RAM:
https://www.youtube.com/watch?v=MzeRCbnOg9Q
 
Il arrive même pas a faire des flappy bird alors que j'y arrive avec ma carte de prolo :lol:


Message édité par the_fennec le 12-03-2026 à 23:20:40

---------------
Faudra que je teste un jour :o
n°2519957
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 13-03-2026 à 04:30:17  profilanswer
 

Pour la science j'ai tenté un APU amd en tant que server llm.
Sur le papier c'etait cool.  
 
Je sort la rog ally en Z1E avec ses 16gb de ram.  
 
Dans la vraie vie :
Impossible de faire de l'UMA tel un appareil apple.
Automatiquement il faut allouer une partie de la ram au gpu en "dur" dans le bios et le reste à l'os.  
On retombe dans le schéma classique du chargement en ram avant déchargement sur le gpu...
 
Fatalement, aux oubliettes les 9B, bonjour 4B en Q4_K_M et avant guindant !
Je vous épargne la config sous bazzite, pour avoir un minimum d’inférence j'ai même eu le culot de ne pas faire de distrobox :O  
 
En moyenne ca sort a 10tk/s
En comparaison ma 6800 du desktop 54tk/s  
 
Bref c'est de la merde :O


---------------
Victime de girafophobie, mais se soigne.
n°2519961
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 07:49:29  profilanswer
 

C'est quand même pas mal pour un APU sur une console portable, par contre c'est vrai que c'est chiant l'allocation de RAM.
 
Ça fait quoi si tu mets des layers sur la RAM CPU?  
 
Tu peux pas utiliser ça pour faire de l'UMA:
https://github.com/ggml-org/llama.cpp/pull/4449
https://github.com/mozilla-ai/llamafile/discussions/366
 
Je gratterais plus le sujet pour ma BC250.


Message édité par the_fennec le 13-03-2026 à 07:51:50

---------------
Faudra que je teste un jour :o
mood
Publicité
Posté le 13-03-2026 à 07:49:29  profilanswer
 

n°2519978
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 16:25:01  profilanswer
 

[:nicarao]
 

Code :
  1. llama_model_load_from_file_impl: using device RPC0 (192.168.1.50:50000) (unknown id) - 6938 MiB free
  2. llama_model_load_from_file_impl: using device CUDA0 (NVIDIA GeForce RTX 4060 Ti) (0000:13:00.0) - 13586 MiB free
  3. llama_model_loader: loaded meta data with 52 key-value pairs and 733 tensors from Qwen3.5-35B-A3B-UD-Q4_K_L.gguf (version GGUF V3 (latest))
  4. load_tensors: offloaded 41/41 layers to GPU
  5. load_tensors:   CPU_Mapped model buffer size =   333.44 MiB
  6. load_tensors:        CUDA0 model buffer size = 12418.96 MiB
  7. load_tensors: RPC0[192.168.1.50:50000] model buffer size =  6506.72 MiB


 
J'ai un rpc-server qui tourne sur mon PC de salon avec la 3070 8GB et le reste sur le serveur avec la 4060Ti 16GB et je viens de charger un modèle de 20GB :love:.  
J'ai 30tg/s sans trop toucher et la 3070 se tourne un peu les pouces, mais c'est super simple à mettre en place. Faudra que je tune le split de layers.
 
Avec la BC250 je pourrais monter a 40GB, voir 96GB avec mon Mac et mon laptop gamer. Je pourrais même ajouter la 1650 Super 4GB pour taper les 100GB!
 
Bon je m'attends quand même a des soucis de mixer les OS/GPU comme ça. Mais si ça marche entre la 4060Ti et la BC250 ça sera un gros win [:supaire].


---------------
Faudra que je teste un jour :o
n°2519982
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 13-03-2026 à 17:06:50  profilanswer
 

J'avais fait des test assez concluant avec des gpu relativement proches, par contre dès que je mettais dans la boucle un gpu trop restrictif ( vieille archi et/ou BP trop faible) ça cassais complètement les perfs (quand ça plantais pas).
De même entre deux machines c’était au top, trois ca commencais a s'écrouler et plus c’était inutilisable.
 
J'ai l'impression qu'il faut avoir un bon ratio nombre de machine/perfs gpu pour que ce soit assez équilibrés, et limiter les appels sur le réseau.


---------------
Victime de girafophobie, mais se soigne.
n°2519983
ceryal28
lurker expert
Posté le 13-03-2026 à 17:07:58  profilanswer
 

drap !  [:cerveau drapal]


Message édité par ceryal28 le 13-03-2026 à 17:08:10
n°2519984
Quich
Pouet ?
Posté le 13-03-2026 à 17:09:01  profilanswer
 

Je peux tenter de mixer une rx7900xtx, une bc-250 et une vega 56 si vous voulez, que du AMD histoire d'être sûr que ça ne fonctionne pas :o


---------------
Feedback
n°2519988
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 13-03-2026 à 17:19:38  profilanswer
 

Si tu peut faire un retour sur la BC-250 j'avoue que je suis preneur :D


---------------
Victime de girafophobie, mais se soigne.
n°2519990
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 17:23:19  profilanswer
 

Tronklou a écrit :

J'avais fait des test assez concluant avec des gpu relativement proches, par contre dès que je mettais dans la boucle un gpu trop restrictif ( vieille archi et/ou BP trop faible) ça cassais complètement les perfs (quand ça plantais pas).
De même entre deux machines c’était au top, trois ca commencais a s'écrouler et plus c’était inutilisable.
 
J'ai l'impression qu'il faut avoir un bon ratio nombre de machine/perfs gpu pour que ce soit assez équilibrés, et limiter les appels sur le réseau.


 
La j'étais en Wifi pour la 3070 en plus :lol:
 
Bon c'est pas gagné avec 4060Ti/Windows + BC250/Linux :o
Au pire ça sera deux agents, c'était pour le fnu :D
 

Quich a écrit :

Je peux tenter de mixer une rx7900xtx, une bc-250 et une vega 56 si vous voulez, que du AMD histoire d'être sûr que ça ne fonctionne pas :o


 
Si tu es courageux, n'hésite pas, pour la science!


Message édité par the_fennec le 13-03-2026 à 17:24:13

---------------
Faudra que je teste un jour :o
n°2520009
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-03-2026 à 19:14:01  profilanswer
 

Je teste de plus en plus GPT 5.4 et j'avoue qu'il me bluffe assez
Devant Gemini 3.1
Il n'y a que Opus 4.6 qui lui tient tête


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2520010
Olivie
SUUUUUUUUUUUUUU
Posté le 13-03-2026 à 19:15:12  profilanswer
 

bulldozer_fusion a écrit :

Je teste de plus en plus GPT 5.4 et j'avoue qu'il me bluffe assez
Devant Gemini 3.1
Il n'y a que Opus 4.6 qui lui tient tête


Je l'ai pas encore utilisé, j'ai vu des retours comme quoi ca bouffait vite les token en comparaison de 5.3-codex  :sweat:


---------------

n°2520012
Implosion ​du Sord
Fesseur de chameaux
Posté le 13-03-2026 à 19:22:16  profilanswer
 

Je suis avec Opus 4.6 qui invoque des agents codex avec 5.4 pour de la gen de code et de l'analyse contradictoire face à Opus Aucun soucis de limites de token à ce jour, et une efficacité impressionnante pour nos activités.


---------------
[VDS]AIO Fractal Design Celsius S36 | Carte Wifi N Intel 5100 mPCIe | divers accessoire boitier Fractal Design | Away from keyboard, close to your breast
n°2520015
Implosion ​du Sord
Fesseur de chameaux
Posté le 13-03-2026 à 19:38:30  profilanswer
 

Claude code sur mobile via `/rc` est pratique mais pas mal buggué. Si je quitte l'app et revient, il me redemande de valider toutes les permissions déja accordées à la session. C'est usant quand on veut monitorer une tâche longue


---------------
[VDS]AIO Fractal Design Celsius S36 | Carte Wifi N Intel 5100 mPCIe | divers accessoire boitier Fractal Design | Away from keyboard, close to your breast
n°2520017
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-03-2026 à 20:18:36  profilanswer
 

Olivie a écrit :


Je l'ai pas encore utilisé, j'ai vu des retours comme quoi ca bouffait vite les token en comparaison de 5.3-codex  :sweat:


J'ai pas utilisé 5.3 donc je ne saurais te dire


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2520019
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-03-2026 à 20:19:32  profilanswer
 

Implosion du Sord a écrit :

Je suis avec Opus 4.6 qui invoque des agents codex avec 5.4 pour de la gen de code et de l'analyse contradictoire face à Opus Aucun soucis de limites de token à ce jour, et une efficacité impressionnante pour nos activités.


Ouais ils ont bien monté de nouveau GPT


Message édité par bulldozer_fusion le 13-03-2026 à 20:19:48

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
Un assistant IA m’a pondu un script Bash… et une blague en bonus ![React] Comment changer le state de manière unique dans une map
Macros MS Publisher 2007 (Topic Unique ?)Environnement de développement modulaire basé sur node.js avec docker
Les truc indispensable sur du gros développementIA
MonoGame 3.8 - Le topic Unique[Développement Web] Votre parcours en tant que développeur web
[POSTGRESQL] WTF création unique impossibeondage sur votre expérience en développement web (dette technique)
Plus de sujets relatifs à : [Topic unique] Développement via IA


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)