Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2653 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18
Page Suivante
Auteur Sujet :

[Topic unique] Développement via IA

n°2521891
LibreArbit​re
La /root est longue
Posté le 08-04-2026 à 15:53:07  profilanswer
 

Reprise du message précédent :

Tronklou a écrit :

Je mets une pièce qu'ils ne seront jamais livrés car les m5 arrivent  :D  


Clairement !


---------------
Hebergement d'images
mood
Publicité
Posté le 08-04-2026 à 15:53:07  profilanswer
 

n°2521892
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 08-04-2026 à 16:47:23  profilanswer
 

the_fennec a écrit :

 

Il est en rupture mondiale car c'est le premier prix si tu veux charger et utiliser un modèle de 250GB.


Ou deux Ryzen 395+ en 128gb avec un petit 10gbps  :love:


---------------
Victime de girafophobie, mais se soigne.
n°2521894
XaTriX
Posté le 08-04-2026 à 16:55:45  profilanswer
 

ça va ramer du cul avec ce lien


---------------
Proxytaf ? non rien
n°2521896
XaTriX
Posté le 08-04-2026 à 17:13:25  profilanswer
 

Sinon Bedrock/Vertex/..  


---------------
Proxytaf ? non rien
n°2521899
the_fennec
f3nn3cUs z3rd4
Posté le 08-04-2026 à 17:28:54  profilanswer
 

le canard nouveau a écrit :

Testicule/rein à vendre ou échanger contre 256 Go DDR5 + RTX 5000 Pro :o


 
Tu feras la queue, comme tout le monde :o


---------------
Faudra que je teste un jour :o
n°2521900
the_fennec
f3nn3cUs z3rd4
Posté le 08-04-2026 à 17:29:34  profilanswer
 

Tronklou a écrit :

Je mets une pièce qu'ils ne seront jamais livrés car les m5 arrivent  :D  


 
Apple va pas offrir des m5 pour le prix d'un m3, même Ultra.


---------------
Faudra que je teste un jour :o
n°2521903
the_fennec
f3nn3cUs z3rd4
Posté le 08-04-2026 à 17:41:34  profilanswer
 

Tronklou a écrit :


Ou deux Ryzen 395+ en 128gb avec un petit 10gbps  :love:


 
Une paire de GPD WIN 5 :o
 

XaTriX a écrit :

ça va ramer du cul avec ce lien


 
J'ai pas de soucis en gigagit entre mes deux instances de llama.


Message édité par the_fennec le 08-04-2026 à 17:42:37

---------------
Faudra que je teste un jour :o
n°2521918
XaTriX
Posté le 08-04-2026 à 21:29:02  profilanswer
 

https://i.imgur.com/N9wNLFN.png
Je connaissais pas ce modele de mac studio à 512G :D


---------------
Proxytaf ? non rien
n°2521919
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 08-04-2026 à 21:51:18  profilanswer
 

the_fennec a écrit :


 
Apple va pas offrir des m5 pour le prix d'un m3, même Ultra.


 
Vus le tarif des M3 qui largement le plus cher de la gamme, je pense que c'est jouable, ils l'ont bien fait récemment sur des commandes de macbooks : https://www.notebookcheck.net/Apple [...] 556.0.html


---------------
Victime de girafophobie, mais se soigne.
n°2521920
the_fennec
f3nn3cUs z3rd4
Posté le 08-04-2026 à 23:28:55  profilanswer
 

Testé gemma-4 sur mon MBP m4, ça marche pas mieux que sous Windows. J'ai testé aussi Qwen3.5 27B ... 5 tg/s j'imagine pas un gros modèle :lol: Bon c'était un gguf avec llama, ya peut être moyen de faire mieux en mlx avec autre chose.
 
Mais par contre Opencode a bien marché avec mon MCP custom! Je pense tester 35B A3B voir si il tient le coup, au moins ça sera plus rapide.


---------------
Faudra que je teste un jour :o
mood
Publicité
Posté le 08-04-2026 à 23:28:55  profilanswer
 

n°2521921
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 08-04-2026 à 23:54:04  profilanswer
 

Avec tout ce qui sort en ce moment, on va vivre un nouvel eldorado du llm local :D
 
Entre Turboquant : https://github.com/ggml-org/llama.cpp/discussions/20969 https://github.com/DevTechJr/turboquant-gpu/tree/main
DFlash : https://z-lab.ai/projects/dflash/
Tailslayer : https://github.com/LaurieWired/tailslayer
 
Mais si ont veut etre aux premières loges, il faut du nvidia :O

Message cité 1 fois
Message édité par Tronklou le 08-04-2026 à 23:54:47

---------------
Victime de girafophobie, mais se soigne.
n°2521922
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 08-04-2026 à 23:59:11  profilanswer
 

Il y en a un par heure


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521923
XaTriX
Posté le 09-04-2026 à 07:41:42  profilanswer
 

Faut louer du gros serveur :love:


---------------
Proxytaf ? non rien
n°2521924
the_fennec
f3nn3cUs z3rd4
Posté le 09-04-2026 à 08:17:15  profilanswer
 

Tronklou a écrit :

Avec tout ce qui sort en ce moment, on va vivre un nouvel eldorado du llm local :D
 
Entre Turboquant : https://github.com/ggml-org/llama.cpp/discussions/20969 https://github.com/DevTechJr/turboquant-gpu/tree/main
DFlash : https://z-lab.ai/projects/dflash/
Tailslayer : https://github.com/LaurieWired/tailslayer
 
Mais si ont veut etre aux premières loges, il faut du nvidia :O


 
Je suis un peu moins excité maintenant, il y a beaucoup de vibe coding dans le tas, et pour l'instant j'ai pas réussi a faire marcher les TQ en local, j'ai essayé 2 forks (les plus avancés). Le merge dans llama.cpp, c'est pas pour demain, chacun des forks ne marche qu'avec une seule archi (Cuda, Rocm, Metal, pas de Vulkan, etc), et a une implémentation différente. Dans les discussion on a l'impression d'avoir des entreprises (we) et des chercheurs (publications), mais j'ai l'impression que c'est souvent juste un gars dans dans chambre avec Claude et une 5070Ti :o


---------------
Faudra que je teste un jour :o
n°2521925
bounty2k
Posté le 09-04-2026 à 09:20:27  profilanswer
 

the_fennec a écrit :

Testé gemma-4 sur mon MBP m4, ça marche pas mieux que sous Windows. J'ai testé aussi Qwen3.5 27B ... 5 tg/s j'imagine pas un gros modèle :lol: Bon c'était un gguf avec llama, ya peut être moyen de faire mieux en mlx avec autre chose.
 
Mais par contre Opencode a bien marché avec mon MCP custom! Je pense tester 35B A3B voir si il tient le coup, au moins ça sera plus rapide.


Etonnant, de mon coté Gemma-4 E4B donne de très bon résultat sur mon M4 avec 16Go de RAM, le meilleur modèle que j'ai pu tester qui rentre dans les 16Go de RAM (meilleur que Qwen  3.5).
Sur Qwen je plafonnais a 15 t/s alors que Gemma 4 monte à 27 et avec de meilleurs résultats à première vue (génération de code basique, résumés , génération de texte etc ...), le tout avec un contexte de 65K.  
A noter que j'ai du mettre à jour mon llamaCPP car il ne voulait pas se lancer avec ma précédente version.
pas encore tester avec MLX (j'ai vue des articles qui parlaient de 25% de gain)

n°2521927
speedboyz3​0
Guide Michelin :o
Posté le 09-04-2026 à 09:38:23  profilanswer
 

Tronklou a écrit :

Je mets une pièce qu'ils ne seront jamais livrés car les m5 arrivent  :D  


 

Tronklou a écrit :


 
Vus le tarif des M3 qui largement le plus cher de la gamme, je pense que c'est jouable, ils l'ont bien fait récemment sur des commandes de macbooks : https://www.notebookcheck.net/Apple [...] 556.0.html


 
J'y pensais. Est-ce qu'il ne faudrait pas commander un petit M4 Max maintenant pour se voir offrir un M5 au lancement et éviter une potentielle hausse de prix [:speedboyz30]

n°2521929
the_fennec
f3nn3cUs z3rd4
Posté le 09-04-2026 à 09:49:52  profilanswer
 

bounty2k a écrit :


Etonnant, de mon coté Gemma-4 E4B donne de très bon résultat sur mon M4 avec 16Go de RAM, le meilleur modèle que j'ai pu tester qui rentre dans les 16Go de RAM (meilleur que Qwen  3.5).
Sur Qwen je plafonnais a 15 t/s alors que Gemma 4 monte à 27 et avec de meilleurs résultats à première vue (génération de code basique, résumés , génération de texte etc ...), le tout avec un contexte de 65K.  
A noter que j'ai du mettre à jour mon llamaCPP car il ne voulait pas se lancer avec ma précédente version.
pas encore tester avec MLX (j'ai vue des articles qui parlaient de 25% de gain)


 
Tu utilise quoi comme agent? Pour des trucs de base, comme le chat intégré a llama.cpp, ça marche. Mais quand c'est plus compliqué, qu'il faut utiliser des tools ou un MCP ça marche pas, il utilise pas le bon format et interprètes pas bien les résultats. Opencode par exemple ne fonctionnait pas correctement.


---------------
Faudra que je teste un jour :o
n°2521930
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 09-04-2026 à 10:10:57  profilanswer
 

speedboyz30 a écrit :

 

J'y pensais. Est-ce qu'il ne faudrait pas commander un petit M4 Max maintenant pour se voir offrir un M5 au lancement et éviter une potentielle hausse de prix [:speedboyz30]

 

Ils sont arrangeants mais c'est pas non plus des philanthropes heins  :D
S'ils font l'upgrade c'est que les deux sont sensiblement de la même valeur ( sinons ils annulent la commande...)

 

Vu le procédé de fabrication ( ram soudée direct sur le CPU ) je doute qu'ils continuent à bloquer des stocks de ram pour une vieille génération.
Je mets une pièce qu'ils refourguent encore les stocks déjà produits et qu'ils captent les commandes pour le reste sans dire qu'ils ne vont plus en refaire.

 

Ça devrait éviter la blague des M2 revendu en neuf partout alors que le M4 était déjà là  :pt1cable:


---------------
Victime de girafophobie, mais se soigne.
n°2521931
bounty2k
Posté le 09-04-2026 à 10:34:11  profilanswer
 

the_fennec a écrit :


 
Tu utilise quoi comme agent? Pour des trucs de base, comme le chat intégré a llama.cpp, ça marche. Mais quand c'est plus compliqué, qu'il faut utiliser des tools ou un MCP ça marche pas, il utilise pas le bon format et interprètes pas bien les résultats. Opencode par exemple ne fonctionnait pas correctement.


J'ai testé avec Vscode / Continue + chat. Je testerais avec Claude Code ce soir. Pour la partie dev j'ai fait des UC de test, du genre créer une fonction de tri de tableau, ou créer un formulaire HTML etc ...  
 
Sinon ce week-end j'ai testé Qwen 3.6 plus (via Openrouter) avec Claude Code pour refaire une appli Web viellote que j'avais développé il y a longtemps (je suis partie de la structure SQL existante + besoin macro), je suis arrivé au résultat escompter (en cramant 50M de Token tout de même) avec une qualité de code honorable (j'ai vraiment touché 0 ligne de code), par contre sur l'aspect UI / UX c'est clairement 2 crans en dessous de Sonnet 4.6.

n°2521934
speedboyz3​0
Guide Michelin :o
Posté le 09-04-2026 à 10:45:12  profilanswer
 

Tronklou a écrit :


 
Ils sont arrangeants mais c'est pas non plus des philanthropes heins  :D  
S'ils font l'upgrade c'est que les deux sont sensiblement de la même valeur ( sinons ils annulent la commande...)
 
Vu le procédé de fabrication ( ram soudée direct sur le CPU ) je doute qu'ils continuent à bloquer des stocks de ram pour une vieille génération.
Je mets une pièce qu'ils refourguent encore les stocks déjà produits et qu'ils captent les commandes pour le reste sans dire qu'ils ne vont plus en refaire.
 
Ça devrait éviter la blague des M2 revendu en neuf partout alors que le M4 était déjà là  :pt1cable:


 
Là y a quasi aucune config dispo avant juin  [:zyzz:1]

n°2521936
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 09-04-2026 à 13:30:57  profilanswer
 

Citation :

ORGN CDE is the enterprise AI IDE for developers who require privacy. A powerful AI code generator and software development tool guaranteeing security with confidential computing, provable encryption, and zero data retention.
 
Coding agents create code and execute it inside Trusted Execution Environments. Nothing enters our databases. Prompts, archives and session data are all configurable to zero retention. Nothing persists unless you choose it. Additionally, through our proprietary AI Gateway OLLM, we also offer AI models deployed on confidential computing chips, giving you the choice to amp up privacy as and where needed.


je suis tombé dessus ce matin
https://orgn.com/pricing


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521937
the_fennec
f3nn3cUs z3rd4
Posté le 09-04-2026 à 14:55:35  profilanswer
 

bounty2k a écrit :


J'ai testé avec Vscode / Continue + chat. Je testerais avec Claude Code ce soir. Pour la partie dev j'ai fait des UC de test, du genre créer une fonction de tri de tableau, ou créer un formulaire HTML etc ...  


 
Je suis sur le cul, Gemma-4 E4B qui marche et fait des trucs utiles avec Vscode/Continue?
 
Avec le 31B, je peux générer des trucs, mais utiliser des tools, of des trucs dans le contexte ça marche pas.


---------------
Faudra que je teste un jour :o
n°2521938
the_fennec
f3nn3cUs z3rd4
Posté le 09-04-2026 à 16:37:26  profilanswer
 

C'est quoi cette diablerie de Macbook :o
 
J'ai chargé Qwen3-Coder-Next-UD-IQ3_S.gguf (30GB) sans soucis et il marche plutôt bien, malgré plein de truc qui tournent.  
Alors je me dis pourquoi pas Qwen3-Coder-Next-UD-IQ4_XS.gguf qui fait 38GB:
https://i.imgur.com/0foXJQT.png
 
En fait il swap plein de trucs mais ça tourne quand même bien:

Code :
  1. prompt eval time =   15088.18 ms /  4872 tokens (    3.10 ms per token,   322.90 tokens per second)
  2.        eval time =    5687.36 ms /   168 tokens (   33.85 ms per token,    29.54 tokens per second)
  3.       total time =   20775.53 ms /  5040 tokens


 
Quand je dis plein de trucs, j'ai: IntelliJ(2), Kiro(2), Cursor(2), Docker (Elasticsearch, DynamoDB, Kafka, Zookeeper, etc.), mon appli de dev Java, Opencode, un MCP custom et llama.cpp, Outlook, Zoom, VPN et Firefox avec 15 tabs :D.


Message édité par the_fennec le 09-04-2026 à 16:37:47

---------------
Faudra que je teste un jour :o
n°2521939
Olivie
SUUUUUUUUUUUUUU
Posté le 09-04-2026 à 18:15:59  profilanswer
 

Dommage que je sois pauvre, sinon j'aurais déjà pris un MBP M5 Pro 512GB :(


---------------

n°2521945
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 09-04-2026 à 20:20:20  profilanswer
 

Y’a pas que Mac dans la vie :O


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521946
bounty2k
Posté le 09-04-2026 à 20:42:06  profilanswer
 

the_fennec a écrit :

 

Je suis sur le cul, Gemma-4 E4B qui marche et fait des trucs utiles avec Vscode/Continue?

 

Avec le 31B, je peux générer des trucs, mais utiliser des tools, of des trucs dans le contexte ça marche pas.


Bon en fait il ne sait effectivement ni lire ni écrire dans un fichier  :o, ça marchait avec Continue quand je lui demandais de faire des modif dans un fichier déja existant ou de m'expliquer une fonction, mais dans CC il ne fait rien.
Donc je confirme que le model ne sait pas gérer les tools :( , dommage

Message cité 1 fois
Message édité par bounty2k le 09-04-2026 à 20:42:21
n°2521947
XaTriX
Posté le 09-04-2026 à 20:53:33  profilanswer
 

Putain mon organisation MS mes couilles qui bloque l'utilisation de MCP sur copilot cli et vscode :fou:


---------------
Proxytaf ? non rien
n°2521948
the_fennec
f3nn3cUs z3rd4
Posté le 09-04-2026 à 21:05:02  profilanswer
 

bounty2k a écrit :


Bon en fait il ne sait effectivement ni lire ni écrire dans un fichier  :o, ça marchait avec Continue quand je lui demandais de faire des modif dans un fichier déja existant ou de m'expliquer une fonction, mais dans CC il ne fait rien.
Donc je confirme que le model ne sait pas gérer les tools :( , dommage


 
Un modèle de 5GB c'est normal. Essaye Qwen3.5 35B A3B ou 27B (très lent):
https://huggingface.co/unsloth/Qwen [...] 3_XXS.gguf
https://huggingface.co/unsloth/Qwen [...] 3_XXS.gguf
 
Ca va swap a mort; mais c'est mieux que rien :D


---------------
Faudra que je teste un jour :o
n°2521955
bounty2k
Posté le 10-04-2026 à 07:30:58  profilanswer
 

the_fennec a écrit :

 

Un modèle de 5GB c'est normal. Essaye Qwen3.5 35B A3B ou 27B (très lent):
https://huggingface.co/unsloth/Qwen [...] 3_XXS.gguf
https://huggingface.co/unsloth/Qwen [...] 3_XXS.gguf

 

Ca va swap a mort; mais c'est mieux que rien :D


Je n'ai que 16Go de RAM sur mon Mac et 12 de VRAM + 16 de DDR4 sur mon desktop, autant dire qu'un model > 12B ne passera pas  :(
Les tools fonctionnent bien avec Qwen 3.5 9B (c'est celui que j'utilise avec CC en local), Gemma 3 4B, ministral 8B ce n'est pas une question de taille je pense.
J'ai voulu tester avec les versions de Gemma 4 sur Openrouter mais impossible de placer la moindre requête je me fais jeter pour rate limit

 

Edit : je viens de tomber sur cet article qui indique que Gemma 4 sur Ollama fonctionne avec CC en tooling  : https://meshworld.in/blog/ai/toolin [...] aude-code/

Message cité 2 fois
Message édité par bounty2k le 10-04-2026 à 08:03:22
n°2521956
the_fennec
f3nn3cUs z3rd4
Posté le 10-04-2026 à 08:05:45  profilanswer
 

bounty2k a écrit :


Je n'ai que 16Go de RAM sur mon Mac et 12 de VRAM + 16 de DDR4 sur mon desktop, autant dire qu'un model > 12B ne passera pas  :(  
Les tools fonctionnent bien avec Qwen 3.5 9B (c'est celui que j'utilise avec CC en local), Gemma 3 4B, ministral 8B ce n'est pas une question de taille je pense.
J'ai voulu tester avec les versions de Gemma 4 sur Openrouter mais impossible de placer la moindre requête je me fais jeter pour rate limit


 
Regardes mon post plus haut, j'ai passé un modèle de 38Go sur mon MBP 48Go avec plein de trucs qui tournent en plus dont une VM docker de 8Go. Donc je pense que tu dois pouvoir essayer un modèle de 12/13Go, il va swaper mais ça se teste.


---------------
Faudra que je teste un jour :o
n°2521959
the_fennec
f3nn3cUs z3rd4
Posté le 10-04-2026 à 09:02:59  profilanswer
 

bounty2k a écrit :

Edit : je viens de tomber sur cet article qui indique que Gemma 4 sur Ollama fonctionne avec CC en tooling  : https://meshworld.in/blog/ai/toolin [...] aude-code/


 
J'en ai lu plein des articles/posts comme ça, mais chez moi ça marche pas bien. Je pense que pour beaucoup de ces rapports, c'est juste pour faire du click/vote.
 
Juste pour être clair: quand je dis que les tools marchent, ou pas, c'est que tu peux laisser l'agent bosser pendant des heures et qu'il plante pas sur un appel de tool foireux. Dans beaucoup de cas, la personne lance le modèle, fait une ou deux commandes qui marchent et retourne sur son abo Claude/Codex/etc...


---------------
Faudra que je teste un jour :o
n°2521963
speedboyz3​0
Guide Michelin :o
Posté le 10-04-2026 à 09:16:20  profilanswer
 

bulldozer_fusion a écrit :

Y’a pas que Mac dans la vie :O


 
 
C'est quand même un bon rapport RAM / Prix pour le quidam moyen  [:la chancla:1]  
 
Après oui, on peut toujours s'acheter un DGX Spark  [:sire de botcor:1]

n°2521964
Olivie
SUUUUUUUUUUUUUU
Posté le 10-04-2026 à 09:20:41  profilanswer
 

Bon ben mauvaise nouvelle, il semblerait qu'OpenAI diminue le quota Codex de l'abo à $20 avec l'introduction du tier $100


---------------

n°2521966
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 10-04-2026 à 09:27:15  profilanswer
 

speedboyz30 a écrit :

 


C'est quand même un bon rapport RAM / Prix pour le quidam moyen  [:la chancla:1]
Ça va augmenter les connaissant
Et oui il y a eu eu y aura d'autres alternatives dans le futur
Après oui, on peut toujours s'acheter un DGX Spark  [:sire de botcor:1]

 
Olivie a écrit :

Bon ben mauvaise nouvelle, il semblerait qu'OpenAI diminue le quota Codex de l'abo à $20 avec l'introduction du tier $100


En journalier de ce que j'ai compris
La limite en hebdo c'es6t censé resté pareil


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521968
speedboyz3​0
Guide Michelin :o
Posté le 10-04-2026 à 09:41:21  profilanswer
 

bulldozer_fusion a écrit :


En journalier de ce que j'ai compris
La limite en hebdo c'es6t censé resté pareil


 
C'est le journalier qui compte, je me suis tapé la limite hier. Ça fait chier  [:speedboyz30:3]

n°2521970
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 10-04-2026 à 09:58:52  profilanswer
 

speedboyz30 a écrit :

 

C'est le journalier qui compte, je me suis tapé la limite hier. Ça fait chier  [:speedboyz30:3]


Ah oui oui je sais bien, ils suivent Claude, et Gemini l'avait fait aussi
On savait que ça allait venir


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521971
LibreArbit​re
La /root est longue
Posté le 10-04-2026 à 10:19:55  profilanswer
 

Il reste AlibabaCloud et OpenCode Go mais effectivement qu'avec des modèles open source...


---------------
Hebergement d'images
n°2522006
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 10-04-2026 à 19:29:04  profilanswer
 

LibreArbitre a écrit :

Il reste AlibabaCloud et OpenCode Go mais effectivement qu'avec des modèles open source...


Ils ne sont plus très loin des modèles fermés


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2522007
XaTriX
Posté le 10-04-2026 à 19:56:35  profilanswer
 

Soyons sérieux


---------------
Proxytaf ? non rien
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
Un assistant IA m’a pondu un script Bash… et une blague en bonus ![React] Comment changer le state de manière unique dans une map
Macros MS Publisher 2007 (Topic Unique ?)Environnement de développement modulaire basé sur node.js avec docker
Les truc indispensable sur du gros développementIA
MonoGame 3.8 - Le topic Unique[Développement Web] Votre parcours en tant que développeur web
[POSTGRESQL] WTF création unique impossibeondage sur votre expérience en développement web (dette technique)
Plus de sujets relatifs à : [Topic unique] Développement via IA


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)