Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2149 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  18  19  20  21  22  23
Auteur Sujet :

[Topic unique] Développement via IA

n°2522030
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 12-04-2026 à 14:23:56  profilanswer
 

Reprise du message précédent :
https://rehost.diberie.com/Picture/Get/f/505361
https://x.com/i/status/2043139204612592057


Message édité par bulldozer_fusion le 12-04-2026 à 14:24:26

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
mood
Publicité
Posté le 12-04-2026 à 14:23:56  profilanswer
 

n°2522031
fabien
Vive la super 5 !
Posté le 12-04-2026 à 14:24:55  profilanswer
 

XaTriX a écrit :

S'il y'a des pro android dans le coin pour discuter stack/archi d'une réécriture complète de l'app android (redface2 pour le moment), je suis preneur : https://forum.hardware.fr/forum2.ph [...] w=0&nojs=0

 

prévu from scratch pour être dev par du llm, d'ailleurs c'est opus 4.6 qui fait tout :D


du css sur le forum hfr + pwa ça fera le taf.


---------------
Découvre le HFRcoin ✈ - smilies
n°2522037
XaTriX
Posté le 12-04-2026 à 14:44:19  profilanswer
 

fabien a écrit :


du css sur le forum hfr + pwa ça fera le taf.


espèce de chomeur !


---------------
Proxytaf ? non rien
n°2522050
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 12-04-2026 à 17:03:46  profilanswer
 

Une revue complète sur Hèrmes, plutôt bien faite
https://x.com/iamsupersocks/status/2043313326709412269


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2522061
XaTriX
Posté le 12-04-2026 à 21:36:10  profilanswer
 

Là je fais des aller/retour entre CC Opus 4.5 et Codex GPT 5.4 (snas plus de précision.. pro ? un codex ? .. rien ?) et c'est marrant :D
pas facile qui truster :o


---------------
Proxytaf ? non rien
n°2522080
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-04-2026 à 09:59:01  profilanswer
 

Cross topic
Des rumeurs que Claude travaille sur un compétiteur aux plateformes de vibe coding
Lovable & co vont souffrir :O
https://rehost.diberie.com/Picture/Get/r/505640
https://rehost.diberie.com/Picture/Get/r/505641
https://rehost.diberie.com/Picture/Get/r/505642
https://rehost.diberie.com/Picture/Get/r/505643
https://x.com/i/status/2043381707395482054


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2522081
oh_damned
Posté le 13-04-2026 à 10:08:27  profilanswer
 


 
 
De toute évidence tout ce qui est wrapper d'IA au sens large est voué à crever pour être remplacés par des fonctionnalités natives des gros fournisseurs d'IA (ou dans la meilleur des cas de faire racheter notamment pour récupérer la base clients :D ).
 
Mais les mecs peuvent quand même faire pas mal de cash quelques années.

Message cité 1 fois
Message édité par oh_damned le 13-04-2026 à 10:09:32

---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°2522082
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-04-2026 à 10:09:17  profilanswer
 

oh_damned a écrit :

 


De toute évidence tout ce qui est wrapper d'IA au sens large est voué à crever (ou dans la meilleur des cas de faire racheter notamment pour récupérer la base clients :D ).


C'est clair que si tu ne te différencie pas, ça va être compliqué de perdurer


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2522083
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-04-2026 à 10:10:14  profilanswer
 

Et encore Claude
https://rehost.diberie.com/Picture/Get/f/505644


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2522085
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-04-2026 à 10:12:25  profilanswer
 

Et open AI n'est pas en reste :O
https://rehost.diberie.com/Picture/Get/f/505646


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
mood
Publicité
Posté le 13-04-2026 à 10:12:25  profilanswer
 

n°2522087
the_fennec
f3nn3cUs z3rd4
Posté le 13-04-2026 à 10:15:59  profilanswer
 

Les petit contextes c'est une feature des fois :D
 
Voila mon dernier prompt Opencode:

Citation :

I'd like you to work on preparing a plan to make Linux Kernel 7.0 work on the Amiga 500. Use websearch to find limitations of Amiga 500 architecture. Search for Linux 7 support of 68k archi. Make a PLAN.md file with all you findings.


 
Il fait son truc dans son coin, me pose des questions de temps en temps. A un moment il voulait que je lui installe (sudo) un cross compiler 68k, j'ai dit non que je voulais juste un plan...
 
Depuis il a cloné le repo du Kernel 7.x, celui de linux-m68k-atarinommu et utilise Docker pour cross compiler quand même :lol:.


---------------
Faudra que je teste un jour :o
n°2522090
incassable
Posté le 13-04-2026 à 12:58:39  profilanswer
 

bon, j'ai essaye de faire tourner des LLM en local (mac) avec oMLX et LM studio
bordel la chienlit ...
 
oMLX a une super perf, mais la galere pour en faire un truc utile ... pour les recherches web faut passer par des scripts, jamais reussi a faire marcher le STT (workaround: utiliser la dictee de MacOS :D)
LM Studio: interface bien faite, complete, plus souple, mais bordel, 2x plus lent qu'oMLX
 
au final je fais des ping pong entre Copilot premium (paye par le taf) et Claud Pro, rien encore trouve de mieux

n°2522091
Olivie
SUUUUUUUUUUUUUU
Posté le 13-04-2026 à 13:17:28  profilanswer
 

incassable a écrit :

bon, j'ai essaye de faire tourner des LLM en local (mac) avec oMLX et LM studio
bordel la chienlit ...
 
oMLX a une super perf, mais la galere pour en faire un truc utile ... pour les recherches web faut passer par des scripts, jamais reussi a faire marcher le STT (workaround: utiliser la dictee de MacOS :D)
LM Studio: interface bien faite, complete, plus souple, mais bordel, 2x plus lent qu'oMLX
 
au final je fais des ping pong entre Copilot premium (paye par le taf) et Claud Pro, rien encore trouve de mieux


Tu pourras chercher quelques années si tu veux mieux que Claude en local :o


---------------

n°2522093
incassable
Posté le 13-04-2026 à 14:00:59  profilanswer
 

Olivie a écrit :


Tu pourras chercher quelques années si tu veux mieux que Claude en local :o

 

evidemment que c'est pas ce que je veux, j'attend pas de reasoning de leur part
mais rien que faire des recherches web un peu intelligentes bordel, c'est pas demander la lune
et clairement c'est juste le tooling qui me limite, sur oMLX j'ai trouve le qwen 2.5 7B pas ridicule du tout

 

l'idee de base c'est faire des recherches en local, tout dumper dans un md et fournir ca a claude cowork, histoire de pas cramer tous les token

 

au final c'est copilot premium qui se charge des recherches


Message édité par incassable le 13-04-2026 à 14:03:16
n°2522094
Olivie
SUUUUUUUUUUUUUU
Posté le 13-04-2026 à 14:06:42  profilanswer
 

Pour les recherches web suffit d’utiliser Brave search MCP non ?


---------------

n°2522095
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 13-04-2026 à 14:10:52  profilanswer
 

Vise au moins qwen 3.5 en 9B 4b, ça tournait bien sur mon mini en 16gb
Pour la recherche web Brave MCP c'est pas mal, sinon il y a des alternatives mais c'est moins clés en main


---------------
Victime de girafophobie, mais se soigne.
n°2522096
incassable
Posté le 13-04-2026 à 14:18:16  profilanswer
 

Olivie a écrit :

Pour les recherches web suffit d’utiliser Brave search MCP non ?


 
j'ai teste avec Tavily avec OpenwebUI et LM studio.
d'une lenteur ...
 
connecter oMLX a ce genre d'outil ? j'y suis pas arrivé  
 

Tronklou a écrit :

Vise au moins qwen 3.5 en 9B 4b, ça tournait bien sur mon mini en 16gb  
Pour la recherche web Brave MCP c'est pas mal, sinon il y a des alternatives mais c'est moins clés en main


 
j'ai teste celui-ci avec LM studio, ca deconnait pas mal, il me montrait le thinking mais pas de reponse :D
 
vous conseilleriez quoi comme setup pour faire des deep search en local ?

n°2522097
XaTriX
Posté le 13-04-2026 à 14:19:10  profilanswer
 

Bon qui fait sérieusement du dev par IA en entreprise ? Des vrais gros projets, à pleins devs and co :o


---------------
Proxytaf ? non rien
n°2522098
ionik
Posté le 13-04-2026 à 14:20:03  profilanswer
 

J'en fait avec de gros projets mais je suis tout seul sur mes projets :o


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°2522099
sashock
Posté le 13-04-2026 à 14:20:35  profilanswer
 

y’pas un topic « side projects à la con » ou on mettrait tous les trucs qu’on avait jamais le temps de coder mais que avec l’ia on code en un prompt et après on oublie?  :D

n°2522102
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 13-04-2026 à 14:32:55  profilanswer
 

incassable a écrit :


 
j'ai teste avec Tavily avec OpenwebUI et LM studio.
d'une lenteur ...
 
connecter oMLX a ce genre d'outil ? j'y suis pas arrivé  
 


 

incassable a écrit :


 
j'ai teste celui-ci avec LM studio, ca deconnait pas mal, il me montrait le thinking mais pas de reponse :D
 
vous conseilleriez quoi comme setup pour faire des deep search en local ?


 
Si ca tournais pas bien, je me pencherais d'avantage sur la source de ton model ?  
Tu tourne sur quoi comme matos ?


---------------
Victime de girafophobie, mais se soigne.
n°2522103
kaloskagat​os
Posté le 13-04-2026 à 14:33:56  profilanswer
 

sashock a écrit :

y’pas un topic « side projects à la con » ou on mettrait tous les trucs qu’on avait jamais le temps de coder mais que avec l’ia on code en un prompt et après on oublie?  :D


 
 
J'ai fait un MCP leboncoin pour chercher une voiture, c'est trop bien  :o


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°2522106
sashock
Posté le 13-04-2026 à 14:39:19  profilanswer
 

comme tout dev qui achète une voiture :D
 
moi dans ce genre j’ai toujours voulu coder un « sweet spot décote detector » pour savoir quel modèle a déjà atteint sa décote et quand l’achèter

n°2522108
incassable
Posté le 13-04-2026 à 14:40:28  profilanswer
 

Tronklou a écrit :


 
Si ca tournais pas bien, je me pencherais d'avantage sur la source de ton model ?  
Tu tourne sur quoi comme matos ?


 
M4 16GB
c'est clairement pour me faire la main, si je trouvais un setup local qui vaut le coup pour mon use case (deep search pour identifier des patenting white spaces), je changerais evidemment
 
mais pour l'instant si copilot premium du boulot fait un bon taf, vois pas trop l'interet de s'emmerder en fait

n°2522109
kaloskagat​os
Posté le 13-04-2026 à 14:48:57  profilanswer
 

sashock a écrit :

comme tout dev qui achète une voiture :D
 
moi dans ce genre j’ai toujours voulu coder un « sweet spot décote detector » pour savoir quel modèle a déjà atteint sa décote et quand l’achèter


 
 
Ca ressemble à ce projet qui estime le prix d'une voiture avec du machine learning : https://github.com/HTilki/EstimyCar
 


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°2522113
the_fennec
f3nn3cUs z3rd4
Posté le 13-04-2026 à 16:09:45  profilanswer
 

Je suis faible, j'ai pris une autre BC-250
94 euros (par Paypal)
https://www.ebay.fr/

Spoiler :

j'ai failli en prendre deux


 
edit: les avis sont pourris je vais annuler

Message cité 2 fois
Message édité par the_fennec le 13-04-2026 à 16:15:12

---------------
Faudra que je teste un jour :o
n°2522115
LibreArbit​re
La /root est longue
Posté le 13-04-2026 à 16:32:26  profilanswer
 

the_fennec a écrit :

Je suis faible, j'ai pris une autre BC-250
94 euros (par Paypal)
https://www.ebay.fr/

Spoiler :

j'ai failli en prendre deux


 
edit: les avis sont pourris je vais annuler


Tu m'as grave tenté puis je suis allé voir les notes du vendeur.
 
Bonne chance :jap:


---------------
Hebergement d'images
n°2522117
the_fennec
f3nn3cUs z3rd4
Posté le 13-04-2026 à 17:12:24  profilanswer
 

LibreArbitre a écrit :


Tu m'as grave tenté puis je suis allé voir les notes du vendeur.
 
Bonne chance :jap:


 
J'ai demandé une annulation, mais j'ai oublié que c'est pas Amazon, donc la demande est partie chez le vendeur. Bon j'ai payé par Paypal donc pas de risque.
 
Je m'excuse platement si quelqu'un d'autre a commandé :cry:


---------------
Faudra que je teste un jour :o
n°2522118
LibreArbit​re
La /root est longue
Posté le 13-04-2026 à 17:27:23  profilanswer
 

the_fennec a écrit :

Je m'excuse platement si quelqu'un d'autre a commandé :cry:


Nan c'est cool, je vais transférer ce bon plan aux gens que j'aime pas [:shimay:1]


---------------
Hebergement d'images
n°2522119
the_fennec
f3nn3cUs z3rd4
Posté le 13-04-2026 à 17:34:00  profilanswer
 

incassable a écrit :

bon, j'ai essaye de faire tourner des LLM en local (mac) avec oMLX et LM studio
bordel la chienlit ...
 
oMLX a une super perf, mais la galere pour en faire un truc utile ... pour les recherches web faut passer par des scripts, jamais reussi a faire marcher le STT (workaround: utiliser la dictee de MacOS :D)
LM Studio: interface bien faite, complete, plus souple, mais bordel, 2x plus lent qu'oMLX
 
au final je fais des ping pong entre Copilot premium (paye par le taf) et Claud Pro, rien encore trouve de mieux


 
Perso j'aime pas les trucs "tout en un" comme LM studio ou ollama. Je viens de regarder oMLX, ça à l'air bien compliqué.
 
J'utilise llama.cpp pour servir un modèle et que ça, et ensuite je branche des trucs dessus en disant qu'il est "openai-compatible" et je pointe sur mon llama-server avec: http://host:port/v1.
Je le lance avec: --alias default comme ça je peux changer le modèle, sans que l'outil qui est connecté n'ait besoin d'être reconfigurer.
 
Avec llama.cpp ça marche pareil sur Windows/Linux/Mac, ya pas de dépendance en plus de CUDA/Mesa/Vulkan, pas de Python etc.
 
Je prends les modèles a la main sur HuggingFace et je prends les paramètres conseillés. J'utilise juste -ctk q8_0 -ctv q8_0 pour compresser un peu le contexte.
 
Après avec du local, a moins d'avoir une machine de guerre il faut pas s'attendre a faire aussi bien que Claude ou Copilot.


---------------
Faudra que je teste un jour :o
n°2522120
the_fennec
f3nn3cUs z3rd4
Posté le 13-04-2026 à 17:37:22  profilanswer
 

incassable a écrit :


vous conseilleriez quoi comme setup pour faire des deep search en local ?


 
Pour la recherche j'ai un searxng sous Docker et j'ai fait une Skill curl.


---------------
Faudra que je teste un jour :o
n°2522126
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 13-04-2026 à 18:21:45  profilanswer
 

llama c'est la vie.
C'est le plus performant, le mode server est ultra pratique ( suffit d'avoir les models dans le sous dossier et on peut appeler directement depuis l'api le model de notre choix !).  
Ollama c'est d'une lourdeur sans nom en comparaison...
Par contre LMstudio est un bon compromis, pas aussi perf que llama pur, mais ajoute beaucoup de confort pour tout faire en gui sans être un gouffre a ressources.


---------------
Victime de girafophobie, mais se soigne.
n°2522127
incassable
Posté le 13-04-2026 à 18:26:50  profilanswer
 

the_fennec a écrit :


 
Perso j'aime pas les trucs "tout en un" comme LM studio ou ollama. Je viens de regarder oMLX, ça à l'air bien compliqué.
 
J'utilise llama.cpp pour servir un modèle et que ça, et ensuite je branche des trucs dessus en disant qu'il est "openai-compatible" et je pointe sur mon llama-server avec: http://host:port/v1.
Je le lance avec: --alias default comme ça je peux changer le modèle, sans que l'outil qui est connecté n'ait besoin d'être reconfigurer.
 
Avec llama.cpp ça marche pareil sur Windows/Linux/Mac, ya pas de dépendance en plus de CUDA/Mesa/Vulkan, pas de Python etc.
 
Je prends les modèles a la main sur HuggingFace et je prends les paramètres conseillés. J'utilise juste -ctk q8_0 -ctv q8_0 pour compresser un peu le contexte.
 
Après avec du local, a moins d'avoir une machine de guerre il faut pas s'attendre a faire aussi bien que Claude ou Copilot.


 
pourquoi llama et pas MLX ? meilleure perf avec MLX non ?
je viens de voir que Olama tourne avec MLX maintenant
 
oMLX c'est tres simple .... pour faire tourner un LLM tout seul dans son coin, des que tu veux faire un truc utile, c'est la merde effectivement
faut le voir comme un outil de bench
 

the_fennec a écrit :


 
Pour la recherche j'ai un searxng sous Docker et j'ai fait une Skill curl.


 
connais pas vais regarder, merci !
 

n°2522130
the_fennec
f3nn3cUs z3rd4
Posté le 13-04-2026 à 19:50:00  profilanswer
 

incassable a écrit :

pourquoi llama et pas MLX ? meilleure perf avec MLX non ?
je viens de voir que Olama tourne avec MLX maintenant
 
oMLX c'est tres simple .... pour faire tourner un LLM tout seul dans son coin, des que tu veux faire un truc utile, c'est la merde effectivement
faut le voir comme un outil de bench


 
A la base je bidouille a la maison sous Windows et Linux, donc llama.cpp. Pour le taf j'ai un MBP m4 48Go, et llama.cpp tourne bien aussi dessus. Comme ça tout marche pareil partout, et llama.cpp a des MAJ quotidiennes, donc ya des nouvelles features très vite (et des bugs aussi :o).
 
L'autre gros avantage du gguf par rapport au mlx c'est que je trouve qu'il y a beaucoup plus de choix. Sur Huggingface il y a actuellement près de 170k gguf contre 12k mlx. Je prends généralement les modèles de deux la:
https://huggingface.co/unsloth
https://huggingface.co/bartowski
 
Après effectivement le mlx devrait être plus rapide, mais je préfère avoir plus de choix et je suis plus a l'aise avec llama maintenant.


---------------
Faudra que je teste un jour :o
n°2522131
incassable
Posté le 13-04-2026 à 19:55:04  profilanswer
 

je comprends, 12k models c’est juste :o

n°2522132
the_fennec
f3nn3cUs z3rd4
Posté le 13-04-2026 à 20:03:09  profilanswer
 

incassable a écrit :

je comprends, 12k models c’est juste :o


 
Pour être plus clair:
https://huggingface.co/mlx-communit [...] 1b-it-4bit
 
une version de 18Go, ça pas ou ça casse :o
 
https://huggingface.co/unsloth/gemma-4-31B-it-GGUF
 
18 versions avec des quantifications ("compressions" ) différentes, de 8Go a 35Go.
 
Sur un MBP de 16Go, tu peux tenter le UD-IQ3_XXS qui fait 12Go alors que le mlx risque de pas passer.


---------------
Faudra que je teste un jour :o
n°2522133
XaTriX
Posté le 13-04-2026 à 20:11:44  profilanswer
 

ionik a écrit :

J'en fait avec de gros projets mais je suis tout seul sur mes projets :o


Bah vazy on parle entre pros :o
 
Je veux savoir comment c'est géré réellement pour des vrais trucs. J'ai un pote qui fait ça avec sa boite et pleins de dev/équipes, ils ont fait une liste de skills de ouf, des guidelines de partout, etc, du gros taf


---------------
Proxytaf ? non rien
n°2522135
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-04-2026 à 20:33:04  profilanswer
 

XaTriX a écrit :


Bah vazy on parle entre pros :o

 

Je veux savoir comment c'est géré réellement pour des vrais trucs. J'ai un pote qui fait ça avec sa boite et pleins de dev/équipes, ils ont fait une liste de skills de ouf, des guidelines de partout, etc, du gros taf


Tu peux lui demander de partager  :O


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2522137
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-04-2026 à 20:48:15  profilanswer
 

https://rehost.diberie.com/Picture/Get/r/505807
Bientôt :O


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2522151
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 14-04-2026 à 00:11:52  profilanswer
 

Désolé les gars, c'est la fin de l'abondance

Citation :

Alibaba Cloud killed its Coding Plan Lite tier today. Launched in February. Discontinued in April. Less than two months from launch to sunset.

 

Some context. Coding Plan Lite was priced at ¥40/month (roughly $5.5), with a first-month promotional price of ¥7.9 (about $1). It bundled models from Qwen, GLM, Kimi, and MiniMax into one subscription. 18,000 requests per month.

 

Now only Pro remains. ¥200/month. 90,000 requests. A 5x price jump with no cheaper alternative.

 

Alibaba stopped accepting new Lite orders on March 20. Today it cut off renewals entirely. The ramp-down was deliberate and fast.


https://x.com/i/status/2043697458300256722


Message édité par bulldozer_fusion le 14-04-2026 à 00:12:07

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2522152
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 14-04-2026 à 01:40:24  profilanswer
 

Ouais ca pue de plus en plus :O
 
Bon ben faudra péter le PEL et vendre quelques organes pour se faire du local correct :O


---------------
Victime de girafophobie, mais se soigne.
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  18  19  20  21  22  23

Aller à :
Ajouter une réponse
 

Sujets relatifs
Un assistant IA m’a pondu un script Bash… et une blague en bonus ![React] Comment changer le state de manière unique dans une map
Macros MS Publisher 2007 (Topic Unique ?)Environnement de développement modulaire basé sur node.js avec docker
Les truc indispensable sur du gros développementIA
MonoGame 3.8 - Le topic Unique[Développement Web] Votre parcours en tant que développeur web
[POSTGRESQL] WTF création unique impossibeondage sur votre expérience en développement web (dette technique)
Plus de sujets relatifs à : [Topic unique] Développement via IA


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)