Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3494 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  12  13  14  ..  21  22  23  24  25  26
Auteur Sujet :

[Topic unique] Développement via IA

n°2521129
le canard ​nouveau
coin
Posté le 28-03-2026 à 18:07:42  profilanswer
 

Reprise du message précédent :
D.ieu veut pas nous faire un agent IA qui peut répondre, connait l'art du redface, et sait poster du code, tout en utilisant correctement le BB code, idéalement en memant avec les réfs historiques d'HFR :D ?


---------------
Sivouplé, un referral scam citizen https://robertsspaceindustries.com/ [...] -SVBP-3PT3
mood
Publicité
Posté le 28-03-2026 à 18:07:42  profilanswer
 

n°2521130
speedboyz3​0
Guide Michelin :o
Posté le 28-03-2026 à 18:07:47  profilanswer
 

openclaw c'est pas du code :o

n°2521131
le canard ​nouveau
coin
Posté le 28-03-2026 à 18:12:42  profilanswer
 

Personne a parlé d'OpenClaw [:spamafote]
 
Et si on l'utilisait, tu peux appeler une IA dans une autre IA au pire, le(s) modèle(s) que tu veux pour générer du code [:logicsystem360:5]


---------------
Sivouplé, un referral scam citizen https://robertsspaceindustries.com/ [...] -SVBP-3PT3
n°2521132
XaTriX
Posté le 28-03-2026 à 18:25:32  profilanswer
 

le canard nouveau a écrit :

D.ieu veut pas nous faire un agent IA qui peut répondre, connait l'art du redface, et sait poster du code, tout en utilisant correctement le BB code, idéalement en memant avec les réfs historiques d'HFR :D ?


Yes le topic sur le slang HFR va servir :love:


---------------
Proxytaf ? non rien
n°2521137
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 28-03-2026 à 23:33:52  profilanswer
 

mais la différence bon sang, j'ai utilisé Gemini CLI pour avancer ,c'est tellement mieux que antigravity (à part que dans antigravity on a accès aux modèles claudes), mais les versions de gemini dans CLI sont beaucoup moins nerf
ça change tout !
https://rehost.diberie.com/Picture/Get/f/501498


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521139
fabien
Vive la super 5 !
Posté le 29-03-2026 à 05:39:47  profilanswer
 

bulldozer_fusion a écrit :

mais la différence bon sang, j'ai utilisé Gemini CLI pour avancer ,c'est tellement mieux que antigravity (à part que dans antigravity on a accès aux modèles claudes), mais les versions de gemini dans CLI sont beaucoup moins nerf
ça change tout !
https://rehost.diberie.com/Picture/Get/f/501498


"moins nerf"? ce veut dire quoi?


---------------
Découvre le HFRcoin ✈ - smilies
n°2521156
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 29-03-2026 à 11:34:51  profilanswer
 

fabien a écrit :


"moins nerf"? ce veut dire quoi?


Ils rendent les modèles moins performants (moins intelligents)
Comme si je prends du sirop et je le dilue plus que de raison avec de l'eau
Ben le goût c'est pas le même à la sortie :O

Citation :

Le terme vient de la marque de jouets NERF : c'est l'idée de remplacer une arme réelle (puissante et dangereuse) par un équivalent en mousse qui ne fait pas de mal.


Message édité par bulldozer_fusion le 29-03-2026 à 11:36:00

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521163
le canard ​nouveau
coin
Posté le 29-03-2026 à 12:16:16  profilanswer
 

bulldozer_fusion a écrit :

mais la différence bon sang, j'ai utilisé Gemini CLI pour avancer ,c'est tellement mieux que antigravity (à part que dans antigravity on a accès aux modèles claudes), mais les versions de gemini dans CLI sont beaucoup moins nerf
ça change tout !
https://rehost.diberie.com/Picture/Get/f/501498


Spécifique à Antigravity ou ça a été constaté sur d'autres IDE ?


---------------
Sivouplé, un referral scam citizen https://robertsspaceindustries.com/ [...] -SVBP-3PT3
n°2521164
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 29-03-2026 à 12:20:37  profilanswer
 

le canard nouveau a écrit :


Spécifique à Antigravity ou ça a été constaté sur d'autres IDE ?


Les autres je sais pas
C'est mon ressenti en tout cas sur antigravity versus Gemini CLI


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521165
le canard ​nouveau
coin
Posté le 29-03-2026 à 12:21:13  profilanswer
 

:jap:


---------------
Sivouplé, un referral scam citizen https://robertsspaceindustries.com/ [...] -SVBP-3PT3
mood
Publicité
Posté le 29-03-2026 à 12:21:13  profilanswer
 

n°2521193
the_fennec
f3nn3cUs z3rd4
Posté le 30-03-2026 à 10:38:46  profilanswer
 

Opencode + llama.cpp et Qwen3-Coder-Next-GGUF:UD-IQ3_S ça marche pas mal!
 
Il arrive bien a progresser sur la reimplementation du MCP debug pour fs-uae.
 
Le code C++ est assez propre avec les même travers que d'habitude, genre parser JSON maison et des classes de 1k lignes sans split dans des fichiers.
 
Le problème par contre c'est que malgré des prompts agents et simili Ralph, il s'arrête au bout d'une heure, souvent sur une erreur de parsing or de tool. J'ai l'impression qu'il ne récupère pas le taux d'utilisation de contexte et fini par le remplir. C'est étrange car j'ai l'impression qu'il compacte quand même, je vois pas comment il pourrait ternir avec 64K de contexte pendant plus de 30 minutes.
 
Sinon ça bouge bien coté TurboQuants sur llama.cpp:
https://github.com/ggml-org/llama.cpp/discussions/20969
 
TLDR; en tq3 on a 900MB pour 64k de contexte. Il y a plein d'impl différentes en cours, certains rapportent même des gains en vitesse (+15%), d'autres des pertes, ou encore des perplexités plus élevées. Mais ya un gros potentiel, sur certains modèles comme les Qwens c'est x5 sans pertes. D'autres modèles ayant moins de layers, comme GPT, ont des gains beaucoup plus faibles.


---------------
Faudra que je teste un jour :o
n°2521215
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 30-03-2026 à 14:01:25  profilanswer
 

Y a ça d'intéressant pour ton cas de figure https://github.com/itigges22/ATLAS


---------------
Victime de girafophobie, mais se soigne.
n°2521223
the_fennec
f3nn3cUs z3rd4
Posté le 30-03-2026 à 16:33:11  profilanswer
 

Tronklou a écrit :

Y a ça d'intéressant pour ton cas de figure https://github.com/itigges22/ATLAS


 
Il doit utiliser une vieille version de llama, ça fait un moment que le Speculative decoding est cassé sur Qwen 3.5:
https://github.com/ggml-org/llama.cpp/issues/20039
https://github.com/ggml-org/llama.cpp/pull/19493
 
Mais je sais pas si son approche est viable, il fait 3 tentatives de processing de prompt puis répare jusqu'à avoir le bon résultat. Mes prompts actuels prennent entre 20 et 60 minutes, mais son postula c'est que ça serait plus rapide en faisant 3x plus de prompts avec un plus petit modèle et plus rapide. Je pense pas que ça soit applicable a ce que je fais.
 
Ce qu'il résous c'est ce genre de trucs:
https://huggingface.co/datasets/liv [...] ation_lite

Code :
  1. Among the 81 integers that appear in the 9-by-9 multiplication table, find the sum of those that are not X.,,
  2. There is a grid of size 9 by 9.
  3. Each cell of the grid contains an integer: the cell at the i-th row from the top and the j-th column from the left contains i  times j.
  4. You are given an integer X. Among the 81 integers written in this grid, find the sum of those that are not X. If the same value appears in multiple cells, add it for each cell.
  5. Input
  6. The input is given from Standard Input in the following format:
  7. X
  8. Output
  9. Print the sum of the integers that are not X among the 81 integers written in the grid.
  10. Constraints
  11. - X is an integer between 1 and 81, inclusive.
  12. Sample Input 1
  13. 1
  14. Sample Output 1
  15. 2024
  16. The only cell with 1 in the grid is the cell at the 1st row from the top and 1st column from the left. Summing all integers that are not 1 yields 2024.
  17. Sample Input 2
  18. 11
  19. Sample Output 2
  20. 2025
  21. There is no cell containing 11 in the grid. Thus, the answer is 2025, the sum of all 81 integers.
  22. Sample Input 3
  23. 24
  24. Sample Output 3
  25. 1929


Message édité par the_fennec le 30-03-2026 à 16:33:31

---------------
Faudra que je teste un jour :o
n°2521231
fabien
Vive la super 5 !
Posté le 30-03-2026 à 18:14:35  profilanswer
 

depuis la dernière mise à jour de google antigravity, j'ai cette erreur: error executing cascade step: CORTEX_STEP_TYPE_RUN_COMMAND: failed to set up sandbox: sandboxing is not supported on Windows

 


et vous ?


---------------
Découvre le HFRcoin ✈ - smilies
n°2521238
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 30-03-2026 à 19:44:57  profilanswer
 

J'ai eu ça aussi mais ça bloquait pas le reste


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521243
fabien
Vive la super 5 !
Posté le 30-03-2026 à 20:50:06  profilanswer
 

oue ca bloque quand il veut faire certaines commandes sensible, ca veut créer une sandbox.


---------------
Découvre le HFRcoin ✈ - smilies
n°2521246
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 30-03-2026 à 20:55:15  profilanswer
 

Et il arrive pas à finir ? Tu peux pas lui dire de faire autrement ?


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521257
fabien
Vive la super 5 !
Posté le 30-03-2026 à 21:32:20  profilanswer
 

j'ai un vieux site en ansi iso-8859-1, le llm marche bien qu'avec utf-8, sinon il faut qu'il fasse des commande en sandbox, mais c'est là que ça bug.

 

ca marchait bien avant, ça a dérapé avec la dernière mise à jour.

 

là j'utilise gemini 3 flash, les autres j'ai atteind la limite, peut être qu'ils sont moins con et arrivent à passer outre comme avant ?!
je dois attend le 2 avril

Message cité 1 fois
Message édité par fabien le 30-03-2026 à 21:32:36

---------------
Découvre le HFRcoin ✈ - smilies
n°2521260
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 30-03-2026 à 22:03:22  profilanswer
 

fabien a écrit :

j'ai un vieux site en ansi iso-8859-1, le llm marche bien qu'avec utf-8, sinon il faut qu'il fasse des commande en sandbox, mais c'est là que ça bug.
 
ca marchait bien avant, ça a dérapé avec la dernière mise à jour.
 
là j'utilise gemini 3 flash, les autres j'ai atteind la limite, peut être qu'ils sont moins con et arrivent à passer outre comme avant ?!
je dois attend le 2 avril


3 flash oublie, il est con  ce modèle


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521269
kao98
...
Posté le 31-03-2026 à 11:46:23  profilanswer
 

Vous avez des workflows ou des astuces pour travailler en local avec des tous petits modèles (qui tourne sur 32GB RAM + 10GB VRAM) ?

n°2521272
ionik
Posté le 31-03-2026 à 12:18:57  profilanswer
 

Prend un model qui appelle Claude :o
 
Avec cette quantité de VRAM, le model ne pourra pas faire au delà de l'auto complétion je dirais. et ça dépend aussi de l'IDE que tu utilises pour de l'auto complétion, pour un cli avec cette quantité de VRAM ça va être compliqué)


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°2521278
le canard ​nouveau
coin
Posté le 31-03-2026 à 13:14:23  profilanswer
 

kao98 a écrit :

Vous avez des workflows ou des astuces pour travailler en local avec des tous petits modèles (qui tourne sur 32GB RAM + 10GB VRAM) ?


Tu peux diminuer la largeur d'adressage (8b, 4b) pour gérer des modèles plus gros. Si tu es sur Nvidia, CUDA est nativement géré sinon AMD, go HIP SDK pour ROCm :jap:
 
Je teste gpt-oss-20b, gemma3-12/27b, et qq autres petits modèles. Sans bon GPU ça marchera, mais avec le couple CPU/RAM plutôt que GPU/VRAM, auquel cas, tu seras à quelques tokens / secondes plutôt que quelques dizaines de tokens/minute
 
Go Artificial Analysis pour les benchs sur les modèles (cloud ou locaux) qui conviendront à ton usage (IAG, RAG, agentique, etc.)
 
LM Studio est mieux qu'Ollama (MCP géré nativement, quantification, inférence, etc. réglables à la main) mais je fais aucune confiance au soft en termes de confidentialité et sécu des données pro. Mieux vaut mieux pisser du code en Python faire sa propre boîte quitte à vibe coder plus que de raison


---------------
Sivouplé, un referral scam citizen https://robertsspaceindustries.com/ [...] -SVBP-3PT3
n°2521279
le canard ​nouveau
coin
Posté le 31-03-2026 à 13:15:24  profilanswer
 

ionik a écrit :

Prend un model qui appelle Claude :o
 
Avec cette quantité de VRAM, le model ne pourra pas faire au delà de l'auto complétion je dirais. et ça dépend aussi de l'IDE que tu utilises pour de l'auto complétion, pour un cli avec cette quantité de VRAM ça va être compliqué)


Anthropic a sorti quels modèles non-cloud? [:transparency]


---------------
Sivouplé, un referral scam citizen https://robertsspaceindustries.com/ [...] -SVBP-3PT3
n°2521284
Implosion ​du Sord
Fesseur de chameaux
Posté le 31-03-2026 à 13:26:55  profilanswer
 

le canard nouveau a écrit :


Anthropic a sorti quels modèles non-cloud? [:transparency]


Aucun
Il dit de prendre un modèle qui appelle Claude pour contourner son soucis de quantité de mémoire :D


Message édité par Implosion du Sord le 31-03-2026 à 13:27:29

---------------
[VDS]AIO Fractal Design Celsius S36 | Carte Wifi N Intel 5100 mPCIe | divers accessoire boitier Fractal Design | Away from keyboard, close to your breast
n°2521286
gremi
Vieux con des neiges d'antan
Posté le 31-03-2026 à 13:35:51  profilanswer
 

kao98 a écrit :

Vous avez des workflows ou des astuces pour travailler en local avec des tous petits modèles (qui tourne sur 32GB RAM + 10GB VRAM) ?


Qwen 3.5  devrait pouvoir tourner sans trop de soucis ( A toi d'essayer lequel : 27b ou 35bA3) ... (Avec lmstudio +Opencode pluggé dessus ça marche bien)

Message cité 2 fois
Message édité par gremi le 31-03-2026 à 13:36:13

---------------
In aligot we trust.
n°2521292
kao98
...
Posté le 31-03-2026 à 14:12:05  profilanswer
 

ionik a écrit :

Prend un model qui appelle Claude :o
 
Avec cette quantité de VRAM, le model ne pourra pas faire au delà de l'auto complétion je dirais. et ça dépend aussi de l'IDE que tu utilises pour de l'auto complétion, pour un cli avec cette quantité de VRAM ça va être compliqué)


 
Je teste un peu zed
 
L’autocomplétion, c'est le pire en fait. C'est beaucoup trop long. Ou alors faudrait que j'essaie vraiment des mini modèles
En mode agent, c'est lent, mais ça avance  [:tinostar]  
 

le canard nouveau a écrit :


Tu peux diminuer la largeur d'adressage (8b, 4b) pour gérer des modèles plus gros. Si tu es sur Nvidia, CUDA est nativement géré sinon AMD, go HIP SDK pour ROCm :jap:
 
Je teste gpt-oss-20b, gemma3-12/27b, et qq autres petits modèles. Sans bon GPU ça marchera, mais avec le couple CPU/RAM plutôt que GPU/VRAM, auquel cas, tu seras à quelques tokens / secondes plutôt que quelques dizaines de tokens/minute
 
Go Artificial Analysis pour les benchs sur les modèles (cloud ou locaux) qui conviendront à ton usage (IAG, RAG, agentique, etc.)
 
LM Studio est mieux qu'Ollama (MCP géré nativement, quantification, inférence, etc. réglables à la main) mais je fais aucune confiance au soft en termes de confidentialité et sécu des données pro. Mieux vaut mieux pisser du code en Python faire sa propre boîte quitte à vibe coder plus que de raison


 
Merci, je vais regarder tout ça
 

gremi a écrit :


Qwen 3.5  devrait pouvoir tourner sans trop de soucis ( A toi d'essayer lequel : 27b ou 35bA3) ... (Avec lmstudio +Opencode pluggé dessus ça marche bien)


 
Ouais, jusque là, Qwen 3.5, c'est le seul que j'ai réussi à faire tourner à peu près (ollama + zed)

n°2521295
ionik
Posté le 31-03-2026 à 14:25:18  profilanswer
 

J'ai tester plein de modèle (plus récemment) tenant dans 24 Go et même des un peu plus grand et franchement au delà de l'auto complétion et éventuellement répondre a des questions, ça ira pas plus loin de ce que j'ai vu.
 
Après c'est toujours pareil ça doit dépendre de ton besoin, mais pour moi c'est pas encore assez puissant pour du code local. Si tu prend un model 100+ peut être que ça doit commencer a être pas mal, mais la rapidité va être catastrophique.
 
J'ai tester dernièrement opcode avec Glm 4.7-flash ce que propose Ollama avec opencode en recommande, je lui pose un question simple et il se met a me modifier le code de partout ... donc bon ^^


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°2521307
the_fennec
f3nn3cUs z3rd4
Posté le 31-03-2026 à 15:57:49  profilanswer
 

Peut être https://huggingface.co/Qwen/Qwen2.5 [...] truct-GGUF ?


---------------
Faudra que je teste un jour :o
n°2521309
the_fennec
f3nn3cUs z3rd4
Posté le 31-03-2026 à 16:12:48  profilanswer
 

De mon coté je suis assez content du combo Qwen-coder-next, llama et Opencode, merci pour la suggestion Tronklou!
 
J'ai installé Ultraworks: https://github.com/code-yeongyu/oh-my-openagent et il bosse depuis ce matin 8h sans arrêt! Mais en fait il fait pas grand-chose, il a juste changé 20 lignes de code :/.
Quand je vois le prompt c'est beaucoup trop:
https://github.com/code-yeongyu/oh- [...] default.ts
 
14Kb \o/ il bouffe tout le contexte juste pour prendre le prompt en compte... faut que je trouve un truc plus léger :o


---------------
Faudra que je teste un jour :o
n°2521311
le canard ​nouveau
coin
Posté le 31-03-2026 à 16:33:01  profilanswer
 

En semi-pro (apprentissage + développement de compétences + poste de travail local IA), j'ai regardé pour une RTX 5000 48 Go (déjà omis la RTX 6000 96 Go [:osweat]), elle reste encore sacrément chère  :ouch:  
 
Quelqu'un a un site qui trace l'évolution des prix (horaires, journaliers, mensuels) pour des pods/workers cloud dédiés à l'IA ( volume de VRAM et de TFLOPS IA -donc FP4 ou FP8- mais pas nécessairement sur GPU dédié ) ??
J'aimerais sortir de l'environnement API/cloud assez vite sans être tributaire de ladite tour pour computer à minima. Fait un tour d'horizon rapido, pas trouvé mon bonheur, c'est beaucoup de benchmarks de modèles  
 
L'idée serait de pouvoir connecter des workers agentiques, scalables, dont le prix a un certain agnosticisme (pas total mais dans une certaine mesure), sur des produits sur mesure déployés par des clients, et (surtout), de fonctionner en avance de phase sur la facturation si les coûts d'hébergement/IA explosent


---------------
Sivouplé, un referral scam citizen https://robertsspaceindustries.com/ [...] -SVBP-3PT3
n°2521320
ionik
Posté le 31-03-2026 à 17:57:29  profilanswer
 


C'est ce que j'ai utilisé en 32B mais au delà de l'auto complétion c'est pas efficace.


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°2521340
the_fennec
f3nn3cUs z3rd4
Posté le 31-03-2026 à 19:50:06  profilanswer
 

ionik a écrit :


C'est ce que j'ai utilisé en 32B mais au delà de l'auto complétion c'est pas efficace.


 
Faudrait tenter Qwen 3.5 27B UD-IQ3_XXS avec de offload CPU, il est très lent mais marche pas mal.


---------------
Faudra que je teste un jour :o
n°2521341
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 31-03-2026 à 19:54:49  profilanswer
 

gremi a écrit :


Qwen 3.5  devrait pouvoir tourner sans trop de soucis ( A toi d'essayer lequel : 27b ou 35bA3) ... (Avec lmstudio +Opencode pluggé dessus ça marche bien)


C'est facile de plug lmstudio à open code?


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521347
ionik
Posté le 31-03-2026 à 20:14:29  profilanswer
 

the_fennec a écrit :


 
Faudrait tenter Qwen 3.5 27B UD-IQ3_XXS avec de offload CPU, il est très lent mais marche pas mal.


Le problème est pas le offload c'est le modèle.
 
Le model 32B est meilleur mais j'étais en IQ4 full VRAM mais c'est quand même trop limité.


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°2521349
the_fennec
f3nn3cUs z3rd4
Posté le 31-03-2026 à 20:21:40  profilanswer
 

ionik a écrit :


Le problème est pas le offload c'est le modèle.
 
Le model 32B est meilleur mais j'étais en IQ4 full VRAM mais c'est quand même trop limité.


 
Non, je pensais pareil avec Qwen 3.5 en 35B A3B, mais en fait non. Comme le 32B ce sont des modèles MoE, dans le cas du 35B il n'a que 3B d'actif. Dans mes tests le 27B était bien meilleur que le 35B, mais beaucoup plus lent, dans les 10/15 tg/s la ou 35B montait facilement a 50 tg/s.
 


---------------
Faudra que je teste un jour :o
n°2521351
the_fennec
f3nn3cUs z3rd4
Posté le 31-03-2026 à 20:24:56  profilanswer
 

J'ai remplacé Ultrawork par sa version slim:
https://github.com/alvinunreal/oh-my-opencode-slim
 
On va voir ce que ça donne, ça à l'air beaucoup plus rapide.


---------------
Faudra que je teste un jour :o
n°2521353
gremi
Vieux con des neiges d'antan
Posté le 31-03-2026 à 20:28:02  profilanswer
 

bulldozer_fusion a écrit :


C'est facile de plug lmstudio à open code?


 
Oui il y a un connecteur natif (lmstudio est dans la liste des providers)


---------------
In aligot we trust.
n°2521363
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 31-03-2026 à 21:51:46  profilanswer
 

gremi a écrit :

 

Oui il y a un connecteur natif (lmstudio est dans la liste des providers)


 :jap:


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°2521367
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 01-04-2026 à 00:32:06  profilanswer
 

the_fennec a écrit :

De mon coté je suis assez content du combo Qwen-coder-next, llama et Opencode, merci pour la suggestion Tronklou!
 
J'ai installé Ultraworks: https://github.com/code-yeongyu/oh-my-openagent et il bosse depuis ce matin 8h sans arrêt! Mais en fait il fait pas grand-chose, il a juste changé 20 lignes de code :/.
Quand je vois le prompt c'est beaucoup trop:
https://github.com/code-yeongyu/oh- [...] default.ts
 
14Kb \o/ il bouffe tout le contexte juste pour prendre le prompt en compte... faut que je trouve un truc plus léger :o


 
Tip top :D
 
J'ai commandé pas mal de trucs pour tester... des trucs, je ferais un retex ici :D


---------------
Victime de girafophobie, mais se soigne.
n°2521370
the_fennec
f3nn3cUs z3rd4
Posté le 01-04-2026 à 08:09:35  profilanswer
 

Tronklou a écrit :


 
Tip top :D
 
J'ai commandé pas mal de trucs pour tester... des trucs, je ferais un retex ici :D


 
Cool, j'aime les tests de trucs :D


---------------
Faudra que je teste un jour :o
n°2521373
ionik
Posté le 01-04-2026 à 08:37:47  profilanswer
 

the_fennec a écrit :


 
Non, je pensais pareil avec Qwen 3.5 en 35B A3B, mais en fait non. Comme le 32B ce sont des modèles MoE, dans le cas du 35B il n'a que 3B d'actif. Dans mes tests le 27B était bien meilleur que le 35B, mais beaucoup plus lent, dans les 10/15 tg/s la ou 35B montait facilement a 50 tg/s.
 


Encore une fois le problème n'est pas la rapidité mais la qualité des réponses.


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  12  13  14  ..  21  22  23  24  25  26

Aller à :
Ajouter une réponse
 

Sujets relatifs
Un assistant IA m’a pondu un script Bash… et une blague en bonus ![React] Comment changer le state de manière unique dans une map
Macros MS Publisher 2007 (Topic Unique ?)Environnement de développement modulaire basé sur node.js avec docker
Les truc indispensable sur du gros développementIA
MonoGame 3.8 - Le topic Unique[Développement Web] Votre parcours en tant que développeur web
[POSTGRESQL] WTF création unique impossibeondage sur votre expérience en développement web (dette technique)
Plus de sujets relatifs à : [Topic unique] Développement via IA


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)