Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2830 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  225  226  227  ..  249  250  251  252  253  254
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°73767813
Sebwap
... . -... .-- .- .--.
Posté le 31-10-2025 à 16:04:39  profilanswer
 

Reprise du message précédent :

Studiopr a écrit :


 
Pourquoi l'IA générative de vidéo est toujours utilisée pour faire des trucs à la con comme ça ?  :lol:


 
Je préfère ça qu'un deep fake :D

mood
Publicité
Posté le 31-10-2025 à 16:04:39  profilanswer
 

n°73767896
bulldozer_​fusion
rip Mekthoub
Posté le 31-10-2025 à 16:20:29  profilanswer
 

saxou a écrit :

Jai acces à VERO 3.1 cette dinguerie...


Véro  :whistle:


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73767901
bulldozer_​fusion
rip Mekthoub
Posté le 31-10-2025 à 16:21:14  profilanswer
 

LibreArbitre a écrit :


OMG la dinguerie :love:

 

C'était pas du tout ça avec Veo 2 :lol:

 

https://img.super-h.fr/images/2025/ [...] ee.md.jpeg
(image cliquable qui affiche la vidéo avec le son)

 

Prompt : a cat dressed like a human eating sushi at a restaurant table


 [:implosion du tibia]


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73767909
Olivie
SUUUUUUUUUUUUUU
Posté le 31-10-2025 à 16:23:00  profilanswer
 

Citation :

@_Anai_x
 
A survey of 22 Seattle-based AI startups found that 68% use AI to write over 80% of their production code. Claude Code is the most popular, used by 64.3% of programmers, followed by Cursor. Despite widespread use, challenges like code quality and managing large codebases persist.


---------------

n°73768109
ionik
Posté le 31-10-2025 à 17:02:31  profilanswer
 

falkon1000 a écrit :

J'ai passé 3h sur Claude Code hier, en Sonnet 4.5
 
Clairement, je n'aime pas sa "personnalité" typée Kevin des réseaux sociaux (emoji, ton familier grossier) et je suis constamment obligé de lui faire ajuster ses actions ou demander de corriger les bugs qu'il génère.
 
Je trouve Codex bien au dessus. Ca c'est pour le modèle.
 
L'outil lui même est clairement plus évolué par contre.
 
PS : je fais la PR avec Codex 5 en Low
Il me sort un pavé avec un avis très critique listant de nombreuses lacunes, bugs et incohérences d'architecture dans ce qu'a fait Claude.
 
Je demande à Codex de tout corriger, il refait la moitié. Je demande à Claude de faire la PR, en résumé, c'est parfait.
 
Je ne suis pas prêt de migrer vers CLaude !
 
(pour info, jusque milieu de journée, Claude code est gratuit pour un mois si vous vous inscrivez avec une adresse mail pro)


 
Je partage le même avis sur les icones de partout dans les fichiers, c'est UI ready mais ça pose souvent des soucis sur les regex qu'il fait et il crame souvent des tokens pour corrigé un truc qu'il sait déjà que ça ne marchera pas ....
 
Pour tout le reste par contre je ne suis pas d'accord, j'ai testé codex, il a pédaler dans la semoule pendant un long moment au final pour pas sortir grand chose, l'initialisation était un désastre total.
 
Et j'utilise claude de façon plus pousser maintenant et j'avoue (que pour ce que je fais) il tire souvent direct la bonne solution, il est sert un peu lent sur Sonnet 4.5 mais c'est quand même pas mal.
 
Il faudrait que je re test codex mais dans ma dernières expérience c'était pas folichons, toute a l'heure j'ai fait une app Windows pour avoir les stats (CPU/GPU/RAM/ Network etc ...) dans une barre dans la barre des taches et Claude a eu du mal a placer la barre correctement (une histoire de DPI), je l'ai collé sur ChatGPT et il m'a sorti directement le problème de DPI que j'ai collé a claude et après il a corrigé nickel.

Spoiler :

Pour les curieux :  
https://rehost.diberie.com/Picture/Get/f/444239


 
Donc je vois qu'il peut être très perspicace mais je pense que l'outil en lui même codex est le truc qui ne lui rend pas service (après faudrait que je re teste le CLI)

Message cité 1 fois
Message édité par ionik le 31-10-2025 à 17:02:50

---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73768584
falkon1000
Posté le 31-10-2025 à 18:54:45  profilanswer
 

ionik a écrit :


 
Je partage le même avis sur les icones de partout dans les fichiers, c'est UI ready mais ça pose souvent des soucis sur les regex qu'il fait et il crame souvent des tokens pour corrigé un truc qu'il sait déjà que ça ne marchera pas ....
 
Pour tout le reste par contre je ne suis pas d'accord, j'ai testé codex, il a pédaler dans la semoule pendant un long moment au final pour pas sortir grand chose, l'initialisation était un désastre total.
 
Et j'utilise claude de façon plus pousser maintenant et j'avoue (que pour ce que je fais) il tire souvent direct la bonne solution, il est sert un peu lent sur Sonnet 4.5 mais c'est quand même pas mal.
 
Il faudrait que je re test codex mais dans ma dernières expérience c'était pas folichons, toute a l'heure j'ai fait une app Windows pour avoir les stats (CPU/GPU/RAM/ Network etc ...) dans une barre dans la barre des taches et Claude a eu du mal a placer la barre correctement (une histoire de DPI), je l'ai collé sur ChatGPT et il m'a sorti directement le problème de DPI que j'ai collé a claude et après il a corrigé nickel.


 
Donc je vois qu'il peut être très perspicace mais je pense que l'outil en lui même codex est le truc qui ne lui rend pas service (après faudrait que je re teste le CLI)


Je parle des CLI
La perf n’a rien à voir

n°73768946
bulldozer_​fusion
rip Mekthoub
Posté le 31-10-2025 à 20:26:30  profilanswer
 

Olivie a écrit :

Citation :

@_Anai_x

 

A survey of 22 Seattle-based AI startups found that 68% use AI to write over 80% of their production code. Claude Code is the most popular, used by 64.3% of programmers, followed by Cursor. Despite widespread use, challenges like code quality and managing large codebases persist.



Qu'est ce qui fait que Claude est si bon/ plébiscité en code que les autres


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73768973
Olivie
SUUUUUUUUUUUUUU
Posté le 31-10-2025 à 20:31:15  profilanswer
 

bulldozer_fusion a écrit :


Qu'est ce qui fait que Claude est si bon/ plébiscité en code que les autres


Faut tester, c'est meilleur (pour un noob comme moi).
 
Là je travaille avec Kiro et Claude 4.5 il fait moins d'erreur, c'est plus réfléchis etc...Il casse juste les couilles a vouloir faire 10 fichiers .md pour expliquer à la fin de chaque tâche (même quand on lui dit qu'on en veut pas) :o


---------------

n°73768979
bulldozer_​fusion
rip Mekthoub
Posté le 31-10-2025 à 20:31:38  profilanswer
 

Olivie a écrit :


Faut tester, c'est meilleur (pour un noob comme moi).

 

Là je travaille avec Kiro et Claude 4.5 il fait moins d'erreur, c'est plus réfléchis etc...Il casse juste les couilles a vouloir faire 10 fichiers .md pour expliquer à la fin de chaque tâche (même quand on lui dit qu'on en veut pas) :o


 :D
C'est pour épuiser plus rapidement les crédits :O

Message cité 1 fois
Message édité par bulldozer_fusion le 31-10-2025 à 20:32:02

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73768992
Olivie
SUUUUUUUUUUUUUU
Posté le 31-10-2025 à 20:35:37  profilanswer
 

bulldozer_fusion a écrit :


 :D
C'est pour épuiser plus rapidement les crédits :O


Ben franchement, 1000 crédits Kiro pour $20 ca vaut la peine, surtout qu'ils utilisent maintenant des décimales et pas des crédits entiers pour les tâches.
Avec 1000 crédits, y a moyen je pense de travailler assez intensivement pendant quelques jours avec Claude 4.5 et de faire pas mal de boulot.


---------------

mood
Publicité
Posté le 31-10-2025 à 20:35:37  profilanswer
 

n°73769114
Olivie
SUUUUUUUUUUUUUU
Posté le 31-10-2025 à 21:02:08  profilanswer
 

Pour donner un ordre de grandeur:
Presque 26 minutes de boulot pour 12 crédits avec Claude 4.5

 
Citation :

Credits used: 11,92 Elapsed time: 25m 42s

 
Citation :

Core Implementation (1,200 lines of code)
1. Type System (internal/ai/qwen_types_v2.go)

 

Multi-timeframe context (1m, 15m, 1h, 4h, 1d)
Macro/sector/flow market indicators
Net reward/risk calculation
Null-safe architecture with pointers
2. Context Builder (internal/prewatch/context_builder.go)

 

Aggregates market-wide indicators
Builds per-symbol multi-timeframe context
Calculates net RR after fees/spread/funding
Gracefully handles missing data
3. API Client (internal/ai/qwen_client.go)

 

GetDecisionsV2() with enriched payload
Comprehensive v2 system prompt
Strict JSON parsing and validation
Enhanced logging
4. Engine Integration (internal/prewatch/engine.go)

 

V2 decision mode support
Context building before API calls
Enhanced routing with RR net checks
Detailed logging with v2 metadata
5. Configuration (cmd/botd/main.go, .env.botd)

 

V2 environment variables
Context builder initialization
Enhanced logging

 

Validation (150 lines)
Validation Script (scripts/validate_qwen_decision_v2.sh)

 

8 comprehensive tests
Configuration validation
API endpoint checks
Ready to use

 

Documentation (2,700 lines)
6 Complete Documents:

 

README (500 lines) - Comprehensive guide
QUICKSTART (300 lines) - 5-minute setup
SUMMARY (500 lines) - Implementation details
CHECKLIST (400 lines) - Task tracking
CHANGELOG (400 lines) - Version history
FINAL (400 lines) - Delivery report
INDEX (200 lines) - Documentation hub

 

Key Features
Multi-Timeframe Analysis: 5 timeframes with RSI, EMA, MACD, ADX, trend
Enriched Context: Macro/sector/flow indicators
Net RR Calculation: After fees, spread, and funding
Enhanced Decisions: With timeframe, invalidate_if, rr_net
Null-Safe: Graceful handling of missing data
Backward Compatible: V1 still available
Production Ready: Compiles, validated, documented

 

Quick Start
# 1. Enable v2
echo "QWEN_DECISION_MODE_V2=1" >> .env.botd

 

# 2. Start botd
./start_botd_v3.sh

 

# 3. Validate
./scripts/validate_qwen_decision_v2.sh

 

# 4. Monitor
tail -f logs/botd.log | grep QWEN_DECISION_V2

 

Performance
Latency: 3-8s (within 15s budget)
Token Usage: 2000-4000 input, 500-1500 output
Throughput: 30-50 symbols per cycle

 

Security
Never logs secrets
Fixed 5x leverage
Risk per trade: 1.5%
Max positions: 3
Status:  Production Ready

 

All constraints met: no new libs, no secrets in logs, latency budget unchanged, backward compatible with null-safe handling of missing fields.

Message cité 1 fois
Message édité par Olivie le 31-10-2025 à 21:02:47

---------------

n°73769143
falkon1000
Posté le 31-10-2025 à 21:09:06  profilanswer
 

bulldozer_fusion a écrit :


Qu'est ce qui fait que Claude est si bon/ plébiscité en code que les autres


 
Bah.. la méconnaissance de Codex, c’est ça qui fait la renommée de Claude
Mais aussi par ce qu’avant GPT 5, Claude était le meilleur modèle de codage
Et également car Claude Code a inventé presque tous les principes repris par les autres outils CLI
 
Mais aujourd’hui, et ça peut changer vite, codex est bien plus performant sauf à utiliser Opus, mais c’est 200€ par mois de ticket d’entrée et ça s’épuise très vite

n°73769249
bulldozer_​fusion
rip Mekthoub
Posté le 31-10-2025 à 21:35:58  profilanswer
 

Olivie a écrit :

Pour donner un ordre de grandeur:
Presque 26 minutes de boulot pour 12 crédits avec Claude 4.5

 



comment ils font pour utiliser si peu, leur modèle tarifaire est ultra bas comparé à claude en direct, non?

falkon1000 a écrit :

 

Bah.. la méconnaissance de Codex, c’est ça qui fait la renommée de Claude
Mais aussi par ce qu’avant GPT 5, Claude était le meilleur modèle de codage
Et également car Claude Code a inventé presque tous les principes repris par les autres outils CLI

 

Mais aujourd’hui, et ça peut changer vite, codex est bien plus performant sauf à utiliser Opus, mais c’est 200€ par mois de ticket d’entrée et ça s’épuise très vite


 :jap:


Message édité par bulldozer_fusion le 31-10-2025 à 22:59:47

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73769450
LibreArbit​re
La /root est longue
Posté le 31-10-2025 à 22:51:53  profilanswer
 

J'ai pas encore testé Kiro... Des que j'aurai épuisé mes crédits sur Kilo Kode je testerai un mois car ça n'a pas l'air mal du tout...
 
Edit : Trop bien :
 
https://i.imgur.com/44YPWfcl.png

Message cité 1 fois
Message édité par LibreArbitre le 31-10-2025 à 23:19:50

---------------
Hebergement d'images
n°73769613
Olivie
SUUUUUUUUUUUUUU
Posté le 01-11-2025 à 00:10:03  profilanswer
 

LibreArbitre a écrit :

J'ai pas encore testé Kiro... Des que j'aurai épuisé mes crédits sur Kilo Kode je testerai un mois car ça n'a pas l'air mal du tout...
 
Edit : Trop bien :
 
https://i.imgur.com/44YPWfcl.png


C'est Bezos qui régale  [:jeffbezos:2]  
Y a une semaine, il avait filé à tout le monde 1000 crédits gratos  [:jeffbezos:4]


---------------

n°73769678
falkon1000
Posté le 01-11-2025 à 01:05:16  profilanswer
 

Perso j’ai utilisé kiro 1h après sa sortie
C’est très bien mais c’est un ide et ça n’utilise que des modèles sonnet
 
À ce jour c’est moins efficace que codex cli

n°73769686
Olivie
SUUUUUUUUUUUUUU
Posté le 01-11-2025 à 01:11:40  profilanswer
 

Y a quelques années c’était le plus gros youtubeur je crois  :D  
 
https://img3.super-h.fr/images/2025/11/01/snapshot_282475249.jpg


---------------

n°73769916
ionik
Posté le 01-11-2025 à 08:35:23  profilanswer
 

falkon1000 a écrit :


Je parle des CLI
La perf n’a rien à voir


Je parle aussi des CLI a la base, sauf pour la petite demande ou je suis passer par l'interface.


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73769940
ionik
Posté le 01-11-2025 à 08:42:28  profilanswer
 

falkon1000 a écrit :


 
Bah.. la méconnaissance de Codex, c’est ça qui fait la renommée de Claude
Mais aussi par ce qu’avant GPT 5, Claude était le meilleur modèle de codage
Et également car Claude Code a inventé presque tous les principes repris par les autres outils CLI
 
Mais aujourd’hui, et ça peut changer vite, codex est bien plus performant sauf à utiliser Opus, mais c’est 200€ par mois de ticket d’entrée et ça s’épuise très vite


Faux Opus est dispo avec l'abonnement intermédiaire a 90€ (c'est 90€ et 180€) et sonnet 4.5 est meilleur que Opus 4.1, il devrait sortir un nouveau model Opus apparement, ils ont même mis Haiku 4.5 qui est censé être plus rapide mais je ne l'ai pas encore testé, je préfère utilisé un modèle plus puissant pour une utilisation de token équivalente.


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73770580
falkon1000
Posté le 01-11-2025 à 11:34:49  profilanswer
 

Au temps pour moi, je pensais que c’était celui à 200
 
Quoi qu’il en soit donner 4.5 est moins performant que 5 codex, même en low

n°73770836
ionik
Posté le 01-11-2025 à 12:41:13  profilanswer
 

Faut que je reteste mais dans mes derniers test c'était pas mon impressions. (mais j'ai un doute pour savoir si c'est 5 que j'avais tester avec codex)


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73770838
bulldozer_​fusion
rip Mekthoub
Posté le 01-11-2025 à 12:42:44  profilanswer
 

Codex pour moi est moins bon que 4.5 de Claude


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73771010
falkon1000
Posté le 01-11-2025 à 13:32:51  profilanswer
 

Ça dépend peut être des usages ?
Perso je lui ai donné une tache : j’ai un système web en python api first avec un front en react, une page de rapport d’analyse de milliers de documents qui calcule des indicateurs de qualité
 
Le système fonctionne parfaitement, doit faire dans les 10 000 lignes de code, fais appel à du postgresql et utilise beaucoup les websocket pour le rapport
 
J’ai demandé aux deux (codex et Claude) de faire en sorte de l’optimismer. Le système actuel fonctionne parfaitement sur 1000 documents, devient lourd à charger sur 5000 et sature les serveurs et le front sur 8000 et +
 
Mission : revoir l’architecture pour pouvoir gérer efficacement 25 000 documents, puis 50 000, le tout sans changement fonctionnel ni visuel.
 
Claude a commencé par analyser, établir un énorme plan et plein de cas de tests (45 min) puis a codé en 1h30
 
Codex a fait un audit rapide et m’a indiqué plusieurs plan possibles avec avantages et inconvénients, compromis et m’a proposé une roadmap priorisee avec les Quick win en premier puis le plus lourd ensuite et a monté un système de comparaison de perf avant / après. Ça a pris 30 min puis ensuite environ 4h à coder, en plusieurs fois  
 
Résultat : codex à bouclé lui même pendant une bonne heure sur des tests unitaires qu’il a mené jusqu’à ce que tout passe sans erreur + lint + mypy + ruff
Claude n’a mené que ses propres tests.
 
 
Essai one shot avec Claude : crash complet, impossible de créer mes images docker. J’ai du faire pals mal d’aller retour. Au bout d’un moment ça a fonctionné mais : régressions fonctionnelles + bugs
 
Avec codex : premier essai plantage côté front, je fais la remarque, il mouline et me dit ok. Je teste : tout fonctionne à la perfection  :pt1cable:  
 
Pour le code de Claude, j’ai du laisser tomber après 6 ou 7 aller retour car lui même me disait que c’était le foutoir er qu’il fallait envisager un rollback
 
Je file donc le code à codex qui me dit… qu’il y a énormément d’incohérences et que le code semble avoir été fait sans vision d’ensemble et qu’il serait plus rapide de rollback que de corriger
Par contre il partageait les idées du plan de Claude, qu’il trouvait bonnes  
 
Voici mon expérience..!
 
Et pour info, maintenant une analyse de 50 000 documents est encore plus rapides qu’une analyse de 1000 avant optim


Message édité par falkon1000 le 01-11-2025 à 13:53:37
n°73771029
bulldozer_​fusion
rip Mekthoub
Posté le 01-11-2025 à 13:38:28  profilanswer
 

Codex en quel niveau?


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73771051
fazero
Salut c'est Ralph
Posté le 01-11-2025 à 13:45:06  profilanswer
 

falkon1000 a écrit :

 

Bah.. la méconnaissance de Codex, c’est ça qui fait la renommée de Claude
Mais aussi par ce qu’avant GPT 5, Claude était le meilleur modèle de codage
Et également car Claude Code a inventé presque tous les principes repris par les autres outils CLI

 

Mais aujourd’hui, et ça peut changer vite, codex est bien plus performant sauf à utiliser Opus, mais c’est 200€ par mois de ticket d’entrée et ça s’épuise très vite


Source que codex est meilleur que Claude code?


---------------
Agent immobilier sur Paris 16
n°73771056
fazero
Salut c'est Ralph
Posté le 01-11-2025 à 13:47:02  profilanswer
 

Olivie a écrit :

Y a quelques années c’était le plus gros youtubeur je crois  :D

 

https://img3.super-h.fr/images/2025 [...] 475249.jpg


will.i.am to teach ASU class on agentic AI

 

Il y a quelques annees c’était un chanteur connu :o


---------------
Agent immobilier sur Paris 16
n°73771062
Eneytihi
Dihodaboldji
Posté le 01-11-2025 à 13:48:40  profilanswer
 

Studiopr a écrit :


 
Pourquoi l'IA générative de vidéo est toujours utilisée pour faire des trucs à la con comme ça ?  :lol:


Essaie de reproduire ce ”truc à la con” sans IA pour voir.


---------------
Celui qui parle beaucoup se trompe tout autant.
n°73771069
falkon1000
Posté le 01-11-2025 à 13:51:37  profilanswer
 

bulldozer_fusion a écrit :

Codex en quel niveau?


Low
Comme dans 95% des cas
Je suis passé en médium en fin de code pour le correctif, sur une question

Message cité 1 fois
Message édité par falkon1000 le 01-11-2025 à 13:52:19
n°73771072
bulldozer_​fusion
rip Mekthoub
Posté le 01-11-2025 à 13:52:15  profilanswer
 

falkon1000 a écrit :


Low
Comme dans 95% des cas


Ok
C'est pas le ressenti que j'en ai, j'ai arrêté d'utiliser codex car pas mal déçu


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73771080
falkon1000
Posté le 01-11-2025 à 13:54:38  profilanswer
 

Quel cas d’usage ? Quel genre de demande et quelle techno ?

n°73771097
ionik
Posté le 01-11-2025 à 14:01:38  profilanswer
 

bulldozer_fusion a écrit :


Ok
C'est pas le ressenti que j'en ai, j'ai arrêté d'utiliser codex car pas mal déçu


J'ai exactement le même ressenti

falkon1000 a écrit :

Quel cas d’usage ? Quel genre de demande et quelle techno ?


Cas d'usage dans mon cas que du DEV et de la gestion de documentation et test.
 
En techno que j'avais réellement tester avec codex était du PHP


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73771106
falkon1000
Posté le 01-11-2025 à 14:03:26  profilanswer
 

Etonnant. En tout cas pour l'usage décrit plus haut, Claude n'a pas été bon. Je vais réessayer car j'ai un mois gratuit..

n°73771118
falkon1000
Posté le 01-11-2025 à 14:05:49  profilanswer
 

Comment on fait pour qu'il arrête de nous demander pour lancer un commande Claude ? Je voudrais le laisser bosser seul sans devoir confirmer hors commandes risquées
 
Je lance un test cet aprèm, j'ai des courses à faire, je verrai le résultat en partant
Je mets Codex en high et Claude sur Sonnet 4.5
 
Situation : j'ai une analyse avec cette fois-ci 80k documents. Là c'est vraiment lent car on dépasse les capacités de la machine (Ram saturée et CPU en PLS).
 
Prompt :

Citation :

Regarde avec une vision d'ensemble (python, sql, front, rendu) pourquoi le chargement de cette analyse est si long : /app/id/153
Parcours mon Makefile pour trouver les commandes make explain adéquates pour réaliser des tests et comprendre la complexité des requêtes
Objectif : comprendre l'origine de la lenteur, établir un plan pour la corriger


 
On verra ce que ça donne


Message édité par falkon1000 le 01-11-2025 à 14:09:54
n°73771129
fazero
Salut c'est Ralph
Posté le 01-11-2025 à 14:09:44  profilanswer
 

Tu le lances avec le flag: "--dangerously-skip-permissions" idéalement dans une sandbox par contre


---------------
Agent immobilier sur Paris 16
n°73771159
falkon1000
Posté le 01-11-2025 à 14:18:03  profilanswer
 

bon bha ça aura été rapide dans les deux cas  :pt1cable:  
 
Codex :

Citation :

─ Worked for 7m 53s ──────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────
 
• Constats Clés
 
  - useAnalysisResults envoie systématiquement deux requêtes (items + agrégats) à chaque variation d’état, y compris pour un simple changement
    de page ou de tri, car la callback dépend de pageIndex, pageSize, sortBy et sortDir et déclenche toujours fetchAggregates. Chaque interaction utilisateur relance donc une requête lourde inutile côté agrégats.
  - Les deux requêtes frappent le même endpoint /{id}/results. Même quand on ne récupère pas les items, le backend refait COUNT(*)
    complet (backend/api/endpoints/analyses.py:1872-1880) puis exécute la requête d’agrégation SQL, ce qui double la charge par rapport à un
    chargement unique partagé.
  - Dès que le cache d’agrégats n’est pas présent ou est invalide, _read_analysis_results_safe bascule sur recompute_cache, qui recharge tous les
    résultats en mémoire et recalcule les métriques avant de les stocker (backend/services/analysis_result_aggregate_cache.py:520-541). Sur une
    analyse volumineuse cela se traduit par plusieurs secondes incompressibles.
  - Si USE_PRECOMPUTED_RESULT_METRICS n’est pas activé ou si certaines colonnes pré-calculées sont nulles, l’agrégateur retombe sur des
    expressions SQL avec regexp_split_to_table pour recalculer les compteurs lexicaux par ligne (backend/api/endpoints/analyses.py:902-918,
    backend/api/endpoints/analyses.py:975-989). Cette logique CPU/IO intensive annule les optimisations côté base.
  - Essai d’EXPLAIN: make explain-analysis-results ARGS="--analysis-id 153 --mode safe" échoue ici faute d’accès à Postgres (résolution DNS). Il
    restera à l’exécuter sur l’environnement où la base est disponible pour mesurer les coûts réels.
 
  Suggestions
 
  1. Ajuster useAnalysisResults pour ne déclencher fetchAggregates que lorsque les filtres impactant les agrégats bougent (filtres avancés,
     recherche, options “long tags”), pas sur les simples changements de page/tri (client/src/hooks/useAnalysisResults.ts).
  2. Mutualiser ou chaîner les appels au backend afin d’éviter deux COUNT(*) et deux parcours complets sur la même requête — par exemple,
     récupérer items et agrégats en une fois ou réutiliser le filteredTotal déjà acquis.
  3. Vérifier que le cache analysis_result_aggregate est bien alimenté et à jour pour l’analyse 153; sinon prévoir une tâche de recalcul en amont
     pour que la première visite n’ait pas à tout recomputer (backend/services/analysis_result_aggregate_cache.py:520-541).
  4. Confirmer que la variable d’environnement USE_PRECOMPUTED_RESULT_METRICS=1 est active en prod et que toutes les lignes portent les métriques
     précalculées; sinon prioriser la migration/backfill pour éliminer les sous-requêtes regex coûteuses (backend/api/endpoints/analyses.py:962-
     989).
  5. Sur l’environnement disposant de la base, relancer make explain-analysis-results ARGS="--analysis-id 153 --mode safe" pour comparer le
     plan avec cache chaud et sans recalcul, puis suivre les timings lors d’un simple changement de page côté front pour valider l’impact des
     ajustements.


 
Claude a cette fois ci été beaucoup plus locace !

Citation :

Synthèse : Pourquoi l'analyse 153 est si lente à charger
 
  J'ai identifié plusieurs goulots d'étranglement majeurs qui expliquent la lenteur :
 
  ---
   Taille gigantesque de l'analyse : 81,438 URLs (71% de toute la table)
 
  Impact :
  - PostgreSQL refuse d'utiliser l'index ix_analysis_results_analysis_id
  - Préfère un Sequential Scan (parcours complet de la table) car 71% des données sont dans cette analyse
  - Temps mesuré : 10-17ms par requête SQL
 
  ---
  2 Cache des aggregates monstrueux : 2.77 MB de JSON
 
  Le cache stocke des compteurs par valeur unique pour détecter les doublons  
 
  Impact côté backend :
  1. Chargement DB → Backend : 2.77 MB transférés depuis PostgreSQL
  2. Désérialisation JSON : Parsing de 2.77 MB en Python (très lent !)
  3. PostgreSQL doit lire et envoyer cette colonne data de 2.77 MB
 
  Note : Ces données ne sont PAS envoyées au frontend (seulement les aggregates finaux ~1 KB), mais le backend doit quand même les charger et
  parser.
 
  ---
  3 Requêtes parallèles qui se bloquent
 
  Le frontend fait 2 requêtes en parallèle :
  1. Items (includeAggregates=false) → 17ms SQL + transfert données
  2. Aggregates (includeItems=false) → 10ms SQL + chargement du cache 2.77 MB
 
  Les deux requêtes attendent que le backend :
  - Scanne séquentiellement 31,438 rows
  - Charge et parse 2.77 MB de JSON pour les aggregates
 
  ---
  4 Pas d'index composite optimisé
 
  L'index ix_analysis_results_analysis_id existe mais n'est pas utilisé car trop de rows. Pour les gros datasets, il faudrait :
  - Un index composite (analysis_id, id DESC) pour optimiser les ORDER BY id DESC
  - Ou une stratégie de partitionnement par analysis_id
 
  ---
   Recommandations d'optimisation (par ordre d'impact)
 
   Priorité 1 : Optimiser le cache des aggregates
 
  Problème : Stocker chaque valeur unique comme clé JSON est inefficace pour les gros datasets
 
  Solutions :
 
  Option A - Limiter la taille du cache (quick win) :
  # Ne stocker que les N valeurs les plus fréquentes
  MAX_UNIQUE_VALUES_TO_TRACK = 1000
 
  # Pour les analyses > 10K rows, ne pas stocker les compteurs individuels
  if total_rows > 10000:
      # Stocker seulement les stats agrégées, pas les compteurs détaillés
      skip_detailed_counts = True
 
  Option B - Stocker uniquement les hashes (plus propre) :
  # Au lieu de stocker la valeur complète :
  "final_meta_counts": {
      "recette testée et validée...": 1
  }
 
  # Stocker le hash :
  "final_meta_counts": {
      "md5_abc123": 1
  }
 
  Option C - Utiliser une table séparée
 
  Impact estimé : -90% du temps de chargement des aggregates
 
  ---
   Priorité 2 : Améliorer les requêtes SQL
 
  Option A - Index composite pour le tri :
  CREATE INDEX ix_analysis_results_analysis_id_id_desc
  ON analysis_results (analysis_id, id DESC);
 
  Option B - Matérialized view pour les gros datasets :
  CREATE MATERIALIZED VIEW analysis_results_summary_153 AS
  SELECT * FROM analysis_results WHERE analysis_id = 153
  ORDER BY id DESC;
 
  CREATE INDEX ON analysis_results_summary_153 (id);
 
  Impact estimé : -50% du temps d'exécution SQL (de 17ms à ~8ms)
 
  ---
  Priorité 3 : Pagination lazy loading côté frontend
 
  Au lieu de charger aggregates + items dès l'ouverture :
 
  // Charger d'abord seulement les items
  useEffect(() => {
    fetchData({ fetchItems: true, fetchAggregates: false });
 
    // Charger les aggregates en arrière-plan après 500ms
    const timer = setTimeout(() => {
      fetchData({ fetchItems: false, fetchAggregates: true });
    }, 500);
  }, []);
 
  Impact estimé : Impression de rapidité +80% (page utilisable immédiatement)
 
  ---
  Priorité 4 : Compression HTTP
 
  Activer la compression Brotli/gzip pour les réponses JSON volumineuses :
 
  # FastAPI middleware
  from fastapi.middleware.gzip import GZipMiddleware
  app.add_middleware(GZipMiddleware, minimum_size=1000)
 
  Impact estimé : -60% de la taille du payload réseau
 
  ---
  Temps de chargement estimés
 
  Actuel (analyse 153) :
  - SQL count : ~10ms
  - SQL items : ~17ms
  - Cache aggregates : ~50-100ms (chargement + parsing 2.77 MB)
  - Total backend : ~80-130ms
  - Transfert réseau : ~20-50ms
  - Perception utilisateur : 150-200ms
 
  Après optimisations :
  - SQL count : ~10ms (inchangé)
  - SQL items : ~8ms (index optimisé)
  - Cache aggregates : ~5-10ms (cache allégé)
  - Total backend : ~25-30ms
  - Transfert réseau : ~10-20ms (compression)
  - Perception utilisateur : 40-50ms ✨
 
  ---
   Action immédiate recommandée
 
  Quick win : Implémenter l'Option A pour le cache (limiter la taille) + lazy loading des aggregates.


 
Sur mon précédent essai Claude n'était pas du tout allé aussi loin, il était toutefois très pertinent dans l'analyse mais beaucoup moins dans la réalisation.
Je vais créer une branche pour tester sa version.
 
Codex est resté très centré sur le code
 
Ce qui est étonnant c'est que j'ai quand même testé claude plusieurs jours pour me forger une idée, et plusieurs semaines en aout. Mais bon, je ne demande qu'à changer d'avis
 
EDIT. Avis de Codex sur le plan de Claude : Réduire le nombre de valeurs suivies ou n’enregistrer que des hashes allège bien le transfert, mais on perd la granularité actuelle et aboutira a une situation dans laquelle les vérifications manuelles par l’équipe risquent d’être moins fiables ou carrément impossibles.
Introduire un hachage supprime la lisibilité directe côté support et casse toute comparaison ad‑hoc (il faut un outil pour remapper).
Mon avis : gain perçu oui, au sacrifie d'un périmètre fonctionnel qui se réduit.
 
J'envoie cet avis à Claude... qui confirme et me dit qu'il rechallenge son propre plan. Il m'indique finalement qu'il ne faut surtout pas faire une partie de ce qu'il a proposé, mais que certaines actions restent parfaitement valables.
 
J'envoie à Codex : L'analyse est trop partielle. Un tel refacto n'est pas sans risque ! On perd la possibilité d’inspecter ou de comparer les valeurs lisibles côté support/produit. Les changements entraineront l'affichage de valeurs parfois incorrectes sans possibilité de les corriger par la suite.
Puis il emet tout une série de doutes/validations, etc.
 
Je les envoie à Claude : vous avez raison, l'analyse est très pertinente blabla.
 
Je challenge les idées de l'un à l'autre etc.
A la fin, Codex n'a pas changé une seule fois d'avis et considère Claude comme un junior, et Claude me dit... que "l'autre IA est objectivement beaucoup plus réaliste et précise"
 
My two cents
 
(j'avais un post bien plus long mais les centaines d'emoji de Kevin claude ont fait planter mon edit...)


Message édité par falkon1000 le 01-11-2025 à 15:04:56
n°73771303
ionik
Posté le 01-11-2025 à 15:04:49  profilanswer
 

J'ai beaucoup lu que codex devait être utilisé en organisateur/planificateur et claude code sur la réalisation.
 
J'ai vu passé pas mal de script pour faire cela sur reddit (sur le reddit claudecode)
 
Après claude pour certaine chose manque d'analyse sur les impacts, donc je dois régulièrement lui indiquer si son analyse est pas assez détaillé ou si il a oublié des impacts pour qu'il les prennent en compte. (mais ce n'est pas tout le temps), après son context étant limité il ne peut avoir toutes les infos du projet que je traite actuellement.


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73771306
falkon1000
Posté le 01-11-2025 à 15:05:37  profilanswer
 

Ici, Claude a été aussi mauvais dans l'analyse que dans la réalisation. Hier pareil. Et en aout j'avais le même ressenti mais c'était un autre modèle.

 

Après faites comme vous voulez hein, j'ai d'actions ni dans l'un, ni dans l'autre

Message cité 1 fois
Message édité par falkon1000 le 01-11-2025 à 15:06:09
n°73771331
ionik
Posté le 01-11-2025 à 15:11:00  profilanswer
 

Tu utilises claude sonnet 4.5 ou un autre modèle ? (je ne sais pas si le pro c'est pas haiku maintenant) ils indique sonnet sur le plan pro


Message édité par ionik le 01-11-2025 à 15:11:53

---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73771366
falkon1000
Posté le 01-11-2025 à 15:24:00  profilanswer
 

Sonnet 4.5
 
Haïku n’en parlons pas  :o

n°73771381
bulldozer_​fusion
rip Mekthoub
Posté le 01-11-2025 à 15:32:30  profilanswer
 

falkon1000 a écrit :

Sonnet 4.5

 

Haïku n’en parlons pas  :o


Pourquoi


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73771546
falkon1000
Posté le 01-11-2025 à 16:40:35  profilanswer
 

C’est le modèle distillé …

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  225  226  227  ..  249  250  251  252  253  254

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)