Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2083 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  211  212  213  ..  307  308  309  310  311  312
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°73586484
kaloskagat​os
Posté le 26-09-2025 à 09:05:02  profilanswer
 

Reprise du message précédent :

scrumpz a écrit :


Quand j’ai utilisé codex il a directement identifié le fichier powerBI en question, tu peux enregistrer ton projet powerBI en .pbip et rendre l’accès possible aux tables.


OK bon c'est peut-être adapté alors. À voir si les LLM sont suffisamment entraînés pour ce genre de formats, contrairement à des langages plus répandus.

 


Tu peux éventuellement essayer le MCP Context7 pour l'aider à augmenter ses connaissances. Exemple:

 

https://context7.com/websites/learn [...] r_power-bi


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
mood
Publicité
Posté le 26-09-2025 à 09:05:02  profilanswer
 

n°73598202
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 28-09-2025 à 21:57:30  profilanswer
 
n°73598374
starlette2​7
Posté le 28-09-2025 à 22:37:55  profilanswer
 

Hello, au boulot on utilise copilot.
 
Seule problématique que je rencontre c’est qu’après un certain nombre de discussions et d’échanges il me propose de commencer une nouvelle discussion à chaque fois.
 
Et le truc c’est qu’il faut que je reprenne et explique une seconde fois tout l’historique (perte de temps)
 
Ça vous le fait aussi? C’est un problème de parametrage?  
 
C’est carrément frustrant  :o

n°73598527
falkon1000
Posté le 28-09-2025 à 23:20:30  profilanswer
 
n°73598591
scrumpz
Posté le 28-09-2025 à 23:39:45  profilanswer
 

starlette27 a écrit :

Hello, au boulot on utilise copilot.
 
Seule problématique que je rencontre c’est qu’après un certain nombre de discussions et d’échanges il me propose de commencer une nouvelle discussion à chaque fois.
 
Et le truc c’est qu’il faut que je reprenne et explique une seconde fois tout l’historique (perte de temps)
 
Ça vous le fait aussi? C’est un problème de parametrage?  
 
C’est carrément frustrant  :o


Non c’est normal l’ia via les applications sont limitées si elles n’ont pas de connexions via mcp ou en terminal.
 
Ce que tu peux faire si l’utilisation est limitée, c’est de créer un fichier .md pour expliquer le contexte de ton projet et lui dire les contraintes techniques, et idée etc… et éventuellement lui faire écrire aussi un historique du projet avant la fin de la conversation.
 
Alors c’est très limité et très galère en termes d’utilisation surtout avec copilote qui est une vraie bouse mais ça pourra déjà t’aider à mettre à jour ton projet et le contexte et garder un historique des avancements. Le problème étant et c’est le plus gros c’est que Copilote est limité en nombre de fichiers.
 
Il faut voir avec le service info si l’abonnement peut être acheté si c’est pas le cas.


---------------
-> A vendre matos Hardaware <-
n°73598636
commitstri​pper
Posté le 29-09-2025 à 00:01:03  profilanswer
 

Citation :

Hello, au boulot on utilise copilot.

 

Seule problématique que je rencontre c’est qu’après un certain nombre de discussions et d’échanges il me propose de commencer une nouvelle discussion à chaque fois.

 

Et le truc c’est qu’il faut que je reprenne et explique une seconde fois tout l’historique (perte de temps)

 

Ça vous le fait aussi? C’est un problème de parametrage?

 

C’est carrément frustrant :o

 

Ahah, bienvenue dans le club des « conversations qui s'auto-suicident »

n°73598820
Olivie
SUUUUUUUUUUUUUU
Posté le 29-09-2025 à 07:30:24  profilanswer
 

Citation :

@tetsuoai
Grok 4 Heavy is a version of Grok 4 that uses multiple agents. Instead of relying on just one model, agents work together simultaneously on the same task. After they produce their results, they compare their findings and agree on a final answer.
 
In Humanity's Last Exam, Grok 4 Heavy with tool use scored 44.4%. The system also contributed to ARC-AGI, where Grok 4 was the first model to surpass 10% and achieve 15.9%.
 
Comparison to GPT-5.
 
On HLE: Grok 4 Heavy outperforms GPT-5 High by 44.4% vs. 42%. Base Grok 4 outperforms Base GPT-5, with a 25.4% accuracy rate compared to 25.3%.
 
On ARC-AGI-2: Grok 4 Heavy outperforms GPT-5 High by 15.9% vs. 9.9%, doubling the prior SOTA in visual/spatial reasoning. On easier ARC-AGI-1, Grok ~66.7%, GPT-5 ~65.7%.
 
https://pbs.twimg.com/media/G1_Hu8GaoAAY4Vg?format=jpg&name=small


---------------

n°73599362
XaTriX
Posté le 29-09-2025 à 10:08:40  profilanswer
 

scrumpz a écrit :


Non c’est normal l’ia via les applications sont limitées si elles n’ont pas de connexions via mcp ou en terminal.

 

Ce que tu peux faire si l’utilisation est limitée, c’est de créer un fichier .md pour expliquer le contexte de ton projet et lui dire les contraintes techniques, et idée etc… et éventuellement lui faire écrire aussi un historique du projet avant la fin de la conversation.

 

Alors c’est très limité et très galère en termes d’utilisation surtout avec copilote qui est une vraie bouse mais ça pourra déjà t’aider à mettre à jour ton projet et le contexte et garder un historique des avancements. Le problème étant et c’est le plus gros c’est que Copilote est limité en nombre de fichiers.

 

Il faut voir avec le service info si l’abonnement peut être acheté si c’est pas le cas.


Je pense qu'elle parle de MS Copilot et pas GH Copilot :d


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°73599592
tim-timmy
Posté le 29-09-2025 à 10:52:27  profilanswer
 

starlette27 a écrit :

Hello, au boulot on utilise copilot.
 
Seule problématique que je rencontre c’est qu’après un certain nombre de discussions et d’échanges il me propose de commencer une nouvelle discussion à chaque fois.
 
Et le truc c’est qu’il faut que je reprenne et explique une seconde fois tout l’historique (perte de temps)
 
Ça vous le fait aussi? C’est un problème de parametrage?  
 
C’est carrément frustrant  :o


Les IA partent souvent en sucette plus facilement quand la fenêtre de contexte est remplie (ça dépend du modèle la taille), donc il est souvent recommandé de recommencer des sessions régulièrement pour éviter que ça ne dégénère et perde en précision de réponses (et en rapidité de réponse aussi). Ils ont du mettre en place chez MS des limites pour inciter les utilisateurs à le faire avant que les hallucinations ne pourrissent tout.
En effet une solution est d'avoir un fichier de contexte tout prêt à refiler en début de conversation pour ne pas repartir totalement de 0 et lui expliquer le projet (quitte à le copier coller en prompt si l'IA ne supporte pas les fichiers de contexte). Certains outils gèrent ça nativement en proposant une banque mémoire qui sert à initialiser chaque session

Message cité 1 fois
Message édité par tim-timmy le 29-09-2025 à 10:53:05
n°73601954
scrumpz
Posté le 29-09-2025 à 17:48:49  profilanswer
 

XaTriX a écrit :


Je pense qu'elle parle de MS Copilot et pas GH Copilot :d


Oui j’ai bien conscience que c’est en CLI mais tu peux faire un fichier qui résume ton projet pour le renvoyer à chaque redebut de conversation. Tu gagnes clairement du temps.  
Après c’est sûr et j’ai découvert ça avec vscode ou avec du mcp tu gagnes sacrément du temps.


---------------
-> A vendre matos Hardaware <-
mood
Publicité
Posté le 29-09-2025 à 17:48:49  profilanswer
 

n°73601977
XaTriX
Posté le 29-09-2025 à 17:53:38  profilanswer
 

scrumpz a écrit :


Oui j’ai bien conscience que c’est en CLI mais tu peux faire un fichier qui résume ton projet pour le renvoyer à chaque redebut de conversation. Tu gagnes clairement du temps.
Après c’est sûr et j’ai découvert ça avec vscode ou avec du mcp tu gagnes sacrément du temps.


Non mais sur Windows ya pas ces contextes la :D
A moins que j'ai pas compris son post


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°73602028
scrumpz
Posté le 29-09-2025 à 18:05:05  profilanswer
 

XaTriX a écrit :


Non mais sur Windows ya pas ces contextes la :D
A moins que j'ai pas compris son post


Tu lui demande de faire un fichier json ou .md et l’ia elle va te le créer. Tu le telecharge et tu le remets dans la nouvelle conversation plus tard ou a la suite. Tu gagnes du temps et moins de texte à réécrire


---------------
-> A vendre matos Hardaware <-
n°73602230
XaTriX
Posté le 29-09-2025 à 18:58:00  profilanswer
 

scrumpz a écrit :


Tu lui demande de faire un fichier json ou .md et l’ia elle va te le créer. Tu le telecharge et tu le remets dans la nouvelle conversation plus tard ou a la suite. Tu gagnes du temps et moins de texte à réécrire


 :jap:


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°73602336
Olivie
SUUUUUUUUUUUUUU
Posté le 29-09-2025 à 19:21:54  profilanswer
 

https://pbs.twimg.com/media/G2B75SpWUAAe0tG?format=jpg&name=medium

Message cité 2 fois
Message édité par Olivie le 29-09-2025 à 19:22:07

---------------

n°73602338
Olivie
SUUUUUUUUUUUUUU
Posté le 29-09-2025 à 19:23:29  profilanswer
 

Citation :

@OpenAI
ChatGPT already helps millions of people find what to buy. Now it can help them buy it too.
 
We’re introducing Instant Checkout in ChatGPT with @Etsy and @Shopify, and open-sourcing the Agentic Commerce Protocol that powers it, built with @Stripe, so more merchants and developers can integrate agentic checkout.


Citation :

Instant Checkout is now rolling out to US ChatGPT Pro, Plus and Free logged-in users buying from US Etsy sellers, with over 1 million Shopify merchants coming soon.
 
Merchants interested in joining can learn more and apply here: https://chatgpt.com/merchants


---------------

n°73602375
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 29-09-2025 à 19:34:05  profilanswer
 
n°73602577
kaloskagat​os
Posté le 29-09-2025 à 20:17:30  profilanswer
 

 

Pas mal le 100% en math compétition avec python  :sol:


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73602587
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 29-09-2025 à 20:19:10  profilanswer
 

Citation :

Introducing DeepSeek-V3.2-Exp — our latest experimental model!

 

Built on V3.1-Terminus, it debuts DeepSeek Sparse Attention(DSA) for faster, more efficient training & inference on long context.
Now live on App, Web, and API.
API prices cut by 50%+!


Ça n'arrête pas aujourd'hui


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73602597
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 29-09-2025 à 20:22:11  profilanswer
 

Citation :

With our new Lovable AI, you can add AI functionality to your apps easily. No setup, API keys, or separate billing.

 

Just ask Lovable to add AI capability to your app and it will do it for you.

 

Lovable AI powered by Google Gemini models is free until October 5th for all users !


https://x.com/lovable_dev/status/19 [...] 50391?s=19
Ça donne envie de tester !


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73602914
starlette2​7
Posté le 29-09-2025 à 21:22:46  profilanswer
 

scrumpz a écrit :


Non c’est normal l’ia via les applications sont limitées si elles n’ont pas de connexions via mcp ou en terminal.
 
Ce que tu peux faire si l’utilisation est limitée, c’est de créer un fichier .md pour expliquer le contexte de ton projet et lui dire les contraintes techniques, et idée etc… et éventuellement lui faire écrire aussi un historique du projet avant la fin de la conversation.
 
Alors c’est très limité et très galère en termes d’utilisation surtout avec copilote qui est une vraie bouse mais ça pourra déjà t’aider à mettre à jour ton projet et le contexte et garder un historique des avancements. Le problème étant et c’est le plus gros c’est que Copilote est limité en nombre de fichiers.
 
Il faut voir avec le service info si l’abonnement peut être acheté si c’est pas le cas.


 

tim-timmy a écrit :


Les IA partent souvent en sucette plus facilement quand la fenêtre de contexte est remplie (ça dépend du modèle la taille), donc il est souvent recommandé de recommencer des sessions régulièrement pour éviter que ça ne dégénère et perde en précision de réponses (et en rapidité de réponse aussi). Ils ont du mettre en place chez MS des limites pour inciter les utilisateurs à le faire avant que les hallucinations ne pourrissent tout.
En effet une solution est d'avoir un fichier de contexte tout prêt à refiler en début de conversation pour ne pas repartir totalement de 0 et lui expliquer le projet (quitte à le copier coller en prompt si l'IA ne supporte pas les fichiers de contexte). Certains outils gèrent ça nativement en proposant une banque mémoire qui sert à initialiser chaque session


 
Merci pour les "tips" :jap:  
 
Je vais dorénavant avoir mon Notepad++ sous la main pour garder un historique dans ce cas.   :jap:  
 
Je bosse sur des projets qui m'amènent à lui poser des questions assez souvent, ce sont de véritables échanges que j'ai (et des fois cela génère d'autre questions de ma part au vu de ces réponses)
 
Et quand il commence à prendre du temps à répondre , je sens que qu'il va bientot couper court à la discussion pour repartir sur une nouvelle cession  :pt1cable:

n°73604692
Olivie
SUUUUUUUUUUUUUU
Posté le 30-09-2025 à 10:02:56  profilanswer
 

Des premiers retours que je vois de Claude 4.5 c'est que ce n'est pas une révolution...il semblerait qu'on commence à atteindre un plafond de verre...


---------------

n°73604793
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 30-09-2025 à 10:25:03  profilanswer
 

Olivie a écrit :

Des premiers retours que je vois de Claude 4.5 c'est que ce n'est pas une révolution...il semblerait qu'on commence à atteindre un plafond de verre...


Il faut pas attendre de révolution désormais, on progresse mais on peut pas avoir de révolution tous les jours :O


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73604839
falkon1000
Posté le 30-09-2025 à 10:34:08  profilanswer
 

Olivie a écrit :

Des premiers retours que je vois de Claude 4.5 c'est que ce n'est pas une révolution...il semblerait qu'on commence à atteindre un plafond de verre...


on peut déjà coder des systèmes complexe tout entiers donc même sans évolution on a déjà de quoi redessiner complètement le marché de l'emploi de la tech
Et gemini 3 arrive ;)

n°73610634
falkon1000
Posté le 01-10-2025 à 12:31:12  profilanswer
 

Wow. Depuis la dernière MAJ de Codex CLI ça devient très sérieux.
 
J'ai lancé ce matin un simple prompt de 3 lignes pour demander le développement d'une fonctionnalité complexe qui nécessite de revoir certains endpoints API existants, d'en créer de nouveau, de créer des connexion API avec des outils tiers avec échange de données dans les deux sens, gestion des codes de retour de l'API, des quota, du throttle, file d'attente en cas de concurrence, évolution du front.
 
Codex a codé tout seul pendant... 50 minutes (!) et m'a pondu un truc 100% fonctionnel en one shot  :pt1cable:  
Et il terminé par un Lint, un Mypy, Pytest et Ruff, tout passe crème.
 
Impressionnant.

n°73610730
XaTriX
Posté le 01-10-2025 à 12:51:16  profilanswer
 

falkon1000 a écrit :

Wow. Depuis la dernière MAJ de Codex CLI ça devient très sérieux.

 

J'ai lancé ce matin un simple prompt de 3 lignes pour demander le développement d'une fonctionnalité complexe qui nécessite de revoir certains endpoints API existants, d'en créer de nouveau, de créer des connexion API avec des outils tiers avec échange de données dans les deux sens, gestion des codes de retour de l'API, des quota, du throttle, file d'attente en cas de concurrence, évolution du front.

 

Codex a codé tout seul pendant... 50 minutes (!) et m'a pondu un truc 100% fonctionnel en one shot  :pt1cable:
Et il terminé par un Lint, un Mypy, Pytest et Ruff, tout passe crème.

 

Impressionnant.


Forfait à 200 boules ?


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°73611438
falkon1000
Posté le 01-10-2025 à 14:58:34  profilanswer
 

Forfait à 25 balles HT. Avec Codex CLI non seulement le code est meilleur qu'avec Claude mais en plus pour 20 balles tu as + d'usage que Claude à 200 euros par mois...


Message édité par falkon1000 le 01-10-2025 à 14:58:46
n°73611498
XaTriX
Posté le 01-10-2025 à 15:08:04  profilanswer
 

T'as Claude code en 4.5 ?


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°73611552
falkon1000
Posté le 01-10-2025 à 15:15:23  profilanswer
 

Non j'avais en 4.1
Je me base sur reddit qui dit que 4.5 est très bien mais reste en dessous de Codex

 

Perso avec Codex en mode Light, j'ai 90% des modifs même lourdes qui passent directe en one shot sans bug (ma stack fait 90 000 lignes de code)


Message édité par falkon1000 le 01-10-2025 à 15:16:05
n°73611620
ionik
Posté le 01-10-2025 à 15:25:47  profilanswer
 

J'ai pas du tout le même ressenti sur codex.
 
Leur CLI est très bizarre, longue, ne gère pas les todo, ne fais pas les choses correctement, je l'ai essayé pour 2 taches, j'ai arrêté direct c'était pas pratique.
 
Claude est pour moi largement au dessus (j'ai pas encore tester la 4.5)


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73611643
falkon1000
Posté le 01-10-2025 à 15:30:06  profilanswer
 

Je ne veux pas te convaincre, mais en termes de qualité de modèles, 5 codex est largement au dessus. L'interface est moins bien, mais au final ça fonctionne mieux. Par contre c'est bcp plus long. Mais t'es quasi sur du one shot.
 
En gros, mm demande à CC qu'à Codex : 30 secondes pour claude, 5 min poru codex.
 
Au final CC je dois faire 6 ou 7 aller retour pour un temps supérieur au one shot de codex.
 
J'ai utilisé CC pendant 2 mois et Codex depuis le jour où ils l'ont intégré en CLI dans l'abonnement chatgpt
 
Ce n'est qu'un avis

n°73612299
ionik
Posté le 01-10-2025 à 17:21:50  profilanswer
 

falkon1000 a écrit :

Je ne veux pas te convaincre, mais en termes de qualité de modèles, 5 codex est largement au dessus. L'interface est moins bien, mais au final ça fonctionne mieux. Par contre c'est bcp plus long. Mais t'es quasi sur du one shot.
 
En gros, mm demande à CC qu'à Codex : 30 secondes pour claude, 5 min poru codex.
 
Au final CC je dois faire 6 ou 7 aller retour pour un temps supérieur au one shot de codex.
 
J'ai utilisé CC pendant 2 mois et Codex depuis le jour où ils l'ont intégré en CLI dans l'abonnement chatgpt
 
Ce n'est qu'un avis


Oui j'ai les deux donc je retesterais surement.
 
Sur quelle langage l'as tu utilisé ? (Moi Web avec du PHP)


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73612315
starlette2​7
Posté le 01-10-2025 à 17:23:19  profilanswer
 

Et moi qui galère 1 journée pour un simple kpi sur power bi  :sweat:

n°73612326
falkon1000
Posté le 01-10-2025 à 17:25:10  profilanswer
 

Le roi des langages ! Python
C'est de l'API back first avec un front react/vite, FastAPI
Ca tourne sur un serveur nginx

n°73612335
falkon1000
Posté le 01-10-2025 à 17:28:01  profilanswer
 

Là ça fait 1h20 qu'il mouline sur une demande :
"Ajouter un système d'expiration des crédits des utilisateurs. Le délai d'expiration doit être un des paramètres possibles du Json de définition des contours des plans de tarifaires. Le délai sera en jour. Le délai démarre à la première connexion réussie de l'utilisateur. A expiration la plateforme reste utilisable en lecture seule. Toute action consommatrice de crédits génèrera l'affichage de la modal de droits insuffisants, avec un message conceptualisé."

 

Et je suis sur que j'aurai ce que je veux en un à 3 coups. Ahurissant !
Ensuite il n'y aura plus qu'à itérer un peu sur les besoins métiers : envoyer un email à j-2 pour indiquer la future expiration, un le jour J
Coder le fait que tout achat de crédit prolonge d'autant la totalité de tous les autres
Etc.

 

En une aprem j'aurai ce qu'une équipe de dev aurait mis 3 semaines calendrairers à coder et moi au moins plusieurs jours à concevoir, sans parler de l'aspect front !


Message édité par falkon1000 le 01-10-2025 à 17:30:09
n°73612596
kaloskagat​os
Posté le 01-10-2025 à 18:22:27  profilanswer
 

C'est quand même assez flou comme demande, je vois pas comment tu peux obtenir ce que tu veux avec ce prompt :D

 


Message édité par kaloskagatos le 01-10-2025 à 20:06:26

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73613006
kaloskagat​os
Posté le 01-10-2025 à 20:06:34  profilanswer
 

Edit : je précise car je voulais pas paraître sarcastique. Ce qui me paraît flou c'est la condition du délai qui court à partir de la première connection réussie de l'utilisateur (première depuis l'inscription ? Première après l'achat de crédits ?). Et la notion de "message conceptualisé", c'est conceptuel !

 

Pour ce genre de feature j'ai vraiment tendance à bosser le prompt dans le chat, même rapidement, voire même en vocal, car on voit clairement apparaître les lacunes du premier jet. Je trouve qu'ensuite un agent est hyper puissant pour développer d'énormes features indépendantes, mais corriger un petit truc sans introduire de régression ailleurs c'est chaud, d'où la nécessité de maintenir une doc d'architecture dans le repo et écrire des tests unitaires.


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73613546
falkon1000
Posté le 01-10-2025 à 21:25:24  profilanswer
 

Ah ! Mon Mac a corrigé le mot. C'était "message contextualisé"

 

Ce que mon prompt ne dit pas, c'est que j'ai fait dev par le passé un message par contexte. Et maintenant je n'ai qu'à rappeler que je veux un message contextualisé et paf, il retrouve la logique dans le code, se repère avec les commentaires et fait exactement ce qu'il faut en back comme en front. Il gère les codes de retour 4xx etc. qui sont liés, l'affichage est prévu dans le design system, etc. Derrière il y a une logique costaude et qu'il a totalement pris en compte dans ses développements.

 

Sorti du contexte de la codebase, ce prompt est hyper flou. Avec tout le contexte, l'accès au code, il a su exactement quoi faire.

 

Moi aussi avant (avec de précédents modèles) je passais par ChatGPT pour prévoir de gros prompts.  Maintenant même en utilisant 5 Pro, c'est moins efficace que de juste utiliser Codex.

 

Je suis d'accord qu'il y a des zones d'ombre. Dans mon job par le passé j'écrivais des tonnes de spec. Un dev m'aurait envoyer bouler pour cette demande. Je pense qu'il y a quelques années j'aurais du faire un cahier des charges de 6 ou 10 pages et j'aurais du bosser avec l'Ux design pour la partie front.

 

Là j'ai juste mis ça. 1h25 après, il me pond le truc, avec la migration alembic qui va bien. Je migre, je build. 1 erreur : la migration n'est pas passée. Je lui demande de régler ça. Le problème venait du script de migration qui a été développé par... Claude. Il l'a corrigé, je migre, rebuild et ............ bordel ça marche.

 

Sortie :

Citation :

Change Summary

 

 - Added credit-expiry tracking for users plus a dedicated Alembic migration and propagated the field through backend/TypeScript schemas so every plan can define a validity
  window
  - Enforced expiry bookkeeping on login and during credit checks: the first login seeds the window, subsequent operations fail with a
  plan_limit_reached/ai_credits_expired payload when the window lapses, while legacy accounts without an expiry now self-heal
  - Surfaced ai_credits_validity_days in default plan seeds and the admin JSON editor so ops can configure durations
  - Localised the plan-limit modal to English and gave it an explicit “credits expired” message for read-only state
  - Added regression tests covering credit expiry edge cases and UI copy
  - Kept the marketing copy identical after an accidental edit; only normalized the newline at EOF

 

 New/Updated Tests

 

 - Backend: pytest -q tests/subscription/test_credit_expiry.py
  - Frontend: client/src/__tests__/plan-limit-modal.test.tsx

 

 These now run alongside the existing suites (cd backend && pytest -q, cd backend && mypy ., make client-test).

 

 Ran all tests + Ruff check on backend, all ending with no error.

 

 Alembic Migration

 

 - Required migration: f8791b6d5c7c_add_ai_credit_expiry_to_users.py.


Là où tu as raison, c'est qu'il a fait exactement ce que j'ai demandé : début de la durée de validité à la première connexion. Et c'est ce que je voulais car c'est pour le plan free dont les crédits expirent sous 14 jours.

 

Je n'ai pas encore prévu l'achat de nouveaux crédits. J'adapterai le système à ce moment là.
L'important en codage agentique c'est d'y aller par itération.

 

Je viens de tester pendant 20 min et de relancer la totale des tests back et front... tout marche direct......

 

EDIT : je vois dans la doc qu'il a inscrit ceci :

Citation :

Lors de la première connexion (ou de la première consommation de crédits), l'expiration du crédit est fixée à `maintenant + credit
           s_validity_days`.
    99    +- Une fois la date passée, les analyses et toute consommation de crédits échouent immédiatement avec le code `plan_limit_reached` / `li
           mit = "credits_expired"`.

 

Dingue

 

PS : je viens de voir un gars dire ça sur reddit (en gros, je résume) : incroyable. J'ai lancé une demande d'évol à Claude code sur 4.5.
Il a produit 11 000 lignes de code en one shot

 

Par contre il dit pas si ça marche :D

 

Concernant 5 COdex, l'autre truc ahurissant, c'est qu'il est aussi performant à 0% qu'à 90% d'usage du context window. Au delà ça se dégrade violemment mais c'est le seul modèle que je connaisse qui conserve une telle perf aussi longtemps. Même Gemini 2.5 pro n'y arrive pas

Message cité 1 fois
Message édité par falkon1000 le 01-10-2025 à 21:41:02
n°73614123
kaloskagat​os
Posté le 01-10-2025 à 22:27:35  profilanswer
 

falkon1000 a écrit :


Sorti du contexte de la codebase, ce prompt est hyper flou. Avec tout le contexte, l'accès au code, il a su exactement quoi faire.
 

 

Je suis d'accord que codex a plus de chance de comprendre ton intention que moi en lisant ce forum. D'autant que tu as l'air de parfaitement maîtriser donc je cherchais pas à te donner un conseil mais plutôt à essayer de placer une vanne  :whistle:

 

Moi aussi je fais des prompts un peu pourris parfois, par contre j'ai du mal à le laisser une heure bosser tout seul sans vérifier où il en est. Je comprends parfois que ça va partir dans une direction qui ne me plaît pas et je préfère corriger le tir plutôt que de me dire que j'aurai un truc fonctionnel mais une architecture pas terrible. J'ai quand même halluciné plusieurs de fois en découvrant du code mort, des classes en doubles dans des namespaces différents mais servant à exactement la même chose, des fonctions hyper complexes alors qu'en fait le besoin est ultra simple.

 

Un jour j'ai fait développer à un agent tout un bordel pour gérer du langage naturel en précisant le LLM et l'appel de MCP, genre "demain fais ceci et aussi cela", impliquera deux appels MCP avec la date de "demain" pour "ceci" et "demain" pour "cela" (je schématise). Il me développe tout, je teste avec des cas au hasard que j'invente, ça marche nickel, je regarde le code : aucun appel de LLM, il avait développé tout à base d'heuristiques, géré tout un paquet de cas c'était fou. Ça aurait été génial en 2010 mais là, poubelle. J'imagine que y'a pleins de gens qui doivent pas se rendre compte ce qu'ils vibe codent des fois...

 

Donc c'est pas mal de surveiller, voire de faire des campagne de nettoyage de code, refactorisation, mise à jour de la doc etc. Un peu tout ce qui différencie du vibe coding en fait.

 
falkon1000 a écrit :


Là j'ai juste mis ça. 1h25 après, il me pond le truc, avec la migration alembic qui va bien.

 

Moi aussi je fais des migrations alembic alors que y'a deux mois j'en n'avais jamais entendu parler :D


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73614535
falkon1000
Posté le 01-10-2025 à 23:24:52  profilanswer
 

Tout dépend de comment tu as créer ton logiciel et comment tu t'y prends pour lui demander des correctifs ou évolutions ainsi que du workflow que tu lui imposes.
 
J'ai absolument tout fait en itératif depuis le début et ait imposé des lint, pytest, mypy, ruff à chaque modification. J'ai aussi toute une batterie de tests et un CI via Github Action
 
J'ai aussi imposé des normes de sécurité dès le début aussi
 
Y' a un truc qui marche bien aussi, c'est de lui dire régulièrement que tu vas revendre ton logiciel à une équipe de développeurs expérimentés et ue tu ne veux pas qu'ils puissent critiquer le code. Essaie tu verras il va corriger pas mal de choses

n°73616408
Madadayo
Posté le 02-10-2025 à 12:49:32  profilanswer
 

Est il ok de demander de l'aide pour réaliser un petit projet perso ?  
 
Je regarde un championnat de basket : l'Euroleague.  
https://www.euroleaguebasketball.ne [...] ason=E2025
 
Mon objectif est d'attribuer une note de "divertissement" à chaque match une fois qu'il est terminé pour déterminer s'il vaut le coup d'être regardé ou non.  
Une note sur 10, 0 inintéressant, 10, à regarder absolument.  
 
La note doit dépendre d'une formule mathématique basée sur des indicateurs statistiques de chaque match.  
On prend tous les matchs de la saison dernière, on regarde les moyennes statistiques et on compare.  
En gros, pour être divertissant : petit écart en fin de match, petit écart à la fin du 3ème quart temps, plusieurs changements de leader au score, bon pourcentage de réussite au tir, nombre de pertes de balle pas trop élevé.  
 
Bref, Claude me sort une formule pour établir ma note et utilise l'API du site euroleague pour analyser les stats.  
 
Sauf que les fichiers html proposés par Claude ne fonctionnent pas : soit ça me sort pas de note, soit les scores des matchs affichés ne sont pas les bons.  
 
Fichier html proposé par Claude : https://transfert.free.fr/8BYfWaL  
Sur ce fichier, les scores affichés ne sont pas bons.  
La nouvelle saison d'Euroleague a commencé mardi. Y a déjà eu 10 matchs.  
 
Quelqu'un voudrait bien m'aider ?  [:meganne]  
 

n°73616421
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 02-10-2025 à 12:52:24  profilanswer
 

C'est intéressant comme projet, après je suis pas assez high level pour aider :O


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  211  212  213  ..  307  308  309  310  311  312

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)