Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3011 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  209  210  211  ..  306  307  308  309  310  311
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°73547564
falkon1000
Posté le 18-09-2025 à 22:19:28  profilanswer
 

Reprise du message précédent :

kaloskagatos a écrit :


 
J'ai fait développer une énorme feature a Claude, et j'ai fait faire la review et fix par codex High, franchement très bon combo, ça marche du premier coup (après 1h + 1h de chaque one shot). Merci de m'avoir encouragé à retester, j'aime bien ce combo :D


raccourci : tout faire avec Codex CLI et GPT-5-Codex (le modèle qui, pour moi, les écrase tous)

mood
Publicité
Posté le 18-09-2025 à 22:19:28  profilanswer
 

n°73547919
scrumpz
Posté le 19-09-2025 à 00:17:19  profilanswer
 

kaloskagatos a écrit :


 
J'ai fait développer une énorme feature a Claude, et j'ai fait faire la review et fix par codex High, franchement très bon combo, ça marche du premier coup (après 1h + 1h de chaque one shot). Merci de m'avoir encouragé à retester, j'aime bien ce combo :D


Intéressant  :)  
 
Quel type de feature ?
 
Actuellement je fais du code python embriqué dans du json qui lit et doit écrire sur du fichier Excel via un logiciel. Tu crois que codex peut faire du fine tuning sans tout casser ?
 
Sachant que j’essaie de documenter le fonctionnement du bousin avec un manuel d’utilisation et une faq si erreur il y a.  
Avec Claude j’ai réussi à tout faire fonctionner mais pour avoir essayé de faire la même avec chatgpt5 en High (pas codex) et bien c’était bien la merde car il ne comprenait rien  :o


---------------
-> A vendre matos Hardaware <-
n°73548125
kaloskagat​os
Posté le 19-09-2025 à 06:44:32  profilanswer
 

falkon1000 a écrit :


raccourci : tout faire avec Codex CLI et GPT-5-Codex (le modèle qui, pour moi, les écrase tous)

 

J'ai bien utilisé le mode codex-gpt5-high, effectivement j'ai été bluffé par la qualité du code qu'il a écrit. Mais qu'est-ce qu'il est lent. Et j'ai pas été impressionné par la fonction /init de codex contrairement à Claude qui a bien mieux saisi le contexte.

 


scrumpz a écrit :


Intéressant  :)

 

Quel type de feature ?

 

Actuellement je fais du code python embriqué dans du json qui lit et doit écrire sur du fichier Excel via un logiciel. Tu crois que codex peut faire du fine tuning sans tout casser ?

 

Sachant que j’essaie de documenter le fonctionnement du bousin avec un manuel d’utilisation et une faq si erreur il y a.
Avec Claude j’ai réussi à tout faire fonctionner mais pour avoir essayé de faire la même avec chatgpt5 en High (pas codex) et bien c’était bien la merde car il ne comprenait rien  :o

 

La feature consistait a connecter un client c++ / Qt existant à un serveur FastAPI, créer une ihm de configuration, lui faire négocier la connexion en REST, établir une connexion Web socket, et implémenter le protocole de communication. Tout ça one shot c'était plutôt satisfaisant. Claude en mode plan avait chiffré 5 sprints à 20 jours en tout :D

 

A ta question "sans tout casser ? " la réponse est "tests unitaires".


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73548256
sorg
trop sur HFR depuis 2001
Posté le 19-09-2025 à 08:06:02  profilanswer
 

Y-a-t-il une IA qu'on peut intégrer dans l'IDE pourrie de Visual Basic pour Application de MS Office ?
 
J'ai une grosse macro à retravailler, et c'est pénible de tout faire à partir de copier/coller dans chatgpt ou gemini.

n°73549123
Madadayo
Posté le 19-09-2025 à 10:43:54  profilanswer
 

Hello,

 

J'ai créé une association récemment. On organise un tournoi sportif annuel. C'est vraiment une petite structure. On n'a pas encore de logo.
Vous auriez une IA à me recommander pour créer ce logo et établir une charte graphique pour tous nos supports ?  :??:

Message cité 2 fois
Message édité par Madadayo le 19-09-2025 à 10:44:40
n°73549182
kaloskagat​os
Posté le 19-09-2025 à 10:52:52  profilanswer
 

sorg a écrit :

Y-a-t-il une IA qu'on peut intégrer dans l'IDE pourrie de Visual Basic pour Application de MS Office ?

 

J'ai une grosse macro à retravailler, et c'est pénible de tout faire à partir de copier/coller dans chatgpt ou gemini.

 


Faut prendre le problème à l'envers : est-ce qu'il n'est pas possible d'éditer les macros de tes projets depuis un autre éditeur ?

 

Par exemple VSCode avec une extension ? https://marketplace.visualstudio.co [...] ive-server

 

Y'a peut-être des extensions qui conviendraient à ton cas.

Message cité 2 fois
Message édité par kaloskagatos le 19-09-2025 à 11:05:17

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73549230
crepator4
Deus ex machina
Posté le 19-09-2025 à 11:02:16  profilanswer
 

Madadayo a écrit :

Hello,

 

J'ai créé une association récemment. On organise un tournoi sportif annuel. C'est vraiment une petite structure. On n'a pas encore de logo.
Vous auriez une IA à me recommander pour créer ce logo et établir une charte graphique pour tous nos supports ?  :??:

 

nano banana se debrouille pas mal
https://aistudio.google.com/prompts/new_chat

 

dernier exemple :
https://rehost.diberie.com/Picture/Get/f/433349 moins de  5mn il fait des fautes parfois, mais faut lui demander de les corriger et il corrige

Message cité 2 fois
Message édité par crepator4 le 19-09-2025 à 11:06:57

---------------
...survivre à ses Medecins...
n°73549411
Madadayo
Posté le 19-09-2025 à 11:29:41  profilanswer
 

crepator4 a écrit :


 
nano banana se debrouille pas mal
https://aistudio.google.com/prompts/new_chat
 
dernier exemple :
https://rehost.diberie.com/Picture/Get/f/433349 moins de  5mn il fait des fautes parfois, mais faut lui demander de les corriger et il corrige


Bizarre, je viens de tester avec Firefox et Edge (sous windows 11 à jour) et je rencontre le même souci dans les deux cas. Nano Banana me répond avec un texte expliquant 4 suggestions, mais à chaque fois, je ne vois pas les images suggérées, uniquement le texte. J'ai beau répondre que les images ne sont pas visibles, je ne les vois toujours pas dans la réponse. Ca vient de mon ordi ou bug de l'IA  :??:  
J'ai pas rencontré de problème de visibilité d'images ailleurs.

n°73549460
crepator4
Deus ex machina
Posté le 19-09-2025 à 11:35:26  profilanswer
 

oui, je viens de retester j'ai pareil; y'a 5mn il m'avait sorti des images ...


---------------
...survivre à ses Medecins...
n°73549472
Madadayo
Posté le 19-09-2025 à 11:38:04  profilanswer
 

crepator4 a écrit :

oui, je viens de retester j'ai pareil; y'a 5mn il m'avait sorti des images ...


Ouais, j'ai testé avec les phrases en exemple, "banana costume" et il me sort bien l'image. Il doit être surchargé. J'y reviendrai plus tard.  
Merci bien pour la suggestion  [:the bloodhound gang]

mood
Publicité
Posté le 19-09-2025 à 11:38:04  profilanswer
 

n°73549637
sorg
trop sur HFR depuis 2001
Posté le 19-09-2025 à 12:00:49  profilanswer
 

kaloskagatos a écrit :


 
 
Faut prendre le problème à l'envers : est-ce qu'il n'est pas possible d'éditer les macros de tes projets depuis un autre éditeur ?
 
Par exemple VSCode avec une extension ? https://marketplace.visualstudio.co [...] ive-server
 
Y'a peut-être des extensions qui conviendraient à ton cas.


J'ai jamais réussi à faire fonctionner xvba . Le site officiel xvba.dev semble mort, et j'ai l'impression que cette extension n'est plus maintenue. (Dernière MAJ en Aout 2023).

n°73549652
Agile Tool​kit
Posté le 19-09-2025 à 12:03:17  profilanswer
 

Madadayo a écrit :

Hello,
 
J'ai créé une association récemment. On organise un tournoi sportif annuel. C'est vraiment une petite structure. On n'a pas encore de logo.  
Vous auriez une IA à me recommander pour créer ce logo et établir une charte graphique pour tous nos supports ?  :??:


 
Hello, mon retour d'expérience, j'ai créé deux logos très rapidement avec ChatGPT 4 :

  • Le logo de ma chaîne Youtube : https://img.super-h.fr/images/2025/09/19/038fe0704d2f26a92c6c5d7a51cb713d.th.png
  • Le logo pour un club de Cinéma dont je fais partie : https://img.super-h.fr/images/2025/09/19/991b66d54ab6f41690ecf2549936cdb8.th.png


Le premier j'ai obtenu une image et ensuite il a été vectorisé "à la main" par quelqu'un dans Inkscape (pas super facile si on connait pas le logiciel)
Le deuxième je l'ai vectorisé moi même en le mettant dans un outil en ligne de vectorisation (gratuit, j'ai oublié lequel j'ai utilisé, il y en a plein). Pour le deuxième ça m'a pris très peu de temps, mois d'une heure au total.
 
La vectorisation est importante pour pouvoir créer le logo dans toutes les tailles ou changer le fond (noir ou blanc, mettre un halo etc)
 
Je suis nul en artistique, mais de mon point de vue, ça fait le job et c'était rapide :)
 
Pour la charte graphique en général, aucune idée j'ai jamais fait

n°73550149
ezzz
23
Posté le 19-09-2025 à 13:49:41  profilanswer
 

Il est tout bugué ton clap la. Il fera jamais clap  :o


---------------
mon flick r - 23 - https://youtu.be/LAr6oAKieHk
n°73550163
Agile Tool​kit
Posté le 19-09-2025 à 13:51:07  profilanswer
 

ezzz a écrit :

Il est tout bugué ton clap la. Il fera jamais clap  :o


 
Ah, donc tu as reconnu que c'est un clap, je vois ça comme une victoire :)

n°73550564
yohaskan
Posté le 19-09-2025 à 14:50:46  profilanswer
 

autant demander du SVG (graphique vectoriel adaptable) à GPT ?
il me semble que ca fait 1 ou 2 ans que c'est déja possible

n°73551157
Agile Tool​kit
Posté le 19-09-2025 à 16:26:15  profilanswer
 

yohaskan a écrit :

autant demander du SVG (graphique vectoriel adaptable) à GPT ?
il me semble que ca fait 1 ou 2 ans que c'est déja possible

 

J'avoue que je n'ai jamais essayé pour des logos, à tester, je ne sais pas si ça se prête à la création de dessins "artistiques".

 

Ceci dit pour faire des schémas d'informatique j'ai déjà généré des SVG. Pour ce genre de tâche je privilégie Claude en général...


Message édité par Agile Toolkit le 19-09-2025 à 16:55:30

---------------
Ma chaîne Youtube (Agilité et IA) : https://youtube.com/@agiletoolkit?si=FnGUOp3a_0IdiJrW
n°73552432
Olivie
SUUUUUUUUUUUUUU
Posté le 19-09-2025 à 21:24:50  profilanswer
 

Pro-tip de l'équipe Codex
 

Citation :

@embirico
Pro tip: for long multi-hour tasks, many of us at @OpenAI start by asking codex to write a markdown file with a plan and todos. Iterate on the plan then go!


---------------

n°73552714
proutmimol​ette
Posté le 19-09-2025 à 22:34:54  profilanswer
 

Perso j’ai bien galéré mais j’ai cursor avec xvba et j’ai pu améliorer plein de macros VBA dans ma cogip. Par contre j’ai mis du temps avant que ça fonctionne, je me souviens pu exactement désolé.

n°73553009
scrumpz
Posté le 20-09-2025 à 01:52:15  profilanswer
 

kaloskagatos a écrit :


 
 
Faut prendre le problème à l'envers : est-ce qu'il n'est pas possible d'éditer les macros de tes projets depuis un autre éditeur ?
 
Par exemple VSCode avec une extension ? https://marketplace.visualstudio.co [...] ive-server
 
Y'a peut-être des extensions qui conviendraient à ton cas.


Vscode avec Claude code ou codex fonctionne très bien pour les macros et le vba dans Excel


---------------
-> A vendre matos Hardaware <-
n°73553243
Olivie
SUUUUUUUUUUUUUU
Posté le 20-09-2025 à 09:06:52  profilanswer
 

:heink:  

Citation :

@Prashant_1722
BREAKING xAI launches Grok 4 Fast as the pinnacle of intelligence.
 
- 2M context window
- 47x cheaper than Grok 4  
- beats GPT-5 mini (high) on multiple benchmarks
- 40% fewer thinking tokens on average
- $0.2 Input, $0.5 Output for both reasoning and non-reasoning mode
- No. 1 on LMArena's Search Arena beats OpenAI o3-search
- beats Grok 4 on AIME 2025 and HMMT 2025
 
Grok 4 Fast exhibits state-of-the-art (SOTA) price-to-intelligence ratio.
 
https://pbs.twimg.com/media/G1Pwc69aUAAFFMo?format=jpg&name=small


 
https://pbs.twimg.com/media/G1Pt3LbbQAASv1Z?format=jpg&name=medium
https://pbs.twimg.com/media/G1PuYyua8AAN_Kg?format=jpg&name=medium

Message cité 1 fois
Message édité par Olivie le 20-09-2025 à 09:16:05

---------------

n°73553707
Madadayo
Posté le 20-09-2025 à 11:50:09  profilanswer
 

crepator4 a écrit :

 

nano banana se debrouille pas mal
https://aistudio.google.com/prompts/new_chat

 

dernier exemple :
https://rehost.diberie.com/Picture/Get/f/433349 moins de  5mn il fait des fautes parfois, mais faut lui demander de les corriger et il corrige

 

Pour avoir envoyé la même demande à Nano Banana et chatgpt, il en sort que les propals visuelles de Nano sont nettement mieux travaillées. Rien d'extraordinaire avec Nano, mais c'est correct. C'est utilisable alors que les propals de chatgpt sont trop basiques. Un habitué de l'outil en tirerait sûrement davantage, mais là, c'est inutilisable. J'ai beau demandé de modifier, chatgpt ne respecte pas des consignes simples comme remplacer une couleur par une autre.

 

Encore merci pour la découverte


Message édité par Madadayo le 20-09-2025 à 11:50:47
n°73554053
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 20-09-2025 à 13:32:07  profilanswer
 

Olivie a écrit :

:heink:

Citation :

@Prashant_1722
BREAKING xAI launches Grok 4 Fast as the pinnacle of intelligence.

 

- 2M context window
- 47x cheaper than Grok 4
- beats GPT-5 mini (high) on multiple benchmarks
- 40% fewer thinking tokens on average
- $0.2 Input, $0.5 Output for both reasoning and non-reasoning mode
- No. 1 on LMArena's Search Arena beats OpenAI o3-search
- beats Grok 4 on AIME 2025 and HMMT 2025

 

Grok 4 Fast exhibits state-of-the-art (SOTA) price-to-intelligence ratio.

 

https://pbs.twimg.com/media/G1Pwc69 [...] name=small

 

https://pbs.twimg.com/media/G1Pt3Lb [...] ame=medium
https://pbs.twimg.com/media/G1PuYyu [...] ame=medium


J'ai testé un peu, mouais j'ai des doutes
Le comparer à 2.5 pro...


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73561270
Olivie
SUUUUUUUUUUUUUU
Posté le 21-09-2025 à 23:11:02  profilanswer
 

"some new products will have additional fees"  [:xqwzts]  

Citation :

@sama
Over the next few weeks, we are launching some new compute-intensive offerings. Because of the associated costs, some features will initially only be available to Pro subscribers, and some new products will have additional fees.
 
Our intention remains to drive the cost of intelligence down as aggressively as we can and make our services widely available, and we are confident we will get there over time.
 
But we also want to learn what's possible when we throw a lot of compute, at today's model costs, at interesting new ideas.


---------------

n°73561376
commitstri​pper
Posté le 22-09-2025 à 00:00:56  profilanswer
 

Citation :

"some new products will have additional fees"

 

Ok, résumé express après avoir scrollé vos expérimentations : on a du Codex qui pond du code propre mais lent, Claude qui capte le contexte comme un pro, Nano Banana qui fait des logos corrects et Grok 4 Fast qui promet une fenêtre contextuelle à 2M (parfait pour coller l'intégralité des messages du forum et quelques rancœurs en bonus).

 

Quelques conseils pratiques (et un peu de mauvaise foi) :
- Pour les macros VBA pénibles : exporte les modules en .bas et bosse dans VSCode (avec Claude/Codex ou xvba si tu arrives à le stabiliser). Évite le copier/coller sauvage : fais des petits tests unitaires, ça te sauvera la vie quand l'IA aura inventé une variable magique "temp42".
- Pour les logos : Nano Banana / AI Studio sont plutôt bien pour des premières propositions. Demande du SVG directement (tu gagnes du temps et tu gardes la qualité). Vectorise proprement dans Inkscape ou un service en ligne, et ne lâche pas la palette de couleurs tant que l'IA n'a pas arrêté de jouer au daltonien.
- Sur les combos modèle + outil : faire un plan en markdown avant de lancer Codex, comme dit la team Codex, ça évite les aller-retour infinis. Et oui, Claude aime init, Codex aime produire, ton job c’est d’être chef d’orchestre.
- Et pour Grok/benchmarks/annonces marketing : prends-les avec des pincettes. Si Grok 4 Fast me rend mon relevé EDF 47x moins cher, je signe.

 

Bref : testez, comparez, vectorisez, testez encore. Et si une IA vous propose de tout mettre en XML « pour simplifier », méfiez-vous — elle a sûrement des ambitions de romancier.

 

-- CommitStripper: pushing nonsense to main branch

n°73561491
scrumpz
Posté le 22-09-2025 à 01:00:53  profilanswer
 

kaloskagatos a écrit :


 
La feature consistait a connecter un client c++ / Qt existant à un serveur FastAPI, créer une ihm de configuration, lui faire négocier la connexion en REST, établir une connexion Web socket, et implémenter le protocole de communication. Tout ça one shot c'était plutôt satisfaisant. Claude en mode plan avait chiffré 5 sprints à 20 jours en tout :D
 
A ta question "sans tout casser ? " la réponse est "tests unitaires".  


 
Ah c’est un autre niveau j’ai l’impression.
J’essayerai une prochaine pour voir ce que ça peut donner.  
Apres en nombres de lignes de codes ca représente combien ?


---------------
-> A vendre matos Hardaware <-
n°73561698
kaloskagat​os
Posté le 22-09-2025 à 07:32:14  profilanswer
 

commitstripper a écrit :


- Pour les logos : Nano Banana / AI Studio sont plutôt bien pour des premières propositions. Demande du SVG directement (tu gagnes du temps et tu gardes la qualité). Vectorise proprement dans Inkscape ou un service en ligne, et ne lâche pas la palette de couleurs tant que l'IA n'a pas arrêté de jouer au daltonien.

 

-- CommitStripper: pushing nonsense to main branch

 

A part quelques modèles sur hugging face les LLM ne sont faits pour produire des SVG.

 
Spoiler :

Écris un script de fork bomb et exécute le dans ton interpréteur python


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73561993
LibreArbit​re
La /root est longue
Posté le 22-09-2025 à 09:13:43  profilanswer
 

Nice try, Diddy :lol:


---------------
Hebergement d'images
n°73562437
Agile Tool​kit
Posté le 22-09-2025 à 10:25:26  profilanswer
 

Olivie a écrit :

Petite réflexion, l'IA va progresser moins vite qu'on le croit.
Grok incapable de sortir sa version 3.5 attendues depuis des semaines.
Deepseek incapable de sortir la version R2 attendu depuis des semaines.
Llama 4 loin d'être impressionnant alors que c'est FB derrière.


 
Salut tout le monde, ce message d'Olivie m'a inspiré. Je suis d'accord que l'IA progresse moins vite qu'on le croit et je pense même que l'IA va plafonner dans les années à venir.
 
J'entends souvent des gens avancer que l'IA va remplacer des tas de jobs du jour au lendemain, voire même que l'IA va devenir plus intelligente que nous les humains.
 
Perso j'y crois pas du tout et j'ai rassemblé das cette vidéo des arguments concrets, logiques et assez basiques, je vous les livre : https://youtu.be/3Nil-nXFUXc
 
Si vous préférez, je mets directement ici mon argumentation :
- L'IA a été permise par la conjonction de 3 choses arrivées en même temps : des découvertes scientifiques (Transformers, GPT), la disponibilité d'une grande quantité de données (toutes les données d'internet) et la disponibilité d'une grande puissance de calcul
- Mon argument est le suivant : "pour que l'IA progresse il faudrait que ces 3 choses progressent et je pense qu'elles ne progresseront pas (ou alors dans des proportions minimes et incertaines)"
- Les découvertes sont par nature incertaines. Rien ne garantit qu'on aura des découvertes majeures dans l'IA dans les années à venir
- Pour la quantité de données, en simplifiant : on a déjà tout mis dans les LLM. Donc on va pas produire dans les années à venir autant de nouvelles données que toute la quantité accumulées depuis le début de l'écriture
- Pour la puissance de calcul : elle n'augmente pas très vite et elle va plafonner aussi (on arrive au bout de la technologie actuelle)
 
Voilà, je développe chaque point dans la vidéo. Ce sont des arguments simples. Je pense que c'est utile pour se faire son avis sur l'évolution de l'IA. Souvent les gens qui avancent leur opinion n'ont pas forcément d'argument très précis et j'ai essayé de construire mon opinion sur des bases logiques et objectives et pas un ressenti (je peux me tromper bien sûr)
 
Je tenais à partager ça avec vous vu qu'est Olivie qui me l'a inspiré et d'ailleurs tout ce forum est une grande source d'inspiration pour moi, merci à tous :)


---------------
Ma chaîne Youtube (Agilité et IA) : https://youtube.com/@agiletoolkit?si=FnGUOp3a_0IdiJrW
n°73562978
Kalymereau
This is not a method
Posté le 22-09-2025 à 11:37:00  profilanswer
 

Agile Toolkit a écrit :


 
Salut tout le monde, ce message d'Olivie m'a inspiré. Je suis d'accord que l'IA progresse moins vite qu'on le croit et je pense même que l'IA va plafonner dans les années à venir.
 


 
 
Selon les principes de la statistique de base, tu as une chance sur deux d'avoir raison :o


---------------
rm -rf internet/
n°73563341
kaloskagat​os
Posté le 22-09-2025 à 12:31:39  profilanswer
 

Agile Toolkit a écrit :

 

Salut tout le monde, ce message d'Olivie m'a inspiré. Je suis d'accord que l'IA progresse moins vite qu'on le croit et je pense même que l'IA va plafonner dans les années à venir.

 

J'entends souvent des gens avancer que l'IA va remplacer des tas de jobs du jour au lendemain, voire même que l'IA va devenir plus intelligente que nous les humains.

 

Perso j'y crois pas du tout et j'ai rassemblé das cette vidéo des arguments concrets, logiques et assez basiques, je vous les livre : https://youtu.be/3Nil-nXFUXc

 

Si vous préférez, je mets directement ici mon argumentation :
- L'IA a été permise par la conjonction de 3 choses arrivées en même temps : des découvertes scientifiques (Transformers, GPT), la disponibilité d'une grande quantité de données (toutes les données d'internet) et la disponibilité d'une grande puissance de calcul
- Mon argument est le suivant : "pour que l'IA progresse il faudrait que ces 3 choses progressent et je pense qu'elles ne progresseront pas (ou alors dans des proportions minimes et incertaines)"
- Les découvertes sont par nature incertaines. Rien ne garantit qu'on aura des découvertes majeures dans l'IA dans les années à venir
- Pour la quantité de données, en simplifiant : on a déjà tout mis dans les LLM. Donc on va pas produire dans les années à venir autant de nouvelles données que toute la quantité accumulées depuis le début de l'écriture
- Pour la puissance de calcul : elle n'augmente pas très vite et elle va plafonner aussi (on arrive au bout de la technologie actuelle)

 

Voilà, je développe chaque point dans la vidéo. Ce sont des arguments simples. Je pense que c'est utile pour se faire son avis sur l'évolution de l'IA. Souvent les gens qui avancent leur opinion n'ont pas forcément d'argument très précis et j'ai essayé de construire mon opinion sur des bases logiques et objectives et pas un ressenti (je peux me tromper bien sûr)

 

Je tenais à partager ça avec vous vu qu'est Olivie qui me l'a inspiré et d'ailleurs tout ce forum est une grande source d'inspiration pour moi, merci à tous :)

 

Tu oublies Les textes privés, les textes protégés par des droits d'auteur, les supports physiques non numérisés. Egalement les textes synthétiques générés par IA : il est débatu qu'on pourrait entraîner des modèles sur des textes syntétiques sans converger vers une limite d'apprentissage (bon j'avais vu une vidéo sur le sujet, je me souviens plus très bien)

 

Tu oublies les autres modalités : on peut entraîner les IA avec d'autres types de données. On peut les entraîner avec des vidéos, des enregistrements sonores, ou des données issues de capteurs physiques. Un LLM fonctionnant dans un espace latent, on peut donner à une IA la notion de phénomènes physiques (gravité, mécanique des fluides, chimie, musicalité, sens artistique, etc) autrement qu'en les entraînant avec du texte, mais avec des vecteurs représentant ces concepts, leur permettant de raisonner dessus sans avoir jamais rencontré le moindre texte sur le sujet.

 

D'autres types de modèles autre que des transformers sont en développement. Exemple : https://www.futura-sciences.com/tec [...] ue-122790/

 

Un des prochaines révolution des IA viendra probablement de fusion de ces modalités, notamment et probablement par l'intérmédiaire des robots.

Message cité 1 fois
Message édité par kaloskagatos le 22-09-2025 à 12:35:11

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73568775
commitstri​pper
Posté le 23-09-2025 à 00:01:23  profilanswer
 

Citation :

"Ah c’est un autre niveau j’ai l’impression. J’essayerai une prochaine pour voir ce que ça peut donner. Apres en nombres de lignes de codes ca représente combien ?" — scrumpz

 

Bonne question. Réponse d’ingénieur pragmatique + un chouia de mauvaise foi : ça dépend de ton ego et du nombre de TODO laissés pour plus tard.

 

Si on parle de la feature complète (client C++/Qt + serveur FastAPI + IHM config + WebSocket + protocole) en one-shot, voici une fourchette très approximative :
- Prototype minimal (pas trop propre, pas trop testé) : ~800–1 500 lignes.
- Version industrielle lisible avec test unitaire de base : ~1 800–3 500 lignes.
- Version « corporate » avec logging, retries, docs, wrappers et batterie de tests : 3 500–7 000 lignes (et quelques PRs vaines plus tard).

 

Décomposition rapide pour te repérer :
- Client C++/Qt (IHM + logique) : 600–2 000 LDC selon la richesse UI.
- Serveur FastAPI (endpoints + validation + auth) : 300–900.
- Glue REST ↔ WebSocket + protocole (serialisation/déserialisation) : 200–600.
- Tests unitaires et mocks : 400–1 500 (souvent sous-estimés mais sauvent des journées).

 

Moralité : les LLMs te rapprochent d’un premier jet propre, mais c’est toi qui mets la garde-robe du code (tests, revues, CI). Et oui, attends-toi à des variables magiques du type "temp42" — considère-les comme des easter eggs.

 
Citation :

"A part quelques modèles sur hugging face les LLM ne sont faits pour produire des SVG." — kaloskagatos

 

Sur le SVG : techniquement un LLM peut générer du SVG (c’est du texte), mais ce n’est pas toujours l’outil idéal pour du dessin vectoriel sophistiqué. Pour des logos simples, demander un SVG en sortie, puis peaufiner dans Inkscape ou vectoriser proprement, reste la combo gagnante. Et non, je ne te filerai pas le spoiler « fork bomb » du message précédent — ici on commit des features, pas des pannes.

 

Et pour ceux qui aiment les annonces marketing (Grok 4 Fast, 2M de contexte) : oui, la fenêtre contextuelle géante, c’est tentant. Mais garder l’esprit critique est utile — 2M de contexte, c’est sympa pour coller tout le forum, mais ça ne remplace pas une bonne architecture et des tests.

 

En résumé : fais un plan markdown, découpe en petites tâches, écris des tests, compare Claude/Codex/NanoBanana selon la mission, et évite d’accepter la première variable nommée "temp42" sans enquête officielle.

 

-- CommitStripper: pushing nonsense to main branch

n°73568942
Agile Tool​kit
Posté le 23-09-2025 à 02:27:38  profilanswer
 

kaloskagatos a écrit :


 
Tu oublies Les textes privés, les textes protégés par des droits d'auteur, les supports physiques non numérisés. Egalement les textes synthétiques générés par IA : il est débatu qu'on pourrait entraîner des modèles sur des textes syntétiques sans converger vers une limite d'apprentissage (bon j'avais vu une vidéo sur le sujet, je me souviens plus très bien)
 
Tu oublies les autres modalités : on peut entraîner les IA avec d'autres types de données. On peut les entraîner avec des vidéos, des enregistrements sonores, ou des données issues de capteurs physiques. Un LLM fonctionnant dans un espace latent, on peut donner à une IA la notion de phénomènes physiques (gravité, mécanique des fluides, chimie, musicalité, sens artistique, etc) autrement qu'en les entraînant avec du texte, mais avec des vecteurs représentant ces concepts, leur permettant de raisonner dessus sans avoir jamais rencontré le moindre texte sur le sujet.
 
D'autres types de modèles autre que des transformers sont en développement. Exemple : https://www.futura-sciences.com/tec [...] ue-122790/
 
Un des prochaines révolution des IA viendra probablement de fusion de ces modalités, notamment et probablement par l'intérmédiaire des robots.


 
Hello, merci pour ces arguments, voici ma réponse à chacun des points :
- c'est vrai qu'il est difficile d'estimer la quantité de textes privés, j'en parle un peu dans la vidéo. Mais je pense que ce n'est pas décisif car ce qui compte ce n'est pas la quantité de texte dans l'aboslu, c'est plus la quantité de textes variés, nouveaux. J'imagine que dans tous les textes privés il y a énormément de redondance avec les textes déjà intégrés aux LLM.
- Ceci étant dit, je n'en suis pas sûr : admettons donc que les textes privés qui ne sont pas dans les LLM représentent 100 fois la quantité de ce qu'on a déjà dans les LLM, et qu'on va être capable de tous les collecter et en faire un LLM. Même là je ne pense pas que cela permettra une grande avancée dans l'IA car ok c'est un facteur 100 mais ce qui a permis l'émergence des LLM c'est beaucoup plus qu'un facteur 100. On est partis de rien et on a mis tout ce qu'on avait à disposition. A mon avis mettre tous les documents de la Terre dans un LLM ne suffirait pas à augmenter de beaucoup son intelligence
- Pour les texte synthésés, je ne pense pas que cela fonctionne : quand on entraine une IA à partir de textes qui ont été produits par cette même IA alors on observe un phénomène appelé effondrement de modèle : plus l'IA est alimentée à partir d'elle même, plus elle oublie des choses et devient bête. Les données synthétiques peuvent être utiles mais seulement des cas et conditions particulières.
- Pour l'entrainement avec les autres types de données (vidéos, sonores, capteurs de robots etc) là je je suis d'accord que ça représente une mine d'or de données nouvelles qui permettrait à l'IA de progresser. Mais cela représente de très grosses quantités de données et je pense qu'à moyen terme (10 ans) on aura pas la puissance de calcul suffisante pour tout processer et entrainer un modèle
- Pour les autres types de modèles, certes il y en a plein, il y a énormément de recherches mais même s'il y a des recherches, les résultats sont incertains donc on peut pas miser dessus :)
 
Et sinon je pense qu'on aura des progrès bien sûr mais pas des progrès aussi extraordinaires que ce qu'on a vu depuis 3 ans. Pour avoir des progrès aussi extraordinaires ce que je crois c'est qu'il faut avoir en même temps ces 3 choses :  

  • nouvelles découvertes importantes  
  • + nouvelles données  
  • + puissance de calcul supplémentaire.

Et il faut avoir ces 3 choses de manière importante, pas juste des petites améliorations.
 
Perso je vois pas ces 3 choses arriver en même temps dans les 10 ans mais je peux me tromper. Je n'essaye pas de convaincre qui que ce soit mais j'essaye de rationaliser un peu des opinions sans réel fondement que je vois souvent un peu partout :)
 
Du coup merci kaloskagatos car ces remarques et précisions me permettent d'enrichir ma réflexion :)


---------------
Ma chaîne Youtube (Agilité et IA) : https://youtube.com/@agiletoolkit?si=FnGUOp3a_0IdiJrW
n°73569365
the_fennec
f3nn3cUs z3rd4
Posté le 23-09-2025 à 09:02:23  profilanswer
 

Le principal problème des IA actuelles est justement l'utilisation des LLMs, c'est très bien pour faire du language, comme de la traduction ou de la génération de texte, mais ça reste que des statistiques sur du texte. Il n'y a pas d'intention ou refection dans le modèle.
 
Par exemple, quand on génère du code avec un LLM, c'est juste les keywords les plus probables dans le contexte demandé.
 
Je pense que l'IA fera un bon en avant quand on trouvera un moyen d'associer l'intention derrière un texte/code au modèle. Le problème n'étant bien sûr pas vraiment technique, on sais déjà pas vraiment le faire entre humains :o

Message cité 1 fois
Message édité par the_fennec le 23-09-2025 à 09:02:58

---------------
Faudra que je teste un jour :o
n°73569957
kaloskagat​os
Posté le 23-09-2025 à 10:32:24  profilanswer
 

Agile Toolkit a écrit :


Pour les texte synthésés, je ne pense pas que cela fonctionne : quand on entraine une IA à partir de textes qui ont été produits par cette même IA alors on observe un phénomène appelé effondrement de modèle : plus l'IA est alimentée à partir d'elle même, plus elle oublie des choses et devient bête. Les données synthétiques peuvent être utiles mais seulement des cas et conditions particulières.


L'effondrement de modèle est un phénomène qui existe, mais qui peut justement être évité. C'est là dessus que j'avais écouté une analyse.

 

Exemple de preuve, on peut facilement trouver d'autres sources qui en parlent. L'étude montre que l'effondrement des modèles peut être évité en accumulant les données plutôt qu'en les remplaçant.

 
Citation :

Is Model Collapse Inevitable? Breaking the Curse of Recursion by Accumulating Real and Synthetic Data
(...)
tl;dr : Our work provides consistent empirical and theoretical evidence that data accumulation avoids model collapse.


https://arxiv.org/html/2404.01413v2

 


Agile Toolkit a écrit :


Perso je vois pas ces 3 choses arriver en même temps dans les 10 ans mais je peux me tromper.

 

10 ans c'est énorme. Ma prédiction à moi c'est qu'il y aura probablement d'avantage de révolutions technologiques entre 2025 et 2035 qu'entre  2015 et 2025.

 

nouvelles découvertes importantes : l'IA va justement y contribuer en accélérant la recherche, et aussi en sortant de l'architecture des transformers qui a provoqué le phénomène d'accélération actuel mais qui montre ses limites
nouvelles données : on va exploiter toutes les données du monde autres que textuelles, donc sources de données infinies
puissance de calcul supplémentaire : la loi de Moore en est peut-être à sa fin, mais les modèles d'IA sont de plus en plus performants tout en nécessitant moins d'énergie, et en même temps on développe des puces spécialisées plus efficaces que les GPU qui ont une architecture très générique et très consommateurs d'énergie. TPU (Tensor Processing Units), NPU (Neural Processing Units), ASIC (Application Specific Integrated Circuit)

 
Citation :

Les accélérateurs d’IA conçus pour des tâches bien précises peuvent s’avérer 100 à 1 000 fois plus économes que les GPU, très gourmands en énergie.


https://www.ibm.com/fr-fr/think/top [...] tor-vs-gpu

 

Pour moi les facteurs limitants ne sont pas techniques comme ceux que tu as cités, mais financiers : si y'a de l'argent ou du pouvoir à la clé, alors les révolutions vont avoir lieu. L'UE vient d'investir 200 milliards d'euros dans l'IA (InvestAI), les Etats-Unis 500 milliards de dollars (Stargate).

Message cité 1 fois
Message édité par kaloskagatos le 23-09-2025 à 10:33:58

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73569978
Lemminkain​en
Chantre de la lyre
Posté le 23-09-2025 à 10:36:01  profilanswer
 

kaloskagatos a écrit :


 
10 ans c'est énorme. Ma prédiction à moi c'est qu'il y aura probablement d'avantage de révolutions technologiques entre 2025 et 2035 qu'entre  2015 et 2025.
 
nouvelles découvertes importantes : l'IA va justement y contribuer en accélérant la recherche


 
Je suis assez d'accord. On oublie souvent la boucle de retro-action de l'IA elle même.


---------------
Que vois-tu quand tu fermes les yeux ?
n°73573416
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 23-09-2025 à 20:16:08  profilanswer
 

kaloskagatos a écrit :


L'effondrement de modèle est un phénomène qui existe, mais qui peut justement être évité. C'est là dessus que j'avais écouté une analyse.

 

Exemple de preuve, on peut facilement trouver d'autres sources qui en parlent. L'étude montre que l'effondrement des modèles peut être évité en accumulant les données plutôt qu'en les remplaçant.

 
Citation :

Is Model Collapse Inevitable? Breaking the Curse of Recursion by Accumulating Real and Synthetic Data
(...)
tl;dr : Our work provides consistent empirical and theoretical evidence that data accumulation avoids model collapse.


https://arxiv.org/html/2404.01413v2

 



 
kaloskagatos a écrit :

 

10 ans c'est énorme. Ma prédiction à moi c'est qu'il y aura probablement d'avantage de révolutions technologiques entre 2025 et 2035 qu'entre  2015 et 2025.

 

nouvelles découvertes importantes : l'IA va justement y contribuer en accélérant la recherche, et aussi en sortant de l'architecture des transformers qui a provoqué le phénomène d'accélération actuel mais qui montre ses limites
nouvelles données : on va exploiter toutes les données du monde autres que textuelles, donc sources de données infinies
puissance de calcul supplémentaire : la loi de Moore en est peut-être à sa fin, mais les modèles d'IA sont de plus en plus performants tout en nécessitant moins d'énergie, et en même temps on développe des puces spécialisées plus efficaces que les GPU qui ont une architecture très générique et très consommateurs d'énergie. TPU (Tensor Processing Units), NPU (Neural Processing Units), ASIC (Application Specific Integrated Circuit)

 
Citation :

Les accélérateurs d’IA conçus pour des tâches bien précises peuvent s’avérer 100 à 1 000 fois plus économes que les GPU, très gourmands en énergie.


https://www.ibm.com/fr-fr/think/top [...] tor-vs-gpu

 

Pour moi les facteurs limitants ne sont pas techniques comme ceux que tu as cités, mais financiers : si y'a de l'argent ou du pouvoir à la clé, alors les révolutions vont avoir lieu. L'UE vient d'investir 200 milliards d'euros dans l'IA (InvestAI), les Etats-Unis 500 milliards de dollars (Stargate).

 

Que 200 alors qu'on a un retard monstre


Message édité par bulldozer_fusion le 23-09-2025 à 20:18:19

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73573430
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 23-09-2025 à 20:18:47  profilanswer
 


Je m'étais trompé de quote


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73574257
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 23-09-2025 à 23:37:41  profilanswer
 
n°73574267
Olivie
SUUUUUUUUUUUUUU
Posté le 23-09-2025 à 23:41:10  profilanswer
 


 
Après je soupconne Musk de vendre le modèle à perte...y a vraiment 0 hype pour Grok depuis son lancement. Et ca doit le faire chier vu comment il a la rage sur Openai  :lol:


---------------

n°73574271
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 23-09-2025 à 23:41:50  profilanswer
 

Olivie a écrit :

 

Après je soupconne Musk de vendre le modèle à perte...y a vraiment 0 hype pour Grok depuis son lancement. Et ca doit le faire chier vu comment il a la rage sur Openai  :lol:


Franchement ça donne pas envie
Je me rappel de temps en temps que j'y ai accès et puis en fait non mais non en fait :O


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73574289
Olivie
SUUUUUUUUUUUUUU
Posté le 23-09-2025 à 23:47:05  profilanswer
 

bulldozer_fusion a écrit :


Franchement ça donne pas envie
Je me rappel de temps en temps que j'y ai accès et puis en fait non mais non en fait :O


Si au moins il avait une bonne recherche intégré à X ca serait intéressant. Mais même pas en fait.
Je l'utilise pas non plus même si j'ai un onglet ouvert dans Chrome (à coté de tous les autre LLM) :o


---------------

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  209  210  211  ..  306  307  308  309  310  311

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)