Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3584 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  194  195  196  ..  252  253  254  255  256  257
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°73343269
bulldozer_​fusion
rip Mekthoub
Posté le 10-08-2025 à 22:40:46  profilanswer
 
mood
Publicité
Posté le 10-08-2025 à 22:40:46  profilanswer
 

n°73343471
k-nar
Laqué.
Posté le 11-08-2025 à 00:11:05  profilanswer
 

Le mec qui répond à un tweet posté 3 min avant, il a rien d'autre à foutre de sa vie ou quoi  :pt1cable:


---------------
Pseudo Rocket League: Topper Harley
n°73343499
La Monne
Administrateur
Tu dois rompre.
Posté le 11-08-2025 à 00:26:03  profilanswer
 

C'est la beta de GPT 6 qui gère son compte et répond à sa place :o


---------------
Lu et approuvé.
n°73343509
Olivie
SUUUUUUUUUUUUUU
Posté le 11-08-2025 à 00:36:48  profilanswer
 

k-nar a écrit :

Le mec qui répond à un tweet posté 3 min avant, il a rien d'autre à foutre de sa vie ou quoi  :pt1cable:


Le mec est en conflit avec Musk, en concurrence directe avec Google et Meta, et en renégociation de contrat avec Microsoft.  
Mais au moins il fait le SAV de son produit  :D  
 
Sinon GPT-5 PRO dispo pour les riches (pas moi, je suis pauvre :( )
 
https://img3.super-h.fr/images/2025/08/11/snapshot_282475249.jpg


Message édité par Olivie le 11-08-2025 à 00:37:21

---------------

n°73343520
bulldozer_​fusion
rip Mekthoub
Posté le 11-08-2025 à 00:49:19  profilanswer
 

C'est déjà bien que les gueux y aient accès à GPT 5 :O


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73344196
Lemminkain​en
Chantre de la lyre
Posté le 11-08-2025 à 10:27:16  profilanswer
 

Anis qui avait fait la vidéo de présentation de GPT5 qui l'avait eu en avance pour tester, ce rend compte qu'il ne peut plus reproduire ce qu'il a fait sur la version maintenant disponible pour tous. [:tinostar]
 
https://x.com/DFintelligence/status/1954650772433502234
 

Citation :

Bon... J'arrive plus à avoir des résultats aussi bien que ce que j'avais avec GPT-5 avant le lancement public..... Jsuis deg.  
 
Je sais pas ce qui se passe.  
 
Avant le lancement public il me one shoté des interfaces de fou, et là il me génére du code avec des bugs... trop bizarre


---------------
Que vois-tu quand tu fermes les yeux ?
n°73344210
Olivie
SUUUUUUUUUUUUUU
Posté le 11-08-2025 à 10:29:14  profilanswer
 

Lemminkainen a écrit :

Anis qui avait fait la vidéo de présentation de GPT5 qui l'avait eu en avance pour tester, ce rend compte qu'il ne peut plus reproduire ce qu'il a fait sur la version maintenant disponible pour tous. [:tinostar]
 
https://x.com/DFintelligence/status/1954650772433502234
 

Citation :

Bon... J'arrive plus à avoir des résultats aussi bien que ce que j'avais avec GPT-5 avant le lancement public..... Jsuis deg.  
 
Je sais pas ce qui se passe.  
 
Avant le lancement public il me one shoté des interfaces de fou, et là il me génére du code avec des bugs... trop bizarre



 
Ca arrive tout le temps. Même avec une des versions de Google 2.5 qui était très bonne puis les performances se sont dégradées.
Je ne sais pas si c'est parce qu'ils doivent utiliser "la puissance de calcul" pour entrainer d'autres modèles ou si les performances se dégradent en fonction du nombre d'utilisateurs.
Bizarrement OpenAi ou Google n'en parlent jamais de ce genre de problème :o


---------------

n°73344454
LibreArbit​re
La /root est longue
Posté le 11-08-2025 à 11:19:14  profilanswer
 

Très certainement qu'il devait avoir la puissance de calcul de l'offre Pro et que là il est repassé en Plus... En tout cas j'ai pas réussi à reproduire ses tests avec mon abo plus...
 
Ou alors c'est un scam total et il a bénéficié d'une offre qui n'est pas commercialisée, juste le temps de la hype mais le retour de bâton n'en sera que plus douloureux !


---------------
Hebergement d'images
n°73345623
falkon1000
Posté le 11-08-2025 à 15:15:37  profilanswer
 

Bon bha 5 pète complètement les plombs.
 
Je teste un développement simple, il fournit un résultat top. Je veux faire évoluer, il hallucine 90% du code, retire des fonctions, ajoute des appels à des API qui n'existent pas, etc.
 

n°73345945
falkon1000
Posté le 11-08-2025 à 16:15:20  profilanswer
 

Je fais relire le code à Gemini 2.5 Pro

Citation :

Après avoir analysé le code fourni, j'ai identifié plusieurs incohérences importantes et points à améliorer, notamment un bug critique dans l'appel à l'API et plusieurs failles de sécurité majeures.


 :cry:  
 
GPT 5 n'est vraiment pas en forme aujourd'hui
 
Je me suis rendu compte qu'il faisait semblant de tenir compte des fichiers qu'on lui upload mais il en invente totalement le contenu

mood
Publicité
Posté le 11-08-2025 à 16:15:20  profilanswer
 

n°73346732
LibreArbit​re
La /root est longue
Posté le 11-08-2025 à 18:50:55  profilanswer
 

falkon1000 a écrit :

Bon bha 5 pète complètement les plombs.

 

Je teste un développement simple, il fournit un résultat top. Je veux faire évoluer, il hallucine 90% du code, retire des fonctions, ajoute des appels à des API qui n'existent pas, etc.


Ça c'est clairement dû à la fenêtre contextuelle proprement ridicule de seulement 32K :/

 

Edit : Pour les fichiers c'est pas étonnant vu que ça doit bien remplir le contexte...


Message édité par LibreArbitre le 11-08-2025 à 18:51:46

---------------
Hebergement d'images
n°73346859
falkon1000
Posté le 11-08-2025 à 19:23:05  profilanswer
 

le fichier fait 100 lignes..

n°73346929
Lemminkain​en
Chantre de la lyre
Posté le 11-08-2025 à 19:44:29  profilanswer
 

GPT5 qui rame encore plus que le 4o. Ça me gonfle, ça me donne envie d'arrêter l'abonnement. :o Je pige pas, t'as pas les ressources, bein temporairement tu files pas le 5 au free users jusqu'à que t'es les ressources adéquates, c'est pas bien dur. (Je dis ça mais c'est peut être pas aussi simple, j'en sais rien, c'est la frustration qui parle. :o )

Message cité 1 fois
Message édité par Lemminkainen le 11-08-2025 à 19:55:44

---------------
Que vois-tu quand tu fermes les yeux ?
n°73347589
LibreArbit​re
La /root est longue
Posté le 11-08-2025 à 22:06:50  profilanswer
 

falkon1000 a écrit :

le fichier fait 100 lignes..


Ouvre-le avec le bloc-note, affiche le nombre de caractères, divise par 5 et tu auras le nombre de token à la grosse louche...


---------------
Hebergement d'images
n°73347714
fazero
Salut c'est Ralph
Posté le 11-08-2025 à 22:31:38  profilanswer
 

Olivie a écrit :

 

Ca arrive tout le temps. Même avec une des versions de Google 2.5 qui était très bonne puis les performances se sont dégradées.
Je ne sais pas si c'est parce qu'ils doivent utiliser "la puissance de calcul" pour entrainer d'autres modèles ou si les performances se dégradent en fonction du nombre d'utilisateurs.
Bizarrement OpenAi ou Google n'en parlent jamais de ce genre de problème :o


Ma théorie du complot: quand la demande est forte ils routent une partie du traffic vers des modèles quantized moins gourmands mais moins bons.


---------------
Agent immobilier sur Paris 16
n°73347747
XaTriX
Posté le 11-08-2025 à 22:40:00  profilanswer
 

Peut être la fameuse rétrogradation annoncée ? Modèle mini. Est-ce indiqué si c'est le cas ?


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°73347943
Olivie
SUUUUUUUUUUUUUU
Posté le 11-08-2025 à 23:47:49  profilanswer
 

Sans doute la raison qui a fait qu'OAI s'est précipité son GPT-5
 

Citation :

@chetaslua
 Gemini 3.0 is real and spotted  
 
> Gemini 3.0 Flash Beta
> Gemini 3.0 Pro Beta
 
>google is cooking while other are hyping  
 
Source  - https://github.com/google-gemini/ge [...] 49ead23530
 
https://pbs.twimg.com/media/GvbnHPeakAMPkgk?format=png&name=900x900


 
https://pbs.twimg.com/media/GyF9_Z_asAAtUFA?format=jpg&name=small
https://pbs.twimg.com/media/GyGLSN5aQAACvuh?format=jpg&name=small

Message cité 2 fois
Message édité par Olivie le 11-08-2025 à 23:49:25

---------------

n°73347987
bulldozer_​fusion
rip Mekthoub
Posté le 12-08-2025 à 00:14:08  profilanswer
 

Vivement :love:


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73347999
Mevo
Divergent
Posté le 12-08-2025 à 00:30:49  profilanswer
 

Olivie a écrit :

Sans doute la raison qui a fait qu'OAI s'est précipité son GPT-5


Qu'il y ait une mention à Gemini 3.0 dans du code source, admettons.
 
Mais le score d'un benchmark ? :heink:
Qu'est-ce que ca ferait dans du code source ? (je ne l'ai pas trouvé dans le commit Github linké, en tout cas. Ou j'ai mal cherché. La mention à Gemini 3.0, oui. Ca date d'il y a plus d'un mois, aussi => 9 juillet.)
 
Ou j'ai pas tout compris. Si quelqu'un sait mieux, je serais ravi qu'il m'éclaire :jap:


---------------
"Dans la communication, le récepteur doit s'efforcer de voir selon le point de vue de l'émetteur, et non du sien. Sinon ca n'a aucun sens !" --Mevo
n°73348151
Lemminkain​en
Chantre de la lyre
Posté le 12-08-2025 à 07:29:30  profilanswer
 

Lemminkainen a écrit :

GPT5 qui rame encore plus que le 4o. Ça me gonfle, ça me donne envie d'arrêter l'abonnement. :o Je pige pas, t'as pas les ressources, bein temporairement tu files pas le 5 au free users jusqu'à que t'es les ressources adéquates, c'est pas bien dur. (Je dis ça mais c'est peut être pas aussi simple, j'en sais rien, c'est la frustration qui parle. :o )


Ah bein Sam lit HFR :o : ...

Citation :

Here is how we are prioritizing compute over the next couple of months in light of the increased demand from GPT-5:
 
1. We will first make sure that current paying ChatGPT users get more total usage than they did before GPT-5.
 
2. We will then prioritize API demand up to the currently allocated capacity and commitments we've made to customers. (For a rough sense, we can support about an additional ~30% new API growth from where we are today with this capacity.)
 
3. We will then increase the quality of the free tier of ChatGPT.
 
4. We will then prioritize new API demand.
 
We are ~doubling our compute fleet over the next 5 months (!) so this situation should get better.


 
https://x.com/sama/status/1955077002945585333
 
5 mois c'est long, espérons que le 1 améliore les choses rapidement.


---------------
Que vois-tu quand tu fermes les yeux ?
n°73348422
LibreArbit​re
La /root est longue
Posté le 12-08-2025 à 09:11:11  profilanswer
 

Moi c'est surtout l'augmentation de la taille du contexte qui m'intéresse et ça, ça n'est pas du tout mentionné... Je pense qu'il faudra attendre que Gemini 3.0 sorte pour qu'OpenAI se réveille...


Message édité par LibreArbitre le 12-08-2025 à 11:05:17

---------------
Hebergement d'images
n°73348492
Lemminkain​en
Chantre de la lyre
Posté le 12-08-2025 à 09:28:08  profilanswer
 

Oui le contexte on est nombreux à vouloir son augmentation.
 
Mais déjà qu'il fasse tourner correctement leur IA... Ca serait déjà pas mal.


---------------
Que vois-tu quand tu fermes les yeux ?
n°73348577
falkon1000
Posté le 12-08-2025 à 09:43:09  profilanswer
 

+ de contexte qu'1M de tokens ? Ca vous servira à quoi ?

n°73348694
Olivie
SUUUUUUUUUUUUUU
Posté le 12-08-2025 à 10:07:14  profilanswer
 

Le million de contexte ca reste surtout théorique.
Même à la grande époque de Gemini 2.5 dans AI studio, même si le contexte annoncé était de 1M, Gemini commencait à déconner vers 200k
 

Citation :

@elonmusk
 
Grok wins hands-down at coding.  
 
It wasn’t close.
 
https://pbs.twimg.com/media/GyG5EELaEAE7i1S?format=jpg&name=small


---------------

n°73348945
LibreArbit​re
La /root est longue
Posté le 12-08-2025 à 11:06:06  profilanswer
 

falkon1000 a écrit :

+ de contexte qu'1M de tokens ? Ca vous servira à quoi ?


Le contexte actuel de GPT-5 c'est 32K (edit : 8K en free, 32K en Plus et 128K en Pro) l'ami donc on demande pas 1M mais plus que les modèles open source...

 

Edit : https://www.datacamp.com/blog/gpt-5

 

J'ai l'impression que t'as pas lu les précédents messages en rapport avec tes soucis d'hallucination ou d'oublis qui sont directement liés à la fenêtre contextuelle réduite ;)

Message cité 2 fois
Message édité par LibreArbitre le 12-08-2025 à 11:09:23

---------------
Hebergement d'images
n°73349070
CoyoteErab​le
Dorée et Colorée
Posté le 12-08-2025 à 11:28:05  profilanswer
 

Olivie a écrit :

Sans doute la raison qui a fait qu'OAI s'est précipité son GPT-5

 
Citation :

@chetaslua
Gemini 3.0 is real and spotted

 

> Gemini 3.0 Flash Beta
> Gemini 3.0 Pro Beta

 

>google is cooking while other are hyping

 

Source - https://github.com/google-gemini/ge [...] 49ead23530

 

https://pbs.twimg.com/media/GvbnHPe [...] me=900x900

 

https://pbs.twimg.com/media/GyF9_Z_ [...] name=small
https://pbs.twimg.com/media/GyGLSN5 [...] name=small


C'est un fake


---------------
Bloqué par Végétarien Garçon
n°73349085
CoyoteErab​le
Dorée et Colorée
Posté le 12-08-2025 à 11:31:19  profilanswer
 

Olivie a écrit :

Le million de contexte ca reste surtout théorique.
Même à la grande époque de Gemini 2.5 dans AI studio, même si le contexte annoncé était de 1M, Gemini commencait à déconner vers 200k

 
Citation :

@elonmusk

 

Grok wins hands-down at coding.

 

It wasn’t close.

 

https://pbs.twimg.com/media/GyG5EEL [...] name=small



1M de contexte s'il n'y a peu ou pas de bruit dans les données c'est carrément exploitable. Surtout avec une approche heuristique et en jouant avec le début et la fin du contexte dans ton prompt.


---------------
Bloqué par Végétarien Garçon
n°73349260
falkon1000
Posté le 12-08-2025 à 12:00:09  profilanswer
 

LibreArbitre a écrit :


Le contexte actuel de GPT-5 c'est 32K (edit : 8K en free, 32K en Plus et 128K en Pro) l'ami donc on demande pas 1M mais plus que les modèles open source...
 
Edit : https://www.datacamp.com/blog/gpt-5
 
J'ai l'impression que t'as pas lu les précédents messages en rapport avec tes soucis d'hallucination ou d'oublis qui sont directement liés à la fenêtre contextuelle réduite ;)


pardon je pensais que vous étiez impatients d'avoir Gemini 3 pour avoir un plus gros contexte
 

n°73349296
skipass
Posté le 12-08-2025 à 12:04:43  profilanswer
 

LibreArbitre a écrit :


Le contexte actuel de GPT-5 c'est 32K (edit : 8K en free, 32K en Plus et 128K en Pro) l'ami donc on demande pas 1M mais plus que les modèles open source...
 
Edit : https://www.datacamp.com/blog/gpt-5


 
Sur twitter, ils indiquent 196k: https://x.com/yanndubs/status/1955194413283737716
 
 

Citation :

I saw a lot of people complaining about 32k context size in ChatGPT for plus users, which would be terrible for coding. But actually we are giving 196k context size for plus users when using GPT5 thinking and that’s the model you should use for coding use-cases!

n°73349323
LibreArbit​re
La /root est longue
Posté le 12-08-2025 à 12:10:00  profilanswer
 

falkon1000 a écrit :

pardon je pensais que vous étiez impatients d'avoir Gemini 3 pour avoir un plus gros contexte


Ha non effectivement, à titre perso je pense pas avoir besoin de plus de 256K (ce qui représente déjà pas mal de lignes de code), je suis impatient pour Gemini 3.0 car ça mettra un coup de pression à OpenAI qui relèvera peut-être certains seuils...

 
skipass a écrit :

Citation :

I saw a lot of people complaining about 32k context size in ChatGPT for plus users, which would be terrible for coding. But actually we are giving 196k context size for plus users when using GPT5 thinking and that’s the model you should use for coding use-cases!



Ok donc si on passe en GPT-5 Thinking on passera à 196K mais leur GPT-5 était censé faire le switch seul d'où la réduction du nombre de modèles...

 

Je vais tester pour voir si c'est mieux :jap:

 

Edit : Étonnamment OpenAI a supprimé la taille des contextes sur la fiche de présentation (bla bla dynamique mais le fait est qu'il hallucine grave et oublie tout passé un moment, alors que je n'avais pas ce problème avec GPT-4o !)


Message édité par LibreArbitre le 12-08-2025 à 12:14:36

---------------
Hebergement d'images
n°73349342
Olivie
SUUUUUUUUUUUUUU
Posté le 12-08-2025 à 12:14:11  profilanswer
 

skipass a écrit :


 
Sur twitter, ils indiquent 196k: https://x.com/yanndubs/status/1955194413283737716
 
 

Citation :

I saw a lot of people complaining about 32k context size in ChatGPT for plus users, which would be terrible for coding. But actually we are giving 196k context size for plus users when using GPT5 thinking and that’s the model you should use for coding use-cases!



Seulement pour le mode thinking qui était limité à 200 messages par semaine il me semble  :??:


---------------

n°73349357
LibreArbit​re
La /root est longue
Posté le 12-08-2025 à 12:15:51  profilanswer
 

Olivie a écrit :

Seulement pour le mode thinking qui était limité à 200 messages par semaine il me semble  :??:


Exactement, c'est pour ça que j'étais sur le modèle de base... J'aurai juré avoir vu un message indiquant que ce seuil était relevé à 3000 messages par semaine...

 

Edit : Source : https://www.bleepingcomputer.com/ne [...] -thinking/

 

Quant à GPT-5 Thinking pour le dev, il est indiqué dans le playground à propos de GPT-5 (tout court) : "The best model for coding and agentic tasks across domains".

 

Source : https://platform.openai.com/docs/mo [...] hat-latest

 

Après, c'est possible que la taille du contexte via l'API soit différente de celle de ChatGPT...


Message édité par LibreArbitre le 12-08-2025 à 12:20:26

---------------
Hebergement d'images
n°73349373
Olivie
SUUUUUUUUUUUUUU
Posté le 12-08-2025 à 12:21:17  profilanswer
 

Après je crois que leur business modèle est clair.
Ils veulent que les gens qui utilisent ChatGPT pour de la productivité / boulot, passe à l’abo à 200€


---------------

n°73349527
falkon1000
Posté le 12-08-2025 à 12:54:52  profilanswer
 

Test de GPT5 Pro en cours, je vous dirai.
Finalement ils ont encore foutu le bordel entre GPT 5, Thinking, think longer, Pro, ... Surtout que Pro est bien plus rapide que Thinking et que personne ne comprend la diff entre 5 think longer et Thinking
 
Ils sont vraiment nuls pour les noms de modèles !
 
Sinon qui utilise Qwen Coder ici ? Avec quels modèles ?
Les gros modèles open source surdoués pour le code (c'est bien Kimi et Qwen ?), vous les utilisez via des API cloud ? Lesquelles ? ca coute bcp moins cher que Claude ?
 

n°73349538
falkon1000
Posté le 12-08-2025 à 12:57:12  profilanswer
 

Ah.. Je vois le schema de pensée de GPT 5
 
Je lui ai fourni un texte indiquant que je ne voulais pas de phrase type "Livraison à 69 Lyon" mais plutôt "Livraison sur Lyon (69)" et indiquant le nom de département.
 
Dans le détail de réflexion "Je suis en train de créer des politiques de rédaction détaillées en intégrant la province canadienne, et en gardant une structure professionnelle et directe."
 
OK....

n°73349556
LibreArbit​re
La /root est longue
Posté le 12-08-2025 à 12:59:49  profilanswer
 

:lol:


---------------
Hebergement d'images
n°73350484
piou piou ​piou
Posté le 12-08-2025 à 15:50:44  profilanswer
 

Cross topic.

 
rakame a écrit :

Mr Phi débunke Luc Julia. a ce niveau, c'est plus du recadrage ...

 

Luc Julia au Sénat : autopsie d'un grand N'IMPORTE QUOI
https://www.youtube.com/watch?v=e5kDHL-nnh4

https://forum.hardware.fr/forum2.ph [...] #t73347069

 

Message cité 1 fois
Message édité par piou piou piou le 12-08-2025 à 15:50:54
n°73351172
kaloskagat​os
Posté le 12-08-2025 à 17:56:55  profilanswer
 

falkon1000 a écrit :

+ de contexte qu'1M de tokens ? Ca vous servira à quoi ?


 
 
Dans aistudio tu peux filer tous tes docs de conceptions, tout ton code, et ce qu'il produit est extrêment qualitatif...


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73351237
bulldozer_​fusion
rip Mekthoub
Posté le 12-08-2025 à 18:11:52  profilanswer
 

Citation :

Claude Sonnet 4 now supports 1 million tokens of context on the Anthropic API—a 5x increase.

 

Process over 75,000 lines of code or hundreds of documents in a single request

 

Long context support is in public beta for API users with Tier 4 and custom rate limits.

 

Broader availability will be rolling out over the coming weeks.
Also available in Amazon Bedrock, and coming soon to Google Cloud's Vertex AI.


https://x.com/claudeai/status/1955299573620261343?s=19
Il faut toujours sortir le porte monnaie par contre [:stylken:1]


Message édité par bulldozer_fusion le 12-08-2025 à 18:12:35

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73351252
LibreArbit​re
La /root est longue
Posté le 12-08-2025 à 18:15:20  profilanswer
 

Effectivement mais à terme ce sont peut-être les seuls qui resteront dans le game car je crois avoir lu sue ce sont les seuls à être à l'équilibre...


---------------
Hebergement d'images
n°73351395
fils_de_la​_lumiere
Posté le 12-08-2025 à 18:47:45  profilanswer
 

 


C'est un festival en ce moment  :lol:

 

https://youtu.be/Q0gvaIZz1dM


---------------
"Pour chaque problème complexe, il existe une solution simple, directe et fausse" Henri Louis Mencken
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  194  195  196  ..  252  253  254  255  256  257

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)