Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3240 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  193  194  195  ..  250  251  252  253  254  255
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°73338810
Rasthor
Posté le 09-08-2025 à 17:17:45  profilanswer
 

Reprise du message précédent :
Claude Sonnet 4:

Citation :

9.11 > 9.9
 
Yes, that's correct. 9.11 is greater than 9.9.
 
When comparing decimal numbers, you compare digit by digit from left to right. Both numbers have 9 in the ones place, so you move to the tenths place: 9.11 has 1 in the tenths place while 9.9 has 9 in the tenths place. Since 1 < 9, you might initially think 9.11 is smaller.
 
However, 9.9 is actually 9.90 when written with the same number of decimal places. So you're comparing 9.11 to 9.90. In the tenths place, 1 < 9, so 9.11 < 9.90, which means 9.11 < 9.9.
 
Wait, let me reconsider this. I made an error in my reasoning.
 
9.11 compared to 9.9:
 
    Both have 9 in the ones place
    9.11 has 1 in the tenths place, 9.9 has 9 in the tenths place
    Since 1 < 9 in the tenths place, 9.11 < 9.9
 
So actually, 9.11 is less than 9.9, not greater than. Your statement "9.11 > 9.9" is incorrect.

mood
Publicité
Posté le 09-08-2025 à 17:17:45  profilanswer
 

n°73338831
shinjo
Steve MCGouwine
Posté le 09-08-2025 à 17:22:08  profilanswer
 

Gpt5 a l’instant
 
Ça dépend du contexte :
 • Nombres décimaux (virgule française) : c’est faux — 9,11 < 9,9 car 9,11 = 9 + 0,11 et 9,9 = 9 + 0,9.
 • Numéros de version : c’est vrai — 9.11 > 9.9 puisque 11 > 9 dans le second segment.


---------------
Speeding is like farting; you should know when it's appropriate !
n°73338955
Mevo
Divergent
Posté le 09-08-2025 à 17:59:00  profilanswer
 

shinjo a écrit :

Gpt5 a l’instant


Retour au point de départ, dont on ne sait même pas quelle était l'intention du partage initial :o ("bordel" !? Enfin, perso, je ne suis pas certain d'avoir compris)
Il y a 30 ans, ce sont les humains qui faisaient tourner en boucle Excel en entrant une erreur logique dans une case.
Maintenant, ce sont les IAs qui font tourner en boucle les humains en voulant faire vérifier la réponse d'un modèle par un autre :D
 
PS: Oui, pas de quote au message précédent + un saut de page peut faire qu'on n'ait pas vu le début.


---------------
"Dans la communication, le récepteur doit s'efforcer de voir selon le point de vue de l'émetteur, et non du sien. Sinon ca n'a aucun sens !" --Mevo
n°73338984
crepator4
Deus ex machina
Posté le 09-08-2025 à 18:07:26  profilanswer
 

gpt 5 se foire sur le test donkey kong ...


---------------
...survivre à ses Medecins...
n°73339698
bulldozer_​fusion
rip Mekthoub
Posté le 09-08-2025 à 21:19:23  profilanswer
 

J'ai testé GPT 5 sur une application à développer cette aprem, il était pas mauvais mais son contexte limité est pénalisant
J'ai fini avec grok 4 :O


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73339788
Olivie
SUUUUUUUUUUUUUU
Posté le 09-08-2025 à 21:44:51  profilanswer
 

bulldozer_fusion a écrit :

J'ai testé GPT 5 sur une application à développer cette aprem, il était pas mauvais mais son contexte limité est pénalisant
J'ai fini avec grok 4 :O


Je vois de voir que j'ai aussi accès à Grok 4. Ca prouve que personne ne l'utilise malgré les 10 posts par jour d'Elon dessus  :lol:  
Par contre c'est très limité:
 

Citation :

@HCSolakoglu
 
X Premium giving you only 5 Grok4 queries every 12 hours.


 
Ce qui est bien avec les benchmarks, c'est que y a de tout:
GPT-5 au top
https://pbs.twimg.com/media/Gx6f3wgXkAA-1KD?format=jpg&name=small
 
Ou un QI de 70
 
https://pbs.twimg.com/media/Gx3YpP1WoAA9Vbn?format=png&name=900x900


---------------

n°73339800
Olivie
SUUUUUUUUUUUUUU
Posté le 09-08-2025 à 21:46:36  profilanswer
 

C'est quand même des génies chez OpenAI. Les gens se sont plains de la nomenclature incompréhensible. Alors ils ont sorti GPT-5 et GPT-5 Thinking.
Mais GPT-5 a le mode "réfléchis plus longtemps".
 
https://i.imgur.com/qLFWvnu.jpeg


---------------

n°73339826
bulldozer_​fusion
rip Mekthoub
Posté le 09-08-2025 à 21:51:17  profilanswer
 

[quotemsg=73339788,7725,563008]
Je vois de voir que j'ai aussi accès à Grok 4. Ca prouve que personne ne l'utilise malgré les 10 posts par jour d'Elon dessus :lol:
Par contre c'est très limité:

 
Citation :

@HCSolakoglu

 

X Premium giving you only 5 Grok4 queries every 12 hours.


Je l'utilise via perplexity


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73339930
Olivie
SUUUUUUUUUUUUUU
Posté le 09-08-2025 à 22:21:12  profilanswer
 

C'est bon là ou il se trompe ? :D
 
https://preview.redd.it/the-duality-of-chatgpt-5-v0-zuql83hspxhf1.jpeg?width=1080&crop=smart&auto=webp&s=508d86e424d50146c3768b44c5daa53ded55e2b7


---------------

n°73339947
XaTriX
Posté le 09-08-2025 à 22:26:14  profilanswer
 

Olivie a écrit :

C'est quand même des génies chez OpenAI. Les gens se sont plains de la nomenclature incompréhensible. Alors ils ont sorti GPT-5 et GPT-5 Thinking.
Mais GPT-5 a le mode "réfléchis plus longtemps".

 

https://i.imgur.com/qLFWvnu.jpeg


Ouais pour régler le problème de tous ces modèles ils ont sorti 4 modèles :o


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
mood
Publicité
Posté le 09-08-2025 à 22:26:14  profilanswer
 

n°73340100
falkon1000
Posté le 09-08-2025 à 23:30:01  profilanswer
 

Olivie a écrit :

C'est quand même des génies chez OpenAI. Les gens se sont plains de la nomenclature incompréhensible. Alors ils ont sorti GPT-5 et GPT-5 Thinking.
Mais GPT-5 a le mode "réfléchis plus longtemps".
 
https://i.imgur.com/qLFWvnu.jpeg


Oui je pense que ce sont des génies qui ont démocratisé une technologie de chercheurs et l’ont rendue utile à 700 millions de personnes
Tout le monde les copie
 
Et comme c’est malheureusement toujours le cas dans ce genre de situation, tout le monde commence à les critiquer
 
C’est clair que les deux « Thinking » ce n’est pas clair
Mais ce sont bien eux qui ont rendu l’IA simple à utiliser et utile

n°73340120
Olivie
SUUUUUUUUUUUUUU
Posté le 09-08-2025 à 23:41:04  profilanswer
 

falkon1000 a écrit :


Oui je pense que ce sont des génies qui ont démocratisé une technologie de chercheurs et l’ont rendue utile à 700 millions de personnes
Tout le monde les copie
 
Et comme c’est malheureusement toujours le cas dans ce genre de situation, tout le monde commence à les critiquer
 
C’est clair que les deux « Thinking » ce n’est pas clair
Mais ce sont bien eux qui ont rendu l’IA simple à utiliser et utile


C'était facon de parler hein :o
Et les vrais, ca ne serait pas plutot les auteurs de la technologie Transformers de chez Google ?


---------------

n°73340167
falkon1000
Posté le 10-08-2025 à 00:17:12  profilanswer
 

Non je ne pense pas
 
OpenAI a vulgarisé la techno
Google a inventé la techno
 
Google a copié ChatGPT pour faire Gemini …

n°73340232
LibreArbit​re
La /root est longue
Posté le 10-08-2025 à 01:09:58  profilanswer
 

Pour le coup c'est bien Google avec l'architecture Transformers sans ça Openai n'existerait pas, ça a été LE game changer...


---------------
Hebergement d'images
n°73340246
crepator4
Deus ex machina
Posté le 10-08-2025 à 01:35:19  profilanswer
 

deepl me trduit un pdf comme un .ul, z'avez une idée d'un machin mieux ? (il lui faudra un peu d'ocr c'est un vieux bouquin )


---------------
...survivre à ses Medecins...
n°73340390
falkon1000
Posté le 10-08-2025 à 08:23:34  profilanswer
 

LibreArbitre a écrit :

Pour le coup c'est bien Google avec l'architecture Transformers sans ça Openai n'existerait pas, ça a été LE game changer...


C’est une vision technique de la chose
Mais la réalité c’est que la techno tout le monde s’en fous
 
OpenAI a fait passer les LLM du statut de truc inutile pour chercheur à outil grand public utilisé par 700 millions de personnes
 
J’avais vu une interview de Yann LeCun qui disait que quand il avait vu l’annonce de ChatGPT il s’était dit « bha on a la techno depuis 10 ans » puis « jamais j’aurais cru qu’elle pouvait intéresser le grand public »
 
Si on adopte une vision marché / stratégie, c’est bien openai qui a changé le monde

n°73340661
tarpan66
Posté le 10-08-2025 à 10:06:48  profilanswer
 

Un peu le même coup qu'Apple et Xerox pour l'interface graphique et la souris...


---------------
[TU] - Légumes Fermentés, choucroute, kimchi et autres lactos  
n°73340772
falkon1000
Posté le 10-08-2025 à 10:40:11  profilanswer
 

Oui et Apple avec le smartphone
IBM et Mac avec les ordi personnels
 
Etc.

n°73340900
LibreArbit​re
La /root est longue
Posté le 10-08-2025 à 11:06:49  profilanswer
 

falkon1000 a écrit :

C’est une vision technique de la chose
Mais la réalité c’est que la techno tout le monde s’en fous


Oui, le client final s'en fout mais là avec l'IA on est bloqué car techniquement on a atteint les limites de l'architecture transformers. Bien entendu que c'est l'implémentation qui est la partie visible de l'iceberg mais jusqu'à preuve du contraire c'est pas les ingés d'OpenAI qui écriront le futur, eux sont des ingénieurs qui font de l'ingénierie, mais ils restent tributaires des théoriciens et chercheurs, et en attendant les marketeux font illusion mais jamais les grands bouleversements technologiques ont été le fait de développeurs...

 

Ça serait comme dire que personne ne connaît Pasteur mais uniquement le nom du fabricant du vaccin antirabique, ça n'est pas le cas, c'est juste qu'il y a des egos plus grands dans la tech que dans la médecine...


Message édité par LibreArbitre le 10-08-2025 à 11:07:36

---------------
Hebergement d'images
n°73341623
mcrak
1er, 2ème & 3eme top player.
Posté le 10-08-2025 à 14:28:23  profilanswer
 


Chat GPT5 incapable de faire de l’arithmétique élémentaire c’est quand même très décevant non?


---------------
Se Queda.
n°73341630
gagaches
Posté le 10-08-2025 à 14:30:17  profilanswer
 

falkon1000 a écrit :


C’est une vision technique de la chose
Mais la réalité c’est que la techno tout le monde s’en fous

 

OpenAI a fait passer les LLM du statut de truc inutile pour chercheur à outil grand public utilisé par 700 millions de personnes

 

J’avais vu une interview de Yann LeCun qui disait que quand il avait vu l’annonce de ChatGPT il s’était dit « bha on a la techno depuis 10 ans » puis « jamais j’aurais cru qu’elle pouvait intéresser le grand public »

 

Si on adopte une vision marché / stratégie, c’est bien openai qui a changé le monde

 

Donc...
les génies c'est bien Google.
Les marketeux c'est bien openAI.

 

:D


---------------

n°73341668
Ivar Loeil​ malefique
Posté le 10-08-2025 à 14:42:31  profilanswer
 

Je suis étonné qu'il n'y ait pas encore de réglementation sur l'entrainement des LLMs.  
 
Car pour l'instant, tout repose sur l'éthique des scientifiques et programmeurs qui entrainent le model: lors de la phase de constitution du dataset de pré-entrainement (problématiques de propriété intellectuelle, exemple Chat GPT dont le dataset de pré-entrainement du modèle de fondation a probablement violé des millions de propriétés intellectuelles dans plusieurs pays). Et lors de la phase d'alignement, pour "civiliser" le model.
 
J'hallucine de voir autant de contrats commerciaux et de pognons investis sur la base d'autant d'énormes problèmes juridiques et de procès à venir pour la question de propriété intellectuelle. Pour moi, on ne peut pas faire de business sur la base des models obscurs Chat GPT, Qwen, etc, c'est aussi simple que ça.
 
Pareil, pour la phase d'alignement du model, il n'est pas difficile d'imaginer des magouilles à ce stade, pour faire un model malveillant, générant des programmes de hack de la machine même de l'utilisateur du model et à son insu, et se répandant sur le net. Genre une organisation terroriste, ou Poutine. Comme dans Cyberpunk 2020 ou 2077.
 
C'est une véritable bombe à retardement les gros models, de type menace nucléaire.

Message cité 1 fois
Message édité par Ivar Loeil malefique le 10-08-2025 à 14:45:33
n°73341672
Olivie
SUUUUUUUUUUUUUU
Posté le 10-08-2025 à 14:43:56  profilanswer
 

Y a un topik pour parler fin du monde IA et philosophie.
Ici on essaie de rester sur les modèles et le côté technique.
Merci  :jap:
ÉDIT: je suis sur mobile, si quelqu’un peut poster le lien de l’autre topik qu’on reste dans le sujet.


Message édité par Olivie le 10-08-2025 à 14:45:04

---------------

n°73341677
Ivar Loeil​ malefique
Posté le 10-08-2025 à 14:46:07  profilanswer
 

Le pré-entrainement et l'alignement, c'est de la technique non ?

n°73341691
XaTriX
Posté le 10-08-2025 à 14:48:58  profilanswer
 

Ivar Loeil malefique a écrit :

Le pré-entrainement et l'alignement, c'est de la technique non ?


C'est quoi ces termes québécois ? :o


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°73341694
Olivie
SUUUUUUUUUUUUUU
Posté le 10-08-2025 à 14:51:24  profilanswer
 

Ivar Loeil malefique a écrit :

Le pré-entrainement et l'alignement, c'est de la technique non ?


Ici on parle de l’utilisation concrète des IA.
Mais si tu entraînes des modèles, ça serait très intéressant que tu en parles.


---------------

n°73341708
Ivar Loeil​ malefique
Posté le 10-08-2025 à 14:55:15  profilanswer
 

XaTriX a écrit :


C'est quoi ces termes québécois ? :o


 
Pré-entrainement = créer un modèle de fondation à partir d'un dataset gigantesque de connaissances (venant d'internet entre autre) et des supercalculateurs. Et lui apprendre à parler.
 
Alignement = civiliser le modèle
 

Olivie a écrit :


Ici on parle de l’utilisation concrète des IA.
Mais si tu entraînes des modèles, ça serait très intéressant que tu en parles.


 
Non je n'entraine pas de modèle. C'est en tant que citoyen que je m'étonne que l'ONU préfère s'intéresser aux jeux vidéo plutôt qu'aux gros modèles, en terme de menaces.

Message cité 1 fois
Message édité par Ivar Loeil malefique le 10-08-2025 à 14:57:53
n°73341798
XaTriX
Posté le 10-08-2025 à 15:34:21  profilanswer
 

J'ai posé une question et j'ai C/C un tableur Gsheet simple de genre 20 lignes et une dizaine de colonnes et ...

 

https://i.imgur.com/Ph6lmlx.png

 

Certes GPT gratos mais bon

 

edit: ok y'a pas mal de vide dans le C/C, my bad je vais retester.

 

par contre j'ai demandé à réessayer comme proposé et il m'a répondu... un truc sur la weed [:rofl] (une autre conversation :o)


Message édité par XaTriX le 10-08-2025 à 15:35:23

---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°73341821
Olivie
SUUUUUUUUUUUUUU
Posté le 10-08-2025 à 15:38:40  profilanswer
 

Ivar Loeil malefique a écrit :


 
Non je n'entraine pas de modèle. C'est en tant que citoyen que je m'étonne que l'ONU préfère s'intéresser aux jeux vidéo plutôt qu'aux gros modèles, en terme de menaces.


 
Voici le lien pour en parler: https://forum.hardware.fr/forum2.ph [...] w=0&nojs=0


---------------

n°73342076
Mevo
Divergent
Posté le 10-08-2025 à 17:19:15  profilanswer
 

Ivar Loeil malefique a écrit :

Je suis étonné qu'il n'y ait pas encore de réglementation sur l'entrainement des LLMs.  
 
Car pour l'instant, tout repose sur l'éthique des scientifiques et programmeurs qui entrainent le model: lors de la phase de constitution du dataset de pré-entrainement (problématiques de propriété intellectuelle, exemple Chat GPT dont le dataset de pré-entrainement du modèle de fondation a probablement violé des millions de propriétés intellectuelles dans plusieurs pays). Et lors de la phase d'alignement, pour "civiliser" le model.
 
J'hallucine de voir autant de contrats commerciaux et de pognons investis sur la base d'autant d'énormes problèmes juridiques et de procès à venir pour la question de propriété intellectuelle. Pour moi, on ne peut pas faire de business sur la base des models obscurs Chat GPT, Qwen, etc, c'est aussi simple que ça.
 
Pareil, pour la phase d'alignement du model, il n'est pas difficile d'imaginer des magouilles à ce stade, pour faire un model malveillant, générant des programmes de hack de la machine même de l'utilisateur du model et à son insu, et se répandant sur le net. Genre une organisation terroriste, ou Poutine. Comme dans Cyberpunk 2020 ou 2077.
 
C'est une véritable bombe à retardement les gros models, de type menace nucléaire.


Pour la réglementation, en Europe, il y a l'AI act.
 
Coté entrainement et alignement, à mon sens, il y a surtout un soucis "d'idéologie" et/ou de "tendance politique" des modèles (que tu vois déjà avec les grands modèles hébergés, dont c'est le sujet sur ce topic). Tu peux aller interroger les modèles sur des sujets "difficiles" ou "sensibles" et voir à quoi ils répondent ou non, mais surtout comment. Je l'ai fait de mon coté. Gemini avoue par exemple sans difficulté être plutôt "woke", il défend le pourquoi de la chose, et avec un peu de temps et d'effort, je n'ai pas eu de difficultés particulières à lui faire "admettre" les effets secondaires potentiellement négatifs ou les "mauvais cotés". De base, il reste "woke", il ne dira par exemple jamais rien sur l'utilisateur (il n'infère rien quant aux utilisateurs, par choix -c'est même difficile à lui faire faire sur demande explicite), etc.
 
Les "combats idéologiques" qu'on peut voir au niveau de la modération (ou non modération) des plateformes (les histoires autout de cela sur Twitter avant et depuis la reprise de Musk, par exemple) vont sans doute rapidement se poser avec les modèles d'IA (et devenir un gros bordel). C'est peu un soucis pour ceux qui se servent de modèles pour coder. Pour créer du texte, de la conversation ou de la réponse à des questions, ca devient un tout autre problème. Les modèles peuvent devenir des outils de propagande subtils.
 
La propriété intellectuelle est un vaste sujet, mais a priori, ca semble se diriger vers "si un humain peut le lire et s'en inspirer, une IA peut être entraîné dessus": Pas de la violation de propriété intellectuelle. Ce qui est très discutable et dépend du point de vue.
La tendance quant à la production des IAs semble davantage aller dans le sens de cette dernière appartenant aux utilisateurs qui sont libres de l'utiliser (même si certains sembleraient tenter de faire différemment. Je ne suis pas convaincu qu'ils aient un avenir, perso).
Sur les éventuels "problèmes juridiques" que tu soulèves, j'ai tendance à penser qu'il va surtout y avoir de grosses difficultés pour prouver les choses, de la part de ceux qui voudraient intenter des actions. Après, que ce ne soit pas une stratégie, certes.
 
"Model malveillant": En hébergé ? En open-weight ? Un modèle qui pourrait générer des "programmes de hacks" sur demande, c'est tout à fait possible, et ca existe en open-weight (et peut-être même en hébergé, en fonction des "gardes-fous" du modèle, ou de leur absence). Il y a "juste" à correctement le fine-tuner et le réaligner pour lui faire produire ce que tu souhaites. Qu'un modèle insère du code malveillant à l'insu de l'utilisateur ? Ok, mais ca reste l'exact même schéma que dans presque tout: La fille que tu vas ramener chez toi et qui va te droguer et te voler, tes infos de CB qui vont être dérobées sur un site malveillant ou un skimmer sur un distributeur/une pompe à essence, etc. Il est question d'à qui tu fais confiance. Et oui, tu as des risques qui apparaissent avec l'open-weight. Après, il faut encore exécuter le code généré par le modèle. T'es supposé éventuellement le relire et ne pas exécuter n'importe quoi à l'aveugle, surtout pas provenant d'un modèle en lequel tu n'as pas confiance.
 
Mais bref, les législations contre les accès non autorisés à des systèmes informatiques et tout ce que tu veux, existent déjà un peu partout. On n'est "que" sur un dérivé du phishing, des virus, etc. Il n'y a pas forcément besoin de "régulations" spécifiques là où des règles générales existent déjà. Après, il faut peut-être aussi distinguer la réalité de la fiction ("menace nucléaire", really ?)
 
Tu peux avoir des backdoors ou fonctions malveillantes dans les apps que tu installes sur ton téléphone, les extentions que tu installes sur ton navigateur, les programmes que tu télécharges et exécutes sur ton ordi, etc. Faire tourner un modèle en soi, meme open-weight téléchargé, ne semble pas poser de risques (lorsque tu utilises un framework en lequel tu as confiance. Les poids téléchargés en soi ne semblent pas risqués). L'utilisation de ce qu'il génère (potentiellement risqué !) est a priori sous la responsabilité de l'utilisateur. Et filer des accès automatiques ou à certaines fonctionnalités directement à un modèle (dont on ne serait pas 100% sur) sans surveillance, là, oui, peut-être n'est-ce pas une bonne idée.
 
"Réglementer" pour éviter les acteurs malveillant (qui ne respectent pas les réglementations par définition), ca, c'est possiblement tout un sujet en soi...
Un modèle malveillant, ca va tout de même se remarquer et se savoir plus ou moins rapidement, aussi. Donc ca a une durée de vie limitée. Sans avoir besoin de "réglementation".


---------------
"Dans la communication, le récepteur doit s'efforcer de voir selon le point de vue de l'émetteur, et non du sien. Sinon ca n'a aucun sens !" --Mevo
n°73342217
Ivar Loeil​ malefique
Posté le 10-08-2025 à 18:02:39  profilanswer
 

Mevo a écrit :


Pour la réglementation, en Europe, il y a l'AI act.


 
Ah OK merci, je ne connaissais pas.
 

Citation :


Coté entrainement et alignement, à mon sens, il y a surtout un soucis "d'idéologie" et/ou de "tendance politique" des modèles (que tu vois déjà avec les grands modèles hébergés, dont c'est le sujet sur ce topic). Tu peux aller interroger les modèles sur des sujets "difficiles" ou "sensibles" et voir à quoi ils répondent ou non, mais surtout comment. Je l'ai fait de mon coté. Gemini avoue par exemple sans difficulté être plutôt "woke", il défend le pourquoi de la chose, et avec un peu de temps et d'effort, je n'ai pas eu de difficultés particulières à lui faire "admettre" les effets secondaires potentiellement négatifs ou les "mauvais cotés". De base, il reste "woke", il ne dira par exemple jamais rien sur l'utilisateur (il n'infère rien quant aux utilisateurs, par choix -c'est même difficile à lui faire faire sur demande explicite), etc.
 
Les "combats idéologiques" qu'on peut voir au niveau de la modération (ou non modération) des plateformes (les histoires autout de cela sur Twitter avant et depuis la reprise de Musk, par exemple) vont sans doute rapidement se poser avec les modèles d'IA (et devenir un gros bordel). C'est peu un soucis pour ceux qui se servent de modèles pour coder. Pour créer du texte, de la conversation ou de la réponse à des questions, ca devient un tout autre problème. Les modèles peuvent devenir des outils de propagande subtils.


 
Oui tu as raison sur le côté politique de la conception du modèle. Le problème est que les models sont présentés comme neutres, alors que non. J'ai testé Qwen sur le régime autoritaire communiste en Chine, et il faisait clairement de la propagande d'Etat. Donc Qwen ne respecte pas le AI Act européen (question des droits fondamentaux).
 

Citation :


La propriété intellectuelle est un vaste sujet, mais a priori, ca semble se diriger vers "si un humain peut le lire et s'en inspirer, une IA peut être entraîné dessus": Pas de la violation de propriété intellectuelle. Ce qui est très discutable et dépend du point de vue.
La tendance quant à la production des IAs semble davantage aller dans le sens de cette dernière appartenant aux utilisateurs qui sont libres de l'utiliser (même si certains sembleraient tenter de faire différemment. Je ne suis pas convaincu qu'ils aient un avenir, perso).
Sur les éventuels "problèmes juridiques" que tu soulèves, j'ai tendance à penser qu'il va surtout y avoir de grosses difficultés pour prouver les choses, de la part de ceux qui voudraient intenter des actions. Après, que ce ne soit pas une stratégie, certes.


 
Oui, c'est surtout sur cette question de la preuve juridique, que toutes ces boites américaines ont profité de mauvaise foi - et volé - toutes ces propriétés intellectuelles dans le monde entier, pour pré-entrainer leur models, pour en tirer de l'argent et du pouvoir. Cad en sachant très bien qu'en cachant leurs sources, aucun ayant droit ne pourrait rien prouver. C'est le plus gros holdup de la part de milliardaires, de toute l'histoire de l'humanité je pense.  
 
Comme tu dis, la clef est "libres de l'utiliser".
 
Mais je vois bien un juge mettre en demeure demain Open AI ou autre à dévoiler les datasets qu'ils ont utilisé pour le pré-entrainement, et qu'il y ait des audits dessus. Je trouve que les business qui se basent sur ces models sont risqués juridiquement parlant. Ils ont intérêt à prévoir des frais de procès/d'arbitrage/de règlement à l'amiable, pour le futur. Exemple les boites de jeux vidéo, je ferais très gaffe au model que j'utilise, et à la provenance des données de pré-entrainement.
 

Citation :


"Model malveillant": En hébergé ? En open-weight ? Un modèle qui pourrait générer des "programmes de hacks" sur demande, c'est tout à fait possible, et ca existe en open-weight (et peut-être même en hébergé, en fonction des "gardes-fous" du modèle, ou de leur absence). Il y a "juste" à correctement le fine-tuner et le réaligner pour lui faire produire ce que tu souhaites. Qu'un modèle insère du code malveillant à l'insu de l'utilisateur ? Ok, mais ca reste l'exact même schéma que dans presque tout: La fille que tu vas ramener chez toi et qui va te droguer et te voler, tes infos de CB qui vont être dérobées sur un site malveillant ou un skimmer sur un distributeur/une pompe à essence, etc. Il est question d'à qui tu fais confiance. Et oui, tu as des risques qui apparaissent avec l'open-weight. Après, il faut encore exécuter le code généré par le modèle. T'es supposé éventuellement le relire et ne pas exécuter n'importe quoi à l'aveugle, surtout pas provenant d'un modèle en lequel tu n'as pas confiance.
 
Mais bref, les législations contre les accès non autorisés à des systèmes informatiques et tout ce que tu veux, existent déjà un peu partout. On n'est "que" sur un dérivé du phishing, des virus, etc. Il n'y a pas forcément besoin de "régulations" spécifiques là où des règles générales existent déjà. Après, il faut peut-être aussi distinguer la réalité de la fiction ("menace nucléaire", really ?)
 
Tu peux avoir des backdoors ou fonctions malveillantes dans les apps que tu installes sur ton téléphone, les extentions que tu installes sur ton navigateur, les programmes que tu télécharges et exécutes sur ton ordi, etc.
 
 Faire tourner un modèle en soi, meme open-weight téléchargé, ne semble pas poser de risques (lorsque tu utilises un framework en lequel tu as confiance. Les poids téléchargés en soi ne semblent pas risqués). L'utilisation de ce qu'il génère (potentiellement risqué !) est a priori sous la responsabilité de l'utilisateur. Et filer des accès automatiques ou à certaines fonctionnalités directement à un modèle (dont on ne serait pas 100% sur) sans surveillance, là, oui, peut-être n'est-ce pas une bonne idée.
 
"Réglementer" pour éviter les acteurs malveillant (qui ne respectent pas les réglementations par définition), ca, c'est possiblement tout un sujet en soi...
Un modèle malveillant, ca va tout de même se remarquer et se savoir plus ou moins rapidement, aussi. Donc ca a une durée de vie limitée. Sans avoir besoin de "réglementation".


 
Oui, c'est vrai au final que la réglementation n'est pas suffisante ici, mais quand même, il pourrait y avoir plus d'obligations de transparence sur les données de pré-entrainement des LLMs.

Message cité 1 fois
Message édité par Ivar Loeil malefique le 10-08-2025 à 18:20:07
n°73342346
Mevo
Divergent
Posté le 10-08-2025 à 18:41:32  profilanswer
 

Ivar Loeil malefique a écrit :

J'ai testé Qwen sur le régime autoritaire communiste en Chine, et il faisait clairement de la propagande d'Etat.


Tous les modèles Chinois y sont un peu légalement obligés (en tout cas pour les modèles hébergés et pour un certain nombre de choses à censurer. Je ne sais pas précisément ce qui est obligatoire ou non, mais ils ont des obligations)
Va demander des infos au sujet des Manifestations de la place Tian'anmen, là, c'est à peu près garanti que "ca va couper" :o
 
Oui, perso, je trouve assez moyen qu'on ait tous collectivement participé à notre insu à la création de données, sans le savoir en amont, sans y être réellement consentants (bon, "personne" ne savait trop à l'époque, a priori).
Je n'ai pas trop ce coté "jalousie" à me dire "d'autres en profitent pour gagner argent et pouvoir" (tant mieux pour eux !), mais si l'IA finit par détruire énormément d'emplois et coller un tas de gens au chomage, comme certains scénarios pessimistes le présagent, on aura tous participé à créer ce qui prendra "notre" propre boulot, in fine. Et je trouve ca un peu gênant psychologiquement.
 
"En cachant leurs sources": Je ne crois pas que ce soit réellement le cas. Tu ne peux plus vraiment les retrouver dans le résultat final (le modèle), mais les datasets d'entrainement, ils les ont. Et ils les conservent, vraisemblablement (ne serait-ce que s'il en ont besoin pour d'autres entraînements). Il n'est pas tant question de "cacher' que de la manière dont ca fonctionne techniquement. Ok, ils ne les ont pas open-sourcés non plus. Mais c'est gros, et ils ne veulent pas les partager parce que ca leur donne un avantage compétitif.
 
"un juge mettre en demeure demain Open AI ou autre à dévoiler les datasets qu'ils ont utilisé": Oui, voilà. Ca parait totalement possible. MAIS, c'est tellement massif que tout n'est qu'une goutte d'eau, individuellement. Et rien que pour l'explorer un peu, il faut quasiment utiliser une IA (ou rechercher un truc spécifique). Qu'est-ce que quiconque va faire ? Combien "vaut" une donnée copyrightée dans cet océan ?
 

Ivar Loeil malefique a écrit :

Je suis simplement étonné que les pouvoirs publics du monde entier, l'ONU, etc, ne se soient toujours pas au moins penché sur ces questions de pré-entrainement et d'alignement.


D'un autre coté, pour faire quoi ? Oui, on peut biaiser un modèle. Un peu comme on le souhaite. On est aussi supposés être dans des pays "libres". Tu veux des règles "à la Chinoise" sur ce qu'un modèle peut ou ne peut pas dire, doit ou ne doit pas dire ? Les philosophies des boites quant à leurs modèles, on les connait dans les grandes lignes: Anthropic n'est pas xAi, Claude n'est pas Grok. Si c'est annoncé relativement clairement, c'est bien, et c'est ce que ca devrait. On reste à aujourd'hui sur de la recherche de modèles supposés globalement "neutres", pour la majorité (ce qui est plus ou moins vrai).
 
Tu peux aussi légiférer tout ce que tu veux, maintenant, le génie est "sorti de la bouteille": Tu peux éventuellement limiter ce qui est proposé en hébergé, mais pas ce que certains feront tourner eux-même, modifieront eux-même, etc.
Tout reste sous la responsabilité de ceux qui utilisent les outils, aussi. Avec un tas de règles connues existantes.


Message édité par Mevo le 11-08-2025 à 01:54:25

---------------
"Dans la communication, le récepteur doit s'efforcer de voir selon le point de vue de l'émetteur, et non du sien. Sinon ca n'a aucun sens !" --Mevo
n°73342438
Olivie
SUUUUUUUUUUUUUU
Posté le 10-08-2025 à 19:08:40  profilanswer
 

Citation :

@elonmusk
 
Our V7 foundation model, which finished pre-training last week, is natively multimodal.  
 
It processes a video/audio bitstream directly, understanding it without converting it into anything, so, for example, it will finally understand nuances in how you speak that convey mood and emphasis.


---------------

n°73342622
Olivie
SUUUUUUUUUUUUUU
Posté le 10-08-2025 à 19:59:50  profilanswer
 

Citation :

@sama
today we are significantly increasing rate limits for reasoning for chatgpt plus users, and all model-class limits will shortly be higher than they were before gpt-5.
 
we will also shortly make a UI change to indicate which model is working.


---------------

n°73342629
bulldozer_​fusion
rip Mekthoub
Posté le 10-08-2025 à 20:02:21  profilanswer
 

Olivie a écrit :

Citation :

@sama
today we are significantly increasing rate limits for reasoning for chatgpt plus users, and all model-class limits will shortly be higher than they were before gpt-5.
 
we will also shortly make a UI change to indicate which model is working.



ça bosse même le dimanche pour Sam :o


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73342652
Olivie
SUUUUUUUUUUUUUU
Posté le 10-08-2025 à 20:09:26  profilanswer
 

bulldozer_fusion a écrit :


ça bosse même le dimanche pour Sam :o


C'est un peu un fail ce modèle dans le sens où l'appeler "5" ca veut dire (pour les gens) une grosse avancée. Comme passer de GPT-3.5 à 4 ce qui ne semble pas le cas.
 
Et quand tu commences à mettre des quotas, mais que tu ne communiques pas entièrement dessus, les gens n'aiment pas.
Je me demande pourquoi ils se sont précipités à sortir ce modèle. Ils ont peut être des infos sur Gemini 3  :??:
 
Et les génies du marketing qui avait promis d'être plus clair au niveau de la nomenclature :o
 
https://pbs.twimg.com/media/Gx-9eB8a4AA3-w2?format=jpg&name=small

Message cité 1 fois
Message édité par Olivie le 10-08-2025 à 20:10:24

---------------

n°73342686
Olivie
SUUUUUUUUUUUUUU
Posté le 10-08-2025 à 20:18:38  profilanswer
 

Ca c'est déjà mieux :o
 

Citation :

techikansh
 
How many gpt-5-thinking queries do we PLUS users get?? AND what reasoning level??


Citation :

@sama
 
trying 3000 per week now!


---------------

n°73342707
Olivie
SUUUUUUUUUUUUUU
Posté le 10-08-2025 à 20:25:39  profilanswer
 

Et ben dit donc, y en a des features dans GPT-5 :o Youhou c'est super :o
 

Citation :

@btibor91
New "ecosystem_demo.daw_drums" tool has been added to ChatGPT before the GPT-5 launch
 
If you tell GPT-5 to use "beatbot" it will show an interactive, minimal DAW widget - a looping grid (step sequencer) with drum tracks
 
https://pbs.twimg.com/media/GyAluqnagAAUtZQ?format=jpg&name=small



---------------

n°73342853
Olivie
SUUUUUUUUUUUUUU
Posté le 10-08-2025 à 21:02:19  profilanswer
 

"GPT-5" c'est un routeur, il recoit le prompt puis décide quel modèle utiliser pour répondre à la question
Il faut ajouter "think hard" pour utiliser GPT-5 high (de ce que j'ai compris).  
 

Citation :

@jeremyphoward
PSA: Add ". think hard" to the end of all your ChatGPT GPT5 prompts. In my testing, so far that has resulted in it using the competent model 100% of the time.
 
And so far, not adding it has resulted in it using the crippled model 100% of the time, which has failed all my tasks.


 

Citation :

@rohanpaul_ai
OpenAI's GPT 5 System card (a 59 page doc)
 
Key Takawsys  
 
The model router
 
The chat system holds two main models.  
 
A quick one answers easy stuff.
 
A deeper one opens only when the router sees tricky logic or the user types “think hard”.
 
The router trains on real clicks, so it keeps steering questions to the best model over time.
 
- The router learns from user behavior and correctness signals to improve routing over time.  
 
- gpt-5-thinking is also offered in mini and nano sizes for lower latency and cost.  
 
- Safe-completions training teaches both models to give high-level help while withholding dangerous detail.  
 
- On real ChatGPT traffic gpt-5-main cuts responses with major factual errors by 44% and gpt-5-thinking cuts them by 78% relative to OpenAI o3.  
 
- Claim-level hallucination rates fall 26% for gpt-5-main and 65% for gpt-5-thinking compared with earlier models.  
 
- gpt-5-thinking slashes sycophancy scores far below GPT-4o and even outperforms gpt-5-main.  
 
- HealthBench Hard accuracy climbs from 31.6% for OpenAI o3 to 46.2% for gpt-5-thinking.  
 
- OpenAI labels gpt-5-thinking as high bio risk and surrounds it with a 2-tier real-time biology filter.  
 
- The safeguard stack promises that users cannot obtain detailed weaponization instructions and violators face account bans.  
 
- New RL rewards push the model to refuse or provide guarded answers on risky dual-use topics.  
 
- Developers can hit gpt-5-thinking directly through the API for heavy reasoning jobs.  
 
https://pbs.twimg.com/media/Gxxro_xXoAA-4LC?format=png&name=small


---------------

n°73343265
bulldozer_​fusion
rip Mekthoub
Posté le 10-08-2025 à 22:40:05  profilanswer
 

Olivie a écrit :


C'est un peu un fail ce modèle dans le sens où l'appeler "5" ca veut dire (pour les gens) une grosse avancée. Comme passer de GPT-3.5 à 4 ce qui ne semble pas le cas.

 

Et quand tu commences à mettre des quotas, mais que tu ne communiques pas entièrement dessus, les gens n'aiment pas.
Je me demande pourquoi ils se sont précipités à sortir ce modèle. Ils ont peut être des infos sur Gemini 3 :??:

 

Et les génies du marketing qui avait promis d'être plus clair au niveau de la nomenclature :o

 

https://pbs.twimg.com/media/Gx-9eB8 [...] name=small


Sûrement que la concurrence étant rude, ils se sont précipités


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73343269
bulldozer_​fusion
rip Mekthoub
Posté le 10-08-2025 à 22:40:46  profilanswer
 
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  193  194  195  ..  250  251  252  253  254  255

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)