|
Auteur | Sujet : Intelligence artificielle |
---|
the_fennec f3nn3cUs z3rd4 | Reprise du message précédent : --------------- Faudra que je teste un jour :o |
Publicité | Posté le 20-02-2024 à 20:09:18 |
asmomo | Les progrès de l'IA sont intéressants, elle est capable de "générer" toutes sortes de choses, mais quid de faire des choses à ma place ? De combiner la compréhension vocale de ce que je dis, et de pouvoir exécuter les actions, genre sur mon PC en utilisant divers logiciels et applications, accédant à mes fichiers de tout type, etc. ?
--------------- New Technology is the name we give to stuff that doesn't work yet. Douglas Adams |
the_fennec f3nn3cUs z3rd4 |
--------------- Faudra que je teste un jour :o |
simius_computus oh Gary boy | ChatGPT et les trucs génératifs sont capables de contresens énormes au milieu d'un truc relativement cohérent, et je pense pas qu'augmenter la taille des modèles fasse disparaître ce "problème technique". Il manque la couche logique qu'ont les humains pour effectuer des corrections sur le résultat de la couche "proba". --------------- IWH --- Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde) |
rakame |
|
Tidom | Alors que le terme "erreur" serait plus approprié
|
rakame |
Bah, je sais pas. Une hallucination d'un LLM n'est pas forcément lié a une erreur dans le process de traitement de l'information. Le calcul est juste si tu préfère, mais ça reste un calcul statistique visant à générer du texte. Pour le LLM, la sortie est correcte. Mais comme nous on interprète le sens de ce que le modèle produit alors que lui non, ben nous on peut constater une erreur. A partir du moment ou a bien compris que ce type de modèle ne comprend rien a ce qu'il raconte, il n'y a pas de souci. C'est un générateur de texte puissant mais pas parfait. Il faut juste ne pas leur faire confiance, c'est tout. Mais bon, de ce point de vue, ça change pas vraiment vis à vis du discours de mal d'humain. C'est juste qu'on part du principe qu'une machine ne peut pas se tromper. Effectivement, elle ne se trompe pas dans ses calculs de génération de texte, mais ça ne l'empêche aucunement de raconter n'importe quoi du point de vu du texte produit et ensuite interprété par quelqu'un capable d'en comprendre le sens. Message cité 1 fois Message édité par rakame le 22-02-2024 à 17:53:35 |
rakame | LeCun explique ça très bien dans sa conf à 26:32 |
simius_computus oh Gary boy |
--------------- IWH --- Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde) |
Publicité | Posté le 22-02-2024 à 18:11:36 |
rakame |
|
_tchip_ |
--------------- J'adore la France, dans 20-30 ans y en aura plus. |
rakame |
|
simius_computus oh Gary boy |
--------------- IWH --- Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde) |
simius_computus oh Gary boy | Après si tu as des infos sur un test qui permettrait de déceler une "vraie intelligence" je suis preneur. Message cité 2 fois Message édité par simius_computus le 22-02-2024 à 19:00:10 --------------- IWH --- Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde) |
the_fennec f3nn3cUs z3rd4 |
--------------- Faudra que je teste un jour :o |
the_fennec f3nn3cUs z3rd4 |
--------------- Faudra que je teste un jour :o |
chinois02 |
--------------- N'importe qui peut voir ce que tu sembles être; quelques rares seulement peuvent tâter ce que tu est. Et ces derniers n'osent contredire l'opinion du grand nombre, renforcée par toute la majesté de l'État. Machiavel-Le Prince. |
cvman |
|
rakame | Surtout que le fait de considérer les LLM pour ce qu'ils sont, permet de les exploiter là ou ils sont vraiment efficace. Par exemple dans la traduction automatique, voire en temps réel. Lecun donne l'exemple de certains modèle capable de traduire automatiquement des langues sans avoir été entrainé spécifiquement dessus. C'est juste ouf. Mais pour faire, ils n'ont pas besoin de comprendre ce qu'ils racontent, et on leur demande pas non plus. Mais ils sont capable de produire une représentation interne, une modélisation de ces langues, qui est indépendante de celle-ci.
|
chinois02 | Essai de Geminni (ex Google Bard) avec la question suivante:
Message cité 1 fois Message édité par chinois02 le 22-02-2024 à 20:41:17 --------------- N'importe qui peut voir ce que tu sembles être; quelques rares seulement peuvent tâter ce que tu est. Et ces derniers n'osent contredire l'opinion du grand nombre, renforcée par toute la majesté de l'État. Machiavel-Le Prince. |
rakame |
|
the_fennec f3nn3cUs z3rd4 |
--------------- Faudra que je teste un jour :o |
rakame |
|
the_fennec f3nn3cUs z3rd4 |
Tout a fait merci! --------------- Faudra que je teste un jour :o |
Tidom |
|
rakame |
|
simius_computus oh Gary boy | Il y a un malentendu, toi tu parles du point de vue technique, nous on parle du point de vue d'une IA à qui on demande quand même, quelque-part, de ne pas sortir des énormités (si c'était pas le cas on se serait arrêté à GPT1 sans chercher à réduire les "erreurs" )
Message édité par simius_computus le 23-02-2024 à 18:47:00 --------------- IWH --- Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde) |
Tidom | @rakame : pour t'en convaincre : Survey of Hallucination in Natural Language Generation Où il est indiqué clairement que le terme hallucination est un type d'erreur (on a même droit à l'origine du terme en note de bas de page 3) On a connu les erreurs type-I, type-II, y en plein d'autres, mais hallucinations ça claque Message cité 1 fois Message édité par Tidom le 23-02-2024 à 19:19:29 |
rakame |
|
kaloskagatos |
Dans l'absolu un ordinateur ne fait jamais d'erreur, à moins de prendre des rayons cosmiques qui changent l'état d'un bit. Si un programme ne produit pas le résultat qu'on attend de lui on appelle ça une erreur et on essaye de la corriger. C'est pas parce qu'en programmation classique il s'agit de changer l'algorithme et que dans un LLM il s'agit de changer les poids du réseau que c'est fondamentalement différent, au moins dans le language courant. Je vois pas beaucoup de différence entre toi et un LLM, de notre point de vue t'es aussi un générateur de texte qui affirme qu'il a raison. --------------- « Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. » |
rakame |
|
simius_computus oh Gary boy | Bien sûr, tu as raison, mais le dev qui a son assistant LLM qui lui pond un code avec une erreur de 1 sur un indice de tableau, il voit bel et bien une erreur et pas une "hallucination"
--------------- IWH --- Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde) |
rakame |
|
the_fennec f3nn3cUs z3rd4 | En fait c'est justement de la que vient le principe de la diffusion d'image avec DeepDream de Google:
--------------- Faudra que je teste un jour :o |
Tidom |
Message édité par Tidom le 24-02-2024 à 17:51:43 |
kaloskagatos |
Je ne cherche pas à défendre coûte que coûte les IA, mais je comprends bien la structure d'un LLM et, en grande partie, je suis d'accord avec toi. Cependant, je doute de l'affirmation selon laquelle les humains, contrairement aux machines, possèdent conscience et capacité de raisonnement. Ou au inversement, je doute du fait que ce soit le propre de l'homme, et je ne vois pas ce qui empêcherait les animaux et les IA d'être dotées des mêmes capacités. A noter que pour moi, je considère les LLM au sens "agents", du genre AutoGen (Microsoft) ou AutoGPT. Je ne vois pas pourquoi on devrait se limiter à les juger sur un seul "jet" de génération de texte, on peut bien iterer quelques fois pour obtenir le résultat attendu. Je reconnais que le processus de génération de texte d'un LLM est basé sur les statistiques, prédire le mot suivant en se basant sur les données. Mais en demandant à un LLM de raisonner 'étape par étape', on observe l'émergence de capacités qui semblent rationnelles. En admettant que les LLM ont actuellement des capacités extrêmement limitées par leur architecture et le fait qu'ils se cantonnent à quelques modalités comme le texte et l'image, la différence fondamentale avec nous n'est pas évidente. Nous, nous itérons rapidement sur plusieurs sens, aidés par notre expérience, nos réponses chimiques corporelles conditionnées par des situations, notre éducation et notre culture. Rien qu'on ne pourrait progressivement ajouter à un agent d'IA surtout après qu'on l'ait doté d'un corps de robot. Lorsque je décide d'ouvrir mon frigo pour prendre une bière, stimulé par la soif et parce que je sais (j'ai appris) que j'aime la bière, j'enchaîne des actions statistiquement valides pour atteindre mon objectif initial. Affirmer que "je comprends le mots que j'utilise" je ne sais pas ce que ça veut dire au fond. Mon cerveau est peut-être plein de vecteurs dans un espace multidimensionnels et je sais statistiquement associer des concepts à la notion de bien et de mal. On est probablement encore loin de l'AGI, qui aura sans doute une architecture différente de la nôtre, mais je ne suis pas convaincu que le fondement soit radicalement différent. Et pour clarifier, je ne crois pas en dieu, ni en l'aspect unique de la conscience humaine. Message cité 2 fois Message édité par kaloskagatos le 24-02-2024 à 20:22:03 --------------- « Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. » |
senide Jvais chercher des cigarettes |
--------------- Tout le monde disait que c’était impossible, un imbécile qui n’était pas au courant est arrivé, et l’a fait. |
Publicité | Posté le |