| |||||
| Auteur | Sujet : Intelligence artificielle |
|---|---|
Publicité | Posté le 22-02-2024 à 17:21:36 ![]() ![]() |
rakame |
Bah, je sais pas. Une hallucination d'un LLM n'est pas forcément lié a une erreur dans le process de traitement de l'information. Le calcul est juste si tu préfère, mais ça reste un calcul statistique visant à générer du texte. Pour le LLM, la sortie est correcte. Mais comme nous on interprète le sens de ce que le modèle produit alors que lui non, ben nous on peut constater une erreur. A partir du moment ou a bien compris que ce type de modèle ne comprend rien a ce qu'il raconte, il n'y a pas de souci. C'est un générateur de texte puissant mais pas parfait. Il faut juste ne pas leur faire confiance, c'est tout. Mais bon, de ce point de vue, ça change pas vraiment vis à vis du discours de mal d'humain. Message cité 1 fois Message édité par rakame le 22-02-2024 à 17:53:35 |
rakame | LeCun explique ça très bien dans sa conf à 26:32 |
simius_computus oh Gary boy |
--------------- IWH --- Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde) |
rakame |
|
_tchip_ |
--------------- He likes the taste... |
rakame |
|
simius_computus oh Gary boy |
--------------- IWH --- Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde) |
simius_computus oh Gary boy | Après si tu as des infos sur un test qui permettrait de déceler une "vraie intelligence" je suis preneur. Message cité 2 fois Message édité par simius_computus le 22-02-2024 à 19:00:10 --------------- IWH --- Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde) |
the_fennec f3nn3cUs z3rd4 |
--------------- Faudra que je teste un jour :o |
Publicité | Posté le 22-02-2024 à 19:11:35 ![]() ![]() |
the_fennec f3nn3cUs z3rd4 |
--------------- Faudra que je teste un jour :o |
chinois02 |
--------------- N'importe qui peut voir ce que tu sembles être; quelques rares seulement peuvent tâter ce que tu es. Et ces derniers n'osent contredire l'opinion du grand nombre, renforcée par toute la majesté de l'État. Machiavel-Le Prince. |
Profil supprimé | Posté le 22-02-2024 à 19:46:51 ![]()
|
rakame | Surtout que le fait de considérer les LLM pour ce qu'ils sont, permet de les exploiter là ou ils sont vraiment efficace. Par exemple dans la traduction automatique, voire en temps réel. Lecun donne l'exemple de certains modèle capable de traduire automatiquement des langues sans avoir été entrainé spécifiquement dessus. C'est juste ouf. Mais pour faire, ils n'ont pas besoin de comprendre ce qu'ils racontent, et on leur demande pas non plus. Mais ils sont capable de produire une représentation interne, une modélisation de ces langues, qui est indépendante de celle-ci.
|
chinois02 | Essai de Geminni (ex Google Bard) avec la question suivante:
Message cité 1 fois Message édité par chinois02 le 22-02-2024 à 20:41:17 --------------- N'importe qui peut voir ce que tu sembles être; quelques rares seulement peuvent tâter ce que tu es. Et ces derniers n'osent contredire l'opinion du grand nombre, renforcée par toute la majesté de l'État. Machiavel-Le Prince. |
rakame |
|
the_fennec f3nn3cUs z3rd4 |
--------------- Faudra que je teste un jour :o |
rakame |
|
the_fennec f3nn3cUs z3rd4 |
Tout a fait merci! --------------- Faudra que je teste un jour :o |
TiDom |
|
rakame |
|
simius_computus oh Gary boy | Il y a un malentendu, toi tu parles du point de vue technique, nous on parle du point de vue d'une IA à qui on demande quand même, quelque-part, de ne pas sortir des énormités (si c'était pas le cas on se serait arrêté à GPT1 sans chercher à réduire les "erreurs" Message édité par simius_computus le 23-02-2024 à 18:47:00 --------------- IWH --- Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde) |
TiDom | @rakame : pour t'en convaincre : Survey of Hallucination in Natural Language Generation Où il est indiqué clairement que le terme hallucination est un type d'erreur (on a même droit à l'origine du terme en note de bas de page 3) On a connu les erreurs type-I, type-II, y en plein d'autres, mais hallucinations ça claque Message cité 1 fois Message édité par TiDom le 23-02-2024 à 19:19:29 |
rakame |
|
kaloskagatos |
Dans l'absolu un ordinateur ne fait jamais d'erreur, à moins de prendre des rayons cosmiques qui changent l'état d'un bit. Si un programme ne produit pas le résultat qu'on attend de lui on appelle ça une erreur et on essaye de la corriger. C'est pas parce qu'en programmation classique il s'agit de changer l'algorithme et que dans un LLM il s'agit de changer les poids du réseau que c'est fondamentalement différent, au moins dans le language courant. Je vois pas beaucoup de différence entre toi et un LLM, de notre point de vue t'es aussi un générateur de texte qui affirme qu'il a raison. --------------- « Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. » |
rakame |
|
simius_computus oh Gary boy | Bien sûr, tu as raison, mais le dev qui a son assistant LLM qui lui pond un code avec une erreur de 1 sur un indice de tableau, il voit bel et bien une erreur et pas une "hallucination" --------------- IWH --- Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde) |
rakame |
|
the_fennec f3nn3cUs z3rd4 | En fait c'est justement de la que vient le principe de la diffusion d'image avec DeepDream de Google:
--------------- Faudra que je teste un jour :o |
TiDom |
Message édité par TiDom le 24-02-2024 à 17:51:43 |
kaloskagatos |
Je ne cherche pas à défendre coûte que coûte les IA, mais je comprends bien la structure d'un LLM et, en grande partie, je suis d'accord avec toi. Cependant, je doute de l'affirmation selon laquelle les humains, contrairement aux machines, possèdent conscience et capacité de raisonnement. Ou au inversement, je doute du fait que ce soit le propre de l'homme, et je ne vois pas ce qui empêcherait les animaux et les IA d'être dotées des mêmes capacités. A noter que pour moi, je considère les LLM au sens "agents", du genre AutoGen (Microsoft) ou AutoGPT. Je ne vois pas pourquoi on devrait se limiter à les juger sur un seul "jet" de génération de texte, on peut bien iterer quelques fois pour obtenir le résultat attendu. Je reconnais que le processus de génération de texte d'un LLM est basé sur les statistiques, prédire le mot suivant en se basant sur les données. Mais en demandant à un LLM de raisonner 'étape par étape', on observe l'émergence de capacités qui semblent rationnelles. En admettant que les LLM ont actuellement des capacités extrêmement limitées par leur architecture et le fait qu'ils se cantonnent à quelques modalités comme le texte et l'image, la différence fondamentale avec nous n'est pas évidente. Nous, nous itérons rapidement sur plusieurs sens, aidés par notre expérience, nos réponses chimiques corporelles conditionnées par des situations, notre éducation et notre culture. Rien qu'on ne pourrait progressivement ajouter à un agent d'IA surtout après qu'on l'ait doté d'un corps de robot. Lorsque je décide d'ouvrir mon frigo pour prendre une bière, stimulé par la soif et parce que je sais (j'ai appris) que j'aime la bière, j'enchaîne des actions statistiquement valides pour atteindre mon objectif initial. Affirmer que "je comprends le mots que j'utilise" je ne sais pas ce que ça veut dire au fond. Mon cerveau est peut-être plein de vecteurs dans un espace multidimensionnels et je sais statistiquement associer des concepts à la notion de bien et de mal. On est probablement encore loin de l'AGI, qui aura sans doute une architecture différente de la nôtre, mais je ne suis pas convaincu que le fondement soit radicalement différent. Et pour clarifier, je ne crois pas en dieu, ni en l'aspect unique de la conscience humaine. Message cité 2 fois Message édité par kaloskagatos le 24-02-2024 à 20:22:03 --------------- « Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. » |
senide I am Pierrot. I am every man. |
|
rakame |
Hum, il y a pas mal de point avec lequel je suis plutôt plus ou moins d'accord. Le truc qui coince vraiment, c'est le passage en gras. Tu devrais prendre le temps de regarder la conf de LeCun, il explique assez bien en quoi les LLM sont fondamentalement limité, par construction. Ils sont incapable de raisonnement, incapable de planification. Ensuite dans son cours il explique les directions à prendre, enfin selon lui, pour justement faire évoluer l'architecture de ce type de modèle avec l'objectif de se rapprocher d'une intelligence humaine. (bon c'est là où son cours devient complexe a comprendre si on est pas un expert pointu du domaine). Le problème des LLM c'est qu'on se fait piégé par leur capacité à générer du texte parfaitement intelligible, indistinguable d'un discours humain. LeCun explique aussi pourquoi c'est possible à partir de texte, en quoi c'est relativement facile, de faire illusion. Message édité par rakame le 25-02-2024 à 02:48:40 |
kaloskagatos | J'ai écouté sa conférence jusqu'aux modèles d'énergie, peut-être que j'aurais dû continuer. Pour la première partie de la conférence j'ai l'impression que les modèles génératifs fonctionneraient si on les considère comme des agents, avec des boucles d'itérations. Avec son exemple de prendre un avion pour Paris et décomposer ça en étapes jusqu'à des impulsions musculaires j'ai l'impression que c'est faisable avec des boucles et quelques prompts. Mais techniquement les sujets dont il parle me dépassent donc je me trompe probablement. Et puis tu termines avec l'expression "faire illusion", au final on pensera toujours que l'IA faut illusion parce qu'elle n'est pas faite comme nous, on ne reconnaîtra jamais une vraie conscience à mon avis. Message édité par kaloskagatos le 25-02-2024 à 09:09:20 --------------- « Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. » |
rakame | Justement, LeCun explique bien pourquoi les LLM sont incapable de planifier. Ils ne peuvent pas découper un probléme complexe en un ensemble de sous-probléme. Ils calculent le token suivant avec toujours la même régularité. Bon après, je suis pas expert perso. je ne peux pas te répondre formellement sur ta suggestion.
|
kaloskagatos |
C'est là que je ne suis pas d'accord justement, GPT4 fait très bien ça. Il suffit de bien le guider, éventuellement avoir un agent qui vérifie que les actions vont être correctes et je suis sûr qu'on peut faire prendre l'avion à un robot de Boston Dynamics dès aujourd'hui, même si c'est un peu laborieux. Test rapide avec ChatGPT 4 pour illustrer mon propos de ce que je ne comprends pas vraiment de l'affirmation de Yann Lecun https://chat.openai.com/share/fbecf [...] 1b6359af98 A noter que le format de ses réponses est lié à mon prompt custom.
Message cité 2 fois Message édité par kaloskagatos le 25-02-2024 à 12:10:07 --------------- « Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. » |
the_fennec f3nn3cUs z3rd4 |
--------------- Faudra que je teste un jour :o |
Publicité | Posté le ![]() ![]() |

| Sujets relatifs | |
|---|---|
| Intelligence artificielle : conceptualisation et formulation | intelligence artificielle pour jeu puissance4 avec matlab |
| L'intelligence artificielle est-elle la bien venue parmis les hommes. | Intelligence artificielle....demain |
| robot et intelligence artificielle | INTELLIGENCE ARTIFICIELLE |
| Intelligence artificielle : vous y croyez ? | Intelligence artificielle |
| l'intelligence artificielle | L'intelligence artificielle ! |
| Plus de sujets relatifs à : Intelligence artificielle | |





