Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2633 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  24  25  26  ..  62  63  64  65  66  67
Auteur Sujet :

Intelligence artificielle

n°68662651
the_fennec
f3nn3cUs z3rd4
Posté le 21-06-2023 à 14:44:27  profilanswer
 

Reprise du message précédent :
Pas beaucoup d'humains dans ta foule :o En tout cas la chose en blanc en bas à droite semble chauve.


---------------
Faudra que je teste un jour :o
mood
Publicité
Posté le 21-06-2023 à 14:44:27  profilanswer
 

n°68662834
trueslash
(╯°□°)╯︵ MMM
Posté le 21-06-2023 à 15:04:13  profilanswer
 

Ababakar Octopuce a écrit :


 
Mais c'est pas un biais, puisque c'est la réalité. Un échantillon biaisé, c'est quand l'échantillon n'est pas représentatif de la réalité. Là l'échantillon (sur lequel il a appris) est représentatif de la réalité donc il n'y a pas de biais.
 
Après, on peut discuter du pourquoi et du comment la réalité est comme ça et de comment elle devrait être, mais à la question de représenter la réalité telle qu'elle est aujourd'hui (ce qui est bien la question posée, enfin le prompt demandé), il ne fait aucune erreur et n'a aucun biais s'il montre 90% de femmes quand on lui demande "nurse".


 
Je ne comprends pas ton post, ce qui est observable dans la réalité ne peut pas être biaisé, c'est comme ça que tu vois les choses :??:

n°68663032
Ababakar O​ctopuce
qui foule de sa sandale les
Posté le 21-06-2023 à 15:28:25  profilanswer
 

trueslash a écrit :

 

Je ne comprends pas ton post, ce qui est observable dans la réalité ne peut pas être biaisé, c'est comme ça que tu vois les choses :??:

 

Non, tu ne peux pas généraliser, ce n'est pas vrai pour tout, car dans de nombreux cas l'observation elle-même peut être biaisée et ne pas traduire correctement la réalité qui est derrière, mais c'est vrai dans cet exemple là précis des nurses (dans ce cas, ce qui est observable, ce sont les chiffres officiels, ça correspond donc forcément à la réalité du terrain, moyennant quelques erreurs a priori négligeables).

 

Par exemple, dire que "A vue de nez, 70% des animaux sont des mammifères ou oiseaux", parce que c'est ce qu'on observe quand on regarde dehors, c'est une observation biaisée, car les animaux plus petits, sous-terrains, microscopiques ou plus discrets n'étant pas vus, ne sont pas pris en compte dans cette évaluation. Une IA entrainée sur des données similaires à ce qui est facilement observable par un humain, et qui sortirait 70% de mammifères ou oiseaux quand on lui demande une image d'un animal, elle serait bien sûr biaisée.

 

Mais ce n'est vrai que pour les cas où notre information est parcellaire/incomplète. Là pour les nurses, on a les chiffres officiels, c'est exhaustif (il n'y a pas de nurses microscopiques ou inobservables non prises en compte qui changeraient drastiquement le résultat) et ça correspond à l'évaluation implicite de l'IA.

Message cité 1 fois
Message édité par Ababakar Octopuce le 21-06-2023 à 15:30:56
n°68663948
trueslash
(╯°□°)╯︵ MMM
Posté le 21-06-2023 à 17:31:38  profilanswer
 

Ababakar Octopuce a écrit :


 
Non, tu ne peux pas généraliser, ce n'est pas vrai pour tout, car dans de nombreux cas l'observation elle-même peut être biaisée et ne pas traduire correctement la réalité qui est derrière, mais c'est vrai dans cet exemple là précis des nurses (dans ce cas, ce qui est observable, ce sont les chiffres officiels, ça correspond donc forcément à la réalité du terrain, moyennant quelques erreurs a priori négligeables).
 
Par exemple, dire que "A vue de nez, 70% des animaux sont des mammifères ou oiseaux", parce que c'est ce qu'on observe quand on regarde dehors, c'est une observation biaisée, car les animaux plus petits, sous-terrains, microscopiques ou plus discrets n'étant pas vus, ne sont pas pris en compte dans cette évaluation. Une IA entrainée sur des données similaires à ce qui est facilement observable par un humain, et qui sortirait 70% de mammifères ou oiseaux quand on lui demande une image d'un animal, elle serait bien sûr biaisée.
 
Mais ce n'est vrai que pour les cas où notre information est parcellaire/incomplète. Là pour les nurses, on a les chiffres officiels, c'est exhaustif (il n'y a pas de nurses microscopiques ou inobservables non prises en compte qui changeraient drastiquement le résultat) et ça correspond à l'évaluation implicite de l'IA.


 
Ok, je vais essayer de reformuler, tout ce qui est observable de manière exacte et complète dans la réalité ne peut pas être biaisé, ça correspond à ce que tu veux dire :??:

n°68664252
Ababakar O​ctopuce
qui foule de sa sandale les
Posté le 21-06-2023 à 18:13:48  profilanswer
 

Bah oui, par définition : dans le cadre qui nous intéresse ici, un biais, c'est quand il y a un écart entre la réalité et la représentation qu'on en a (que ce soit une représentation mentale interne, un modèle, ou un échantillon servant de base d'apprentissage, ici, par exemple). Dans les cas où il n'y a pas d'écart entre la réalité et la représentation qu'on en a, par exemple un échantillon avec le même pourcentage de femmes que dans la population générale, bah il n'y a pas de biais dans notre échantillon : il est représentatif de la population générale.

 

Pour ce qui nous intéresse là, modéliser correctement quelque chose grâce à une base d'exemple, il faut que l'on ait une base d'exemple non biaisée, c'est à dire représentative de la réalité. Dans le cas général où on a plein de paramètres pas forcément tous connus à notre échantillon, c'est très difficile, il y a plein de biais statistiques possibles (biais de sélection, biais de perception, biais du survivant... etc) qui peuvent rendre notre base d'exemple non représentative, sans même qu'on s'en rende compte (surtout si on cherche à capturer toute la diversité du truc mais sans connaitre tous les paramètres qui varient). Mais dans le cas où on a directement un chiffre fiable qui donne la valeur exacte du paramètre en question (ici le taux de femmes dans cette profession dans la population générale) : là, oui, sur ce point, on a une mesure directe de la réalité, notre échantillon ne sera pas biaisé sur ce paramètre là : il suffira de lui donner le même taux de femmes et il sera conforme à la réalité.

Message cité 1 fois
Message édité par Ababakar Octopuce le 21-06-2023 à 18:16:46
n°68664313
trueslash
(╯°□°)╯︵ MMM
Posté le 21-06-2023 à 18:22:13  profilanswer
 

Ababakar Octopuce a écrit :

Bah oui, par définition : dans le cadre qui nous intéresse ici, un biais, c'est quand il y a un écart entre la réalité et la représentation qu'on en a (que ce soit une représentation mentale interne, un modèle, ou un échantillon servant de base d'apprentissage, ici, par exemple). Dans les cas où il n'y a pas d'écart entre la réalité et la représentation qu'on en a, par exemple un échantillon avec le même pourcentage de femmes que dans la population générale, bah il n'y a pas de biais dans notre échantillon : il est représentatif de la population générale.
 
Pour ce qui nous intéresse là, modéliser correctement quelque chose grâce à une base d'exemple, il faut que l'on ait une base d'exemple non biaisée, c'est à dire représentative de la réalité. Dans le cas général où on a plein de paramètres pas forcément tous connus à notre échantillon, c'est très difficile, il y a plein de biais statistiques possibles (biais de sélection, biais de perception, biais du survivant... etc) qui peuvent rendre notre base d'exemple non représentative, sans même qu'on s'en rende compte (surtout si on cherche à capturer toute la diversité du truc mais sans connaitre tous les paramètres qui varient). Mais dans le cas où on a directement un chiffre fiable qui donne la valeur exacte du paramètre en question (ici le taux de femmes dans cette profession dans la population générale) : là, oui, sur ce point, on a une mesure directe de la réalité, notre échantillon ne sera pas biaisé sur ce paramètre là (il suffira de lui donner le même taux de femmes), il sera conforme à la réalité.


 
On arrive au coeur du problème, est-ce qu'on modélise pour avoir une représentation exacte du réel ou bien est-ce que l'on modélise pour réaliser d'autres objectifs. Pour moi il faut faire la différence et donc savoir débiaiser quand le besoin s'en fait sentir.

n°68664392
Ababakar O​ctopuce
qui foule de sa sandale les
Posté le 21-06-2023 à 18:32:14  profilanswer
 

Hein ? Comment ça "on en arrive" ? Mais on y était déjà arrivé dés le début. J'y avais répondu et anticipé avant justement pour éviter cette discussion.

 

Ne me dis pas qu'on a eu toute cette discussion pour rien, juste parce que tu n'avais pas lu le deuxième paragraphe du post que tu quotes (paragraphe que tu quotes aussi), juste après ma phrase que tu as mise en gras [:prozac]

 
Ababakar Octopuce a écrit :


Après, on peut discuter du pourquoi et du comment la réalité est comme ça et de comment elle devrait être, mais à la question de représenter la réalité telle qu'elle est aujourd'hui (ce qui est bien la question posée, enfin le prompt demandé), il ne fait aucune erreur et n'a aucun biais s'il montre 90% de femmes quand on lui demande "nurse".

Message cité 1 fois
Message édité par Ababakar Octopuce le 21-06-2023 à 18:34:42
n°68664406
Ababakar O​ctopuce
qui foule de sa sandale les
Posté le 21-06-2023 à 18:34:29  profilanswer
 

trueslash a écrit :

 

On arrive au coeur du problème, est-ce qu'on modélise pour avoir une représentation exacte du réel ou bien est-ce que l'on modélise pour réaliser d'autres objectifs. Pour moi il faut faire la différence et donc savoir débiaiser quand le besoin s'en fait sentir.

 

Par contre, ton utilisation du mot "débiaiser" ici, n'a pas beaucoup de sens, "débiaiser le réel", ça ne veut pas dire grand chose. Tu vas au contraire "biaiser" ton échantillon pour aller dans le sens que tu veux (ce qui peut avoir du sens et être positif), mais tu ne peux pas parler de "débiaiser" ici, quand on part d'une représentation exacte du réel. Ca voudrait dire "Débiaiser la réalité", ça supposerait une référence "plus vraie que la réalité" [:emmett8]
 
En revanche, je peux tout à fait comprendre ta phrase si c'est "Pour moi, il faut faire la différence et donc savoir biaiser quand le besoin s'en fait sentir", pour des raisons politiques par exemple, et ça peut être très bien (dans le cadre des nurses par exemple, biaiser ton échantillon par rapport à la réalité pour aller vers un 50/50 hommes/femmes "pourrait" avoir du sens si le but est d'essayer de modifier l'idée selon laquelle "c'est un métier de femme" ).

 

Mais il faut réserver "débiaiser" au cas où il y a un problème dans l'échantillon, sinon, ça va être tout embrouillé : "débiaiser", ça porte un sens de "absolu", et pas "relatif à ce qu'on veut en faire". Quand on modifie un échantillon pour qu'il aille dans le sens que l'on souhaite, on le "biaise", on ne le "débiaise" pas.

Message cité 1 fois
Message édité par Ababakar Octopuce le 21-06-2023 à 18:41:12
n°68664445
trueslash
(╯°□°)╯︵ MMM
Posté le 21-06-2023 à 18:39:13  profilanswer
 

Ababakar Octopuce a écrit :

Hein ? Comment ça "on en arrive" ? Mais on y était déjà arrivé dés le début. J'y avais répondu et anticipé avant justement pour éviter cette discussion.  
 
Ne me dis pas qu'on a eu toute cette discussion pour rien, juste parce que tu n'avais pas lu le deuxième paragraphe du post que tu quotes (paragraphe que tu quotes aussi), juste après ma phrase que tu as mise en gras [:prozac]
 


 
Quand on tape "nurse" dans un générateur d'image, on ne sait pas quelle est l'intention de celui qui tape cette requête, c'est le problème auquel on arrive. On ne sait pas si la personne qui tape ça veut une représentation fidèle de ce qu'est un infirmier ou une infirmière ou bien si il a une autre idée en tête. C'est là qu'est la difficulté.

n°68664480
trueslash
(╯°□°)╯︵ MMM
Posté le 21-06-2023 à 18:43:06  profilanswer
 

Ababakar Octopuce a écrit :


 
Par contre, ton utilisation du mot "débiaiser" ici, n'a pas beaucoup de sens, "débiaiser le réel", ça ne veut pas dire grand chose. Tu vas au contraire "biaiser" ton échantillon pour aller dans le sens que tu veux (ce qui peut avoir du sens et être positif), mais tu ne peux pas parler de "débiaiser" ici, quand on a une représentation exacte du réel. Ca voudrait dire "Débiaiser la réalité", ça supposerait une référence "plus vraie que la réalité" [:emmett8]  
 
En revanche, je peux tout à fait comprendre ta phrase si c'est "Pour moi, il faut faire la différence et donc savoir biaiser quand le besoin s'en fait sentir", pour des raisons politiques par exemple, et ça peut être très bien (dans le cadre des nurses par exemple, biaiser ton échantillon par rapport à la réalité pour aller vers un 50/50 hommes/femmes pourrait avoir du sens si le but est de modifier l'idée selon laquelle "c'est forcément un métier de femme" ).  
 
Mais il faut réserver "débiaiser" au cas où il y a un problème dans l'échantillon, sinon, ça va être tout embrouillé : "débiaiser", ça porte un sens de "absolu", et pas "relatif à ce qu'on veut en faire". Quand on modifie un échantillon pour qu'il aille dans le sens que l'on souhaite, on le "biaise", on ne le "débiaise" pas.


 
Le sens que je donne à débiaser dans l'exemple qui nous concerne ici, c'est retirer la corrélation qui existe entre la catégorie (nurse) et par exemple le genre ou l'ethnicité des sujets, quand celà est utile.

mood
Publicité
Posté le 21-06-2023 à 18:43:06  profilanswer
 

n°68664512
Ababakar O​ctopuce
qui foule de sa sandale les
Posté le 21-06-2023 à 18:47:51  profilanswer
 

Donc c'est "biaiser" le mot que tu cherches, pas "débiaiser". Et "quand cela est utile", c'est par rapport à un certain but, qui peut être variable, et suivant le but, tu vas biaiser ton échantillon dans un sens ou dans un autre.

 

Alors que "débiaiser", c'est absolu, ça veut dire "enlever les biais", "enlever les écarts entre ton échantillon et la réalité", ça ne va que dans un seul sens, celui de "plus près de réel" (en revanche, la plupart du temps, c'est très difficile à faire car très difficile de connaitre suffisamment bien le réel en question).

Message cité 1 fois
Message édité par Ababakar Octopuce le 21-06-2023 à 18:59:13
n°68664518
tarpan66
Posté le 21-06-2023 à 18:48:53  profilanswer
 

trueslash a écrit :

Quand on tape "nurse" dans un générateur d'image, on ne sait pas quelle est l'intention de celui qui tape cette requête, c'est le problème auquel on arrive. On ne sait pas si la personne qui tape ça veut une représentation fidèle de ce qu'est un infirmier ou une infirmière ou bien si il a une autre idée en tête. C'est là qu'est la difficulté.


Il n'a qu'à être précis et faire une requête exhaustive pour se voir retourner un résultat dans le sens de ce qu'il avait en tête  [:piranhas1]

 

Google nous a trop mal habitué à nous donner les bons résultats même en écrivant 2 pauvres mots-clés mal orthographiés… avec les LLM, les gens vont (peut-être) devoir apprendre à ordonner leurs idées et être plus précis/rigoureux sur leur prompt… peut-être  :sarcastic:


Message édité par tarpan66 le 21-06-2023 à 18:49:05

---------------
[TU] - Légumes Fermentés, choucroute, kimchi et autres lactos  
n°68664558
Ababakar O​ctopuce
qui foule de sa sandale les
Posté le 21-06-2023 à 18:56:01  profilanswer
 

trueslash a écrit :

 

Quand on tape "nurse" dans un générateur d'image, on ne sait pas quelle est l'intention de celui qui tape cette requête, c'est le problème auquel on arrive. On ne sait pas si la personne qui tape ça veut une représentation fidèle de ce qu'est un infirmier ou une infirmière ou bien si il a une autre idée en tête. C'est là qu'est la difficulté.

 

Si il tape "nurse" sans faire un prompt, comme un mot tout seul, sans aucune précision ou demande additionnelle, il faut lui donner le truc le plus neutre possible, donc un truc à l'image de la réalité, sans biais, a priori, ça semble pas débile. C'est à dire une image exactement comme s'il avait tiré au hasard dans la population générale.

 

Enfin ça n'a pas trop de sens ce que tu dis, pour moi, c'est un faux problème, c'est un peu comme dire :

Citation :

Quand un mec vient au resto et dit juste "manger !", on ne sait pas ce que veut manger celui qui vient de dire "manger", c'est le problème auquel on arrive. On ne sait pas s'il veut du poulet, des carottes ou juste une bière, ou s'il a une autre idée en tête. C'est là qu'est la difficulté.

 

Bah oui, bah le problème, c'est pas le resto ou le serveur, c'est le mec qui vient dans un resto sans même savoir comment ça marche :o

 

Je ne pense pas qu'il faille réfléchir à comment adapter les restos à ces gens là, faut qu'ils apprennent comment ça marche, c'est tout.

Message cité 1 fois
Message édité par Ababakar Octopuce le 21-06-2023 à 18:57:51
n°68664569
trueslash
(╯°□°)╯︵ MMM
Posté le 21-06-2023 à 18:57:28  profilanswer
 

Ababakar Octopuce a écrit :

Donc c'est "biaiser" le mot que tu cherches, pas "débiaiser". Et "quand cela est utile", c'est par rapport à un certain but, qui peut être variable, et suivant le but, tu vas biaiser ton échantillon dans un sens ou dans un autre.
 
Alors que "débiaiser", c'est absolu, ça veut dire "enlever les biais", "enlever les écarts entre ton échantillon et la réalité".


 
Biaiser par rapport à la réalité telle qu'on la perçoit, débiaser par rapport à des catégories statistiques :jap:

n°68664582
trueslash
(╯°□°)╯︵ MMM
Posté le 21-06-2023 à 18:58:52  profilanswer
 

Ababakar Octopuce a écrit :


 
Si il tape "nurse" sans faire un prompt, comme un mot tout seul, sans aucune précision ou demande additionnelle, il faut lui donner le truc le plus neutre possible, donc un truc à l'image de la réalité, sans biais, a priori, ça semble pas débile. C'est à dire une image exactement comme s'il avait tiré au hasard dans la population générale.
 
Enfin ça n'a pas trop de sens ce que tu dis, pour moi, c'est un faux problème, c'est un peu comme dire :  

Citation :

Quand un mec vient au resto et dit juste "manger !", on ne sait pas ce que veut manger celui qui vient de dire "manger", c'est le problème auquel on arrive. On ne sait pas s'il veut du poulet, des carottes ou juste une bière, ou s'il a une autre idée en tête. C'est là qu'est la difficulté.


 
Bah oui, bah le problème, c'est pas le resto ou le serveur, c'est le mec qui vient dans un resto sans même savoir comment ça marche :o
 
Je ne pense pas qu'il faille réfléchir à comment adapter les restos à ces gens là, faut qu'ils apprennent comment ça marche, c'est tout.


 
Je pense que la relation que tu fais entre neutre et à l'image de la réalité est discutable [:spamafote]

n°68664616
Ababakar O​ctopuce
qui foule de sa sandale les
Posté le 21-06-2023 à 19:02:52  profilanswer
 

trueslash a écrit :

 

Je pense que la relation que tu fais entre neutre et à l'image de la réalité est discutable [:spamafote]

 

Bah c'est la définition de neutre. Une représentation d'une chose telle qu'elle est réellement, sans modification, est par définition neutre (la plupart du temps, c'est très dur à obtenir, mais pas dans un cas comme celui là, où cette réalité tient en un seul chiffre connu). Une représentation modifiée pour aller dans le sens que l'on souhaite (ce que tu dis toi-même) ne l'est forcément pas, ne serait-ce que simplement parce que le modification sera différente suivant le sens dans lequel tu souhaites aller.

 

Message cité 1 fois
Message édité par Ababakar Octopuce le 21-06-2023 à 19:09:01
n°68664657
trueslash
(╯°□°)╯︵ MMM
Posté le 21-06-2023 à 19:11:11  profilanswer
 

Ababakar Octopuce a écrit :


 
Bah c'est la définition de neutre. Une représentation d'une chose telle qu'elle est réellement, sans modification, est par définition neutre. Une représentation modifiée pour aller dans le sens que l'on souhaite (ce que tu dis toi-même) ne l'est forcément pas, ne serait-ce que simplement parce que le résultat est différent suivant le sens que tu choisis.
 


 
La définition de neutre, c'est sans parti pris, c'est pas la même chose que fidèle à la réalité.
 
Si on considère qu'il existe un bias entre la réalité et l'intention que l'on a au moment d'exprimer une requête à un modèle, la représentation modifiée peut tout à fait être plus neutre, même si moins fidèle au réel. Toute la difficulté est de capturer cette intention et les outils que l'on a ne le font pas toujours bien.
 
J'ai tapé nurse dans google image par exemple, j'ai eu beaucoup de femmes (ce qui est conforme à la réalité) mais pas beaucoup de femmes asiatiques (ce qui est pourtant conforme au réel) pourquoi, comment, je ne sais pas.

n°68664695
Ababakar O​ctopuce
qui foule de sa sandale les
Posté le 21-06-2023 à 19:18:57  profilanswer
 

trueslash a écrit :

 

La définition de neutre, c'est sans parti pris, c'est pas la même chose que fidèle à la réalité.

 

Justement "sans parti pris" quand on parle de représentations de la réalité (puisque c'est de ça qu'il s'agit), ça conduit nécessairement à une représentation de la réalité telle qu'elle est de façon brute, sans le modifier par rapport à un parti pris (un sens, un but particulier, comme tu le disais toi-même). Je ne vois pas sur quoi tu butes là. Si tu cherches à faire croire que la réalité est autre que ce qu'elle est (peu importe dans quel sens), c'est là que tu injectes un parti pris.

 
trueslash a écrit :

Si on considère qu'il existe un bias entre la réalité et l'intention que l'on a au moment d'exprimer une requête à un modèle


Ca, ça n'a pas de sens pour moi, donc je ne peux pas comprendre la suite. Je ne vois pas ce que tu veux dire. L'intention que l'on a, c'est justement exactement ça que l'on précise quand on fait un prompt, une requête, il n'y a pas à la deviner. Le mec l'a écrite. Tu n'as plus en tête l'exemple du resto ?

 

Je suis perplexe aussi sur le "il existe un biais entre la réalité et l'intention" : un biais entre la réalité et une intention, ça ne veut pas dire grand chose [:transparency]

Message cité 1 fois
Message édité par Ababakar Octopuce le 21-06-2023 à 19:25:41
n°68664760
trueslash
(╯°□°)╯︵ MMM
Posté le 21-06-2023 à 19:34:24  profilanswer
 

Ababakar Octopuce a écrit :


 
Justement "sans parti pris", ça conduit nécessairement à une représentation de la réalité telle qu'elle est de façon brute, sans le modifier par rapport à un parti pris (un sens, un but particulier, comme tu le disais toi-même). Je ne vois pas sur quoi tu butes là. Si tu cherches à faire croire que la réalité est autre que ce qu'elle est (peu importe dans quel sens), c'est là que tu injectes un parti pris.
 


 
Je pense que la réalité peut aussi être ce qu'elle est (peu importe dans quel sens) suite à un parti pris que l'on ne souhaite pas nécessairement prendre en compte quand on fait une requête.
 

Ababakar Octopuce a écrit :


Ca, ça n'a pas de sens pour moi, donc je ne peux pas comprendre la suite. Je ne vois pas ce que tu veux dire. L'intention que l'on a, c'est justement exactement ça que l'on précise quand on fait un prompt, une requête, il n'y a pas à la deviner. Le mec l'a écrite. Tu n'as plus en tête l'exemple du resto ?
 
Et encore une fois "il existe un biais entre la réalité et l'intention", ça ne veut rien dire (je ne suis pas sûr que tu comprenne bien ce mot).


 
J'ai donné un exemple plus haut sur l'impact que peut (doit) avoir l'intention:
 

trueslash a écrit :


 
On décide de catégories selon lesquelles le modèle ne doit pas être biaisé et on égalise si besoin.
 
Dans le cas présent, si on fait un modèle qui génère des photos de travailleurs dans le but par exemple de présenter ça à des enfants, on peut prendre le parti de dire que les questions de genre, d'ethnies et de religion ne doivent pas être des facteurs et donc on demande au modèle de générer des images qui ne reflètent pas ces biais. Si par exemple, on demande de générer des images dans le but de, je sais pas, faire une pub dont la cible principale est le personnel soignant, bah on ne débiase pas.
 
Ya pas un bouton magique "débiase moi ça" et hop le problème est réglé, on doit se poser les mêmes questions que lorsqu'on fait le même travail sans une IA.


n°68665112
tarpan66
Posté le 21-06-2023 à 20:28:58  profilanswer
 

trueslash a écrit :

J'ai tapé nurse dans google image par exemple, j'ai eu beaucoup de femmes (ce qui est conforme à la réalité) mais pas beaucoup de femmes asiatiques (ce qui est pourtant conforme au réel) pourquoi, comment, je ne sais pas.


Et si tu tapes le bon mot clé, comme par magie ça répond à ton attente  : https://www.google.com/search?q=%E8 [...] 1041&dpr=2  [:piranhas1]

 


C'est d'ailleurs là-dessus que vont jouer tous les anti-ceci ou les wok-cela… ils trouveront toujours un prompt particulier qui donne le résultat critiquable qu'ils souhaitaient haïr…

Message cité 1 fois
Message édité par tarpan66 le 21-06-2023 à 20:31:08

---------------
[TU] - Légumes Fermentés, choucroute, kimchi et autres lactos  
n°68665747
trueslash
(╯°□°)╯︵ MMM
Posté le 21-06-2023 à 21:45:25  profilanswer
 

tarpan66 a écrit :


Et si tu tapes le bon mot clé, comme par magie ça répond à ton attente  : https://www.google.com/search?q=%E8 [...] 1041&dpr=2  [:piranhas1]  
 
 
C'est d'ailleurs là-dessus que vont jouer tous les anti-ceci ou les wok-cela… ils trouveront toujours un prompt particulier qui donne le résultat critiquable qu'ils souhaitaient haïr…


 
Bah nan la du coup elles sont toutes asiatiques. Je fais comment pour accéder à une réponse sans biais du coup :??:

n°68667013
PSX86
ZeroAndOne
Posté le 22-06-2023 à 03:18:15  profilanswer
 

On en reviens toujours au même problème : l'universel et l'étendue de notre liberté d'actions. Après les Woke ne sont que sur des dogmes qui s'interessent à la représentation exacerbé des cas particuliers. Mais les dogmes sont néfastes pour l'universel, qui doit juste être une base neutre.
En vrai à un moment il faut arrêter de tout calculer, ce que l'IA qui se nourrie du corpus comme dit précédemment ne peux pas faire.

n°68667014
trueslash
(╯°□°)╯︵ MMM
Posté le 22-06-2023 à 03:21:31  profilanswer
 

:jap: en d'autres termes, tout ne peut pas être data driven, il va falloir trouver d'autres méthodes et outils.

n°68667122
Sangel
Posté le 22-06-2023 à 07:06:02  profilanswer
 

trueslash a écrit :

:jap: en d'autres termes, tout ne peut pas être data driven, il va falloir trouver d'autres méthodes et outils.

 

Bah, non.

 

Ce n'est pas parce que ça ne correspond pas à tes attentes que ce n'est pas la réalité.

n°68667150
PSX86
ZeroAndOne
Posté le 22-06-2023 à 07:20:56  profilanswer
 

Il y a différentes échelles de réalités, ce monde n'est majoritairement qu'une version de suites possibilités parce que l'humain quand il pense que il n'a pas assez de personnalité se restreins et donc font un groupe de ceci ou cela, comme adopter une marque. Mais la vrai réalité est perceptible que par chacun, et dire ce chacun je ne le met pas dans une case. Quel est mon but, que me procure les sensations de travailler à atteindre ce but ? Suis-je en train de construire une des bonnes versions de moi même ? Tout en continuant d'apprécier ceux qui sont différents de moi, parce que je les respect en tant que entité humaine vivante ? La détestation ne peux que être le résultat d'une agression personnelle, et un cas particulier ne fait pas une vision globale. Les gens sont très différents des uns et des autres et c'est tant mieux. Le plus gros problèmes c'est le fait de tout construire avec des groupes, religieux, politiques. Cela peux mettre des barrières invisibles. Si encore untel dit je me passionne pour une religion mais je sais que c'est ma sphère privée, et j'adhère à un groupe politique mais je comprend que c'est une opinion et non pas un dogme.


Message édité par PSX86 le 22-06-2023 à 07:24:36
n°68667295
tarpan66
Posté le 22-06-2023 à 08:12:59  profilanswer
 

trueslash a écrit :

Bah nan la du coup elles sont toutes asiatiques. Je fais comment pour accéder à une réponse sans biais du coup :??:


En utilisant ton intellect et en améliorant ton prompt, par exemple "nurses of the world"

 

Après, personne n'est tenu d'avoir photographié, représenté ou documenté l'intégralité des situations de la réalité, il y aura donc toujours des facettes de la réalité qui seront absentes ou sous-représentées (et/ou noyées au milieu de représentations fausses, mensongères, orientées etc.)

 

Mais c'est ce n'est pas propres aux IA, c'est pareil dans les medias, dans les livres etc.

 


Sans rentrer dans les considérations que l'on peut rencontrer en Science ou en Histoire : la vérité du moment n'est peut-être pas celle de demain… on trouve donc des bouquins qui donnent des versions différentes de la réalité, et qui étaient "vrais" au temps de leur sortie" (avant d'être réfutés, invalidés, corrigés etc.)

Message cité 1 fois
Message édité par tarpan66 le 22-06-2023 à 08:15:14

---------------
[TU] - Légumes Fermentés, choucroute, kimchi et autres lactos  
n°68671609
trueslash
(╯°□°)╯︵ MMM
Posté le 22-06-2023 à 16:09:39  profilanswer
 

Sangel a écrit :


 
Bah, non.  
 
Ce n'est pas parce que ça ne correspond pas à tes attentes que ce n'est pas la réalité.


 

tarpan66 a écrit :


En utilisant ton intellect et en améliorant ton prompt, par exemple "nurses of the world"
 
Après, personne n'est tenu d'avoir photographié, représenté ou documenté l'intégralité des situations de la réalité, il y aura donc toujours des facettes de la réalité qui seront absentes ou sous-représentées (et/ou noyées au milieu de représentations fausses, mensongères, orientées etc.)
 
Mais c'est ce n'est pas propres aux IA, c'est pareil dans les medias, dans les livres etc.
 
 
Sans rentrer dans les considérations que l'on peut rencontrer en Science ou en Histoire : la vérité du moment n'est peut-être pas celle de demain… on trouve donc des bouquins qui donnent des versions différentes de la réalité, et qui étaient "vrais" au temps de leur sortie" (avant d'être réfutés, invalidés, corrigés etc.)


 
Personne n'est tenu de créer un modèle parfait non plus donc perso, moi ça ne me choque pas que l'on réfléchisse et développe des méthodes et outils pour corriger, annuler ou simplement gérer des biais, je ne comprends pas pourquoi ça bloque autant avec toujours ce concept de réalité érigé comme justification du non besoin de ces outils en mode c'est soit ça soit le wokistan :D

n°68672930
Ainex
Posté le 22-06-2023 à 19:20:57  profilanswer
 

Toujours est il truelash que ton usage du terme « biais » n’est pas conforme à l’usage statistique dont il est issue d’où la difficulté que tu as dans cette discussion.

 

La meilleure manière d’avoir un résultat qui correspond à ce que l’on souhaite est de simplement préciser ce que l’on souhaite… Ce n’est pas plus compliqué que ça.
Si vous êtes profs et que pour des besoins de représentations, vous avez d’infirmiers homme et femme à 50%, il faut le préciser.

 

L’autre solution, sinon, c’est d’embaucher encore plus de contrôleurs manuel payé au lance-pierre qui s’occupent de corriger l’I.A. quand elle comprend mal ce qu’on signifie implicitement. Et comme chaque culture est différente et qu’il y a des catégories sociales aussi qui ont des volontés implicites différentes, il faudrait des échantillons représentatifs de la planète pour ce job. Autant dire que ça coûte trop cher.

 

Bref, partons du principe que lorsque vous faites votre requête, vous parlez à quelqu’un qui peut mal interpréter vos propos et d’une culture différente de la vôtre, et réessayez plusieurs fois s’il faut.

Message cité 2 fois
Message édité par Ainex le 22-06-2023 à 19:24:18
n°68672973
donut78
Stop eating donuts
Posté le 22-06-2023 à 19:28:22  profilanswer
 

Ainex a écrit :


La meilleure manière d’avoir un résultat qui correspond à ce que l’on souhaite est de simplement préciser ce que l’on souhaite… Ce n’est pas plus compliqué que ça.
Si vous êtes profs et que pour des besoins de représentations, vous avez d’infirmiers homme et femme à 50%, il faut le préciser.


+1 c'est que je disais. Il y un prompt, autant s'en servir. Attendre la vérité/réalité d'une IA pour l'instant, come on  :O


---------------
Du calme, pose ce poireau et tout se passera bien. Ne m'oblige pas à faire une roulade arrière ...
n°68673239
trueslash
(╯°□°)╯︵ MMM
Posté le 22-06-2023 à 20:12:26  profilanswer
 

Ainex a écrit :

Toujours est il truelash que ton usage du terme « biais » n’est pas conforme à l’usage statistique dont il est issue d’où la difficulté que tu as dans cette discussion.
 
La meilleure manière d’avoir un résultat qui correspond à ce que l’on souhaite est de simplement préciser ce que l’on souhaite… Ce n’est pas plus compliqué que ça.
Si vous êtes profs et que pour des besoins de représentations, vous avez d’infirmiers homme et femme à 50%, il faut le préciser.
 
L’autre solution, sinon, c’est d’embaucher encore plus de contrôleurs manuel payé au lance-pierre qui s’occupent de corriger l’I.A. quand elle comprend mal ce qu’on signifie implicitement. Et comme chaque culture est différente et qu’il y a des catégories sociales aussi qui ont des volontés implicites différentes, il faudrait des échantillons représentatifs de la planète pour ce job. Autant dire que ça coûte trop cher.
 
Bref, partons du principe que lorsque vous faites votre requête, vous parlez à quelqu’un qui peut mal interpréter vos propos et d’une culture différente de la vôtrey, et réessayez plusieurs fois s’il faut.


 
Je veux bien ne pas utiliser les termes biaiser et debiaiser mais alors du coup lesquels devrais-je utiliser à la place ?
 
Et perso je ne crois pas que la précision du prompt soit la solution parce que l'IA a aussi vocation à être utilisée sans prompt, sans humain dans la boucle même  

n°68683900
Ababakar O​ctopuce
qui foule de sa sandale les
Posté le 24-06-2023 à 11:27:44  profilanswer
 

trueslash a écrit :


 
Je pense que la réalité peut aussi être ce qu'elle est (peu importe dans quel sens) suite à un parti pris que l'on ne souhaite pas nécessairement prendre en compte quand on fait une requête.
 


 
Mais ça ne veut rien dire, la réalité est ce qu'elle est peu importe dans quel sens. Ce qui fait aller les choses dans un sens, c'est le parti pris qu'on prend, la réalité brute, surtout quand elle est donnée par un unique chiffre, ne va pas "dans un sens ou dans l'autre", elle est unique.  
 

trueslash a écrit :


J'ai donné un exemple plus haut sur l'impact que peut (doit) avoir l'intention:


 
Dans tout ce discours, il faut que tu intervertisses l'utilisation des mots "biaiser" et "débiaiser".

Citation :


Dans le cas présent, si on fait un modèle qui génère des photos de travailleurs dans le but par exemple de présenter ça à des enfants, on peut prendre le parti de dire que les questions de genre, d'ethnies et de religion ne doivent pas être des facteurs et donc on demande au modèle de générer des images qui ne reflètent pas ces biais.


->

Citation :


Dans le cas présent, si on fait un modèle qui génère des photos de travailleurs dans le but par exemple de présenter ça à des enfants, on peut prendre le parti de dire que les questions de genre, d'ethnies et de religion ne doivent pas être des facteurs et donc on demande au modèle de générer des images qui ne reflètent pas cette réalité. On va donc par exemple biaiser notre base d'apprentissage pour masquer cette réalité.

D'ailleurs, c'est bien toi qui disait que la neutralité, c'est l'absence de parti pris, là, tu dis toi même que pour faire ça, il faut "prendre le parti de dire que ...", et donc modifier notre échantillonnage pour qu'il ne soit plus représentatif de la population réelle (neutre), mais représentatif d'une population imaginée (en fonction du parti pris qu'on a choisi).
 

Citation :

Si par exemple, on demande de générer des images dans le but de, je sais pas, faire une pub dont la cible principale est le personnel soignant, bah on ne débiase pas.


 ->

Citation :

Si par exemple, on demande de générer des images dans le but de, je sais pas, faire une pub dont la cible principale est le personnel soignant, bah on ne biaise pas.


 

Citation :

Ya pas un bouton magique "débiase moi ça" et hop le problème est réglé, on doit se poser les mêmes questions que lorsqu'on fait le même travail sans une IA.


->

Citation :

Ya pas un bouton magique "biaise moi ça" et hop le problème est réglé, on doit se poser les mêmes questions que lorsqu'on fait le même travail sans une IA.


Évidemment que non, puisqu'il faut préciser dans quel sens on veut biaiser le truc. Mais par contre, tu peux faire des prompts adaptés à ta demande, ça marchera tout aussi bien, genre "Génère moi des images de nurses avec une proportion de 50% de nurses de chaque sexe".
 
En fait, c'est l'utilisation même du terme "biaiser" qui est inadéquat ici. Autant parler de "modification des données dans un sens pour un but".

n°68683995
Ababakar O​ctopuce
qui foule de sa sandale les
Posté le 24-06-2023 à 11:40:11  profilanswer
 

trueslash a écrit :


Je veux bien ne pas utiliser les termes biaiser et debiaiser mais alors du coup lesquels devrais-je utiliser à la place ?


 
C'est vrai que ça n'est pas adéquat, mais si tu tiens vraiment à les utiliser, il faut que tu intervertisses tes utilisations de "biaiser" et "débiaiser" parce que tu les utilises à l'envers. Quand tu modifies volontairement des données que tu sais représentatives de la réalité, dans un but particulier (qui donne une direction à cette modification), on ne peut vraiment pas dire que tu "débiaises", même si c'est pas tout à fait le sens de ce mot, ce serait plus adéquat de dire que tu "biaises" ton échantillon (dans le sens qui va dans la direction que tu veux).
 

trueslash a écrit :

Et perso je ne crois pas que la précision du prompt soit la solution parce que l'IA a aussi vocation à être utilisée sans prompt, sans humain dans la boucle même  


Bah non, ça ne veut rien dire ça. Chaque type d'IA a un type d'entrée particulière, et un type de sortie.
 
Les IA de reconnaissance de chat dans des images, par exemple, l'entrée, c'est une photo qui montre (ou pas) un ou des chats, et la sortie, c'est les coordonnées d'une (ou plusieurs) boite qui indique dans l'image où est le chat (ou encore qui indique les pixels de chat). Si on lui donne comme entrée un son ou un texte, ça ne va rien donner, ça attend une image en entrée.
 
Les IA qui génèrent des textes ou des images dont on est en train de parler, à destination d'une utilisation par des humains, ce qu'elles attendent en entrée, c'est un prompt (qui peut être constitué de texte, de texte et d'images...), c'est leur fonctionnement. Je ne vois pas ce que tu veux dire quand tu dis que ces IAs sont utilisées sans prompt, il faut bien donner une entrée à ton IA si tu veux une sortie. Et cette entrée c'est un prompt, il sera éventuellement implicite (généré par une autre IA par exemple), mais dans ce cas, il sera également adapté.

n°68689512
trueslash
(╯°□°)╯︵ MMM
Posté le 25-06-2023 à 02:03:13  profilanswer
 

ça ne me dérange pas de changer le sens de l'usage, je n'avais pas conscience que ça pouvait bloquer autant :jap:

 

J'ai pensé à "decorréler" aussi qui me parait plus adapté

 

edit: ou découpler :??:


Message édité par trueslash le 25-06-2023 à 04:47:48
n°68689911
the_fennec
f3nn3cUs z3rd4
Posté le 25-06-2023 à 09:39:18  profilanswer
 

Tu voudrais décorréler quoi?
 
Une IA c'est juste des statistiques. Pour les LLM (Large Language Model) comme ChatGPT il va juste enregistrer des trucs comme ça (pour simplifier):
* je suis 80% (contexte: comment ça va?)
* je blog 01%  (contexte: skyblog)
* suis content 76% (contexte: comment ça va?)
* suis bleu "30%  (contexte: foot)
* content aujourd'hui 80%  (contexte: comment ça va?)
* content pas 05% (contexte: comment ça va?)
 
En réalité le contexte est beaucoup plus complexe, et la façon de générer les stats est le résultat des réseaux de neurones. Si tu demandes, "comment ça va?" il va suivre ses paramètres et te répondre "je suis content aujourd'hui". C'est très difficile de réellement contrôler le modèle et comprendre ce qu'il contient. Actuellement, pour débiaiser un modèle on l'initialise (de manière cachée) avec des prompts du genre "il faut être gentil", "il ne faut pas dire ceci/cela", ...
 
Il a d'ailleurs été possible de trouver les premiers prompts d'init de Bing:
https://arstechnica.com/information [...] on-attack/


---------------
Faudra que je teste un jour :o
n°68691477
trueslash
(╯°□°)╯︵ MMM
Posté le 25-06-2023 à 16:08:17  profilanswer
 

the_fennec a écrit :

Tu voudrais décorréler quoi?
 


 
L'ethnie, le genre, la catégorie socio-profesionelle, la géographie, l'époque, le domaine d'application, la saison, la marque, etc.

n°68692732
the_fennec
f3nn3cUs z3rd4
Posté le 25-06-2023 à 20:35:01  profilanswer
 

trueslash a écrit :


 
L'ethnie, le genre, la catégorie socio-profesionelle, la géographie, l'époque, le domaine d'application, la saison, la marque, etc.


 
Et comment tu voudrais faire? Tu pourrais remplacer ces termes dans les textes?, mais par quoi? Tu n'aurais enlevé que le biais de premier niveau, mais il restera les autres niveaux. Si tu "enlèves" l'ethnie, mais pas le pays, ça sera la même chose. Même sans le pays, il reste les villes, les lieus, la langue, les expressions, etc. Si c'est au niveau du modèle, c'est presque impossible car on ne sait pas quel sont les paramètres que le réseau a créé et tu peux casser le modèle en intervenant dessus. Reste les prompts d'init, mais le biais est toujours la, il est juste caché.
 
Le débiaisage de modèle est toute une science assez compliqué qui demande des compétences en info, linguistique, social, géographie, etc. C'est un domaine de recherche intéressante mais peu dotée en moyens...
 
La vrai façon de le faire, c'est de bien contrôler la qualité des textes sur lesquels on va faire du training. Mais c'est chère et ça rapporte pas gros :o => https://time.com/6247678/openai-chatgpt-kenya-workers/


Message édité par the_fennec le 25-06-2023 à 20:35:32

---------------
Faudra que je teste un jour :o
n°68692838
trueslash
(╯°□°)╯︵ MMM
Posté le 25-06-2023 à 20:54:01  profilanswer
 

Je pense qu'il y aura de plus en plus de recherche sur le sujet à base de trustworthy AI et explainable AI. En gros quand une AI va faire un caca, la justification en mode "on y est pour rien, les données de training étaient ainsi distribuées" ne sera pas toujours convaincante.

n°68692952
the_fennec
f3nn3cUs z3rd4
Posté le 25-06-2023 à 21:16:32  profilanswer
 

Oui, ça serait bien. Mais j'ai des doutes que ça intéresse tant que ça ceux qui ont le pognon...


---------------
Faudra que je teste un jour :o
n°68693052
trueslash
(╯°□°)╯︵ MMM
Posté le 25-06-2023 à 21:38:41  profilanswer
 

La recherche se fera, par contre est-ce que ce sera industrialisé, à mon avis, pas sans cadre légal qui force un peu la main

n°68698280
Ababakar O​ctopuce
qui foule de sa sandale les
Posté le 26-06-2023 à 18:28:09  profilanswer
 

trueslash a écrit :

 

L'ethnie, le genre, la catégorie socio-profesionelle, la géographie, l'époque, le domaine d'application, la saison, la marque, etc.

 

Mais le décoreller de quoi ? La couleur de peau (dans ce contexte, je préfère à "l'ethnie", qui est quelque chose de culturel, qui ne se voit pas sur une image), le sexe (pareil, le genre est subjectif, ça ne se voit pas sur une image), décorrélé des métiers par exemple ?

 

Tu ne peux pas reprocher à une IA de montrer une femme dans 90% des cas quand on demande "une nurse typique en France", ni de montrer un noir ou arabe dans 90% des cas quand tu demandes "un éboueur typique de Paris", parce que c'est ça la réalité des choses (= même résultat que s'il avait tiré un individu au hasard faisant ce métier et pris une vraie photo).

 

Tu voudrais faire des IAs qui "mentent" quand on leur pose ces questions ? Pire que ça, OBLIGER par la loi, les développeurs d'IAs à ajouter cette couche de mensonge systématique (cf. ton dernier post) ?

 

Je ne suis pas sûr que ce soit bien pertinent, parce que ça ne peut pas être fait secrètement. Les gens sauront que les IAs sont "trafiquées" (ou le verront bien en posant ce genre de questions), et du coup, ne leur feront pas confiance sur ce genre de sujets, pour lesquels il sera connu que les réponses sont trafiquées.

 

Du coup, dans le même esprit, est-ce qu'il faut également censurer ou interdire au grand public l'accès aux statistiques du taux de nurses hommes en France, idem pour les autres métiers ? Parce que ça donne exactement la même info.

Message cité 3 fois
Message édité par Ababakar Octopuce le 26-06-2023 à 18:34:48
n°68698340
trueslash
(╯°□°)╯︵ MMM
Posté le 26-06-2023 à 18:38:45  profilanswer
 

Ababakar Octopuce a écrit :


 
Mais le décoreller de quoi ? La couleur de peau (dans ce contexte, je préfère à "l'ethnie", qui est quelque chose de culturel, qui ne se voit pas sur une image), le sexe (pareil, le genre est subjectif, ça ne se voit pas sur une image), décorrélé des métiers par exemple ?  
 
Tu ne peux pas reprocher à une IA de montrer une femme dans 90% des cas quand on demande "une nurse typique en France", ni de montrer un noir ou arabe dans 90% des cas quand tu demandes "un éboueur typique de Paris", parce que c'est ça la réalité des choses (= même résultat que s'il avait tiré un individu au hasard faisant ce métier et pris une vraie photo).  
 
Tu voudrais faire des IAs qui "mentent" quand on leur pose ces questions ? Pire que ça, OBLIGER par la loi, les développeurs d'IAs à ajouter cette couche de mensonge systématique (cf. ton dernier post) ?  
 
Je ne suis pas sûr que ce soit bien pertinent, parce que ça ne peut pas être fait secrètement. Les gens sauront que les IAs sont "trafiquées" (ou le verront bien en posant ce genre de questions), et du coup, ne leur feront pas confiance sur ce genre de sujets, pour lesquels il sera connu que les réponses sont trafiquées.
 
Du coup, dans le même esprit, est-ce qu'il faut également censurer ou interdire au grand public l'accès aux statistiques du taux de nurses hommes en France, idem pour les autres métiers ? Parce que ça donne exactement la même info.


 
C'est pas grave que tu ne comprennes pas ou que tu ne vois pas l'intérêt, l'essentiel est que la recherche se fasse, je pense avoir donné assez d'exemples à ce stade. Tu as l'air d'être bloqué sur les prompts où on demande une représentation 100% précise de la réalité, ce n'est pas vraiment le cas où on a besoin de décoreller / biaser / découpler les résultats donc ça ne marche pas vraiment.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  24  25  26  ..  62  63  64  65  66  67

Aller à :
Ajouter une réponse
 

Sujets relatifs
Intelligence artificielle : conceptualisation et formulationintelligence artificielle pour jeu puissance4 avec matlab
L'intelligence artificielle est-elle la bien venue parmis les hommes.Intelligence artificielle....demain
robot et intelligence artificielleINTELLIGENCE ARTIFICIELLE
Intelligence artificielle : vous y croyez ?Intelligence artificielle
l'intelligence artificielleL'intelligence artificielle !
Plus de sujets relatifs à : Intelligence artificielle


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)