|
Auteur | Sujet : Jusqu'ou peut on remplacer le corps humain ? |
---|
Evergates | Reprise du message précédent :
Je ne pense pas que quiconque puisse te répondre avec certitude. Je te propose donc une hypothèse. A l'échelle de Planck (là où je situerais le libre arbitre et ce qui régi notre conscience), on évoque le chaos. Selon notre définition, ce chaos devrait correspondre à un random. Toutefois, je pense que ce chaos suit une logique que nous ne comprenons pas, parce que si notre libre arbitre était défini par l'aléatoire, on ne pourrait pas conduire une voiture sans se tromper en moyenne une fois sur deux quand on tourne le volant à gauche ou à droite pour prendre un virage. Nous avons la capacité de nous projeter dans l'avenir pour atteindre un objectif et nous prenons généralement des décisions qui vont nous permettre d'atteindre cet objectif, ce qui ne colle pas vraiment avec un libre arbitre purement aléatoire. Le libre arbitre se situerait plutôt entre la logique et l'aléatoire. Message cité 1 fois Message édité par Evergates le 20-01-2012 à 05:45:30 |
![]() Publicité | Posté le 20-01-2012 à 01:04:18 ![]() ![]() |
Evergates |
Quant à ton histoire de chien, si sa capacité d'apprentissage est programmée dans un contexte bien précis, je ne suis pas certain que l'on puisse vraiment parler de libre arbitre. En fait cela dépend de la nature de ton algo. Tu pourrais très bien programmer une IA dans l'objectif d'obtenir un résultat qui donnerait seulement l'illusion d'un libre arbitre, sans pour autant en être un, ce qui est peut-être le cas de ton chien, ou pas. En revanche, si ton algo donne une véritable liberté au chien sur la prise de décision et que cette décision est réfléchie sans aucune influence de l'algorithme créé par le programmeur, alors oui, on pourrait peut-être commencer à parler d'une forme de libre arbitre. J'ai travaillé sur le développement d'une IA relativement basique qui était capable d'apprendre, de s'améliorer tout comme ton chien, mais son algo n'avait rien qui correspondait à un véritable libre arbitre. On lui définissait dans quel contexte elle devait apprendre et dans quel contexte elle pourrait se servir de ce qu'elle a appris. Disons que le libre arbitre sur une IA, je le verrai comme étant une fonction qui va générer son propre algorithme en fonction de son environnement. En quelque sorte, une IA qui apprend à apprendre. Message cité 2 fois Message édité par Evergates le 20-01-2012 à 05:41:22 |
Pyrus Pas de cravate ? Erreur 1017 |
--------------- Hazukashii serifu kinshi! |
Mozz_ |
Message cité 1 fois Message édité par Mozz_ le 20-01-2012 à 10:49:10 |
Herbert de Vaucanson Grignoteur de SQFP depuis 2002 |
Ce dont tu parles là, "une véritable liberté de prise de décision", l'Homme ne l'a pas non plus, de toutes façons. Message cité 1 fois Message édité par Herbert de Vaucanson le 20-01-2012 à 10:04:48 --------------- Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur. |
panzerdivizion Follow the cat | Au delà de ce débat sur la conscience et le libre arbitre, l'interêt que je vois dans le fait de remplacer le corps humain, c'est la possibilité de l'améliorer pour le faire fonctionner de manière optimale dans un milieu dans lequel il n'est pas sensé évoluer naturellement (Dans l'espace, en apesenteur par exemple pas besoin de jambes) Message cité 1 fois Message édité par panzerdivizion le 20-01-2012 à 10:08:54 |
Pyrus Pas de cravate ? Erreur 1017 |
Message cité 1 fois Message édité par Pyrus le 20-01-2012 à 10:16:27 --------------- Hazukashii serifu kinshi! |
Mozz_ |
|
Herbert de Vaucanson Grignoteur de SQFP depuis 2002 | Bah c'est pas de l'aléatoire : t'as bien tapé ça pour une bonne raison non ? Parce que ton cerveau à demandé à tes doigts de s'abattre sur ces touches là et pas sur d'autres, parce que ton clavier était à cet endroit là, parce que tu étais dans cet état d'esprit précis... etc --------------- Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur. |
![]() Publicité | Posté le 20-01-2012 à 11:49:57 ![]() ![]() |
The NBoc Quo Modo Deum |
--------------- it is difficult to get a man to understand something when his salary depends on his not understanding it - La lecture est un stratagème qui dispense de réfléchir - Et les Shadocks pompaient, pompaient... |
bidalair Pooppers sur Steam | si on fait abstraction du clavier ? que l'on essaye de conditionner ma réaction par rapport à quelque chose le fait qu'on parle d 'un sujet qu'on ne comprend pas dans sa globalité? (quelqu'un a un doctorat de psychologie et de métaphysique ici ? ) Une IA aurai pu faire de même sans être conçu pour ? Peut elle apprendre à réagir de cette façon sans y avoir été prévue ? Une IA peut elle se poser des questions sur elle même sur son but son passé son avenir et même la raison de son existance ? en tant qu ' être autonome à part entière ? l 'humain le peut oui. edit: dsl multi edit correction et ajout d'idées Message cité 2 fois Message édité par bidalair le 20-01-2012 à 12:13:51 --------------- Steam : Pooppers =-= Lurkeur HFR Hardcore |
Herbert de Vaucanson Grignoteur de SQFP depuis 2002 |
--------------- Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur. |
Koko90 L'éternité plus 10% |
Message édité par Koko90 le 20-01-2012 à 15:26:22 --------------- Découvrez l'anthologie des posts de Mikhail. Je suis le cinéphile déviant. |
Evergates |
|
Pyrus Pas de cravate ? Erreur 1017 |
Message édité par Pyrus le 20-01-2012 à 16:22:00 --------------- Hazukashii serifu kinshi! |
cordelius Disciplus Simplex |
--------------- "On est en 2032, ça donne 2-0-3-2, c'est le 21ème siècle quoi. Et j'ai le regret de vous annoncer que le monde est maintenant peuplé de couilles molles, c'est un remake de la petite maison dans la prairie joué par une bande de pédales en robe longue" |
Evergates |
Message cité 1 fois Message édité par Evergates le 20-01-2012 à 16:15:52 |
Pyrus Pas de cravate ? Erreur 1017 |
--------------- Hazukashii serifu kinshi! |
Evergates |
|
Evergates |
C'est tout le problème d'une IA codée en base 2, et tant que nous développerons ce type d'IA, nous n'aurons jamais une équivalence à ce qu'on appelle le libre arbitre, tout au plus une illusion et ce, dans des contextes toujours prédéfinis par son programmeur. Il faudra donc passer sur une base 3 pour que l'IA soit dotée de cette faculté d'adaptation, ce qui sera, en outre, possible avec l'ordinateur quantique, ou pas si je me trompe. Message cité 3 fois Message édité par Evergates le 20-01-2012 à 16:54:53 |
Koko90 L'éternité plus 10% |
Message cité 1 fois Message édité par Koko90 le 20-01-2012 à 16:56:11 --------------- Découvrez l'anthologie des posts de Mikhail. Je suis le cinéphile déviant. |
Koko90 L'éternité plus 10% | Un réseau de neurones virtuel peut déjà générer des connexions supplémentaires (même si dans la plus part des modèles on joue juste sur les valuations). Message cité 1 fois Message édité par Koko90 le 20-01-2012 à 17:01:46 --------------- Découvrez l'anthologie des posts de Mikhail. Je suis le cinéphile déviant. |
Evergates |
Message cité 1 fois Message édité par Evergates le 20-01-2012 à 17:22:54 |
Profil supprimé | Posté le 20-01-2012 à 17:27:15 ![]()
Message cité 1 fois Message édité par Profil supprimé le 20-01-2012 à 17:28:33 |
Koko90 L'éternité plus 10% |
--------------- Découvrez l'anthologie des posts de Mikhail. Je suis le cinéphile déviant. |
Koko90 L'éternité plus 10% |
Message édité par Koko90 le 20-01-2012 à 17:36:57 --------------- Découvrez l'anthologie des posts de Mikhail. Je suis le cinéphile déviant. |
Evergates |
On peu créer en binaire un algo capable d'optimiser la procédure pour atteindre un objectif, mais l'IA n'est toujours pas capable de générer elle-même ses propres objectifs hors d'un contexte prédéfini par son concepteur. Alors, cela ne veut pas dire qu'est c'est obligatoirement impossible de réaliser cette fonction en mode binaire, mais tous les exemples que vous évoquez ne correspondent pas à un libre arbitre. Bien que je reste ouvert, je pense que cette possibilité ne sera envisageable qu'en base 3. Car, pour réaliser ce qu'est capable de faire ce réseau de neurones virtuels, il n'y a pas besoin d'aller aussi loin. Le simple fait de doter une mémoire à une IA basique, permet déjà d'optimiser ses réponses à un objectif prédéfini par le programmeur, c'est le principe des chatbots. Or, moi ce qui m'intéresse, c'est la création de l'objectifs par l'IA hors d'un contexte défini par le programmeur et pas seulement sa capacité à optimiser sa façon d'atteindre un but. Message édité par Evergates le 20-01-2012 à 18:09:51 |
Koko90 L'éternité plus 10% | Tu fantasme sur notre propre cerveau. On a des objectifs pré-définis (voir la Pyramide des besoins de Maslow, qui est certainement approximative mais qui contient l'essentiel de nos motivations). On peut très bien donner cette pyramide en entrée à une IA avec des tas de fonctions récompenses associées. Et en jouant sur les fonctions de récompense, on pourra la rendre plus altruiste, plus égoïste, plus créative, plus obsédée par ses besoins primaires, etc... Message cité 1 fois Message édité par Koko90 le 20-01-2012 à 18:19:46 --------------- Découvrez l'anthologie des posts de Mikhail. Je suis le cinéphile déviant. |
Evergates |
Oui, probablement, mais pas à la manière des IAs actuelles car les envies sont infini, et on ne peut pas envisager de coder à l'infini. Il nous faut donc une fonction qui génère un besoin en fonction d'un contexte non défini par son concepteur. Les objectifs/besoins générés par les être vivants sont prédéfinis par une fonction dont on ne maîtrise pas encore la nature exacte, le libre arbitre. Message cité 2 fois Message édité par Evergates le 20-01-2012 à 18:27:04 |
Koko90 L'éternité plus 10% |
Message cité 1 fois Message édité par Koko90 le 20-01-2012 à 18:24:38 --------------- Découvrez l'anthologie des posts de Mikhail. Je suis le cinéphile déviant. |
Evergates |
Un exemple, on programme une IA qui a pour objectif donné par son concepteur de rejoindre Paris-Bruxelles en un minimum de temps et par ses propres facultés. Message cité 1 fois Message édité par Evergates le 20-01-2012 à 19:00:48 |
simius_computus oh Gary boy | Si l'homme n'avait pas eu d'impératifs de survie, aurait-il développé la conscience et l'intelligence qui le caractérise ?
--------------- IWH --- Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde) |
totoz ( ͡° ͜ʖ ͡°) KK ( ͡⊙ ͜ʖ ͡⊙) | ne pas oublier --------------- InstaKAKAgram▲La bouffe de Totoz▲Steam▲BattleTag: Totoz#1835 |
Koko90 L'éternité plus 10% |
Message cité 1 fois Message édité par Koko90 le 20-01-2012 à 19:07:16 --------------- Découvrez l'anthologie des posts de Mikhail. Je suis le cinéphile déviant. |
Pyrus Pas de cravate ? Erreur 1017 |
--------------- Hazukashii serifu kinshi! |
Evergates |
|
Evergates |
Mais sinon, je ne savais pas qu'une hypothèse ne rentrait pas dans le cadre scientifique, tu m'apprends un truc là Message cité 1 fois Message édité par Evergates le 20-01-2012 à 19:48:08 |
Evergates |
Et par ailleurs, loin de moi l'idée de faire la leçon (je suis une quiche en français) mais si jamais, on dit UN neurone. Message cité 1 fois Message édité par Evergates le 20-01-2012 à 19:53:26 |
Pyrus Pas de cravate ? Erreur 1017 |
--------------- Hazukashii serifu kinshi! |
![]() Publicité | Posté le ![]() ![]() |