Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3851 connectés 

 

 

Selon la matrice postée en première page, quel type d'athée êtes vous?


 
12.7 %
 15 votes
1.  Athée gnostique
 
 
17.8 %
 21 votes
2.  Athée agnostique
 
 
23.7 %
 28 votes
3.  Athée "fort" ou "positif"
 
 
9.3 %
 11 votes
4.  Athée "faible" ou "négatif"
 
 
1.7 %
     2 votes
5.  Athée implicite
 
 
18.6 %
 22 votes
6.  Athée explicite
 
 
4.2 %
 5 votes
7.  Athée "Autre" (ne se reconnaît pas dans ces descriptions)
 
 
4.2 %
 5 votes
8.  Théiste (toutes marques confondues)
 
 
7.6 %
 9 votes
9.  Obiwan ne croit qu'en la Force
 

Total : 131 votes (13 votes blancs)
Sondage à 3 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  303  304  305  ..  308  309  310  311  312  313
Auteur Sujet :

[Topic Unique] Athéisme & Agnosticisme

n°52912428
aybibob
Coupo santo e versanto
Posté le 06-04-2018 à 09:10:40  profilanswer
 

Reprise du message précédent :

roll68 a écrit :

:jap:  De toute façon je suis un peu moins dans le rush maintenant donc je serais un peu plus actif ici.


A mon tour d'être sous l'eau :o

roll68 a écrit :

Si, partant de la notion de zombie, ou ne peut montrer une contradiction, alors un zombie est logiquement possible. Quelque chose est logiquement possible si il ne contient pas de contradiction. Comme contre-exemple, un carré rond est une impossibilité logique.


Je vois bien la notion de contradiction logique dans les concepts mathématiques, comme dans ton exemple.
Mon problème arrive quand on parle du réel, de physique. Je ne comprends pas ce que signifie impossibilité logique dans ce cadre. Pour moi, la métrique d'une théorie est alors autre : elle décrit correctement la réalité ou pas. Et donc je ne vois pas ce que signifie ce "logiquement possible".
D'où mon reproche sur le fait que l'hypothèse du zombie est très pauvre à mon sens (qu'elle soit logiquement possible ou pas, quoi que cela veuille dire), parce que dans le cadre de cette métrique, elle fait une hypothèse d'existence de non matériel indue.

 

Au plus je relis (post du 23.02.2018) :

roll68 a écrit :

Dit autrement, pour un matérialiste réductionniste, il existe une correspondance nécessaire (et même logique) entre les états mentaux et les états physiques (par ex, il est nécessairement vrai que lorsque tel et tel neurone soit activé de telle ou telle façon se produit une sensation de douleur.) et donc les zombies sont inconcevables. Mais il n'existe aucune raison de penser cela a priori (sinon on pourrait simplement exhiber une contradiction/impossibilité logique dans la notion même de zombie) ni même a posteriori (la neurologie ne fait que constater une corrélation entre les états mentaux et les états physiques mais faut-il encore montrer que cette correspondance est nécessaire).

 

Un autre option pour garder le matérialisme c'est d'accepter la possibilité logique, et donc la concevabilité des zombies, mais de les considérer comme métaphysiquement impossibles (mais ça pose d'autres problèmes).


Au plus ça me donne l'impression d'une rhétorique habile pour essayer de retourner la charge de la preuve.
"Comme je n'ai pas de raison de penser qu'il y a correspondance entre états physiques ou mentaux (tout en minimisant le fait qu'on y travaille et qu'on a donc aujourd'hui des corrélations très fortes), alors merci de me prouver que le non matériel (dont je me défends de présupposer l'existence, mais qui permet quand même d'avoir une place pour mettre mon dieu) n'existe pas".

 

Je reconnais la subtilité de la méthode. Mais ça reste de la simple inversion de la charge de la preuve une fois regardé de près.

roll68 a écrit :

En philosophie, toute connaissance est une croyance donc je pense que ta distinction "stricte" ne tient pas. On peut en discuter si tu veux mais ça va ouvrir une toute autre discussion dans la discussion :o.

 

Mais sinon juste pour chipoter, répondre "je sais" à "un homme a-t-il ressucité il y a 2000 ans" est vraiment bizarre  :D


Ma distinction est bien trop stricte et simpliste, bien évidemment, mais c'était pour expliquer l'objet de ma distinction.
Quand je dis que j'aime la couleur bleue, c'est un constat, pas un savoir. Il n'y a pas de question de savoir si ce que je dis est vrai ou faux.
Quand je dis que tel évènement est arrivé (une résurrection il y a 2000 ans), la question est de savoir si c'est vrai ou faux, c'est donc celle d'un savoir. Si je développe mon "je sais", ce serait en fait un "je prends des précautions méthodologiques pour déterminer la véracité de l'affirmation, avec un niveau de rigueur qui est proportionné à l'importance de l'affirmation, à son côté ordinaire ou pas etc..."
J'appelle "religieux" quand le second cas est traité par une affirmation non assortie des précautions raisonnables qu'on peut attendre.

 

Je laisse le soin au lecteur d'ajuster la syntaxe du propos "je sais" aux cas d'application :o  :o  :o

roll68 a écrit :

Mais je comprend quand même pas, "elle expérimente une nouvelle configuration neurologique dans son cerveau." ok mais ça c'est évident, je pense que tout le monde est d'accord. Le problème c'est de savoir si elle apprend quelque chose de nouveau.


Avant ça, il faudrait que le cerveau humain soit capable de tout savoir. C'est un peu une limite de l'expérience de pensée en présence.

Message cité 1 fois
Message édité par aybibob le 06-04-2018 à 09:11:21

---------------
"On aurait tort de contredire pour réduire au silence un contradicteur : il faut plutôt l’éclairer. Car on ne guérit pas non plus un maniaque en faisant le fou devant lui." Stobée
mood
Publicité
Posté le 06-04-2018 à 09:10:40  profilanswer
 

n°52912822
sebmbalo
OQTF OQune hésitation
Posté le 06-04-2018 à 09:50:39  profilanswer
 

[:edden:3] [:crazydrummergeek] les deux derniers posts ...
on est où les gars là? chez les philosophes en goguette ?  
hé calmez vous, prenez un coca  [:guillaume truand:3]


---------------
"Je ne suis pas disposé à subir le terrorisme intellectuel d'une gauche moralement et intellectuellement décadente" - J.Chirac
n°52918715
Gwinizh
Posté le 06-04-2018 à 18:30:02  profilanswer
 

Perso, et même si je ne pense pas avoir les compétences pour participer, je trouve ça largement plus intéressant que les débats théologiques à base de citation de la Bible  :bounce:

n°52922042
roll68
Posté le 07-04-2018 à 00:02:50  profilanswer
 

Atropos a écrit :


Dans ce cas, on revient a ma reponse precedente : "Dans ton exemple, Mary ne peut pas connaitre ce que ca fait de voir du rouge par impossibilite, limitation technique".
Mais j'ai l'impression qu'on tourne en rond avec cet exemple...


 
Mais quelle limitation technique? Mary est supposée est une neurologue vivant dans le futur à une époque où le cerveau humain est parfaitement compris. À moins que tu ne penses que la science ne pourra jamais expliquer la conscience, une très bonne scientifique fera l'affaire. Il n'y a a priori pas besoin de connaître ce qui se passe neurone par neurone pour comprendre la conscience. De plus le problème ce n'est pas de savoir si en pratique on peut retenir autant d'informations sur le cerveau humain (à supposer qu'il faille se souvenir d'une quantité d'information "surhumaine" ) mais c'est de montrer le gap entre le point de vue objectif à la troisième personne de la science moderne et le point de vue subjectif à la première personne c'est à dire la conscience.
 
Ici Searle l'explique probablement bien mieux que je ne le fait: https://www.youtube.com/watch?v=ERtHFw_fw9Y.
 

Atropos a écrit :


Je ne le sais pas, j'ai justement pris un tas de precautions en formulant ma reponse : "si la conscience est une propriete emergeant d'un reseau de neurones complexes, alors un ordinateur pourrait etre capable d'etre conscient, mais pas une chaise". Le "si" est tres important.
C'est toi qui affirme une impossibilite, sans trop justifier pourquoi.
Pour ton second paragraphe, ok :jap:


 
Ben si je justifie avec l'argument de la chambre chinoise (plus le gap physique/syntaxe) après l'argument peut convaincre ou pas.  :o  
 
 

Atropos a écrit :


Tout a fait, le principe meme d'un teleporteur tel que tu le decris est que tu n'est pas transporte, tu es "copie" puis "supprime". Je ne vois pas bien le souci avec le materialisme ? Si la suppression rate, on se retrouve avec deux " moi", un original et une copie absolument identique et indissociable.
Si tu n'es pas d'accord, je pense que c'est a toi de justifier pourquoi une copie absolument 100% conforme a l'original n'aurait pas le meme comportement et ressenti que l'original.


 
Mon propos n'est pas de nier que la copie n'a pas le même comportement et ressenti que l'original. Ce que je dit c'est que le matérialisme ne peut pas faire la différence entre la copie de la conscience et le transfert de la conscience. Mais pourtant c'est une question qui risque d'être très importante dans l'avenir quand se posera la question de savoir si on peut survivre en copiant toutes les données du cerveau dans un ordinateur: si c'est une copie, pas de survie, si c'est un transfert tu survies.
 

Atropos a écrit :


Il ne l'exclue pas, mais tout simplement il ne pressupose pas qu'il y ait quelque chose de "sacre" ou "transcendant" a propos du soi. Et je ne vois pas ou tu sors ta derniere affirmation... au contraire, dans l'exemple que tu donnes tu te retrouves avec un "esprit" en plus :o


 
Mais poussé un bout de sa logique le matérialisme fait plus que de nier qu'il y a quelque chose de sacré ou de transcendant à propos du soi (sinon je serais matérialiste aussi, seul Dieu est transcendant :o), il devient éliminativiste (https://en.wikipedia.org/wiki/Eliminative_materialism), c'est à dire qu'en quelque sorte il nie que le soi existe. Et j'en veux pour preuve que le matérialisme ne peut pas faire la différence entre une copie et un transfert de conscience. Si sur ton lit de mort, on te propose de scanner ton cerveau (on suppose que la technologie d'ici là a bien évoluée) pour que après ta mort on te simule sur un ordinateur, tu acceptes parce que cela te donne une "après-vie" ou tu dis que c'est pas la peine parce que l'existence d'une copie ne va rien changer au fait que tu vas mourir?
 

Atropos a écrit :


Juste pour etre clair : je ne nie pas qu'il puisse y avoir un probleme. Ce que je nie, c'est qu'on puisse affirmer qu'il y en ait un actuellement. Par exemple, il y a aussi un aspect "syntaxique" dans les reactions chimiques prenant place dans notre cerveau, et pourtant cela ne semble pas poser de probleme a l'emergence d'une conscience.
Evidemment ca peut en poser un s'il y a plus que de la chimie dans ce qui fait de nous des etres conscients, mais actuellement on n'en sait absolument rien. Donc encore une fois, les IA modernes reglent ce souci de limite syntaxique si l'affirmation precedente est vraie.


 
D'accord d'où justement l'interêt de parler des ordinateurs, puisque la question peut se ramener à: un cerveau humain est-il équivalent à un ordinateur.
 

Atropos a écrit :


Euh... j'ai pointe du doigt son erreur dans mon message precedent justement...


 
Tu n'as pas du tout montré qu'il fait une erreur du point de vue de l'informatique. L'argument de la chambre chinoise est le même quel que soit le programme, peu importe si c'est du GOFAI, un réseau de neurones, ou même un truc qu'il reste à inventer.
 

Atropos a écrit :


Yes :D
Alors deja, vu que le papier date de 1980 ca va etre dur de considerer ca comme une reponse valide aux IA modernes, qui emergeaient a peine a cette epoque :D (pour info, la backpropagation, qui est une idee clef des NN modernes, c'est 1986)
Son exemple est deja a cote de la plaque, dans le sens ou il exclue (pour des raisons infondees...) certaines informations necessaires a une conscience.
 
(1) a program that doesn't represent information that we have about the world -> pourquoi ce choix ? C'est totalement stupide si le but est une conscience interagissant avec le monde
(2) but simulates the actual sequence of neuron firings at the synapses of the brain of a native Chinese speaker when he understands stories in Chinese -> Totale contradiction avec la phrase precedente, dans le sens ou un humain a absolument besoin "d'informations sur le monde" pour comprendre le sens d'une phrase, donc tu ne peux pas provoquer (2) sans provoquer (1) dans une certaine mesure (plus ou moins importante suivant la phrase a comprendre). C'est un point essentiel des IA modernes : ces IA construisent une "comprehension du monde" avec de creer un "pattern classifier" suffisamment complexe pour extraire le contexte et le sens d'une phrase a "comprendre" (generalement, a traduire si on parle d'applications concretes). Separer cette comprehension du pattern provoque par l'activation de neurones est une grosse incomprehension sur ce que modelise un reseau de neurones.
 
Le reste est une fausse equivocation entre un programme auquel il a retire une partie essentielle et un humain possedant cette partie.


 
Mais la backpropagation ne va rien changer du tout à l'argument et en plus il n'est pas du tout certain que c'est ce qui se passe dans le cerveau. L'argument est le même quel que soit le programme, réseau de neurones ou pas.
 
(1) Tu n'as pas compris, l'objection c'est de dire qu'on n'utilise pas une intelligence artificielle symbolique (https://en.wikipedia.org/wiki/Symbo [...] telligence i.e. "GOFAI" ) pour "contourner" le problème. Je suppose que tu es d'accord que le GOFAI c'est mort et enterré.
(2) Mais le (1) se réfère à l'intelligence artificielle symbolique ce qui exclut de fait les réseaux de neurones. Tu critiques la connaissance de Searle mais là tu fais une erreur élémentaire.
 

Atropos a écrit :


Je ne sais pas d'ou il sort ca... beaucoup de techniques d'IA modernes (dont les reseaux de neurones artificiels) sont absolument bases sur notre comprehension du cerveau.
 
 
Non-sens complet... L'interet de l'IA est justement de pouvoir repliquer "comment un cerveau marche", sans les contraintes de la biologie.
 
 
Encore et toujours la meme erreur... oui, l'homme ou le systeme de plomberie ne comprend pas le Chinois... exactement de la meme maniere qu'un neurone ou une reaction chimique ne comprend pas le Chinois. Personne ne pretend le contraire.
 
 
Affirmation non fondee...


 
- Il fait référence au béhaviorisme, i.e. seul le comportement compte, peut importe le fonctionnement interne. Le test de Turing en est un bon exemple. Dès lors que le comportement est "intelligent" on a une machine "intelligente" donc il n'y a pas besoin de comprendre le fonctionnement interne du cerveau, il suffit de répliquer le comportement humain. Évidemment Searle n'est pas du tout béhavioriste lui.
 
- C.f. mon point précédent, et aussi vu qu'on ne comprend pas encore comment le cerveau fonctionne (et encore moins en 1980) alors c'est une évidence absolue que: "If we had to know how the brain worked to do AI, we wouldn't bother with AI."
 
- Mais le système de plomberie simule le cerveau tout entier donc tu peux pas comparer avec un neurone ou une réaction chimique.
 
- L'affirmation suit logiquement de l'argumentation précédente, c'est en fait une conclusion.
 

Atropos a écrit :


Donc voila... Searle n'est clairement pas un idiot, et en 1980 ses objections se comprenaient, mais son raisonnement laisse maintenant largement a desirer :  
- Pourquoi cette obsession a vouloir que la "plomberie" soit consciente ?  
- Si cette "ability to produce intentional states" est materielle (ce qu'il semble penser vu qu'il la situe "dans le cerveau" ), pourquoi ne peut-elle pas etre simulee ?
- Si on copie atome pour atome un cerveau, sera-t-il conscient ? Si oui, en quoi une copie biologique serait impossible a "simuler" ? Si non, pourquoi ?


 
- What? Il argumente justement que la plomberie n'est pas consciente, contrairement au matérialisme/computationnalisme. La plomberie simule le cerveau humain tout entier, si la plomberie n'est pas consciente, la simulation n'est pas une réplication.
- Parce que, pour Searle, la conscience est irréductible, et donc la simulation du cerveau n'est pas consciente tout comme la simulation d'un ouragan ne va mouiller personne, simuler n'est pas répliquer.
- Pour Searle, oui il serait conscient.

n°52922095
roll68
Posté le 07-04-2018 à 00:23:13  profilanswer
 

aybibob a écrit :


Je vois bien la notion de contradiction logique dans les concepts mathématiques, comme dans ton exemple.
Mon problème arrive quand on parle du réel, de physique. Je ne comprends pas ce que signifie impossibilité logique dans ce cadre. Pour moi, la métrique d'une théorie est alors autre : elle décrit correctement la réalité ou pas. Et donc je ne vois pas ce que signifie ce "logiquement possible".
D'où mon reproche sur le fait que l'hypothèse du zombie est très pauvre à mon sens (qu'elle soit logiquement possible ou pas, quoi que cela veuille dire), parce que dans le cadre de cette métrique, elle fait une hypothèse d'existence de non matériel indue.


 
Disons que si quelque chose est logiquement incohérent alors il ne peut exister réellement. Et tout ce qui existe réellement est logiquement cohérent. Ensuite, la plupart des matérialistes acceptent que les zombies sont logiquement possibles, mais ils disent que peut être les zombies sont métaphysiquement impossibles. D'ailleurs les avis sont très partagé (https://philpapers.org/surveys/results.pl):

Citation :

Zombies: inconceivable, conceivable but not metaphysically possible, or metaphysically possible?
Accept or lean toward: conceivable but not metaphysically possible  331 / 931 (35.6%)
Other  234 / 931 (25.1%)
Accept or lean toward: metaphysically possible  217 / 931 (23.3%)
Accept or lean toward: inconceivable  149 / 931 (16.0%)


 

aybibob a écrit :


Au plus je relis (post du 23.02.2018) :
 
Au plus ça me donne l'impression d'une rhétorique habile pour essayer de retourner la charge de la preuve.
"Comme je n'ai pas de raison de penser qu'il y a correspondance entre états physiques ou mentaux (tout en minimisant le fait qu'on y travaille et qu'on a donc aujourd'hui des corrélations très fortes), alors merci de me prouver que le non matériel (dont je me défends de présupposer l'existence, mais qui permet quand même d'avoir une place pour mettre mon dieu) n'existe pas".
 
Je reconnais la subtilité de la méthode. Mais ça reste de la simple inversion de la charge de la preuve une fois regardé de près.


 
Mais non, encore une fois je répète: tout le monde est d'accord qu'il y a correspondance entre états physiques ou mentaux, et moi y compris bien sûr. Ce que le matérialisme affirme c'est que cette correspondance est métaphysiquement nécessaire (ou pour les matérialistes les plus "radicaux": nier l'existence des états mentaux). La charge de la preuve est à la fois sur les matérialistes et les non-matérialistes.

aybibob a écrit :


Ma distinction est bien trop stricte et simpliste, bien évidemment, mais c'était pour expliquer l'objet de ma distinction.
Quand je dis que j'aime la couleur bleue, c'est un constat, pas un savoir. Il n'y a pas de question de savoir si ce que je dis est vrai ou faux.
Quand je dis que tel évènement est arrivé (une résurrection il y a 2000 ans), la question est de savoir si c'est vrai ou faux, c'est donc celle d'un savoir. Si je développe mon "je sais", ce serait en fait un "je prends des précautions méthodologiques pour déterminer la véracité de l'affirmation, avec un niveau de rigueur qui est proportionné à l'importance de l'affirmation, à son côté ordinaire ou pas etc..."  
J'appelle "religieux" quand le second cas est traité par une affirmation non assortie des précautions raisonnables qu'on peut attendre.
 
Je laisse le soin au lecteur d'ajuster la syntaxe du propos "je sais" aux cas d'application :o  :o  :o


 
Mais (pour raccrocher au contexte de la discussion) Russell argumente en long et en large contre le matérialisme, donc je pense que tu n'as pas le droit de qualifier sa position de religieuse puisque justement sa position est " assortie des précautions raisonnables qu'on peut attendre". D'autant plus si tu n'as jamais lu ses arguments (je ne veux pas présupposer que tu ne l'as pas fait mais pour être honnête je n'en ai pas l'impression).
 

aybibob a écrit :


Avant ça, il faudrait que le cerveau humain soit capable de tout savoir. C'est un peu une limite de l'expérience de pensée en présence.


 
Voir ma réponse à Atropos.

n°52922828
aroll
Posté le 07-04-2018 à 10:07:06  profilanswer
 

Gwinizh a écrit :

Perso, et même si je ne pense pas avoir les compétences pour participer, je trouve ça largement plus intéressant que les débats théologiques à base de citation de la Bible  :bounce:

C'est absolument exacte et indiscutable, sauf que lorsque quelqu'un affirme pouvoir démontrer l'absurdité de la croyance (et par delà l'absurdité des croyants eux même, hein, on ne va pas se mentir [:gidoin] ) en utilisant un extrait isolé ou manipulé de la bible, comment lui répondre autrement qu'en montrant la réalité du "texte ENTIER" et ainsi montrer l'escroquerie du procédé?
 

n°52922944
Profil sup​primé
Posté le 07-04-2018 à 10:28:20  answer
 

Même pas besoin de s'appuyer sur les textes pour voir le côté délirant dans le fait de croire que des entités divines ont donné des "textes sarés" aux humains.

n°52923357
Atropos
Peace Love Death Metal
Posté le 07-04-2018 à 11:40:02  profilanswer
 

roll68 a écrit :


 
Mais quelle limitation technique? Mary est supposée est une neurologue vivant dans le futur à une époque où le cerveau humain est parfaitement compris. À moins que tu ne penses que la science ne pourra jamais expliquer la conscience, une très bonne scientifique fera l'affaire. Il n'y a a priori pas besoin de connaître ce qui se passe neurone par neurone pour comprendre la conscience. De plus le problème ce n'est pas de savoir si en pratique on peut retenir autant d'informations sur le cerveau humain (à supposer qu'il faille se souvenir d'une quantité d'information "surhumaine" ) mais c'est de montrer le gap entre le point de vue objectif à la troisième personne de la science moderne et le point de vue subjectif à la première personne c'est à dire la conscience.
 
Ici Searle l'explique probablement bien mieux que je ne le fait: https://www.youtube.com/watch?v=ERtHFw_fw9Y.
 


Quelle limitation technique -> ta video le dit des le debut : Mary n'a pas la possibilite technique de voir en couleur.
Cet exemple illustre la difference entre une sensation et l'explication de la sensation. Evidemment que les deux sont differents, je n'ai jamais vu quiconque pretendre le contraire...
Ca ne montre absolument pas que la sensation n'a pas un support materialiste....
 
On peut laisser tomber cet exemple si tu veux, ca tourne en rond...
 

roll68 a écrit :


 
Mon propos n'est pas de nier que la copie n'a pas le même comportement et ressenti que l'original. Ce que je dit c'est que le matérialisme ne peut pas faire la différence entre la copie de la conscience et le transfert de la conscience. Mais pourtant c'est une question qui risque d'être très importante dans l'avenir quand se posera la question de savoir si on peut survivre en copiant toutes les données du cerveau dans un ordinateur: si c'est une copie, pas de survie, si c'est un transfert tu survies.
 


Quelle est la difference entre un transfert et une copie, concretement ?
Si par survie tu veux dire la continuation d'une conscience donnee, alors la copie garantie sa survie...
 

roll68 a écrit :


 
Mais poussé un bout de sa logique le matérialisme fait plus que de nier qu'il y a quelque chose de sacré ou de transcendant à propos du soi (sinon je serais matérialiste aussi, seul Dieu est transcendant :o), il devient éliminativiste (https://en.wikipedia.org/wiki/Eliminative_materialism), c'est à dire qu'en quelque sorte il nie que le soi existe. Et j'en veux pour preuve que le matérialisme ne peut pas faire la différence entre une copie et un transfert de conscience. Si sur ton lit de mort, on te propose de scanner ton cerveau (on suppose que la technologie d'ici là a bien évoluée) pour que après ta mort on te simule sur un ordinateur, tu acceptes parce que cela te donne une "après-vie" ou tu dis que c'est pas la peine parce que l'existence d'une copie ne va rien changer au fait que tu vas mourir?
 


Voir plus haut, je ne vois pas la difference entre une copie et un transfert...
Pour la question, oui bien sur j'accepte. La copie est un "je" indissociable du "je" original (a l'instant de la copie, comme l'a fait remarquer thesmilingface), donc "je" vais continuer a vivre apres que "je" soit mort.
Bien entendu ca suppose que par 'vivre' on veut dire que ma conscience va continuer a exister.
 

roll68 a écrit :


 
D'accord d'où justement l'interêt de parler des ordinateurs, puisque la question peut se ramener à: un cerveau humain est-il équivalent à un ordinateur.
 


Je dirai plutot 'un ordinateur peut il simuler des process equivalents a ceux prenant place dans un cerveau', mais ok  

roll68 a écrit :


 
Tu n'as pas du tout montré qu'il fait une erreur du point de vue de l'informatique.  
 


Ca va etre dur vu qu'il ne fait pas du tout d'informatique :D

roll68 a écrit :


 
Mais la backpropagation ne va rien changer du tout à l'argument et en plus il n'est pas du tout certain que c'est ce qui se passe dans le cerveau. L'argument est le même quel que soit le programme, réseau de neurones ou pas.


Non, si son argument s'applique aux IA modernes (enfin, aux reseaux de neurones artificiels en particulier), alors il s'applique aussi aux reseaux de neurones biologiques.

roll68 a écrit :


(1) Tu n'as pas compris, l'objection c'est de dire qu'on n'utilise pas une intelligence artificielle symbolique (https://en.wikipedia.org/wiki/Symbo [...] telligence i.e. "GOFAI" ) pour "contourner" le problème. Je suppose que tu es d'accord que le GOFAI c'est mort et enterré.
(2) Mais le (1) se réfère à l'intelligence artificielle symbolique ce qui exclut de fait les réseaux de neurones. Tu critiques la connaissance de Searle mais là tu fais une erreur élémentaire.


Bah c'est ce que je veux dire : dans le cas de reseaux de neurones artificiels, (1) est un non-sens. Son exemple ne s'applique donc pas a ce type d'IA.

roll68 a écrit :


 
- Il fait référence au béhaviorisme, i.e. seul le comportement compte, peut importe le fonctionnement interne. Le test de Turing en est un bon exemple. Dès lors que le comportement est "intelligent" on a une machine "intelligente" donc il n'y a pas besoin de comprendre le fonctionnement interne du cerveau, il suffit de répliquer le comportement humain. Évidemment Searle n'est pas du tout béhavioriste lui.


Et encore une fois ca n'est plus applicable aux IA modernes qui ont une approche completement opposee.
 

roll68 a écrit :


- C.f. mon point précédent, et aussi vu qu'on ne comprend pas encore comment le cerveau fonctionne (et encore moins en 1980) alors c'est une évidence absolue que: "If we had to know how the brain worked to do AI, we wouldn't bother with AI."


Euh... on a une certaine idee de comment le cerveau fonctionne... l'emergence des reseaux de neurones artificiels en est une consequence.
Et je ne vois pas pourquoi connaitre le fonctionnement du cerveau rend les IA inutiles... le but des IA actuellement est de beneficier de la meme capacite a resoudre des problemes qu'un cerveau biologique, sans les contraintes de celui-ci.
 

roll68 a écrit :


- Mais le système de plomberie simule le cerveau tout entier donc tu peux pas comparer avec un neurone ou une réaction chimique.


Searle s'attend a observer une "comprehension" emerger de la plomberie. C'est totalement stupide, vu que tu n'observera pas non plus de "comprehension" si tu observais les reactions chimiques prenant place dans un cerveau. Il s'interesse au support permettant l'emergence d'un phenomene plutot qu'a si le phenomeme emerge ou non...
 

roll68 a écrit :


 
- What? Il argumente justement que la plomberie n'est pas consciente, contrairement au matérialisme/computationnalisme. La plomberie simule le cerveau humain tout entier, si la plomberie n'est pas consciente, la simulation n'est pas une réplication.


Voir au-dessus, il n'observera pas plus de conscience dans la plomberie qu'il n'en observerait dans les reactions électrochimiques entre neurones.

roll68 a écrit :


- Parce que, pour Searle, la conscience est irréductible, et donc la simulation du cerveau n'est pas consciente tout comme la simulation d'un ouragan ne va mouiller personne, simuler n'est pas répliquer.


Deja repondu a ca avec l'exemple de la gravite simulee vs. gravite reelle.
Quelle serait la difference concrete entre une conscience simulee et une conscience repliquee ? Il ne s'agit pas d'un objet...
Et c'est une objection qui concerne seulement une IA simulee via le software. Quid d'un NN implemente au niveau hardware ?

roll68 a écrit :


- Pour Searle, oui il serait conscient.


Du coup, qu'est-ce qui fait qu'un cerveau biologique est le seul support possible pour une conscience ? Pourquoi un cerveau artificiel reproduisant parfaitement le comportement d'un cerveau biologique ne serait pas conscient ?
 
Est-ce que tu meurs si on fait une copie atome-pour-atome de ton cerveau et qu'on remplace ton cerveau par cette copie ?  
Idem si la copie est fonctionnellement identique mais materiellement differente (neurones en silicone vs carbone-based) ?
Idem si la copie est fonctionnellement identique mais son fonctionnement est implemente par un reseau de neurone logiciel mappe de la meme facon qu'un cerveau biologique a ton systeme nerveux ?

n°52947772
Wallalow
Posté le 10-04-2018 à 08:22:41  profilanswer
 

Actualité oblige...

 

https://www.lci.fr/amp/politique/em [...] 84090.html

 

Décidément, la droite ne peut pas s'empêcher de cirer les pompes de l'Église, Macron n'échappe pas à la règle...

 

Je DÉTESTE voir des politiciens draguer des religieux par intérêt électoraliste.

 

Surtout quand il nous sort que :
https://www.lci.fr/politique/video- [...] 84089.html

 

"chaque jour l’Eglise accompagne des familles monoparentales, homosexuelles ou ayant recours à l’avortement en essayant de concilier ses principes et le réel."

 

On a vu ça avec Fillon et la manif pour tous.
Ahhh... bizarrement, je suis assez sceptique :o

 


Message édité par Wallalow le 10-04-2018 à 09:05:42
n°52949245
aybibob
Coupo santo e versanto
Posté le 10-04-2018 à 10:52:13  profilanswer
 

roll68 a écrit :

Disons que si quelque chose est logiquement incohérent alors il ne peut exister réellement. Et tout ce qui existe réellement est logiquement cohérent. Ensuite, la plupart des matérialistes acceptent que les zombies sont logiquement possibles, mais ils disent que peut être les zombies sont métaphysiquement impossibles. D'ailleurs les avis sont très partagé (https://philpapers.org/surveys/results.pl):

Citation :

Zombies: inconceivable, conceivable but not metaphysically possible, or metaphysically possible?
Accept or lean toward: conceivable but not metaphysically possible  331 / 931 (35.6%)
Other  234 / 931 (25.1%)
Accept or lean toward: metaphysically possible  217 / 931 (23.3%)
Accept or lean toward: inconceivable  149 / 931 (16.0%)



Je vais passer pour un obsédé des définitions, mais tu ne réponds pas à ma question de définition.
"si quelque chose est logiquement incohérent alors il ne peut exister réellement" : le problème est celui de la "possibilité logique", et là, tu sépares les deux termes dans les deux propositions de la phrase : "logiquement" et "peux".
"Et tout ce qui existe réellement est logiquement cohérent." : oui, mais ça ne me permets aucune discrimination utile entre logiquement possible et impossible pour le cas qui nous intéresse (puisqu'on ne sait pas a priori si le non matériel existe réellement, c'est un peu le départ de la discussion).
 
Et puis la vérité n'étant pas démocratique, pour intéressant que le sondage soit pour lui-même, je pense qu'il ne répond pas à la question.
 

roll68 a écrit :

Mais non, encore une fois je répète: tout le monde est d'accord qu'il y a correspondance entre états physiques ou mentaux, et moi y compris bien sûr. Ce que le matérialisme affirme c'est que cette correspondance est métaphysiquement nécessaire (ou pour les matérialistes les plus "radicaux": nier l'existence des états mentaux). La charge de la preuve est à la fois sur les matérialistes et les non-matérialistes.


Ah non, mon matérialisme n'affirme pas que la correspondance est nécessaire. Je reviens à mon propos antérieur sur ton besoin de catégoriser. Je n'ai pas un avis a priori (genre "je suis matérialiste" ), et puis je regarde comme une conséquence les avis que je dois avoir sur tel ou tel sujet.
C'est le contraire, même. Je constate que le matériel seul explique à ce jour très bien ce qu'on observe, qu'il est prometteur en terme de capacité explicative pour le futur. Et qu'on n'a aucune observation qui permette de commencer un début de recherche d'explication non matérielle.
En conclusion de cela, je me dis matérialiste.
Je ne vois pas la correspondance comme nécessaire, mais comme l'explication la plus probable et prometteuse à l'heure actuelle. Il suffirait de montrer une observation qui oriente vers une possibilité de non matériel me convaincre de l'intérêt de l'hypothèse.
 
L'inversion de la charge de la preuve est là : l'existence de non-matériel serait quelque chose d'extraordinaire et de fondamental. Pour le prouver, il faudrait (adage classique) des preuves extraordinaires. Mais en fait, au lieu d'essayer d'apporter ces preuves, on invente une possibilité que ça puisse exister, et on dit que l'autre devrait prouver que ça n'existe pas. Retournement.
Pour faire une analogie, je pourrais demander le prix Nobel pour l'existence du Higgs : ça fait longtemps que je dis qu'il est logiquement possible qu'il existe et que c'est aux autres de montrer qu'il n'existe pas. J'étais donc dans le vrai bien avant les équipes du CERN sur ce sujet. A moins que je ne fasse que renverser la charge de la preuve.
 

roll68 a écrit :

Mais (pour raccrocher au contexte de la discussion) Russell argumente en long et en large contre le matérialisme, donc je pense que tu n'as pas le droit de qualifier sa position de religieuse puisque justement sa position est " assortie des précautions raisonnables qu'on peut attendre". D'autant plus si tu n'as jamais lu ses arguments (je ne veux pas présupposer que tu ne l'as pas fait mais pour être honnête je n'en ai pas l'impression).


Mais je l'en prie. Je constate qu'à l'inverse, les religions ne prennent aucune précaution du tout. ça me va.

roll68 a écrit :

Voir ma réponse à Atropos.


Je regarde quand j'ai plus de temps.


---------------
"On aurait tort de contredire pour réduire au silence un contradicteur : il faut plutôt l’éclairer. Car on ne guérit pas non plus un maniaque en faisant le fou devant lui." Stobée
mood
Publicité
Posté le 10-04-2018 à 10:52:13  profilanswer
 

n°52961592
aroll
Posté le 11-04-2018 à 11:43:50  profilanswer
 

Atropos a écrit :


Quelle est la difference entre un transfert et une copie, concretement ?
Si par survie tu veux dire la continuation d'une conscience donnee, alors la copie garantie sa survie...
 
 
Voir plus haut, je ne vois pas la difference entre une copie et un transfert...
Pour la question, oui bien sur j'accepte. La copie est un "je" indissociable du "je" original (a l'instant de la copie, comme l'a fait remarquer thesmilingface), donc "je" vais continuer a vivre apres que "je" soit mort.
Bien entendu ca suppose que par 'vivre' on veut dire que ma conscience va continuer a exister.

Des copies, on peut en faire plusieurs, et donc dans ce cas on obtiendrait plusieurs "toi"?
 
 

Atropos a écrit :

Euh... on a une certaine idee de comment le cerveau fonctionne... l'emergence des reseaux de neurones artificiels en est une consequence.

Là j'ai un gros doute. Tu as des preuves, des sources fiables?
 

J'ai l'impression que roll68 et toi ne parlez pas le même langage...  :heink:  
 

n°52962089
thesmiling​face
Earth Disasters Fundation
Posté le 11-04-2018 à 12:31:19  profilanswer
 

aroll a écrit :

Des copies, on peut en faire plusieurs, et donc dans ce cas on obtiendrait plusieurs "toi"?

Sur ce fil, on se focalise sur le cerveau comme support de la conscience.
Mais j'aimerais proposer une expérience intéressante : imaginer un végétal conscient.
 
Chez de nombreux végétaux, il est courant de se multiplier (marcotage/bouturage/division des touffes/bulbilles).
L'adn reste le même. Est-ce qu'on aurait un végétal conscient, issu d'une graine, et tous les autres, végétaux zombies.
Est-ce que tous les végétaux seraient conscients ?
 
Je suis personnellement enclin à penser que ce n'est pas l'adn, ou le corps qui fait le soi, mais les perceptions transmises via le corps (en théorie, vu qu'on sait désormais exciter directement les aires cérébrales) qui font la conscience.
Et que donc chaque végétal issu d'un végétal conscient pourrait être conscient. Pour autant, à l'instant de la séparation, chaque entité poursuit sa vie et donc développe une conscience différente.
 
Pour en revenir à ta question, je pense qu'on peut obtenir plusieurs "toi", mais que original comme copies peuvent évoluer différemment (vivre des choses différentes).
La conscience est un processus illusoire, le cerveau est facile à berner. Il est facile de convaincre une copie qu'elle est l'original.
Pour autant, est-ce à dire qu'on doit sacrifier l'original ? Je ne vois pas pourquoi on le ferait (à part pour un gain de place [:ddr555]).
Et je ne vois pas pourquoi l'original déciderait de se sacrifier (même si Atropos semble ne pas y voir le moindre problème).


---------------
La connerie est notre avenir, économisons la.
n°52962503
Atropos
Peace Love Death Metal
Posté le 11-04-2018 à 13:18:24  profilanswer
 

aroll a écrit :

Des copies, on peut en faire plusieurs, et donc dans ce cas on obtiendrait plusieurs "toi"?


Mais concretement c'est quoi un transfert ? J'ai du mal a l'imaginer autrement qu'une copie + suppression, or roll68 semble suggerer qu'il y a une difference fondamentale entre les deux process...
 

aroll a écrit :

 Là j'ai un gros doute. Tu as des preuves, des sources fiables?


Sources sur quoi ? Je ne dis pas qu'on sait parfaitement comment le cerveau marche, mais qu'on a une idee generale... on sait qu'il est compose de neurones, comment ces neurones "marchent" etc.
J'imagine qu'il ne te faut pas de sources pour ce point ? :o
 

thesmilingface a écrit :


Et je ne vois pas pourquoi l'original déciderait de se sacrifier (même si Atropos semble ne pas y voir le moindre problème).


Je parlais du cote technique, l'aspect ethique c'est tout autre chose :o
 
Niveau ethique je pense effectivement aussi qu'il n'y aurait pas necessairement de probleme, vu que c'est de toute facon l'original qui prendrait la decision, et qu'a priori en pratique la question de faire une copie se poserait dans les cas ou l'original est deja condamne.
Apres si on parle d'un scenario ou il serait possible d'avoir l'original + X copies, effectivement je vois pas pourquoi on demandrait a l'original de se sacrifier.
Mais bon a ce niveau c'est comme discuter du sexe des anges :o

n°52963353
aroll
Posté le 11-04-2018 à 14:16:57  profilanswer
 

thesmilingface a écrit :

Sur ce fil, on se focalise sur le cerveau comme support de la conscience.
Mais j'aimerais proposer une expérience intéressante : imaginer un végétal conscient.
 
Chez de nombreux végétaux, il est courant de se multiplier (marcotage/bouturage/division des touffes/bulbilles).
L'adn reste le même. Est-ce qu'on aurait un végétal conscient, issu d'une graine, et tous les autres, végétaux zombies.
Est-ce que tous les végétaux seraient conscients ?
 
Je suis personnellement enclin à penser que ce n'est pas l'adn, ou le corps qui fait le soi, mais les perceptions transmises via le corps (en théorie, vu qu'on sait désormais exciter directement les aires cérébrales) qui font la conscience.
Et que donc chaque végétal issu d'un végétal conscient pourrait être conscient. Pour autant, à l'instant de la séparation, chaque entité poursuit sa vie et donc développe une conscience différente.
 
Pour en revenir à ta question, je pense qu'on peut obtenir plusieurs "toi", mais que original comme copies peuvent évoluer différemment (vivre des choses différentes).
La conscience est un processus illusoire, le cerveau est facile à berner. Il est facile de convaincre une copie qu'elle est l'original.
Pour autant, est-ce à dire qu'on doit sacrifier l'original ? Je ne vois pas pourquoi on le ferait (à part pour un gain de place [:ddr555]).
Et je ne vois pas pourquoi l'original déciderait de se sacrifier (même si Atropos semble ne pas y voir le moindre problème).

Tout dépend de ce que tu entends par «plusieurs toi». Si ce ne sont que des jumeaux, ok, si c’est vraiment plusieurs fois TOI, ça me paraît totalement absurde.
Et justement cette histoire de sacrifice de l’un d’entre eux permet de de douter de la réalité de la multiplication du même «soi».
 

Atropos a écrit :


Mais concretement c'est quoi un transfert ? J'ai du mal a l'imaginer autrement qu'une copie + suppression, or roll68 semble suggerer qu'il y a une difference fondamentale entre les deux process…

Lorsque l’on transfert un malade, une cargaison, un prisonnier, c’est l’objet lui même qui est déplacé. Dans ce sens, cette acceptation là, un transfert de conscience impliquerait son existence séparée. On «prend» la conscience d’un corps, et on la «met» dans un autre, le premier ne l’a donc plus et le second l’acquière. Ça, ce n’est bien évidemment pas conforme à tes idées. Pour toi il faut donc un équivalent de certaines téléportations en SF, le premier être est désintégré et un autre, copie absolument parfaite du premier, est formé. Sauf que dans ce cas, on peut très bien imaginer former le deuxième sans détruire le premier, ou aussi en former plusieurs. Ce sont donc de fait des copies, et la question est de savoir si ces copies sont réellement toi, ce qui est fort douteux, et si on te mettais en présence d’une copie de toi, je ne doute pas un seul instant que s’il fallait choisir lequel des deux va être tué, l’un comme l’autre se batterait pour que ce ne soit pas lui.
 
 

Atropos a écrit :

Sources sur quoi ? Je ne dis pas qu'on sait parfaitement comment le cerveau marche, mais qu'on a une idee generale... on sait qu'il est compose de neurones, comment ces neurones "marchent" etc.
J'imagine qu'il ne te faut pas de sources pour ce point ? :o

As-tu des sources qui prouvent que l’on sait comment marchent les neurones?
 

n°52963555
Atropos
Peace Love Death Metal
Posté le 11-04-2018 à 14:28:29  profilanswer
 


aroll a écrit :

Lorsque l’on transfert un malade, une cargaison, un prisonnier, c’est l’objet lui même qui est déplacé. Dans ce sens, cette acceptation là, un transfert de conscience impliquerait son existence séparée. On «prend» la conscience d’un corps, et on la «met» dans un autre, le premier ne l’a donc plus et le second l’acquière. Ça, ce n’est bien évidemment pas conforme à tes idées.


Oui voila, c'est ca que je ne pige pas. C'est quoi cet objet "conscience" ? On parle d'un objet "physique" ? Si non, comment peut-on le deplacer "physiquement" et comment pourrait il avoir une quelconque influence sur le "monde physique" de toute facon ?
 

aroll a écrit :

Pour toi il faut donc un équivalent de certaines téléportations en SF, le premier être est désintégré et un autre, copie absolument parfaite du premier, est formé. Sauf que dans ce cas, on peut très bien imaginer former le deuxième sans détruire le premier, ou aussi en former plusieurs. Ce sont donc de fait des copies, et la question est de savoir si ces copies sont réellement toi, ce qui est fort douteux, et si on te mettais en présence d’une copie de toi, je ne doute pas un seul instant que s’il fallait choisir lequel des deux va être tué, l’un comme l’autre se batterait pour que ce ne soit pas lui.


"il faut" -> non pas necessairement, sauf si on parle de transfert (ie. on ne veut qu'un seul exemplaire au final).
Sinon d'accord avec toi sur le reste, a part sur un point : je pense qu'a l'instant T de la copie (et uniquement a cet instant), ces copies sont effectivement equivalentes a "moi", dans le sens ou je ne vois pas comment les differencier.
 

aroll a écrit :

As-tu des sources qui prouvent que l’on sait comment marchent les neurones?


https://fr.wikipedia.org/wiki/Neurone  :??:  

n°52963980
thesmiling​face
Earth Disasters Fundation
Posté le 11-04-2018 à 14:53:15  profilanswer
 

aroll a écrit :

Tout dépend de ce que tu entends par «plusieurs toi». Si ce ne sont que des jumeaux, ok, si c’est vraiment plusieurs fois TOI, ça me paraît totalement absurde.
Et justement cette histoire de sacrifice de l’un d’entre eux permet de de douter de la réalité de la multiplication du même «soi».

aroll a écrit :

[...]Sauf que dans ce cas, on peut très bien imaginer former le deuxième sans détruire le premier, ou aussi en former plusieurs. Ce sont donc de fait des copies, et la question est de savoir si ces copies sont réellement toi, ce qui est fort douteux, et si on te mettais en présence d’une copie de toi, je ne doute pas un seul instant que s’il fallait choisir lequel des deux va être tué, l’un comme l’autre se batterait pour que ce ne soit pas lui.

Imagine qu'on ait réalisé une copie de toi durant ton enfance.
On la maintient en sommeil jusqu'à aujourd'hui.
Quand tu la rencontres, peux-tu dire que c'est toi ? Elle a tes souvenirs d'enfance, ne connait pas l'adolescence ni l'âge adulte.
Toi-même, tu te souviens différemment les évènements d'enfance qu'elle te relate.
 
Amha, pour que cette copie soit toi, il aurait fallu qu'elle vive exactement (ou qu'on lui simule) les mêmes expériences que toi. Qu'elle fasse ou ait l'illusion de faire les mêmes choix que toi.
Que votre rencontre se fasse très exactement en miroir.
 
Bref des conditions d'expérience extrèmement précises.
 
Il est bien plus facile, bien qu'approximatif,  de réduire le concept de toi à l'individu qui dit se nommer untel et être enfant de machin et bidule.
D'une certaine manière, un individu qui possède un corps identique au tien et des souvenirs identiques au tien, se nomme/répond au même nom que toi, possède les mêmes a-priori, etc..., c'est toi.
Un toi plus jeune, qui n'a pas expérimenté certaines choses que tu as vécues, et ne les expérimentera pas.
Donc pas toi au sens strict, mais toi quand même.
 
/philosophe en goguette. [:ccrider:3]


---------------
La connerie est notre avenir, économisons la.
n°52964054
aroll
Posté le 11-04-2018 à 14:57:30  profilanswer
 

Atropos a écrit :


 
Oui voila, c'est ca que je ne pige pas. C'est quoi cet objet "conscience" ? On parle d'un objet "physique" ? Si non, comment peut-on le deplacer "physiquement" et comment pourrait il avoir une quelconque influence sur le "monde physique" de toute facon ?

Ben justement, si ti lis bien et comprends bien mon message, je précise que pour TOI (donc un athée) cette possibilité est forcément exclue, et que du coup il ne reste que l'équivalent "téléportation SF".
 
 

Atropos a écrit :

"il faut" -> non pas necessairement, sauf si on parle de transfert (ie. on ne veut qu'un seul exemplaire au final).

Ben si "il faut" comme je viens de te le montrer juste avant, et ça n'implique pas l'obligation d'avoir plusieurs exemplaires, ça se contente de le permettre.
 

Atropos a écrit :

Sinon d'accord avec toi sur le reste, a part sur un point : je pense qu'a l'instant T de la copie (et uniquement a cet instant), ces copies sont effectivement equivalentes a "moi", dans le sens ou je ne vois pas comment les differencier.

Le fait de ne pas pouvoir les différencier n'implique absolument pas qu'ils soient tous les deux la même personne, la preuve tu limite ce cas à un seul instant, ce qui n'a aucun sens, tu ne changes pas de conscience avec le temps.
 
 

Si tu crois que ça suffit pour affirmer que l'on sait un peu comment ils fonctionnent je t'invite à te renseigner auprès de spécialistes..
 

n°52964087
aroll
Posté le 11-04-2018 à 14:59:01  profilanswer
 

thesmilingface a écrit :

Imagine qu'on ait réalisé une copie de toi durant ton enfance.
On la maintient en sommeil jusqu'à aujourd'hui.
Quand tu la rencontres, peux-tu dire que c'est toi ? Elle a tes souvenirs d'enfance, ne connait pas l'adolescence ni l'âge adulte.
Toi-même, tu te souviens différemment les évènements d'enfance qu'elle te relate.
 
Amha, pour que cette copie soit toi, il aurait fallu qu'elle vive exactement (ou qu'on lui simule) les mêmes expériences que toi. Qu'elle fasse ou ait l'illusion de faire les mêmes choix que toi.
Que votre rencontre se fasse très exactement en miroir.
 
Bref des conditions d'expérience extrèmement précises.
 
Il est bien plus facile, bien qu'approximatif,  de réduire le concept de toi à l'individu qui dit se nommer untel et être enfant de machin et bidule.
D'une certaine manière, un individu qui possède un corps identique au tien et des souvenirs identiques au tien, se nomme/répond au même nom que toi, possède les mêmes a-priori, etc..., c'est toi.
Un toi plus jeune, qui n'a pas expérimenté certaines choses que tu as vécues, et ne les expérimentera pas.
Donc pas toi au sens strict, mais toi quand même.
 
/philosophe en goguette. [:ccrider:3]

Hummm en goguette, effectivement..  :heink:  

n°52964248
Gilgamesh ​d'Uruk
Lui-même
Posté le 11-04-2018 à 15:08:31  profilanswer
 

thesmilingface a écrit :

Je suis personnellement enclin à penser que ce n'est pas l'adn, ou le corps qui fait le soi, mais les perceptions transmises via le corps (en théorie, vu qu'on sait désormais exciter directement les aires cérébrales) qui font la conscience.


 
Evidemment que c'est ça qui fait le Soi.
 
Je repost cet exposé que je tire de la lecture de Antonio Damasio (*) :
 
Le cerveau met à jour a tout moment des carte sensorielle des différents systèmes et organes qui communiquent à chaque instant leur état interne, ce qui leur arrive, dans quel position ils sont, ce qu'ils perçoivent, etc. Cet encartage donne naissance a des images sensorielle, il est non verbal (et inaccessible à la conscience) et comprend une valorisation des état du corps. Il me semble que le gap explicatif ne se trouve qu'ici : comment passer du potentiel électrochimique d'une assemblée de neurones à une "image sensorielle" ? Sachant toutefois qu'ici cette image n'est pas encore perceptible, rapportée à un "Soi", puisque ce Soi n'est pas encore constitué.  
   
Ces images mentales qui décrivent l'état valorisé de l'organisme sont des émotions. Tout ceci n'est pas fait "gratuitement" mais dans le but (au sens évolutif) d'ajuster en permanence le corps a son environnement. L'ensemble de ces cartes valorisée engendre ce que Damasio appelle le Proto Soi inaugural, celui a qui il "arrive quelque chose".
 
Le compte rendu des changement occasionné au Proto Soi, une structure le représente en relation avec l'objet qui occasionne le changement (lui même représenté par une série d'images mises en carte et valorisé). L'assemblage de la carte du Proto Soi et de la carte de l'objet donne naissance à une nouvelle carte dite de second ordre qui représente le 'Proto Soi modifié par l'objet' cad mis en relation temporelle avec lui.
 
C'est l'essence de la causalité mais tout ceci est encore tout a fait inconscient et non verbal. Les images mentales (générées par les cartes de second ordre) qui décrivent la relation sont des sentiments. Le sentiment c'est donc une émotion reliée à sa cause (on peut faire un parallélisme avec ce qu'en disait Spinoza : l'amour est "une joie accompagnée de l'idée d'une cause extérieure" ). L'utilité adaptative de cette mise en relation de l'image du corps avec l'image de l'objet pour en extraire une causalité est là encore tout a fait claire. C'est dans la mesure où le cerveau comprend "ce qui se passe" qu'il est capable de prendre une décision appropriée.
 
Ce compte rendu permanent de l'organisme causalement affecté par le traitement d'un objet donne naissance a ce qu'il appelle la "conscience-noyau". Elle donne naissance au Soi central.
 
Tous les animaux supérieurs (les vertébrés disons) ont une conscience noyau. Ce qui suit, la conscience étendue et la conscience autobiographique est spécifique à l'espèce humaine.
 
La conscience étendue est tout ce qu'est la conscience noyau mais sur une plus grande échelle c'est à dire plaçant le Soi qui nous est livré par la conscience noyau dans un vaste champs qui s'étend dans le temps. Elle connecte le Soi central au souvenirs et aux perspectives d'avenir. La conscience noyau nous permet de savoir qui a mal au dent : c'est Soi. La conscience étendu relie ce mal a sa localisation : les dents, sa cause : une carie ? depuis quand : ça fait 3 j qui l'a soigné la dernière foi : Dr Kojak, dentiste, etc ainsi que le fait que tu vas te cantonner à une soupe et un yaourt ce soir.
 
Ce miracle de la conscience étendue qui fait tout l'être humain est permis par le simple fait que les souvenir biographique sont représenté comme des objets dans les cartes de second ordre. Les épisodes du passé, avec leur immense complexité entre ainsi en relation avec l'organisme sur le même mode que pour la conscience noyau ; chacun de ces souvenir peut donc susciter une pulsation de conscience noyau, engendrant ce sens aigue que l'on a de se connaitre soi même.
 
Enfin l'archivage organisé des expériences passé d'un organisme ainsi individualisé est le Soi autobiographique
 
Il est bien évident que sans ce sentiment de Soi il n'y a tout simplement pas de pensée logique, aucune réflexion rien car PERSONNE ne pense. Or le Soi est construit par les émotions et les sentiments. Voila pourquoi il est complètement illusoire d'imaginer une machine capable de connaitre et d'enchainer des idées qui aient un sens (et non simplement le produit d'un algorithme) sans sentiment, émotion et Soi constitué.
 
(*) Antonio R. Damasio, Le Sentiment même de soi : corps, émotions, conscience, Odile Jacob, Paris, 1999, 380 p.


---------------
Nation spatiale : la chaîne de l'Arche interstellaire.
n°52964419
Atropos
Peace Love Death Metal
Posté le 11-04-2018 à 15:19:07  profilanswer
 

aroll a écrit :

Ben justement, si ti lis bien et comprends bien mon message, je précise que pour TOI (donc un athée) cette possibilité est forcément exclue, et que du coup il ne reste que l'équivalent "téléportation SF".


"cette possibilite" = "un objet non materiel" ? C'est pas necessairement que c'est exclu, c'est plutot que je ne vois pas comment l'investiguer, ni en quoi ca consiste. Et donc je ne vois pas comment on peut dire quoi que ce soit a son sujet.
 
Ce que je demande, c'est une explication sur cette autre possibilite. Elle consiste en quoi concretement ? Parce que juste me parler d'un "objet conscience" sans meme preciser si on parle de quelque chose de materiel ou non ou s'il y a une quelconque preuve de son existence, c'est un peu leger pour avoir une discussion...
 

aroll a écrit :

Ben si "il faut" comme je viens de te le montrer juste avant, et ça n'implique pas l'obligation d'avoir plusieurs exemplaires, ça se contente de le permettre.


Non, pas "il faut" :D Et si tu pouvais arreter de m'expliquer mes propres opinions :D
Ca n'est pas une necessite pour moi, c'est simplement le seul mecanisme qui me vient a l'esprit. Si tu en as un autre (un mecanisme sur lequel on peut discuter, pas une boite noire intangible qui n'apporte rien a la discussion), je suis tout ouie.
 

aroll a écrit :

Le fait de ne pas pouvoir les différencier n'implique absolument pas qu'ils soient tous les deux la même personne,


Generalement, si X n'est pas different de Y, alors X est egal a Y :o
 

aroll a écrit :

la preuve tu limite ce cas à un seul instant, ce qui n'a aucun sens, tu ne changes pas de conscience avec le temps.


Ma conscience evolue certainement avec le temps, et est tres differente de ma conscience d'il y a 10 ans par exemple.
 

aroll a écrit :

Si tu crois que ça suffit pour affirmer que l'on sait un peu comment ils fonctionnent je t'invite à te renseigner auprès de spécialistes..


T'es en train de dire qu'on ne sait pas du tout comment fonctionne un neurone ? Et moi qui implemente des reseaux de neurones depuis des annees :(
Blague a part, mon point etait de dire que l'on en sait suffisamment sur le cerveau pour emuler certaines parties de son fonctionnement. Par exemple le principe d'un reseau de neurones.

n°52964604
roll68
Posté le 11-04-2018 à 15:31:01  profilanswer
 

Je réponds au reste ce soir après le boulot mais là je veux dire un truc vite fait:
 

Atropos a écrit :


T'es en train de dire qu'on ne sait pas du tout comment fonctionne un neurone ? Et moi qui implemente des reseaux de neurones depuis des annees :(


 
Si tu crois qu'un neurone formel et un neurone biologique c'est la même chose, ou même presque la même chose, tu n'es pas du tout au courant de la neurologie moderne. Tu peux regarder ici: https://www.nature.com/articles/s41598-017-18363-1 ou là: https://dyslectern.info/2015/01/31/more-about-neurons/ par exemple.
 
EDIT: Et surtout ce lien en fait: https://mathbabe.org/2015/10/20/gue [...] n-project/

Message cité 1 fois
Message édité par roll68 le 11-04-2018 à 15:33:59
n°52964751
Atropos
Peace Love Death Metal
Posté le 11-04-2018 à 15:40:30  profilanswer
 

roll68 a écrit :

 

Si tu crois qu'un neurone formel et un neurone biologique c'est la même chose, ou même presque la même chose, tu n'es pas du tout au courant de la neurologie moderne. Tu peux regarder ici: https://www.nature.com/articles/s41598-017-18363-1 ou là: https://dyslectern.info/2015/01/31/more-about-neurons/ par exemple.


Mais bordel vous vous etes donnes le mot ? :D
Je n'ai jamais dit qu'on connait exactement le fonctionnement d'un neurone biologique, ou qu'il est absolument equivalent a un neurone formel...
Mais on en connait assez pour pouvoir emuler certaines parties de son fonctionnement. C'etait la phrase juste en dessous... arretez de faire vos Siths :D
Pas besoin d'une connaissance absolue pour comprendre comment simplifier un neurone en noeud possedant une fonction d'activation, et un synapse en connection transportant des valeurs entre noeuds.

 

Edit sur ton edit: le blue brain project est juste un projet particulier... En grande majorite, le but des projets d'IA n'est absolument pas de reproduire a l'identique un cerveau biologique. C'est au mieux une source d'inspiration pour certaines techniques d'IA.

Message cité 1 fois
Message édité par Atropos le 11-04-2018 à 15:42:28
n°52965134
aroll
Posté le 11-04-2018 à 16:03:46  profilanswer
 

Gilgamesh d'Uruk a écrit :


 
Evidemment que c'est ça qui fait le Soi.
 
Je repost cet exposé que je tire de la lecture de Antonio Damasio (*) :
 
Le cerveau met à jour a tout moment des carte sensorielle des différents systèmes et organes qui communiquent à chaque instant leur état interne, ce qui leur arrive, dans quel position ils sont, ce qu'ils perçoivent, etc. Cet encartage donne naissance a des images sensorielle, il est non verbal (et inaccessible à la conscience) et comprend une valorisation des état du corps. Il me semble que le gap explicatif ne se trouve qu'ici : comment passer du potentiel électrochimique d'une assemblée de neurones à une "image sensorielle" ? Sachant toutefois qu'ici cette image n'est pas encore perceptible, rapportée à un "Soi", puisque ce Soi n'est pas encore constitué.  
   
Ces images mentales qui décrivent l'état valorisé de l'organisme sont des émotions. Tout ceci n'est pas fait "gratuitement" mais dans le but (au sens évolutif) d'ajuster en permanence le corps a son environnement. L'ensemble de ces cartes valorisée engendre ce que Damasio appelle le Proto Soi inaugural, celui a qui il "arrive quelque chose".
 
Le compte rendu des changement occasionné au Proto Soi, une structure le représente en relation avec l'objet qui occasionne le changement (lui même représenté par une série d'images mises en carte et valorisé). L'assemblage de la carte du Proto Soi et de la carte de l'objet donne naissance à une nouvelle carte dite de second ordre qui représente le 'Proto Soi modifié par l'objet' cad mis en relation temporelle avec lui.
 
C'est l'essence de la causalité mais tout ceci est encore tout a fait inconscient et non verbal. Les images mentales (générées par les cartes de second ordre) qui décrivent la relation sont des sentiments. Le sentiment c'est donc une émotion reliée à sa cause (on peut faire un parallélisme avec ce qu'en disait Spinoza : l'amour est "une joie accompagnée de l'idée d'une cause extérieure" ). L'utilité adaptative de cette mise en relation de l'image du corps avec l'image de l'objet pour en extraire une causalité est là encore tout a fait claire. C'est dans la mesure où le cerveau comprend "ce qui se passe" qu'il est capable de prendre une décision appropriée.
 
Ce compte rendu permanent de l'organisme causalement affecté par le traitement d'un objet donne naissance a ce qu'il appelle la "conscience-noyau". Elle donne naissance au Soi central.
 
Tous les animaux supérieurs (les vertébrés disons) ont une conscience noyau. Ce qui suit, la conscience étendue et la conscience autobiographique est spécifique à l'espèce humaine.
 
La conscience étendue est tout ce qu'est la conscience noyau mais sur une plus grande échelle c'est à dire plaçant le Soi qui nous est livré par la conscience noyau dans un vaste champs qui s'étend dans le temps. Elle connecte le Soi central au souvenirs et aux perspectives d'avenir. La conscience noyau nous permet de savoir qui a mal au dent : c'est Soi. La conscience étendu relie ce mal a sa localisation : les dents, sa cause : une carie ? depuis quand : ça fait 3 j qui l'a soigné la dernière foi : Dr Kojak, dentiste, etc ainsi que le fait que tu vas te cantonner à une soupe et un yaourt ce soir.
 
Ce miracle de la conscience étendue qui fait tout l'être humain est permis par le simple fait que les souvenir biographique sont représenté comme des objets dans les cartes de second ordre. Les épisodes du passé, avec leur immense complexité entre ainsi en relation avec l'organisme sur le même mode que pour la conscience noyau ; chacun de ces souvenir peut donc susciter une pulsation de conscience noyau, engendrant ce sens aigue que l'on a de se connaitre soi même.
 
Enfin l'archivage organisé des expériences passé d'un organisme ainsi individualisé est le Soi autobiographique

Et donc pour toi, quelqu’un qui est complètement «déconnecté» de son corps (atteinte à la moelle épinière) n’a pas de conscience?
 

Gilgamesh d'Uruk a écrit :

Il est bien évident que sans ce sentiment de Soi il n'y a tout simplement pas de pensée logique, aucune réflexion rien car PERSONNE ne pense. Or le Soi est construit par les émotions et les sentiments. Voila pourquoi il est complètement illusoire d'imaginer une machine capable de connaitre et d'enchainer des idées qui aient un sens (et non simplement le produit d'un algorithme) sans sentiment, émotion et Soi constitué.

Donc pas d’ordinateur «pensant»? Atropos va être content…  :D  
 
 

Atropos a écrit :


"cette possibilite" = "un objet non materiel" ? C'est pas necessairement que c'est exclu, c'est plutot que je ne vois pas comment l'investiguer, ni en quoi ca consiste. Et donc je ne vois pas comment on peut dire quoi que ce soit a son sujet.
 
Ce que je demande, c'est une explication sur cette autre possibilite. Elle consiste en quoi concretement ? Parce que juste me parler d'un "objet conscience" sans meme preciser si on parle de quelque chose de materiel ou non ou s'il y a une quelconque preuve de son existence, c'est un peu leger pour avoir une discussion…

Le problème n’est pas que ce soit léger, mais plutôt que ce soit HS. Cette autre possibilité implique forcément un esprit séparable du corps, et ce n’est pas le sujet ici. Je ne l’ai citée (cette possibilité) que pour montrer ce que serait théoriquement un transfert sans copie.
 
 
 

Atropos a écrit :

Non, pas "il faut" :D Et si tu pouvais arreter de m'expliquer mes propres opinions :D

Je ne t’explique pas tes opinions, si je dis «il faut», c’est parce qu’il n’y a logiquement pas d’autre possibilité matérialiste ou alors explique moi donc laquelle.
 

Atropos a écrit :

Ca n'est pas une necessite pour moi, c'est simplement le seul mecanisme qui me vient a l'esprit.

Ben oui, donc pour toi, «il faut».
 
 

Atropos a écrit :

Generalement, si X n'est pas different de Y, alors X est egal a Y :o

Heureusement qu’il y a le smiley rouge….  :D  
 
 

Atropos a écrit :

Ma conscience evolue certainement avec le temps, et est tres differente de ma conscience d'il y a 10 ans par exemple.

Tu pense que ton «soi» est différent? Tu confonds le soi avec les opinions et les goûts.
 
 

Atropos a écrit :

T'es en train de dire qu'on ne sait pas du tout comment fonctionne un neurone ? Et moi qui implemente des reseaux de neurones depuis des annees :(
Blague a part, mon point etait de dire que l'on en sait suffisamment sur le cerveau pour emuler certaines parties de son fonctionnement. Par exemple le principe d'un reseau de neurones.

On peut donner à un ordi une architecture de type neuronale sans savoir vraiment ce qu’il se passe dans les neurones.
 
 

Atropos a écrit :


Mais bordel vous vous etes donnes le mot ? :D
Je n'ai jamais dit qu'on connait exactement le fonctionnement d'un neurone biologique, ou qu'il est absolument equivalent a un neurone formel...
Mais on en connait assez pour pouvoir emuler certaines parties de son fonctionnement. C'etait la phrase juste en dessous... arretez de faire vos Siths :D
Pas besoin d'une connaissance absolue pour comprendre comment simplifier un neurone en noeud possedant une fonction d'activation, et un synapse en connection transportant des valeurs entre noeuds.
 
Edit sur ton edit: le blue brain project est juste un projet particulier... En grande majorite, le but des projets d'IA n'est absolument pas de reproduire a l'identique un cerveau biologique. C'est au mieux une source d'inspiration pour certaines techniques d'IA.

Tu remarqueras que je ne suis pas le seul à avoir compris tes messages comme l'affirmation d'une connaissance du fonctionnement des neurones. C'est donc sans doute que ta façon de t'exprimer en est au moins partiellement responsable.

n°52965328
Atropos
Peace Love Death Metal
Posté le 11-04-2018 à 16:19:58  profilanswer
 


aroll a écrit :

Donc pas d’ordinateur «pensant»? Atropos va être content…  :D  


A mon sens ca n'exclue pas la possibilite d'un ordinateur pensant. La definition d'emotion et de sentiment donne par Damasio ne me semble pas intrinsequement lie a un support biologique.
(mais si je me souviens bien, Gilga et moi avons effectivement certains desaccords sur la possibilite d'une "vraie" conscience simulee :o)
 

aroll a écrit :

Le problème n’est pas que ce soit léger, mais plutôt que ce soit HS. Cette autre possibilité implique forcément un esprit séparable du corps, et ce n’est pas le sujet ici. Je ne l’ai citée (cette possibilité) que pour montrer ce que serait théoriquement un transfert sans copie.


Ok :jap:
 

aroll a écrit :

Je ne t’explique pas tes opinions, si je dis «il faut», c’est parce qu’il n’y a logiquement pas d’autre possibilité matérialiste ou alors explique moi donc laquelle.


Ce que je veux dire, c'est que ca n'est pas parce que je ne peux pas imaginer une autre possibilite qu'il n'en existe forcement pas.
 

aroll a écrit :

Tu pense que ton «soi» est différent? Tu confonds le soi avec les opinions et les goûts.


Oui. Non.
 

aroll a écrit :

On peut donner à un ordi une architecture de type neuronale sans savoir vraiment ce qu’il se passe dans les neurones.


:jap:
 

aroll a écrit :

Tu remarqueras que je ne suis pas le seul à avoir compris tes messages comme l'affirmation d'une connaissance du fonctionnement des neurones. C'est donc sans doute que ta façon de t'exprimer en est au moins partiellement responsable.


Il y a roll68 et toi. Apres je veux bien reconnaitre que j'ai pas ete clair, mais je trouve quand meme que mes messages laissaient clairement entendre que je parlais d'une connaissance partielle (en tout cas, je n'ai jamais parle d'une connaissance totale):
 
on a une certaine idee de comment le cerveau fonctionne.
 
Je ne dis pas qu'on sait parfaitement comment le cerveau marche, mais qu'on a une idee generale
 
mon point etait de dire que l'on en sait suffisamment sur le cerveau pour emuler certaines parties de son fonctionnement

 
Je peux essayer d'etre plus clair:
On en sait suffisamment sur le fonctionnement du cerveau pour creer des techniques d'IA s'en inspirant.
 
C'etait en reponse a l'affirmation de Searle " "If we had to know how the brain worked to do AI, we wouldn't bother with AI."  
C'est pour moi incorrect (ou en tout cas simpliste), puisque les reseaux de neurones artificiels ont par exemple ete inspires par notre connaissance du fonctionnement du cerveau (incomplete certes, mais suffisante pour en deduire un algorithme qui fonctionne).  

n°52982451
roll68
Posté le 13-04-2018 à 00:33:15  profilanswer
 

Atropos a écrit :


Quelle limitation technique -> ta video le dit des le debut : Mary n'a pas la possibilite technique de voir en couleur.
Cet exemple illustre la difference entre une sensation et l'explication de la sensation. Evidemment que les deux sont differents, je n'ai jamais vu quiconque pretendre le contraire...
Ca ne montre absolument pas que la sensation n'a pas un support materialiste....
 
On peut laisser tomber cet exemple si tu veux, ca tourne en rond...


 
Moi je crois qu'on progresse. La différence n'est pas entre une sensation et l'explication de la sensation, la différence est entre le point de vue objectif à la troisième personne de la science et le point de vue subjectif, à la première personne de la conscience. Si on ne peut pas savoir ce que cela fait de voir du rouge en étudiant le cerveau, cela veut dire que l'étude du monde matériel ne permet pas de décrire le monde dans son ensemble, puisque quelque chose reste inconnu.
 
Et il y a des personnes qui prétendent le contraire, qui pensent qu'en étudiant le cerveau scientifiquement, on peut en déduire "ce que cela fait de" (voir des couleurs par exemple), comme Daniel Dennett par exemple.
 

Atropos a écrit :


Quelle est la difference entre un transfert et une copie, concretement ?
Si par survie tu veux dire la continuation d'une conscience donnee, alors la copie garantie sa survie...
 
Voir plus haut, je ne vois pas la difference entre une copie et un transfert...
Pour la question, oui bien sur j'accepte. La copie est un "je" indissociable du "je" original (a l'instant de la copie, comme l'a fait remarquer thesmilingface), donc "je" vais continuer a vivre apres que "je" soit mort.
Bien entendu ca suppose que par 'vivre' on veut dire que ma conscience va continuer a exister.


 
Ok alors j'ai une autre question. Disons qu'on scanne ton corps à la molécule près pendant que tu dors (le scan n'affecte en rien ton corps). Avec ces données on va créer un double de ton corps et on va l'envoyer en prison (juste pour la déconne  [:ocube] ). Avant de te coucher, est-ce que tu as peur du fait que peut-être tu vas te réveiller en prison? Sachant que ton corps va rester intact et va se réveiller normalement dans ton lit comme chaque matin.
 

Atropos a écrit :


Je dirai plutot 'un ordinateur peut il simuler des process equivalents a ceux prenant place dans un cerveau', mais ok


 
Ça c'est une (bonne) question mais même si la réponse est oui il reste à se demander si simuler est équivalent à répliquer.
 

Atropos a écrit :


Ca va etre dur vu qu'il ne fait pas du tout d'informatique :D


 
Euh c'est toi qui a dit: "Sa justification est d'ailleurs assez faible - on sent que comme beaucoup de personnes tenant cet argument, l'IA en tant que science informatique n'est pas son domaine. " ce qui suggère que son argument montre une mécompréhension de l'informatique.
 

Atropos a écrit :


Non, si son argument s'applique aux IA modernes (enfin, aux reseaux de neurones artificiels en particulier), alors il s'applique aussi aux reseaux de neurones biologiques.


 
Ben non vu qu'il y a une grosse (énorme) différence entre un réseau de neurones formels et un cerveau.
 

Atropos a écrit :


Bah c'est ce que je veux dire : dans le cas de reseaux de neurones artificiels, (1) est un non-sens. Son exemple ne s'applique donc pas a ce type d'IA.
 
Et encore une fois ca n'est plus applicable aux IA modernes qui ont une approche completement opposee.
 
 
Euh... on a une certaine idee de comment le cerveau fonctionne... l'emergence des reseaux de neurones artificiels en est une consequence.
Et je ne vois pas pourquoi connaitre le fonctionnement du cerveau rend les IA inutiles... le but des IA actuellement est de beneficier de la meme capacite a resoudre des problemes qu'un cerveau biologique, sans les contraintes de celui-ci.
 
 
Searle s'attend a observer une "comprehension" emerger de la plomberie. C'est totalement stupide, vu que tu n'observera pas non plus de "comprehension" si tu observais les reactions chimiques prenant place dans un cerveau. Il s'interesse au support permettant l'emergence d'un phenomene plutot qu'a si le phenomeme emerge ou non...
 
 
Voir au-dessus, il n'observera pas plus de conscience dans la plomberie qu'il n'en observerait dans les reactions électrochimiques entre neurones.
 
Deja repondu a ca avec l'exemple de la gravite simulee vs. gravite reelle.
Quelle serait la difference concrete entre une conscience simulee et une conscience repliquee ? Il ne s'agit pas d'un objet...
Et c'est une objection qui concerne seulement une IA simulee via le software. Quid d'un NN implemente au niveau hardware ?
 
Du coup, qu'est-ce qui fait qu'un cerveau biologique est le seul support possible pour une conscience ? Pourquoi un cerveau artificiel reproduisant parfaitement le comportement d'un cerveau biologique ne serait pas conscient ?
 
Est-ce que tu meurs si on fait une copie atome-pour-atome de ton cerveau et qu'on remplace ton cerveau par cette copie ?  
Idem si la copie est fonctionnellement identique mais materiellement differente (neurones en silicone vs carbone-based) ?
Idem si la copie est fonctionnellement identique mais son fonctionnement est implemente par un reseau de neurone logiciel mappe de la meme facon qu'un cerveau biologique a ton systeme nerveux ?


 
Je groupe tes réponses parce que ça demande une réponse globale.
 
Déjà, tes points (1) et (2) tu les as pris en citant Searle qui lui même rapporte une objection qu'on lui à faite à Berkeley et au MIT. Relis le contexte du truc parce que là tu argumentes non pas contre Searle mais contre des chercheurs en intelligence artificielle, Searle cite leur objection.
 
Alors un peu d'histoire.
 
Depuis les débuts de la recherche en intelligence artificielle et à peu près jusqu'au deuxième "AI Winter"début des années 90/fin des années 80, la recherche est dominée par l'intelligence artificielle symbolique. En particuliers, au moment ou Searle publie son article, ce sont les "systèmes expert" qui ont le vent en poupe. Searle mentionne en particuliers les travaux de Schank & Abelson (voir au début de l'article de Searle). L'idée est la suivante: on donne par exemple comme entrée au programme (https://home.mis.u-picardie.fr/~fur [...] s_1975.pdf):

Citation :

John went to a restaurant. The hostess seated John. The hostess gave John a menu. The waiter came to the table . John ordered lobster. John was served quickly. John left a large tip . John left the restaurant.


Et le programme peut répondre à certaines questions, par exemple:

Citation :

Q: Who gave John the lobster ?
A: PROBABLY THE WAITER.


 
Comment ça marche? La représentation interne est quelque chose comme (j'épargne à hfr la veille syntaxe dégueu :o):


John.move(John, restaurant)
hostess.move(John, table)
hostess.move(Menu, John)
waiter.move(waiter, table)
John.order(lobster, waiter)
waiter.serve(John, "quickly" )
John.tip(waiter, "large" )
John.move_out(John, restaurant)


 
et avec la règle:

Citation :

forall A, B, C, D : A.order(C, B) and B.serve(A, D) => Probably (B.gave(C, A))


 
L'ordinateur peut répondre à la question, puisqu'avec les prémisses John.order(lobster, waiter) et waiter.serve(John, "quickly" ) on peut en déduire: Probably (waiter.gave(lobster, John)), i.e. probably the waiter gave John the lobster.
 
Searle donne un exemple similaire. Mais il y a un problème évident. Peu importe à quel point ce truc est sophistiqué, on arrivera jamais avec ce principe à l'intelligence humaine. Pourquoi? Parce que les variables John, waiter, lobster, .... symbolise quelque chose pour nous, mais en aucun cas de cette manipulation formelle on pourrait avoir une compréhension sémantique de la part de la part de l'ordinateur. En effet on pourrait tout aussi bien écrire:


A.ms(A, V)
B.ms(A, q)
B.ms(M, A)
C.ms(C, q)
A.zi(e, C)
C.bv(A, "wefw" )
A.er(C, "levvr" )
A.nm(A, V)


 
Et on aurait A.zi(e, C) et C.bv(A, "wefw" ) => Covfefe(C.qa(e, A)) avec la règle:

Citation :

forall A, B, C, D : A.zi(C, B) and B.bv(A, D) => Covfefe (B.qa(C, A))


 
Du point de vue de l'ordinateur, les deux situations sont équivalentes. On peut avoir l'illusion d'une compréhension de l'ordinateur dans le premier cas, mais on y voit bien en y regardant de plus près que cela ne peut pas être vrai.
 
Du coup Searle montre le gap entre syntaxe et sémantique avec la chambre chinoise. Maintenant on retourne à ceci:

Citation :

III. The brain simulator reply (Berkeley and M.I.T.). "Suppose we design a program that doesn't represent information that we have about the world, such as the information in Schank's scripts, but simulates the actual sequence of neuron firings at the synapses of the brain of a native Chinese speaker when he understands stories in Chinese and gives answers to them. The machine takes in Chinese stories and questions about them as input, it simulates the formal l structure of actual Chinese brains in processing these stories, and it gives out Chinese answers as outputs. We can even imagine that the machine operates, not with a single serial program, but with a whole set of programs operating in parallel, in the manner that actual human brains presumably operate when they process natural language. Now surely in such a case we would have to say that the machine understood the stories; and if we refuse to say that, wouldn't we also have to deny that native Chinese speakers understood the stories? At the level of the synapses, what would or could be different about the program of the computer and the program of the Chinese brain?"
 
Before countering this reply I want to digress to note that it is an odd reply for any partisan of artificial intelligence (or functionalism, etc.) to make: I thought the whole idea of strong AI is that we don't need to know how the brain works to know how the mind works. The basic hypothesis, or so I had supposed, was that there is a level of mental operations consisting of computational processes over formal elements that constitute the essence of the mental and can be realized in all sorts of different brain processes, in the same way that any computer program can be realized in different computer hardwares: on the assumptions of strong AI, the mind is to the brain as the program is to the hardware, and thus we can understand the mind without doing neurophysiology. If we had to know how the brain worked to do AI, we wouldn't bother with AI. However, even getting this close to the operation of the brain is still not sufficient to produce understanding. To see this, imagine that instead of a mono lingual man in a room shuffling symbols we have the man operate an elaborate set of water pipes with valves connecting them. When the man receives the Chinese symbols, he looks up in the program, written in English, which valves he has to turn on and off. Each water connection corresponds to a synapse in the Chinese brain, and the whole system is rigged up so that after doing all the right firings, that is after turning on all the right faucets, the Chinese answers pop out at the output end of the series of pipes.
 
I Now where is the understanding in this system? It takes Chinese as input, it simulates the formal structure of the synapses of the Chinese brain, and it gives Chinese as output. But the man certainly doesn-t understand Chinese, and neither do the water pipes, and if we are tempted to adopt what I think is the absurd view that somehow the conjunction of man and water pipes understands, remember that in principle the man can internalize the formal structure of the water pipes and do all the "neuron firings" in his imagination. The problem with the brain simulator is that it is simulating the wrong things about the brain. As long as it simulates only the formal structure of the sequence of neuron firings at the synapses, it won't have simulated what matters about the brain, namely its causal properties, its ability to produce intentional states. And that the formal properties are not sufficient for the causal properties is shown by the water pipe example: we can have all the formal properties carved off from the relevant neurobiological causal properties.


 
L'objection donnée à Searle est la suivante: Au lieu de représenter directement les objets par des variables (comme "John" ou "waiter" ) (1) on simule les neurones du cerveau (2) (Suppose we design a program that doesn't represent information that we have about the world (1), such as the information in Schank's scripts, but simulates the actual sequence of neuron firings at the synapses of the brain of a native Chinese speaker when he understands stories in Chinese (2)). Comme ça pas de problèmes (selon eux). Donc quand tu dis:

Citation :

Bah c'est ce que je veux dire : dans le cas de reseaux de neurones artificiels, (1) est un non-sens. Son exemple ne s'applique donc pas a ce type d'IA.


c'est un non-sens total qui montre que tu n'as pas compris le contexte de la phrase. Le problème est plus évident pour les GOFAI comme je l'ai montré, mais il reste que l'argument en tant que telle ne dépend pas du tout de l'algorithme (il s'applique même aux algorithmes encore inconnus).
 
Bon du coup est-ce qu'ils ont raisons à Berkeley et au MIT? Je pense que non et Searle le montre très bien. La raison en est très simple: l'argument ne présuppose aucun algorithme particuliers. Et comme un réseau compliqué de tubes et de valves ne comprend pas le chinois, la simulation n'est pas consciente. Le problème je pense c'est que tu tellement certain que simuler un cerveau c'est répliquer la conscience que tu es prêt à accepter (pour moi l'absurde) conclusion qu'un enchevêtrement de tubes et de valves est conscient. Mais justement c'est précisément parce que enchevêtrement de tubes et de valves est évidemment dépourvu de conscience, que la conscience du cerveau n'est pas qu'une question d'algorithmes formels. Et ça ne change rien si on implémente un réseau de neurones formels au niveau hardware plutôt que software, tant qu'on ne fait que de la manipulation symbolique. Et pour ta question sur la différence entre conscience simulée et conscience répliquée elle n'a pas de sens parce qu'on ne peut pas simuler une conscience, c'est pour ça que j'ai dit la simulation du cerveau (si tant est qu'elle telle chose soit possible) pas de la conscience.
 
Sur le béhaviorisme: je ne crois pas que les AI modernes ont une approche complètement opposée, la grande majorité des chercheurs en AI considèrent encore le test de Turing comme valide (note que je parle de position philosophique pas de méthodologie).
 
Sur le "If we had to know how the brain worked to do AI, we wouldn't bother with AI." je ne dis pas qu'on a "une certaine idée de comment le cerveau fonctionne" pour reprendre ton expression exacte, mais qu'on a juste effleuré la surface du problème.
 

Atropos a écrit :


Du coup, qu'est-ce qui fait qu'un cerveau biologique est le seul support possible pour une conscience ? Pourquoi un cerveau artificiel reproduisant parfaitement le comportement d'un cerveau biologique ne serait pas conscient ?
 
Est-ce que tu meurs si on fait une copie atome-pour-atome de ton cerveau et qu'on remplace ton cerveau par cette copie ?  
Idem si la copie est fonctionnellement identique mais materiellement differente (neurones en silicone vs carbone-based) ?
Idem si la copie est fonctionnellement identique mais son fonctionnement est implemente par un reseau de neurone logiciel mappe de la meme facon qu'un cerveau biologique a ton systeme nerveux ?


 
- Je n'ai pas dit qu'un cerveau biologique est le seul support possible pour une conscience.
- Parce que la sémantique n'est pas réductible à la syntaxe et que la syntaxe n'est pas réductible à la physique. C'est ce qu'on discute depuis plusieurs messages.
- Oui
- Oui
- Oui

n°52983985
Atropos
Peace Love Death Metal
Posté le 13-04-2018 à 10:16:04  profilanswer
 

roll68 a écrit :


 
Moi je crois qu'on progresse. La différence n'est pas entre une sensation et l'explication de la sensation, la différence est entre le point de vue objectif à la troisième personne de la science et le point de vue subjectif, à la première personne de la conscience. Si on ne peut pas savoir ce que cela fait de voir du rouge en étudiant le cerveau, cela veut dire que l'étude du monde matériel ne permet pas de décrire le monde dans son ensemble, puisque quelque chose reste inconnu.
Et il y a des personnes qui prétendent le contraire, qui pensent qu'en étudiant le cerveau scientifiquement, on peut en déduire "ce que cela fait de" (voir des couleurs par exemple), comme Daniel Dennett par exemple.


Hum... je maintiens qu'il y a une equivocation entre la sensation et son explication la...  
Certes on ne peut pas "savoir ce que ca fait" de voir du rouge en etudiant parfaitement le cerveau, mais on peut (a priori) savoir "comment marche" ce mecanisme de sensation.
Si c'est vrai, ca veut dire que le support des sensations est materiel et je ne vois toujours pas en quoi c'est un argument contre le materialisme.
 
Je ne suis pas familier avec Dennett, s'il a vraiment dit ca je ne suis pas d'accord avec lui... mais je me demande s'il ne veut pas plutot dire que connaitre parfaitement le cerveau permet de savoir "comment marche ce que cela fait de..." plutot que "ce que cela fait de..." tout court.
 

roll68 a écrit :


 
Ok alors j'ai une autre question. Disons qu'on scanne ton corps à la molécule près pendant que tu dors (le scan n'affecte en rien ton corps). Avec ces données on va créer un double de ton corps et on va l'envoyer en prison (juste pour la déconne  [:ocube] ). Avant de te coucher, est-ce que tu as peur du fait que peut-être tu vas te réveiller en prison? Sachant que ton corps va rester intact et va se réveiller normalement dans ton lit comme chaque matin.
 


Du coup il y a deux "moi", un qui se reveille en prison, un qui se reveille dans mon lit. Est-ce que j'aurai peur si j'etais au courant de cette petite experience ? Je pense que oui :D  
Savoir qu'il existe un "moi" bien au chaud dans son lit n'est pas un grand reconford lorsque "je" me reveille en prison :o
 
Apres j'avoue que c'est une question interessante... vu que pour le "moi" qui se reveille dans son lit, il n'y a aucun risque (ie ce "je" n'est en rien affecte par cette experience).
Je vois ca un peu comme l'idee du voyage dans le temps qui cree une "nouvelle" realite a chaque changement. Il y a une realite ou "je" suis dans mon lit, et une autre ou "je" suis en prison. Quelle est la vraie realite et le vrai moi? Pour moi la question est mal posee, et repose surtout sur le fait que c'est un concept que l'on n'est pas capables de se representer (de la meme maniere qu'a un certain niveau d'etude de la physique, il n'est plus vraiment possible d'avoir une representation intuitive).
 
Mais j'attend toujours la difference concrete entre un transfert et une copie + suppression. Qu'est-ce qu'on transfert concretement ?
 

roll68 a écrit :


Ça c'est une (bonne) question mais même si la réponse est oui il reste à se demander si simuler est équivalent à répliquer.


:jap:
Je n'ai pas de reponse a ca. Personnellement j'ai tendance a pencher vers l'idee qu'une simulation qui ne peut pas etre distinguee de la "vraie chose" est une replication.
 

roll68 a écrit :


Euh c'est toi qui a dit: "Sa justification est d'ailleurs assez faible - on sent que comme beaucoup de personnes tenant cet argument, l'IA en tant que science informatique n'est pas son domaine. " ce qui suggère que son argument montre une mécompréhension de l'informatique.


Oui tout a fait. Il donne des arguments philosophiques contre une IA sentiente, pas des arguments "informatiques" (pas d'algos, pas de pseudo-code, pas de theoremes mathematiques...). C'est ce que je veux dire quand je dis "il ne fait pas d'informatique". Mais c'etait juste une boutade, hein :o
 

roll68 a écrit :


Ben non vu qu'il y a une grosse (énorme) différence entre un réseau de neurones formels et un cerveau.


Dans son exemple, ou intervient cette difference ? S'il fait une analogie entre un reseau de neurones formels et un "reseau complique de tubes et de valves", pourquoi je ne peux pas faire la meme analogie avec un reseau de neurones biologiques ?
 

roll68 a écrit :


 
Je groupe tes réponses parce que ça demande une réponse globale.
 
Déjà, tes points (1) et (2) tu les as pris en citant Searle qui lui même rapporte une objection qu'on lui à faite à Berkeley et au MIT. Relis le contexte du truc parce que là tu argumentes non pas contre Searle mais contre des chercheurs en intelligence artificielle, Searle cite leur objection.
 
Alors un peu d'histoire.
[...]


Desole je zappe ca, j'ai pas d'objections a Searle sur cette partie et je trouve ces systemes ininteressants (et depasses de toute maniere...) :o
 

roll68 a écrit :


Du coup Searle montre le gap entre syntaxe et sémantique avec la chambre chinoise. Maintenant on retourne à ceci:
[...]
L'objection donnée à Searle est la suivante: Au lieu de représenter directement les objets par des variables (comme "John" ou "waiter" ) (1) on simule les neurones du cerveau (2) (Suppose we design a program that doesn't represent information that we have about the world (1), such as the information in Schank's scripts, but simulates the actual sequence of neuron firings at the synapses of the brain of a native Chinese speaker when he understands stories in Chinese (2)). Comme ça pas de problèmes (selon eux). Donc quand tu dis:

Citation :

Bah c'est ce que je veux dire : dans le cas de reseaux de neurones artificiels, (1) est un non-sens. Son exemple ne s'applique donc pas a ce type d'IA.


c'est un non-sens total qui montre que tu n'as pas compris le contexte de la phrase. Le problème est plus évident pour les GOFAI comme je l'ai montré, mais il reste que l'argument en tant que telle ne dépend pas du tout de l'algorithme (il s'applique même aux algorithmes encore inconnus).


Justement non...
Pour rappel,mon (1):
(1) a program that doesn't represent information that we have about the world  
 
Dans le cas d'un reseau de neurones, qu'il soit biologique ou formel, on a tout a fait l' "information that we have about the world". C'est un principe fondamental de ce type de reseau: le "monde" (ce qui est externe a l'agent) est mappe en interne sur ce reseau (et ce qui est interne aussi d'ailleurs, afin d'avoir une "idee du moi" ).
Que Searle decide arbitrairement d'exclure cette representation me laisse perplexe.
 

roll68 a écrit :


 
Bon du coup est-ce qu'ils ont raisons à Berkeley et au MIT? Je pense que non et Searle le montre très bien. La raison en est très simple: l'argument ne présuppose aucun algorithme particuliers. Et comme un réseau compliqué de tubes et de valves ne comprend pas le chinois, la simulation n'est pas consciente. Le problème je pense c'est que tu tellement certain que simuler un cerveau c'est répliquer la conscience que tu es prêt à accepter (pour moi l'absurde) conclusion qu'un enchevêtrement de tubes et de valves est conscient.


Ca n'est pas que j'en suis certain, c'est juste que c'est l'hypothese que je prends depuis le debut : si la conscience emerge d'un reseau de neurones biologique (ie un cerveau) suffisamment complexe, alors je ne vois pas d'objections a ce que la conscience emerge d'un reseau de neurones artificiel suffisamment complexe.
Peut etre que c'est faux et qu'il y a quelque chose d'intrinseque au support biologique necessaire a l'emergence d'une conscience, ou peut etre que la conscience est un "objet" et non pas un phenomene emergeant du fonctionnement d'un cerveau, mais pour l'instant je n'ai pas vu d'objections m'ayant convaincu.
 

roll68 a écrit :


Mais justement c'est précisément parce que enchevêtrement de tubes et de valves est évidemment dépourvu de conscience, que la conscience du cerveau n'est pas qu'une question d'algorithmes formels. Et ça ne change rien si on implémente un réseau de neurones formels au niveau hardware plutôt que software, tant qu'on ne fait que de la manipulation symbolique.  


Selon toi, un enchevetrement de neurones biologiques est il conscient du coup ?
 

roll68 a écrit :


 
- Je n'ai pas dit qu'un cerveau biologique est le seul support possible pour une conscience.
- Parce que la sémantique n'est pas réductible à la syntaxe et que la syntaxe n'est pas réductible à la physique. C'est ce qu'on discute depuis plusieurs messages.
- Oui
- Oui
- Oui


Ok alors la je ne te suis plus du tout :heink:
A la question "Pourquoi un cerveau artificiel reproduisant parfaitement le comportement d'un cerveau biologique ne serait pas conscient ?" Tu reponds "semantique != syntaxe", donc j'imagine que tu veux dire qu'un cerveau artificiel "parfait" n'est pas conscient.
Puis a la question " un reseau de neurone logiciel mappe de la meme facon qu'un cerveau biologique a ton systeme nerveux est-il conscient ?" Tu reponds "Oui".
Cette derniere question, c'est exactement ma position depuis le debut... du coup je ne comprend pas ta position...

 
Edit: j'avais oublie ma propre question :D
Du coup j'aimerais que tu expliques ta reponse a cette question en particulier : "Est-ce que tu meurs si on fait une copie atome-pour-atome de ton cerveau et qu'on remplace ton cerveau par cette copie ?"
Tu reponds oui, mais pourquoi ? Techniquement il ne s'est rien passe, ton cerveau est en tout point identique. Si tu supposes que ta conscience est un objet immateriel separe de ton cerveau, tu as quoi que ce soit pour etayer ca ou c'est juste une supposition en l'air ? :o

Message cité 2 fois
Message édité par Atropos le 13-04-2018 à 11:08:25
n°52984484
aroll
Posté le 13-04-2018 à 10:54:32  profilanswer
 

Atropos a écrit :


Du coup il y a deux "moi", un qui se reveille en prison, un qui se reveille dans mon lit. Est-ce que j'aurai peur si j'etais au courant de cette petite experience ? Je pense que oui :D  
Savoir qu'il existe un "moi" bien au chaud dans son lit n'est pas un grand reconford lorsque "je" me reveille en prison :o
 
Apres j'avoue que c'est une question interessante... vu que pour le "moi" qui se reveille dans son lit, il n'y a aucun risque (ie ce "je" n'est en rien affecte par cette experience).
Je vois ca un peu comme l'idee du voyage dans le temps qui cree une "nouvelle" realite a chaque changement. Il y a une realite ou "je" suis dans mon lit, et une autre ou "je" suis en prison.

Celui qui est dans son lit n'a aucun problème autre que moral à se contrefoutre de ce que vit celui qui est en prison, et celui qui est en prison peut espérer échanger sa place avec l'autre, bref ce ne sont pas les mêmes personnes, seulement des sortes de clones/jumeaux.
 

Atropos a écrit :

Mais j'attend toujours la difference concrete entre un transfert et une copie + suppression. Qu'est-ce qu'on transfert concretement ?

Un transfert est un déplacement, donc sans copie ni suppression.
 
 

Atropos a écrit :

Dans son exemple, ou intervient cette difference ? S'il fait une analogie entre un reseau de neurones formels et un "reseau complique de tubes et de valves", pourquoi je ne peux pas faire la meme analogie avec un reseau de neurones biologiques ?

 Si tu pars du principe qu'un réseau de tubes et de valves, aussi compliqué soit-il, ne peut être conscient, alors puisque toi tu es conscient, ça implique que soit aucune analogie ne peut être faite avec un réseau de neurones biologiques, soit la conscience ne vient pas des neurones biologiques.  
 
 

Atropos a écrit :

 Ok alors la je ne te suis plus du tout :heink:
A la question "Pourquoi un cerveau artificiel reproduisant parfaitement le comportement d'un cerveau biologique ne serait pas conscient ?" Tu reponds "semantique != syntaxe", donc j'imagine que tu veux dire qu'un cerveau artificiel "parfait" n'est pas conscient.
Puis a la question " un reseau de neurone logiciel mappe de la meme facon qu'un cerveau biologique a ton systeme nerveux est-il conscient ?" Tu reponds "Oui".
Cette derniere question, c'est exactement ma position depuis le debut... du coup je ne comprend pas ta position...  
 

Relis ton propre message, ta question n'était pas de savoir s'il y avait conscience mais si dans tel ou tel cas, on était mort, et c'est à ça qu'il a répondu "oui".
 

n°52984566
Atropos
Peace Love Death Metal
Posté le 13-04-2018 à 11:01:34  profilanswer
 

aroll a écrit :

Celui qui est dans son lit n'a aucun problème autre que moral à se contrefoutre de ce que vit celui qui est en prison, et celui qui est en prison peut espérer échanger sa place avec l'autre, bref ce ne sont pas les mêmes personnes, seulement des sortes de clones/jumeaux.


Oui tout a fait, apres la copie ce ne sont plus les memes personnes (obvious-proof). Mais c'est ce que je dis depuis le debut, et c'est pas l'objet de la question.
 

aroll a écrit :

Un transfert est un déplacement, donc sans copie ni suppression.


Mais un transfert de quoi concretement ?
 

aroll a écrit :

 Si tu pars du principe qu'un réseau de tubes et de valves, aussi compliqué soit-il, ne peut être conscient, alors puisque toi tu es conscient, ça implique que soit aucune analogie ne peut être faite avec un réseau de neurones biologiques, soit la conscience ne vient pas des neurones biologiques.  


Sauf que je ne pars pas de ce principe, vu que c'est justement l'objet de la question.
 

aroll a écrit :

Relis ton propre message, ta question n'était pas de savoir s'il y avait conscience mais si dans tel ou tel cas, on était mort, et c'est à ça qu'il a répondu "oui".


Oups, my bad :D Je vais editer.

n°52985616
aroll
Posté le 13-04-2018 à 12:16:19  profilanswer
 

Atropos a écrit :


Oui tout a fait, apres la copie ce ne sont plus les memes personnes (obvious-proof). Mais c'est ce que je dis depuis le debut, et c'est pas l'objet de la question.
 

Et donc si ce ne sont plus les mêmes personnes, ce n'est pas TOI.
 

Atropos a écrit :


Mais un transfert de quoi concretement ?
 

Forcément de quelque chose d'indépendant donc on en revient à l'aspect spirituel exclu dans le cadre de l'athéisme, et donc, pour toi du moins, il ne reste que la copie qui n'est pas un transfert.
 

Atropos a écrit :


Sauf que je ne pars pas de ce principe, vu que c'est justement l'objet de la question.
 

Tu pense qu'un réseau de tuyaux peut être conscient?
 
 

n°52987073
Atropos
Peace Love Death Metal
Posté le 13-04-2018 à 14:15:48  profilanswer
 

aroll a écrit :

Et donc si ce ne sont plus les mêmes personnes, ce n'est pas TOI.


J'avais mis un obvious proof :(
Du point de vue du "moi" qui se reveille en prison, "je" suis toujours "moi".
 

aroll a écrit :

Forcément de quelque chose d'indépendant donc on en revient à l'aspect spirituel exclu dans le cadre de l'athéisme, et donc, pour toi du moins, il ne reste que la copie qui n'est pas un transfert.


Bah de mon point de vue c'est la seule possibilite que je puisse imaginer oui, mais c'est le point de vue de roll68 que j'essaye de comprendre.
Y'a un quelconque debut de preuve, ou au moins une explication sur ce qu'est cet "objet conscience spirituel" que l'on peut transferer (mais pas copier ?) ?
Qu'est-ce qui justifie cette hypothese ?
 

aroll a écrit :

Tu pense qu'un réseau de tuyaux peut être conscient?


S'il est l'analogue de ce qui se passe dans un cerveau (il modelise le comportement de notre reseau de neurones de facon satisfaisante), selon mon hypothese oui.
Mais la question c'est : si tu utilises cette analogie pour un reseau de neurones artificiel, pourquoi ne peux tu pas l'utiliser pour un reseau de neurones biologique ?

n°52987143
thesmiling​face
Earth Disasters Fundation
Posté le 13-04-2018 à 14:20:32  profilanswer
 

aroll a écrit :

Et donc si ce ne sont plus les mêmes personnes, ce n'est pas TOI.

Si tu fais la copie de quelquechose, tu obtiens quelquechose de similaire (même caractéristiques), sauf en ce qui concerne l'espace et/ou le temps. C'est le principe.
L'original et la copie évoluent donc dans un environnement différent, et réagissent donc différemment.
 
Pourquoi la conscience échapperait-elle à cette règle ?


---------------
La connerie est notre avenir, économisons la.
n°52988068
aroll
Posté le 13-04-2018 à 15:17:05  profilanswer
 

Atropos a écrit :

 
Y'a un quelconque debut de preuve, ou au moins une explication sur ce qu'est cet "objet conscience spirituel" que l'on peut transferer (mais pas copier ?) ?
Qu'est-ce qui justifie cette hypothese ?

J'ai déjà répondu non?
 
 

Atropos a écrit :

 Mais la question c'est : si tu utilises cette analogie pour un reseau de neurones artificiel, pourquoi ne peux tu pas l'utiliser pour un reseau de neurones biologique ?

Pour un réseau de neurones artificiel on sait qu'on peut le faire, mais il y a doute pour l'autre cas. Juste un doute puisqu'on ne l'a jamais fait.  
Après tu peux raisonner comme ceci:  
La conscience existe indiscutablement pour nous.  
À partir de là, mais je l'ai déjà dit, soit tu pars du principe qu'un réseau de tubes et de valves peut être conscient et il n'y a pas de raisons de penser que l'analogie biologique est impossible, soit tu penses que le tas de tuyau ne peut pas être conscient, et alors puisque, je le répète, toi tu es conscient, ça implique que, soit aucune analogie ne peut être faite avec un réseau de neurones biologiques, soit la conscience ne vient pas des neurones biologiques.  
 

thesmilingface a écrit :

Si tu fais la copie de quelquechose, tu obtiens quelquechose de similaire (même caractéristiques), sauf en ce qui concerne l'espace et/ou le temps. C'est le principe.
L'original et la copie évoluent donc dans un environnement différent, et réagissent donc différemment.
 
Pourquoi la conscience échapperait-elle à cette règle ?

Pas seulement, puisque chaque copie, même maintenu dans le même environnement, se bat pour sa propre survie, on a indiscutablement deux "soi" différents, deux personnes différentes, et donc pas de vrai transfert de conscience, de personnalité, de "SOI". Ensuite le temps qui passe et les expériences peuvent modifier plein de choses dans tes goûts, tes opinions, mais ça reste toi et aucun autre.
 

n°52988544
thesmiling​face
Earth Disasters Fundation
Posté le 13-04-2018 à 15:43:51  profilanswer
 

aroll a écrit :

Pas seulement, puisque chaque copie, même maintenu dans le même environnement, se bat pour sa propre survie, on a indiscutablement deux "soi" différents, deux personnes différentes, et donc pas de vrai transfert de conscience, de personnalité, de "SOI". Ensuite le temps qui passe et les expériences peuvent modifier plein de choses dans tes goûts, tes opinions, mais ça reste toi et aucun autre.

De mon point de vue, deux copies dans un même environnement auront exactement les mêmes sensations, les mêmes émotions et donc les même comportements.

 

Mais bon, je suis un pur déterministe.

 

Edit : si par "se bat pour sa propre survie" tu évoques le fait qu'il n'y a pas unité de conscience (une conscience pour deux corps), effectivement on est d'accord, il y a deux consciences distinctes (pas de pont reliant les deux corps).
Ceci dit, l'émergence d'une conscience n'est pas nécessaire pour "se battre pour sa propre survie".


Message édité par thesmilingface le 13-04-2018 à 15:52:48

---------------
La connerie est notre avenir, économisons la.
n°52989001
Atropos
Peace Love Death Metal
Posté le 13-04-2018 à 16:14:39  profilanswer
 

aroll a écrit :

J'ai déjà répondu non?


Ah ? j'ai vu qu'a un moment tu parles d'un "esprit", mais je ne vois pas en quoi il est necessaire, et ni ce que ca veut dire concretement.
 

aroll a écrit :

Pour un réseau de neurones artificiel on sait qu'on peut le faire, mais il y a doute pour l'autre cas. Juste un doute puisqu'on ne l'a jamais fait.  


Tu peux clarifier ? "on peut le faire" == "on peut remplacer un reseau de neurones artificiels par un reseau de tubes et valves" ?
Si oui, j'imagine que c'est effectivement possible mais a ma connaissance on l'a jamais fait non plus :o
 

aroll a écrit :

Après tu peux raisonner comme ceci:  
La conscience existe indiscutablement pour nous.  
À partir de là, mais je l'ai déjà dit, soit tu pars du principe qu'un réseau de tubes et de valves peut être conscient et il n'y a pas de raisons de penser que l'analogie biologique est impossible, soit tu penses que le tas de tuyau ne peut pas être conscient, et alors puisque, je le répète, toi tu es conscient, ça implique que, soit aucune analogie ne peut être faite avec un réseau de neurones biologiques, soit la conscience ne vient pas des neurones biologiques.  


Tu ne peux pas partir du principe que ce reseau peut etre conscient ou non, vu que c'est ce qu'on cherche a determiner :heink:  
Searle repond a cette idee:
"Suppose we design a program that doesn't represent information that we have about the world, such as the information in Schank's scripts, but simulates the actual sequence of neuron firings at the synapses of the brain of a native Chinese speaker when he understands stories in Chinese and gives answers to them. The machine takes in Chinese stories and questions about them as input, it simulates the formal l structure of actual Chinese brains in processing these stories, and it gives out Chinese answers as outputs. We can even imagine that the machine operates, not with a single serial program, but with a whole set of programs operating in parallel, in the manner that actual human brains presumably operate when they process natural language. Now surely in such a case we would have to say that the machine understood the stories; and if we refuse to say that, wouldn't we also have to deny that native Chinese speakers understood the stories? At the level of the synapses, what would or could be different about the program of the computer and the program of the Chinese brain?"
 
Searle, vu qu'on est en 1980, utilise l'analogie de valves et tuyaux actionnes par un humain plutot que d'un ANN:
When the man receives the Chinese symbols, he looks up in the program, written in English, which valves he has to turn on and off. Each water connection corresponds to a synapse in the Chinese brain, and the whole system is rigged up so that after doing all the right firings, that is after turning on all the right faucets, the Chinese answers pop out at the output end of the series of pipes.
 
Ok pourquoi pas, un peu relou dans notre discussion vu que ca introduit un systeme en plus, mais passons...
Searle conclu que ce systeme ne peut pas etre conscient vu que:
But the man certainly doesn-t understand Chinese, and neither do the water pipes
 
Mais cette objection est a cote de la plaque selon moi, vu que personne ne pretend non plus que les neurones d'un cerveau biologique "comprennent" le Chinois.
Et selon lui l'origine du probleme est que:
The problem with the brain simulator is that it is simulating the wrong things about the brain. As long as it simulates only the formal structure of the sequence of neuron firings at the synapses, it won't have simulated what matters about the brain, namely its causal properties, its ability to produce intentional states.
 
A ce niveau, il y a selon moi plusieurs problemes avec la reponse de Searle:
- Il ne sait pas plus que moi si ce systeme est conscient ou non (comme tu le soulignes l'experience n'a jamais ete faite, pour des raisons pratiques evidentes)
- Il affirme que simuler les neurones et leur fonctionnement n'est pas suffisant. Pourquoi ?  
- Il affirme que ce systeme ne peut pas conduire a des "intentional states" (des idees se referant a un objet/personne). Encore une fois, pourquoi ?
 
En gros, Searle affirme que ce systeme a des limites qui l'empechent de faire emerger une conscience. Donc soit:
- Un cerveau biologique a quelque chose necessaire a l'emergence d'une conscience que n'a pas un "cerveau" artificiel. Soit, mais quoi  ? Searle ne l'explique pas.
- La conscience n'emerge pas du cerveau (en tant que reseau de neurones biologique) mais de "quelque chose d'autre". Soit, mais encore une fois, quoi ? La encore, pas de reponse.
 
Donc voila, on en vient a ma question la plus recente: S'il applique ces limitations a son systeme (un reseau de neurones artificiel, au final), pourquoi ne s'appliquent-elles pas a un reseau de neurones biologique ? Evidemment, on sait qu'un reseau de neurones biologique peut etre conscient. Mais ca nous laisse toujours deux possibilites:
- le reseau de neurones artificiel sera aussi conscient (rappel, personne n'en sait rien, y compris Searle)
- le reseau de neurones artificiel ne sera pas conscient (pour les raisons donnees par Searle ou pour d'autres raisons, on n'en sait rien non plus)
 
-> on n'est pas plus avances par l'idee de Searle, vu qu'in fine il n'a fait que des affirmations qu'on ne peut pour l'instant pas verifier.
 

aroll a écrit :

Pas seulement, puisque chaque copie, même maintenu dans le même environnement, se bat pour sa propre survie, on a indiscutablement deux "soi" différents, deux personnes différentes, et donc pas de vrai transfert de conscience, de personnalité, de "SOI". Ensuite le temps qui passe et les expériences peuvent modifier plein de choses dans tes goûts, tes opinions, mais ça reste toi et aucun autre.


Mais meme si on a effectivement deux "soi" maintenant distincts, chaque "soi" a le ressenti d'etre le "moi" d'avant la copie, non ? De leur point de vue, rien n'a change au niveau de leur conscience/personnalite/soi depuis la copie.

n°52989823
Gilgamesh ​d'Uruk
Lui-même
Posté le 13-04-2018 à 17:34:22  profilanswer
 

aroll a écrit :

Et donc pour toi, quelqu’un qui est complètement «déconnecté» de son corps (atteinte à la moelle épinière) n’a pas de conscience?
 


 
C'est une excellente question qui est abordé par Damasio  concernant les syndrome locked-in (plus grave qu'une atteinte à la moelle épinière, qui laisse l'accès au visage)
 
J'ai pas le bouquin sous la main, mais de mémoire, l'idée c'est que les gens atteint de ce syndrome sont plus sereins que leur état pourrait laisser suggérer. En effet, un état dans lequel tu sens tes membre sans pouvoir aucunement les bouger est très angoissant. Ceux qui ont fait une paralysie du sommeil une fois peuvent en témoigner. On ressent alors une véritable panique. Ce n'est le cas de ces patients, et l'hypothèse est que le cortex moteur doit être complètement silencieux. Il ne renvoie pas le message : "Ah l'aide ! Je suis paralysé !". Les patients n'ont plus corps moteur, cérébralement parlant. Mais il reste tout le reste : les viscères, le système hormonal, plein de chose, qui envoie un signal de fonctionnement normal. Par ailleurs, le patient dispose de toute sa mémoire, et celle ci permet de "rejouer" toute sorte d'épisode du passé ou de projection dans le futur du point de vue des émotions et des sentiments.


---------------
Nation spatiale : la chaîne de l'Arche interstellaire.
n°52990150
aroll
Posté le 13-04-2018 à 18:26:21  profilanswer
 

Atropos a écrit :


Ah ? j'ai vu qu'a un moment tu parles d'un "esprit", mais je ne vois pas en quoi il est necessaire, et ni ce que ca veut dire concretement.

1) Je n'ai pas dit qu'il était nécessaire....
2) Tu ne sais pas ce que veut dire "esprit"?
 
 

Atropos a écrit :

Tu peux clarifier ? "on peut le faire" == "on peut remplacer un reseau de neurones artificiels par un reseau de tubes et valves" ?
Si oui, j'imagine que c'est effectivement possible mais a ma connaissance on l'a jamais fait non plus :o

En théorie bien sûr, parce que dans la pratique ça doit occuper un espace pas banal et demander un temps de construction "géologique"....
 
 

Atropos a écrit :

Tu ne peux pas partir du principe que ce reseau peut etre conscient ou non, vu que c'est ce qu'on cherche a determiner :heink:

Si, parce que "partir du principe que" est permis même si, au départ c'est juste une opinion, surtout lorsque le but est d'en étudier les conséquences, pas le fait en lui même.
Mon propos était seulement de séparer les démarches de celui qui pense qu'un tas de tuyau peut être conscient de celui qui pense que c'est impossible. Si tu penses que c'est possible, tout est possible, mais si tu penses que c'est impossible alors on en revient à ce que je disais, il te faut rejeter la possibilité d'une conscience d'ordinateur, et donc soit renoncer à imiter réellement un cerveau biologique, soit admettre l'existence d'une conscience "séparée".
En résumé,  
-soit tu pars du principe (et c'est un choix) qu'un tas de tuyau est conscient et tout est possible.
-soit tu pars du principe (et c'est toujours un choix) qu'un tas de tuyau ne peut être conscient et alors la conscience n'est pas imitable.
 
Après, pour ce qui est de ta question "existentielle"  :D  :"est-ce qu'un tas de tuyau peut être conscient, personnellement je pense que non parce que je ne crois pas qu'elle puisse n'être rien d'autre qu'une question de complexité d'un système. Cette idée me semble plutôt être une façon de ne pas répondre et se réfugier dans l'alibi facile de "l'inconnu magique".  
Mais je pense que sur ce point là, tu auras plus de réponses satisfaisante avec roll68 quand il repassera.
 
 

Atropos a écrit :

En gros, Searle affirme que ce systeme a des limites qui l'empechent de faire emerger une conscience. Donc soit:
- Un cerveau biologique a quelque chose necessaire a l'emergence d'une conscience que n'a pas un "cerveau" artificiel. Soit, mais quoi  ? Searle ne l'explique pas.
- La conscience n'emerge pas du cerveau (en tant que reseau de neurones biologique) mais de "quelque chose d'autre". Soit, mais encore une fois, quoi ? La encore, pas de reponse.

À partir du moment où il considère avoir démontré l'impossibilité de la conscience d'un réseau artificiel, il est normal qu'il en déduise qu'il y a quelque chose de plus dans le cerveau, et cela même s'il ne peut déterminer ce "quelque chose de plus".
 
 

Atropos a écrit :

 Mais meme si on a effectivement deux "soi" maintenant distincts, chaque "soi" a le ressenti d'etre le "moi" d'avant la copie, non ? De leur point de vue, rien n'a change au niveau de leur conscience/personnalite/soi depuis la copie.

Il y en a un (l'original) pour lequel effectivement rien n'a changé et il est abilité à dire qu'il EST Atropos, tandis que l'autre ne peut pas en dire autant, il y a bien quelque chopse qui a changé, c'est qu'il n'existait pas deux secondes avant, et ça reste vrai, même s'il ne s'en rend pas compte. Il y a donc désormais deux personnes deux "soi" tout à fait différent, le vrai toi, et une sorte d'imposteur qui a tes souvenirs, tes goûts, tes opinions, mais qui n'est pas du tout toi.
 

Gilgamesh d'Uruk a écrit :


 
C'est une excellente question qui est abordé par Damasio  concernant les syndrome locked-in (plus grave qu'une atteinte à la moelle épinière, qui laisse l'accès au visage)
 
J'ai pas le bouquin sous la main, mais de mémoire, l'idée c'est que les gens atteint de ce syndrome sont plus sereins que leur état pourrait laisser suggérer. En effet, un état dans lequel tu sens tes membre sans pouvoir aucunement les bouger est très angoissant. Ceux qui ont fait une paralysie du sommeil une fois peuvent en témoigner. On ressent alors une véritable panique. Ce n'est le cas de ces patients, et l'hypothèse est que le cortex moteur doit être complètement silencieux. Il ne renvoie pas le message : "Ah l'aide ! Je suis paralysé !". Les patients n'ont plus corps moteur, cérébralement parlant. Mais il reste tout le reste : les viscères, le système hormonal, plein de chose, qui envoie un signal de fonctionnement normal. Par ailleurs, le patient dispose de toute sa mémoire, et celle ci permet de "rejouer" toute sorte d'épisode du passé ou de projection dans le futur du point de vue des émotions et des sentiments.

Il faut voir si la différence de sérénité ne s'explique par le fait que celui qui vit une paralysie du sommeil ne comprend rien à ce qui lui arrive alors que l'autre est peut-être parfaitement conscient des causes de son état. Et cela sans compter le temps, la séquence "panique" est peut-être temporaire... chez les deux...
 

n°52992960
Gilgamesh ​d'Uruk
Lui-même
Posté le 14-04-2018 à 00:40:46  profilanswer
 

aroll a écrit :

Il faut voir si la différence de sérénité ne s'explique par le fait que celui qui vit une paralysie du sommeil ne comprend rien à ce qui lui arrive alors que l'autre est peut-être parfaitement conscient des causes de son état. Et cela sans compter le temps, la séquence "panique" est peut-être temporaire... chez les deux...

 

Jean-Dominique Bauby  atteint du locked-in syndrome a été capables d'écrire un roman là dessus : Le Scaphandre et le Papillon, en remuant la  paupière gauche.... Et ce roman est essentiellement constitué de souvenirs, il ne témoigne pas d'un sentiment de panique continuelle bien que l'auteur soit rationnellement conscient d'être une conscience libre dans un corps inerte.

 

Ce genre de réflexion témoigne d'un esprit détaché, maître de sa mémoire et de sa raison : "il [JD Bauby, l'auteur] nous informe que l’impératrice Eugénie, femme de Napoléon III, était la marraine de l’établissement. Et il nous parle de la galerie de l’Hôpital Berck. Il y a eu une visite impériale le 4 mai 1864. L’auteur s’imagine aux côtés d’Eugénie. Un jour il voit un reflet qu’il trouve moche : bouche tordue, nez accidenté, cheveux en bataille, et ensuite il comprend que cet homme c’est en fait lui. Il se rend compte qu’il est handicapé mais aussi moche."

 

Pour prendre une métaphore informatique, si l'accès au corps par le cerveau te donne un objet et qu'il est vide, c'est angoissant. Mais si l'accès au corps donne null, ça ne génère pas d'angoisse d'origine corporelle. Seul l'esprit rationnel est capable de s'inquiéter car il sait que le null pointer exception que renvoie le corps est un énorme bug.

Message cité 1 fois
Message édité par Gilgamesh d'Uruk le 14-04-2018 à 00:56:22

---------------
Nation spatiale : la chaîne de l'Arche interstellaire.
n°52993967
aroll
Posté le 14-04-2018 à 10:15:20  profilanswer
 

Gilgamesh d'Uruk a écrit :


 
 Jean-Dominique Bauby  atteint du locked-in syndrome a été capables d'écrire un roman là dessus : Le Scaphandre et le Papillon, en remuant la  paupière gauche.... Et ce roman est essentiellement constitué de souvenirs, il ne témoigne pas d'un sentiment de panique continuelle

Justement je précisais que SI panique il y a elle est sans doute temporaire.
 

Gilgamesh d'Uruk a écrit :

bien que l'auteur soit rationnellement conscient d'être une conscience libre dans un corps inerte.  
 
Ce genre de réflexion témoigne d'un esprit détaché, maître de sa mémoire et de sa raison : "il [JD Bauby, l'auteur] nous informe que l’impératrice Eugénie, femme de Napoléon III, était la marraine de l’établissement. Et il nous parle de la galerie de l’Hôpital Berck. Il y a eu une visite impériale le 4 mai 1864. L’auteur s’imagine aux côtés d’Eugénie. Un jour il voit un reflet qu’il trouve moche : bouche tordue, nez accidenté, cheveux en bataille, et ensuite il comprend que cet homme c’est en fait lui. Il se rend compte qu’il est handicapé mais aussi moche."
 
Pour prendre une métaphore informatique, si l'accès au corps par le cerveau te donne un objet et qu'il est vide, c'est angoissant. Mais si l'accès au corps donne null, ça ne génère pas d'angoisse d'origine corporelle. Seul l'esprit rationnel est capable de s'inquiéter car il sait que le null pointer exception que renvoie le corps est un énorme bug.

Ou que la conscience ne dépend pas des relations avec le corps (il est tout aussi conscient que toi et moi sans le moindre "accès" au corps).  
La différence angoisse/pas angoisse s'explique très bien justement par la rationalité, dans un cas ce n'est pas normal, donc inquiétant, dans l'autre il y a une explication.

n°53009454
Atropos
Peace Love Death Metal
Posté le 16-04-2018 à 12:11:21  profilanswer
 

aroll a écrit :

1) Je n'ai pas dit qu'il était nécessaire....
2) Tu ne sais pas ce que veut dire "esprit"?


1) Ce que je veux dire, c'est que tu dois avoir une raison qui justifie de poser l'hypothese de l'existence d'un "esprit" ? En plus de la raison theologique j'entends, par exemple un phenomene qui ne serait pas explicable sans l'introduction de cet esprit ?
2) Bah concretement pas trop :o Quelles sont ses proprietes ? Comment tester son existence ? ...
 

aroll a écrit :

Il y en a un (l'original) pour lequel effectivement rien n'a changé et il est abilité à dire qu'il EST Atropos, tandis que l'autre ne peut pas en dire autant, il y a bien quelque chopse qui a changé, c'est qu'il n'existait pas deux secondes avant, et ça reste vrai, même s'il ne s'en rend pas compte. Il y a donc désormais deux personnes deux "soi" tout à fait différent, le vrai toi, et une sorte d'imposteur qui a tes souvenirs, tes goûts, tes opinions, mais qui n'est pas du tout toi.


On est d'accord pour dire qu'il y a deux personnes, distinctes. L'une qui est l'originale (le "vrai moi" ) et l'autre qui est la copie (l'imposteur :o).
Mais si on met de cote ce "detail" (imaginons qu'on ne sait pas lequel est la copie, ou meme on ne sait pas quelle est l'origine des deux personnes), il y a-t-il une difference de conscience, de "ressenti du soi" entre les deux ? De mon point de vue, les deux personnes ont la "sensation" d'etre la meme personne.
Si c'est le cas, alors il n'y a pas de concept d'esprit/ame necessaire a la conscience et a l'existence d'un "moi" distinct. I.e. si je suis copie puis mon original supprime pendant mon sommeil, "je" me reveillerai sans constater aucune difference.
Bien sur tout ca c'est de l'hypothetique, pour expliquer mon point de vue sur la conscience :o

n°53009582
Gilgamesh ​d'Uruk
Lui-même
Posté le 16-04-2018 à 12:21:55  profilanswer
 

aroll a écrit :

Ou que la conscience ne dépend pas des relations avec le corps (il est tout aussi conscient que toi et moi sans le moindre "accès" au corps).
La différence angoisse/pas angoisse s'explique très bien justement par la rationalité, dans un cas ce n'est pas normal, donc inquiétant, dans l'autre il y a une explication.

 

Le syndrome est du à la destruction de la partie du tronc cérébral (le pont) d'où partent les nerfs moteur mais d'autres accès au corps subsistent. Il voit tout et il entend tout, il ressent encore le toucher et la douleur.
 
La conscience est toujours constituée de ses rapport avec le corps.

Message cité 1 fois
Message édité par Gilgamesh d'Uruk le 16-04-2018 à 12:22:24

---------------
Nation spatiale : la chaîne de l'Arche interstellaire.
n°53053958
aroll
Posté le 20-04-2018 à 18:00:07  profilanswer
 

Atropos a écrit :


1) Ce que je veux dire, c'est que tu dois avoir une raison qui justifie de poser l'hypothese de l'existence d'un "esprit" ? En plus de la raison theologique j'entends, par exemple un phenomene qui ne serait pas explicable sans l'introduction de cet esprit ?

Non, pas forcément. Il y a, comme tu dis, la raison «théologique» ou disons religieuse, et à part cela il y a sans doute, il y a sûrement des recherches effectuées pour déterminer si certains phénomènes impliquent un esprit, mais rien n’est acquis de manière consensuelle sinon tu le saurais.

Atropos a écrit :

2) Bah concretement pas trop :o Quelles sont ses proprietes ? Comment tester son existence ? …

La meilleure façon de tester tue l’expérimentateur...  :D   :lol:  
 
 

Atropos a écrit :

On est d'accord pour dire qu'il y a deux personnes, distinctes. L'une qui est l'originale (le "vrai moi" ) et l'autre qui est la copie (l'imposteur :o).
Mais si on met de cote ce "detail" (imaginons qu'on ne sait pas lequel est la copie, ou meme on ne sait pas quelle est l'origine des deux personnes), il y a-t-il une difference de conscience, de "ressenti du soi" entre les deux ? De mon point de vue, les deux personnes ont la "sensation" d'etre la meme personne.

Non puisqu’il choisisent tous les deux de vivre à la place de l’autre dès lors qu’un choix doit être fait.
 

Atropos a écrit :

Si c'est le cas, alors il n'y a pas de concept d'esprit/ame necessaire a la conscience et a l'existence d'un "moi" distinct. I.e. si je suis copie puis mon original supprime pendant mon sommeil, "je" me reveillerai sans constater aucune difference.

Si on TE supprime pendant ton sommeil TU ne te réveilles pas, c’est totalement évident.C’est ton double «imposteur» qui se réveille, et il n’est pas du tout toi, c’est très facile à comprendre.
 

Gilgamesh d'Uruk a écrit :


 
Le syndrome est du à la destruction de la partie du tronc cérébral (le pont) d'où partent les nerfs moteur mais d'autres accès au corps subsistent. Il voit tout et il entend tout, il ressent encore le toucher et la douleur.

Là tu ne fais que décrire la «maladie», mais ça, ça ne prouve rien au sujet de la conscience.
 

Gilgamesh d'Uruk a écrit :

La conscience est toujours constituée de ses rapport avec le corps.

J’ai bien compris ton idée, et je connais plus ou moins ton approche qui reste…………… personnelle. Je n’y adhère pas. Je ne vais pas développer (pas le temps et peu d’envie), mais je trouve qu’il s’agit plutôt d’une façon «pratique» d’éviter le problème. D’autres ont proposés une origine quantique, toujours pas plus démontrable mais plus excitante.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  303  304  305  ..  308  309  310  311  312  313

Aller à :
Ajouter une réponse
 

Sujets relatifs
Le topic des retraités de HFR[Topic des Finalistes] de l'univers mis en échec depuis...
[Topic unic] - Machine à barres de céréales[topic unique]MasterChef - Merci à Sharen pour les caps
Le topic des gauchers - Le 13 août, c'est la journée des gauchers !Topic des chansons revisitées à la sauce métal
[Humour et folie] Le topic des vidéos faites sous Windows Movie Maker 
Plus de sujets relatifs à : [Topic Unique] Athéisme & Agnosticisme


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)