Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2884 connectés 

 


L'Ordinateur est plus qu'un simple outil. Il est plutôt....




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7
Auteur Sujet :

L'Ordinateur est-il de droite ?

n°20863579
cocto81
Posté le 12-12-2009 à 15:27:49  profilanswer
 

Reprise du message précédent :
L'ordinateur est un objet de pure logique, encore qu'avec les surcouches média intégrées et la "convivialité" ça s'en éloigne.
La logique c'était la caractéristique de la droite modérée et capitaliste, alors que la gauche socialiste c'est l'émotion. Mais dernièrement avec Sarko, il y a une forte dérive vers l'émotion aussi...
 
Néanmoins, l'usage et le fonctionnement de l'ordinateur ont évolué. On peut dire que l'ordinateur tel qu'il était pensé dans les années 50 était communiste. Il était vu à la base comme un système centralisé mis en commun et accessible par de terminaux selon des critères contrôlés par une seule source. Aujourd'hui on pense surtout à des réseaux d'ordinateurs indépendants avec une organisation multiple, complexe, évolutive qui se retrouverait dans un ordre naturel. Cette organisation est typique du système libéral. Néanmoins elle est menacée par la mise en place de principes et de structures destinés à organiser tout ça selon certains intérêts, comme dans l'exemple Google, Hadopi/Loopsi, ou bien le principe de licence globale, qui sont anti-libéraux. Ces derniers suivent des principes fascistes ou totalitaires, où se basant sur la faiblesse des intervenants indépendants du principe libéral, un intervenant fort prend le dessus, que ce soit l'Etat ou une société de type monopolistique, s'attaquant ou contrôlant les intervenants indépendants un à un et non leur ensemble.

mood
Publicité
Posté le 12-12-2009 à 15:27:49  profilanswer
 

n°20863636
Profil sup​primé
Posté le 12-12-2009 à 15:40:02  answer
 


 
Et bien oui, les fonctions de corrections orthographiques dans les traitements de texte ....

n°20863650
Profil sup​primé
Posté le 12-12-2009 à 15:42:21  answer
 


A quand alors ? :love:  
http://hfr-rehost.net/preview/www.unificationfrance.com/IMG/jpg/battlestar_galactica_numero_6_2.jpg

n°20863700
lasnoufle
La seule et unique!
Posté le 12-12-2009 à 15:51:37  profilanswer
 


Tiens, j'suis curieux que tu développes. En quoi ca a une conscience??


---------------
C'était vraiment très intéressant.
n°20867141
cocto81
Posté le 12-12-2009 à 23:24:36  profilanswer
 


Pour l'instant c'est plutôt ça :
 
http://world.honda.com/ASIMO/event/2009/091007/photo/images/02.jpg

n°20867224
Altarius
As de la digression
Posté le 12-12-2009 à 23:29:39  profilanswer
 

 

Bien que mi-figue mi-raisin, c'est où qu'on signe ? [:cerveau nico54]

Message cité 1 fois
Message édité par Altarius le 12-12-2009 à 23:29:53

---------------
Dsl pour les fautes - ne pas juger est une clé qui change le monde - Mensonge, propagande et manipulation, bienvenue chez les médias.
n°20868132
cocto81
Posté le 13-12-2009 à 01:13:23  profilanswer
 

Altarius a écrit :


 
Bien que mi-figue mi-raisin, c'est où qu'on signe ? [:cerveau nico54]


C'est plutôt des répliquants. De plus au vu de la fin de la série on peut avoir des doutes sur (L)e (C)réateur.
C'est d'ailleurs amusant de voir vieillir l'actrice, qui s'est pris un gros coup de vieux durant la série, évoluant d'"extrêmement bien foutue" à "bof, pas mal".

n°20869280
docmaboul
Posté le 13-12-2009 à 09:38:54  profilanswer
 

Ernestor a écrit :

Pour en revenir aux fondamentaux, un ordinateur n'est rien d'autre qu'une calculatrice surpuissante. Un truc pas plus intelligent que votre pauvre calculette moisie que votre banquier vous a offert à Noël pour vous remercier d'avoir ouvert un PEL.


 

Ernestor a écrit :

Les traits généraux d'une machine ? Comme je le disais, un ordinateur c'est une machine à calculer. Point. Incapable du moindre commencement d'intelligence et de comportement de lui même. Un ordinateur ne fait QUE ce qu'on lui dit de faire, il y a pas plus crétin.


 
Tu devrais chercher dans google "Edelman Darwin robots". Tu apprendrais ainsi qu'il existe des robots conçus vous vérifier une théorie au sujet de la conscience et qui développent des capacités pour lesquels ils n'ont pas été spécifiquement programmés. Une petite présentation pdf: http://www.eucognition.org/euCogni [...] tation.pdf
 
Un autre plus complet: http://www.nsi.edu/uploads/newslet [...] 2008SR.pdf

Message cité 1 fois
Message édité par docmaboul le 13-12-2009 à 09:50:05
n°20869414
240-185
Yoshi anthropophage ò('')ó
Posté le 13-12-2009 à 10:35:07  profilanswer
 

Ben au départ, y'a quand même une contrainte avec ces machines : à la base, on leur dit d'apprendre, et ça reste de l'IA [:spamafote]. Pour cela, on a mis en place des algorithmes d'apprentissage, certes très poussés de façon à les rendre autonomes et à ce qu'ils développent eux-mêmes de nouveaux algorithmes d'IA.


---------------
Tel un automate, le Yoshi noir s'avance vers le chef des Chain Chomps et lui dit : « Le CEC reprend du service : http://www.latelier240.fr/CEC »
n°20869488
docmaboul
Posté le 13-12-2009 à 10:56:38  profilanswer
 

240-185 a écrit :

Ben au départ, y'a quand même une contrainte avec ces machines : à la base, on leur dit d'apprendre, et ça reste de l'IA [:spamafote]. Pour cela, on a mis en place des algorithmes d'apprentissage, certes très poussés de façon à les rendre autonomes et à ce qu'ils développent eux-mêmes de nouveaux algorithmes d'IA.


 
Non non. C'est toute la beauté de la chose. Par contre, il est vrai qu'elles sont construites selon un modèle, une organisation, devant engendrer théoriquement certaines capacités cognitives de bas niveau. C'est cette organisation qui est programmée, non pas les fonctions en découlant, de la même manière (en plus simple) que ton code génétique programme ton organisation biologique.

mood
Publicité
Posté le 13-12-2009 à 10:56:38  profilanswer
 

n°20870802
Profil sup​primé
Posté le 13-12-2009 à 14:31:51  answer
 

lasnoufle a écrit :


Tiens, j'suis curieux que tu développes. En quoi ca a une conscience??


 
il me dit ce qui est Bien ou Mal.

n°20871050
lasnoufle
La seule et unique!
Posté le 13-12-2009 à 15:05:56  profilanswer
 


Mh. Ca se défend plus ou moins en jouant sur la définition... Mais juste pour voir, ne t'arretes pas en si bon chemin et va au bout de ton raisonnement: un Beschrelle aurait-il donc lui aussi une conscience?


---------------
C'était vraiment très intéressant.
n°20871081
Profil sup​primé
Posté le 13-12-2009 à 15:10:55  answer
 

lasnoufle a écrit :


Mh. Ca se défend plus ou moins en jouant sur la définition... Mais juste pour voir, ne t'arretes pas en si bon chemin et va au bout de ton raisonnement: un Beschrelle aurait-il donc lui aussi une conscience?


 
Je ne sais pas, mais le Beschrelle il faut que je l'ouvre, que je cherche. Le correcteur lui, il est toujours la, par defaut meme, la au momet ou je te tape il me juge car je ne met pas d'accent (car je n'ai pas d'accents sur mon clavier), il me juge en soulignant en rouge. Il me propose des solutions, et il me dit meme laquelle il prefere (il la met en premier ...)
 
non?

Message cité 1 fois
Message édité par Profil supprimé le 13-12-2009 à 15:12:35
n°20871265
santufayan
Posté le 13-12-2009 à 15:29:43  profilanswer
 

docmaboul a écrit :


 
Tu devrais chercher dans google "Edelman Darwin robots". Tu apprendrais ainsi qu'il existe des robots conçus vous vérifier une théorie au sujet de la conscience et qui développent des capacités pour lesquels ils n'ont pas été spécifiquement programmés. Une petite présentation pdf: http://www.eucognition.org/euCogni [...] tation.pdf
 
Un autre plus complet: http://www.nsi.edu/uploads/newslet [...] 2008SR.pdf


Si tu t'intéresse à l'Intelligence Artificielle et en particulier aux algorithmes de perception automatique (analyse d'image, de la parole orale, de textes, etc ...) et de représentation de la connaissance par un ordinateur c'est à dire un automate tu comprendras toi même assez vite que l'ordinateur ne comprends pas au sens où nous l'entendons pour un être humain.
 
L'ordinateur ne fait que transcoder des stimulations dans une simulation de la mémoire humaine qui peut être un réseau neuronal. L'ordinateur est capable d'activer une quantité de concepts dans sa "mémoire artificielle" et ces concepts étant reliés entre eux par des liens programmés comme les synapses dans le cerveau humain, il peut ensuite restituer sous la forme d'une chaine de concepts ce qu'il a "compris". Mais en réalité même si la chaine de concepts qu'il restitue est pertinente il n'a rien compris. Tout n'est que simulation.
 
Un exemple : un programme qui fait de la traduction automatique de français vers l'anglais devra d'abord transcoder le texte en français dans son réseau de neurones avant de le restituer en langue anglaise. Même s'il arrive à le faire un jour (ce type de programme n'existe pas sinon nous n'aurions plus besoin de traducteurs humains) l'ordinateur n'aura rien "compris" au sens du texte c'est à dire qu'il ne saura pas prendre une initiative par exemple relativement au sens du texte. D'ailleurs, l'ordinateur ne sait pas ce qu'est une initiative.
   
Autre exemple : demandez à un ordinateur "intelligent" s'il peut vous donner l'heure, l'ordinateur vous répondra qu'il peut étant donné qu'il dispose de cette information à la seconde près dans sa mémoire. Il vous répondra donc "Oui" mais ... sans vous donner l'heure !
 
Par conséquent, Ernestor a totalement raison sur le fond.

Message cité 3 fois
Message édité par santufayan le 13-12-2009 à 16:06:27
n°20871413
lasnoufle
La seule et unique!
Posté le 13-12-2009 à 15:48:10  profilanswer
 


Si, mais bon si tu changes ta définition à chaque post... Puis meme, vu que tu veux jouer sur les mots:
- il est toujours la? Tiens c'est bizarre, moi il est pas la quand je tape...
- il te juge car tu ne mets pas d'accent? Tu lui pretes des caractéristiques humaines qu'il n'a pas, il ne "juge" rien du tout, techniquement, je suppose qu'il se contente de comparer ce que t'as tapé avec une liste de référence qui lui a été fournie.
- il te juge en soulignant en rouge? Il signale juste que t'as tapé un truc qu'il connait pas, il ne juge rien du tout.
- il te propose des solutions, ca je suppose que c'est vrai.
- il te dit laquelle il préfère? Non, il affiche juste les propositions selon leur nombre de différences avec ce que t'as tapé.
 
Bref. Mais évidemment, je vois bien ou tu veux en venir: vu de l'extérieur, on pourrait très bien dire qu'il te "juge" et "préfère" une solution, puisqu'un humain ferait pareil, et pour le meme resultat. Mais bon, pour moi, ce genre de raisonnement, c'est typiquement de la branlette intellectuelle pour s'auto-convaincre qu'on fait de l'Intelligence Artificielle alors que tout ce qu'on fait c'est bourriner grace à la puissance de calcul supérieure des ordinateurs.
 
Les trucs dont parle DocMaboul, ca oui, pour moi, c'est de l'IA, et de la vraie. Le reste, c'est du flan, ca ne s'appelle IA que pour flatter les égos.
 
Enfin bref, c'est HS. Et je peux pas trop me prononcer pour le sujet initial. Comme quelqu'un l'a dit plus haut, l'ordi triche; il t'impose des règles qu'il se permet de ne pas suivre, et ce dans le but unique de te la mettre profond. Il pourrait donc etre autant de droite que de gauche.


---------------
C'était vraiment très intéressant.
n°20871484
lasnoufle
La seule et unique!
Posté le 13-12-2009 à 16:01:24  profilanswer
 

santufayan a écrit :


Si tu t'intéresse à l'Intelligence Artificielle et en particulier aux algorithmes de perception automatique (analyse d'image, de la parole orale, de textes, etc ...) et de représentation de la connaissance par un ordinateur c'est à dire un automate tu comprendras toi même assez vite que l'ordinateur ne comprends pas au sens où nous l'entendons pour un être humain.
 
L'ordinateur ne fait que transcoder des stimulations dans une simulation de la mémoire humaine qui peut être un réseau neuronal. L'ordinateur est capable d'activer une quantité de concepts dans sa "mémoire artificielle" et ces concepts étant reliés entre eux par des liens programmés comme les synapses dans le cerveau humain, il peut ensuite restituer sous la forme d'une chaine de concepts ce qu'il a "compris". Mais en réalité même si la chaine de concepts qu'il restitue est pertinente il n'a rien compris. Tout n'est que simulation.
 
Un exemple : un programme qui fait de la traduction automatique de français vers l'anglais devra d'abord transcoder le texte en français dans son réseau de neurones avant de le restituer en langue anglaise. Même s'il arrive à le faire un jour (ce type de programme n'existe pas sinon nous n'aurions plus besoin de traducteurs humains) l'ordinateur n'aura rien "compris" au sens du texte c'est à dire qu'il ne saura pas prendre une initiative par exemple relativement au sens du texte. D'ailleurs, l'ordinateur ne sait pas ce qu'est une initiative.
   
Autre exemple : demandez à un ordinateur "intelligent" s'il peut vous donner l'heure, l'ordinateur vous répondra qu'il peut étant donné qu'il dispose de cette information à la seconde près dans sa mémoire. Il vous répondra donc "Oui" dans vous donner l'heure !
 
Par conséquent, Ernestor a totalement raison sur le fond.


Pas d'accord... Tu limites ton champ de vision. C'est sur que si tu entraines un réseau de neurones à traduire, ben il traduira et ne "comprendra" rien.
 
Mais bon, la question de base c'est juste: est-ce que tu penses que le cerveau peut etre totalement compris et décrypté par la science? Que les neurones, synapses, toussa, plus peut-etre des trucs qu'on ne connait pas encore, peuvent etre dénombrés, et qu'on peut comprendre et reproduire leurs fonctionnements individuels? Et enfin, est-ce que tu penses que tous ce que tu "ressens", "comprends", ton "intelligence", n'est que le résultat de ce gros fratras de cellules?
 
Si tu as répondu "oui" à tout, alors la seule chose limitant les ordinateurs et les empechants de reproduire un cerveau, et donc des émotions et de l'intelligence au sens ou tu l'entends, c'est leur puissance et leur mémoire.


---------------
C'était vraiment très intéressant.
n°20871527
Profil sup​primé
Posté le 13-12-2009 à 16:10:59  answer
 

lasnoufle a écrit :


Si, mais bon si tu changes ta définition à chaque post... Puis meme, vu que tu veux jouer sur les mots:
- il est toujours la? Tiens c'est bizarre, moi il est pas la quand je tape...
- il te juge car tu ne mets pas d'accent? Tu lui pretes des caractéristiques humaines qu'il n'a pas, il ne "juge" rien du tout, techniquement, je suppose qu'il se contente de comparer ce que t'as tapé avec une liste de référence qui lui a été fournie.
- il te juge en soulignant en rouge? Il signale juste que t'as tapé un truc qu'il connait pas, il ne juge rien du tout.
- il te propose des solutions, ca je suppose que c'est vrai.
- il te dit laquelle il préfère? Non, il affiche juste les propositions selon leur nombre de différences avec ce que t'as tapé.
 
Bref. Mais évidemment, je vois bien ou tu veux en venir: vu de l'extérieur, on pourrait très bien dire qu'il te "juge" et "préfère" une solution, puisqu'un humain ferait pareil, et pour le meme resultat. Mais bon, pour moi, ce genre de raisonnement, c'est typiquement de la branlette intellectuelle pour s'auto-convaincre qu'on fait de l'Intelligence Artificielle alors que tout ce qu'on fait c'est bourriner grace à la puissance de calcul supérieure des ordinateurs.
 
Les trucs dont parle DocMaboul, ca oui, pour moi, c'est de l'IA, et de la vraie. Le reste, c'est du flan, ca ne s'appelle IA que pour flatter les égos.
 
Enfin bref, c'est HS. Et je peux pas trop me prononcer pour le sujet initial. Comme quelqu'un l'a dit plus haut, l'ordi triche; il t'impose des règles qu'il se permet de ne pas suivre, et ce dans le but unique de te la mettre profond. Il pourrait donc etre autant de droite que de gauche.


 
 
moi je pense qu'il me juge, et je le ressent comme ca (le rouge, couleur des professeurs). N'est-ce pas le plus important. Apres si c'est de la branlette, on peut se taire et aller faire un foot.
 
Et puis, l'ordinateur, le correcteur, il impose aussi une vision des choses dans ses corrections. Un peu comme une pensee unique, de droite, la force des medias. La machine de guerre. Si je tape Micosoft (j'ai envie d'ecrire une nouvelle a propos d'un robot appeler micosoft), il me souligne en rouge et me dit que non, ca s'ecrit Microsoft ...
 
Apres je ne sais pas, mais les fonctions, et les concepts issues des ordinateurs (ecrire dans des cases, faire des requetes logiques, attendre son tour irq, avoir la .dll, avoir le driver ou non, avoir le composant ou non ...), sont ecrits par des hommes qui travaillent pour la machine capitaliste, la pensee unique. Alors si prend les choses modernes comme les services en ligne (facebook tout ca...), la on est en pleine imposition d'un modele de pensee sur les masses. Et comme l'ordi (pour qu;il fonctionne) est rationels et deterministe (?) impossible pour les masses de s'en sortir ...
 
apres ya le logiciel libre? mais souvent ou bien issu de copie du monde capitaliste, ou bien inventer par des gens qui y etaient pendant un moment...
 
 
peut etre que freenet est le seul systeme moderne qui sort de la?  
 
l'anonymat, la liberte, le partage ... mais avec des regles.

n°20871559
santufayan
Posté le 13-12-2009 à 16:15:38  profilanswer
 

lasnoufle a écrit :


Pas d'accord... Tu limites ton champ de vision. C'est sur que si tu entraines un réseau de neurones à traduire, ben il traduira et ne "comprendra" rien.


Justement je vous explique que cette activité de traduction automatique est déja trop complexe pour un ordinateur ! :??:  
 
Donc pour comprendre et simuler un comportement humain n'en parlons même pas.
 
Un ordinateur vraiment intelligent n'existe qu'au cinéma (voir War Games par exemple) et ce n'est pas question de puissance de calcul mais de logiciel. Aucun logiciel n'est capable d'intelligence même ceux qui battent les grands maitres aux échecs.

n°20871655
Profil sup​primé
Posté le 13-12-2009 à 16:29:47  answer
 

et les ordinateurs quantique ?
me souviens vaguement d'un ordinateur sous la forme... d'un bac rempli de liquide et des electrodes dedans ... ? ct ya longtemps....

n°20871801
lasnoufle
La seule et unique!
Posté le 13-12-2009 à 16:50:29  profilanswer
 

santufayan a écrit :


Justement je vous explique que cette activité de traduction automatique est déja trop complexe pour un ordinateur ! :??:  
 
Donc pour comprendre et simuler un comportement humain n'en parlons même pas.
 
Un ordinateur vraiment intelligent n'existe qu'au cinéma (voir War Games par exemple) et ce n'est pas question de puissance de calcul mais de logiciel. Aucun logiciel n'est capable d'intelligence même ceux qui battent les grands maitres aux échecs.


Ha ben merci de m'expliquer dis donc, j'me sens vachement moins con. Je m'étais jamais apercu que ca existait pas!
 
Pour faire court, trop complexe maintenant != trop complexe demain. Ce que tu dis là, c'est comme un gars de 1970 qui aurait dit "Non mais non les enfants, arretez votre délire, un traitement de texte sur ordinateur, c'est pas sérieux, c'est beaucoup trop complexe! Donc un correcteur orthographique, n'en parlons meme pas.". Evidemment j'peux pas prévoir le futur mais bon voila quoi.
 
Et l'ordinateur vraiment intelligent c'est une question de puissance de calcul. T'as répondu oui à toutes mes questions ou pas? Dans l'état actuel des choses, les réseaux de neurones reproduisent (très grossièrement) le comportement du cerveau. Le "logiciel" (je suppose que tu voulais dire algorithme) derriere ca est extremement simple.


---------------
C'était vraiment très intéressant.
n°20872697
docmaboul
Posté le 13-12-2009 à 18:31:45  profilanswer
 

santufayan a écrit :


Si tu t'intéresse à l'Intelligence Artificielle et en particulier aux algorithmes de perception automatique (analyse d'image, de la parole orale, de textes, etc ...) et de représentation de la connaissance par un ordinateur c'est à dire un automate tu comprendras toi même assez vite que l'ordinateur ne comprends pas au sens où nous l'entendons pour un être humain.
 
L'ordinateur ne fait que transcoder des stimulations dans une simulation de la mémoire humaine qui peut être un réseau neuronal. L'ordinateur est capable d'activer une quantité de concepts dans sa "mémoire artificielle" et ces concepts étant reliés entre eux par des liens programmés comme les synapses dans le cerveau humain, il peut ensuite restituer sous la forme d'une chaine de concepts ce qu'il a "compris". Mais en réalité même si la chaine de concepts qu'il restitue est pertinente il n'a rien compris. Tout n'est que simulation.
 
Un exemple : un programme qui fait de la traduction automatique de français vers l'anglais devra d'abord transcoder le texte en français dans son réseau de neurones avant de le restituer en langue anglaise. Même s'il arrive à le faire un jour (ce type de programme n'existe pas sinon nous n'aurions plus besoin de traducteurs humains) l'ordinateur n'aura rien "compris" au sens du texte c'est à dire qu'il ne saura pas prendre une initiative par exemple relativement au sens du texte. D'ailleurs, l'ordinateur ne sait pas ce qu'est une initiative.
   
Autre exemple : demandez à un ordinateur "intelligent" s'il peut vous donner l'heure, l'ordinateur vous répondra qu'il peut étant donné qu'il dispose de cette information à la seconde près dans sa mémoire. Il vous répondra donc "Oui" mais ... sans vous donner l'heure !
 
Par conséquent, Ernestor a totalement raison sur le fond.


 
Tu aurais au moins pu te documenter avant de me répondre. Les robots Darwin ne reposent pas sur des algorithmes classiques et faits pour répondre à une problématique donnée, comme de la reconnaissance de texte ou d'image. Bis repetita: ils sont programmés selon des principes d'organisation, pas pour résoudre un problème. C'est ce qui fait qu'ils peuvent aussi bien apprendre à se sortir d'un labyrinthe que l'oublier par exemple.
 

Citation :

Another learning and memory property that is of importance to the development of neurorobotics is the ability to organize the unlabeled signals that robots receive from the environment into categories. This organization of signals, which in general depends on a combination of sensory modalities (e.g. vision, sound, taste, or touch), is called perceptual categorization. Several neurorobots have been constructed that build up such categories, without instruction, by combining auditory, tactile, taste, and visual cues from the environment (Krichmar and Edelman, 2002; Seth et al., 2004a; Seth et al., 2004b). Figures 3 and 4 show a brain-based device that developed categories for the objects it observed and solved the visual binding problem through synchronous activity in its simulated ventral visual stream. These categories emerged from the device’s experience exploring its environment.


 
http://www.scholarpedia.org/article/Neurorobotics
 
Bref, rien à voir avec des réseaux de neurones classiques.

n°20877165
Dantiste
Posté le 13-12-2009 à 22:58:46  profilanswer
 

santufayan a écrit :


Si tu t'intéresse à l'Intelligence Artificielle et en particulier aux algorithmes de perception automatique (analyse d'image, de la parole orale, de textes, etc ...) et de représentation de la connaissance par un ordinateur c'est à dire un automate tu comprendras toi même assez vite que l'ordinateur ne comprends pas au sens où nous l'entendons pour un être humain.
 
L'ordinateur ne fait que transcoder des stimulations dans une simulation de la mémoire humaine qui peut être un réseau neuronal. L'ordinateur est capable d'activer une quantité de concepts dans sa "mémoire artificielle" et ces concepts étant reliés entre eux par des liens programmés comme les synapses dans le cerveau humain, il peut ensuite restituer sous la forme d'une chaine de concepts ce qu'il a "compris". Mais en réalité même si la chaine de concepts qu'il restitue est pertinente il n'a rien compris. Tout n'est que simulation.
 
Un exemple : un programme qui fait de la traduction automatique de français vers l'anglais devra d'abord transcoder le texte en français dans son réseau de neurones avant de le restituer en langue anglaise. Même s'il arrive à le faire un jour (ce type de programme n'existe pas sinon nous n'aurions plus besoin de traducteurs humains) l'ordinateur n'aura rien "compris" au sens du texte c'est à dire qu'il ne saura pas prendre une initiative par exemple relativement au sens du texte. D'ailleurs, l'ordinateur ne sait pas ce qu'est une initiative.
   
Autre exemple : demandez à un ordinateur "intelligent" s'il peut vous donner l'heure, l'ordinateur vous répondra qu'il peut étant donné qu'il dispose de cette information à la seconde près dans sa mémoire. Il vous répondra donc "Oui" mais ... sans vous donner l'heure !
 
Par conséquent, Ernestor a totalement raison sur le fond.

J'ai essayé un jour. J'ai demandé à un ordinateur "Quelle heure est-il ?" Il m'a répondu "A la bonne heure !" :lol:  
 
J'ai trouvé ca tellement bête que je lui ai dit "Je t'ai demandé l'heure, imbécile ?" Il ne m'a pas répondu, il s'est éteint, très vexé    :sweat:  
 
:D
 
Parfaitement d'accord, l'ordinateur ne fait jamais rien si on ne lui dit pas de le faire et comment le faire, même fabriquer un véhicule. Un électeur de droite, c'est pareil, il faut lui mettre le bulletin dans les doigts et lui montrer la fente sur l'urne.  
 
Le summum, pour l'électeur de droite, est de se retrouver nez à nez avec une machine à voter électronique. Là, c'est le drame assuré, prévoir la camisole !!!
 


---------------
Mariupol, heroes forever. - Zelensky, Dudaev. - Boum !
n°20879603
santufayan
Posté le 14-12-2009 à 08:56:45  profilanswer
 

lasnoufle a écrit :


Ha ben merci de m'expliquer dis donc, j'me sens vachement moins con. Je m'étais jamais apercu que ca existait pas!
 
Pour faire court, trop complexe maintenant != trop complexe demain. Ce que tu dis là, c'est comme un gars de 1970 qui aurait dit "Non mais non les enfants, arretez votre délire, un traitement de texte sur ordinateur, c'est pas sérieux, c'est beaucoup trop complexe! Donc un correcteur orthographique, n'en parlons meme pas.". Evidemment j'peux pas prévoir le futur mais bon voila quoi.
 
Et l'ordinateur vraiment intelligent c'est une question de puissance de calcul. T'as répondu oui à toutes mes questions ou pas? Dans l'état actuel des choses, les réseaux de neurones reproduisent (très grossièrement) le comportement du cerveau. Le "logiciel" (je suppose que tu voulais dire algorithme) derriere ca est extremement simple.


Extrèmement simple ? Faut arrêter les alcools forts :pt1cable: !
 
Réponse à tes questions :
Mais bon, la question de base c'est juste : est-ce que tu penses que le cerveau peut etre totalement compris et décrypté par la science ? NON
Que les neurones, synapses, toussa, plus peut-etre des trucs qu'on ne connait pas encore, peuvent etre dénombrés, et qu'on peut comprendre et reproduire leurs fonctionnements individuels ? NON
Et enfin, est-ce que tu penses que tous ce que tu "ressens", "comprends", ton "intelligence", n'est que le résultat de ce gros fratras de cellules ? NON
 
Vous n'avez jamais travaillé sur le sujet c'est évident. Il existe un test appélé test de Turing (voir Wikipédia) qui permet de savoir si un ordinateur est intelligent. Jusqu'à présent aucun ordinateur n'a réussi ce test.
 
En tout cas c'est à mourir de rire ! DocMaboul et toi vous faites vraiment la paire ...

Message cité 2 fois
Message édité par santufayan le 14-12-2009 à 08:59:02
n°20880540
thurfin
la clarté dans la confusion
Posté le 14-12-2009 à 10:53:04  profilanswer
 

Magicpanda a écrit :

de gauche :o
"computer is like a bicycle for your mind"


le mec qui fait une citation du che en anglais [:frag_facile]

n°20880690
docmaboul
Posté le 14-12-2009 à 11:10:13  profilanswer
 

santufayan a écrit :


Extrèmement simple ? Faut arrêter les alcools forts :pt1cable: !
 
Réponse à tes questions :
Mais bon, la question de base c'est juste : est-ce que tu penses que le cerveau peut etre totalement compris et décrypté par la science ? NON
Que les neurones, synapses, toussa, plus peut-etre des trucs qu'on ne connait pas encore, peuvent etre dénombrés, et qu'on peut comprendre et reproduire leurs fonctionnements individuels ? NON
Et enfin, est-ce que tu penses que tous ce que tu "ressens", "comprends", ton "intelligence", n'est que le résultat de ce gros fratras de cellules ? NON
 
Vous n'avez jamais travaillé sur le sujet c'est évident. Il existe un test appélé test de Turing (voir Wikipédia) qui permet de savoir si un ordinateur est intelligent. Jusqu'à présent aucun ordinateur n'a réussi ce test.
 
En tout cas c'est à mourir de rire ! DocMaboul et toi vous faites vraiment la paire ...


 
Tout ce que j'ai fait, c'est citer les travaux de recherche d'un prix Nobel de médecine, travaux montrant l'émergence de fonctions cognitives de bas niveau sans programmation spécifique, ce qui va à l'encontre des poncifs du type "un ordinateur ne fait que ce pour quoi on le programme". Ce qui t'échappe dans notre discussion, c'est que tu parles de banalités, pour certaines vieilles de 50 ans, alors que je te parle de travaux récents et à la pointe, travaux auxquels participent et s'intéressent d'ailleurs très fortement les militaires américains.
 
Si ça te fait mourir de rire le perceptron, tant mieux pour toi :hello:


Message édité par docmaboul le 14-12-2009 à 11:11:11
n°20881259
lasnoufle
La seule et unique!
Posté le 14-12-2009 à 12:06:53  profilanswer
 

santufayan a écrit :


Extrèmement simple ? Faut arrêter les alcools forts :pt1cable: !

 

Réponse à tes questions :
Mais bon, la question de base c'est juste : est-ce que tu penses que le cerveau peut etre totalement compris et décrypté par la science ? NON
Que les neurones, synapses, toussa, plus peut-etre des trucs qu'on ne connait pas encore, peuvent etre dénombrés, et qu'on peut comprendre et reproduire leurs fonctionnements individuels ? NON
Et enfin, est-ce que tu penses que tous ce que tu "ressens", "comprends", ton "intelligence", n'est que le résultat de ce gros fratras de cellules ? NON

 

Vous n'avez jamais travaillé sur le sujet c'est évident. Il existe un test appélé test de Turing (voir Wikipédia) qui permet de savoir si un ordinateur est intelligent. Jusqu'à présent aucun ordinateur n'a réussi ce test.

 

En tout cas c'est à mourir de rire ! DocMaboul et toi vous faites vraiment la paire ...


Bah si ca te fait rire c'est déjà ca...

 

Dans ce que tu dis, il faut bien séparer deux choses: première chose, tu penses que la science ne pourra jamais expliquer complètement le fonctionnement du cerveau. Là, on est juste pas d'accord, mais impossible de savoir qui a raison pour le moment, donc il n'y a pas trop matière à discussion.

 

Deuxième chose, sur la simplicité des algorithmes, je persiste et signe. En précisant que je parle bien des réseaux de neurones, pour lever toute ambiguité. Alors effectivement, je n'ai pas travaillé dans le domaine, ma compétence là-dedans se limite à un semestre de cours & TPs ya quelques années, quelques chapitres de bouquins sur le sujet lus par intéret personnel, et quelques tentatives sur des problèmes simples.

 

Mais l'algo derrière un réseau de neurones, c'est très simple. Un neurone "logique" c'est des entrées qui s'additionnent, un seuil, un résultat. T'en déclares quelques couches, tu les branches entre eux, tu définis la fonction d'apprentissage, et c'est tout, tu peux y aller. Quelques centaines de lignes de code tout au plus.

 

Après, c'est sur que les docs fournis par DocMaboul ont compliqué un peu en ajoutant les inhibiteurs et une sorte de "mémoire" de réseau, mais bon, c'est loin d'etre la mort.

 

Bref, désolé pour le HS, j'arrete là.

Message cité 1 fois
Message édité par lasnoufle le 14-12-2009 à 12:07:50

---------------
C'était vraiment très intéressant.
n°20882416
Ernestor
Modérateur
modo-coco :o
Posté le 14-12-2009 à 13:59:40  profilanswer
 

docmaboul a écrit :


Tu aurais au moins pu te documenter avant de me répondre. Les robots Darwin ne reposent pas sur des algorithmes classiques et faits pour répondre à une problématique donnée, comme de la reconnaissance de texte ou d'image. Bis repetita: ils sont programmés selon des principes d'organisation, pas pour résoudre un problème. C'est ce qui fait qu'ils peuvent aussi bien apprendre à se sortir d'un labyrinthe que l'oublier par exemple.


Ca ne change rien au principe fondamental : le programme initial est créé par l'homme. Donc quand bien même ton robot est capable de modifier son programme ou de s'adapter à son environnement, c'est parce que ça a été prévu et programmé par l'homme à la base.  
 
Donc ton ordinateur à un niveau de conscience qui est celui que le programme - et donc le programmeur - a placé à la base.

n°20882461
Profil sup​primé
Posté le 14-12-2009 à 14:03:04  answer
 

Ernestor a écrit :


Ca ne change rien au principe fondamental : le programme initial est créé par l'homme. Donc quand bien même ton robot est capable de modifier son programme ou de s'adapter à son environnement, c'est parce que ça a été prévu et programmé par l'homme à la base.  
 
Donc ton ordinateur à un niveau de conscience qui est celui que le programme - et donc le programmeur - a placé à la base.


 
Pas tout a fait, un programme capable de s'auto-programmer, pourrait d'une part décider de sa finalité, et en plus décider de ne pas ce reprogrammer par la simple prog d'un boucle interne sans fin.
Me semble, je travaille deçus.

n°20882669
Profil sup​primé
Posté le 14-12-2009 à 14:22:26  answer
 

faudrait il d abord savoir comment l'homme (animal) à put devenir l'homme (conscience).
si c'est un processus chimique, complexité neuronale, environnement qui mélangés ont (par hasard) donné une conscience et une intelligence à l'animal, alors il sera sans doute possible, un jour (peut etre meme accidentellement) de créer une intelligence artificielle.
 
par contre si on croit à Dieu ou un autre truc mystique, cela voudra dire que l'on croit en une âme ou quelque chose "au dela" de la simple matière, et donc on y croira pas.
 
je me range du point de vue du premier exemple, je ne crois pas en l'âme ou tout autre choses mystiques, je suis persuadé qu'un jour on arrivera à créer une IA.
et je suis même sûr que cette IA élaborera une IA plus performante, ainsi de suite ... jusqu'à nous relayer, nous pauvre humain limité, au niveau de l'animal ....

n°20882701
Ernestor
Modérateur
modo-coco :o
Posté le 14-12-2009 à 14:25:25  profilanswer
 


Il pourrait faire cela. Mais ce choix viendrait de 2 raisons :
- l'humain l'a programmé pour le faire
- il l'a décidé aléatoirement
 
Disons pour faire court, qu'il n'a pas conscience de ce qu'il est et de ce qu'il fait. On lui a collé des heuristiques pour évaluer ses évolutions, mais ça reste prévu à la base.
 
On peut faire une analogie avec l'évolution des espèces vivantes : ça marche, ça évolue. Mais il y a un truc à la base qu'on ne connait pas : pourquoi des atomes inertes se sont transformés en vie ? Ici c'est l'être humain qui a créé cet élément de base et c'est lui qui a aussi créé les critères et fonctions d'évolutions.

n°20882859
Profil sup​primé
Posté le 14-12-2009 à 14:36:39  answer
 

Ernestor a écrit :


Il pourrait faire cela. Mais ce choix viendrait de 2 raisons :
- l'humain l'a programmé pour le faire
- il l'a décidé aléatoirement
 
Disons pour faire court, qu'il n'a pas conscience de ce qu'il est et de ce qu'il fait. On lui a collé des heuristiques pour évaluer ses évolutions, mais ça reste prévu à la base.
 
On peut faire une analogie avec l'évolution des espèces vivantes : ça marche, ça évolue. Mais il y a un truc à la base qu'on ne connait pas : pourquoi des atomes inertes se sont transformés en vie ? Ici c'est l'être humain qui a créé cet élément de base et c'est lui qui a aussi créé les critères et fonctions d'évolutions.


 
3) il réagirait à son environnement.
Si je place quelque affecteurs de description de problème en entrée (sans connaître le problème effectif) pour instancier un programme formel, C'est pas moi qui décide et ce n'est pas non plus un tirage aléatoire.

n°20883025
Pyrus
Pas de cravate ? Erreur 1017
Posté le 14-12-2009 à 14:47:34  profilanswer
 

Ernestor a écrit :


Il pourrait faire cela. Mais ce choix viendrait de 2 raisons :
- l'humain l'a programmé pour le faire
- il l'a décidé aléatoirement
 
Disons pour faire court, qu'il n'a pas conscience de ce qu'il est et de ce qu'il fait. On lui a collé des heuristiques pour évaluer ses évolutions, mais ça reste prévu à la base.
 
On peut faire une analogie avec l'évolution des espèces vivantes : ça marche, ça évolue. Mais il y a un truc à la base qu'on ne connait pas : pourquoi des atomes inertes se sont transformés en vie ? Ici c'est l'être humain qui a créé cet élément de base et c'est lui qui a aussi créé les critères et fonctions d'évolutions.


Quand on voit les bugs qui apparaissent dès la 3ème ligne de code, on ne peut pas dire que les évolutions sont prévues à la base  :whistle:  
Un programme qui se modifie lui même (algo génétique) reste limité dans le cadre de son évolution à cause de ses paramètres de démarrage. Par contre s'il peut se modifier en réponse aux paramètres d'autres programmes, on augmente la complexité. Et si on lance différents programmes de ce type, ça peut donner quelque chose d'intéressant. C'est comme lancer une cellule dans un environnement étranger.


---------------
Hazukashii serifu kinshi!
n°20883102
docmaboul
Posté le 14-12-2009 à 14:54:09  profilanswer
 

lasnoufle a écrit :

Deuxième chose, sur la simplicité des algorithmes, je persiste et signe. En précisant que je parle bien des réseaux de neurones, pour lever toute ambiguité. Alors effectivement, je n'ai pas travaillé dans le domaine, ma compétence là-dedans se limite à un semestre de cours & TPs ya quelques années, quelques chapitres de bouquins sur le sujet lus par intéret personnel, et quelques tentatives sur des problèmes simples.
 
Mais l'algo derrière un réseau de neurones, c'est très simple. Un neurone "logique" c'est des entrées qui s'additionnent, un seuil, un résultat. T'en déclares quelques couches, tu les branches entre eux, tu définis la fonction d'apprentissage, et c'est tout, tu peux y aller. Quelques centaines de lignes de code tout au plus.


 
Pas d'accord, et quoi qu'il en soit, c'est sans rapport.
 

Citation :

Après, c'est sur que les docs fournis par DocMaboul ont compliqué un peu en ajoutant les inhibiteurs et une sorte de "mémoire" de réseau, mais bon, c'est loin d'etre la mort.


 
Oula non. Il n'y a pas de fonction d'apprentissage chez les robots d'Edelman, par exemple, au sens classique (où l'on présente des entrées au réseau et où on le dresse à donner la réponse attendue). Ce sont des réseaux massivement réentrants basés sur un principe de sélection synaptique, contraints par un système de valeurs. En gros, ces équipes considèrent qu'on peut spécifier un ensemble de valeurs ("la lumière est préférable que l'obscurité", "la vision centrale que périphérique", ...) parce qu'au cours de l'évolution, il y a sélection des individus en fonction d'ensembles de préférences (préférences conférant un avantage aux individus au sein d'une espèce donnée).
 
Mieux expliqué:

Citation :

Pour comprendre la possibilité des capacités cognitives du cerveau, il faut
comprendre le phénomène de catégorisation, et le concept sous-jacent de “valeur
interne” proposé par Edelman. Il expose ainsi le “problème fondamental” (de la
catégorisation):
“Comment se fait-il qu’un animal, qui au départ n’a été confronté qu’à un petit
nombre d’“événements”, ou d’objets nouveaux (même dans de nombreux contextes
différents) semblables ou identiques au petit ensemble auquel il a été confronté
initialement ? Comment se fait-il qu’un animal puisse reconnaître un objet sans l’aide
d’un professeur ? Et comment se fait-il qu’il soit ensuite capable d’opérer une
généralisation et de “construire des universaux” en l’absence de cet objet ou même
en sa présence ?”(1992, p. 46)
Pour comprendre le processus de catégorisation, on peut imaginer que deux cartes
de groupes neuronaux reçoivent des entrées indépendantes. Chaque carte réagit à
des caractéristiques spécifiques (ségrégation fonctionnelle). Les deux cartes sont
reliées par de nombreuses fibres réentrantes, et cartographient les cartes l’une sur
l’autre. Si des groupes d’une carte sont connectées de façon réentrante par des
groupes de l’autre carte les connexions sont renforcées, et les réponses des deux
cartes sont liées par un “couple de classification”. Les modifications synaptiques font
également que les réponses actuelles sont liées aux réponses antérieures. De plus
les sorties d’une multitude de cartes interconnectées de façon réentrante au
comportement sensori-moteur de l’animal sont couplées par une “cartographie
globale”.
Plus précisément, selon la TSGN les catégorisations s’opèrent toujours par rapport à
des critères de valeurs internes, qui ne déterminent pas des catégorisations
spécifiques mais imposent des contraintes aux domaines dans lesquelles elles se
produisent. Par exemple chez les animaux d’une espèce donnée, les bases de
systèmes de valeurs ont déjà été établies par sélection au cours de l’évolution. Elles
se manifestent dans des régions du cerveau qui participent à la régulation des
fonctions corporelles : rythme cardiaque, respiration, comportement sexuel et
alimentaire, fonctions endocrines, fonctions végétatives.5 Dans (2000, p. 108) la
valeur est définie comme “les aspects phénotypiques d’un organisme qui ont été
sélectionnés pendant l’évolution et qui déterminent des événements sélectifs (tels
que les changements synaptiques survenant pendant le développement du cerveau
et ses expériences).” En particulier la valeur n’est pas équivalente à la catégorie :
c’est une précondition de l’apparition d’une réponse perceptive ou comportementale.


 
http://boris.saulnier.free.fr/DOCS [...] uronal.pdf
 
Pour plus de détail sur l'implémentation:

Citation :

Neural activity was modeled via a mean firing rate model, with one small addition: a phase parameter "provides temporal specificity without incurring the computational costs associated with modeling of the spiking activity of individual neurons in real-time." All synaptic connections were modeled as phase-dependent, such that new phases are chosen at random unless the a unit's presynaptic input phases surpass a threshold, after which phase changes are first sent through a nonlinear "squashing" function and then scaled by a phase learning rate. This implementation causes postsynaptic phase to be influenced in the direction of the most active presynaptic units' phases. Synaptic efficacy is modified both with traditional firing-rate dependent credit/blame assignment, as well as with phase-dependent credit/blame assignment, in which units with tightly coupled phases are subject to potentiation, and those with uncoupled phases are subject to depression.


 
http://develintel.blogspot.com/200 [...] om_06.html
 
C'est un peu différent pour la mémoire mais les principes de base restent les mêmes (contrairement à ce que tu disais, il n'y a pas eu adjonction d'une fonction de mémorisation mais émergence de celle-ci au travers de l'émulation d'une partie du système nerveux du rat). Bref, on est très loin des quelques centaines de lignes de code (et sachant qu'une partie est directement émulée via du hardware spécifique).

n°20883192
Ernestor
Modérateur
modo-coco :o
Posté le 14-12-2009 à 15:00:09  profilanswer
 

En gros, ils sont en train d'implémenter de manière logicielle/matérielle un cerveau humain ou un truc qui marche plus ou moins pareil.
 
Ca ne change rien au problème de base : c'est toujours un être humain qui a définit et réalisé cette implémentation du pseudo-cerveau. Le jour où le pseudo-cerveau arrivera à avoir conscience de lui même, c'est pas pour demain.

n°20883231
Profil sup​primé
Posté le 14-12-2009 à 15:03:41  answer
 

j'ai lut un article intéressant sur des recherches sur l'IA.
en Australie, des chercheurs reçoivent une subvention conséquente pour ces recherches, faite pas le gouvernement.
le plus célèbre est Roger Penrose.
pour lui, ce n'est pas l'informatique d'aujourd'hui qui pourra reproduire la complexité neuronale d'un cerveau, mais "peut être" la création d'ordinateurs quantiques.

n°20883297
docmaboul
Posté le 14-12-2009 à 15:09:47  profilanswer
 

Ernestor a écrit :


Ca ne change rien au principe fondamental : le programme initial est créé par l'homme. Donc quand bien même ton robot est capable de modifier son programme ou de s'adapter à son environnement, c'est parce que ça a été prévu et programmé par l'homme à la base.  
 
Donc ton ordinateur à un niveau de conscience qui est celui que le programme - et donc le programmeur - a placé à la base.


 
Je ne sais pas comment le dire sans te heurter mais je trouve que c'est une objection bidon. Je me permets de reformuler plus clairement: "une pierre ne peut rien faire de plus que sa nature de pierre lui permet de faire". C'est idem pour une banane, un ver de terre, un homme ou un ordinateur. Le problème, c'est qu'on n'apprend rien avec un truisme pareil. En outre, le fait d'être déterminé (ou conditionné si tu préfères) est différent du fait d'être déterminable (ou prédictible). Enfin, il y a quand même une grosse nuance entre programmer explicitement un système informatique pour qu'il donne les résultats que l'on attend et le programmer selon des principes généraux, menant ce système à donner des résultats pour lesquels il n'a pas été programmé (comme établir des catégorisations perceptives).

n°20883349
Ernestor
Modérateur
modo-coco :o
Posté le 14-12-2009 à 15:13:26  profilanswer
 

docmaboul a écrit :


 
Je ne sais pas comment le dire sans te heurter mais je trouve que c'est une objection bidon. Je me permets de reformuler plus clairement: "une pierre ne peut rien faire de plus que sa nature de pierre lui permet de faire". C'est idem pour une banane, un ver de terre, un homme ou un ordinateur. Le problème, c'est qu'on n'apprend rien avec un truisme pareil. En outre, le fait d'être déterminé (ou conditionné si tu préfères) est différent du fait d'être déterminable (ou prédictible). Enfin, il y a quand même une grosse nuance entre programmer explicitement un système informatique pour qu'il donne les résultats que l'on attend et le programmer selon des principes généraux, menant ce système à donner des résultats pour lesquels il n'a pas été programmé (comme établir des catégorisations perceptives).


Ce que tu ne saisis pas dans ce que j'explique, c'est que ton "établir des catégorisations perceptives", n'est possible parce que ça a été prévu à la base. Ou alors j'ai rien compris et ces travaux sont géniaux et révolutionnaires :D
 
L'échec de l'IA, sensée elle aussi être révolutionnaire, dans les années 80 a été plus que patent. Pourquoi ? Parce que cette intelligence artificille n'a rien d'intelligence, ça n'est que de la mécanique à mettre en place. Et de la mécanique très complexe même si tu veux avoir quelque chose ressemblant seulement de loin à un modèle d'intelligence.

n°20883367
docmaboul
Posté le 14-12-2009 à 15:14:41  profilanswer
 

Ernestor a écrit :

En gros, ils sont en train d'implémenter de manière logicielle/matérielle un cerveau humain ou un truc qui marche plus ou moins pareil.
 
Ca ne change rien au problème de base : c'est toujours un être humain qui a définit et réalisé cette implémentation du pseudo-cerveau. Le jour où le pseudo-cerveau arrivera à avoir conscience de lui même, c'est pas pour demain.


 
Vi, on est d'accord. Là, tu parles de ce que l'on nomme "conscience d'ordre supérieur". L'objectif à court terme (quelques dizaines d'années), c'est d'implémenter une "conscience primaire" (non pas conscience de soi mais conscience des choses dans un temps "remémoré" ).

n°20883501
docmaboul
Posté le 14-12-2009 à 15:22:57  profilanswer
 

Ernestor a écrit :


Ce que tu ne saisis pas dans ce que j'explique, c'est que ton "établir des catégorisations perceptives", n'est possible parce que ça a été prévu à la base. Ou alors j'ai rien compris et ces travaux sont géniaux et révolutionnaires :D


 
Vi :D
 
En gros, leurs robots arrivent à catégoriser leurs perceptions, les classer et agir en conséquence sans avoir été programmés pour ça. Si ça t'intéresse, tu devrais lire le pdf que j'ai donné juste au dessus, c'est *très* intéressant et le résumé n'est pas mauvais. Si tu veux aller plus loin, Edelman a écrit quelques bouquins pour vulgariser sa théorie ("comment la matière devient conscience", "biologie de la conscience", ...) qui sont aussi extrêmement intéressants, même sans grandes connaissances en neurobiologie.
 
 

Citation :

L'échec de l'IA, sensée elle aussi être révolutionnaire, dans les années 80 a été plus que patent. Pourquoi ? Parce que cette intelligence artificille n'a rien d'intelligence, ça n'est que de la mécanique à mettre en place. Et de la mécanique très complexe même si tu veux avoir quelque chose ressemblant seulement de loin à un modèle d'intelligence.


 
Vi aussi. Le cerveau n'est pas une machine de Turing, c'est illusoire de vouloir implémenter directement (je veux dire de manière procédurale) une intelligence réelle et telle que nous la rencontrons dans le monde biologique.


Message édité par docmaboul le 14-12-2009 à 15:23:50
n°20883545
Pyrus
Pas de cravate ? Erreur 1017
Posté le 14-12-2009 à 15:25:45  profilanswer
 

Ernestor a écrit :


Ce que tu ne saisis pas dans ce que j'explique, c'est que ton "établir des catégorisations perceptives", n'est possible parce que ça a été prévu à la base. Ou alors j'ai rien compris et ces travaux sont géniaux et révolutionnaires :D
 
L'échec de l'IA, sensée elle aussi être révolutionnaire, dans les années 80 a été plus que patent. Pourquoi ? Parce que cette intelligence artificille n'a rien d'intelligence, ça n'est que de la mécanique à mettre en place. Et de la mécanique très complexe même si tu veux avoir quelque chose ressemblant seulement de loin à un modèle d'intelligence.


Une IA qu'on place dans un environnement non prévu au départ et qui se modifie pour pouvoir y fonctionner, je trouve que c'est vraiment de l'intelligence.
Parce qu'une fourmilière c'est un système très con et pourtant extraordinaire. Ou alors on doit déclarer que seul l'homme (et quelques animaux spécifiques) mérite le statut d'être intelligent


---------------
Hazukashii serifu kinshi!
n°20883812
lasnoufle
La seule et unique!
Posté le 14-12-2009 à 15:43:55  profilanswer
 

docmaboul a écrit :


 
Pas d'accord, et quoi qu'il en soit, c'est sans rapport.
 
Oula non. Il n'y a pas de fonction d'apprentissage chez les robots d'Edelman, par exemple, au sens classique (où l'on présente des entrées au réseau et où on le dresse à donner la réponse attendue). Ce sont des réseaux massivement réentrants basés sur un principe de sélection synaptique, contraints par un système de valeurs. En gros, ces équipes considèrent qu'on peut spécifier un ensemble de valeurs ("la lumière est préférable que l'obscurité", "la vision centrale que périphérique", ...) parce qu'au cours de l'évolution, il y a sélection des individus en fonction d'ensembles de préférences (préférences conférant un avantage aux individus au sein d'une espèce donnée).
 
Mieux expliqué:
 
http://boris.saulnier.free.fr/DOCS [...] uronal.pdf
 
Pour plus de détail sur l'implémentation:
 
http://develintel.blogspot.com/200 [...] om_06.html
 
C'est un peu différent pour la mémoire mais les principes de base restent les mêmes (contrairement à ce que tu disais, il n'y a pas eu adjonction d'une fonction de mémorisation mais émergence de celle-ci au travers de l'émulation d'une partie du système nerveux du rat). Bref, on est très loin des quelques centaines de lignes de code (et sachant qu'une partie est directement émulée via du hardware spécifique).


Merci pour la correction, mes références datent alors. Mais ca m'étonne un peu quand meme, faudrait que je trouve le temps de m'y replonger. Ca et la programmation "génétique" (j'sais pas comment on appelle ca en francais, le truc ou tu fais des populations de solutions à un problème, puis tu les fais "muter" et "se reproduire" en sélectionnant les meilleurs à chaque génération), c'est vraiment des domaines où j'aurais aimé bosser. Bref.


---------------
C'était vraiment très intéressant.
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7

Aller à :
Ajouter une réponse
 

Sujets relatifs
L'assinsomnie : la nouvelle parodie de JMBITCHL'HFRien moyen est/n'est pas/a/n'a pas...
24 h dans la peau d'un magnat de l'armement[Topik unik] Electroménager
L'humanité peut elle s'auto régalerL'Imaginarium du Docteur Parnassus
L'intégration des musulmans en FranceL'humanité peut elle s'auto réguler
L'identité nationale / C'est quoi être français ? 
Plus de sujets relatifs à : L'Ordinateur est-il de droite ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR