Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2382 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  9  10  11  ..  36  37  38  39  40  41
Auteur Sujet :

La Robotique

n°21060713
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 01-01-2010 à 13:43:56  profilanswer
 

Reprise du message précédent :
http://www.cyberdyne.jp/english/ro [...] index.html Un premier modèle produit par la société Cyberdyne est déjà en vente pour le grand public pour 4200$ (la new qui l'avait annoncé en FR ; http://www.robotblog.fr/exosquelet [...] -4200-1212 ). Le concurrent développé par Activelink est actuellement en phase de recherche et développement, mais la boite espère avoir une version commercialisable de son exosquelette d’ici 2015, à un prix non encore communiqué.
 
A peu prés la même chose est développé par un département de recherche pour le Département de la Défense US mais ça n'enthousiasme pas vraiment les généraux faute à l'autonomie ; Il s'agit du HULC - Human Universal Load Carrier ... Vidéo ici ==> http://www.youtube.com/watch?v=qH9DdqKZXK0


Message édité par super_newbie_pro le 01-01-2010 à 13:44:52

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
mood
Publicité
Posté le 01-01-2010 à 13:43:56  profilanswer
 

n°21137977
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 08-01-2010 à 15:18:09  profilanswer
 

La première conscience artificielle verra peut être le jour en 2018
 
Le Pr Henry Markram se donne 8 ans pour y parvenir...
 

Citation :

Un scientifique Suisse, le Professor Henry Markram, s’est lancé dans une grande aventure scientifique. En effet, selon lui, il n’existe pas de magie avec la conscience humaine ou animale et que celle-ci peut être reproduite informatiquement grâce à un « niveau suffisant de complexité organisée ». Il souhaite donc, dans un premier temps, réaliser une copie à l’identique d’un cerveau de rat, neurone par neurone… Et puis après recréer un cerveau humain.
 
Selon lui, en arrivant à ce stade, le dit cerveau artificiel (qui sera entièrement informatique) possèdera une réelle conscience avec des émotions et tout ce qui va avec ! Un genre de vrai bébé avec un disque dur. Flippant mais passionnant.
 
Evidemment ce projet coûte horriblement cher mais il a réussi a obtenir pas mal de subventions et d’aides de tous les côtés, tant son projet passionne. Cela soulève quand même pas mal de questions… Est ce qu’une machine qui possède une conscience sera considérée comme un humain ou un animal ? Que sera-t-elle capable de ressentir ? Se posera-t-elle des questions sur le sens de sa vie ?
 
Est ce que cette techno une fois aboutie ne tombera pas dans de mauvaises mains avec la fabrication de nouvelles machines de guerre intelligente ? A votre avis, quelles en seront les applications futures ? Automobile, informatique, armement …etc ?
 
Le professeur Markram s’est donné jusqu’en 2018 pour aboutir à un premier prototype…

Source : http://www.korben.info/cerveau-artificiel.html de http://www.dailymail.co.uk/science [...] chine.html
 
En cas de potentielle réussite, cela ouvrirait de formidables portes pour le domaine scientifique, militaire, civile, spatiale etc... Je suis très enthousiaste concernant ces recherches ! Ce serait l'une des plus belles avancées bien que comportant sa part de risques non négligeables mais ça en vaut le coup.


Message édité par super_newbie_pro le 08-01-2010 à 17:28:18

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°21138453
Zack38
Posté le 08-01-2010 à 15:54:00  profilanswer
 

Pourvu que les chercheurs qui rêvent de mettre au point une IA égalant un cerveau vivant animal meurent tous de la peste !! :sweat:  :fou:  
 
Que l'on invente une IA qui fonctionne bien et qui est capable d'improviser, d'accord, mais une IA qui perçoive plus ou moins les émotions, je dis : stop ! :o  
 
Les émotions, à la base, ça servait à la survie de l'espèce . Pour un ordinateur, ça n'a aucune espèce d'intérêt, et pour les humains modernes non plus : nos émotions, telles que la peur, l'angoisse et la colère sont les meilleurs vecteurs de guerre ou autres chaos tout aussi merveilleux .
 
Conclusion : une IA munie de telles émotions artificielles sera la plus imprévisible du monde, même pour ses créateurs . :sarcastic:  
 
Après, si l'on est capable de créer une IA qui peut avoir des émotions et demeurer enfermée dans des lois robotiques inébranlables pour qu'elle ne fasse de mal à personne, pourquoi pas . Mais que l'on ne teste jamais un tel prototype en le connectant à Internet, jamais ... ! :whistle:  
 
Quoi qu'il en soit, j'ai de gros doutes quand aux bienfaits de cette découverte . Vivre dans un monde tel que Terminator ne me plairait guère, à vrai dire . Aujourd'hui, c'est de la pure science-fiction, mais si nous nous donnons les moyens pour ça arrive, ça arrivera, nul doute là-dessus . :sweat:  
 
Par contre je suis 100% pour les exosquelettes et autres machines directement dirigées par l'homme, ça, ça ne posera de soucis que s'il y a la guerre ... à ceux qui seront en face .

Message cité 3 fois
Message édité par Zack38 le 08-01-2010 à 15:55:26
n°21139076
zenith
Là-haut perché dans la pensée.
Posté le 08-01-2010 à 16:28:52  profilanswer
 

Zack38 a écrit :

Pourvu que les chercheurs qui rêvent de mettre au point une IA égalant un cerveau vivant animal meurent tous de la peste !! :sweat:  :fou:  
 
Que l'on invente une IA qui fonctionne bien et qui est capable d'improviser, d'accord, mais une IA qui perçoive plus ou moins les émotions, je dis : stop ! :o  
 
Les émotions, à la base, ça servait à la survie de l'espèce . Pour un ordinateur, ça n'a aucune espèce d'intérêt, et pour les humains modernes non plus : nos émotions, telles que la peur, l'angoisse et la colère sont les meilleurs vecteurs de guerre ou autres chaos tout aussi merveilleux .
 
Conclusion : une IA munie de telles émotions artificielles sera la plus imprévisible du monde, même pour ses créateurs . :sarcastic:  
 
Après, si l'on est capable de créer une IA qui peut avoir des émotions et demeurer enfermée dans des lois robotiques inébranlables pour qu'elle ne fasse de mal à personne, pourquoi pas . Mais que l'on ne teste jamais un tel prototype en le connectant à Internet, jamais ... ! :whistle:  
 
Quoi qu'il en soit, j'ai de gros doutes quand aux bienfaits de cette découverte . Vivre dans un monde tel que Terminator ne me plairait guère, à vrai dire . Aujourd'hui, c'est de la pure science-fiction, mais si nous nous donnons les moyens pour ça arrive, ça arrivera, nul doute là-dessus . :sweat:  
 
Par contre je suis 100% pour les exosquelettes et autres machines directement dirigées par l'homme, ça, ça ne posera de soucis que s'il y a la guerre ... à ceux qui seront en face .


 
Je suis assez d'accord, mais pas si pessimiste.
 
Une ordinateur doué de conscience et d'émotion serait une nouvelle espèce intelligente. Qui voudra survivre... Il faudra partager les ressources, la place sur terre. Après Terminator n'est pas très réaliste parce que des machines capables d'émotion de colère et de haine doivent être capable de compassion, de respect, d'amour... Il y aura donc forcement des branches de résistance s'il y a guerre contre humain. Des robots qui tomberont amoureux d'humains et inversement.
 
La planète est déjà trop petite pour les milliards d'humains qui y vivent. Des milliards crèvent la dalle. Pourquoi rajouter une nouvelle entité avec des besoins, des droits... Attendons de coloniser l'espace. Sinon oui cela sera la guerre.


Message édité par zenith le 08-01-2010 à 16:30:00
n°21141085
Geekeeta
Et mon avenir, il est "aheu" ?
Posté le 08-01-2010 à 18:39:46  profilanswer
 

Je pense aussi que l'accès à la Conscience dépend d'une "interface complexe", mais une interface n'est rien d'autre que le lien entre l'esprit et le monde physique et ne se limite pas à une capacité de raisonnement. Je pense donc que pour que cet accès à la Conscience soit effectif, il faut que cet interface permette également une mobilité complexe et une autonomie au moins aussi élaborée que la notre, un corps en somme. Une IA aussi développée ne sera donc possible qu'avec une technologie robotique d'un très haut niveau car elle impliquera une capacité d'apprentissage liée à une interaction complète avec le monde extérieur. Robotique et IA me semblent donc indissociables et le projet du Pr. Henry Markram me semble de prime abord irréalisable... à moins qu'il projette également de relier son cerveau artificiel à un monde virtuel, mais cela sous-entendrait en amont un travail tout aussi titanesque...


---------------
L'ennemi est bête : il croit que c'est nous l'ennemi alors que c'est lui ! [Pierre Desproges] Rochmedia - Morrowind et Oblivion Stargate
n°21141208
biboulMRPN
Posté le 08-01-2010 à 18:51:12  profilanswer
 

Et un cerveau artificiel connecté au Web et à d'autres réseau comme des cams de surveillances par exemple? il y a moyen d'en apprendre pas mal sans se déplacer.

Message cité 1 fois
Message édité par biboulMRPN le 08-01-2010 à 18:52:19
n°21141215
Sire Jeans
Jardin du son
Posté le 08-01-2010 à 18:51:54  profilanswer
 

Zack38 a écrit :

Pourvu que les chercheurs qui rêvent de mettre au point une IA égalant un cerveau vivant animal meurent tous de la peste !! :sweat:  :fou:  
 
Que l'on invente une IA qui fonctionne bien et qui est capable d'improviser, d'accord, mais une IA qui perçoive plus ou moins les émotions, je dis : stop ! :o  
 
Les émotions, à la base, ça servait à la survie de l'espèce . Pour un ordinateur, ça n'a aucune espèce d'intérêt, et pour les humains modernes non plus : nos émotions, telles que la peur, l'angoisse et la colère sont les meilleurs vecteurs de guerre ou autres chaos tout aussi merveilleux .
 
Conclusion : une IA munie de telles émotions artificielles sera la plus imprévisible du monde, même pour ses créateurs . :sarcastic:  
 
Après, si l'on est capable de créer une IA qui peut avoir des émotions et demeurer enfermée dans des lois robotiques inébranlables pour qu'elle ne fasse de mal à personne, pourquoi pas . Mais que l'on ne teste jamais un tel prototype en le connectant à Internet, jamais ... ! :whistle:  
 
Quoi qu'il en soit, j'ai de gros doutes quand aux bienfaits de cette découverte . Vivre dans un monde tel que Terminator ne me plairait guère, à vrai dire . Aujourd'hui, c'est de la pure science-fiction, mais si nous nous donnons les moyens pour ça arrive, ça arrivera, nul doute là-dessus . :sweat:  
 
Par contre je suis 100% pour les exosquelettes et autres machines directement dirigées par l'homme, ça, ça ne posera de soucis que s'il y a la guerre ... à ceux qui seront en face .


 
Tu changeras d'avis quand la plupart des robots n'auront aucun idée des raisons pour lesquelles il faut pas se faire percuter par un bus, rentrer dans une fournaise, se découper le bras avec une scies circulaire etc et que ces cons te coûterons encore plus chère en réparation, dédommagement et même accidents causés par lui même qu'un gamin de 9 ans. Parce qu'en admettant même qu'on mette des lois de la robotique, faudra m'expliquer quel sera les choix des robots qui se trouvent dans une situation qui a priori ne semble pas être sujet à l'infraction de cette loi mais qui y amène quand même (le monde n'est pas une chaîne d'assemblage, et même là il peut se passer des trucs) ou qui peut causer de manière indirecte la mort d'un être humain sans qu'il puisse le savoir. Ben oui comme nous, un robot humanoïde c'est pas omnoscient :sarcastic:
 
Sans parler de l'aspect sociabilité que devront avoir ses robots pour nous décoder, seul moyen de les faires évoluer en présence de l'homme sinon autant rester avec des machines pilotés à 100% et arrêter la robotique (qui par essence est quelque chose d'automatisé, donc pas d'intervention humaine), ou alors c'est se limiter à faire des "autistes" pas capable de composer avec les contradictions du monde et de son concepteur, l'homme, ce qui ne le rend pas forcément innoffencif. Puis intelligence ne signifie pas forcément capable d'acquerir le niveau de conscience qu'on a et philosopher, si c'est ça qui vous fais peur.
 
Ces traveaux sont essentielles puisqu'ils se basent sur le concept d'organisme autonome le plus éprouvé : le règne animal (où je compte l'homme). Et comme on ne fait que reproduire ce que fait la nature en général, c'est une évidence qu'il faut prendre le même chemin.


---------------
( ͡° ͜ʖ ͡°) ( ͡⊙ ͜ʖ ͡⊙) ( ͡◉ ͜ʖ ͡◉)
n°21142710
Herbert de​ Vaucanson
Grignoteur de SQFP depuis 2002
Posté le 08-01-2010 à 21:28:07  profilanswer
 

Zack38 a écrit :

Pourvu que les chercheurs qui rêvent de mettre au point une IA égalant un cerveau vivant animal meurent tous de la peste !! :sweat:  :fou:

 

Que l'on invente une IA qui fonctionne bien et qui est capable d'improviser, d'accord, mais une IA qui perçoive plus ou moins les émotions, je dis : stop ! :o

 

Les émotions, à la base, ça servait à la survie de l'espèce . Pour un ordinateur, ça n'a aucune espèce d'intérêt, et pour les humains modernes non plus : nos émotions, telles que la peur, l'angoisse et la colère sont les meilleurs vecteurs de guerre ou autres chaos tout aussi merveilleux .

 

Conclusion : une IA munie de telles émotions artificielles sera la plus imprévisible du monde, même pour ses créateurs . :sarcastic:

 

Non. Stop. Il n'y a pas d'un côté l'intelligence, la vraie, la capacité à improviser, et de l'autre les émotions qui seraient deux choses indépendantes que l'on pourrait choisir ou pas de reproduire dans une IA : ça fait partie d'un tout. Nos émotions nous aident dans nos décisions. Si tu veux, entre 100 autres exemples, implémenter des choses du style loi d'Asimov, il faut bien que le robot aie une forme d'empathie et puisse ressentir de la "peur", enfin un truc intense, qui aura tendance à l'empêcher de faire des trucs qui le mettent en danger.

 

Et tu te trompe aussi en disant que les émotions chez les humains modernes, ça n'a aucune espèce d'intérêt... mais bon, ça tu dois bien t'en rendre compte par toi-même (ou alors tu me fais très peur :sweat:).

Message cité 1 fois
Message édité par Herbert de Vaucanson le 08-01-2010 à 21:31:27

---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
n°21143057
rienderien
Posté le 08-01-2010 à 21:55:46  profilanswer
 

Herbert de Vaucanson a écrit :

 

Non. Stop. Il n'y a pas d'un côté l'intelligence, la vraie, la capacité à improviser, et de l'autre les émotions qui seraient deux choses indépendante


T'es sûr ?
Parce que les émotions nous permettent de faire des choix sans que ce soit forcément réfléchi (qui n'a jamais agit sous la colère et regretté après ?).
C'est pas incompatible avec des lois comme asimov. Par exemple le robot voit un objet, il sait quelles utilisations de cet objet peuvent être dangereuses. Pas besoin de sentiment. C'est de l'analyse. Avec des sentiments ça pourrait être dangereux. Du genre "cet homme là me fait du mal, mais je n'ai pas le droit de le tuer, mais il me fait du mal et je n'aime pas avoir mal mais je n'ai pas le droit de le tuer, mais le mal qu'il me fait est insupportable je ne peux pas continuer comme ça alors je le tue".


Message édité par rienderien le 08-01-2010 à 21:56:34

---------------
http://www.wat.tv/audio/laicite-1wu6_86ls_.html
n°21143172
Herbert de​ Vaucanson
Grignoteur de SQFP depuis 2002
Posté le 08-01-2010 à 22:05:04  profilanswer
 

rienderien a écrit :


T'es sûr ?
Parce que les émotions nous permettent de faire des choix sans que ce soit forcément réfléchi (qui n'a jamais agit sous la colère et regretté après ?).
C'est pas incompatible avec des lois comme asimov. Par exemple le robot voit un objet, il sait quelles utilisations de cet objet peuvent être dangereuses. Pas besoin de sentiment. C'est de l'analyse. Avec des sentiments ça pourrait être dangereux. Du genre "cet homme là me fait du mal, mais je n'ai pas le droit de le tuer, mais il me fait du mal et je n'aime pas avoir mal mais je n'ai pas le droit de le tuer, mais le mal qu'il me fait est insupportable je ne peux pas continuer comme ça alors je le tue".

 

Ca revient au même. Si le robot a une "conscience", comment tu appelles ce genre de câblage qui lui dit que ce truc est dangereux alors même qu'il ne l'a jamais rencontré et qu'il ne sait pas ce que c'est, sinon de la peur ? De son point de vue "conscient", ce sera ressenti comme une émotion : un truc irrationnel, irréfléchi (car câblé de base = instinct) qui lui fait savoir que ce truc est dangereux, sans qu'il l'ait déduit de façon consciente.

Message cité 1 fois
Message édité par Herbert de Vaucanson le 08-01-2010 à 22:05:29

---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
mood
Publicité
Posté le 08-01-2010 à 22:05:04  profilanswer
 

n°21143247
rienderien
Posté le 08-01-2010 à 22:10:17  profilanswer
 

Herbert de Vaucanson a écrit :


 
Ca revient au même. Si le robot a une "conscience", comment tu appelles ce genre de câblage qui lui dit que ce truc est dangereux alors même qu'il ne l'a jamais rencontré et qu'il ne sait pas ce que c'est, sinon de la peur ? De son point de vue "conscient", ce sera ressenti comme une émotion : un truc irrationnel, irréfléchi (car câblé de base = instinct) qui lui fait savoir que ce truc est dangereux, sans qu'il l'ait déduit de façon consciente.


S'il n'a jamais vu l'objet il ne peut pas savoir si c'est dangereux ou non. Un humain non plus d'ailleurs.


---------------
http://www.wat.tv/audio/laicite-1wu6_86ls_.html
n°21143343
rienderien
Posté le 08-01-2010 à 22:17:15  profilanswer
 


Je ne suis pas clair non plus. Ce que j'entends par intelligence c'est de l'analyse objective d'une situation. Les émotions c'est de l'analyse subjective.  
Par exemple intelligence c'est la compréhension de la situation( que se passe-t-il ?) alors que émotion c'est la compréhension de la situation par rapport à soi, à son intérêt (que se passe-t-il, j'en déduis ---> qu'est ce que ça va faire sur moi, est-ce bien/pas bien pour moi ?).
On est d'accord ou pas ?


---------------
http://www.wat.tv/audio/laicite-1wu6_86ls_.html
n°21143349
Herbert de​ Vaucanson
Grignoteur de SQFP depuis 2002
Posté le 08-01-2010 à 22:18:01  profilanswer
 

rienderien a écrit :


S'il n'a jamais vu l'objet il ne peut pas savoir si c'est dangereux ou non. Un humain non plus d'ailleurs.


 
Ben si, c'est un robot, on le programme pour ça : c'est exactement comme la peur instinctive pour les humains. Et si, ça existe pour les humains, c'est ce qu'on appelle l'instinct. Un mouton qui n'a jamais vu un loup en aura peur la première fois qu'il en verra un.


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
n°21143369
Sire Jeans
Jardin du son
Posté le 08-01-2010 à 22:19:44  profilanswer
 

rienderien a écrit :


S'il n'a jamais vu l'objet il ne peut pas savoir si c'est dangereux ou non. Un humain non plus d'ailleurs.


 
Un humain peut voir du potientiel dangereux en quelque chose pas seulement en le voyant à l'oeuvre. Une arme à feu : on dit à un gamin comment ça marche sans la faire fonctionner et les dégâts que ça fait et il sait dès lors que ça peut le tuer. Un endroit où des personnes ne vont pas mais entendent dire des choses terribles : dangereux donc on passe à côté. La xénophobie, c'est assez notoire que c'est de la peur imaginé a priori puisque c'est une émotion qui considère les étrangers comme des dangers potentiels. Bizarement c'est dans les endroits où on en voit le moins que ce sentiment est le plus répandu.


---------------
( ͡° ͜ʖ ͡°) ( ͡⊙ ͜ʖ ͡⊙) ( ͡◉ ͜ʖ ͡◉)
n°21143392
rienderien
Posté le 08-01-2010 à 22:22:10  profilanswer
 

Herbert de Vaucanson a écrit :


 
Ben si, c'est un robot, on le programme pour ça : c'est exactement comme la peur instinctive pour les humains. Et si, ça existe pour les humains, c'est ce qu'on appelle l'instinct. Un mouton qui n'a jamais vu un loup en aura peur la première fois qu'il en verra un.


Oui. De base face a une situation inconnue on ne fait rien puisque l'on ne sait pas quel actions vis à vis de cette situation sont dangereuses. Dans le doute on ne fait rien. On essaie d'évaluer le danger. On analyse avec nos expériences passées pour savoir si l'évolution de la situation présente un danger ou non pour nous. Mais comme on n'a pas d'expérience de cette situation on ne sait pas quelles décision est la meilleure. Donc on prend un risque en espérant que...


---------------
http://www.wat.tv/audio/laicite-1wu6_86ls_.html
n°21143431
Herbert de​ Vaucanson
Grignoteur de SQFP depuis 2002
Posté le 08-01-2010 à 22:25:07  profilanswer
 

rienderien a écrit :


Oui. De base face a une situation inconnue on ne fait rien puisque l'on ne sait pas quel actions vis à vis de cette situation sont dangereuses. Dans le doute on ne fait rien. On essaie d'évaluer le danger. On analyse avec nos expériences passées pour savoir si l'évolution de la situation présente un danger ou non pour nous. Mais comme on n'a pas d'expérience de cette situation on ne sait pas quelles décision est la meilleure. Donc on prend un risque en espérant que...

 

Non justement, là tu nies complètement la notion d'instinct. Si un mouton a peur du loup la première fois qu'il en voit un, ce n'est pas parce qu'il a peur de tout ce qu'il ne connait pas : c'est parce que c'est un loup, et que c'est câblé chez lui de base, que c'est dangereux. Tu crois que tout n'est connaissance que par apprentissage et expériences antérieures mais non. Si tous les chats chassent de la même façon, même ceux enlevés à leur mère à peine sevrés, ce n'est pas par essai-erreurs ni par imitation sur les autres chats, c'est par instinct. Tout comme le réflexe de marche du nouveau né par exemple.

Message cité 1 fois
Message édité par Herbert de Vaucanson le 08-01-2010 à 22:26:56

---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
n°21143734
rienderien
Posté le 08-01-2010 à 22:45:13  profilanswer
 

Herbert de Vaucanson a écrit :


 
Non justement, là tu nies complètement la notion d'instinct. Si un mouton a peur du loup la première fois qu'il en voit un, ce n'est pas parce qu'il a peur de tout ce qu'il ne connait pas : c'est parce que c'est un loup, et que c'est câblé chez lui de base, que c'est dangereux. Tu crois que tout n'est connaissance que par apprentissage et expériences antérieures mais non. Si tous les chats chassent de la même façon, même ceux enlevés à leur mère à peine sevrés, ce n'est pas par essai-erreurs ni par imitation sur les autres chats, c'est par instinct. Tout comme le réflexe de marche du nouveau né par exemple.


C'est scientifique ton truc ?
Parce que je vois mal d'où viendrait l'information. Le tout premier mouton ne connaît rien. On est d'accord jusque là ?
Il voit le loup il se fait bouffer. Son pote voyant la scène enregistre l'info. Et d'après toi, cette information se transmettrait ? Mais ça marche pour des situations simples peut être mais dans une situation complexe tu utilises ta réflexion et tes expériences passés, non ?  
 
Exemple de situation complexe: On t'enlève, on te bande les yeux, les mecs te font bien sentir qu'ils sont pas sympas et te balance dans une pièce. Tu entends des bruits bizarre autour de toi.  
Là ton instinct va pas te transmettre tout les mouvements que tu dois faire pour être en sécurité. Si tu ne paniques pas (parce que là c'est un autre problème) normalement tu ne bouges pas. Puis sans bouger tu commences à tâter autour de toi avec tes mains et tes pieds et ainsi de suite. Si tu sens un truc tu regardes si c'est mou/dur, si ça coupe ou pas, bref tu utilises toutes les infos dont tu disposes pour essayer de dresser un topo de la situation.  
Enfin bon c'est un peu tiré par le cheveux comme exemple mais de toute façon je ne parlais pas de ça au départ. Il était question d'une situation inconnue. Donc d'après ta théorie, le mouton qui rencontre un loup pour la première fois n'est pas confronté à une situation inconnue puisque selon toi, son instinct à des infos dessus. Là on parle d'un robot qui se retrouve face à une situation que ces développeurs n'ont pas prévue. Néanmoins ils ont du prévoir des outils (son IA) pour lui permettre de faire face à une situation nouvelle.


---------------
http://www.wat.tv/audio/laicite-1wu6_86ls_.html
n°21144116
Herbert de​ Vaucanson
Grignoteur de SQFP depuis 2002
Posté le 08-01-2010 à 23:22:57  profilanswer
 

rienderien a écrit :


C'est scientifique ton truc ?
Parce que je vois mal d'où viendrait l'information. Le tout premier mouton ne connaît rien. On est d'accord jusque là ?

 

Ben l'instinct, tu connais tout de même ? Le mouton a peur du loup, comme la gazelle a peur du guépar, ils en ont peur "de base", avant même de s'y être confronté directement ou indirectement. L'instinct, ce sont en quelque sorte des connaissances "câblées", ce sont des trucs que tu fais ou "sais" de façon "innée" sans jamais l'avoir appris. C'est un peu du même ressort que les réflexes, mais en plus complexe. Tout ne vient pas par apprentissage, encore heureux. Et oui, ça marche dans des situations simples, ce sont des stimulis simples : par exemple, l'apparence d'un loup, qui provoque des réactions simples : la peur -> la fuite.

 

Mon propos était de dire que dans le cas d'une IA perfectionnée, dotée de conscience, tout câblage "prévu de base" (comme par exemple, "le vide c'est dangereux", ou "il ne faut pas aller sous la presse hydraulique" ) apparaîtrait au robot comme qq chose d'extérieur à sa conscience qui le fait agir, ce serait donc l'équivalent d'un instinct, d'une émotion instinctive et non contrôlée/contrôlable comme la peur. D'où le fait que pour de telles IAs des "émotions" sont nécessaires.


Message édité par Herbert de Vaucanson le 08-01-2010 à 23:24:56

---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
n°21144833
Geekeeta
Et mon avenir, il est "aheu" ?
Posté le 09-01-2010 à 00:42:42  profilanswer
 

biboulMRPN a écrit :

Et un cerveau artificiel connecté au Web et à d'autres réseau comme des cams de surveillances par exemple? il y a moyen d'en apprendre pas mal sans se déplacer.


Oui, mais si l'on parle d'une IA qui s'élève à un niveau de conscience, il me semble nécessaire que cette IA soit en mesure d'apprendre par elle-même. Il faut donc programmer un logiciel capable d'apprendre à apprendre, ce qui inclue la construction d'une réflexion avec un accès au monde réel et ses dangers, et ces dangers doivent avoir une répercussion sur la partie physique de l'interface ainsi que des conséquences. Une IA consciente sera une IA qui peut "souffrir" ou craindre... au contraire d'un bon marines que l'on "programme" à ne pas se poser certaines questions...
 :whistle:


---------------
L'ennemi est bête : il croit que c'est nous l'ennemi alors que c'est lui ! [Pierre Desproges] Rochmedia - Morrowind et Oblivion Stargate
n°21145128
Krismu
Posté le 09-01-2010 à 01:20:45  profilanswer
 


 
Un programme d'IA va faire des calculs, des prévisions de ce qu'il va se passer en fonction de ce qu'il va faire. Il réfléchit quoi.
Quand l'une de ces prévisions donne un % supérieur à un seuil pour qu'une situation défavorable arrive, il sait qu'il ferait une connerie en faisant ça. Et donc il ne choisira pas cette option, parce que le programme est bien fait et le "force" à choisir une autre option.
Comme toi quand tu vois une flamme derrière laquelle il y aurait un billet de 500 Euros, normalement ton premier réflexe c'es pas de tendre la main à travers le feu, mais de chercher un outil pour le faire, ou un moyen de l'éteindre.  
Et de tendre la main, même avant toute douleur, est quasi-impossible tant on appréhende la douleur (= situation défavorable).

n°21146136
Profil sup​primé
Posté le 09-01-2010 à 08:36:37  answer
 

Vous croyez que le forum hardware apprends avec nos posts ? :o
 
Imaginez le monstre qu'on est en train de créer :o

n°21147039
Zack38
Posté le 09-01-2010 à 11:58:27  profilanswer
 

Pour le moment, les IA qui sont capables d'apprendre comme un cerveau humain n'existent pas vraiment . Par contre, j'ai déjà entendu parler d'une IA créatrice, pouvant à partir d'éléments simples synthétiser un truc complexe .
 
Par exemple : on place dans une arène fermée deux petits robots pourvus de caméra et de moteurs pour la faire bouger, ainsi qu'un répertoir de sons et un module d'enregistrement, ainsi qu'un ordinateur qui exécutera l'IA .
 
On lance une petite balle à côté d'eux . L'un deux remarque la présence de la balle : il émet un son . L'autre réagit : il se retourne et remarque à son tour la présence de la balle . A partir de là, les deux robots vont associer, naturellement (c'est-à-dire sans intervention humaine ... !), chaque son de leur répertoir à une direction, une vitesse, une rotation . Au bout de 2500 lancers de balle, les robots ont élaboré un langage qui n'est à peu près compréhensible que d'eux-^m . Bien sûr, il n'est pas indécodable, mais deux robots ont créé un langage à partir de sons basiques, les associant à des mots, puis assemblant des phrases . Evidemment, ça se limite aux déplacements d'une balle dans le cadre d'une expérience, mais imaginez maintenant (ça n'a pas été réalisé dans l'expérience) que l'on introduise maintenant une balle lumineuse, ou un cube, ou tout autre truc nouveau . Les robots localiseraient naturellement les différences pour développer un langage toujours plus complexe mais néanmoins complet .
 
Bref, ces deux robots ont su synthétiser à partir d'éléments de base simplement en observant . Passionnant, et pas flippant ! Car s'ils sont capables "d'apprendre" indirectement, ils sont bien incapables de s'en resservir après et de discuter comme nous le faisons .
 
On possède donc déjà les bases d'une IA qui peut apprendre de ses expériences . Un langage, et quoi ensuite ? On peut imaginer un robot qui est censé faire le ménage ; il apprendra à le faire de mieux en mieux en étoffant petit-à-petit son répertoir de mouvements, limité, pour accroître son efficacité et terminer le travail plus rapidement . ^M chose pour un robot guerrier : on pourrait l'entraîner pour qu'il devienne le plus implacable des soldats, connaissant la majorité des coups par coeur . Mais pour le moment, la robotique n'est pas assez évoluée pour fabriquer de tels engins .
 
----------------------------------------------------------
 
Sinon, pour en revenir au débat actuel (qui a parfaitement sa place ici, par ailleurs : relisez le titre !), je pense que sont inscrits dans nos gènes, dans une certaine mesure, quelques dangers desquels nous devons nous méfier . Cependant, cette liste de dangers potentiels devient de plus en plus restreinte au fur et à mesure que l'homme évolue, la liste des dangers devenant de plus en plus ... lui-^m . Ainsi, un bébé pourra manger du sable alors que ça n'a pas l'air comestible et il le sait, et il pourrait empoigner à pleine main une rose alors qu'il a vu quelqu'un récemment se faire piquer . Bref .
 
Une IA qui est capable d'apprendre devra à chaque instant réaliser de nouvelles expériences ... ^m si on les réalise toutes devant lui .

n°21305920
Zack38
Posté le 23-01-2010 à 14:47:35  profilanswer
 

[:_raynor_]

n°21322142
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 25-01-2010 à 13:05:47  profilanswer
 
n°21442181
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 04-02-2010 à 17:53:35  profilanswer
 

Hallucinant... Mais c'est qu'ils vont vraiment le faire en plus ....  :ouch:  :sweat:  
 
Vous connaissez tous les films Terminator ? Si je vous dis qu'une entreprise qui travaille pour le compte du département de la Défense US a pour but de faire le même genre de robot, que me diriez-vous ? Si je vous dis que c'est l'entreprise qui a créé big-dog et qui développe ce fameux robot censé se nourrir sur le champs de... bataille ?
 
Oui, vous avez deviné, c'est encore une fois Boston Dynamics qui s'y attaque...  :sleep:  
 
http://forum.kusadasi.biz/pictures/terminator4/terminator-4-12.jpg
 

Citation :

DARPA just put out a call for a robotics software/hardware research and development program called ARM, which seeks to build a robot that can autonomously and skillfully grasp a number of objects using two arms and hands – including objects like knives and pistols.  Disturbingly, the brief states that the new robot hand and control software should be able to (and I quote), “Hold an inert grenade with one hand, and pull the pin with the other hand” without the need for human control.  And they plan to spend tens of millions of dollars on it over the course of 4 years.
 
As the project progresses, the teams working on software and hardware must reach milestones.  The robot should be able to: pick up and write with a pen; use pliers; unzip a duffle bag; drill a hole using a power tool; insert a key and unlock a door; and assemble an object from a kit of parts.  Do you think this kind of sophistication would allow it to shoot a gun?  You may notice that we don’t talk much about military robots on this site – though we have a certain fondness for Boston Dynamics’ BigDog – but this development is fairly alarming.  In the next section, note that “ball” is a euphemism for “grenade”:
 
    The software system must enable the GFE (Government Furnished Equipment; i.e. the robot) to perform the Challenge Tasks following a high-level script with no operator intervention. For example, the operator would issue a command such as “Throw Ball.” That command would in turn decompose into a sequence of lower-level tasks, such as “find ball,” “grasp ball,” “re-grasp ball, cock arm, and throw.”
 
Boston Dynamics was recently awarded $32 million to perfect BigDog.  Their bipedal humanoid PETMAN should be capable of performing the actions of a soldier in a hazmat suit – such as walking, running, and crawling.  They claim that PETMAN will be used to test the durability of chemical warfare suits under a variety of stress tests.  Combine that with an upper body with two arms and hands capable of grasping and utilizing weaponry, designed specifically for military purposes, and you’re a stone’s throw away from a Terminator-style robot.  Even if the robot isn’t bipedal (the document suggests the robot will drive on wheels) it will be humanoid possessing a head, two arms, and sensitive hands.
 
Clearly there is a lot of room for improvement in the area of autonomous grasping, and DARPA has funded some very important research.  If not for the “grenade clause” one could easily believe the new robot is intended mainly for explosives disposal.  Unfortunately even if that is the case, it seems inevitable that as robotics technology continues to advance, it will be increasingly used for military purposes.  In reality, when completed ARM will be just the tip of the iceberg.  Do we really want another technological arms race?  Do we even have a choice?  And am I crazy for thinking this is totally FUBAR? One wonders how foolish current military escapades will look in a few decades when solar panels have advanced to the point that they provide for most of our energy needs… oh, but wait, it’s about terrorism.


 
Je suis prêt à parier que des hauts gradés américains sont enthousiastes à l'idée d'avoir de futurs Terminators made in Boston Dynamics sous leurs ordres... Sinon comment expliquer les crédits que le DOD leur débloque ? Il y en a au Pentagon qui ont du trop regarder Terminator et ça leur a monté à la tête... Cependant, s'il faut passer par là pour avoir de vrais robots efficaces dans nos foyers, alors c'est une dérive, je pense, qu'il faut accepter... Comme je l'avais précédemment exposé dans mes posts, un déploiement massif de robots militaires à même de remplacer des soldats serait une opportunité pour l'armée qui aura réussi ce pari fou ; plus de pensions à verser aux familles en cas de décès de soldats, plus de dépression, désertions ni de suicides dû au stress, plus d'impact politique sur les foules liées aux pertes humaines, etc... Ca ne sera pas pour demain mais il y a un début à tout et ce début semble commencer en 2010... Sarah Connor ? Non moi c'est ben laden, que veux-tu ispice di counasse ?? Pan pan... xoD
 
source : http://www.plasticpals.com/?p=20631


Message édité par super_newbie_pro le 04-02-2010 à 18:35:14

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°21450544
Zack38
Posté le 05-02-2010 à 14:10:31  profilanswer
 

C'est le rêve de tous les dirigeants politiques et/ou militaires d'avoir sous leurs ordres une armée de soldats robustes, dangereux et fidèles . Les humains ne remplissent heureusement pas tous ces critères ...
 
Ce qui arrêtait autrefois les guerres, c'étaient généralement les pertes humaines . Avec ce soucis-là en moins, il n'y aura plus de raison d'arrêter la guerre pour une superpuissance économique et militaire telle que les Etats-Unis . Oui, oui, ça veut dire qu'on a le droit de raser un pays complètement pour un oui ou pour un non, ça ne coûte plus que de l'argent désormais ...
 
Je suis donc résolument contre les robots militaires, ça va de soi . Qui plus est, ils seront dans un premier temps beaucoup moins performants que les humains à ce travail-là (on a plusieurs milliers d'années d'expériences :o ) .

n°21461562
lubicdj
Je ne suis ce que je veux être
Posté le 06-02-2010 à 17:09:28  profilanswer
 

Manier le couteau et des armes... Euhm uhm... Je suis curieux de savoir comment leur robot va distinguer les bons des mauvais, les civils des militaires, les terroristes des passants ordinaires... S'il égorge un innocent ça ferait tâche xoD


---------------
Vive les schtroumpf !! Dans notre société, il n'y aura jamais schtroumpfé autant de schtroumpf qu'en ces temps-ci. Schtroumpfons tous ensemble pour le bien de nos schtroumpfs !
n°21464706
Zack38
Posté le 07-02-2010 à 00:45:12  profilanswer
 

lubicdj a écrit :

Manier le couteau et des armes... Euhm uhm... Je suis curieux de savoir comment leur robot va distinguer les bons des mauvais, les civils des militaires, les terroristes des passants ordinaires... S'il égorge un innocent ça ferait tâche xoD


 
Je pense que les robots militaire seront équipés d'armes plus "dangereuses" que de simples couteaux ou autres armes létales .

n°21464750
Herbert de​ Vaucanson
Grignoteur de SQFP depuis 2002
Posté le 07-02-2010 à 00:49:44  profilanswer
 

Bah l'avantage d'une arme blanche portée par un robot (outre le fait que ce soit la classe :o), c'est que ça consomme pas de munition, le robot se retrouve donc pas "à poil" une fois qu'il a tiré toutes ses cartouches. L'avantage aussi c'est qu'il peut utiliser des armes faites pour les humains...


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
n°21465448
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 07-02-2010 à 02:28:56  profilanswer
 

Précisons au passage que le DOD demande à cette entreprise que le robot soit capable de ramasser des armes blanches comme un couteau... Donc cette demande n'est pas anodine ! Je ne vois pas trop à quoi ça servirait de ramasser un couteau si ce n'est pas pour s'en servir lol.
 

lubicdj a écrit :

Je suis curieux de savoir comment leur robot va distinguer les bons des mauvais, les civils des militaires, les terroristes des passants ordinaires...

+1 Ca sent les bavures en perspective... Ou alors ils envisagent de "lâcher" ce genre de robot en zone hostile où il n'y a pas de civiles et tout ce qui bouge doit être flingué EDIT ; éliminé ^^ ? :??:


Message édité par super_newbie_pro le 07-02-2010 à 02:29:39

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°21465889
johnnysmit​h2
Posté le 07-02-2010 à 09:31:11  profilanswer
 

Ils peuvent très bien faire des robots pseudo autonomes pouvant être manipulés à distance (comme les drones) non ?

n°21465977
Zack38
Posté le 07-02-2010 à 10:25:26  profilanswer
 

Herbert de Vaucanson a écrit :

Bah l'avantage d'une arme blanche portée par un robot (outre le fait que ce soit la classe :o), c'est que ça consomme pas de munition, le robot se retrouve donc pas "à poil" une fois qu'il a tiré toutes ses cartouches. L'avantage aussi c'est qu'il peut utiliser des armes faites pour les humains...


 
Sauf que si une arme blanche ne consomme certainement pas de munition, elle nécessite d'aller au corps-à-corps pour être utilisée, contrairement aux armes à feu où le robot pourrait rester à distance . Ca usera donc certainement plus vite ses "piles" ... :D  
 

johnnysmith2 a écrit :

Ils peuvent très bien faire des robots pseudo autonomes pouvant être manipulés à distance (comme les drones) non ?


 
Tout à fait, pourvu qu'ils aient une connection satellite en béton (et ils l'ont !) . Si ça se trouve, les Terminator seront manipulés par de jeunes joueurs américains qui croient qu'ils testent le FPS le plus réaliste du monde ... :whistle:  
 
 
 
Je crois qu'il existe déjà de telles armes (mais ce sont que des prototypes) . Si tu les fais exploser, c'est une ville aussi grande que Las Vegas qui se retrouve hors-circuit ...

n°21466626
Herbert de​ Vaucanson
Grignoteur de SQFP depuis 2002
Posté le 07-02-2010 à 12:46:30  profilanswer
 

Zack38 a écrit :


 
Sauf que si une arme blanche ne consomme certainement pas de munition, elle nécessite d'aller au corps-à-corps pour être utilisée, contrairement aux armes à feu où le robot pourrait rester à distance . Ca usera donc certainement plus vite ses "piles" ... :D  
 


 
Bah, suffirait de leur appliquer le principe de la batterie à sucres là, qui permet à un robot de générer de l'énergie en consommant de la matière organique (en plus ça nettoie le champ de bataille) :D
 

Zack38 a écrit :


 
Tout à fait, pourvu qu'ils aient une connection satellite en béton (et ils l'ont !) . Si ça se trouve, les Terminator seront manipulés par de jeunes joueurs américains qui croient qu'ils testent le FPS le plus réaliste du monde ... :whistle:  
 


 
Bwouf, à mon avis, pas la peine de leur mentir, au contraire : il y aurait sûrement beaucoup plus de volontaires en disant qu'il s'agit de piloter des vrais robots dernière génération dans une vraie guerre qu'en parlant de test du dernier FPS :o


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
n°21466845
halman
Voler, rien d'autre que voler!
Posté le 07-02-2010 à 13:33:13  profilanswer
 

Article intéressant sur la robotique et ses interactions sociales :
 
http://www.automatesintelligents.c [...] obots.html
 
24 janvier 2010
par Jean-Paul Baquiast et Christophe Jacquemin
 
Des hommes et des robots
 
Livre : Asimov, le grand livre des robotsUne question souvent posée à propos des robots, que nos lecteurs se posent peut-être aussi, consiste à se demander si le développement rapide, sinon exponentiel, de la robotique dans les sociétés modernes présente un danger pour l'homme ? Cette question était dans l'esprit d'Isaac Asimov, ce romancier de Science Fiction qui avait exploité le thème du robot dans ses oeuvres, à une époque où la robotique n'avait évidemment pas atteint le degré de développement actuel.
La réponse qu'il proposait était simple, consistant à établir une grande loi que les roboticiens et les robots eux-mêmes devraient respecter : ne pas faire de mal aux humains. Aujourd'hui, la même réponse est suggérée par ceux qui se préoccupent de l'éthique de la science et de la technologie, c'est-à-dire des règles morales élémentaires que, sans référence particulière aux religions, mais en termes de morale sociale laïque, les scientifiques devraient s'efforcer de respecter.
 
En application de cette règle, ne pas faire de mal aux humains, les ingénieurs qui conçoivent les robots devraient éviter de réaliser des robots potentiellement prédateurs, susceptibles de faire des victimes et provoquer des dégâts. Mais toute technologie est dans ce cas. Il n'y a pas plus prédateur que l'automobile aujourd'hui. Il est donc demandé aux concepteurs de robots de prévoir des dispositifs, câblés dans le corps du robot ou intervenant sur ordre de programmes spécifiques, capables de désactiver le robot en cas de comportements dangereux. Nous évoquons ici par ce terme des comportements dangereux non voulus par les humains travaillant avec le robot. Il est bien évident que si un robot militaire tue par erreur des civils dans le cadre de missions assignées par le commandement, ce ne sera pas le robot qui devra être blâmé. Ce sera le commandement qui avait commandé la mission tout en connaissant pertinemment le risque de destructions collatérales. Le risque dont il faut se prémunir, en ce cas, est celui d'un robot dont les fonctions de contrôle interne se désactiveraient ou s'affoleraient, ce qui pourrait le conduire à sortir des limites prévues par le constructeur et l'utilisateur, pour s'adonner à des conduites dangereuses, aléatoires ou ciblées.
 
En quoi dans ce cas le robot pose-t-il un problème particulier ? Toutes les machines complexes peuvent à un moment ou un autre se désorganiser, entraînant des catastrophes. On l'a vu à l'occasion de la perte en 2009 du vol Air France Rio-Paris, dont les causes restent inconnues mais qui sont probablement imputables à des défaillances du système de contrôle. Pour s'en prémunir, les ingénieurs multiplient ce que l'on nomme les redondances, c'est-à-dire les commandes de secours. Pourquoi ne pas faire de même, à propos des robots ? On peut très bien l'équiper d'instructions qui le déconnecteraient au cas où son comportement le ferait entrer dans des zones rouges, c'est-à-dire des zones où il deviendrait potentiellement dangereux, pour lui-même et pour les autres.
 
C'est bien évidemment ce que font les ingénieurs. Les cahiers des charges visant la réalisation des robots modernes, qu'ils soient militaires ou civils, comportent de telles clauses. Mais, disent les esprits inquiets, que se passera-t-il si le robot, devenu suffisamment intelligent, trouve moyen de désactiver lui-même les commandes lui fixant des barrières à ne pas franchir ? Asimov n'avait pas cru devoir évoquer sérieusement cette possibilité car, à son époque, l'hypothèse d'un robot pleinement intelligent et conscient capable de se dresser contre les humains en échappant aux règles morales qui lui auraient été imposées relevait d'un niveau supérieur de science-fiction qu'il n'avait pas abordé. Aujourd'hui, la perspective mérite de l'être. La robotique n'est pas encore capable de produire des robots pleinement autonomes, leur autonomie s'exerçant, comme nous l'avons indiqué plus haut, dans le cadre de contraintes fixées à l'avance et supposées être indépassables. Mais les robots et leur environnement deviendront rapidement si complexes qu'il sera difficile de prévoir ce qui leur passera... si l'on peut dire... "par la tête".
 
Un robot peut devenir dangereux sans être devenu véritablement méchant, ou «malicieux» au sens américain, termes incluant la référence à des valeurs morales quasi religieuses transcendant la technologie. Comme il est constitué de nombreux composants qui évoluent sans cesse et de façon plus ou moins aléatoire, notamment au niveau des interaction entre les agents logiciels qui commandent son comportement, il peut parfaitement muter, au sens propre du terme, c'est-à-dire prendre la forme d'une version imprévue par les concepteurs et les utilisateurs humains. Certaines de ces nouvelles versions pourraient se révéler utiles à ses missions initiales et donc bienvenues. Ainsi il pourrait améliorer spontanément tel ou tel de ses programmes afin de fonctionner sur un mode plus économe en énergie. Mais à l'inverse, une mutation pourrait le rendre, non seulement dangereux, mais capable de désactiver durablement les contraintes internes fixées à son comportement et destinées à limiter sa dangerosité.
 
Que se passerait-il alors ? Il faut bien se persuader que les robots ne sont (ou ne seront) pas très différents de tous les autres organismes évolutionnaires apparus sur Terre depuis les premiers pas de la vie. Ces organismes mutent sans cesse, sans préoccupations morales a priori. Les nouvelles versions d'organismes résultant de ces mutations se heurtent à un univers déjà constitué, qui leur impose ce que l'on nomme en évolution des barrières sélectives. Ou bien les mutants se révèlent plus efficaces que leurs prédécesseurs et peuvent échapper aux barrières sélectives. En ce cas ils survivent et donnent naissance à de nouvelles lignées. Ou bien au contraire ils ne le peuvent pas et disparaissent, rejoignant l'immense cimetière des inventions fussent-elles géniales mais rejetées par le milieu.
 
Très bien direz-vous. Nous voici rassurés. Comme ce sont des humains qui fixent les barrières sélectives, il suffirait - ainsi que le demandait Asimov - qu'ils provoquent l'élimination de tous les éventuels robots mutants susceptibles de devenir dangereux. Les humains auront donc toujours affaire à des populations de robots domestiques, aussi inoffensifs pour eux que le sont devenus les animaux ex-sauvages domestiqués depuis plusieurs millénaires.
 
Penser que les humains veulent ou même peuvent contrôler les machines, robotisées ou non, semble pour nous relever de ce que nous appelons une illusion humaniste. C'est oublier le fait que les humains et leurs technologies se développent d'une façon quasi symbiotique, dans le cadre d'échanges entre caractères fondateurs qui en font de nouvelles espèces mutantes, entrant en compétition darwinienne les unes avec les autres(1). Ceci a été déjà souligné à propos de l'automobile ou des ordinateurs. Les usagers et à plus forte raison les concepteurs et constructeurs de ces machines ne sont pas capables, quoi qu'ils prétendent, d'orienter leur développement à partir de décisions rationnelles qu'ils s'estiment capables de prendre. Depuis des années, on a voulu limiter la dangerosité des voitures. Certains résultats ont été obtenus, mais le prélèvement en vies humaines ne cesse de croître, du simple fait de l'extension quasi virale du nombre de ceux que nous pourrions appeler des «homo-automobilis». Si la croissance de ce nombre s'arrêtait, ce ne serait pas du fait de la volonté des humains, mais parce que des limites physiques empêcheraient désormais leur prolifération, manque d'espace, manque de carburant ou de matières premières.
 
Les ordinateurs et produits électroniques divers ne sont pas aussi dangereux que les automobiles, mais dans certains cas, peuvent le devenir. C'est le cas du téléphone au volant et de la consultation des écrans multiples que les constructeurs veulent insérer sur les tableaux de bord, soi-disant pour améliorer la sécurité et le confort de conduite, en fait pour faire du profit et, plus en profondeur, contribuer à des mutations favorables à la dissémination de l'espèce automobile+homo-automobilis. Les autorités réglementaires qui étaient intervenues - sans grand succès - pour limiter le téléphone au volant auront beaucoup de souci à se faire, car le poids des lobbies conjugués de l'automobile et de l'électronique n'empêchera pas la prolifération de l'internet au volant. Les accidents se poursuivront donc, dans l'indifférence générale.
 
Peut-on transposer cette réflexion à l'avenir des robots et des hommes qui, d'une façon ou d'une autre, s'associeront à leur développement ?
Certainement. Plus encore que les automobiles et autres machines faiblement intelligentes, les robots disposent, par définition, de capacités d'adaptation aux humains considérables. Nous avons rapidement évoqué ce point en décrivant l'avenir de la robotique domestique ou conviviale. De même qu'un propriétaire de chien choisit celui-ci et l'élève en fonction de son caractère, à lui propriétaire, faisant de l'animal un agneau sympathique ou une bête fauve, de même procédera le propriétaire ou l'utilisateur d'un robot domestique. Mais de même que dans le couple homme-chien, ce n'est pas seulement l'homme qui déteint sur le chien mais le chien qui déteint sur l'homme, de même dans le couple homme-robot les caractères s'échangeront très vite. Ils ne le feront pas d'une façon statique, puisque l'homme et le robot sont deux entités évolutionnaires. Ils le feront d'une façon dynamique. Autrement dit, l'homme et le robot développeront par interaction des déterminismes évolutifs communs ou corrélés. Chez l'homme, ce sera un certain type d'organisation du cerveau ou de l'ordre cellulaire, pouvant se répercuter à certains niveaux du génome. Chez le robot, il s'agira de réorganisations principalement logicielles se transmettant par réseaux. L'humain dans ce cas pensera sans doute qu'il restera maïtre du sens pris par l'évolution globale du couple, mais ce sera une illusion.
 
Les moralistes s'indigneront. Que restera-t-il de l'humain dans ce que vous décrivez ? Il restera, pour prendre une image de plus en plus utilisée, du post-humain. Mais ce post-humain sera-t-il bon ou sera-t-il mauvais ? Les deux, mon capitaine. Plus exactement il sera ce que sa confrontation avec un environnement de plus en plus imprévisible, du fait du développement exponentiel des technologies et de leurs usages, lui permettra de devenir.
Bien malin qui pourrait aujourd'hui le prévoir.
 
(1) Nous développons ce thème dans l'essai précédemment annoncé sur ce site, à paraître en mars 2010, sous la plume de Jean-Paul Baquiast, "Le paradoxe du Sapiens "(éditions JP. Bayol)
 
© Automates Intelligents 2010


Message édité par halman le 07-02-2010 à 13:40:57

---------------
Les avions sont comme l'âme, ils ont des ailes et prolongent la vie. Marcel Dassault
n°21468411
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 07-02-2010 à 17:44:55  profilanswer
 

Zack38 a écrit :

Si ça se trouve, les Terminator seront manipulés par de jeunes joueurs américains qui croient qu'ils testent le FPS le plus réaliste du monde ... :whistle:

+1 surtout que les mecs du recrutement américain déclarent régulièrement que les joueurs de FPS font de meilleurs soldats et sont des cibles de recrutement priviligiées (erf !! LOL)...  

Herbert de Vaucanson a écrit :

Bwouf, à mon avis, pas la peine de leur mentir, au contraire : il y aurait sûrement beaucoup plus de volontaires en disant qu'il s'agit de piloter des vrais robots dernière génération dans une vraie guerre qu'en parlant de test du dernier FPS :o

+1 C'est certain même !! :D J'imagine déjà la recrue éliminant un terroriste au couteau avec son robot, déclarant à son compagnon d'arme assis dans un fauteuil cuire à côté de lui ; oua t'as vu comme je l'ai niqué lui ? et l'autre qui répondrait ; GG man !  :sweat:
 
Je pense que le risque de dégâts collatéraux peut diminuer si on utilisait ce genre de machine de guerre d'une manière localisée.
 
Par exemple un immeuble pris par l'ennemi, sur un périmètre déterminé ; plus de soucis à se faire sur la distinction ami/ennmi, on les envoie, ils "nettoient" la zone ce qui permet d'éviter de lourdes pertes en combat urbain puis une fois le secteur nettoyé, ils se mettraient hors service pour permettre une récupération sans risques de se faire zigouiller... Ou encore un travail de coopération toujours sur une zone localisée où les "alliés" seraient identifiés par exemple par une puce émettrice un peu comme ce qui est utilisé par l'armée de l'air pour identifier les véhicules terrestres alliés des ennemis. (voir les projets qui ont fait suite aux bavures (tirs fraticides) durant des conflits récents où certains avions faisaient feu sur leurs propres troupes croyant voir des ennemis...) Cela avait d'ailleurs fait l'objet d'un article sur checkpoint ( http://www.checkpoint-online.ch/Ch [...] euAmi.html )...
 
****************
 
EDIT ; Alors que le Robonaut dans sa 2ème version est en cours de mise au point (programme de recherche conjoint de l'agence spatiale américaine (NASA) et de l'agence de la Défense (DARPA) visant à mettre au point un robot humanoïde pouvant réaliser les travaux effectués normalement par les astronautes durant les sorties extravéhiculaires.), je vous invite à observer avec la plus grande attention la réalisation des mains et des doigts, assurément une source d'inspiration technique pour les compagnies développant les robots anthropomorphes grand public de demain.
 
http://photos-g.ak.fbcdn.net/hphotos-ak-snc3/hs167.snc3/19432_1274320331891_1046408351_30668771_7191291_n.jpg http://photos-e.ak.fbcdn.net/hphotos-ak-snc3/hs167.snc3/19432_1274320371892_1046408351_30668772_5480879_n.jpg
 
Source : http://www.getrobo.com/getrobo_blo [...] adows.html

Message cité 1 fois
Message édité par super_newbie_pro le 07-02-2010 à 18:18:29

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°21469237
Zack38
Posté le 07-02-2010 à 19:16:04  profilanswer
 

Herbert de Vaucanson a écrit :


 
Bah, suffirait de leur appliquer le principe de la batterie à sucres là, qui permet à un robot de générer de l'énergie en consommant de la matière organique (en plus ça nettoie le champ de bataille) :D
 
 
 
Bwouf, à mon avis, pas la peine de leur mentir, au contraire : il y aurait sûrement beaucoup plus de volontaires en disant qu'il s'agit de piloter des vrais robots dernière génération dans une vraie guerre qu'en parlant de test du dernier FPS :o


 
Certes . :jap:  
Mais l'idée que des Terminator puissent se "nourrir" de cadavres m'horripile, je sais pas pourquoi [:yopyopyop]  
Que vont dire les familles des défunts ? :heink:  
 

super_newbie_pro a écrit :

+1 surtout que les mecs du recrutement américain déclarent régulièrement que les joueurs de FPS font de meilleurs soldats et sont des cibles de recrutement priviligiées (erf !! LOL)...   +1 C'est certain même !! :D J'imagine déjà la recrue éliminant un terroriste au couteau avec son robot, déclarant à son compagnon d'arme assis dans un fauteuil cuire à côté de lui ; oua t'as vu comme je l'ai niqué lui ? et l'autre qui répondrait ; GG man !  :sweat:
 
Je pense que le risque de dégâts collatéraux peut diminuer si on utilisait ce genre de machine de guerre d'une manière localisée.
 
Par exemple un immeuble pris par l'ennemi, sur un périmètre déterminé ; plus de soucis à se faire sur la distinction ami/ennmi, on les envoie, ils "nettoient" la zone ce qui permet d'éviter de lourdes pertes en combat urbain puis une fois le secteur nettoyé, ils se mettraient hors service pour permettre une récupération sans risques de se faire zigouiller... Ou encore un travail de coopération toujours sur une zone localisée où les "alliés" seraient identifiés par exemple par une puce émettrice un peu comme ce qui est utilisé par l'armée de l'air pour identifier les véhicules terrestres alliés des ennemis. (voir les projets qui ont fait suite aux bavures (tirs fraticides) durant des conflits récents où certains avions faisaient feu sur leurs propres troupes croyant voir des ennemis...) Cela avait d'ailleurs fait l'objet d'un article sur checkpoint ( http://www.checkpoint-online.ch/Ch [...] euAmi.html )...
 
****************
 
EDIT ; Alors que le Robonaut dans sa 2ème version est en cours de mise au point (programme de recherche conjoint de l'agence spatiale américaine (NASA) et de l'agence de la Défense (DARPA) visant à mettre au point un robot humanoïde pouvant réaliser les travaux effectués normalement par les astronautes durant les sorties extravéhiculaires.), je vous invite à observer avec la plus grande attention la réalisation des mains et des doigts, assurément une source d'inspiration technique pour les compagnies développant les robots anthropomorphes grand public de demain.
 
http://photos-g.ak.fbcdn.net/hphot [...] 1291_n.jpg http://photos-e.ak.fbcdn.net/hphot [...] 0879_n.jpg
 
Source : http://www.getrobo.com/getrobo_blo [...] adows.html


 
En effet, les mains artificielles deviennent de plus en plus réalistes et capables . Il faudrait maintenant que les cybernéticiens se mettent à travailler pour que les handicapés puissent à nouveau mouvoir une main "réaliste" et souple .

n°21469333
Herbert de​ Vaucanson
Grignoteur de SQFP depuis 2002
Posté le 07-02-2010 à 19:29:26  profilanswer
 

Zack38 a écrit :


Certes . :jap:  
Mais l'idée que des Terminator puissent se "nourrir" de cadavres m'horripile, je sais pas pourquoi [:yopyopyop]  
Que vont dire les familles des défunts ? :heink:  


 
Bah elles pourront se dire qu'au moins son cadavre a servi à quelque chose plutôt que pourrir bêtement en pure perte :)
 

Zack38 a écrit :


 
En effet, les mains artificielles deviennent de plus en plus réalistes et capables . Il faudrait maintenant que les cybernéticiens se mettent à travailler pour que les handicapés puissent à nouveau mouvoir une main "réaliste" et souple .


 
Ya un projet en cours, à échéance fin 2010, destiné à faire une prothèse de bras qui marche dans les deux sens : que l'on peut commander par le cerveau (comme on commande un bras normal), et qui offre un retour de sensation tactile :jap:


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
n°21469347
lubicdj
Je ne suis ce que je veux être
Posté le 07-02-2010 à 19:31:33  profilanswer
 

Zack38 a écrit :

Certes . :jap:  
Mais l'idée que des Terminator puissent se "nourrir" de cadavres m'horripile, je sais pas pourquoi [:yopyopyop]  
Que vont dire les familles des défunts ? :heink:

Bah si c'est l'ennemi, on s'en fou... Regarde Israël a bien pris des palestiniens pour ses besoins en organes... personne n'a soulevé de protestations à part les familles en question mais elles ne peuvent pas faire grand chose  :whistle: [mode troll ON] et puis vaut mieux recycler les cadavres pour en faire de l'énergie que de les laisser pourrir ... [mode troll OFF] Herbert de Vaucanson tu m'as devancé  :hello:

Message cité 1 fois
Message édité par lubicdj le 07-02-2010 à 19:35:06

---------------
Vive les schtroumpf !! Dans notre société, il n'y aura jamais schtroumpfé autant de schtroumpf qu'en ces temps-ci. Schtroumpfons tous ensemble pour le bien de nos schtroumpfs !
n°21474284
Zack38
Posté le 08-02-2010 à 09:36:05  profilanswer
 

Herbert de Vaucanson a écrit :


 
Bah elles pourront se dire qu'au moins son cadavre a servi à quelque chose plutôt que pourrir bêtement en pure perte :)


 
Et s'il s'agit de cadavres américains ?
Dans tous les cas, ce n'est pas un principe très à l'honneur de ses inventeurs ...
Au pire, qu'ils permettent aux robots militaire de se gorger de l'énergie solaire pour se recharger, mais alors bouffer les morts ... !
 
Sans compter qu'il faudra équiper le robot en question d'une tonne de détecteurs pour vérifier que la cible est bien morte et pas simplement blessée .
 

Herbert de Vaucanson a écrit :

Ya un projet en cours, à échéance fin 2010, destiné à faire une prothèse de bras qui marche dans les deux sens : que l'on peut commander par le cerveau (comme on commande un bras normal), et qui offre un retour de sensation tactile :jap:


 
Je crois même que certains chercheurs sont parvenus à créer une peau artificielle qui soit photosensible, thermosensible et tactile bien évidemment . :)  
 

lubicdj a écrit :

Bah si c'est l'ennemi, on s'en fou... Regarde Israël a bien pris des palestiniens pour ses besoins en organes... personne n'a soulevé de protestations à part les familles en question mais elles ne peuvent pas faire grand chose  :whistle: [mode troll ON] et puis vaut mieux recycler les cadavres pour en faire de l'énergie que de les laisser pourrir ... [mode troll OFF] Herbert de Vaucanson tu m'as devancé  :hello:


 
Mais c'est ignoble ! Imagine un jour qu'on se retrouve les ennemis des Etats-Unis, qu'un robot débarque chez toi, te tue, et alors que tu agonises, commence à te bouffer la jambe pour récupérer de l'énergie ... [:yopyopyop]

n°21474966
Herbert de​ Vaucanson
Grignoteur de SQFP depuis 2002
Posté le 08-02-2010 à 10:49:23  profilanswer
 

Zack38 a écrit :


Et s'il s'agit de cadavres américains ?
Dans tous les cas, ce n'est pas un principe très à l'honneur de ses inventeurs ...
Au pire, qu'ils permettent aux robots militaire de se gorger de l'énergie solaire pour se recharger, mais alors bouffer les morts ... !
 
Sans compter qu'il faudra équiper le robot en question d'une tonne de détecteurs pour vérifier que la cible est bien morte et pas simplement blessée .


 
Bah s'il s'agit de cadavres américains c'est pareil : au moins c'est plus propre. Je trouve que c'est au contraire tout à l'honneur de ses inventeurs, tout à fait dans le mouv' écolo de ces derniers temps. Et pas besoin d'équiper le robot d'une tonne de détecteurs, on peut lui donner un simple stétoscope de médecin, il écoute le coeur et hop, c'est bon !
 

Zack38 a écrit :


Je crois même que certains chercheurs sont parvenus à créer une peau artificielle qui soit photosensible, thermosensible et tactile bien évidemment . :)  


 
Cool, du coup les robots pourront se manger des bouts les uns les autres aussi :D
 

Zack38 a écrit :


 
Mais c'est ignoble ! Imagine un jour qu'on se retrouve les ennemis des Etats-Unis, qu'un robot débarque chez toi, te tue, et alors que tu agonises, commence à te bouffer la jambe pour récupérer de l'énergie ... [:yopyopyop]


 
C'est la vie :spamafote:


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  9  10  11  ..  36  37  38  39  40  41

Aller à :
Ajouter une réponse
 

Sujets relatifs
[robotique]Cherche SpécialisteRelayez les news de Harware.fr et rédigez vos articles
Est-ce la fin des agrégateurs de news ?Gratte-ciel et architecture : quel impact de la crise sur les projets?
modeles Twingo ?topic sur les gretsch tout les modeles G6120 - G6122 ect...
Blackout sur Montélimar ce matin : des news ?Le topic Ghibli et Miyazaki
Impact de la fidélisation, votre avis ? 
Plus de sujets relatifs à : La Robotique


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)