Michel Merlin a écrit :
Certains prévoient que des Cartes Graphiques embarqueront 512 MB de mémoire dès cette année.
Ici il faut se rappeler que ce qui fait la force de l'intelligence humaine c'est avant tout le graphique. Cette intelligence se localise en grande partie dans la partie du cerveau qui sert à la représentation spatiale (et temporelle).
Il n'y a aucun rapport entre 512Mb d'une bête machine comme la cg, et l'intelligence
Lorsque vous lisez un cours d'Analyse, vous ne voyez aucun dessin, mais en fait tout est graphique : ce sont des mécanismes de réflexion d'origine essentiellement graphique, qui ont ensuite été étendus de façon de plus en plus abstraite.
Certes la vue est un sens prépondérant mais tous concourrent à donner une représentation du monde. Et tu semble oublier que "l'intelligence" se situe pour une bonne partie dans les aires intégratrices du cerveaux, qui synthétisent l'ensemble des informations et ne sont pas reliées directement à un organe, comme les lobes frontaux.
Lorsqu'un motard se faufile à grande vitesse entre d'autres véhicules (je ne parle pas ici de ceux qui forcent le passage, au contraire), avec des risques pour lui-même et pour les autres bien inférieurs à ce qu'on pourrait penser au 1er abord, c'est parceque son intelligence graphique lui fait anticiper avec précision sa trajectoire en 4 dimensions (temps compris) par rapport à celles des autres.
Comme l'a dit quelqu'un un motar n'anticipe rien du tout sinon les services de traumato/orthopédie seraient bien vides
De même, rappelons-nous comment est arrivé le MicroProcesseur (en 1971 IIRC) : un fabricant de calculette a réalisé que le petit et bon marché composant d'affichage qu'il achetait, pouvait faire à lui tout seul à peu près toute la calculette. Ça a ensuite été étendu à l'ordinateur tout entier. En fait le CPU d'aujourd'hui est essentiellement une création à but graphique.
Le CPU a un but avant tout calculatoire/exécutoire. Je ne vois pas le rapport avec le motard d'ailleurs
Il est donc tout-à-fait possible que l'évolution aille vers une situation où le gros de l'ordinateur sera installé dans la carte graphique (laquelle aura peut-être entre-temps changé de nature, de localisation, de connexions), avec ailleurs seulement une intelligence accessoire pour traiter le reste (souris, voix, traitement de texte et création de document, calculs divers). La réflexion est l'accessoire de la vision, et non l'inverse. Du reste dès maintenant, avez-vous vu les évolutions respectives des nombres de transistors dans un CPU et dans un GPU ?
Non dans GPU il y a Graphic un point c'est tout.
L'?il est déjà très puissant, mais ce qu'il transporte comme information visuelle n'est encore rien par rapport à ce que le cerveau en tire : l'activité essentielle du cerveau est la vision, laquelle consiste essentiellement en une invention permanente à partir d'un flux oculaire relativement minuscule. Un seul petit défaut oculaire peut occasionner des maux de tête terribles par la surcharge de travail qu'inconsciemment notre cerveau fait pour rétablir une vision correcte. Si un aveugle "voit" beaucoup de choses comme les autres, c'est parcequ'il a la même intelligence et à peu près la même DB de données de vision ; seul le flux venant de l'?il manque, l'aveugle actionne sa DB autrement.
Oui mais quel rapport avec les cg ?
Actuellement le CPU pré-digère encore beaucoup de choses pour la CG, mais celle-ci en fait de plus en plus. La CG tapisse déjà la scène de textures ; de même que notre ?il ne donne absolument pas le détail de tous les pixels, c'est notre cerveau qui construit l'impression globale en extrapolant à partir de petits éléments locaux.
Le cerveau extrapole aussi à partir de la mémoire : des experiences ont été faites avec des souris. Si elles sont élevées dans un monde où seules des lignes verticales existent, elles sont incapables de se diriger dans un univers normal et se cognent partout. Même chose avec des souris élevées dans un univers uniquement horizontal. C'est TRES complexe.
Certes 512 MB dépassent ce que le soft actuel peut utiliser ; mais dans quelques années ? Mettre dans les GPU et dans le soft tout ce que l'évolution a mis dans nos yeux et cerveaux en des centaines de millions d'années ne peut se faire en une décennie. Attendons, regardons, aidons...
Tu identifies beaucoup les ordinateurs à la nature : c'est ridicule, j'imagine que tu n'as jamais fait de bio. Un simple être unicellulaire comme la bactérie est déjà nettement plus complexe et intelligent qu'un PC.
Les ordi sont un assemblage de puces, elles mêmes composées de millions de transistors assemblé en 2D de façon rigide et permanante. Les transi sont des composants électriques avec une borne de sortie et 2 bornes d'entrées. Ils intègrent donc très peu d'information au niveau individuel. Un CPU exécute du code sous forme de 0 et de 1 point barre. Les CPU et GPU ne deviennent pas intelligents avec le temps, il sont toujours aussi stupides mais plus rapides. Il serait plus judicieux à mon avis de comparer un PC avec une auto.
Comparons tout de même un transi avec la cellule intégratrice du cerveau : un neurone. Chaque neurone émet un prolongement vers un autre, mais peut recevoir et donc intègrer jusqu'à 200 000 connexions d'autres neurones. Le tout dans un réseaux 3D plastique et en perpétuel remaniement. Le courant n'est pas la seule forme de transmission : les connexions ou synapses transmettent le messages par des neurotransmetteurs (il y en a un paquet), et ces molécules interagissent avec des récepteurs, eux même modulables par des neuromodulateurs, des ions etc...
La transimssion se fait donc en fonction de la concentration des neurotransmetteurs dans la synapse, de la concentration des substances modulatrices et de certains ions, et suremement d'autres trucs qu'on ne connait pas
|