Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4640 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  31  32  33  ..  63  64  65  66  67  68
Auteur Sujet :

Intelligence artificielle

n°69774959
rakame
Posté le 15-12-2023 à 10:56:33  profilanswer
 

Reprise du message précédent :

the_fennec a écrit :


 
https://www.westernsydney.edu.au/ne [...] university
 
Pas beaucoup de détails a part l'utilisation de FPGA, ce qui est étrange car ils sont très lent par rapport a un CPU/GPU classique. J'ai pensé aux CPUs analogiques et RAM memristors, mais non c'est pas ça :(


 
C'est l'approche du Neuromorphic engineering. La grande efficacité des neurones viens du fait qu'ils utilisent des signaux analogique et biochimiques.
 
Nous, on essaye de faire pareil en simulant ça sur des puces, c'est à dire en utilisant des semi-conducteurs. Ben c'est visiblement beaucoup moins efficace :o C'est très efficace pour faire des calculs par contre.
 
Du coup, il a un contresens qui génère beaucoup de phantasme sur ce type de système, car on confond la puissance de calcul et l'intelligence, et parce qu'on perçoit un ordinateur comme très puissant pour faire des calculs, on pense qu'il pourra donc être beaucoup plus puissant pour ce qui est de l'intelligence.
 
En pratique, on arrive à peine avec des machines énormes à simuler quelque fonctions cognitives a base de neurones. C'est surement qu'il y autre chose là-dedans qu'on ne comprend pas encore.
 
Et c'est là ou la recherche en IA met le paquet en ce moment. L'analyse des données en grande dimension, de ce que j'en comprend, c'est déjà arriver à se donner les outils mathématique qui permettraient de comprendre comment un réseau de neurone artificiel du type deep learning arrive à être aussi efficace.
 
Bon par contre, pour suivre ce type de recherche, faut un niveau en math ... Stéphane Mallat au collége de france donne un cours là-dessus justement :
 
https://www.college-de-france.fr/fr [...] statutaire
 

Citation :

Traiter des données pour valider une hypothèse ou estimer des paramètres est longtemps resté du ressort exclusif des statistiques. Cependant, l’augmentation de leur dimension a fait exploser la combinatoire des possibles. Cette malédiction de la dimensionalité est une difficulté centrale de l’analyse de données, que ce soit des images, sons, textes, ou des mesures expérimentales comme en physique, biologie ou économie. Modéliser et représenter les structures cachées des données fait appel à diverses branches des mathématiques, mais aussi à l’informatique. Les algorithmes d’apprentissage statistique, comme les réseaux de neurones, sont configurés pour optimiser l’analyse des données à partir d’exemples. Ils sont à l’origine des résultats spectaculaires de l’intelligence artificielle. Les applications scientifiques, industrielles et sociétales sont considérables, et leurs performances progressent bien plus vite que notre maîtrise de leurs propriétés mathématiques.


 
En gros, de ce que j'en comprends, la recherche en math et la recherche fondamentale est à la traine vis à vis des applications. C'est pas si étrange que ça. Comme on dit, on a pas attendu de comprendre la thermodynamique avant de maitriser le feu.

mood
Publicité
Posté le 15-12-2023 à 10:56:33  profilanswer
 

n°69775594
the_fennec
f3nn3cUs z3rd4
Posté le 15-12-2023 à 12:20:28  profilanswer
 

Je connais la théorie, mais en pratique ce qui est actuellement le plus efficace c'est ce qu'on fait avec des CPU/GPU classiques.
 
L'annonce de Deepsouth semble indiquer qu'ils ont trouvé une autre solution, mais sans plus de détails technique je pense que c'est du flan. La seule info technique est l'utilisation de FPGA qui ne semble pas adapté aux contraintes qu'ils évoquent, ils parlent aussi de "Leveraging commercially available hardware ensures continual improvements of the hardware" donc des CPU/GPU classiques.


---------------
Faudra que je teste un jour :o
n°69776207
rakame
Posté le 15-12-2023 à 14:04:11  profilanswer
 

Leur papier est là visiblement :
 
https://arxiv.org/ftp/arxiv/papers/1803/1803.03015.pdf
 

Citation :

In that work, the FPGA emulates the biological neurons  instead of performing numeric simulations as GPUs perform.


 
Ils disent qu'avec des FPGA ils peuvent émuler des neurone au lieu de simuler leur comportement. La différence est subtile, certes. Disons que l'émulation permet en théorie de couvrir toute les fonctions de la cible là ou la simulation est une représentation approchante et relativement abstraite du phénomène simulé.
 
Bon le papier est clairement hors de mes compétences limitées dans le domaine. Et en plus c'est un domaine ou il faut être a la fois très pointu en neuroscience et en informatique.

n°69776386
the_fennec
f3nn3cUs z3rd4
Posté le 15-12-2023 à 14:27:20  profilanswer
 

rakame a écrit :

Leur papier est là visiblement :
 
https://arxiv.org/ftp/arxiv/papers/1803/1803.03015.pdf
 

Citation :

In that work, the FPGA emulates the biological neurons  instead of performing numeric simulations as GPUs perform.


 
Ils disent qu'avec des FPGA ils peuvent émuler des neurone au lieu de simuler leur comportement. La différence est subtile, certes. Disons que l'émulation permet en théorie de couvrir toute les fonctions de la cible là ou la simulation est une représentation approchante et relativement abstraite du phénomène simulé.
 
Bon le papier est clairement hors de mes compétences limitées dans le domaine. Et en plus c'est un domaine ou il faut être a la fois très pointu en neuroscience et en informatique.


 
Super, merci beaucoup!
 
De l'intro:

Citation :


The main novelty of this work is the abstraction of a neuromorphic architecture into clusters represented by minicolumns and hypercolumns, analogously to the fundamental structural units observed in neurobiology.  
...
A hierarchical communication scheme allows one neuron to have a fan-out of up to 200k neurons. As a proof-of-concept, an implementation on one Altera Stratix V FPGA was able to simulate 20 million to 2.6 billion leaky-integrate-and-fire (LIF) neurons in real time. We verified the system by emulating a simplified auditory cortex (with 100 million neurons). This cortex simulator achieved a low power dissipation of 1.62 μW per neuron.  


 
Un FPGA Intel!  https://www.intel.com/content/www/u [...] /v-gx.html
 
Minicolumn array:

Citation :


The minicolumn array consists of a neuron-type manager, an event generator, and the TM minicolumns, which are implemented by time-multiplexing a single physical minicolumn consisting of 100 physical neurons. These neurons will generate positive (excitatory) and negative (inhibitory) post-synaptic currents (EPSCs and IPSCs) from input events weighted in the synapse array. These PSCs are integrated in the cell body (the soma).  
 
...
In our system, one physical neuron requires 8 bits and one TM minicolumn thus requires 800 bits. Hence, a network with 100M TM minicolumns would require 800 Mb, which is too big for on-chip memory.  
...
We have developed a time-multiplexing approach that is capable of using off-chip memory efficiently. Here, the whole TM system is segmented into blocks of 1024 (1k) TM neurons. A ping-pong buffer is used in the memory interface such that the system will run one segment at a time, and then pause until the new values from the off-chip memory are ready for the next segment. This allows us to use the external DDR memory in
burst mode, which has maximum bandwidth.  
 
...
Based on these findings, we chose to store the connection types of the neurons, the minicolumns, and the hypercolumns in a hierarchical fashion instead of individual point-to-point connections. In this scheme, the addresses of the events consist of hypercolumn addresses and minicolumn addresses. Both of them are generated on the fly with connection parameters according to their connection levels respectively. For example, we can specify that hypercolumns 1 to 10000 are each connected with random weights to the 10 hypercolumns closest to them, while hypercolumns 20000 to 40000 are each connected their nearest 16 hypercolumns with fixed weights.


 
C'est vraiment une architecture intéressante, a voir si ça scale si bien que ça. Mais en lisant le papier je réalise que c'est pour simuler le fonctionnement du cerveau mais pas pour faire du machine learning :/
https://i.imgur.com/VH1uQ7u.png


---------------
Faudra que je teste un jour :o
n°69776591
rakame
Posté le 15-12-2023 à 14:51:33  profilanswer
 

the_fennec a écrit :


 
C'est vraiment une architecture intéressante, a voir si ça scale si bien que ça. Mais en lisant le papier je réalise que c'est pour simuler le fonctionnement du cerveau mais pas pour faire du machine learning :/
https://i.imgur.com/VH1uQ7u.png


 
Oui, c'est ce qui est reproché à l'approche neuromorphique. C'est contre-intuitif mais l'intelligence artificielle telle qu'on l'entend avec le machine learning en informatique, ça consiste a rendre plus intelligent des ordinateurs, pas forcément à simuler/emuler le fonctionnement du cerveau humain, même si certaine technique d'IA s'inspire de recherche en neuroscience.  
 
C'est ce que Le Cunn reprochait a l'Humain Brain Project en gros, et que le projet devait se recentrer sur de l'IA au sens informatique.
 
Il a publié un papier relativement important dans le domaine l'année dernière :  A Path Towards Autonomous Machine Intelligence
 
il dit dans l'intro :  

Citation :

The text is written with as little jargon as possible, and using as little mathematical
prior knowledge as possible, so as to appeal to readers with a wide variety of backgrounds
including neuroscience, cognitive science, and philosophy, in addition to machine learning,
robotics, and other fields of engineering.


 
Il ment ! snif  :sweat:  
 
J'exagère, ça semble relativement abordable. Mais bon, faut pas attaquer le truc comme ça.
 
Et important :  
 
I hope that this piece will help contextualize some of the research in AI whose relevance is sometimes difficult to see.
 
Bref, il est prévu qu'il fasse un cours au collège de France dans le courant de l'année. Je croise les doigt pour qu'il y vulgarise ça justement. on verra bien.
 
 
 

n°69776936
basketor63
Sarkozy en prison
Posté le 15-12-2023 à 15:39:17  profilanswer
 

C'est sur que l'approche neuromorphique s'aventure sur le terrain de la biologie et soulève alors les problématiques ethiques qu'il peut y avoir en biologie, comme le traitement des animaux, la question de leur niveau de conscience.

 

Comme on ne peut pas vraiment controler les animaux comme des machines, juste les entrainer par récompense et coercition, c'est admettre qu'on va forcément dans la direction de la création d'une machine/système qui sera fondamentalement imprévisible et incontrolable.

 

Donc c'est sauter à pieds joints dans les problèmes d'éthiques :D

 

Après sur le plan technique c'est aussi admettre que créer une intelligence pas forcément plus intelligente qu'un animal ou un humain, ce n'est pas forément intéressant, mais en fait réussir à créer une machine con comme un pigeon voyageur, ça reste quand même interessant [:klemton]

 

Donc désolé the_fennec :D, c'est un peu le problème du terme IA en fait, et j'ai pas fait exprès, c'est un article qui est apparut dans mon feed :o

 


Message édité par basketor63 le 15-12-2023 à 15:56:29
n°69777204
rakame
Posté le 15-12-2023 à 16:17:47  profilanswer
 

A partir du moment ou on cherche a créer un système autonome, on accepte par construction a en perdre, du moins en partie, le contrôle. Car c'est justement le but recherché qu'il se contrôle tout seul.
 
C'est pas tellement un problème d'éthique, enfin si, mais c'est surtout de savoir ce qu'on veut. Si on veut avoir le contrôle total sur des systèmes par ailleurs totalement autonome ... On est juste entrain de vouloir le beurre et l'argent du beurre.
 
En pratique, le débat, sous couvert d'éthique, c'est surtout de placer des limites. Et à mon sens, ce débat n'est pas spécial à l'intelligence artificielle. C'est juste que les questions d'IA font peur, génèrent beaucoup de fantasmes et de fait, font passer cette question des limites et de l'éthique au premier plan.
 
C'est pas forcément une mauvaise chose, c'est même plutôt une bonne chose. C'est juste qu'il faut aborder le débat en aillant pris le soin de le démystifier. Sinon, on a grande chance de faire a peu prés n'importe quoi.  
 
Et la conscience, c'est encore autre chose. La j'avoue, en terme de conscience artificielle, je n'ai pas vraiment d'avis. Je vois ça surtout comme une propriété émergente de systèmes cognitif évolué, mais c'est très très limité comme compréhension. Après c'est une question fascinante.  
 
Et sur la question morale, je passe mon tour. C'est pas que j'ai pas des idée là-dessus, mais c'est pas un débat simple à aborder, surtout que le but du topic, c'est surtout de suivre les progrès en IA. Je trouve l'approche raisonnable de chercher a règlementer avant que les problèmes arrivent, tout en laissant quand même à la technologie son potentiel d'innovation. Le problème, quand on exacerbe la compétition entre les acteurs dans la course à l'innovation, c'est qu'on va avoir tendance a limiter les règlementation pour maximiser les retour sur investissement lié a l'innovation.
 
C'est potentiellement contre-productif, car en cas de dérive non contrôlée, cela peut générer une réaction de rejet massif de la technologie. On voit ça assez bien avec les voiture autonomes en ce moment.  
 
https://www.theguardian.com/busines [...] -recall-gm
 
https://www.engineering.com/story/r [...] ge-problem

n°69777313
the_fennec
f3nn3cUs z3rd4
Posté le 15-12-2023 à 16:35:46  profilanswer
 

Pour l'instant les problèmes d'éthique ne m’intéressent pas trop, j'ai l'impression que c'est mettre la charrue avant les bœufs. ChatGPT peut être impressionnant, mais il est très facile de prendre en défaut et bien loin d'être "conscient. C'est un peut comme se poser la question de ce qu'on va faire quand on pourra voyager a la vitesse de la lumière :o
 
Après il faudra quand même réglementer, c'est pas parce qu'un modèle est moisi qu'il ne sera pas utilisé pour refuser la prise en charge d'une assurance aux US... :(
 
 
Je pense qu'essayer de recréer le cerveau comme c'est fait dans l'approche neuromorphique est une bonne idée plutôt que de faire un douzième ChatGPT mais en mieux. Il faut aller dans toutes les directions a la fois. C'est un peu un coup de chance que les GPU soient bon pour le ML, peut être qu'avec des circuit dédié ça sera mieux.
 
Si je dis pas de conneries en ML on passe son temps a multiplier des matrices de float avec toutes les conversions et pertes qui vont avec. Peut être qu'avec l'approche neuromorphique de Deepsouth (ou autre) on pourrait arriver a des circuits plus efficaces comme les fameux CPU/mémoires analogiques.


---------------
Faudra que je teste un jour :o
n°69781198
Nanaki
Posté le 16-12-2023 à 14:34:30  profilanswer
 

Moins pertinent: C'est pour conjurer le mauvais sort qu'ils ont choisi un nom d'apparence opposé à Skynet ?  
Faut se méfier tout de même car si Skynet a envoyé l'humanité au ciel, Deepsouth pourrait tout aussi bien nous la mettre profonde...
 
 [:strife:1]


Message édité par Nanaki le 16-12-2023 à 14:35:05
n°69781265
Coroners
les insoumis emmerdent le FN
Posté le 16-12-2023 à 14:52:34  profilanswer
 

Au niveau zéro

mood
Publicité
Posté le 16-12-2023 à 14:52:34  profilanswer
 

n°69782003
the_fennec
f3nn3cUs z3rd4
Posté le 16-12-2023 à 18:18:53  profilanswer
 

C'est censé être une ref à Deep Blue d'IBM.


---------------
Faudra que je teste un jour :o
n°69794657
zephiel
Apologiste de la paresse
Posté le 18-12-2023 à 19:22:55  profilanswer
 

https://locusmag.com/2023/12/commen [...] ble-is-ai/


---------------
Parler à un con, c'est comme se masturber avec une râpe à fromage : beaucoup de souffrance pour peu de résultat.
n°69811218
fiend41
why not !
Posté le 21-12-2023 à 12:01:40  profilanswer
 

ça promet...
 
"Un tribunal chinois a reconnu qu’une image générée par l’IA pouvait être protégée par le droit d’auteur"
 
https://www.lepoint.fr/innovation/q [...] 4_1928.php
 
pendant qu'elle, PDG, attend toujours ses droits  :p  
 
https://www.francetvinfo.fr/monde/c [...] 86039.html


Message édité par fiend41 le 21-12-2023 à 12:04:07
n°69811256
bulle_d'o
Bonne soeur
Posté le 21-12-2023 à 12:12:51  profilanswer
 

Je n'ai pas accès à l'article mais bien sûr qu'une image générée par IA peut être protégée par la propriété intellectuelle, vu que c'est un humain qui va s'en approprier les droits. C'est bien le photographe qui est l'auteur de son oeuvre, même si c'est l'appareil photo qui a bossé. Bah c'est pareil que l'IA qui n'est qu'un outil :o
 
L'humain est sujet de droit, il a la personnalité juridique de laquelle découle des droits et des obligations/devoirs. Un robot n'est pas sujet de droit, ça reste une chose/bien.
 
Si un jour on reconnait la possibilité à une IA d'être sujet de droit, on aura le même délire avec les animaux.


Message édité par bulle_d'o le 21-12-2023 à 12:15:09

---------------

n°69812638
the_fennec
f3nn3cUs z3rd4
Posté le 21-12-2023 à 16:18:06  profilanswer
 

Ce n'est pas si évident que ça. Aux US ce n'est pas le cas pour l'instant après plusieurs jugements. C'est pas trop le problème d'être un outil, mais plutôt comment les modèles sont faits.
 
Quand au animaux, il y a le cas du singe qui s'est pris en selfie, c'est le singe qui a eu le copyright, pas le gars qui a publié la photo.


---------------
Faudra que je teste un jour :o
n°69817179
fiend41
why not !
Posté le 22-12-2023 à 14:21:06  profilanswer
 

c'est pour ça que je trouve l'amalgame IA (à l'ancienne) et le baratin IA moderne  différents
 
une IA (intelligence autonome)   là oui on franchirait enfin un palier ,    parce que débrancher l'IA quand ça leur chante,  c'est juste un outil amélioré...

n°69873894
fiend41
why not !
Posté le 05-01-2024 à 14:38:50  profilanswer
 

https://www.lemonde.fr/sciences/art [...] 50684.html
 
"« Comme utilisatrice, je peux être impressionnée, mais comme scientifique, il faut voir, car nous n’avons pas encore les détails de ce chatbot. Les résultats demandent à être évalués par des métriques et des tests que la communauté scientifique a élaborés », constate Chloé Clavel, professeure à Télécom Paris, qui prévient que « trop de confiance sur la forme peut abaisser la vigilance sur la véracité de ce qui est produit "
 
amalgame ou pas... c'est quel type de scientifique qui testait avant, 1000 cas différents en éprouvettes afin de trouver une solution ?  :sarcastic:  

n°69875378
the_fennec
f3nn3cUs z3rd4
Posté le 05-01-2024 à 18:45:48  profilanswer
 

J'ai pas accès a l'article, mais c'est souvent le boulot des doctorants de se bouffer ce genre de tests pendant des années... L'AI peut défricher les tests théoriques, mais il faudra bien tester en vrai au bout d'un moment.


---------------
Faudra que je teste un jour :o
n°69882031
fils_de_la​_lumiere
Posté le 07-01-2024 à 12:53:01  profilanswer
 

Le truc le plus dingue que j'ai vu en IA/robotique depuis longtemps. C'est autonome (ça demande un entrainement sur 50 tâches similaires) et le robot coûte "que" 32000$ à produire :

 

https://www.youtube.com/watch?v=HaaZ8ss-HP4

 

https://www.briefstory.io/posts/mob [...] e-stanford

 

Le site du projet : https://mobile-aloha.github.io/

 

Certains passages des vidéos s'appuient sur un guidage humain, d'autres sont en autonomie totale comme dans cette vidéo : https://www.youtube.com/watch?v=zMNumQ45pJ8

 

Dans 5 ans on peut espérer ce genre de robot humanoide avec une apparence plus aboutie, beaucoup moins cher et avec beaucoup moins d'entrainement pour accomplir ses tâches.

Message cité 1 fois
Message édité par fils_de_la_lumiere le 07-01-2024 à 13:32:21

---------------
"Pour chaque problème complexe, il existe une solution simple, directe et fausse" Henri Louis Mencken
n°69883533
the_fennec
f3nn3cUs z3rd4
Posté le 07-01-2024 à 18:29:52  profilanswer
 

Wow pas mal; le coup du zip :love:  
 
Je voudrais bien juste la partie qui plie le ligne tout seul :o


---------------
Faudra que je teste un jour :o
n°69883638
rfv
C'est comme ça ou comme ça ?
Posté le 07-01-2024 à 18:51:28  profilanswer
 

C'est bien de montrer des applications concrètes, utiles et positives, ça change de l'époque DARPA de Boston Dynamics, et aussi de leurs vidéos de gymnastique et dance actuelles.
 
La synergie IA + robotique risque de changer pas mal de choses, et si l'ordi quantique vient s'ajouter l'IA, bien malin qui peut prévoir à quoi ressemblera le monde de demain.

Message cité 1 fois
Message édité par rfv le 07-01-2024 à 19:08:23
n°69883796
fils_de_la​_lumiere
Posté le 07-01-2024 à 19:26:46  profilanswer
 

rfv a écrit :

C'est bien de montrer des applications concrètes, utiles et positives, ça change de l'époque DARPA de Boston Dynamics, et aussi de leurs vidéos de gymnastique et dance actuelles.

 

La synergie IA + robotique risque de changer pas mal de choses, et si l'ordi quantique vient s'ajouter l'IA, bien malin qui peut prévoir à quoi ressemblera le monde de demain.


Ces vidéos existent toujours mais depuis que j'ai compris à quel point c'était scripté ça fait moins rêver...

 

Il faut des robots à la Boston Dynamics‚ 100% autonomes (utilisable avec des prompts) et cerise sur le gâteau‚ auto-apprenants


---------------
"Pour chaque problème complexe, il existe une solution simple, directe et fausse" Henri Louis Mencken
n°69884003
trueslash
(╯°□°)╯︵ MMM
Posté le 07-01-2024 à 20:09:40  profilanswer
 

Moi j'ai beaucoup de mal avec les scénarios qui tendent vers l'anthropomorphisme, je sais que le but est de faire des benchmarks et montrer une vision mais clairement, cuir une crevette sur une poêle, c'est pas le truc qui va m'impressionner. Je préfère quand on pense plus loin.

n°69884046
the_fennec
f3nn3cUs z3rd4
Posté le 07-01-2024 à 20:18:49  profilanswer
 

Pour moi c'est l'inverse, je vois bien ce genre de robots assister une personne handicapée ou un vieux a la maison, faire la "cuisine" me parait plus utile qu'un backflip en portant un sac de munitions :o
 
Après c'est vrai que c'est scripté a mort et loin d'être fiable, mais au moins c'est open-source, il suffit que ça buzz un peu, et une communauté pourrait se constituer... si le prix d'entrée était un peu plus faible.


---------------
Faudra que je teste un jour :o
n°69884130
fils_de_la​_lumiere
Posté le 07-01-2024 à 20:35:13  profilanswer
 

De ce que j'ai pu lire Aloha n'est pas scripté justement contrairement à Atlas.

 

Le chien non scripté à la fin https://www.youtube.com/watch?v=_E1lmq2TTjE :love:


Message édité par fils_de_la_lumiere le 07-01-2024 à 23:45:42

---------------
"Pour chaque problème complexe, il existe une solution simple, directe et fausse" Henri Louis Mencken
n°69887234
kaloskagat​os
Posté le 08-01-2024 à 12:10:00  profilanswer
 

fils_de_la_lumiere a écrit :

Le truc le plus dingue que j'ai vu en IA/robotique depuis longtemps. C'est autonome (ça demande un entrainement sur 50 tâches similaires) et le robot coûte "que" 32000$ à produire :
 
https://www.youtube.com/watch?v=HaaZ8ss-HP4
 
https://www.briefstory.io/posts/mob [...] e-stanford
 
Le site du projet : https://mobile-aloha.github.io/
 
Certains passages des vidéos s'appuient sur un guidage humain, d'autres sont en autonomie totale comme dans cette vidéo : https://www.youtube.com/watch?v=zMNumQ45pJ8
 
Dans 5 ans on peut espérer ce genre de robot humanoide avec une apparence plus aboutie, beaucoup moins cher et avec beaucoup moins d'entrainement pour accomplir ses tâches.


 
 
On voit ici comment est fait l'apprentissage : https://youtu.be/mnLVbwxSdNM?si=K7m [...] INsT&t=136


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°69887341
the_fennec
f3nn3cUs z3rd4
Posté le 08-01-2024 à 12:25:31  profilanswer
 

Faudrait qu'il apprenne a faire pareil, mais avec des servos de modélisme a 5 euros pièce, de bouts de meuble Ikea comme structure et le reste imprimé 3D. :o


---------------
Faudra que je teste un jour :o
n°69913970
the_fennec
f3nn3cUs z3rd4
Posté le 12-01-2024 à 17:04:13  profilanswer
 

The I in LLM stands for intelligence
https://daniel.haxx.se/blog/2024/01 [...] elligence/
 
src: https://hackaday.com/2024/01/12/thi [...] d-airdrop/
 
Le titre m'a bien fait marrer! (le bug report aussi)


Message édité par the_fennec le 12-01-2024 à 17:04:43

---------------
Faudra que je teste un jour :o
n°69916469
senide
I am Pierrot. I am every man.
Posté le 13-01-2024 à 11:09:33  profilanswer
 

Je ne me suis pas encore trop intéressé à l’IA, sauf à lire son utilisation possible dans l’armée. Ça fait vraiment peur. Un esprit décisionnaire plus adapté pour l’utilisation de l’arme nucléaire  :ouch:  
On remplace l’humain pour diriger des machines à tuer  :heink:  
On pourra fabriquer des cibles virtuelles pour tromper l’ennemie, envoyer les missiles comme des boomerangs pour ceux qui ne maîtrisent pas la technologie  :(  
Et ben, quelle belle avancée pour l’humanité  :(

n°69916684
the_fennec
f3nn3cUs z3rd4
Posté le 13-01-2024 à 11:57:18  profilanswer
 

Quel intérêt d'utiliser une IA pour l’utilisation de l’arme nucléaire? A part faire des films?
 
Je vois plutôt une IA piloter un petit drone en autonome et exploser toute seule. Est-ce que c'est pire que des bombes a sous-munitions qui rasent 500m² sans discernement?  
 
War. War never changes.


---------------
Faudra que je teste un jour :o
n°69916746
doutrisor
Posté le 13-01-2024 à 12:09:13  profilanswer
 

the_fennec a écrit :

Pour moi c'est l'inverse, je vois bien ce genre de robots assister une personne handicapée ou un vieux a la maison, faire la "cuisine" me parait plus utile qu'un backflip en portant un sac de munitions :o
 
Après c'est vrai que c'est scripté a mort et loin d'être fiable, mais au moins c'est open-source, il suffit que ça buzz un peu, et une communauté pourrait se constituer... si le prix d'entrée était un peu plus faible.


 
 
Oui, aider qq un à se déplacer, prendre qq chose sans se baisser ou lever les bras... tous les petits trucs du quotidien qu'une personne âgée avec des douleurs chroniques a beaucoup de mal à faire. Une machine capable de s'adapter et d'autonomie jusqu'à un certain point. Avec les avantages de la machine : jamais fatiguée, jamais distraite, toujours là tout le temps. Je vois ça non comme remplacement des soignants et auxiliaires de vie, mais plutôt comme un complément  :)


---------------
"A toute chose sa saison, et à toute affaire sous les cieux, son temps"
n°69926148
basketor63
Sarkozy en prison
Posté le 15-01-2024 à 11:12:45  profilanswer
 

the_fennec a écrit :

Quel intérêt d'utiliser une IA pour l’utilisation de l’arme nucléaire? A part faire des films?

 

Je vois plutôt une IA piloter un petit drone en autonome et exploser toute seule. Est-ce que c'est pire que des bombes a sous-munitions qui rasent 500m² sans discernement?

 

War. War never changes.

 

Je pense qu'il y a un biais qui fait qu'on voit l'IA comme susceptible de recourir à l'arme nucléaire avant l'être humain, mais ça peut tout autant être l'inverse et que l'IA serait plus conservative de part le fait que l'IA ne cederait potentiellement pas à la panique, par exemple.
Après je sais pas si c'est dans ce cadre que l'IA est utilisée, mais c'est généralement à ce genre de problématique qu'on pense.

Message cité 1 fois
Message édité par basketor63 le 15-01-2024 à 11:15:15
n°69926164
the_fennec
f3nn3cUs z3rd4
Posté le 15-01-2024 à 11:15:54  profilanswer
 

basketor63 a écrit :


 
Je pense qu'il y a un biais qui fait qu'on voit l'IA comme susceptible de recourir à l'arme nucléaire avant l'être humain, mais ça peut tout autant être l'inverse de part le fait que l'IA ne cederait potentiellement pas à la panique.


 
https://i.imgur.com/HRmhIDS.gif
 
Meilleur film jamais


---------------
Faudra que je teste un jour :o
n°69934131
crepator4
Deus ex machina
Posté le 16-01-2024 à 14:19:25  profilanswer
 

y'a un topac mistral Ai (7b)qui traine ? vu que ça commence a prendre , je me tate sur une config low cost .. :o
https://www.reddit.com/r/LocalLLaMA [...] nce_setup/

 

(https://www.youtube.com/watch?v=mTFxQFPcYas notamment apres cette video )

 

sinon :
J’automatise mon clonage vidéo avec une IA — C'EST FLIPPANT
https://www.youtube.com/watch?v=dUxD-WYNOyw

 

ChatGPT vient de se faire détrôner par des génies français -- Underscore
https://www.youtube.com/watch?v=mc2Qli9ImOI


Message édité par crepator4 le 16-01-2024 à 14:45:34

---------------
...survivre à ses Medecins...
n°69935012
the_fennec
f3nn3cUs z3rd4
Posté le 16-01-2024 à 16:07:03  profilanswer
 

Non pas de topic technique, c'est ici qu'il y a le plus de vie.
 
Perso je joue pas mal avec mon server maison (Un Ryzen 3600, 48GB RAM, GTX 1650 Super 4GB), j'arrive a faire tourner pas mal de truc image/son/video mais pas eu trop de success avec les LLM a cause de ma VRAM. Je cherche une 3060 12GB en soldes, il y a eu deux offres dans les 280 euros, mais je voulais moins chère :o.
 
Je conseillerais de rester sur du NVidia, tout marche assez facilement sans trop de bidouille. AMD a ROCm mais ça marche pas aussi facilement, si tu vises un gros projet genre LLama tu devrait pouvoir t'en sortir, mais tu auras toujours a bidouiller. Pareil coté Intel Arc, c'est pas chère avec beaucoup de VRAM, Intel fait une extension pour PyTorch ( https://github.com/intel/intel-extension-for-pytorch ), mais si le projet utilise Cuda directement, c'est DTC.
 
Au final une RTX 3060 12GB dans les 300 euros semble être le bon plan. J'ai regardé les GPU pro genre Tesla P100, mais c'est assez chère et pas garantis (et pas de sortie vidéo). Dans les pas chère on trouve des T4 8GB sous les 100 euros sur ebay, mais pour moi le gain est trop faible par rapport a ma 1650. Attention au refroidissement qu'il faudra bidouiller avec les Tesla. Coté RAM il faut viser 32GB et ce que tu as sous la main coté CPU.

Message cité 1 fois
Message édité par the_fennec le 16-01-2024 à 16:07:36

---------------
Faudra que je teste un jour :o
n°69935023
the_fennec
f3nn3cUs z3rd4
Posté le 16-01-2024 à 16:08:28  profilanswer
 

La nouvelle angoisse des cinéphiles se concrétise : le premier film 100 % fait par IA arrive
https://www.numerama.com/tech/16093 [...] rrive.html
https://www.youtube.com/watch?v=6gXnKMLfC3I
 
Ça va c'est pas trop angoissant pour le moment :o


---------------
Faudra que je teste un jour :o
n°69938541
Gimme_Shel​ter
It's just a shot away
Posté le 17-01-2024 à 02:54:22  profilanswer
 

the_fennec a écrit :

La nouvelle angoisse des cinéphiles se concrétise : le premier film 100 % fait par IA arrive
https://www.numerama.com/tech/16093 [...] rrive.html
https://www.youtube.com/watch?v=6gXnKMLfC3I
 
Ça va c'est pas trop angoissant pour le moment :o


 
Franchement hate de voir ce que vont donner ce genre de truc d'ici quelques mois/années.
J'avais testé Runway et Pika et c'était déjà assez impressionnant ! J'avais tenté de faire un simili clip-publicitaire de 30sec, ça rendait pas mal :o

n°69938546
crepator4
Deus ex machina
Posté le 17-01-2024 à 03:09:55  profilanswer
 

the_fennec a écrit :

Non pas de topic technique, c'est ici qu'il y a le plus de vie.

 

Perso je joue pas mal avec mon server maison (Un Ryzen 3600, 48GB RAM, GTX 1650 Super 4GB), j'arrive a faire tourner pas mal de truc image/son/video mais pas eu trop de success avec les LLM a cause de ma VRAM. Je cherche une 3060 12GB en soldes, il y a eu deux offres dans les 280 euros, mais je voulais moins chère :o.

 

Je conseillerais de rester sur du NVidia, tout marche assez facilement sans trop de bidouille. AMD a ROCm mais ça marche pas aussi facilement, si tu vises un gros projet genre LLama tu devrait pouvoir t'en sortir, mais tu auras toujours a bidouiller. Pareil coté Intel Arc, c'est pas chère avec beaucoup de VRAM, Intel fait une extension pour PyTorch ( https://github.com/intel/intel-extension-for-pytorch ), mais si le projet utilise Cuda directement, c'est DTC.

 

Au final une RTX 3060 12GB dans les 300 euros semble être le bon plan. J'ai regardé les GPU pro genre Tesla P100, mais c'est assez chère et pas garantis (et pas de sortie vidéo). Dans les pas chère on trouve des T4 8GB sous les 100 euros sur ebay, mais pour moi le gain est trop faible par rapport a ma 1650. Attention au refroidissement qu'il faudra bidouiller avec les Tesla. Coté RAM il faut viser 32GB et ce que tu as sous la main coté CPU.

 


Le coté carte graphiqye me peinait , mais y'en a pas forcement besoin pour debuter apparemment

 

Dans des coms videos :

Citation :


il y a 9 jours
Très intéressant . Les modèles Mistral 8x7b semblent aussi performant dans les benchtests que chatGPT 3.5 mais avec une taille permettant de tourner en local, certes avec une très bonne carte graphique, mais ça ouvre des perspectives énormes. Et tout ça est fine-tunable. Cocorico , Mistral est français et les models sont open sources..

 

il y a 9 jours
Hello Eric, Très sympa Mistral et plus léger qu'on le pense, il tourne plutôt bien sur un PC de moyenne puissance sans carte graphique dédiée, un i5 récent ou un i7 plus ancien, 16 Mo de RAM l'emmèneront. Pour le comparatif avec GPT 3.5, il fait de sacrées fautes et il invente de nombreux mots, cela s'arrangera, c'est sûr ! Sinon c'est vraiment génial d'avoir cela en libre à la maison

 

L'IA enfin libérée ! Un ChatGPT gratuit, local et open source
https://www.youtube.com/watch?v=iVYP2lyreAA

 


'dit :
Well, It depends on what i5 you have, and how much time you got.
For example I have a Thinkpad x250 with i5 5300 2c\4t 2.3ghz, and I'm getting around 0.3-0.5 tokens in sec for Mistral 7b models.

 


Running Mistral-7B locally on my 2020 intel i5 macbook pro 13" w/ 16GB RAM
This is actually usable, wow    ~5 tok/s
https://twitter.com/aamir1rasheed/s [...] 5002120410
https://www.01net.com/tests/apple-m [...] 61792.html  --> Intel Core i5-1038NG7

 

https://www.reddit.com/r/LocalLLaMA [...] pouvez/fr/

Message cité 1 fois
Message édité par crepator4 le 21-01-2024 à 06:50:31

---------------
...survivre à ses Medecins...
n°69938820
the_fennec
f3nn3cUs z3rd4
Posté le 17-01-2024 à 08:10:15  profilanswer
 

crepator4 a écrit :


 
 
Le coté carte graphiqye me peinait , mais y'en a pas forcement besoin pour debuter apparemment
 
Dans des coms videos :

Citation :


il y a 9 jours
Très intéressant . Les modèles Mistral 8x7b semblent aussi performant dans les benchtests que chatGPT 3.5 mais avec une taille permettant de tourner en local, certes avec une très bonne carte graphique, mais ça ouvre des perspectives énormes. Et tout ça est fine-tunable. Cocorico , Mistral est français et les models sont open sources..  
 
il y a 9 jours
Hello Eric, Très sympa Mistral et plus léger qu'on le pense, il tourne plutôt bien sur un PC de moyenne puissance sans carte graphique dédiée, un i5 récent ou un i7 plus ancien, 16 Mo de RAM l'emmèneront. Pour le comparatif avec GPT 3.5, il fait de sacrées fautes et il invente de nombreux mots, cela s'arrangera, c'est sûr ! Sinon c'est vraiment génial d'avoir cela en libre à la maison  


 
L'IA enfin libérée ! Un ChatGPT gratuit, local et open source
https://www.youtube.com/watch?v=iVYP2lyreAA


 
Tout dépends de ce que tu veux faire pour la CG. Si c'est juste jouer un peu avec les LLM, tu peux le faire au CPU mais faut pas être pressé, t'as quoi comme config? Tu voudrais faire quoi?
Pour débuter tu peux essayer ça:
https://lmstudio.ai/


---------------
Faudra que je teste un jour :o
n°69943374
trueslash
(╯°□°)╯︵ MMM
Posté le 17-01-2024 à 17:52:26  profilanswer
 

the_fennec a écrit :

La nouvelle angoisse des cinéphiles se concrétise : le premier film 100 % fait par IA arrive
https://www.numerama.com/tech/16093 [...] rrive.html
https://www.youtube.com/watch?v=6gXnKMLfC3I
 
Ça va c'est pas trop angoissant pour le moment :o


 
Je pense pas que ce sont les gens qui font de la création artistique de haute qualité qui doivent être inquiets, par contre ya de plus en plus de trucs qui seront automatisés, la question qu'il faut qu'on se pose à mon avis c'est si on tire les prix vers le bas en automatisant, est-ce que l'industrie aura toujours les moyens de financer des films et séries de bonne qualité.  
 
Je sais plus où j'avais lu qu'il existait des tranches de budgets de films où il est de plus en plus difficile de trouver une rentabilité, est-ce que c'est un effet de la gestion des coûts ?

n°69943778
ese-aSH
Welcome To Avalon
Posté le 17-01-2024 à 18:58:06  profilanswer
 

trueslash a écrit :


 
Je pense pas que ce sont les gens qui font de la création artistique de haute qualité qui doivent être inquiets, par contre ya de plus en plus de trucs qui seront automatisés, la question qu'il faut qu'on se pose à mon avis c'est si on tire les prix vers le bas en automatisant, est-ce que l'industrie aura toujours les moyens de financer des films et séries de bonne qualité.  
 
Je sais plus où j'avais lu qu'il existait des tranches de budgets de films où il est de plus en plus difficile de trouver une rentabilité, est-ce que c'est un effet de la gestion des coûts ?


Il y a déjà énormément de choses 'automatisées' dans la création de films.  
Les IA vont clairement être un plus pour les studios qui réussiront à les intégrer dans leurs pipelines existants mais c'est un sujet que les 'gros' abordent avec circonspection pour le moment.
 
Après ca permettra l'émergence d'un 'cinéma indépendant' ou une personne seule peut réussir à ficeller un long métrage dans son coin (je fais un parallèle avec l'industrie du jeu vidéos ou la notion d'indépendant n'est pas la meme qu'au cinéma actuellement). Ce qui n'empechera pas les AAA cinématographique de toujours exister.


---------------
On a tous un avis, le donne pas.
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  31  32  33  ..  63  64  65  66  67  68

Aller à :
Ajouter une réponse
 

Sujets relatifs
Intelligence artificielle : conceptualisation et formulationintelligence artificielle pour jeu puissance4 avec matlab
L'intelligence artificielle est-elle la bien venue parmis les hommes.Intelligence artificielle....demain
robot et intelligence artificielleINTELLIGENCE ARTIFICIELLE
Intelligence artificielle : vous y croyez ?Intelligence artificielle
l'intelligence artificielleL'intelligence artificielle !
Plus de sujets relatifs à : Intelligence artificielle


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)