Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2946 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  38  39  40  ..  68  69  70  71  72  73
Auteur Sujet :

Intelligence artificielle

n°70685221
homnibus
Posté le 26-05-2024 à 10:03:31  profilanswer
 

Reprise du message précédent :
Drap

mood
Publicité
Posté le 26-05-2024 à 10:03:31  profilanswer
 

n°70685842
the_fennec
f3nn3cUs z3rd4
Posté le 26-05-2024 à 11:56:04  profilanswer
 

TotalRecall a écrit :


Au delà du risque effectif, parfois c'est purement légal. Quand t'es audité par la DGA, l'OTAN et des gens sérieux comme ça, pour certaines choses t'as pas forcément le choix : pas d'outils en cloud ou "public", tout en On premise.
C'est pas forcément plus "sûr" mais c'est plus "maitrisé", t'ouvre que ce qui a besoin d'être ouvert et tu fous tes couches de VPN, cryptage, clés et droits en tous genres là où tu les veux sans t'inquiéter de si demain tel ou tel opérateur "public" ne serait pas la cible d'un groupe de hackers même si t'étais pas toi même spécifiquement visé.


 
Je sais pas pour la DGA et l'OTAN, mais ma boite a la certification Fedramp et on tourne sur AWS qui permet d'avoir comme client des entités du gouvernement US. Il y a une extension DoD (qu'on a pas) pour les trucs militaires. Je pense que c'est bien plus facile d'obtenir et de maintenir des certifications comme ça en mode cloud qu'en premise. Perso pour mon service on a juste eu a déployer sur un compte AWS dédié, un peu de galère TLS/FIPS et nettoyage de logs, rien de très compliqué.
 
Obtenir ces certifications n'a rien de "très compliqué" techniquement, c'est beaucoup de lecture, d'audit et de paperasse. Si on avait tout fait en premise on y serait encore...


---------------
Faudra que je teste un jour :o
n°70710480
verdoux
And I'm still waiting
Posté le 29-05-2024 à 20:17:26  profilanswer
 

Citation :


In a recent interview on "The Ted AI Show" podcast, former OpenAI board member Helen Toner said the OpenAI board was unaware of the existence of ChatGPT until they saw it on Twitter.


https://arstechnica.com/information [...] er-member/
 
Ça sent la boîte bien gérée et on peut lui faire confiance pour maîtriser les développements de l'IA :o

n°70710642
the_fennec
f3nn3cUs z3rd4
Posté le 29-05-2024 à 20:42:45  profilanswer
 

verdoux a écrit :

Citation :


In a recent interview on "The Ted AI Show" podcast, former OpenAI board member Helen Toner said the OpenAI board was unaware of the existence of ChatGPT until they saw it on Twitter.


https://arstechnica.com/information [...] er-member/
 
Ça sent la boîte bien gérée et on peut lui faire confiance pour maîtriser les développements de l'IA :o


 
Gérée c'est vite dit :o Ca me surprends pas plus que ça, bien souvent les membres de la direction des grosses boites n'ont aucune idée de ce que la boite fait vraiment... A leur place je me serait fait tout petit, qu'ils sachent pas ce que leur boite fait, c'est déjà la honte, s'en plaindre publiquement, faut vraiment être con :lol: ChatGPT s'est pas fait en un week-end, ils se sont jamais posé la question de ce que faisaient leurs employés avec des tonnes de serveurs et leurs milliers de GPUs?


---------------
Faudra que je teste un jour :o
n°70711664
trueslash
(╯°□°)╯︵ MMM
Posté le 30-05-2024 à 00:44:19  profilanswer
 

Possible que le board n'ait pas compris ce que la boite faisait ou du moins n'ait pas compris qu'un LLM puisse être tuné pour être un chatbot. Avant chatGPT, ça n'était pas du tout évident comme usage.

n°70712060
the_fennec
f3nn3cUs z3rd4
Posté le 30-05-2024 à 08:24:16  profilanswer
 

trueslash a écrit :

Possible que le board n'ait pas compris ce que la boite faisait ou du moins n'ait pas compris qu'un LLM puisse être tuné pour être un chatbot. Avant chatGPT, ça n'était pas du tout évident comme usage.


 
Une board est censée donner les grandes directions et faire des choix stratégiques. Comment ils peuvent faire ça si ils ne comprennent même pas ce qu'ils font? Comment ensuite justifier de leur compétence pour virer Sam Altman? Qu'ils n'aient pas entendu parlé de ChatGPT, c'est leur faute, c'est leur travail de s'intéresser a ce qu'ils dirigent. Qu'ils ne sachent pas tuner un LLM c'est normal, mais ils devraient quand même avoir une petite idée de ce que c'est. Ils ont quand même accès a plus de resource que nous :o
 
J'ai assisté a quelques réunions avec des membres de la board de ma boite (avant un gros remaniement et qu'ils soient tous virés) et j'avais halluciné sur certaines des discussions, complètement déconnectées des réalités de l'entreprise. On sentait bien certaines personnes arrivée par copinage qui ne comprenaient absolument rien mais balançaient les termes a la mode au hazard. Ensuite ça matérialisait des directions de développement (débiles) pendant des années, ça fini par plus d'un millier de licenciement...


Message édité par the_fennec le 30-05-2024 à 08:24:31

---------------
Faudra que je teste un jour :o
n°70761686
Sebwap
... . -... .-- .- .--.
Posté le 06-06-2024 à 16:41:47  profilanswer
 
n°70761834
the_fennec
f3nn3cUs z3rd4
Posté le 06-06-2024 à 17:03:13  profilanswer
 


 
Welcome :D


---------------
Faudra que je teste un jour :o
n°70761971
Sebwap
... . -... .-- .- .--.
Posté le 06-06-2024 à 17:22:01  profilanswer
 

:jap:
Connaissances de base de quelques algorithmes de ML et de leur utilisation avec les bibliothèques python de mon côté.
Pas mal d'auto formation via la plateforme Coursera aussi.

 

J'attaque dans 15 jours un parcours certifiant via mon job pour un équivalent master en IA et machine learning.

 

Ça devrait m'occuper pour l'année à venir :)


Message édité par Sebwap le 06-06-2024 à 17:22:25
n°70762262
the_fennec
f3nn3cUs z3rd4
Posté le 06-06-2024 à 18:07:12  profilanswer
 

Cool, c'est une formation interne ou par une boite de formation?
Combien de temps ça dure?


---------------
Faudra que je teste un jour :o
mood
Publicité
Posté le 06-06-2024 à 18:07:12  profilanswer
 

n°70762516
Sebwap
... . -... .-- .- .--.
Posté le 06-06-2024 à 18:43:41  profilanswer
 

the_fennec a écrit :

Cool, c'est une formation interne ou par une boite de formation?
Combien de temps ça dure?


Un cursus d'un an à base de 2 jours par semaine.
La boîte c'est datascientest.

n°70764147
the_fennec
f3nn3cUs z3rd4
Posté le 06-06-2024 à 23:02:32  profilanswer
 

Bien! Ca fait une bonne expérience.


---------------
Faudra que je teste un jour :o
n°70767150
crepator4
Deus ex machina
Posté le 07-06-2024 à 14:26:17  profilanswer
 

Citation :

Un colosse de l'IA
Selon les médias locaux, le superordinateur sera installé dans l'ancienne usine de fabrication d'Electrolux, géant suédois de l'électroménager, qui occupe une importante superficie de 72 900 mètres carrés. À titre de comparaison, le supercalculateur Frontier, considéré comme le plus grand du monde, s'étend sur 678 mètres carrés.


https://www.msn.com/fr-fr/lifestyle [...] -BB1nNR2y?
 
 [:muskmusk:7]


Message édité par crepator4 le 07-06-2024 à 14:27:40

---------------
...survivre à ses Medecins...
n°70767424
Sebwap
... . -... .-- .- .--.
Posté le 07-06-2024 à 14:56:57  profilanswer
 

the_fennec a écrit :

Bien! Ca fait une bonne expérience.


Plus qu'une expérience j'espère, ça s'engage vraiment comme un parcours d'upskilling comme ils disent :)

n°70767613
the_fennec
f3nn3cUs z3rd4
Posté le 07-06-2024 à 15:13:57  profilanswer
 

Sebwap a écrit :


Plus qu'une expérience j'espère, ça s'engage vraiment comme un parcours d'upskilling comme ils disent :)


 
Oui, je voulais dire experience dans le sens "travail", pas "on test des trucs" :o
 
N'hésite pas a faire un retour sur ta formation :jap:.


---------------
Faudra que je teste un jour :o
n°70791651
_tchip_
Posté le 10-06-2024 à 15:12:52  profilanswer
 

Je cherche une solution pour générer du schema electrique avec un LLM.
 
gpt me parle de faire du GPT <> pyhton (SKiDL) <> kicad  
 
des habitués ?


---------------
He likes the taste...
n°70792165
kaloskagat​os
Posté le 10-06-2024 à 16:07:20  profilanswer
 

Ca doit être comme générer des schémas en PlantUML avec un LLM :D
 
 
https://rehost.diberie.com/Picture/Get/f/292652
 

Spoiler :


Voici le diagramme PlantUML qui illustre les interactions entre un modèle de langage à grande échelle (LLM), SKiDL, et KiCad pour la génération de schémas électriques :
 
@startuml
!define LLM #Gold
!define SKiDL #LightBlue
!define KiCad #LightGreen
 
skinparam classAttributeIconSize 0
skinparam DefaultFontSize 14
skinparam BackgroundColor transparent
 
class LLM {
    +Interpréter les spécifications
    +Générer le code SKiDL
}
 
class SKiDL {
    +Convertir en Netlist
    +Valider le circuit
}
 
class KiCad {
    +Importer Netlist
    +Générer le schéma électrique
    +Conception PCB
}
 
LLM ..> SKiDL : Génère\nle code
SKiDL ..> KiCad : Exporte\nla Netlist
@enduml



---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°70809973
rakame
Posté le 12-06-2024 à 08:56:09  profilanswer
 

Yann LeCun en interview plutôt grand public. C'est assez sympa, c'est la premiere fois que je l'entend en dehors de ses conf de vulgarisation plus technique.

 

Le père fondateur du Deep Learning - Yann Le Cun
https://www.youtube.com/watch?v=gz876KIYeEA

 

Il fait pas mal de pub pour Meta et ses lunettes, dit qu'un chat de gouttière est plus intelligent qu'un chat GPT, que les LLM sont un peu comme les idiots savants qui apprenaient tout par cœur à l'école sans chercher à comprendre. Bref, il enfonce pas mal d'idée reçue sur l'IA et les LLM qui sont autant de porte ouvertes pour ceux qui connaisse déjà tout ça, mais ça reste intéressant car il est rigoureux scientifiquement dans sa critique des LLM, et plutôt cool à écouter.

 

Message cité 1 fois
Message édité par rakame le 12-06-2024 à 08:58:07
n°70854851
Coroners
les insoumis emmerdent le FN
Posté le 17-06-2024 à 15:48:08  profilanswer
 

je veux croire en la voiture autonome de niveau 5 pour 2030

 

j'ai aucune connaissance dans le domaine, si ce n'est les vidéos de Sciences étonnantes sur le sujet, mais je me dis que c'est possible :o

 

je sais pas comment ils entrainent actuellement leurs modèles pour cet usage, mais si on devait calquer le modèle des LLM à cette branche, ça voudrait dire emmagasiner tout un tas de données de véhicules en circulation pour entrainer un modèle

 

on part du principe qu'on fige à peu près les dimensions de la voiture et les capteurs embarqués, et là, on fait conduire des dizaines de milliers de kilomètres plein de voitures semblables par des humains, dans tous les milieux, urbains, semi urbains... et on enregistre tout ce qui se passe au niveau des capteurs et on l'associe à l'action du conducteur, avec beaucoup de données de ce type, je me dit que c'est obligatoire qu'on arrive à faire émerger une capacité de conduite à partir de toutes ces données recueillies associées au comportement du véhicule et de l'action du conducteur

 

je vois ces IA comme des cerveaux vierges auxquels il faut appliquer des stimuli pour qu'ils développent une capacité spécifique

 

plus on arrivera à mettre au point des structures/concepts "neuronaux" complexes ou avancés, plus on se rapprochera d'un cerveau biologique, même si c'est pas forcément vers ça qu'il faut tendre, mais il semble quand même y avoir des similitudes

 

Message cité 2 fois
Message édité par Coroners le 17-06-2024 à 15:49:01
n°70855040
trueslash
(╯°□°)╯︵ MMM
Posté le 17-06-2024 à 16:15:13  profilanswer
 

Les LLMs font beaucoup d'erreurs, je ne sais pas si c'est la bonne direction. :D

n°70855108
Gottorp
Burn, burn, yes ya gonna burn
Posté le 17-06-2024 à 16:22:28  profilanswer
 

[:eponge]  
 
Sujet intéressant (je suis en plein dedans, ma boite développant un LLM - basé sur Mistral 7B) dans un domaine particulier (et qui tourne "en prod" tt les jours)


---------------
Les convictions sont des ennemis de la vérité plus dangereux que les mensonges
n°70855272
the_fennec
f3nn3cUs z3rd4
Posté le 17-06-2024 à 16:43:44  profilanswer
 

Bienvenue :jap:
 
Perso je solderais bien mon CPF pour faire une (bonne :o) formation en ML. Il y a des opportunités dans ma boite, mais j'ai un peu peur de sauter le pas. Jouer avec Stable Diffusion ou des LLM c'est une chose, bosser dedans en est une autre. J'ai un peu peur que ça me plaise pas, les maths c'est pas mon truc :D


---------------
Faudra que je teste un jour :o
n°70855355
Sebwap
... . -... .-- .- .--.
Posté le 17-06-2024 à 16:54:29  profilanswer
 

Coroners a écrit :

je veux croire en la voiture autonome de niveau 5 pour 2030
 
j'ai aucune connaissance dans le domaine, si ce n'est les vidéos de Sciences étonnantes sur le sujet, mais je me dis que c'est possible :o
 
je sais pas comment ils entrainent actuellement leurs modèles pour cet usage, mais si on devait calquer le modèle des LLM à cette branche, ça voudrait dire emmagasiner tout un tas de données de véhicules en circulation pour entrainer un modèle
 
on part du principe qu'on fige à peu près les dimensions de la voiture et les capteurs embarqués, et là, on fait conduire des dizaines de milliers de kilomètres plein de voitures semblables par des humains, dans tous les milieux, urbains, semi urbains... et on enregistre tout ce qui se passe au niveau des capteurs et on l'associe à l'action du conducteur, avec beaucoup de données de ce type, je me dit que c'est obligatoire qu'on arrive à faire émerger une capacité de conduite à partir de toutes ces données recueillies associées au comportement du véhicule et de l'action du conducteur
 
je vois ces IA comme des cerveaux vierges auxquels il faut appliquer des stimuli pour qu'ils développent une capacité spécifique
 
plus on arrivera à mettre au point des structures/concepts "neuronaux" complexes ou avancés, plus on se rapprochera d'un cerveau biologique, même si c'est pas forcément vers ça qu'il faut tendre, mais il semble quand même y avoir des similitudes  
 


 
Je suis pas du tout certain que les modèles en conduite autonome qui existent se basent sur un apprentissage basé sur des millions de km "humains" enregistrés; ça me semble plus simple de coder ça à partir des règles du code de la route + des observations des divers capteurs, sans aller chercher comment se comporterait un humain dans cette situation précise.

n°70855479
rakame
Posté le 17-06-2024 à 17:13:07  profilanswer
 

Coroners a écrit :

je veux croire en la voiture autonome de niveau 5 pour 2030
 
j'ai aucune connaissance dans le domaine, si ce n'est les vidéos de Sciences étonnantes sur le sujet, mais je me dis que c'est possible :o
 
je sais pas comment ils entrainent actuellement leurs modèles pour cet usage, mais si on devait calquer le modèle des LLM à cette branche, ça voudrait dire emmagasiner tout un tas de données de véhicules en circulation pour entrainer un modèle
 
on part du principe qu'on fige à peu près les dimensions de la voiture et les capteurs embarqués, et là, on fait conduire des dizaines de milliers de kilomètres plein de voitures semblables par des humains, dans tous les milieux, urbains, semi urbains... et on enregistre tout ce qui se passe au niveau des capteurs et on l'associe à l'action du conducteur, avec beaucoup de données de ce type, je me dit que c'est obligatoire qu'on arrive à faire émerger une capacité de conduite à partir de toutes ces données recueillies associées au comportement du véhicule et de l'action du conducteur
 
je vois ces IA comme des cerveaux vierges auxquels il faut appliquer des stimuli pour qu'ils développent une capacité spécifique
 
plus on arrivera à mettre au point des structures/concepts "neuronaux" complexes ou avancés, plus on se rapprochera d'un cerveau biologique, même si c'est pas forcément vers ça qu'il faut tendre, mais il semble quand même y avoir des similitudes  
 


 
Faut que tu vois l'interview de LeCun que j'ai posté plus haut, il explique justement les limitations des LLM, en particulier lié au fait qu'il n'ont pas de représentation interne du monde physique et qu'il sont incapable de planifier. C'est justement sur ces points qu'il souhaite que la recherche en IA progresse, et dans ce cadre qu'il a publié son papier (un genre de manifeste) : A Path Towards Autonomous Machine Intelligence et qu'il vulgarise dans cette conf au collége de france :
 
https://www.college-de-france.fr/fr [...] -planifier
 
Cela dit, LeCun explique bien que ce que font les LLM en terme de traitement de l'information, tout aussi impressionnant que ça peut nous paraitre, c'est rien du tout a coté de ce que fait un cerveau humain, même d'un enfant (ou même un chat de gouttière :o ). on est dupé par le fait qu'un LLM traite du langage, et que le langage est une sorte d'abstraction du monde physique, une version extrêmement simplifié de celui-ci et qu'il est donc "facile" de le manipuler de façon statistique.
 
Sans oublier qu'un cerveau humain c'est a peu prés une trentaine de watt en terme de conso d'énergie. Donc, bon, une fois les ordres de grandeur posés, je pense qu'on peut dire que l'on passe surement a coté de quelque chose de fondamental encore et que la route est longue avant d'arriver au bout du chemin qu'il désigne. C'est pour ça que lorsque tu dit :
 

Citation :

je vois ces IA comme des cerveaux vierges auxquels il faut appliquer des stimuli pour qu'ils développent une capacité spécifique


 
C'est faux, et il est important de bien démystifier ça, et c'est ce que s'évertue à faire Yann LeCun et c'est ce pourquoi il est important de l'écouter quand on réfléchi a ces questions, ne serait-ce que pour éviter de continuer propager des idées fausses et des croyances au sujet des IA générative et des LLM en particulier. Et si tu te demande qui c'est ce type, je t'encourage a lire sa fiche wiki : https://fr.wikipedia.org/wiki/Yann_Le_Cun

n°70855507
_tchip_
Posté le 17-06-2024 à 17:16:47  profilanswer
 

trueslash a écrit :

Les LLMs font beaucoup d'erreurs, je ne sais pas si c'est la bonne direction. :D

on a déjà trouvé le message d'excuse en cas de bug :o


Message édité par _tchip_ le 17-06-2024 à 17:17:02

---------------
He likes the taste...
n°70855613
the_fennec
f3nn3cUs z3rd4
Posté le 17-06-2024 à 17:34:43  profilanswer
 

C'est surtout que les résultats d'un LLM ne sont pas adaptés a la conduite, ils donnent le mot suivant le plus probable en fonction du contexte. Genre "L'éléphant est plus xxx" -> grand
 
Pour la conduite c'est plutôt la classification visuelle qui est intéressante, le truc détecté a la position xyz1 est un piéton a 98%, position xyz2 est un feu rouge a 72%, etc. C'est la ou avoir des millions de km d'images de route divers et variées pour faire son training est plus intéressant qu'un export de Reddit et Wikipedia :o.


---------------
Faudra que je teste un jour :o
n°70855632
ese-aSH
Welcome To Avalon
Posté le 17-06-2024 à 17:39:04  profilanswer
 

the_fennec a écrit :

C'est surtout que les résultats d'un LLM ne sont pas adaptés a la conduite, ils donnent le mot suivant le plus probable en fonction du contexte. Genre "L'éléphant est plus xxx" -> grand

 

Pour la conduite c'est plutôt la classification visuelle qui est intéressante, le truc détecté a la position xyz1 est un piéton a 98%, position xyz2 est un feu rouge a 72%, etc. C'est la ou avoir des millions de km d'images de route divers et variées pour faire son training est plus intéressant qu'un export de Reddit et Wikipedia :o.


Pas besoin d'image de route on a largement les moyens de créer des simulations pour ça. Et la plupart des situations (en particulier lorsqu'elle sont spécifiques comme la conduite) peuvent se représenter sous forme de language, donc la technologie pourrait être adéquate.


---------------
On a tous un avis, le donne pas.
n°70855815
Coroners
les insoumis emmerdent le FN
Posté le 17-06-2024 à 18:05:12  profilanswer
 

rakame a écrit :


 
Faut que tu vois l'interview de LeCun que j'ai posté plus haut, il explique justement les limitations des LLM, en particulier lié au fait qu'il n'ont pas de représentation interne du monde physique et qu'il sont incapable de planifier. C'est justement sur ces points qu'il souhaite que la recherche en IA progresse, et dans ce cadre qu'il a publié son papier (un genre de manifeste) : A Path Towards Autonomous Machine Intelligence et qu'il vulgarise dans cette conf au collége de france :
 
 


je l'ai vu  :jap:  
 
et à un moment il aborde ce sujet, je me souviens
 
quand je parle des LLM, j'aurais du plutot parler de deep learning tout simplement, je ne sous entendais pas dans mon propos qu'on pouvait utiliser la techno LLM pour l'apprentissage de la conduite autonome
 
pour ce qui est du gap entre un réseau de neurones artificiels et un cerveau humain, j'ai conscience du fossé qui les sépare, tant en énergie requise pour son fonctionnement qu'en terme de connexions, je voulais juste parler de la conception d'éléments artificiels reprenant le principe de zone du cerveau jouant un rôle spécifique dans le traitement de l'information, mais cela semble évident, sans qu'on est besoin d'en appeler au cerveau pour servir d'exemple, ça coule de source qu'un tel système requière l'agencement de différent "modules" jouant chacun un rôle spécifique dans la chaine d'analyse

n°70855826
Coroners
les insoumis emmerdent le FN
Posté le 17-06-2024 à 18:06:09  profilanswer
 

trueslash a écrit :

Les LLMs font beaucoup d'erreurs, je ne sais pas si c'est la bonne direction. :D


oui, je metionne les LLM, mais c'est plus le deep learning en général que j'aurais du mentionner, effectivement

Message cité 1 fois
Message édité par Coroners le 17-06-2024 à 18:06:53
n°70855840
Coroners
les insoumis emmerdent le FN
Posté le 17-06-2024 à 18:08:01  profilanswer
 

Gottorp a écrit :

 
 
Sujet intéressant (je suis en plein dedans, ma boite développant un LLM - basé sur Mistral 7B) dans un domaine particulier (et qui tourne "en prod" tt les jours)


ah c'est top ça !  :ouch:

n°70855858
the_fennec
f3nn3cUs z3rd4
Posté le 17-06-2024 à 18:08:55  profilanswer
 

ese-aSH a écrit :


Pas besoin d'image de route on a largement les moyens de créer des simulations pour ça. Et la plupart des situations (en particulier lorsqu'elle sont spécifiques comme la conduite) peuvent se représenter sous forme de language, donc la technologie pourrait être adéquate.


 
Tu peux pas tout simuler, c'est le problème. En plus ton "LLM" n'apprendrait qu'a conduire dans un environnement simulé, une fois sur la route il ferait n'importe quoi.


---------------
Faudra que je teste un jour :o
n°70855891
Coroners
les insoumis emmerdent le FN
Posté le 17-06-2024 à 18:12:02  profilanswer
 

pas sur que la simulation permette en effet de pouvoir recréer suffisamment précisément la complexité du monde réel dans le cadre d'un agent de conduite autonome

 

la conduite autonome, c'est vraiment un truc qui changerait en profondeur la société à l'échelle mondiale, et vu les progrès dans le domaine de l'IA, on peut espérer que ça arrive plus rapidement que ce qu'on pouvait espérer, j'y crois en tout cas


Message édité par Coroners le 17-06-2024 à 18:12:15
n°70855969
kaloskagat​os
Posté le 17-06-2024 à 18:23:20  profilanswer
 

Sebwap a écrit :


 
Je suis pas du tout certain que les modèles en conduite autonome qui existent se basent sur un apprentissage basé sur des millions de km "humains" enregistrés; ça me semble plus simple de coder ça à partir des règles du code de la route + des observations des divers capteurs, sans aller chercher comment se comporterait un humain dans cette situation précise.


 
Le gars qui a hacké l'iPhone, Geohot, a fondé une boîte et vend un kit pour rendre une voiture autonome https://comma.ai/openpilot
 
Vidéo qui date de 8 ans, dans ce passage il explique qu'il est en phase d'apprentissage de la conduite des humains https://youtu.be/KTrgRYa2wbI?si=EjE [...] kcst&t=239
 
Bon, ps sûr que ce soit la même approche dans les grosses boîtes.


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°70856001
Coroners
les insoumis emmerdent le FN
Posté le 17-06-2024 à 18:28:54  profilanswer
 

kaloskagatos a écrit :


 
Le gars qui a hacké l'iPhone, Geohot, a fondé une boîte et vend un kit pour rendre une voiture autonome https://comma.ai/openpilot
 
Vidéo qui date de 8 ans, dans ce passage il explique qu'il est en phase d'apprentissage de la conduite des humains https://youtu.be/KTrgRYa2wbI?si=EjE [...] kcst&t=239
 
Bon, ps sûr que ce soit la même approche dans les grosses boîtes.


j'ai l'impression que c'est ce dont je parlais, faire conduire des humains pour entrainer un modèle
 
j'ai hate de savoir comment les grosses boites ont abordé la chose

n°70856037
rakame
Posté le 17-06-2024 à 18:33:36  profilanswer
 

Coroners a écrit :


je l'ai vu  :jap:  
 
et à un moment il aborde ce sujet, je me souviens
 
quand je parle des LLM, j'aurais du plutot parler de deep learning tout simplement, je ne sous entendais pas dans mon propos qu'on pouvait utiliser la techno LLM pour l'apprentissage de la conduite autonome
 
pour ce qui est du gap entre un réseau de neurones artificiels et un cerveau humain, j'ai conscience du fossé qui les sépare, tant en énergie requise pour son fonctionnement qu'en terme de connexions, je voulais juste parler de la conception d'éléments artificiels reprenant le principe de zone du cerveau jouant un rôle spécifique dans le traitement de l'information, mais cela semble évident, sans qu'on est besoin d'en appeler au cerveau pour servir d'exemple, ça coule de source qu'un tel système requière l'agencement de différent "modules" jouant chacun un rôle spécifique dans la chaine d'analyse


 
c'est là (timecode 1h20) https://www.youtube.com/watch?v=gz876KIYeEA&t=4815s
 
Il explique que les techno qui font ça actuellement "trichent" en entrainant de façon supervisé des circuit de neurones convolutifs (le truc qu'il a "inventé" justement et qui a réveillé la recherche en IA dans les années 80)
 
Si tu préfère, c'est de la triche parce que sont des humains qui ont fait la partie "intelligente" de l'apprentissage des machines.  
 
Perso, je considère que la difficulté de la conduite autonome ne vient pas de la tache de conduite elle-même, mais du fait d'être plongé dans un trafic constitué majoritairement d'intelligence de type humaine au volant de machines dont le déplacement mobilise des quantité importante d’énergie cinétique la rendant létale, et que cette intelligence de type humaine que l'on appelle un automobiliste est très loin d'avoir un comportement prévisible et rationnel. Ce qui rend très dangereux le fait de se déplacer dans un tel environnement sans partager cette espèce de surcouche culturelle propre à l'humain qu'il construit au dessus du code de la route et de la logique avec laquelle est conçu l'infrastructure.
 
Dit autrement, si y avait que des machines autonome sur la route, le probléme serait infiniment plus simple à résoudre. :o  
 
Dit autrement autrement, imiter l'humain, ce n'est pas un bonne stratégie pour construire une machine intelligente, on risque d'avoir des surprises désagréable en faisant ça. Et c'est un des point centraux de la pensée de LeCun sur la question.  
 

Citation :

Il ne conçoit pas l'intelligence artificielle comme un équivalent du cerveau humain car les caractéristiques biologiques entre humain et robot diffèrent fondamentalement.


 
https://fr.wikipedia.org/wiki/Yann_Le_Cun
 
C'est le piège dans lequel il n'est pas tombé et qu'il lui a permis de révolutionner le domaine mais dans lequel a peu prés tout le monde tombe (y compris Turing quelque part avec son fameux test).
 
C'est une des raisons pour laquelle c'est plutôt une bonne idée d'écouter ses arguments en règle générale.  
 

n°70856050
kaloskagat​os
Posté le 17-06-2024 à 18:35:25  profilanswer
 

Coroners a écrit :


oui, je metionne les LLM, mais c'est plus le deep learning en général que j'aurais du mentionner, effectivement


 
Les LLM utilisent les architectures de réseaux transformers qui sont adaptés au traitement du langage (difficile de piloter une voiture au clavier :D), niveau vitesse de génération ça se compare avec une grand-mère avec 3gr d'alcool dans le sang après un gros bédo, et niveau raisonnement c'est pas gagné (ce serait marrant de faire choisir à la voiture une solution au dilemme du tramway avant de démarrer).
 
D'après les intervention de Le Cun justement on utilise les Réseaux de Neurones Convolutifs (CNN) pour la vision, les Réseaux de Neurones Récurents (RNN), et autre sûrement
 
Et Musk qui trolle :
 
https://rehost.diberie.com/Picture/Get/t/294344


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°70856057
crepator4
Deus ex machina
Posté le 17-06-2024 à 18:35:56  profilanswer
 

faudrait un apprentissage "trajet habituel" pour accélérer , genre je fait 10 trajets , il comprends que y'a un passage a niveau ou un train (cf dernierement :o  https://www.bfmtv.com/auto/en-pilot [...] 90622.html )
clientele : Le papy qui prends toujours la meme route dans sa campagne pour chercher le pain

 

L'ia connais du coup cette route par coeur , donc est plus safe


Message édité par crepator4 le 17-06-2024 à 18:40:09

---------------
...survivre à ses Medecins...
n°70856059
LennyB
Je ne contracte pas!
Posté le 17-06-2024 à 18:35:57  profilanswer
 

Et l'autopilot de Huawei, c'était du fake ? (vraie question)
 
Huawei’s autonomous driving in action on a busy Chinese township street… https://gitlab.com/BZHDeveloper/HFR/raw/master/emojis-micro/1f44d.pnghttps://gitlab.com/BZHDeveloper/HFR/raw/master/emojis-micro/1f44d.png
https://i.ytimg.com/vi/js74Ou29GZ0/mqdefault.jpg
 
Huawei Auto Pilot,Can Tesla do it?
https://i.ytimg.com/vi/ru4g5GhmeC4/mqdefault.jpg
 
AITO M5 | How does Huawei ADS2.0 autonomous driving perform on mountain roads
https://i.ytimg.com/vi/a_d5tMG7QYI/mqdefault.jpg


---------------
"T'es vraiment con ou tu le fais exprès ? Parce que si tu le fais exprès t'es vraiment con"
n°70856081
kaloskagat​os
Posté le 17-06-2024 à 18:39:36  profilanswer
 

LennyB a écrit :

Et l'autopilot de Huawei, c'était du fake ? (vraie question)


C'est à l'image de leurs smartphones :D https://www.youtube.com/watch?v=xidfZ3_XodI

Message cité 1 fois
Message édité par kaloskagatos le 17-06-2024 à 18:39:52

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°70856087
ese-aSH
Welcome To Avalon
Posté le 17-06-2024 à 18:39:58  profilanswer
 

the_fennec a écrit :


 
Tu peux pas tout simuler, c'est le problème. En plus ton "LLM" n'apprendrait qu'a conduire dans un environnement simulé, une fois sur la route il ferait n'importe quoi.


Pas tout non, mais le défi c'est d'arriver à un ordre de grandeur d'erreur inférieur des êtres humains.
Si des voitures autonomes font passer le nombre de décés sur la route en france à 100 elles seront acceptés (imposés en fait). Le problème est la phase de transition ou les agents sont mixtes (IA/humain) où les responsabilités sont difficiles à trancher et ou le nombres d'accidents par kilomètre parcourus reste plus compliqué à expliquer.
 
Par ailleurs les ordres de grandeurs c'est quelques centaine de milliers de kilomètres pour un humain sur une vie (admettons quelques millions pour les professionels ?) les IA en apprentissage simulé pourront en faire des centaines de milliards.


---------------
On a tous un avis, le donne pas.
n°70856130
rakame
Posté le 17-06-2024 à 18:44:01  profilanswer
 

Quand on voit comment les gens conduisent, on se dit, qu'effectivement, même une machine stupide devrait arriver assez facilement à faire nettement mieux.  [:madruhr watfelir:5]


Message édité par rakame le 17-06-2024 à 18:44:18
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  38  39  40  ..  68  69  70  71  72  73

Aller à :
Ajouter une réponse
 

Sujets relatifs
Intelligence artificielle : conceptualisation et formulationintelligence artificielle pour jeu puissance4 avec matlab
L'intelligence artificielle est-elle la bien venue parmis les hommes.Intelligence artificielle....demain
robot et intelligence artificielleINTELLIGENCE ARTIFICIELLE
Intelligence artificielle : vous y croyez ?Intelligence artificielle
l'intelligence artificielleL'intelligence artificielle !
Plus de sujets relatifs à : Intelligence artificielle


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)