Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1113 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  30  31  32  33  34  35  36  37  38
Auteur Sujet :

Intelligence artificielle

n°69730861
ese-aSH
Welcome To Avalon
Posté le 07-12-2023 à 12:14:22  profilanswer
 

Reprise du message précédent :

rakame a écrit :

 

Ben pourquoi tu penses que c'est inévitable ? On est capable de règlementer les usages à problème des technologie non ? Par exemple, lorsqu'on utilise une bagnole, on doit se conformer a un ensemble assez volumineux de règles qui on pour but de limiter tout ces problème, cela va de la conception du véhicule lui-même, a la conduite en passant par les infrastructures qu'il utilise. ça s'appelle la règlementation.

 

ils ne s'agit pas de limiter l'usage des bagnoles a certain groupe de personne, juste d'en règlementer l'usage.

 

Le problème, c'est notre incapacité a anticiper les problèmes avant qu'ils arrivent. Et on le voit bien avec l'IA. Malgré les avertissement des lanceurs d'alerte, on préfère rester dans le déni avec ce type de discours (comme le fait de dire que c'est inévitable, qu'on peut rien y faire). Ce qui arrange bien tout ceux qui ont des intérêt financier là-dedans cela dit.

 

Bref, c'est plus ou moins toujours le même piège, dans lequel on se précipite.


La sécurisation des données est déjà une problématique aujourd'hui. Et on part déjà du principe qu'un attaquant pourrait réussir a tirer un maximum de valeur ajoutée des données.

 

J'ai du mal a voir quel genre de réglementation sur les capacités des IA permettrait de réduire le risque de leur utilisation à cette fin (tu avais peut etre des piste en tete ?).

 

Et de toute facon on doit évaluer un rapport bénéfice/risque ici, et ne pas se focaliser uniquement sur l'un ou l'autre.

Message cité 1 fois
Message édité par ese-aSH le 07-12-2023 à 12:14:43

---------------
On a tous un avis, le donne pas.
mood
Publicité
Posté le 07-12-2023 à 12:14:22  profilanswer
 

n°69730945
rakame
Posté le 07-12-2023 à 12:31:26  profilanswer
 

ese-aSH a écrit :


La sécurisation des données est déjà une problématique aujourd'hui. Et on part déjà du principe qu'un attaquant pourrait réussir a tirer un maximum de valeur ajoutée des données.  
 
J'ai du mal a voir quel genre de réglementation sur les capacités des IA permettrait de réduire le risque de leur utilisation à cette fin (tu avais peut etre des piste en tete ?).
 
Et de toute facon on doit évaluer un rapport bénéfice/risque ici, et ne pas se focaliser uniquement sur l'un ou l'autre.


 
Moi, je ne suis pas suffisamment expert pour imaginer comment règlementer tout ça. Mais si j'en crois Benoît Sagot, dont j'ai posté ici la leçon inaugurale au collège de France, un des principaux problème c'est le manque de transparence des acteurs dans le domaine. Il faudrait peut-être commencé par contraindre les acteurs a rendre public leur algo et les données d'entrainement. De la même façon qu'en crypto, cela permet a la communauté de la recherche de pouvoir travaillé dessus et de relever de fait les problémes qu'ils peuvent posé avant qu'ils se pose. Et ça permettra de rassurer ceux que ça fait flipper. (enfin dans une certaine mesure, il y aura toujours une partie des gens qui auront des peur non fondée des nouvelle technologie, mais ça limitera le phénomène)
 
Bon, comme ça m'intéresse, j'ai pisté Benoît Sagot, vu le niveau du type dans le game, et je suis tombé la-dessus :
 
https://dauphine.psl.eu/dauphine/me [...] ner-les-ia
 
Plus de 3h de séminaire sur le sujet : https://www.youtube.com/watch?v=C0OK_pFtrX8
 
ça tombe bien, je peux justifier ça en veille techno/autoformation sur l'IA à mon taf :o

n°69730960
ese-aSH
Welcome To Avalon
Posté le 07-12-2023 à 12:34:48  profilanswer
 

rakame a écrit :


 
Moi, je ne suis pas suffisamment expert pour imaginer comment règlementer tout ça. Mais si j'en crois Benoît Sagot, dont j'ai posté ici la leçon inaugurale au collège de France, un des principaux problème c'est le manque de transparence des acteurs dans le domaine. Il faudrait peut-être commencé par contraindre les acteurs a rendre public leur algo et les données d'entrainement. De la même façon qu'en crypto, cela permet a la communauté de la recherche de pouvoir travaillé dessus et de relever de fait les problémes qu'ils peuvent posé avant qu'ils se pose. Et ça permettra de rassurer ceux que ça fait flipper. (enfin dans une certaine mesure, il y aura toujours une partie des gens qui auront des peur non fondée des nouvelle technologie, mais ça limitera le phénomène)
 
Bon, comme ça m'intéresse, j'ai pisté Benoît Sagot, vu le niveau du type dans le game, et je suis tombé la-dessus :
 
https://dauphine.psl.eu/dauphine/me [...] ner-les-ia
 
Plus de 3h de séminaire sur le sujet : https://www.youtube.com/watch?v=C0OK_pFtrX8
 
ça tombe bien, je peux justifier ça en veille techno/autoformation sur l'IA à mon taf :o


3h :o on doit pouvoir demander un résumé de la transcription non ? :whistle:


---------------
On a tous un avis, le donne pas.
n°69731090
Gimme_Shel​ter
It's just a shot away
Posté le 07-12-2023 à 13:01:52  profilanswer
 

Ne pas oublier que beaucoup de "lanceurs d'alerte" sur l'IA sont des gens directement impliqués dans des projets IA de grosse boite qui sont souvent à la traine par rapport à la concurrence.
Quand Musk se plaint que l'IA est dangereuse et doit être régulé mais dans le même temps développe sa propre IA destinée à la manipulation de masse, on se doute bien qu'il balance juste du gros bullshit pour tenter de ralentir la concurrence et rattraper son retard.
 
 
Pour le reste, l'IA est une techno puissante qui permet beaucoup de choses et qui peut être utilisée pour faire le "mal" évidemment. On peut réguler pour limiter ces cas d'utilisation mais ça n'empêchera pas des groupes privés d'en faire ce qu'ils veulent dans l'ombre.  
 
De plus, réglementer demande de comprendre les possibilités offertes par l'IA et les risques associés pour pouvoir créer un cadre législatif adapté. Tout cela se réfléchi et prends du temps. Et il ne faut surtout pas étouffer la R&D pour favoriser le développement d'entreprises dans ce secteur.
Actuellement, on en est encore à expérimenter et inventer des cas d'utilisation. On est bien loin de pouvoir réglementer le domaine mais ça va venir.
 
 
L'exemple de la voiture a été sorti pour justifier le besoin réglementation. Je trouve que c'est justement un bon exemple pour démontrer qu'une réglementation ne se crée pas en amont.
Il a fallu beaucoup de temps avant que les réglementations que l'on connait soient mises en place pour l'automobile. Il n'y a pas si longtemps que cela, les organes de sécurité n'étaient pas obligatoires, les limitations de vitesse n'existaient pas ou peu, les réglementations sur l'alcool non plus.  
C'est à force d'erreurs, d'expérimentations et de "crises" que la réglementation s'est construite et cela a pris des décennies pour en arriver à la réglementation que l'on connait par petites touches successives.
 
Il est tout simplement impossible d'anticiper les problèmes d'une techno ayant des capacités inconnues. Il faut expérimenter pour en connaitre les limites, risques, dérives.
L'Homme n'est pas devin.
 
Oui il faut réglementer, et oui une réglementation arrivera.  
Non il ne faut pas se précipiter à la moindre alerte mais au contraire prendre le temps d'y réfléchir correctement car les impacts sociétaux et économiques qui en découleront peuvent être très violents. Surtout sur une technologie de rupture.
Et non, ça ne changera rien sur les risques liés à l'IA. Tout comme un panneau "Zone 30" n'empêche pas un automobiliste fou de rouler à 130 en fonçant dans la foule...

n°69731153
trueslash
(╯°□°)╯︵ MMM
Posté le 07-12-2023 à 13:11:27  profilanswer
 

Je suis très pessimiste sur les réglementations, tous les pays qui affichent une volonté de le faire en ont déjà eu l'occasion quand la campagne "stop killer robots" a été lancée ya maintenant genre 10 ans.
 
On avait un cas très concrêt d'utilisation de l'IA pour un but éthiquement très facile à condamner et nada, quasi toutes les grandes nations ont eu piscine.
 
je ne pense pas qu'il faille emmerder les startups et chercheurs qui innovent sur les foundation models, les mecs veulent avoir une chance de créer les prochaines unicornes, ils vont pas faire ça de manière ouverte, il faut plutôt réglementer et frapper fort sur l'utilisation de la technologie.

n°69731300
rakame
Posté le 07-12-2023 à 13:33:21  profilanswer
 

ese-aSH a écrit :


3h :o on doit pouvoir demander un résumé de la transcription non ? :whistle:


 
Bah, tu peux sauter le premier quart d'heure d'intro pour aller directement au 20 min de presentation du sujet par Sagot :
 
https://www.youtube.com/watch?v=C0OK_pFtrX8&t=988s
 
Alors cela parle spécifiquement du problème des données d'entrainement des grand modèle de langue, des divers problèmes qu'elles posent, et de quelle manière on peut y répondre et aussi les problèmes qui pourraient se poser si on transposait bêtement certaines règlementation existante (il dit par exemple, qu'une "SACEMisation" de certaines données, c'est a dire le versement d'une redevance à l'usage, pourrait plomber la R&D dans les pays qui la mettrait en place.)
 
Du coup, ça ne parle pas de règlementer l'intelligence artificielle dans un cadre plus général. Et c'est bien souvent le souci, dés qu'on rentre dans le dur, on s'aperçoit de la complexité de la chose, et de fait, qu'il faut entrer dans le détail

n°69731430
rakame
Posté le 07-12-2023 à 13:50:40  profilanswer
 

Gimme_Shelter a écrit :

Ne pas oublier que beaucoup de "lanceurs d'alerte" sur l'IA sont des gens directement impliqués dans des projets IA de grosse boite qui sont souvent à la traine par rapport à la concurrence.
Quand Musk se plaint que l'IA est dangereuse et doit être régulé mais dans le même temps développe sa propre IA destinée à la manipulation de masse, on se doute bien qu'il balance juste du gros bullshit pour tenter de ralentir la concurrence et rattraper son retard.
 
 
Pour le reste, l'IA est une techno puissante qui permet beaucoup de choses et qui peut être utilisée pour faire le "mal" évidemment. On peut réguler pour limiter ces cas d'utilisation mais ça n'empêchera pas des groupes privés d'en faire ce qu'ils veulent dans l'ombre.  
 
De plus, réglementer demande de comprendre les possibilités offertes par l'IA et les risques associés pour pouvoir créer un cadre législatif adapté. Tout cela se réfléchi et prends du temps. Et il ne faut surtout pas étouffer la R&D pour favoriser le développement d'entreprises dans ce secteur.
Actuellement, on en est encore à expérimenter et inventer des cas d'utilisation. On est bien loin de pouvoir réglementer le domaine mais ça va venir.
 
 
L'exemple de la voiture a été sorti pour justifier le besoin réglementation. Je trouve que c'est justement un bon exemple pour démontrer qu'une réglementation ne se crée pas en amont.
Il a fallu beaucoup de temps avant que les réglementations que l'on connait soient mises en place pour l'automobile. Il n'y a pas si longtemps que cela, les organes de sécurité n'étaient pas obligatoires, les limitations de vitesse n'existaient pas ou peu, les réglementations sur l'alcool non plus.  
C'est à force d'erreurs, d'expérimentations et de "crises" que la réglementation s'est construite et cela a pris des décennies pour en arriver à la réglementation que l'on connait par petites touches successives.
 
Il est tout simplement impossible d'anticiper les problèmes d'une techno ayant des capacités inconnues. Il faut expérimenter pour en connaitre les limites, risques, dérives.
L'Homme n'est pas devin.

Oui il faut réglementer, et oui une réglementation arrivera.  
Non il ne faut pas se précipiter à la moindre alerte mais au contraire prendre le temps d'y réfléchir correctement car les impacts sociétaux et économiques qui en découleront peuvent être très violents. Surtout sur une technologie de rupture.
Et non, ça ne changera rien sur les risques liés à l'IA. Tout comme un panneau "Zone 30" n'empêche pas un automobiliste fou de rouler à 130 en fonçant dans la foule...


 
Ben on a qu'a demandé à l'IA  :o  
Bon je blague, mais tes remarques sont pas forcément toute justifiées. Déjà, si on prend l'analogie avec la voiture, l'utilisation des premières voiture pouvaient être très encadrées, du moins chez nos amis anglais :  
 

Citation :

The most strict restrictions and speed limits were imposed by the 1865 act (the "Red Flag Act" ), which required all road locomotives, which included automobiles, to travel at a maximum of 4 mph (6.4 km/h) in the country and 2 mph (3.2 km/h) in the city, as well as requiring a man carrying a red flag to walk in front of road vehicles hauling multiple wagons.


 
src : https://en.wikipedia.org/wiki/Locomotive_Acts
 
C'est au fur et a mesure de l'évolution technologique qu'on a petit a petit lâché la bride, et surtout a partir du moment ou les intérêts économiques quand au développement massif de la voiture sont devenus énorme. Puis ensuite, on a fait du damage control, et on continue d'ailleurs. On attend que les villes soient polluées et encombrée par exemple pour commencer à envisager des réglementation contraignante. Et encore. dans la limite ou ça ne plombe pas le business;  
 
Bon toute analogie a ses limites, de toute façon. L'important a retenir, a mon avis, c'est que le développement d'une réglementation est trés vite freinée lorsque des intérêts économiques importants sont en jeu. C'est surtout cette difficulté là qu'il faudrait surmonté.
 
L'autre remarque c'est que bien évidement, le fait que l'on puisse matériellement enfreindre une loi ou un règlement, ne rend pas de facto les loi et les règlements inutiles. Sinon, autant mettre a la benne le concept même d'une société civilisée. Les loi et règlement doivent être accepté par la majorité des citoyen comme une condition sine qua non de la possibilité de vivre ensemble. Et pour la minorité qui n'est pas capable de comprendre ça, il faudra alors lui expliquer la chose par d'autres moyens, moins agréable et plus persuasif, comme dirait l'autre.

n°69734124
Coroners
merci la gauche
Posté le 07-12-2023 à 21:08:08  profilanswer
 

Citation :

McDonald’s se met à l’IA pour améliorer la qualité de ses frites
 
https://www.journaldugeek.com/2023/ [...] es-frites/


 
si ça peut aider à atteindre rapidement la singularité, je dis allonzy quoi :o


---------------
Des femmes enceintes furent éventrées et découpées en tranches, des enfants furent taillés en morceaux ou jetés contre des murs, les membres des hommes furent coupés, dans leur retraite les attaquants enlevèrent des jeunes femmes pour en faire des esclave
n°69735801
mcrak
1er, 2ème & 3eme top player.
Posté le 08-12-2023 à 09:44:30  profilanswer
 

drap :o


---------------
Se Queda.
n°69736389
the_fennec
f3nn3cUs z3rd4
Posté le 08-12-2023 à 10:51:15  profilanswer
 

the_fennec a écrit :

Nouvelle AI de Google "Gemini":  
https://www.youtube.com/watch?v=UIZAiXYceBI
 
Ca me parait un trop fort/parfait pour être vrai :o
 
Curieux de tester...


 

AdHoc a écrit :

Ça m’étonnerait pas que ça fonctionne la plupart du temps, mais sans doute avec quelques ratés et ajustements.


 
Quelle surprise, la démo de Google c'est du flan:
https://www.numerama.com/tech/15834 [...] -pied.html
 

Citation :


Un peu à la manière de Google Bard, le Gemini Ultra de la démonstration est un agent conversationnel qui accepte des requêtes textuelles et photographiques. Google ne lui a jamais posé de questions en parlant, tout était écrit. En ce qui concerne le contenu à analyser, Gemini Ultra ne le voyait pas en direct, mais se contentait de photos… Des tâches que ChatGPT sait aussi faire. Google indique aussi avoir fluidité le montage en raccourcissant les délais de réponse. Autrement dit, Gemini met du temps pour formuler du texte. La voix de synthèse a aussi été ajoutée manuellement.
 
En description de la vidéo sur YouTube, Google indique : « Pour les besoins de cette démonstration, le temps de latence a été réduit et les réponses de Gemini ont été raccourcies pour des raisons de brièveté ».
 
Encore plus problématique : les prompts ont été manipulés. Quand Google prétend demander à Gemini « quelle voiture va le plus vite ? », la réalité est qu’il lui a demandé : « en se basant sur l’aérodynamisme de ces voitures, quelle voiture ira le plus vite entre celle de gauche et celle de droite ? Explique pourquoi et détaille ta réponse ». Cet indice lui a permis de donner une réponse complète, qui mentionne l’aérodynamisme, mais sa réponse n’était pas spontanée.
 
Autre exemple, quand l’humain joue au jeu des gobelets, Gemini ne peut pas voir les déplacements. Il lui a été expliqué avec du texte que « le gobelet 1 a pris la place du gobelet 2 ». L’ordre des astres du système solaire est aussi bidonné, Google n’a pas juste demandé « est-ce que c’est le bon ordre » mais « est-ce que c’est le bon ordre en prenant en compte la distance avec le Soleil. Explique ton raisonnement ». La démo n’a plus rien à voir.  
 
...


---------------
Faudra que je teste un jour :o
mood
Publicité
Posté le 08-12-2023 à 10:51:15  profilanswer
 

n°69736416
donut78
Stop eating donuts
Posté le 08-12-2023 à 10:54:02  profilanswer
 
n°69737036
the_fennec
f3nn3cUs z3rd4
Posté le 08-12-2023 à 12:08:41  profilanswer
 

Ça leur aurait rien coûté de faire une app Android avec reconnaissance/synthèse vocale et qu'elle prenne des photos pour ajouter au prompt. Google tends le baton pour se faire battre...


---------------
Faudra que je teste un jour :o
n°69737198
Gimme_Shel​ter
It's just a shot away
Posté le 08-12-2023 à 12:42:27  profilanswer
 

Coroners a écrit :

Citation :

McDonald’s se met à l’IA pour améliorer la qualité de ses frites
 
https://www.journaldugeek.com/2023/ [...] es-frites/


 
si ça peut aider à atteindre rapidement la singularité, je dis allonzy quoi :o


Pour ça pas besoin d'IA, faut juste remplacer les frites par les potatoes :o

n°69740605
asmomo
Posté le 09-12-2023 à 02:29:35  profilanswer
 

Pour les killer robots ça ne me paraît pas si facile à condamner, oui ça fait flipper, mais toute personne en responsabilité, et tout peuple derrière, préférera envoyer au combat des robots que des hommes.
 
Ou ne serait-ce que pour une situation comme le Bataclan...


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°69740977
the_fennec
f3nn3cUs z3rd4
Posté le 09-12-2023 à 09:33:30  profilanswer
 

Déjà tu surestimes les capacités de reconnaissance visuelle, surtout dans un environnement difficile comme ce genre de situations. Comment tu le programme ton robot, qui est censé tier seul, si un assaillant se protège avec un civil? Quelles sont les pertes "acceptables"?


---------------
Faudra que je teste un jour :o
n°69741887
Coroners
merci la gauche
Posté le 09-12-2023 à 13:08:18  profilanswer
 

La start-up française Mistral AI pourrait être bientôt valorisée 2 milliards d’euros
https://www.lefigaro.fr/secteur/hig [...] lefigarov3


---------------
Des femmes enceintes furent éventrées et découpées en tranches, des enfants furent taillés en morceaux ou jetés contre des murs, les membres des hommes furent coupés, dans leur retraite les attaquants enlevèrent des jeunes femmes pour en faire des esclave
n°69742335
Cuistot
Philosophe éleveur de poules
Posté le 09-12-2023 à 15:04:21  profilanswer
 

Coroners a écrit :

La start-up française Mistral AI pourrait être bientôt valorisée 2 milliards d’euros
https://www.lefigaro.fr/secteur/hig [...] lefigarov3


on peut dire que c'est gagnant !


---------------
docteur, docteur & docteur en hyper recherches propres... . -. -..   -. ..- -.. . ...
n°69742668
Coroners
merci la gauche
Posté le 09-12-2023 à 16:57:01  profilanswer
 

Citation :

L'Union européenne scelle un accord historique pour réguler l’intelligence artificielle

 
L'Union Européenne annonce être arrivée à un accord sur les règles qui seront mises en place pour contrôler le développement de l'intelligence artificielle.
 
L'intelligence artificielle est devenue en 2023 une technologie vers laquelle tous les yeux se tournent, et qui semblent receler des potentialités exceptionnelles. Mais un tel pouvoir porte aussi nécessairement en lui un grand danger, ce qui pousse les grands gouvernements, comme celui de l'Union Européenne, à légiférer. Ainsi, depuis quelques mois, un AI Act était discuté au parlement européen. Et une avancée décisive vient d'avoir lieu.
 
https://www.clubic.com/actualite-51 [...] ielle.html


---------------
Des femmes enceintes furent éventrées et découpées en tranches, des enfants furent taillés en morceaux ou jetés contre des murs, les membres des hommes furent coupés, dans leur retraite les attaquants enlevèrent des jeunes femmes pour en faire des esclave
n°69742725
trueslash
(╯°□°)╯︵ MMM
Posté le 09-12-2023 à 17:14:47  profilanswer
 

asmomo a écrit :

Pour les killer robots ça ne me paraît pas si facile à condamner, oui ça fait flipper, mais toute personne en responsabilité, et tout peuple derrière, préférera envoyer au combat des robots que des hommes.
 
Ou ne serait-ce que pour une situation comme le Bataclan...


 
Pour moi la problématique est plus de s'assurer qu'il y a une décision humaine derrière chaque munition tirée, si on veut que les humains restent derrière des ordinateurs, ça ne me dérange pas au contraire.

n°69742951
rakame
Posté le 09-12-2023 à 18:19:12  profilanswer
 

trueslash a écrit :


 
Pour moi la problématique est plus de s'assurer qu'il y a une décision humaine derrière chaque munition tirée, si on veut que les humains restent derrière des ordinateurs, ça ne me dérange pas au contraire.


 
Ce qui n'est déjà pas vraiment le cas, rien qu'avec certain type de munitions, comme les mines. Il s'agit surtout pour les militaires de rendre les munitions plus "intelligente", mais il y a un truc que les militaire n'aiment pas du tout, c'est la perte de contrôle. Dans l'armée, on obéi a des ordres et on se conforme a des doctrines d'engagement. Même l'autonomie décisionnelle des acteurs humain est limitée, encadrée.
 
Si vous cherchez un bon point de départ pour réfléchir à ça :  
 
Le Collimateur – Les promesses de l'intelligence artificielle, entretien avec Joseph Henrotin  
https://www.youtube.com/watch?v=Mt0 [...] r&index=10
 
 

n°69742994
chinois02
Posté le 09-12-2023 à 18:26:14  profilanswer
 

trueslash a écrit :


 
Pour moi la problématique est plus de s'assurer qu'il y a une décision humaine derrière chaque munition tirée, si on veut que les humains restent derrière des ordinateurs, ça ne me dérange pas au contraire.


Bof, tirez dans le tas sera la réponse :o cf mon post sur un article du Monde!
 
Sur un plan moins théorique, mais à ma connaissance sans réponse de la part des concepteurs des algos de conduite automobile autonome:
Imaginons la scène suivante il fait nuit sur une route départementale. Un gamin surgit sur le côté droit de la route devant les phares, caché par un buisson/poubelle...
Sur la voie d'en face un véhicule arrive.
Que choisis l'algo : le face à face avec la voiture d'en face en se déportant à gauche, le gamin en allant tout droit ou le fossé à droite avec une inconnue sur les blessés?
Quel que soit le choix il est mauvais mais il est gênant que le concepteur ne puisse l'expliciter!
 
 
 
 


---------------
N'importe qui peut voir ce que tu sembles être; quelques rares seulement peuvent tâter ce que tu est. Et ces derniers n'osent contredire l'opinion du grand nombre, renforcée par toute la majesté de l'État. Machiavel-Le Prince.
n°69743490
simius_com​putus
oh Gary boy
Posté le 09-12-2023 à 20:51:49  profilanswer
 

Cuistot a écrit :


on peut dire que c'est gagnant !


 
un festival   [:cetrio]


---------------
IWH  ---  Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde)
n°69743559
trueslash
(╯°□°)╯︵ MMM
Posté le 09-12-2023 à 21:04:49  profilanswer
 

rakame a écrit :


 
Ce qui n'est déjà pas vraiment le cas, rien qu'avec certain type de munitions, comme les mines. Il s'agit surtout pour les militaires de rendre les munitions plus "intelligente", mais il y a un truc que les militaire n'aiment pas du tout, c'est la perte de contrôle. Dans l'armée, on obéi a des ordres et on se conforme a des doctrines d'engagement. Même l'autonomie décisionnelle des acteurs humain est limitée, encadrée.
 
Si vous cherchez un bon point de départ pour réfléchir à ça :  
 
Le Collimateur – Les promesses de l'intelligence artificielle, entretien avec Joseph Henrotin  
https://www.youtube.com/watch?v=Mt0 [...] r&index=10
 
 


 
Il n'y a pas des réglementations sur les mines d'ailleurs ? Je ne crois pas que ce soit ok d'en déployer comme ça sans conséquence

n°69743574
trueslash
(╯°□°)╯︵ MMM
Posté le 09-12-2023 à 21:09:21  profilanswer
 

chinois02 a écrit :


Bof, tirez dans le tas sera la réponse :o cf mon post sur un article du Monde!
 
Sur un plan moins théorique, mais à ma connaissance sans réponse de la part des concepteurs des algos de conduite automobile autonome:
Imaginons la scène suivante il fait nuit sur une route départementale. Un gamin surgit sur le côté droit de la route devant les phares, caché par un buisson/poubelle...
Sur la voie d'en face un véhicule arrive.
Que choisis l'algo : le face à face avec la voiture d'en face en se déportant à gauche, le gamin en allant tout droit ou le fossé à droite avec une inconnue sur les blessés?
Quel que soit le choix il est mauvais mais il est gênant que le concepteur ne puisse l'expliciter!
 


 
On peut demander que l'algorithme prenne la décision qui soit statistiquement la moins néfaste en terme de vie humaine, blessure infligée à des humains ou dégat matériel. a priori dans cet ordre mais ça va devenir intéressant quand il y a aura des gros écart, genre vaut-il mieux causer un milliard de dégat matériel avec 80% de probabilité ou tuer un humain avec 0.1% de probabilité :D
 
Je ne voudrais pas être celui qui va devoir décider de cela

n°69743650
Gimme_Shel​ter
It's just a shot away
Posté le 09-12-2023 à 21:24:41  profilanswer
 

Après, sur la route les temps de réaction doivent être extrêmement courts. Je suis pas sur que l'IA ait le temps de dresser un bilan humain et financier avant de prendre sa décision :o


Message édité par Gimme_Shelter le 09-12-2023 à 21:24:49
n°69743848
rakame
Posté le 09-12-2023 à 21:54:56  profilanswer
 

trueslash a écrit :


 
Il n'y a pas des réglementations sur les mines d'ailleurs ? Je ne crois pas que ce soit ok d'en déployer comme ça sans conséquence


 
Oui, c'est la convention d'Ottawa, mais bon quand tu vois les pays qui n'ont pas adhéré ...
 
https://fr.wikipedia.org/wiki/Conve [...] ipersonnel

Citation :


Malgré le large soutien international envers la convention d'Ottawa, il y a encore des États producteurs et/ou utilisateurs de mines antipersonnel qui refusent d'adhérer au texte. Ensemble, six de ces États – la Chine, l’Inde, la république de Corée, le Pakistan, la Russie et les États-Unis – pourraient détenir des stocks de dizaines de millions de mines antipersonnel et certains acteurs armés non étatiques continuent à employer, stocker et produire des mines antipersonnel.


 
D'ailleurs, on pourrait se dire qu'il se passerait a peu prés la même chose si on faisait une convention d'interdiction d'armement plus ou moins autonome utilisant de l'IA.
 
Mais comme c'est expliqué dans le podcast plus haut, c'est pas forcément le but recherché par les militaires. Ils cherchent vraiment à avoir le contrôle de ce qui se passe sur le champ de bataille. Ce n'est pas du tout recherché que d'avoir un armement qui "pense et prend des décision tout seul". C'est déjà limite quand il s'agit d'un soldat ....


Message édité par rakame le 09-12-2023 à 21:56:07
n°69744926
asmomo
Posté le 10-12-2023 à 03:18:23  profilanswer
 

the_fennec a écrit :

Déjà tu surestimes les capacités de reconnaissance visuelle, surtout dans un environnement difficile comme ce genre de situations. Comment tu le programme ton robot, qui est censé tier seul, si un assaillant se protège avec un civil? Quelles sont les pertes "acceptables"?


 
Tu parles de problèmes techniques pas moraux.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°69745029
Sangel
Posté le 10-12-2023 à 08:03:25  profilanswer
 

Cuistot a écrit :


on peut dire que c'est gagnant !

 

Faut trouver un business model derrière, car ils n'en ont pas aujourd'hui

Message cité 1 fois
Message édité par Sangel le 10-12-2023 à 08:03:36
n°69745108
the_fennec
f3nn3cUs z3rd4
Posté le 10-12-2023 à 08:57:02  profilanswer
 

asmomo a écrit :


 
Tu parles de problèmes techniques pas moraux.


 
Ma première phrase oui, les deux autres non.
 
Avec la reconnaissance visuelle tu as juste des probabilités:

  • 49% de chances que la personne tienne un balai
  • 48% de chances que la personne tienne une arme


Tu tires?
 
Comment tu fais la différence entre un gentil et un méchant? Et si il porte un uniforme?
 


---------------
Faudra que je teste un jour :o
n°69745443
Cuistot
Philosophe éleveur de poules
Posté le 10-12-2023 à 11:04:32  profilanswer
 

Sangel a écrit :


 
Faut trouver un business model derrière, car ils n'en ont pas aujourd'hui


 [:ixemul:3]


---------------
docteur, docteur & docteur en hyper recherches propres... . -. -..   -. ..- -.. . ...
n°69764031
rakame
Posté le 13-12-2023 à 15:09:42  profilanswer
 

C'est parti pour les cours de Benoît Sagot sur le traitement automatique des langues au Collège de France :

 

Programme des cours et séminaire (conférencier invité en relations avec le cours) :
https://www.college-de-france.fr/fr [...] x-machines

 

J'ai commencé la premiere leçon qui pose les concept de linguistique qui vont servir dans la suite de ses cours. Mon neurone pas artificiel a bien chauffé, mais ça reste abordable. Faut juste pas loupé un bout, car on décroche tout de suite. C'est du concentré quoi. (genre pour un non-expert en linguistique, on y apprend un nouveau concept a chaque fois qu'il ouvre la bouche quoi :o


Message édité par rakame le 13-12-2023 à 15:12:48
n°69764203
basketor63
LFI et le PC ne sont pas d'EG
Posté le 13-12-2023 à 15:35:44  profilanswer
 
n°69764223
the_fennec
f3nn3cUs z3rd4
Posté le 13-12-2023 à 15:38:14  profilanswer
 


 
vous ici :o
 :hello:


---------------
Faudra que je teste un jour :o
n°69764462
basketor63
LFI et le PC ne sont pas d'EG
Posté le 13-12-2023 à 16:11:30  profilanswer
 

the_fennec a écrit :


 
vous ici :o
 :hello:


 
C'était mon cursus de fac.  [:cosmoschtroumpf]

Message cité 1 fois
Message édité par basketor63 le 13-12-2023 à 16:13:08
n°69764588
the_fennec
f3nn3cUs z3rd4
Posté le 13-12-2023 à 16:29:39  profilanswer
 

basketor63 a écrit :


 
C'était mon cursus de fac.  [:cosmoschtroumpf]


 
Bien, j'espère que ça va parler un peu de technique, ici c'est plutôt philosophique... :o


---------------
Faudra que je teste un jour :o
n°69768261
verdoux
And I'm still waiting
Posté le 14-12-2023 à 08:25:41  profilanswer
 

Les compagnies d'assurances n'ont plus besoin d'employer des fzdp, l'IA est  là :o
https://arstechnica.com/science/202 [...] uit-claims

n°69768750
rakame
Posté le 14-12-2023 à 09:58:26  profilanswer
 

the_fennec a écrit :


 
Bien, j'espère que ça va parler un peu de technique, ici c'est plutôt philosophique... :o


 
Je suis pas sur que ça deviennent trop technique ici. J'ai pas regardé mais dans la section dev du forum, il y a peut-être plus de chance.  
 
Sinon, j'ai regardé vite fait si on pouvait jouer avec un modèle de language, et y a moyen. En fait, coté R&D dans le privé, ça se referme vu les énormes enjeux. Mais la recherche publique continue de produire et de travailler sur des modèles en libre accès, y compris dans certain cas les données d'entrainement.
 
Et il y a pas mal de ressources (y compris des lieu de discussion comme discord) à partir du site : https://www.openllm-france.fr/ Enfin, pour ce qui est des large language models  (LLM), c'est a dire les IA type chatGPT
 
En ce qui me concerne, je cherche surtout a comprendre comment ça marche. Jouer avec pourquoi pas si ça me permet d'acquérir une bonne compréhension de la techno, mais j'en ai pas spécialement besoin professionnellement pour le moment. (à part éventuellement pour faire le mariole dans mes projets vis a vis de la hiérarchie)
 
Donc, mon plan, c'est de suivre le cours au collège de France, avec ça, et la vulga que j'ai déjà ingurgité sur le sujet, ça devrait me donner les moyens d'y voir clair.

n°69769058
the_fennec
f3nn3cUs z3rd4
Posté le 14-12-2023 à 10:44:37  profilanswer
 

J'ai regardé vite fait j'ai rien trouvé dans dev. Après je fais pas vraiment du dev, même si j'aimerais bien, j'installe des truc open-source pour jouer avec.
 
D'ailleurs j'ai essayé de faire marcher Mistral avec LM Studio, mais ça bug, la première réponse est bonne (et rapide) mais les suivantes sont juste une série de chiffres.


---------------
Faudra que je teste un jour :o
n°69769113
rakame
Posté le 14-12-2023 à 10:53:50  profilanswer
 

visiblement, pour le code en libre accés, ça se passe par là : https://huggingface.co
 
Et pour les modèle de language de la commu francophone : https://huggingface.co/OpenLLM-France
 
Perso, je n'ai pas trop le temps pour plonger dans le code, mais la pratique, c'est toujours la meilleure approche pour comprendre, c'est sur.

n°69769337
the_fennec
f3nn3cUs z3rd4
Posté le 14-12-2023 à 11:23:59  profilanswer
 

Oui huggingface.co, c'est LA source pour les modèles en libre access. C'est la que LM Studio download ses modèles:
https://lmstudio.ai/
 
C'est vraiment très simple a utiliser, pas besoin de coder.
 
https://i.imgur.com/VFMdMrp.png
 


Message édité par the_fennec le 14-12-2023 à 11:24:36

---------------
Faudra que je teste un jour :o
n°69769529
rakame
Posté le 14-12-2023 à 11:54:17  profilanswer
 

:jap: il à l'air très bien lm-studio effectivement.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  30  31  32  33  34  35  36  37  38

Aller à :
Ajouter une réponse
 

Sujets relatifs
Intelligence artificielle : conceptualisation et formulationintelligence artificielle pour jeu puissance4 avec matlab
L'intelligence artificielle est-elle la bien venue parmis les hommes.Intelligence artificielle....demain
robot et intelligence artificielleINTELLIGENCE ARTIFICIELLE
Intelligence artificielle : vous y croyez ?Intelligence artificielle
l'intelligence artificielleL'intelligence artificielle !
Plus de sujets relatifs à : Intelligence artificielle


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR