Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3197 connectés 

 

Sujet(s) à lire :
    - Who's who@Programmation
 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  25727  25728  25729  ..  27006  27007  27008  27009  27010  27011
Auteur Sujet :

[blabla@olympe] Le topic du modo, dieu de la fibre et du monde

n°2459589
Feitan21
Posté le 06-12-2023 à 14:42:17  profilanswer
 

Reprise du message précédent :
Bon day 6 vraiment simple, au moins ça va me permettre d'essayer de finir le day 5

mood
Publicité
Posté le 06-12-2023 à 14:42:17  profilanswer
 

n°2459590
pataluc
Posté le 06-12-2023 à 14:45:28  profilanswer
 


par contre j'suis dégoûté pour une fois j'avais vu le piège et fait la version analytique sans même lancer mon dumb algo du step 1, alors qu'en fait

Spoiler :

les chiffres du step 2 sont pas assez grands pour pas passer en dumb algo en qques secondes (autour de 6s chez moi, si je supprime les formattages de logs qui sont couteux)  :fou:  :sweat:

n°2459591
___alt
Posté le 06-12-2023 à 15:58:17  profilanswer
 

Not me qui a codé deux optimisations parfaitement inutiles pour la solution du jour.


---------------
TRIPS RIGHT BUNCH F SHUTTLE TOM AND JERRY RIGHT YELLOW
n°2459592
koskoz
They see me trollin they hatin
Posté le 06-12-2023 à 16:17:39  profilanswer
 

Evernote qui va limiter son free plan à 50 notes [:cheesecake]

 

100€ par an pour prendre quelques notes, merci mais non merci, adios [:di_canio]

 

Vous utilisez quoi ?

 

J'aime bien la possibilité de pouvoir ajouter le contenu d'une page en tant que note (pour les recettes), à part ça je ne m'en sers quasiment qu'au format textuel (une image de temps en temps).

Message cité 3 fois
Message édité par koskoz le 06-12-2023 à 16:18:53

---------------
Twitter
n°2459593
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 06-12-2023 à 16:23:08  profilanswer
 
n°2459594
sligor
Posté le 06-12-2023 à 16:23:38  profilanswer
 

koskoz a écrit :

Evernote qui va limiter son free plan à 50 notes [:cheesecake]  
 
100€ par an pour prendre quelques notes, merci mais non merci, adios [:di_canio]  
 
Vous utilisez quoi ?


Notion pour le perso. Marche très bien. La version gratuite est déjà bien large niveau taille.
Obsidian est pas mal quand on veut gérer son propre stockage (cloud et/ou local possibles) et est plus geek/personnalisable

koskoz a écrit :


J'aime bien la possibilité de pouvoir ajouter le contenu d'une page en tant que note (pour les recettes), à part ça je ne m'en sers quasiment qu'au format textuel (une image de temps en temps).


 
https://www.notion.so/web-clipper
ou https://chromewebstore.google.com/d [...] ccmm?hl=en

Message cité 1 fois
Message édité par sligor le 06-12-2023 à 16:27:51

---------------
qwerty-fr
n°2459595
Xavier_OM
Monarchiste régicide (fr quoi)
Posté le 06-12-2023 à 16:33:03  profilanswer
 

 

[:apges:5]  J.A.R.V.I.S. de Iron Man arrive :D


Message édité par Xavier_OM le 06-12-2023 à 16:36:47

---------------
Il y a autant d'atomes d'oxygène dans une molécule d'eau que d'étoiles dans le système solaire.
n°2459596
FlorentG
Posté le 06-12-2023 à 16:34:53  profilanswer
 

sligor a écrit :

Obsidian est pas mal quand on veut gérer son propre stockage (cloud et/ou local possibles) et est plus geek/personnalisable


+1 pour Obsidian en self-host.

n°2459597
sligor
Posté le 06-12-2023 à 16:35:06  profilanswer
 

bordel c'est flippant


---------------
qwerty-fr
n°2459599
SekYo
Posté le 06-12-2023 à 16:40:58  profilanswer
 


Si c'est représentatif de la majorité des interactions avec, c'est super impressionnant !

mood
Publicité
Posté le 06-12-2023 à 16:40:58  profilanswer
 

n°2459600
sligor
Posté le 06-12-2023 à 16:43:54  profilanswer
 

je crois que c'est la mort de tous les métiers stupides non-manuel ( déjà que ça n'allait pas très bien pour eux)


---------------
qwerty-fr
n°2459601
beel1
Posté le 06-12-2023 à 16:46:40  profilanswer
 


C'est bon tu peux partir en congés maintenant ? :D

n°2459602
sligor
Posté le 06-12-2023 à 16:48:53  profilanswer
 

le stock s'en branle


---------------
qwerty-fr
n°2459603
___alt
Posté le 06-12-2023 à 16:49:58  profilanswer
 

SekYo a écrit :


Si c'est représentatif de la majorité des interactions avec, c'est super impressionnant !


 
Personne ne ferait de cherry-picking pour une vidéo promotionnelle enfin.


---------------
TRIPS RIGHT BUNCH F SHUTTLE TOM AND JERRY RIGHT YELLOW
n°2459604
Flaie
Posté le 06-12-2023 à 16:56:20  profilanswer
 

koskoz a écrit :

Evernote qui va limiter son free plan à 50 notes [:cheesecake]  
 
100€ par an pour prendre quelques notes, merci mais non merci, adios [:di_canio]  
 
Vous utilisez quoi ?
 
J'aime bien la possibilité de pouvoir ajouter le contenu d'une page en tant que note (pour les recettes), à part ça je ne m'en sers quasiment qu'au format textuel (une image de temps en temps).


Obsidian ici aussi

n°2459605
Jubijub
Parce que je le VD bien
Posté le 06-12-2023 à 17:12:30  profilanswer
 

koskoz a écrit :

Evernote qui va limiter son free plan à 50 notes [:cheesecake]  
 
100€ par an pour prendre quelques notes, merci mais non merci, adios [:di_canio]  
 
Vous utilisez quoi ?
 
J'aime bien la possibilité de pouvoir ajouter le contenu d'une page en tant que note (pour les recettes), à part ça je ne m'en sers quasiment qu'au format textuel (une image de temps en temps).


Notion
 
C’est pas mal
 

___alt a écrit :


 
Personne ne ferait de cherry-picking pour une vidéo promotionnelle enfin.


 
Non :o
 
C’est impressionnant, mêmes réserves que ChatGPT4 : c’est incroyable jusqu’à ce que ça se vautre sur un truc hyper évident, avec une confiance en soi à toute épreuve


---------------
Jubi Photos : Flickr - 500px
n°2459606
Elmoricq
Modérateur
Posté le 06-12-2023 à 17:21:17  profilanswer
 
n°2459607
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 06-12-2023 à 17:23:46  profilanswer
 

___alt a écrit :


 
Personne ne ferait de cherry-picking pour une vidéo promotionnelle enfin.


 
Ouais enfin moi mes démos quand je fais du cherry picking ça consiste à faire oh regardez je clique sur le bouton "acheter" tout seul c'est magique ou alors ahah c'est la photo de Barack Obama; il a 62 ans, tu le savais pas hein ?

Message cité 1 fois
Message édité par hephaestos le 06-12-2023 à 17:25:37
n°2459608
sligor
Posté le 06-12-2023 à 17:25:27  profilanswer
 

Jubijub a écrit :


 
Non :o
 
C’est impressionnant, mêmes réserves que ChatGPT4 : c’est incroyable jusqu’à ce que ça se vautre sur un truc hyper évident, avec une confiance en soi à toute épreuve


j'y connais pas grand chose en IA. Pourquoi c'est pas si simple que ça à résoudre ? pourquoi le réseau de neurone n'arrive pas à savoir s'il est sûr ou pas trop du résultat qu'il donne ?


---------------
qwerty-fr
n°2459609
Dion
Acceuil
Posté le 06-12-2023 à 17:26:42  profilanswer
 


Heureusement que google ne fait pas de stack ranking  [:cosmoschtroumpf]


---------------
When it comes to business/legal topics, just assume almost everyone commenting has no idea what they’re taking about and have no background in these subjects because that’s how it really is. Harkonnen 8-> Elmoricq 8====>
n°2459610
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 06-12-2023 à 17:30:37  profilanswer
 

Dion a écrit :


Heureusement que google ne fait pas de stack ranking  [:cosmoschtroumpf]


Quand bien même, vu la santé financière de la boite je me fais pas de souci, j'ai la sécurité de l'emploi comme si j'étais fonctionnaire. C'est une grand famille, on prend soin les uns des autres.


Message édité par hephaestos le 06-12-2023 à 17:31:49
n°2459611
___alt
Posté le 06-12-2023 à 17:39:00  profilanswer
 

hephaestos a écrit :


 
Ouais enfin moi mes démos quand je fais du cherry picking ça consiste à faire oh regardez je clique sur le bouton "acheter" tout seul c'est magique ou alors ahah c'est la photo de Barack Obama; il a 62 ans, tu le savais pas hein ?


 
Mes démos quand je fais du cherr- ouais non je vais pas parler de mes démos :D


---------------
TRIPS RIGHT BUNCH F SHUTTLE TOM AND JERRY RIGHT YELLOW
n°2459612
Xavier_OM
Monarchiste régicide (fr quoi)
Posté le 06-12-2023 à 17:41:19  profilanswer
 

sligor a écrit :


j'y connais pas grand chose en IA. Pourquoi c'est pas si simple que ça à résoudre ? pourquoi le réseau de neurone n'arrive pas à savoir s'il est sûr ou pas trop du résultat qu'il donne ?


 
Car il est très sûr de la merde qu'il sort :D il ne doute pas.


---------------
Il y a autant d'atomes d'oxygène dans une molécule d'eau que d'étoiles dans le système solaire.
n°2459613
Jubijub
Parce que je le VD bien
Posté le 06-12-2023 à 17:46:15  profilanswer
 

sligor a écrit :


j'y connais pas grand chose en IA. Pourquoi c'est pas si simple que ça à résoudre ? pourquoi le réseau de neurone n'arrive pas à savoir s'il est sûr ou pas trop du résultat qu'il donne ?


Ça marche par calcul de probabilité récursif : le model prédit un token d’après le prompt, puis recalcule avec prompt +1 token, puis recalcule avec prompt +2 tokens, etc…
C’est de la proba pure, le modèle ne comprend pas ce qu’il fait, il te donne juste ce qui lui paraît le plus probable d’après ce qu’il a appris.
 
C’est un peu comme quelqu’un qui a appris des cours par cœur : en recrachant pur ça peut sembler impressionnant, mais tu changes légèrement l’énoncé y’a plus personne, parce qu’il n’y a pas de compréhension intrinsèque.
 

Dion a écrit :


Heureusement que google ne fait pas de stack ranking  [:cosmoschtroumpf]


 
Mon équipe a accès aux versions internes de ce truc, on le teste depuis des mois. Je peux t’assurer que je crains pas pour mon job.
 
Tu sors un prompt fine tuné aux petits oignons, tu expliques la policy, tu donnes une image d’un gamin qui pose à côté d’un fusil, tu demandes : est-ce qu’il y a une arme sur cette image ? (Oui, ok c’est juste, whaaaa je suis bluffé, on a même pas eu besoin d’expliquer au modèle le concept d’arme).
Tu demandes ensuite : est-ce qu’il y a un couteau ? (Oui, et la c’est le drame, c’est la même image, aucun couteau en vue, position fœtale, perte de foi dans les LM, mais réjouissance secrète de de dire « oui OK ce truc est con comme une poutre, ça va pas prendre mon job tout de suite)


---------------
Jubi Photos : Flickr - 500px
n°2459614
sligor
Posté le 06-12-2023 à 17:47:21  profilanswer
 

Xavier_OM a écrit :


Car il est très sûr de la merde qu'il sort :D il ne doute pas.


pas mal de réseaux vont te donner des poids de "probabilité" pour chaque sorties possibles. Pour un OCR par exemple il va sortir qu'elle est ce qu'il pense être la probabilité que ce soit telle lettre ou telle autre.
 
après pour un LLM c'est surement très different comme fonctionnement


---------------
qwerty-fr
n°2459615
Xavier_OM
Monarchiste régicide (fr quoi)
Posté le 06-12-2023 à 17:53:05  profilanswer
 

sligor a écrit :


pas mal de réseaux vont te donner des poids de "probabilité" pour chaque sorties possibles. Pour un OCR par exemple il va sortir qu'elle est ce qu'il pense être la probabilité que ce soit telle lettre ou telle autre.
 
après pour un LLM c'est surement très different comme fonctionnement


 
Oué mais j'imagine que ya déjà un seuillage avec les proba trop basses qui sont rejetées pour éviter de sortir des énormes conneries, et donc ce qui reste = ce qui est "sûr"


---------------
Il y a autant d'atomes d'oxygène dans une molécule d'eau que d'étoiles dans le système solaire.
n°2459616
sligor
Posté le 06-12-2023 à 17:55:18  profilanswer
 

Jubijub a écrit :


Ça marche par calcul de probabilité récursif : le model prédit un token d’après le prompt, puis recalcule avec prompt +1 token, puis recalcule avec prompt +2 tokens, etc…
C’est de la proba pure, le modèle ne comprend pas ce qu’il fait, il te donne juste ce qui lui paraît le plus probable d’après ce qu’il a appris.
 
C’est un peu comme quelqu’un qui a appris des cours par cœur : en recrachant pur ça peut sembler impressionnant, mais tu changes légèrement l’énoncé y’a plus personne, parce qu’il n’y a pas de compréhension intrinsèque.
 


oui donc du coup tant qu'on reste dans ce genre de modèle ça n'ira pas très loin. Il sera peut-être de plus en plus fiable et précis sur les réponses mais il se plantera toujours de temps en temps quand même avec assurance. Et donc ça ne sera jamais utile car on ne saura jamais si'il bluffe ou s'il est certain de la réponse.
 
J'imagine que les alternative aux LLM ont l'air pour le moment plus mauvaises car cela doit utiliser plus de ressources d'avoir "une reflexion avec une vue d'ensemble". Donc ces modèles ne peuvent utiliser qu'un dataset beaucoup plus petit qu'un LLM qui "recrache par coeur comme un con"


Message édité par sligor le 06-12-2023 à 17:58:45

---------------
qwerty-fr
n°2459617
sligor
Posté le 06-12-2023 à 18:00:03  profilanswer
 

c'est un peu comme un aberkane qui sait tout sur tout vs un expert dans son domaine précis. C'est aberkane qui a le plus de vues


---------------
qwerty-fr
n°2459618
flo850
moi je
Posté le 06-12-2023 à 18:00:16  profilanswer
 

Xavier_OM a écrit :

 

Oué mais j'imagine que ya déjà un seuillage avec les proba trop basses qui sont rejetées pour éviter de sortir des énormes conneries, et donc ce qui reste = ce qui est "sûr"


C'est un poil plus compliqué
Il y a , au coeur de tout ça, des mécanismes de renforcement (retropropagation) qui vont modifier les indices de confiance
https://fr.m.wikipedia.org/wiki/R%C [...] u_gradient
C'est aussi cette mécanique qui fait la force des réseaux de neurones, donc pas possible de faire sans

 

(edit , mes souvenirs de ca ont 20 ans, donc peut etre inexacts)


Message édité par flo850 le 06-12-2023 à 18:11:32

---------------

n°2459619
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 06-12-2023 à 18:10:11  profilanswer
 

Jubijub a écrit :


Ça marche par calcul de probabilité récursif : le model prédit un token d’après le prompt, puis recalcule avec prompt +1 token, puis recalcule avec prompt +2 tokens, etc…
C’est de la proba pure, le modèle ne comprend pas ce qu’il fait, il te donne juste ce qui lui paraît le plus probable d’après ce qu’il a appris.
 
C’est un peu comme quelqu’un qui a appris des cours par cœur : en recrachant pur ça peut sembler impressionnant, mais tu changes légèrement l’énoncé y’a plus personne, parce qu’il n’y a pas de compréhension intrinsèque.
 


C'est très réducteur vis à vis des modèles de language, et en creux c'est une vision romancée de notre façon de raisonner, qui est elle aussi purement inductive, fondée sur ce qu'on a vécu et ce qu'on pense qu'il va se passer. Après je pense qu'il y a manifestement effectivement une difficulté technique pour faire apprendre le doute aux modèles, mais je ne pense pas que ce soit intrinséquement insurmontable.

n°2459620
Jubijub
Parce que je le VD bien
Posté le 06-12-2023 à 18:22:37  profilanswer
 

y'a plein d'obstacles :  
- l'architecture du modèle et le fait que ça se base surtout sur des probabilités
- la qualité des jeux d'entrainement (ces trucs absorbent des milliards d'info, c'est très difficile de garantir que tout est de bonne qualité, mais si il y a du staff dédié et qu'on utilise aussi des modèles pour nettoyer les données)
- c'est TRES sensible au prompt (pour le coup les humains aussi, mais du coup c'est pas forcément mieux)


---------------
Jubi Photos : Flickr - 500px
n°2459621
sligor
Posté le 06-12-2023 à 18:26:51  profilanswer
 

les humains sont sensibles au prompt sur des domaines où ils ne sont pas experts.  
En fait on en revient à la qualité et quantité du jeux d'entrainement.


---------------
qwerty-fr
n°2459622
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 06-12-2023 à 18:32:50  profilanswer
 

Jubijub a écrit :

y'a plein d'obstacles :
- l'architecture du modèle et le fait que ça se base surtout sur des probabilités
- la qualité des jeux d'entrainement (ces trucs absorbent des milliards d'info, c'est très difficile de garantir que tout est de bonne qualité, mais si il y a du staff dédié et qu'on utilise aussi des modèles pour nettoyer les données)
- c'est TRES sensible au prompt (pour le coup les humains aussi, mais du coup c'est pas forcément mieux)


Il me semble que le premier point est fumeux, on l'entend souvent (ou ses variations) mais ce que j'entends c'est surtout "c'est qu'un ordinateur avec des 1 et des 0 évidemment il ne peut pas penser il faut une âme pour ça".

n°2459623
Devil'sTig​er
Posté le 06-12-2023 à 18:33:23  profilanswer
 

sligor a écrit :


j'y connais pas grand chose en IA. Pourquoi c'est pas si simple que ça à résoudre ? pourquoi le réseau de neurone n'arrive pas à savoir s'il est sûr ou pas trop du résultat qu'il donne ?


 
Les IA d'aujourd'hui ne sont pas bien différente du perceptron multicouche du début des 50s.
 
C'est donc un outil de classification mathématique qui s'auto-corrige (et donc apprend) par l'exemple. Ne croit pas que ce soit inutile, c'est tres utile. Mais c'est tres con.
 
Tout ce que tu vois dérives plus ou moins de ce modele. Par exemple les LSTM ne sont que des versions un peu différente de la représentation d'un neurone version perceptron.
 
Le sens critique & co, ca a été étudié depuis tres longtemps, les exemples d'essais et de tentatives de faire émerger une conscience ou au minimum un sens critique, ca ne manque pas, par exemple tu as les GANs qui sont une classe directement dérivée de ce genre d'essai:
https://www.tensorflow.org/tutorials/generative/dcgan
 
Dans lequel tu vas avoir une IA entrainée a créer et une autre entrainée a confirmer/infirmer la création.
 
Autant que je sache, on a toujours rien apres toutes ces années.
 
Et pour ce qui est des proba que donnent certaines IA: n'oublie pas que les probas sont basés sur ce que l'IA a appris et rien d'autres, ca n'est donc pas du sens critique ;)

n°2459624
koskoz
They see me trollin they hatin
Posté le 06-12-2023 à 18:39:32  profilanswer
 

J'ai l'impression que Notion est overkill pour mon besoin.
 
D'ailleurs dans ma précédente mission on l'utilisait sur la fin, j'avais trouvé ça fouillis.
 
D'ailleurs Sligor je suis surpris que tu utilises Notion pour le perso et Obsidian pour le pro :D
 
Pourquoi ce choix (le perso) ? Tu voulais tester autre chose ou Obsidian ne répondait pas à ton besoin ?


---------------
Twitter
n°2459625
Flaie
Posté le 06-12-2023 à 18:45:24  profilanswer
 
n°2459626
Jubijub
Parce que je le VD bien
Posté le 06-12-2023 à 18:47:21  profilanswer
 

hephaestos a écrit :


C'est très réducteur vis à vis des modèles de language, et en creux c'est une vision romancée de notre façon de raisonner, qui est elle aussi purement inductive, fondée sur ce qu'on a vécu et ce qu'on pense qu'il va se passer. Après je pense qu'il y a manifestement effectivement une difficulté technique pour faire apprendre le doute aux modèles, mais je ne pense pas que ce soit intrinséquement insurmontable.

 

au début on raisonne comme ça, mais on sait vérifier / altérer ce qu'on pense (on le fait pas toujours, mais on en est capable. C'est comme quand tu demandes en interview d'estimation si la personne trouve son résultat plausible).

 

Je suis un vieux con blasé, mais disons que ça fait 18 ans que je bosse, et c'est pas la première technology hype que je vois où tout le monde m'explique que je suis un con, et que ça va etre géniaaaaaaaaal, et que tous les problèmes sont solubles, etc...

 

- Mobile : nan mais tu vois ça va révolutionner l'informatique, plus personne n'aura d'ordinateur. On vendait ça fin 1990, ça a pris 10 ans pour que l'iPhone sorte, et ça a ensuite pris des années pour avoir un usage mobile qui dépasse l'usage desktop
- Geolocalisation : c'est super on pourra faire du on demand advertising, guider les gens dans les magasins avec les beacons, c'est le futur (Foursquare, anyone ?)
- RPI (robotic process automation) : l'IA est trop maligne, les gens sont cons, remplaçons les hordes de gens inutiles en offshore avec de l'IA, c'est trop bien (ça fait des années qu'on le pitch déjà (on me le vendrait chez Nestlé en 2017 déjà), ça a toujours pas pris, et je peux te citer une chiée de raisons pour ça)
- AR/VR
- Blockchain : c'est le futur des transactions, c'est LA source of truth pour la supply chain, etc...

 

Au final ces trucs sont soit morts, soit ont fini par trouver des usages de niche très loin du raz de marée annoncé, soit ça a mis 10-15 ans de plus à sortir

 

l'IA ça va avoir plein d'usage incroyable, et c'est un saut technologique majeur, mais c'est vraiment pas sec. Pour l'instant on a encore pas de use case où ça fait mieux que notre modèle "classique", parce qu'un modèle basique avec des millions d'exemples marche toujours mieux qu'un truc qui sait soit disant abstraire à partir de centaines d'exemples. Sachant qu'un etre reviewer humain est pour l'instant capable d'abstraire avec juste 5-10 exemples.
les capacités d'abstraction de ces modèles deviennent assez incroyable, mais ça reste "bof" par rapport à un humain lambda.
Et meme en envoyant toute la prod de nvidia on arrive meme pas à satisfaire les besoins de calculs, et chaque nouvelle generation de modele est un à deux ordre de magnitude plus lourd que la précédente, on est encore très très loin de la généralisation (et avant que qqn dise "oui mais le matos suivra", je soulignerais qu'on dit la meme chose du VR depuis des années)

Message cité 1 fois
Message édité par Jubijub le 06-12-2023 à 18:53:47

---------------
Jubi Photos : Flickr - 500px
n°2459627
flo850
moi je
Posté le 06-12-2023 à 18:50:13  profilanswer
 

et puis un jour quelqu'un va dire " ok , on facture le cout reel aux utilisateurs"  
et d'un coup il vaudra mieux recruter


---------------

n°2459628
Jubijub
Parce que je le VD bien
Posté le 06-12-2023 à 18:52:51  profilanswer
 

hephaestos a écrit :


Il me semble que le premier point est fumeux, on l'entend souvent (ou ses variations) mais ce que j'entends c'est surtout "c'est qu'un ordinateur avec des 1 et des 0 évidemment il ne peut pas penser il faut une âme pour ça".

 

c'est différent de dire :

 

- 1 + 1 = ? : 2, parce que si j'ai une entité puis une autre entité alors j'ai 2 entités
- 1 + 1 = ?  : 2, parce que d'après toutes les données que j'ai vu, 2 est le réponse la plus couramment donnée après les tokens 1 + 1

 

y'a pas besoin d'âme, la question c'est que c'est différent de générer des tokens vs comprendre ce que signifient les tokens générés. Note qu'un ordinateur sait le faire, tu peux écrire un parseur qui va parser 1, espace, plus, espace, 1, espace, égal, et avec une grammaire, comprendre que tu fais 1+1 et effectivement faire ce calcul. Ça ne demande aucune âme.

 

Le net grouille d'exemples où les gens embrouillent le modèle avec des séries de prompt qui montrent que le truc a aucune idée de ce qu'il raconte.

Message cité 1 fois
Message édité par Jubijub le 06-12-2023 à 18:54:50

---------------
Jubi Photos : Flickr - 500px
n°2459629
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 06-12-2023 à 19:18:59  profilanswer
 

Jubijub a écrit :

 

au début on raisonne comme ça, mais on sait vérifier / altérer ce qu'on pense (on le fait pas toujours, mais on en est capable. C'est comme quand tu demandes en interview d'estimation si la personne trouve son résultat plausible).

 



Prédire le degré de confiance dans une prédiction c'est une prédiction comme une autre. On ne teste rien quand on le fait, on se fonde sur nos expériences passées et on simule le futur comme on peut, en prenant en compte tout ce qui est contingent.

 

Encore une fois il y a sans doute des raisons techniques pour lesquels les modèles actuels sont très mauvais pour cette tâche en particulier, mais ça ne se résume pas à "il ne fait que prédire" ou "c'est juste des probabilités", parce que c'est typiquement le genre d'argument qui marchent très bien sur un ordinateur biologique.

 

Quant à la liste de trucs qui font que ça marche pas elle me semble juste ; dans mon domaine le seul truc qui fait que je suis pas au chômage pour l'instant c'est le coût, et je mettrais pas ma main à couper que ça va rester comme ça dix ans.


Message édité par hephaestos le 06-12-2023 à 19:43:08
n°2459630
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 06-12-2023 à 19:42:40  profilanswer
 

Jubijub a écrit :

 

c'est différent de dire :

 

- 1 + 1 = ? : 2, parce que si j'ai une entité puis une autre entité alors j'ai 2 entités
- 1 + 1 = ? : 2, parce que d'après toutes les données que j'ai vu, 2 est le réponse la plus couramment donnée après les tokens 1 + 1


Sauf que ce n'est pas ce qu'il fait : il ne mémorise pas (ou pas que), il interpole en fonction de tout ce qu'il a vu, c'est très différent, et très proche de ce qu'on fait nous-même. Il n'utilise pas de raisonnement pour parvenir à sa conclusion, pour l'instant c'est comme s'il faisait des maths à l'instinct. Du coup c'est pas terrible. Mais ça n'empêche pas d'assimiler des règles plus ou moins proprement.

Message cité 2 fois
Message édité par hephaestos le 06-12-2023 à 19:43:39
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  25727  25728  25729  ..  27006  27007  27008  27009  27010  27011

Aller à :
Ajouter une réponse
 

Sujets relatifs
Plus de sujets relatifs à : [blabla@olympe] Le topic du modo, dieu de la fibre et du monde


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)