| Jubijub |
hephaestos a écrit :
C'est très réducteur vis à vis des modèles de language, et en creux c'est une vision romancée de notre façon de raisonner, qui est elle aussi purement inductive, fondée sur ce qu'on a vécu et ce qu'on pense qu'il va se passer. Après je pense qu'il y a manifestement effectivement une difficulté technique pour faire apprendre le doute aux modèles, mais je ne pense pas que ce soit intrinséquement insurmontable.
|
au début on raisonne comme ça, mais on sait vérifier / altérer ce qu'on pense (on le fait pas toujours, mais on en est capable. C'est comme quand tu demandes en interview d'estimation si la personne trouve son résultat plausible). Je suis un vieux con blasé, mais disons que ça fait 18 ans que je bosse, et c'est pas la première technology hype que je vois où tout le monde m'explique que je suis un con, et que ça va etre géniaaaaaaaaal, et que tous les problèmes sont solubles, etc... - Mobile : nan mais tu vois ça va révolutionner l'informatique, plus personne n'aura d'ordinateur. On vendait ça fin 1990, ça a pris 10 ans pour que l'iPhone sorte, et ça a ensuite pris des années pour avoir un usage mobile qui dépasse l'usage desktop - Geolocalisation : c'est super on pourra faire du on demand advertising, guider les gens dans les magasins avec les beacons, c'est le futur (Foursquare, anyone ?) - RPI (robotic process automation) : l'IA est trop maligne, les gens sont cons, remplaçons les hordes de gens inutiles en offshore avec de l'IA, c'est trop bien (ça fait des années qu'on le pitch déjà (on me le vendrait chez Nestlé en 2017 déjà), ça a toujours pas pris, et je peux te citer une chiée de raisons pour ça) - AR/VR - Blockchain : c'est le futur des transactions, c'est LA source of truth pour la supply chain, etc... Au final ces trucs sont soit morts, soit ont fini par trouver des usages de niche très loin du raz de marée annoncé, soit ça a mis 10-15 ans de plus à sortir l'IA ça va avoir plein d'usage incroyable, et c'est un saut technologique majeur, mais c'est vraiment pas sec. Pour l'instant on a encore pas de use case où ça fait mieux que notre modèle "classique", parce qu'un modèle basique avec des millions d'exemples marche toujours mieux qu'un truc qui sait soit disant abstraire à partir de centaines d'exemples. Sachant qu'un etre reviewer humain est pour l'instant capable d'abstraire avec juste 5-10 exemples. les capacités d'abstraction de ces modèles deviennent assez incroyable, mais ça reste "bof" par rapport à un humain lambda. Et meme en envoyant toute la prod de nvidia on arrive meme pas à satisfaire les besoins de calculs, et chaque nouvelle generation de modele est un à deux ordre de magnitude plus lourd que la précédente, on est encore très très loin de la généralisation (et avant que qqn dise "oui mais le matos suivra", je soulignerais qu'on dit la meme chose du VR depuis des années) |