Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2707 connectés 

 


Dernière réponse
Sujet : [blabla@olympe] Le topic du modo, dieu de la fibre et du monde
gilou

Jubijub a écrit :

Trump est fascinant : quand tu crois qu’il a touché le fond, il en a encore sous le pied l’animal !
 
Son dernier post sur Truth Social est incroyable.

Le fond, c'est avec le ministre de la guerre de Trump qu'on le touche. Le type (évangéliste) est tellement sectaire qu'il a interdit aux catholiques de participer à la messe au pentagone (et il n'a bien sur aucune qualification pour son poste, mais avec le gouvernement Trump, on est habitué).
A+,


Votre réponse
Nom d'utilisateur    Pour poster, vous devez être inscrit sur ce forum .... si ce n'est pas le cas, cliquez ici !
Le ton de votre message                        
                       
Votre réponse


[b][i][u][strike][spoiler][fixed][cpp][url][email][img][*]   
 
   [quote]
 

Options

 
Vous avez perdu votre mot de passe ?


Vue Rapide de la discussion
masklinn

Flaie a écrit :

TIL les repeating blocks en Yaml, ça me sauve quelques lignes dans notre open api file.
 
voilà


Composer des components openapi ($ref et allOf ou anyOf) me semble habituellement plus judicieux?

Flaie TIL les repeating blocks en Yaml, ça me sauve quelques lignes dans notre open api file.
 
voilà
nraynaud j'ai trouvé un composant JS sympa sur le net, https://bossanova.uk/jspreadsheet/v4/examples/events C'est un composant spreadsheet comme google sheet. ça permet d'avoir juste un petit bout de spreadsheet dans la page au lieu de faire toute sa web app sur un spreadsheet géant.  
dans mon cas, c'est une liste des courses pour des billets de musée, les colonnes sont fixés par l'API, mais on peut copier/coller des dates depuis ailleurs, tirer sur des dates pour remplir vers le bas par un pattern. Mais on a des colonnes fixes comme dans une app, des colonnes non éditables, et de la place autour du tableau pour mettre de l'UI.
Xavier_OM

el muchacho a écrit :


J'ai pas compris le jeu de mots. [:wam]


 
https://www.youtube.com/watch?v=EU0zqPGqeYA

el muchacho

el_barbone a écrit :


harko lui l'aurait vraiment fait :o


J'ai pas compris le jeu de mots. [:wam]

Elmoricq blabla
el_barbone

Elmoricq a écrit :

Je viens de me blabla pour 1h pour jeu de mot douteux.


harko lui l'aurait vraiment fait :o

Elmoricq Je viens de me blabla pour 1h pour jeu de mot douteux.
Dion j'ai alerté  [:gregosv]
Elmoricq Ikigai motherfucker ?
Dion Quitte à être dans les généralités, autant partir sur un classique comme l'Ikigai
sligor

el muchacho a écrit :

ANDREW HUANG il y a 13 heures
 
This is how you decide if a project is worth taking on. If it fills two thirds of the triangle it's probably worth your time, and if it doesn't, you'll likely end up frustrated and filled with regret. If you ever get all three, you win! Shout “bingo” and clear the chips off your scorecard to start again.
 
https://yt3.ggpht.com/ccedlykjWKT28 [...] 1350-nd-v1


bon y'a un peu de vrai mais si tu prends tes décisions de carrière juste sur un diagramme à trois métriques tu risques de rater ta vie :o

XaTriX Fiou j'ai (encore) une formation aujourd'hui (k8s) et le formateur est parfait. C'est très rare et je tiens à le dire. Il maîtrise tous les sujets, très bonne pédagogie, bonne organisation (fullremote), tout est bien ficelé. Un régal.
___alt


 
Ah c'est bien naze tiens :(

el muchacho ANDREW HUANG il y a 13 heures
 
This is how you decide if a project is worth taking on. If it fills two thirds of the triangle it's probably worth your time, and if it doesn't, you'll likely end up frustrated and filled with regret. If you ever get all three, you win! Shout “bingo” and clear the chips off your scorecard to start again.
 
https://yt3.ggpht.com/ccedlykjWKT28 [...] 1350-nd-v1
el muchacho Jeff Dean, il en pense quoi ?
hephaestos Tu déplaces le sujet de la discussion, là. À la base, tu disais qu'ils sont voués à être cons parce qu'ils ne font que prédire des trucs. Perso je rappelle que tu ne fais que prédire des trucs, même quand tu résous un problème de maths.
 
Maintenant c'est pas parce qu'ils font essentiellement la même chose que les intelligences biologiques, qu'ils le font aussi bien. Je ne me suis jamais avancé sur savoir quand ils dépasseront leurs limites actuelles, et muchacho non plus. Par contre je suis d'accord avec lui que de mon point de vue profane, le chemin parcouru semble plus grand que ce qu'il reste à faire. Je parierais pas ma chemise sur quoi que ce soit dans le domaine.
Jubijub bref, c'est incertain.
 
Et on retrouve les memes patterns qu'à chaque fois :  
- les gens qui ont financièrement ou idéologiquement intérêt à ce que ça marche qui évidemment sont super confiants (ça inclue évidement les chercheurs qui bossent sur ces sujets. J'ai rencontré le PM et un des 2 uTL de Gemini, les mecs marchent sur l'eau, ils sont hyper confiant. J'ai depuis vu des preuves qu'ils étaient trop confiants. Je les blame pas, je pense que Sundar doit avoir des checkpoint hebdo sur le sujet, les mecs ont pas le choix)
- les gens qui ont financièrement ou idéologiquement intérêt à ce que ça marche pas qui sont dans le déni de toutes les choses que ça va changer
- les technophiles qui ont envie que ça marche parce que c'est cool
- les gens qui voient la fin du monde partout
- les gens qui n'en savent rien, mais produisent du contenu parce que c'est un sujet populaire qui crée de l'engagement
 
Aucun des groupes ci-dessous n'augmente ou ne diminue la probabilité qu'on aboutisse à l'AGI, ou que ces modèles dépassent leurs limitations actuelles.
On peut épiloguer pendant 100 pages, personne ne sait parce que ce sont des suites de problèmes hyper complexes à résoudre, et que meme si on pouvait inviter le top 10 des chercheurs sur le sujet et leur demander leur avis d'expert, t'aurais pas de consensus.
 
Ma ligne directrice sur ce genre de truc, c'est de me rappeler que l'être humain surestime les capacités à court terme de ces technologies, et sous-estime les capacités à long terme, et ça se vérifie pas trop mal sur l'ensemble des vagues technologiques passées.
el muchacho

Jubijub a écrit :


Je l’ai lu, mais y’a un peu trop de conditionnel.
 
On s’autorise à penser, dans les milieux autorisés, qu’un algorithme secret aurait pu être développé  [:ortensio]  
 
Tout ça peut être un théâtre géant pour pousser leur produit aussi, ou alors c’est un power grab qui a foiré lamentablement, ou c’est un truc pour se débarrasser dignement d’un board chiant,  et toutes ces options finalement plus probable (rasoir d’Occam)


Les suspicions sur OpenAI, ce n'est pas la partie intéressante, osef de ça. Ce n'est pas ce que je voulais que tu retiennes.

hephaestos

el muchacho a écrit :


Non, pas tout à fait. C'est effectivement ce que fait une AI, mais nous, on a inventé le raisonnement logique. Une IA est peut-être capable de conceptualiser la notion de gravitation à partir de la chute de la pomme, mais elle ne saura jamais déduire les lois de Newton et encore moins écrire les Principia Mathematicae car ça n'est plus de l'analogie ou de la mémorisation, mais des suites logiques très complexes et profondes.


Là où je veux en venir c'est que le passage d'une induction instinctive à un raisonnement construit n'est pas un changement dans la nature de la pensée. C'est la même chose, appliqué différemment, avec notamment une construction de la pensée en différences couches d'abstraction, chaque couche étant relativement triviale. Manifestement, comme tu le soulignes, il faudra aider les modèles à mettre en place un raisonnement en paliers pour pouvoir mettre en oeuvre les abstractions nécessaires à ce genre de tâches ; ils n'y parviendront pas juste en rajoutant des exemples.
 
Tout ça c'est ce qui a nourri les tentatives de construction d'IA par réseau de neurones, parce qu'on a constaté que le cerveau est essentiellement un modèle prédictif à plusieurs couches.

el muchacho

Jubijub a écrit :


Je l’ai lu, mais y’a un peu trop de conditionnel.

 

On s’autorise à penser, dans les milieux autorisés, qu’un algorithme secret aurait pu être développé  [:ortensio]

 

Tout ça peut être un théâtre géant pour pousser leur produit aussi, ou alors c’est un power grab qui a foiré lamentablement, ou c’est un truc pour se débarrasser dignement d’un board chiant,  et toutes ces options finalement plus probable (rasoir d’Occam)


Il n'y a aucun conditionnel dans ce que j'ai écrit. C'est ce qui fera une AGI, j'en suis à peu près certain.
J'ai étoffé mon message précédent avec un exemple pour expliciter ce que fait un moteur logique associé à un LLM.

 

edit:je viens de faire le test avec GPT3.5

Citation :


Si je suis en week-end, quel jour est-on demain ?

 

ChatGPT
Si vous êtes en week-end aujourd'hui, et en supposant que nous sommes actuellement samedi, demain serait dimanche. Cependant, si nous sommes déjà dimanche, alors demain serait lundi.

 

User
Si je dis que le week-end est désormais un mercredi et un jeudi, peux-tu répondre à la question précédente ?

 

ChatGPT
Bien sûr ! Si vous considérez que le week-end est maintenant le mercredi et le jeudi, et aujourd'hui est le mercredi, alors demain serait le jeudi.

 

User
et si on est jeudi, quel est le lendemain du week-end ?

 

ChatGPT
Si le week-end est désormais le mercredi et le jeudi, et aujourd'hui est jeudi, le lendemain du week-end serait le mercredi.


Cela confirme ce que j'intuitais. Une LLM avec logique ne se tromperait pas ici. Il appliquerait la logique qui dit que:
1) ordre des jours lundi -> mardi -> mercredi -> jeudi etc
2) lendemain = suivant dans l'ordre

Jubijub

el muchacho a écrit :


Je vous invite à lire mon post sur le sujet.
Je crois que c'est ce que fait Q* d'OpenAI et c'est, selon ce que certains disent, la raison pour laquelle Sam Altman aurait été viré.


Je l’ai lu, mais y’a un peu trop de conditionnel.
 
On s’autorise à penser, dans les milieux autorisés, qu’un algorithme secret aurait pu être développé  [:ortensio]  
 
Tout ça peut être un théâtre géant pour pousser leur produit aussi, ou alors c’est un power grab qui a foiré lamentablement, ou c’est un truc pour se débarrasser dignement d’un board chiant,  et toutes ces options finalement plus probable (rasoir d’Occam)

el muchacho

sligor a écrit :

les humains sont sensibles au prompt sur des domaines où ils ne sont pas experts.
En fait on en revient à la qualité et quantité du jeux d'entrainement.


Jubijub a écrit :

 

c'est différent de dire :

 

- 1 + 1 = ? : 2, parce que si j'ai une entité puis une autre entité alors j'ai 2 entités
- 1 + 1 = ?  : 2, parce que d'après toutes les données que j'ai vu, 2 est le réponse la plus couramment donnée après les tokens 1 + 1

 

y'a pas besoin d'âme, la question c'est que c'est différent de générer des tokens vs comprendre ce que signifient les tokens générés. Note qu'un ordinateur sait le faire, tu peux écrire un parseur qui va parser 1, espace, plus, espace, 1, espace, égal, et avec une grammaire, comprendre que tu fais 1+1 et effectivement faire ce calcul. Ça ne demande aucune âme.

 

Le net grouille d'exemples où les gens embrouillent le modèle avec des séries de prompt qui montrent que le truc a aucune idée de ce qu'il raconte.


Je vous invite à lire mon post sur le sujet.
Je crois que c'est ce que fait Q* d'OpenAI et c'est, selon ce que certains disent, la raison pour laquelle Sam Altman aurait été viré.

hephaestos a écrit :


Sauf que ce n'est pas ce qu'il fait : il ne mémorise pas (ou pas que), il interpole en fonction de tout ce qu'il a vu, c'est très différent, et très proche de ce qu'on fait nous-même. Il n'utilise pas de raisonnement pour parvenir à sa conclusion, pour l'instant c'est comme s'il faisait des maths à l'instinct. Du coup c'est pas terrible. Mais ça n'empêche pas d'assimiler des règles plus ou moins proprement.


Non, pas tout à fait. C'est effectivement ce que fait une AI, mais nous, on a inventé le raisonnement logique. Une IA est peut-être capable de conceptualiser la notion de gravitation à partir de la chute de la pomme, mais elle ne saura jamais déduire les lois de Newton et encore moins écrire les Principia Mathematicae car ça n'est plus de l'analogie ou de la mémorisation, mais des suites logiques très complexes et profondes.

 

Certes, avant d'arriver aux mathématiques modernes, on a vécu des millénaires sans savoir compter, donc l'humanité a mis très très longtemps avant d'arriver même au niveau d'une IA actuelle. Mais même avant Archimède, il est probable qu'on savait à peu près tenir un raisonnement qui se tient, sur des concepts peu abstraits.

 

Exemple:
a - avec un apprentissage profond, une IA "apprend" que les jours se suivent ainsi samedi -> dimanche -> lundi. Qu'est-ce que ça veut dire ? Qu'elle a vu dans 99,97% de ses jeux de données que c'est ainsi que ce suivent les jours. Donc si on lui demande quel est le lendemain du dimanche, elle répond que c'est le lundi. Mais il existe un prompt super moisi où l'algo de descente tombera sur un minimum local : LE cas où elle a lu et mémorisé que le lendemain du dimanche est un mardi (à cause d'une typo, ou alors elle confond avec les jours ouvrés, que sais-je).

 

b - elle "apprend" de même que les jours se suivent ainsi samedi -> dimanche -> lundi.
Mais cette fois-ci, au lieu de se baser entièrement sur le jeu de données, elles effectue des raisonnements internes sur ses données pour consolider cette notion de succession des jours et passer de 99,97% à 99,9999%, soit 2 ordres de grandeur plus sûrs, et ce avec le même jeu de données au départ. Par la suite, lors du prompt, elle est aussi capable d'appliquer un raisonnement, à savoir qu'elle ne répond plus seulement via une probabilité sur ses données consolidées, mais aussi et surtout elle applique un raisonnement: SI on te dit que c'est le week-end, ALORS le lendemain est soit un dimanche, soit un lundi. Mais SI dans le prompt, on change la définition du week-end et qu'on décide que c'est le mercredi et le jeudi, ALORS un moteur logique te répondra que le lendemain est soit un jeudi, soit un vendredi. Et ça, un LLM est incapable de le faire, alors que pour nous, c'est immédiat.

Elmoricq Jour 7 :  [:drifter333]
masklinn

beel1 a écrit :


Spoiler :

Pourquoi contourner ? [:boidleau]
Le temps de coder la formule quadratique j'ai laissé tourner un
 
for (i=1;i<t;i++) if (i*(t-i)>d) count++;
 
Bah en fait j'ai pas eu le temps de switcher de fenêtre, ça a mis 280ms [:ddr555]


Bon 'faut pas se leurrer, ça va pas être tout le temps comme ça :D


https://i.redd.it/j1w476b14m4c1.png

beel1

skeye a écrit :

Facile ce matin :o Je vais peut-être pouvoir prendre le temps de finir celui d'hier comme je voulais. :o

Spoiler :


Il dit comment contourner la seule difficulté dans l'énoncé dans le 2... :o
https://github.com/mrossard/aoc2023 [...] 6/day6.php



Spoiler :

Pourquoi contourner ? [:boidleau]
Le temps de coder la formule quadratique j'ai laissé tourner un
 
for (i=1;i<t;i++) if (i*(t-i)>d) count++;
 
Bah en fait j'ai pas eu le temps de switcher de fenêtre, ça a mis 280ms [:ddr555]


Bon 'faut pas se leurrer, ça va pas être tout le temps comme ça :D

Dion

Jubijub a écrit :


Ils ont ouvert  


:D
 

nucl3arfl0


C'est génial  :love:  
 
Et vivre ça de son temps, encore plus  :love:

Jubijub

Dion a écrit :

Citation :

Apple Set to Avoid EU Crackdown Over iMessage Service
EU tentatively finds it doesn’t warrant being covered by DMA


 
Jubipaté incoming  :whistle:


Ils ont ouvert pile à temps, bien joué
 

SekYo a écrit :


Je ne suis pas sur de te suivre là. Comme humain, pour un calcul comme ça, je vois pas trop ce que tu entends par interpolation. En temps qu'humain, on "comprend" le concept de quantité "1" (que ce soit un nombre de bonbons, une quantité de chaise, ou ici un caractère représentant cette quantité), on comprend aussi le concept de l'addition, et du coup le résultat "2" vient pas vraiment par interpolation mais par l'application de cette opération sur les deux opérandes non ? Et du coup c'est entre autre pour ça je suppose qu'on est capable de calculer 343434 + 12 même si au cours de notre scolarité on a jamais vu auparavant le résultat d'un tel calcul.
 
Ou alors tu donnes une interprétation très large à cette notion ? Ou j'ai rien compris de ce que tu voulais dire ? :D


+1
 

hephaestos a écrit :


On ne fait que rejouer ce qu'on a appris en appliquant des motifs, on part du principe qu'ajouter les chiffres qui composent un nombre marchera quel que soit le nombre, alors qu'on n'a jamais vérifié, en tout cas pas quand on l'a appris. Gemini et GPT ne fonctionnent pas comme nous, mais la différence n'a rien d'essentiel, les briques sont là : mémorisation, reconnaissance de motifs, généralisation, prédiction, optimisation des résultats ; tout ce qui fait un cerveau biologique.


Je suis pas sur, en tout cas pas rapidement.
 
Ça a beaucoup de mal à gérer les situations non vues dans le jeu d’entraînement (c’est pour ça qu’on discute pour le forker et le fine tuner avec nos données), et donc j’achète pas la généralisation. Et c’est pas faute d’essayer, et on est pas la seule équipe qui essaye
 
Après la vidéo c’est chaud, la temporalité c’est tellement merdique à gérer, mais c’est aussi un use case proche de la vraie vie : une discussion, c’est une personne qui s’anime, c’est du son à parser pour avoir la transcription, c’est des métadonnées (qui est la personne, etc…)
 
Et vu le nombre de frames max que ça ingère, on y est pas du tout

hephaestos

SekYo a écrit :


Je ne suis pas sur de te suivre là. Comme humain, pour un calcul comme ça, je vois pas trop ce que tu entends par interpolation. En temps qu'humain, on "comprend" le concept de quantité "1" (que ce soit un nombre de bonbons, une quantité de chaise, ou ici un caractère représentant cette quantité), on comprend aussi le concept de l'addition, et du coup le résultat "2" vient pas vraiment par interpolation mais par l'application de cette opération sur les deux opérandes non ? Et du coup c'est entre autre pour ça je suppose qu'on est capable de calculer 343434 + 12 même si au cours de notre scolarité on a jamais vu auparavant le résultat d'un tel calcul.

 

Ou alors tu donnes une interprétation très large à cette notion ? Ou j'ai rien compris de ce que tu voulais dire ? :D


On ne fait que rejouer ce qu'on a appris en appliquant des motifs, on part du principe qu'ajouter les chiffres qui composent un nombre marchera quel que soit le nombre, alors qu'on n'a jamais vérifié, en tout cas pas quand on l'a appris. Gemini et GPT ne fonctionnent pas comme nous, mais la différence n'a rien d'essentiel, les briques sont là : mémorisation, reconnaissance de motifs, généralisation, prédiction, optimisation des résultats ; tout ce qui fait un cerveau biologique.

Flaie https://x.com/remileblond/status/1732419456272318614
 
Il va enfin nous fumer chaque matin en décembre dès 2024
SekYo

hephaestos a écrit :


Sauf que ce n'est pas ce qu'il fait : il ne mémorise pas (ou pas que), il interpole en fonction de tout ce qu'il a vu, c'est très différent, et très proche de ce qu'on fait nous-même. Il n'utilise pas de raisonnement pour parvenir à sa conclusion, pour l'instant c'est comme s'il faisait des maths à l'instinct. Du coup c'est pas terrible. Mais ça n'empêche pas d'assimiler des règles plus ou moins proprement.


Je ne suis pas sur de te suivre là. Comme humain, pour un calcul comme ça, je vois pas trop ce que tu entends par interpolation. En temps qu'humain, on "comprend" le concept de quantité "1" (que ce soit un nombre de bonbons, une quantité de chaise, ou ici un caractère représentant cette quantité), on comprend aussi le concept de l'addition, et du coup le résultat "2" vient pas vraiment par interpolation mais par l'application de cette opération sur les deux opérandes non ? Et du coup c'est entre autre pour ça je suppose qu'on est capable de calculer 343434 + 12 même si au cours de notre scolarité on a jamais vu auparavant le résultat d'un tel calcul.
 
Ou alors tu donnes une interprétation très large à cette notion ? Ou j'ai rien compris de ce que tu voulais dire ? :D

Dion

Citation :

Apple Set to Avoid EU Crackdown Over iMessage Service
EU tentatively finds it doesn’t warrant being covered by DMA


 
Jubipaté incoming  :whistle:

Dion

Jubijub a écrit :

Mon équipe a accès aux versions internes de ce truc, on le teste depuis des mois. Je peux t’assurer que je crains pas pour mon job.


Oui mais toi tu as un job d'élite qui nécessite une compréhension fine d'enjeux stratégiques complexes, des capacités analytiques poussées et des capacités relationnelles de tout premier plan.
Hepha c'est un crasseux, il est encore à la COGIP à se faire rétamer au comité des changements :

hephaestos a écrit :

Aujourd'hui j'ai proposé un changement pour faire économiser 300 teraoctets de RAM pour un process que notre équipe utilise. Le problème c'est que c'est pas comptabilisé, c'est pas assez, alors tout le monde s'en fout [:lergo:3]


 
Il ne veut même pas être dans l'équipe qui fait planter des arbres :(
 

XaTriX notion ça me saoule  
ces trucs cloudé qui t'emmerdent pour export et qui gardent tes données c'est un nogo pour moi
XaTriX cheh
koskoz ALT /FOU/ /FOU/ /FOU/ https://forum.hardware.fr/forum2.ph [...] #t69727728
koskoz

sligor a écrit :


j'ai commencé par notion pour le perso il y a quelques années, obsidian n'existait pas
 
pour le pro je ne peux pas utiliser notion (stockage cloud externe, pas de self hosting possible)
 
je pourrai aussi migrer le perso aussi de notion vers obsidian. Mais au final notion marche bien, j'ai pas envie de perdre du temps de changer pour le moment. Il faut juste que je pense a backuper regulierement


 
:jap:

el muchacho


Impressionnant. J'aimerais aussi voir ce que fait Q*, l'algo d'OpenAI qui aurait mené au drama Sam Altman.

sligor

koskoz a écrit :

J'ai l'impression que Notion est overkill pour mon besoin.
 
D'ailleurs dans ma précédente mission on l'utilisait sur la fin, j'avais trouvé ça fouillis.
 
D'ailleurs Sligor je suis surpris que tu utilises Notion pour le perso et Obsidian pour le pro :D
 
Pourquoi ce choix (le perso) ? Tu voulais tester autre chose ou Obsidian ne répondait pas à ton besoin ?


j'ai commencé par notion pour le perso il y a quelques années, obsidian n'existait pas
 
pour le pro je ne peux pas utiliser notion (stockage cloud externe, pas de self hosting possible)
 
je pourrai aussi migrer le perso aussi de notion vers obsidian. Mais au final notion marche bien, j'ai pas envie de perdre du temps de changer pour le moment. Il faut juste que je pense a backuper regulierement

hephaestos

Jubijub a écrit :

 

c'est différent de dire :

 

- 1 + 1 = ? : 2, parce que si j'ai une entité puis une autre entité alors j'ai 2 entités
- 1 + 1 = ? : 2, parce que d'après toutes les données que j'ai vu, 2 est le réponse la plus couramment donnée après les tokens 1 + 1


Sauf que ce n'est pas ce qu'il fait : il ne mémorise pas (ou pas que), il interpole en fonction de tout ce qu'il a vu, c'est très différent, et très proche de ce qu'on fait nous-même. Il n'utilise pas de raisonnement pour parvenir à sa conclusion, pour l'instant c'est comme s'il faisait des maths à l'instinct. Du coup c'est pas terrible. Mais ça n'empêche pas d'assimiler des règles plus ou moins proprement.


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)