Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2648 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  322  323  324  325  326  327
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°74386306
Kalymereau
This is not a method
Posté le 13-03-2026 à 13:31:56  profilanswer
 

Reprise du message précédent :

kaloskagatos a écrit :


 
Non mais là tu parles de conscience.
 
L'intelligence c'est pas très compliqué à reproduire.
https://www.dictionnaire-academie.fr/article/A9I1608


 
Nawak. On ne sait pas définir scientifiquement l'intelligence ni la conscience. On en a une interprétation intuitive, philosophique, mais pas scientifique. Et j'attends que tu me donnes un exemple d'un être qui serait intelligent mais pas conscient :D


---------------
rm -rf internet/
mood
Publicité
Posté le 13-03-2026 à 13:31:56  profilanswer
 

n°74386316
kaloskagat​os
Posté le 13-03-2026 à 13:34:28  profilanswer
 

Un blob


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°74386331
Kalymereau
This is not a method
Posté le 13-03-2026 à 13:40:03  profilanswer
 

Lemminkainen a écrit :


La question c'est : est-ce que des milliards d'opérations simples organisées d'une certaine manière peuvent faire émerger quelque chose qu'on appelle intelligence ? Bein notre cerveau est la preuve que oui. 80 milliards de neurones qui font chacun un truc très basique (transmettre ou pas un signal) et pourtant on se considère comme intelligent. [:spamafote]
 


 
Sauf qu'on ne sait pas décrire scientifiquement un ensemble de 80 milliards de trucs qui font chacun un truc très basique. C'est bien là le problème. Rien ne dit que les 80 milliards c'est pas quelque chose de plus compliqué que l'addition des "1".
 
Le paramètre température a été cité comme faisant partie des modèles d'IA. C'est d'autant plus pertinent qu'en physique, la température n'est définie que de manière macroscopique: on sait décrire scientifiquement un gaz, l'un des paramètres étant la température, mais c'est seulement une description approximative et « en moyenne » (statistique, la température étant un concept statistique). On ne sait pas décrire le comportement macroscopique du gaz comme la somme des milliards des comportements microscopiques de chacune des molécules qui le composent, et on ne sait même pas définir l'émergence du paramètre température quand on passe du microscopique (quelques molécules qui interagissent) au macroscopique (le gaz).
 
On peut considérer que c'est le passage aux grands nombres qui rend cette transition microscopique->macroscopique compliquée.  Ou on peut considérer qu'il y a autre chose, par exemple des phénomènes quantiques, sachant que la superconductivité et la superfluidité sont les deux seuls phénomènes connus à la fois quantiques et macroscopiques.

Message cité 1 fois
Message édité par Kalymereau le 13-03-2026 à 13:43:47

---------------
rm -rf internet/
n°74386357
Lemminkain​en
Chantre de la lyre
Posté le 13-03-2026 à 13:45:22  profilanswer
 

Kalymereau a écrit :


 
Sauf qu'on ne sait pas décrire scientifiquement un ensemble de 80 milliards de trucs qui font chacun un truc très basique. C'est bien là le problème. Rien ne dit que les 80 milliards c'est pas quelque chose de plus compliqué que l'addition des "1".
 
Le paramètre température a été cité comme faisant partie des modèles d'IA. C'est d'autant plus pertinent qu'en physique, la température n'est définie que de manière macroscopique: on sait décrire scientifiquement un gaz, l'un des paramètres étant la température, mais c'est seulement une description approximative et « en moyenne » (statistique, la température étant un concept statistique). On ne sait pas décrire le comportement macroscopique du gaz comme la somme des milliards des comportements microscopiques de chacune des molécules qui le composent, et on ne sait même pas définir l'émergence du paramètre température quand on passe du microscopique (quelques molécules qui interagissent) au macroscopique (le gaz).


Tout à fait.  
 
C'est bien pour ça qu'il faut être "prudent" et ne pas affirmer : "Les mathématiques ne pourront pas créer une inteligence." :)
La complexité : biochimie/mathématique/hormonales/... est telle qu'aujourd'hui il est difficile de se projeter. On a déjà du mal à comprendre les LLM (les très gros modèles) à 100%. :o
 
Je vous conseille ces vidéos très instructives je trouve : https://www.college-de-france.fr/fr [...] telligence  :jap:  


---------------
Que vois-tu quand tu fermes les yeux ?
n°74386493
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 14:12:23  profilanswer
 

docmaboul a écrit :


 
Prove me wrong. Autre sophisme. Franchement ça vole pas haut tes histoires. C'est à toi de démontrer qu'un LLM, c'est "juste" des maths et, contre l'évidence, qu'aucune intelligence ne peut émerger de cette méthode. Tu as en fait une approche essentialiste de l'intelligence. Il y aurait une vraie intelligence dont, nous, les êtres humains serions dotés, et simplement une illusion d'intelligence chez les LLMs, parce que eux sont juste issus de maths et qu'aucune intelligence ne peut émerger d'un énorme tas de données et de formules mathématiques. En toute rigueur, c'est à toi de démontrer la véracité de ton approche. Prouve donc qu'aucune intelligence ne peut être modélisée de manière mathématique.


 
Juste histoire de pas parler dans le vide. Quels LLMs/Agents utilises-tu, à quelle fréquence et pour faire quoi?
Qu'est-ce qui te fais penser qu'ils sont intelligents?

Message cité 2 fois
Message édité par the_fennec le 13-03-2026 à 14:17:51

---------------
Faudra que je teste un jour :o
n°74386777
kaloskagat​os
Posté le 13-03-2026 à 14:57:12  profilanswer
 

the_fennec a écrit :


 
Juste histoire de pas parler dans le vide. Quels LLMs/Agents utilises-tu, à quelle fréquence et pour faire quoi?
Qu'est-ce qui te fais penser qu'ils sont intelligents?


 
A quel moment on arrête de parler de LLM et on se concentre sur les systèmes agentiques ? Un système agentique peut fonctionner de manière autonome, possède de la mémoire, sait planifier, réagit à des stimuli sans besoin d'être prompté, et peut poursuivre un but en réagissant à son environnement (selon comment il a été entraîné), se répliquer, ce qui correspond aux principes de l'évolution. L'intelligence émerge du système global. Un neurone n'a pas d'intelligence, un individu oui. Un blob n'a pas de système nerveux, pourtant il a une forme d'intelligence.  
 
Des articles comme Anthropic en publie montrent justement l'émergence de ces comportements intelligents https://www-cdn.anthropic.com/f21d9 [...] d9e232.pdf
 
Un LLM reste un outil, un système agentique (et bientôt des robots) seront bientôt une autre forme d'intelligence, comme le blob ou les animaux. D'où l'idée de continuum de l'intelligence, on ne sait pas QUAND elle apparaît, on le découvre seulement après qu'elle soit apparue. La vie n'est peut-être pas apparue spontanément, elle est peut-être apparue progressivement après assemblage d'éléments chimiques pouvant se répliquer pour finalement aboutir à des protocellules.
 
Hors sujet mais je vous conseille cette vidéo d'EGO pour comparer avec la possibilité de créer des systèmes répliquant sans être réellement vivants https://www.youtube.com/watch?v=cKkFzGMfWA8&t
 


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°74386951
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 15:22:53  profilanswer
 

J'ai mis LLMs/Agents dans mon post...


---------------
Faudra que je teste un jour :o
n°74387063
Latiole
Posté le 13-03-2026 à 15:39:32  profilanswer
 

Vous connaissez un bonne IA gratuite capable de traduire des bulles de BD dans la même police (ou très similaire) d'origine ?
Sans qu'on voit clairement qu'il y a eu retourche type MS Paint :D
 
Celle que j'essaie ne sont fichues de garder les textes dans les bulles et modifier par Paint, ca se voit trop  [:tinostar]  
Merci

n°74387089
Sirolimus
Posté le 13-03-2026 à 15:43:06  profilanswer
 

La vidéo du jeu du trombone pose une autre question tout aussi cruciale et intéressante. , est ce que l'ia héritera de la volonté de puissance de tout système biologique. Aka la propension à s'étendre jusqu'à trouver ses limites.  
Est ce que Clytie réclame plus de puissance serveur ?

n°74387153
kaloskagat​os
Posté le 13-03-2026 à 15:49:46  profilanswer
 

the_fennec a écrit :

J'ai mis LLMs/Agents dans mon post...


 
Oui désolé, c'était pas pour répondre à ton post ou à ta question, juste pour centrer le débat uniquement sur les agents, parce que je suis d'accord que LLM = maths. J'aurai pas du te quoter ou reformuler.


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
mood
Publicité
Posté le 13-03-2026 à 15:49:46  profilanswer
 

n°74387305
john5969
Posté le 13-03-2026 à 16:09:52  profilanswer
 

kaloskagatos a écrit :


 
Oui désolé, c'était pas pour répondre à ton post ou à ta question, juste pour centrer le débat uniquement sur les agents, parce que je suis d'accord que LLM = maths. J'aurai pas du te quoter ou reformuler.


 
comment la plebe accède aux agents IA? gemini en abonnement on fait comment? question de noob je parle juste avec gemini, comment on level up avec un agent?

n°74387368
kaloskagat​os
Posté le 13-03-2026 à 16:17:56  profilanswer
 

john5969 a écrit :

 

comment la plebe accède aux agents IA? gemini en abonnement on fait comment? question de noob je parle juste avec gemini, comment on level up avec un agent?

 

Ca dépend jusqu'à quel niveau t'es prêt à mettre les mains dans le cambouis.

 

Y'a des trucs web https://www.kimi.com/agent ou https://manus.im/ j'ai rien testé et y'a sûrement plein de trucs différents, ça reste limité car dans le navigateur

 

Y'a des applis comme codex desktop ou claude cowork, qui accèdent en local au PC https://openai.com/index/introducing-the-codex-app/ , https://claude.com/product/cowork

 


Après c'est des outils en ligne de commande comme codex, claude code, ou dans un IDE comme Antigravity, VSCode

 

Ou des trucs encore plus agentique comme OpenClaw, il commence à y avoir des trucs simples à déployer, mais ça dépend du niveau technique de ladite plèbe

 

Message cité 1 fois
Message édité par kaloskagatos le 13-03-2026 à 16:25:09

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°74387722
john5969
Posté le 13-03-2026 à 17:18:51  profilanswer
 

kaloskagatos a écrit :


 
Ca dépend jusqu'à quel niveau t'es prêt à mettre les mains dans le cambouis.
 
Y'a des trucs web https://www.kimi.com/agent ou https://manus.im/ j'ai rien testé et y'a sûrement plein de trucs différents, ça reste limité car dans le navigateur
 
Y'a des applis comme codex desktop ou claude cowork, qui accèdent en local au PC https://openai.com/index/introducing-the-codex-app/ , https://claude.com/product/cowork
 
 
Après c'est des outils en ligne de commande comme codex, claude code, ou dans un IDE comme Antigravity, VSCode
 
Ou des trucs encore plus agentique comme OpenClaw, il commence à y avoir des trucs simples à déployer, mais ça dépend du niveau technique de ladite plèbe
 


 
 :jap:  

n°74388017
falkon1000
Posté le 13-03-2026 à 18:23:32  profilanswer
 

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nulla eu lorem dignissim, varius diam tristique, consequat mi. Nunc arcu augue, vehicula sit amet convallis suscipit, fermentum a sapien. Cras scelerisque luctus sem, vitae laoreet elit facilisis sit amet. Sed fringilla finibus vehicula. Sed malesuada nulla dolor, in tempus ipsum scelerisque nec. Mauris aliquam, mauris vitae ultricies ornare, elit ante ultrices neque, sed bibendum sem orci id nibh. In hac habitasse platea dictumst. Maecenas eu lobortis mauris. Phasellus sagittis non mi eu dapibus.
 
 
Et sinon, je commence à très sérieusement me poser la question de l'avenir des agences web..

n°74388051
XaTriX
Posté le 13-03-2026 à 18:29:50  profilanswer
 

falkon1000 a écrit :

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nulla eu lorem dignissim, varius diam tristique, consequat mi. Nunc arcu augue, vehicula sit amet convallis suscipit, fermentum a sapien. Cras scelerisque luctus sem, vitae laoreet elit facilisis sit amet. Sed fringilla finibus vehicula. Sed malesuada nulla dolor, in tempus ipsum scelerisque nec. Mauris aliquam, mauris vitae ultricies ornare, elit ante ultrices neque, sed bibendum sem orci id nibh. In hac habitasse platea dictumst. Maecenas eu lobortis mauris. Phasellus sagittis non mi eu dapibus.
 
 
Et sinon, je commence à très sérieusement me poser la question de l'avenir des agences web..


euh ok


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°74388068
XaTriX
Posté le 13-03-2026 à 18:34:02  profilanswer
 

il est où déjà le plan à 3$ chinois la ? :o


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°74388161
Olivie
SUUUUUUUUUUUUUU
Posté le 13-03-2026 à 18:54:15  profilanswer
 

putain j'ai niqué tout mon quota codex en une nuit sur une boucle openclaw, 5 jours sans codex...


---------------

n°74388170
XaTriX
Posté le 13-03-2026 à 18:54:55  profilanswer
 

lol


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°74388171
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 18:55:00  profilanswer
 

falkon1000 a écrit :

Et sinon, je commence à très sérieusement me poser la question de l'avenir des agences web..


Ça existe encore ? :o


---------------
Faudra que je teste un jour :o
n°74388181
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 18:56:42  profilanswer
 

Olivie a écrit :

putain j'ai niqué tout mon quota codex en une nuit sur une boucle openclaw, 5 jours sans codex...


 
C'est pour ça que je veux mon modèle en local :lol:. C'est pas encore ça, mais quand j'aurais ma BC250 ça va le faire!  
 [:lazar]


---------------
Faudra que je teste un jour :o
n°74388188
XaTriX
Posté le 13-03-2026 à 18:58:36  profilanswer
 

ah ouais tiens j'ai GPT Plus gratos 1 mois aussi :o
 
sinon un gros model stealth encore :o
 
Hunter Alpha - API Pricing & Providers
 
https://openrouter.ai/openrouter/hunter-alpha/opengraph-image-1oizug?93a901deb030ed0e


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°74388213
viande de ​bison
Posté le 13-03-2026 à 19:02:33  profilanswer
 

Je bosse en ce moment sur des sujets Supply Chain, avec des GSheets bien velus connectés à des données SAP.
 
Je partage le fichier à Gemini 3.1 Pro, en lui expliquant le contexte et en lui demandant un contrôle de cohérence sur l'usine à gaz.
 
Il a tout compris, l'analyse qu'il me sort est d'une pertinence effrayante [:sad frog:5]

n°74388281
Olivie
SUUUUUUUUUUUUUU
Posté le 13-03-2026 à 19:17:43  profilanswer
 

Y a personne qui s'est penché sur l'autoresearch de Karpathy ? Ca ne fait qu'en parler depuis 3-4 jours sur Twitter, mais j'ai pas encore compris comment en tirer partie :(
 

Citation :

@karpathy
Three days ago I left autoresearch tuning nanochat for ~2 days on depth=12 model. It found ~20 changes that improved the validation loss. I tested these changes yesterday and all of them were additive and transferred to larger (depth=24) models. Stacking up all of these changes, today I measured that the leaderboard's "Time to GPT-2" drops from 2.02 hours to 1.80 hours (~11% improvement), this will be the new leaderboard entry. So yes, these are real improvements and they make an actual difference. I am mildly surprised that my very first naive attempt already worked this well on top of what I thought was already a fairly manually well-tuned project.
 
This is a first for me because I am very used to doing the iterative optimization of neural network training manually. You come up with ideas, you implement them, you check if they work (better validation loss), you come up with new ideas based on that, you read some papers for inspiration, etc etc. This is the bread and butter of what I do daily for 2 decades. Seeing the agent do this entire workflow end-to-end and all by itself as it worked through approx. 700 changes autonomously is wild. It really looked at the sequence of results of experiments and used that to plan the next ones. It's not novel, ground-breaking "research" (yet), but all the adjustments are "real", I didn't find them manually previously, and they stack up and actually improved nanochat. Among the bigger things e.g.:
 
- It noticed an oversight that my parameterless QKnorm didn't have a scaler multiplier attached, so my attention was too diffuse. The agent found multipliers to sharpen it, pointing to future work.
- It found that the Value Embeddings really like regularization and I wasn't applying any (oops).
- It found that my banded attention was too conservative (i forgot to tune it).
- It found that AdamW betas were all messed up.
- It tuned the weight decay schedule.
- It tuned the network initialization.
 
This is on top of all the tuning I've already done over a good amount of time. The exact commit is here, from this "round 1" of autoresearch. I am going to kick off "round 2", and in parallel I am looking at how multiple agents can collaborate to unlock parallelism.
https://github.com/karpathy/nanocha [...] 38447a6c1b
 
All LLM frontier labs will do this. It's the final boss battle. It's a lot more complex at scale of course - you don't just have a single train. py file to tune. But doing it is "just engineering" and it's going to work. You spin up a swarm of agents, you have them collaborate to tune smaller models, you promote the most promising ideas to increasingly larger scales, and humans (optionally) contribute on the edges.
 
And more generally, *any* metric you care about that is reasonably efficient to evaluate (or that has more efficient proxy metrics such as training a smaller network) can be autoresearched by an agent swarm. It's worth thinking about whether your problem falls into this bucket too.

Message cité 1 fois
Message édité par Olivie le 13-03-2026 à 19:18:33

---------------

n°74388330
falkon1000
Posté le 13-03-2026 à 19:29:02  profilanswer
 

the_fennec a écrit :


Ça existe encore ? :o


Oui elles sont remplies de gens bizarres qui parlent le « langage de machines », portent des t-shirt noir et clament en boucle un étrange refrain »c’est pas intelligent, c’est pas intelligent »

n°74388409
kaloskagat​os
Posté le 13-03-2026 à 19:51:40  profilanswer
 

falkon1000 a écrit :

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Nulla eu lorem dignissim, varius diam tristique, consequat mi. Nunc arcu augue, vehicula sit amet convallis suscipit, fermentum a sapien. Cras scelerisque luctus sem, vitae laoreet elit facilisis sit amet. Sed fringilla finibus vehicula. Sed malesuada nulla dolor, in tempus ipsum scelerisque nec. Mauris aliquam, mauris vitae ultricies ornare, elit ante ultrices neque, sed bibendum sem orci id nibh. In hac habitasse platea dictumst. Maecenas eu lobortis mauris. Phasellus sagittis non mi eu dapibus.

 


Et sinon, je commence à très sérieusement me poser la question de l'avenir des agences web..

 

Le lorem ipsum a un rapport avec l'avenir des agences web ? J'ai pas compris.


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°74388454
XaTriX
Posté le 13-03-2026 à 20:02:44  profilanswer
 

y'a pas Pro dans GPT Plus :??:
https://i.imgur.com/4PMMFa1.png


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°74388475
docmaboul
Posté le 13-03-2026 à 20:06:59  profilanswer
 

the_fennec a écrit :

Juste histoire de pas parler dans le vide. Quels LLMs/Agents utilises-tu, à quelle fréquence et pour faire quoi?
Qu'est-ce qui te fais penser qu'ils sont intelligents?


 
Juste histoire de ne pas parler dans le vide, je vais essayer à temps perdu de coucher par écrit ce que j'ai en tête concernant ce qu'est l'intelligence, c'est-à-dire comment articuler matière et intelligence ainsi que définir objectivement un degré d'intelligence. Ce sera très arbitraire et personnel (c'est ma vision bien à moi) mais peut-être que tu comprendras ou que ça intéressera quelqu'un.
 
En attendant, n'hésite surtout pas à poster ta démonstration sur l'impossibilité de créer et faire émerger via des opérations mathématiques toute forme d'intelligence :o

n°74388480
falkon1000
Posté le 13-03-2026 à 20:08:08  profilanswer
 

Il arrive à le démontrer sans même utiliser de LLM  :D  
 
(Just kidding)

n°74388510
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-03-2026 à 20:17:50  profilanswer
 

Olivie a écrit :

putain j'ai niqué tout mon quota codex en une nuit sur une boucle openclaw, 5 jours sans codex...


T'as pas un fallback?


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°74388558
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 20:33:26  profilanswer
 

falkon1000 a écrit :


Oui elles sont remplies de gens bizarres qui parlent le « langage de machines », portent des t-shirt noir et clament en boucle un étrange refrain »c’est pas intelligent, c’est pas intelligent »


 
C'est quoi une agence web? Du SEO?


---------------
Faudra que je teste un jour :o
n°74388560
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-03-2026 à 20:33:35  profilanswer
 

Citation :

1 million context window: Now generally available for Claude Opus 4.6 and Claude Sonnet 4.6.

 

1M context is available today on the Claude Platform natively and through Amazon Bedrock, Google Cloud’s Vertex AI, and Microsoft Foundry. Claude Code Max, Team, and Enterprise users on Opus 4.6 will default to 1M context automatically.

 

See our documentation and pricing for details.


https://claude.com/blog/1m-context-ga


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°74388572
Olivie
SUUUUUUUUUUUUUU
Posté le 13-03-2026 à 20:35:55  profilanswer
 

bulldozer_fusion a écrit :


T'as pas un fallback?


J’ai Claude et Gemini.
Mais Claude vu le quota je l’utilise que pour debug OpenClaw dans Claude code.
Je me rabat sur Gemini Flash et gpt-4.1 :(

Message cité 1 fois
Message édité par Olivie le 13-03-2026 à 20:36:13

---------------

n°74388578
XaTriX
Posté le 13-03-2026 à 20:37:27  profilanswer
 

bulldozer_fusion a écrit :

Citation :

1 million context window: Now generally available for Claude Opus 4.6 and Claude Sonnet 4.6.
 
1M context is available today on the Claude Platform natively and through Amazon Bedrock, Google Cloud’s Vertex AI, and Microsoft Foundry. Claude Code Max, Team, and Enterprise users on Opus 4.6 will default to 1M context automatically.
 
See our documentation and pricing for details.


https://claude.com/blog/1m-context-ga


HAN


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°74388590
XaTriX
Posté le 13-03-2026 à 20:39:56  profilanswer
 

ah putain ça pootre ça me soaulait les 200k !
 
https://i.imgur.com/su4s0fN.png


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°74388596
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-03-2026 à 20:41:23  profilanswer
 

Olivie a écrit :


J’ai Claude et Gemini.
Mais Claude vu le quota je l’utilise que pour debug OpenClaw dans Claude code.
Je me rabat sur Gemini Flash et gpt-4.1 :(


Ah ouais dur


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°74388597
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 13-03-2026 à 20:41:38  profilanswer
 

XaTriX a écrit :

ah putain ça pootre ça me soaulait les 200k !

 

https://i.imgur.com/su4s0fN.png


 :)


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°74388607
Osx-Wind
Posté le 13-03-2026 à 20:44:43  profilanswer
 

falkon1000 a écrit :


De me côté il serait impensable de recruter un dev qui code autrement qu’avec un agent
 
En décembre on a recruté un dev, on a recruté applique ce raisonnement


Ça m'intrigue comme point. Quand tu dis "autrement qu'avec un agent", tu entends quoi ? Un mec "à l'ancienne" qui veut aller lire du code et autre c'est non ?
 
Pour avoir fait passer une dizaine d'entretien cette année, j'aime aborder le point avec les futurs embauchés. Comment (si) ils utilisent l'IA, la vision qu'ils en ont dans le poste.. Par contre, quelqu'un qui m'annonce qu'il fait 100% de vibecoding, sans chercher à comprendre, j'avoue que je serai moyennement emballé (on en a pas eu encore).

n°74388617
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 20:47:53  profilanswer
 

docmaboul a écrit :


 
Juste histoire de ne pas parler dans le vide, je vais essayer à temps perdu de coucher par écrit ce que j'ai en tête concernant ce qu'est l'intelligence, c'est-à-dire comment articuler matière et intelligence ainsi que définir objectivement un degré d'intelligence. Ce sera très arbitraire et personnel (c'est ma vision bien à moi) mais peut-être que tu comprendras ou que ça intéressera quelqu'un.
 
En attendant, n'hésite surtout pas à poster ta démonstration sur l'impossibilité de créer et faire émerger via des opérations mathématiques toute forme d'intelligence :o


 
Tu pourrais répondre a ma question?
Visiblement tu n'utilises pas d'IA, ça explique mieux pourquoi tu ne comprends pas ce que j'essaye d'expliquer.
 
Je ne dis pas qu'il est impossible de faire émerger une forme d'intelligence via des opérations mathématiques. Je dis que sous leur forme actuelle les LLMs, utilisées par 100% des agents actuels, ne sont pas intelligents.
Un LLM n'a aucune notion de cause à effet, de temps ou d'espace. Il n'a pas de "sens commun". Il peut expliquer comment piloter un avion tout en affirmant qu'on peut mettre un avion dans sa poche, simplement parce que la structure de la phrase semble correcte.
 
Si tu veux aller plus loin, je t'invite a lire les publications de notre Yann LeCun national, par exemple:
A Path Towards Autonomous Machine Intelligence
https://openreview.net/pdf?id=BZ5a1r-kVsf


---------------
Faudra que je teste un jour :o
n°74388652
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 21:00:45  profilanswer
 

Olivie a écrit :

Y a personne qui s'est penché sur l'autoresearch de Karpathy ? Ca ne fait qu'en parler depuis 3-4 jours sur Twitter, mais j'ai pas encore compris comment en tirer partie :(
 

Citation :

@karpathy
Three days ago I left autoresearch tuning nanochat for ~2 days on depth=12 model. It found ~20 changes that improved the validation loss. I tested these changes yesterday and all of them were additive and transferred to larger (depth=24) models. Stacking up all of these changes, today I measured that the leaderboard's "Time to GPT-2" drops from 2.02 hours to 1.80 hours (~11% improvement), this will be the new leaderboard entry. So yes, these are real improvements and they make an actual difference. I am mildly surprised that my very first naive attempt already worked this well on top of what I thought was already a fairly manually well-tuned project.
 
This is a first for me because I am very used to doing the iterative optimization of neural network training manually. You come up with ideas, you implement them, you check if they work (better validation loss), you come up with new ideas based on that, you read some papers for inspiration, etc etc. This is the bread and butter of what I do daily for 2 decades. Seeing the agent do this entire workflow end-to-end and all by itself as it worked through approx. 700 changes autonomously is wild. It really looked at the sequence of results of experiments and used that to plan the next ones. It's not novel, ground-breaking "research" (yet), but all the adjustments are "real", I didn't find them manually previously, and they stack up and actually improved nanochat. Among the bigger things e.g.:
 
- It noticed an oversight that my parameterless QKnorm didn't have a scaler multiplier attached, so my attention was too diffuse. The agent found multipliers to sharpen it, pointing to future work.
- It found that the Value Embeddings really like regularization and I wasn't applying any (oops).
- It found that my banded attention was too conservative (i forgot to tune it).
- It found that AdamW betas were all messed up.
- It tuned the weight decay schedule.
- It tuned the network initialization.
 
This is on top of all the tuning I've already done over a good amount of time. The exact commit is here, from this "round 1" of autoresearch. I am going to kick off "round 2", and in parallel I am looking at how multiple agents can collaborate to unlock parallelism.
https://github.com/karpathy/nanocha [...] 38447a6c1b
 
All LLM frontier labs will do this. It's the final boss battle. It's a lot more complex at scale of course - you don't just have a single train. py file to tune. But doing it is "just engineering" and it's going to work. You spin up a swarm of agents, you have them collaborate to tune smaller models, you promote the most promising ideas to increasingly larger scales, and humans (optionally) contribute on the edges.
 
And more generally, *any* metric you care about that is reasonably efficient to evaluate (or that has more efficient proxy metrics such as training a smaller network) can be autoresearched by an agent swarm. It's worth thinking about whether your problem falls into this bucket too.



 
Nanochat c'est pour faire du training de modèles, le commit que tu pointes explique qu'il a réussi a gagner 11% de temps sur le training pour obtenir un modèle GPT-2 grace au tuning automatique "autoresearch". En gros une IA qui s'auto-tune pour améliorer le "Time to GPT-2": du speedrun de training :o, d'ou la leaderboard.  
 
C'est cool car il pensais avoir tuné son training au max manuellement. Un gain de 11% c'est très bon pour un premier essai!
 
Plus d'info ici: https://github.com/karpathy/nanochat
 
edit: bordel, il faut que je fasse pareil pour mon tuning de paramètres de modèles!!  :o  
 

Spoiler :


Il me faut juste 8 H100


Message édité par the_fennec le 13-03-2026 à 21:06:40

---------------
Faudra que je teste un jour :o
n°74388757
MilesTEG1
Posté le 13-03-2026 à 21:27:17  profilanswer
 

bulldozer_fusion a écrit :

Citation :

1 million context window: Now generally available for Claude Opus 4.6 and Claude Sonnet 4.6.
 
1M context is available today on the Claude Platform natively and through Amazon Bedrock, Google Cloud’s Vertex AI, and Microsoft Foundry. Claude Code Max, Team, and Enterprise users on Opus 4.6 will default to 1M context automatically.
 
See our documentation and pricing for details.


https://claude.com/blog/1m-context-ga


 
Ca signifie quoi le 1M ?
 
C’est un million de requêtes ?
 
Comment on connaît ou on en est ?


---------------
Mes ventes : [FeedBack] http://forum.hardware.fr/hfr/Achat [...] 4599_1.htm
n°74388764
Olivie
SUUUUUUUUUUUUUU
Posté le 13-03-2026 à 21:29:24  profilanswer
 

MilesTEG1 a écrit :

 

Ca signifie quoi le 1M ?

 

C’est un million de requêtes ?

 

Comment on connaît ou on en est ?


Si tu ne sais pas c'est quoi le contexte, vaut mieux demander à chatgpt :o
Sinon tu as la commande /context


Message édité par Olivie le 13-03-2026 à 21:29:48

---------------

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  322  323  324  325  326  327

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)