Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2748 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  145  146  147  ..  253  254  255  256  257  258
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°72877393
Olivie
SUUUUUUUUUUUUUU
Posté le 13-05-2025 à 22:23:20  profilanswer
 

Reprise du message précédent :
Comme ils n'avaient pas assez de contenus de merde:
 

Citation :

@kingdavidyonko
 
TikTok has launched its first image to video AI tool
Source: @TechCrunch
 
https://pbs.twimg.com/media/Gq2mOMC [...] me=900x900


---------------

mood
Publicité
Posté le 13-05-2025 à 22:23:20  profilanswer
 

n°72877398
bulldozer_​fusion
rip Mekthoub
Posté le 13-05-2025 à 22:23:47  profilanswer
 

Olivie a écrit :

Comme ils n'avaient pas assez de contenus de merde:

 
Citation :

@kingdavidyonko

 

TikTok has launched its first image to video AI tool
Source: @TechCrunch

 

https://pbs.twimg.com/media/Gq2mOMC [...] me=900x900



 :lol:


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°72877399
Olivie
SUUUUUUUUUUUUUU
Posté le 13-05-2025 à 22:24:04  profilanswer
 

Trop de demande pour Gemini (quand c'est gratuit)
 

Citation :

@OfficialLoganK
There continues to be huge demand for Gemini 2.5 Pro!!  
 
We are going to temporarily pause the Gemini 2.5 Pro free tier access in the API in order to ensure devs building can keep scaling up. You can still access the model for free in http://ai.studio!


---------------

n°72878278
ionik
Posté le 14-05-2025 à 07:54:23  profilanswer
 

J'étais passé a côté d'une API gratuite :o


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°72882031
Olivie
SUUUUUUUUUUUUUU
Posté le 14-05-2025 à 17:29:43  profilanswer
 

Google
 

Citation :

Large language models (LLMs) are remarkably versatile. They can summarize documents, generate code or even brainstorm new ideas. And now we’ve expanded these capabilities to target fundamental and highly complex problems in mathematics and modern computing.
 
Today, we’re announcing AlphaEvolve, an evolutionary coding agent powered by large language models for general-purpose algorithm discovery and optimization. AlphaEvolve pairs the creative problem-solving capabilities of our Gemini models with automated evaluators that verify answers, and uses an evolutionary framework to improve upon the most promising ideas.
 
AlphaEvolve enhanced the efficiency of Google's data centers, chip design and AI training processes — including training the large language models underlying AlphaEvolve itself. It has also helped design faster matrix multiplication algorithms and find new solutions to open mathematical problems, showing incredible promise for application across many areas.


Citation :

AlphaEvolve’s procedure found an algorithm to multiply 4x4 complex-valued matrices using 48 scalar multiplications, improving upon Strassen’s 1969 algorithm that was previously known as the best in this setting. This finding demonstrates a significant advance over our previous work, AlphaTensor, which specialized in matrix multiplication algorithms, and for 4x4 matrices, only found improvements for binary arithmetic.
 
To investigate AlphaEvolve’s breadth, we applied the system to over 50 open problems in mathematical analysis, geometry, combinatorics and number theory. The system’s flexibility enabled us to set up most experiments in a matter of hours. In roughly 75% of cases, it rediscovered state-of-the-art solutions, to the best of our knowledge.
 
And in 20% of cases, AlphaEvolve improved the previously best known solutions, making progress on the corresponding open problems. For example, it advanced the kissing number problem. This geometric challenge has fascinated mathematicians for over 300 years and concerns the maximum number of non-overlapping spheres that touch a common unit sphere. AlphaEvolve discovered a configuration of 593 outer spheres and established a new lower bound in 11 dimensions.


https://deepmind.google/discover/bl [...] lgorithms/


---------------

n°72883692
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 00:24:51  profilanswer
 

Google I/O dans quelques jours:
 

Citation :

@JeffreyJonah5
·
7 Gemini changelogs lined up for Google I/O day?
 
Gemini Pro, Veo 3, Imagen 4, Flash, Wear OS takeover, a whole new assistant experience...
 
Looks like Google’s ready to throw all their cards on the table  in one shot.
 
https://pbs.twimg.com/media/Gq5L_jDXQAAFBn8?format=jpg&name=small


 
Donc les autres se préparent à également faire des annonces
Anthropic:
 

Citation :

@chetaslua
 
BREAKING: Anthropic’s testing “claude-neptune” —  
 
Maybe Claude 3.8  
 
Important point from image (speculation)
1. Thinking token - 128k  
2. Max Token - 128k  
 
Image : @testingcatalog
https://pbs.twimg.com/media/Gq4MsdCWQAA7-py?format=jpg&name=small


 

Citation :

@sithamet
 
So we are getting new Opus from Anthropic soon. The guy commenting is Anthropic's CPO  
 
Guess it's the response to upcoming Gemini Ultra.  
 
What a time to be alive
 
https://pbs.twimg.com/media/Gq8Q1xDWoAAdvJK?format=jpg&name=900x900


 
 
ChatGPT 4.1 dispo pour tous les payeurs
 

Citation :

@thegenioo
 GPT 4.1 debuts on @ChatGPTapp
 
Rate limits are exactly same as GPT-4o
(80 messages every 3 hours for Plus users)
 
https://pbs.twimg.com/media/Gq7vUWfW8AA62dK?format=jpg&name=small


Message édité par Olivie le 15-05-2025 à 00:26:44

---------------

n°72883699
bulldozer_​fusion
rip Mekthoub
Posté le 15-05-2025 à 00:32:59  profilanswer
 

Ça va tellement vite [:perco_35:2]


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°72883709
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 00:39:13  profilanswer
 

Le jour où on aura des modèles comme Claude 3.7 ou Gemini capable de tourner en local sur un MacBook, on sera bien.

 

Je me demande si ca pourrait arriver dans moins d'un an.
Je ne comptais pas changer mon MBP M1 de sitôt, mais c'est le genre de truc qui me ferait passer au M4.

Message cité 2 fois
Message édité par Olivie le 15-05-2025 à 00:39:38

---------------

n°72883712
bulldozer_​fusion
rip Mekthoub
Posté le 15-05-2025 à 00:41:25  profilanswer
 

Ça me paraît bien prématuré


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°72883714
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 00:44:04  profilanswer
 

Citation :

@btibor91
 
The Information reports Anthropic has new versions of Claude Sonnet and Claude Opus set to come out in the upcoming weeks that can go back and forth between thinking and using external tools, applications and databases to find answers, according to two people who have used them
 
- If one of these models is using a tool to try and solve a problem but gets stuck, it can go back to "reasoning" mode to think about what's going wrong and self-correct, according to one of the people
 
- For code generation, the models will automatically test the code they created and if there's a mistake, they can stop to think about what might have gone wrong and correct it, according to people who have tested the model


---------------

mood
Publicité
Posté le 15-05-2025 à 00:44:04  profilanswer
 

n°72883715
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 00:45:10  profilanswer
 

Citation :

@M1Astra
OpenAI is preparing a “Record” feature in ChatGPT for built-in meeting, brainstorms, and ideas recording, transcription, and summarization.
 
(added in the latest mobile version)
 
https://pbs.twimg.com/media/Gq3L4P6WoAE4m_8?format=jpg&name=small


---------------

n°72883726
bulldozer_​fusion
rip Mekthoub
Posté le 15-05-2025 à 00:58:27  profilanswer
 

Olivie a écrit :

Citation :

@M1Astra
OpenAI is preparing a “Record” feature in ChatGPT for built-in meeting, brainstorms, and ideas recording, transcription, and summarization.

 

(added in the latest mobile version)

 

https://pbs.twimg.com/media/Gq3L4P6 [...] name=small



La CNIL va avoir du boulot  :whistle:


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°72883743
olive127
Briseur de fonction d'onde
Posté le 15-05-2025 à 01:22:46  profilanswer
 

Olivie a écrit :

Citation :

@M1Astra
OpenAI is preparing a “Record” feature in ChatGPT for built-in meeting, brainstorms, and ideas recording, transcription, and summarization.
 
(added in the latest mobile version)
 
https://pbs.twimg.com/media/Gq3L4P6 [...] name=small



On a déjà ça dans Teams -> après le meeting, il y a cet IA qui te fait un résumé, te translate tout au cas où.
Alors oui, ça sera dans ChatGPT, mais ils inventent rien.

n°72883748
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 01:27:30  profilanswer
 

olive127 a écrit :


On a déjà ça dans Teams -> après le meeting, il y a cet IA qui te fait un résumé, te translate tout au cas où.
Alors oui, ça sera dans ChatGPT, mais ils inventent rien.


 
Il me semble que ChatGPT ça fonctionnerait directement dans l’app? Genre on sort le téléphone, on le pose au milieu de la table de réunion et on ressort avec un compte rendu ?


---------------

n°72883773
olive127
Briseur de fonction d'onde
Posté le 15-05-2025 à 02:33:31  profilanswer
 

Olivie a écrit :


 
Il me semble que ChatGPT ça fonctionnerait directement dans l’app? Genre on sort le téléphone, on le pose au milieu de la table de réunion et on ressort avec un compte rendu ?


Non, ce dont je parle c'est l'enregistrement du meeting direct dans Teams, pour en ressortir le compte rendu. L'IA est donc intégrée.
Le résultat est...bluffant...

Message cité 1 fois
Message édité par olive127 le 15-05-2025 à 02:34:00
n°72883776
olive127
Briseur de fonction d'onde
Posté le 15-05-2025 à 02:40:44  profilanswer
 

Olivie a écrit :


 
Il me semble que ChatGPT ça fonctionnerait directement dans l’app? Genre on sort le téléphone, on le pose au milieu de la table de réunion et on ressort avec un compte rendu ?


lol, après relecture, tu as raison, c'est bien ça ;)

n°72883922
gagaches
Posté le 15-05-2025 à 07:24:28  profilanswer
 

olive127 a écrit :


Non, ce dont je parle c'est l'enregistrement du meeting direct dans Teams, pour en ressortir le compte rendu. L'IA est donc intégrée.
Le résultat est...bluffant...

 

Pour tester l'équivalent google, le résultat est nul...
Comme quoi ça dépend des outils


---------------

n°72883954
docmaboul
Posté le 15-05-2025 à 07:40:06  profilanswer
 

Olivie a écrit :

Google
 

Citation :

Large language models (LLMs) are remarkably versatile. They can summarize documents, generate code or even brainstorm new ideas. And now we’ve expanded these capabilities to target fundamental and highly complex problems in mathematics and modern computing.
 
Today, we’re announcing AlphaEvolve, an evolutionary coding agent powered by large language models for general-purpose algorithm discovery and optimization. AlphaEvolve pairs the creative problem-solving capabilities of our Gemini models with automated evaluators that verify answers, and uses an evolutionary framework to improve upon the most promising ideas.
 
AlphaEvolve enhanced the efficiency of Google's data centers, chip design and AI training processes — including training the large language models underlying AlphaEvolve itself. It has also helped design faster matrix multiplication algorithms and find new solutions to open mathematical problems, showing incredible promise for application across many areas.


Citation :

AlphaEvolve’s procedure found an algorithm to multiply 4x4 complex-valued matrices using 48 scalar multiplications, improving upon Strassen’s 1969 algorithm that was previously known as the best in this setting. This finding demonstrates a significant advance over our previous work, AlphaTensor, which specialized in matrix multiplication algorithms, and for 4x4 matrices, only found improvements for binary arithmetic.
 
To investigate AlphaEvolve’s breadth, we applied the system to over 50 open problems in mathematical analysis, geometry, combinatorics and number theory. The system’s flexibility enabled us to set up most experiments in a matter of hours. In roughly 75% of cases, it rediscovered state-of-the-art solutions, to the best of our knowledge.
 
And in 20% of cases, AlphaEvolve improved the previously best known solutions, making progress on the corresponding open problems. For example, it advanced the kissing number problem. This geometric challenge has fascinated mathematicians for over 300 years and concerns the maximum number of non-overlapping spheres that touch a common unit sphere. AlphaEvolve discovered a configuration of 593 outer spheres and established a new lower bound in 11 dimensions.


https://deepmind.google/discover/bl [...] lgorithms/


 
Impressionnant. Je veux bien l'agent pour vscode :o

n°72884560
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 09:56:28  profilanswer
 

Quelqu'un voit cette option ? Je ne l'ai pas encore:
 

Citation :

@btibor91
The new ChatGPT web app version includes an option to add custom connectors based on the Model Context Protocol (MCP)
 
 
https://pbs.twimg.com/media/Gq3ZZImbAAES5Op?format=jpg&name=medium


---------------

n°72884618
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 10:05:25  profilanswer
 

Citation :

/MistralAI According_to_Mission
 
Gmail and Google Calendar integration in le Chat
Is this new? I haven't noticed it before.
 
It's on the free tier of le Chat.
https://preview.redd.it/gmail-and-google-calendar-integration-in-le-chat-v0-dvs5fr2nrp0f1.png?width=1080&crop=smart&auto=webp&s=516fede7a404a1ca60883a46bf48fef0db50741c


---------------

n°72884977
Damze
Posté le 15-05-2025 à 10:55:47  profilanswer
 

Olivie a écrit :

Le jour où on aura des modèles comme Claude 3.7 ou Gemini capable de tourner en local sur un MacBook, on sera bien.
 
Je me demande si ca pourrait arriver dans moins d'un an.
Je ne comptais pas changer mon MBP M1 de sitôt, mais c'est le genre de truc qui me ferait passer au M4.


 
Ca va être complicado vu la taille des modèles.
GPT-3 fait 350Go de taille, si tu veux un truc avec un peu de perf il faut le charger en RAM.
Le jour où y'aura des GPU avec 350GO de RAM accessible pourquoi pas :o

n°72885165
CoyoteErab​le
Dorée et Colorée
Posté le 15-05-2025 à 11:21:43  profilanswer
 

Sur une tâche spécifique vous pouvez très bien avoir un LLM 32B performant si correctement entraîné. Mais c'est sûr que ça ne se fera pas sur une fenêtre contextuelle de 1M de tokens.


---------------
Bloqué par Végétarien Garçon
n°72885283
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 11:37:12  profilanswer
 

Damze a écrit :


 
Ca va être complicado vu la taille des modèles.
GPT-3 fait 350Go de taille, si tu veux un truc avec un peu de perf il faut le charger en RAM.
Le jour où y'aura des GPU avec 350GO de RAM accessible pourquoi pas :o


 

CoyoteErable a écrit :

Sur une tâche spécifique vous pouvez très bien avoir un LLM 32B performant si correctement entraîné. Mais c'est sûr que ça ne se fera pas sur une fenêtre contextuelle de 1M de tokens.


 
Oui a mon avis, à terme on devrait avoir des LLM hyperspécialisés, genre un LLM spécialement pour coder, un pour l'écriture etc...Ca devrait passer dans un MBP M4 64GB de ram :o
Mais faut que des gens paient pour les entrainer pour que nous on puisse ensuite les utiliser gratuitement...
 
Pour le contexte, c'est fonction de quoi? RAM également ?


---------------

n°72885399
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 11:52:58  profilanswer
 

On dirait que c'est clairement le contexte qui coute cher pour qu'ils soient radins à ce point :o

 

https://preview.redd.it/gpt-4-1-is-actually-really-good-v0-vnsenogm8u0f1.jpeg?width=640&crop=smart&auto=webp&s=747739237fb0960012087c800961f68edc884c62
8k token en 2025 :o
C'était le même contexte pour GPT 3 à sa sortie il me semble non ?
Et Claude 3.7 qui est l'un des plus chers avec 128k de contexte seulement.


Message édité par Olivie le 15-05-2025 à 11:53:51

---------------

n°72885833
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 13:09:32  profilanswer
 

Si j’étais pas pauvre, pour $100 par mois c’est sans doute un des meilleurs forfaits :o
 
https://img3.super-h.fr/images/2025/05/15/snapshot_168079f1c9d8aa84442be.jpg


---------------

n°72885932
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 13:26:20  profilanswer
 

https://img3.super-h.fr/images/2025/05/15/snapshot_2824752495217ef8aa8679058.jpg


---------------

n°72886058
Lemminkain​en
Chantre de la lyre
Posté le 15-05-2025 à 13:44:16  profilanswer
 

Ils viennent de nous mettre Copilot au boulot. J'utilise chatGPT à titre perso en mode payant depuis 4 mois.
 
Je ne sais pas si c'est un Copilot bridé (ils ont désactivé la recherche web par exemple) mais j'ai l'impression d'être revenu en 2023. :o


---------------
Que vois-tu quand tu fermes les yeux ?
n°72886401
Winpoks
Posté le 15-05-2025 à 14:34:20  profilanswer
 

Lemminkainen a écrit :

Ils viennent de nous mettre Copilot au boulot. J'utilise chatGPT à titre perso en mode payant depuis 4 mois.

 

Je ne sais pas si c'est un Copilot bridé (ils ont désactivé la recherche web par exemple) mais j'ai l'impression d'être revenu en 2023. :o

 

Copilot c'est le meilleur.
Si t'aimes te faire du mal.  :O

n°72886451
Mevo
Divergent
Posté le 15-05-2025 à 14:39:31  profilanswer
 

Olivie a écrit :

Pour le contexte, c'est fonction de quoi? RAM également ?


Tu peux faire tourner des modèles sur CPU, mais c'est plus lent (et il faut alors de la RAM derrière)
Sinon, il faut des GPU avec de la VRAM, mais ca coute bonbon. Les grosses cartes graphiques Nvidia "retail", c'est déjà 3000 EUR la carte avec une vingtaine de Go de VRAM.
Les fameuses "A100" (je crois que c'est les plus petites, en plus), ca semble etre 20K direct :o
 
En plus, Gemini ou pas mal de "bons" modèles ne sont pas open-source !
Tu peux faire tourner de plus petits modèles en local. "Gemma" de chez Google, c'est du mini-Gemini, et c'est pas mauvais en résultat :jap:
 
Note: Déjà rien que du modèle 32B, faut déjà la config derrière pour que ca tourne :/
Note2: Pour toi sur Mac, comme j'ai regardé un peu les histoires de modèles en local, dernièrement: Il y a un format open-source, le "MLX", qui semble bien fonctionner avec les puces Apple, et tu peux déjà faire tourner des trucs pas trop dégueus sur CPU seul.


Message édité par Mevo le 15-05-2025 à 14:47:42

---------------
"Dans la communication, le récepteur doit s'efforcer de voir selon le point de vue de l'émetteur, et non du sien. Sinon ca n'a aucun sens !" --Mevo
n°72886500
Mevo
Divergent
Posté le 15-05-2025 à 14:46:01  profilanswer
 

Lemminkainen a écrit :

Ils viennent de nous mettre Copilot au boulot. J'utilise chatGPT à titre perso en mode payant depuis 4 mois.
 
Je ne sais pas si c'est un Copilot bridé (ils ont désactivé la recherche web par exemple) mais j'ai l'impression d'être revenu en 2023. :o


Perso, Copilot, Phi-4 (autre IA Microsoft que j'ai testé) et tous les Llama de Meta, je trouve ca vraiment moins bon que le reste (en tout cas, je n'aime pas du tout, et je n'aime pas l'utiliser).


---------------
"Dans la communication, le récepteur doit s'efforcer de voir selon le point de vue de l'émetteur, et non du sien. Sinon ca n'a aucun sens !" --Mevo
n°72886523
Lemminkain​en
Chantre de la lyre
Posté le 15-05-2025 à 14:47:35  profilanswer
 

Winpoks a écrit :


 
Copilot c'est le meilleur.
Si t'aimes te faire du mal.  :O


C'est le meilleur pour faire quoi ? :o Tout est moins bon que le reste pour l'instant. :D
 
Edit : je viens de comprendre :o Je vais bientôt être remplacé par une IA vu ma lenteur. :o

Message cité 2 fois
Message édité par Lemminkainen le 15-05-2025 à 14:52:39

---------------
Que vois-tu quand tu fermes les yeux ?
n°72886527
Lemminkain​en
Chantre de la lyre
Posté le 15-05-2025 à 14:48:04  profilanswer
 

Mevo a écrit :


Perso, Copilot, Phi-4 (autre IA Microsoft que j'ai testé) et tous les Llama de Meta, je trouve ca vraiment moins bon que le reste (en tout cas, je n'aime pas du tout, et je n'aime pas l'utiliser).


Ah voilà on est d'accord.
 
Le service IT interdit l'utilisation d'autre chose pour raison de sécurité. (Ce que je comprend parfaitement par contre.)


---------------
Que vois-tu quand tu fermes les yeux ?
n°72886552
Mevo
Divergent
Posté le 15-05-2025 à 14:50:21  profilanswer
 

Lemminkainen a écrit :

C'est le meilleur pour faire quoi ? :o Tout est moins bon que le reste pour l'instant. :D


Son trait d'humour est sympa, même si pas forcément tout de suite compréhensible => Faut prendre les deux phrases ensemble :o


---------------
"Dans la communication, le récepteur doit s'efforcer de voir selon le point de vue de l'émetteur, et non du sien. Sinon ca n'a aucun sens !" --Mevo
n°72886583
Lemminkain​en
Chantre de la lyre
Posté le 15-05-2025 à 14:53:33  profilanswer
 

Mevo a écrit :


Son trait d'humour est sympa, même si pas forcément tout de suite compréhensible => Faut prendre les deux phrases ensemble :o


Oui, merci. :jap: L’indentation m’a portée à confusion.
Mea culpa. :o


---------------
Que vois-tu quand tu fermes les yeux ?
n°72886881
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 15:37:37  profilanswer
 

Musk, cette plaie pour l'IA (Il est sud africain et il a milité pour que les blancs SA soient rapatriés aux USA si j'ai bien compris)
 

Citation :

@MattBinder
 
very weird thing happening with Grok lol
 
Elon Musk's AI chatbot can't stop talking about South Africa and is replying to completely unrelated tweets on here about "white genocide" and "kill the boer"
 
https://pbs.twimg.com/media/Gq7Zy9wWUAAfYka?format=png&name=small
https://pbs.twimg.com/media/Gq7ZzUVWQAAUXXG?format=png&name=small
https://pbs.twimg.com/media/Gq7ZzuWWcAAaQvW?format=png&name=small
https://pbs.twimg.com/media/Gq7Z0EuXEAE1l0A?format=png&name=small



---------------

n°72888589
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 21:11:13  profilanswer
 

Windsurf lance ses propres modèles:  
 

Citation :

Today, we are launching our first family of models, dubbed SWE-1, optimized for the entire software engineering process, not just the task of coding.
 
This family is currently comprised of three distinct models:
 
SWE-1: Approximately Claude 3.5 Sonnet levels of tool-call reasoning while being cheaper to serve. It will be available to all paid users for a promotional period of 0 credits per user prompt.
 
SWE-1-lite: A smaller model that replaces Cascade Base at better quality. It is available for unlimited use to all users, free or paid.
 
SWE-1-mini: A small, extremely fast model that powers the Windsurf Tab passive experience for all users, free or paid.
 
Why build SWE-1? Simply put, our goal is to accelerate software development by 99%. Writing code is only a fraction of what you do. A “coding-capable” model won’t cut it.
 


 
https://exafunction.github.io/public/images/swe-1/swe-task-benchmark-1.png
https://exafunction.github.io/public/images/swe-1/end-to-end-benchmark-2.png
 
https://windsurf.com/blog/windsurf-wave-9-swe-1


---------------

n°72888634
Agile Tool​kit
Posté le 15-05-2025 à 21:17:26  profilanswer
 

Olivie a écrit :

Le jour où on aura des modèles comme Claude 3.7 ou Gemini capable de tourner en local sur un MacBook, on sera bien.
 
Je me demande si ca pourrait arriver dans moins d'un an.
Je ne comptais pas changer mon MBP M1 de sitôt, mais c'est le genre de truc qui me ferait passer au M4.


 

bulldozer_fusion a écrit :

Ça me paraît bien prématuré


 
Bonjour, la question d'Olivie est intéressante, je vais tenter d'y apporter une réponse.
 
Question : à partir de quand on pourra faire tourner un LLM tel que Claude ou Gemini en local sur un ordinateur standard (ordinateur de bureau ou portable, ça ne change pas grand chose). Est-ce que ça sera dans moins d'un an ?
 
Je vais faire beaucoup d'hypothèses pour aller très vite, mais ça donne une idée de l'ordre de grandeur du temps qu'il faudra attendre.
 - je considère que les gros LLM tels que Claude 3.7 et Gemini sont équivalents à Llama 3.3. Llama 3.3 fait 70 milliards de paramètres, Claude 3.7 et Gemini je ne sais pas si ces infos sont connues mais ça doit être autour de 100 milliards donc c'est le même ordre de grandeur. Je vous parle de Llama 3.3 car c'est le plus gros modèle que je peux tester sur mon PC de bureau. Je fais donc l'hypothèse que Llama 3.3 est à peu près aussi bien que Claude 3.7 ou Gemini.
- Sur mon PC de bureau, quand je pose une question à Llama 3.3, il met environ 15 minutes à répondre
- Les specs de mon PC : i5-13600KF   3.50 GHz, 64 Go de RAM, SSD, NVIDIA Geforce RTX 4070 12 Go => C'est un PC puissant mais pas non plus extraordinaire donc je le prends comme référence
- Je suppose que la loi de Moore est respectée et je l'énonce comme ceci : la puissance de calcul double tous les 18 mois. C'est une simplification grossière mais c'est pour faire un calcul rapide
- Je suppose que le temps d'inférence est proportionnel à la puissance de calcul
 
Ceci me permet de produire le tableau suivant très facilement :
Llama 3.3 (70B ) - Temps d'une inférence (sec)
mi 2025 -> 900
fin 2026 -> 450
mi 2028 -> 225
fin 2029 -> 112.5
mi 2030 -> 56.25
fin 2032 -> 28.125
 
Avec toutes ces hypothèses, on passe sous la minute en 2030
 
Donc je pense que bulldozer_fusion a raison de dire que c'est prématuré ;)
 
Sinon mes hypothèses sont-elles justes ? Tout peut se discuter mais cela prend du temps
- La loi de Moore n'est plus respectée depuis longtemps et cela risque d'empirer car on atteint les limites de la technologie actuelle
- Les LLM vont certainement connaitre des tas d'optimisations donc cela va aider
- On est pas obligé d'avoir des gros LLM de 100 milliards, on peut avoir plusieurs petits LLM spécialisés pour lesquels chaque inférence sera moins couteuse
 
En tout cas je suis à peu près convaincu que ce n'est pas pour dans un an, ni même dans 2 ans :)

Message cité 1 fois
Message édité par Agile Toolkit le 15-05-2025 à 21:24:42
n°72888655
Olivie
SUUUUUUUUUUUUUU
Posté le 15-05-2025 à 21:20:51  profilanswer
 

Agile Toolkit j'écoutais un podcast de Zuck entièrement sur l'IA et il disait (de ce que j'ai compris) qu'en ayant un très gros modèle, ca leur permettait d'entrainer un modèle beaucoup plus petit mais qui avait 90% de l'efficacité du gros modèle.
Donc la question c'est plutot si dans 1 an, on pourrait avoir des modèles aussi efficace que Sonnet 3.7 mais qui font 5 milliards de paramètres par exemple ?
 
Pour le podcast de Zuck: https://www.youtube.com/watch?v=rYXeQbTuVl0


---------------

n°72888708
Agile Tool​kit
Posté le 15-05-2025 à 21:27:29  profilanswer
 

Olivie a écrit :

Agile Toolkit j'écoutais un podcast de Zuck entièrement sur l'IA et il disait (de ce que j'ai compris) qu'en ayant un très gros modèle, ca leur permettait d'entrainer un modèle beaucoup plus petit mais qui avait 90% de l'efficacité du gros modèle.
Donc la question c'est plutot si dans 1 an, on pourrait avoir des modèles aussi efficace que Sonnet 3.7 mais qui font 5 milliards de paramètres par exemple ?
 
Pour le podcast de Zuck: https://www.youtube.com/watch?v=rYXeQbTuVl0


 
Merci Olivie, je regarderai mais avant même de regarder je dirais que Zuck est un chef d'entreprise qui doit avant tout vendre de la marchandise et pour cela il vend du rêve :)
 
Il y a quelques années Zuck mettait en avant le metaverse et ça a été un flop total ;)

n°72888735
Agile Tool​kit
Posté le 15-05-2025 à 21:31:04  profilanswer
 

Olivie a écrit :

Agile Toolkit j'écoutais un podcast de Zuck entièrement sur l'IA et il disait (de ce que j'ai compris) qu'en ayant un très gros modèle, ca leur permettait d'entrainer un modèle beaucoup plus petit mais qui avait 90% de l'efficacité du gros modèle.
Donc la question c'est plutot si dans 1 an, on pourrait avoir des modèles aussi efficace que Sonnet 3.7 mais qui font 5 milliards de paramètres par exemple ?
 
Pour le podcast de Zuck: https://www.youtube.com/watch?v=rYXeQbTuVl0


 
Mais sinon 5 milliards de paramètre ça me parait pas mal et on peut déjà le faire tourner sur un PC standard dans de bonnes conditions. Donc si on a plusieurs LLM de 5 milliards de paramètres bien optimisés sur telle ou telle tâche, c'est tout à fait possible qu'on puisse avoir de très bon résultats en local sur tous nos ordis et nos téléphones, ça j'y crois davantage

n°72889025
ese-aSH
Welcome To Avalon
Posté le 15-05-2025 à 22:07:45  profilanswer
 

Lemminkainen a écrit :


C'est le meilleur pour faire quoi ? :o Tout est moins bon que le reste pour l'instant. :D
 
Edit : je viens de comprendre :o Je vais bientôt être remplacé par une IA vu ma lenteur. :o


C'est les seuls qui assurent une confidentialité des données à prix non exhorbitants (parceque absorbés dans les bundles de soft déjà vendus) + intégration avec les outils déjà déployés (github / teams / office / outlook / ...).
 
Aujourd'hui c'est le choix logique pour une grosse cogip :jap:


---------------
On a tous un avis, le donne pas.
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  145  146  147  ..  253  254  255  256  257  258

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)