Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2074 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  182  183  184  ..  254  255  256  257  258  259
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°73276957
bulldozer_​fusion
rip Mekthoub
Posté le 27-07-2025 à 11:30:11  profilanswer
 

Reprise du message précédent :


Faut avoir l'abonnement max


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
mood
Publicité
Posté le 27-07-2025 à 11:30:11  profilanswer
 

n°73277032
Olivie
SUUUUUUUUUUUUUU
Posté le 27-07-2025 à 11:49:53  profilanswer
 

bulldozer_fusion a écrit :


Faut avoir l'abonnement max


Ah ok c'est ca que le "Max" voulait dire  :lol:  [:tinostar]


---------------

n°73277284
Olivie
SUUUUUUUUUUUUUU
Posté le 27-07-2025 à 12:50:38  profilanswer
 

Citation :

@jiqizhixin
Some Chinese companies are developing dedicated hardware for model inference.  
 
At #WAIC 2025, we saw a compact USB device that adds an “AI co-processor” to any regular computer—just plug it in and you can run Qwen locally. They said it would cost around ¥2,000–3,000 RMB (~$280–420).
 
https://pbs.twimg.com/media/Gw2Usx8bEAApOgB?format=jpg&name=small
https://pbs.twimg.com/media/Gw2UsxYagAAQ3Ue?format=png&name=small
https://pbs.twimg.com/media/Gw2Usx_bQAA1TtP?format=jpg&name=small


---------------

n°73277327
oh_damned
Posté le 27-07-2025 à 13:02:20  profilanswer
 

C’est fourni avec ou sans backdoor pour que le Parti Communsite Chinois récupère toutes les données ? :o


---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°73277364
Olivie
SUUUUUUUUUUUUUU
Posté le 27-07-2025 à 13:12:45  profilanswer
 

oh_damned a écrit :

C’est fourni avec ou sans backdoor pour que le Parti Communsite Chinois récupère toutes les données ? :o


Alors que chez d’autres c’est une feature
 
https://img3.super-h.fr/images/2025/07/27/snapshot_98494365834cceea9f9f7565d.jpg
https://img3.super-h.fr/images/2025/07/27/snapshot_114410893080429e431d33ca22.jpg


---------------

n°73277394
bulldozer_​fusion
rip Mekthoub
Posté le 27-07-2025 à 13:16:28  profilanswer
 

Olivie a écrit :


Ah ok c'est ca que le "Max" voulait dire :lol: [:tinostar]


Et puis o3 pro pas ouf pour l'avoir testé, très lent et pas meilleur que les autres


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73277414
ionik
Posté le 27-07-2025 à 13:23:21  profilanswer
 

Olivie a écrit :

Citation :

@jiqizhixin
Some Chinese companies are developing dedicated hardware for model inference.  
 
At #WAIC 2025, we saw a compact USB device that adds an “AI co-processor” to any regular computer—just plug it in and you can run Qwen locally. They said it would cost around ¥2,000–3,000 RMB (~$280–420).
 
https://pbs.twimg.com/media/Gw2Usx8 [...] name=small
https://pbs.twimg.com/media/Gw2UsxY [...] name=small
https://pbs.twimg.com/media/Gw2Usx_ [...] name=small



ça n'embarque visiblement pas de mémoire, mais si ça pouvait permettre de faire tourner localement des model 1T+ franchement tant que ça tourne a une vitesse raisonnable surtout a ce prix la je serais un des 1er intéressé


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73277419
bulldozer_​fusion
rip Mekthoub
Posté le 27-07-2025 à 13:24:46  profilanswer
 

ionik a écrit :


ça n'embarque visiblement pas de mémoire, mais si ça pouvait permettre de faire tourner localement des model 1T+ franchement tant que ça tourne a une vitesse raisonnable surtout a ce prix la je serais un des 1er intéressé


Il y en aurait plus d'un intéressé


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73277434
Olivie
SUUUUUUUUUUUUUU
Posté le 27-07-2025 à 13:29:23  profilanswer
 

Beaucoup de gens seraient intéressés donc c’est un bon business modèle qui va faire de l’argent, donc ça va se développer donc on pourra bientôt faire tourner de bon LLM en local  [:moooonblooood:2]


---------------

n°73277440
Gottorp
Burn, burn, yes ya gonna burn
Posté le 27-07-2025 à 13:30:50  profilanswer
 

Olivie a écrit :

Beaucoup de gens seraient intéressés donc c’est un bon business modèle qui va faire de l’argent, donc ça va se développer donc on pourra bientôt faire tourner de bon LLM en local  [:moooonblooood:2]


 
j'ai un LLM qui tourne (certes pas vite) sur ma Surface Pro  [:zedlefou:1]


---------------
Les convictions sont des ennemis de la vérité plus dangereux que les mensonges
mood
Publicité
Posté le 27-07-2025 à 13:30:50  profilanswer
 

n°73277463
Olivie
SUUUUUUUUUUUUUU
Posté le 27-07-2025 à 13:35:20  profilanswer
 

Gottorp a écrit :


 
j'ai un LLM qui tourne (certes pas vite) sur ma Surface Pro  [:zedlefou:1]


On parle de bon LLM du niveau de Claude 3.5


Message édité par Olivie le 27-07-2025 à 13:35:31

---------------

n°73277506
falkon1000
Posté le 27-07-2025 à 13:46:54  profilanswer
 


L’avocate US dans le déni qui veut garder son potentiel de dollars contre la méchante IA et qui poste un truc écrit avec ChatGPT …

n°73277510
falkon1000
Posté le 27-07-2025 à 13:47:44  profilanswer
 

Olivie a écrit :

Beaucoup de gens seraient intéressés donc c’est un bon business modèle qui va faire de l’argent, donc ça va se développer donc on pourra bientôt faire tourner de bon LLM en local  [:moooonblooood:2]


Ajoute 256 Go de VRAM par dessus

n°73277650
XaTriX
Posté le 27-07-2025 à 14:17:11  profilanswer
 

Gottorp a écrit :

 

j'ai un LLM qui tourne (certes pas vite) sur ma Surface Pro  [:zedlefou:1]


Une belle bande de salopes ces LLM !


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°73277653
XaTriX
Posté le 27-07-2025 à 14:17:49  profilanswer
 

falkon1000 a écrit :


Ajoute 256 Go de VRAM par dessus


On a qu'a faire des cartes gpu avec slots dimm comme à l'époque !


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°73281702
Agile Tool​kit
Posté le 28-07-2025 à 01:14:34  profilanswer
 

Olivie a écrit :

Beaucoup de gens seraient intéressés donc c’est un bon business modèle qui va faire de l’argent, donc ça va se développer donc on pourra bientôt faire tourner de bon LLM en local  [:moooonblooood:2]


 
Pour info j'ai fait tourner un LLM relativement gros en local : Llama 3.3 (70 milliards de paramètres)
L'ennui c'est que chaque question met environ 20 minutes à être répondue :)
 
Si les détails vous intéressent, j'en ai fait une vidéo ici :
https://youtu.be/a7AkWmHmD3U?si=dbwjnbc17_T8n2oF
 
Je ne suis pas très satisfait de cette vidéo car comme je fais tout sans trucage j'ai dû attendre 20 minutes entre chaque question le temps que l'IA donne la réponse. J'ai dû meubler en parlant de divers sujets sur l'IA et sur ma chaîne mais je pense que ça crée de la confusion dans le suivi de la vidéo.
 
La note finale de Llama 3.3 est biaisée : c'est un modèle beaucoup plus gros mais il n'a pas des notes beaucoup meilleures que Llama 3.2 (petit modèle). Mon erreur c'est que je n'ai posé que les questions les plus difficiles à Llama 3.3. Si je lui avais posé aussi les questions faciles il aurait une meilleure moyenne.
 
Dans une prochaine vidéo je compte louer de la puissance de calcul chez AWS pour tester des modèles encore plus gros et que ce soit rapide. Je ne sais pas quand je pourrai le faire, c'est assez technique et il me faudrait une après midi entière de disponible :)
Si les tests sont concluants cela voudra dire qu'une entreprise pourra très bien avoir une IA privée et performante (et je crois que ce sera le cas), mais il faut quand même une certaine puissance de calcul. Ceci dit cette puissance de calcul n'est pas inaccessible pour des entreprises.

n°73281704
Agile Tool​kit
Posté le 28-07-2025 à 01:16:53  profilanswer
 

Gottorp a écrit :


 
j'ai un LLM qui tourne (certes pas vite) sur ma Surface Pro  [:zedlefou:1]


 
Sinon Llama 3.2 (3 milliars de paramètres) tourne très bien sur un laptop relativement basique. Ses réponses ne sont pas terribles en générale mais pas ridicules non plus. Cela peut déjà rendre quelques services. Il faudrait tester un petit modèle de ce genre su du codage...

n°73281718
Quich
Pouet ?
Posté le 28-07-2025 à 01:25:34  profilanswer
 

Tu as des modèles dédiés au développement qui sont plus récents et probablement plus performants que Llama en étant plus petits.

Message cité 1 fois
Message édité par Quich le 28-07-2025 à 11:36:49

---------------
Feedback
n°73281991
falkon1000
Posté le 28-07-2025 à 08:32:14  profilanswer
 

Agile Toolkit a écrit :


 
Si les tests sont concluants cela voudra dire qu'une entreprise pourra très bien avoir une IA privée et performante (et je crois que ce sera le cas), mais il faut quand même une certaine puissance de calcul. Ceci dit cette puissance de calcul n'est pas inaccessible pour des entreprises.


Mais tu vas enfoncer une porte ouverte,  
Il y à déjà beaucoup d’entreprises qui le font

n°73282636
kaloskagat​os
Posté le 28-07-2025 à 10:26:25  profilanswer
 

Agile Toolkit a écrit :

 

Pour info j'ai fait tourner un LLM relativement gros en local : Llama 3.3 (70 milliards de paramètres)
L'ennui c'est que chaque question met environ 20 minutes à être répondue :)

 

Si les détails vous intéressent, j'en ai fait une vidéo ici :
https://youtu.be/a7AkWmHmD3U?si=dbwjnbc17_T8n2oF

 

Je ne suis pas très satisfait de cette vidéo car comme je fais tout sans trucage j'ai dû attendre 20 minutes entre chaque question le temps que l'IA donne la réponse. J'ai dû meubler en parlant de divers sujets sur l'IA et sur ma chaîne mais je pense que ça crée de la confusion dans le suivi de la vidéo.

 

La note finale de Llama 3.3 est biaisée : c'est un modèle beaucoup plus gros mais il n'a pas des notes beaucoup meilleures que Llama 3.2 (petit modèle). Mon erreur c'est que je n'ai posé que les questions les plus difficiles à Llama 3.3. Si je lui avais posé aussi les questions faciles il aurait une meilleure moyenne.

 

"Sans trucage" ça veut pas dire que tu peux pas couper et afficher "20 minutes later..." :D

 

Pourquoi ne pas utiliser un service d'API comme OpenRouteur ?

 

* Tu fais un script python ou tu utilises Open WebUI, y'a une infinité de modèles dispos, dont certaines API gratuites : https://openrouter.ai/models
* ou directement le chat online : https://openrouter.ai/chat?models=m [...] truct:free

 

Tu fais une vidéo pour montrer que tu sais faire tourner un modèle en local, et après tu te focus sur le test de modèles via OpenRouter. A part finetuner des modèles ou bosser sur des données confidentielles y'a pas trop d'intérêt de faire tourner de gros modèles en local AMHA. Pour des petits modèles c'est autre chose, c'est utile pour automatiser des tâches ou faire de la domotique.

  
Agile Toolkit a écrit :


Dans une prochaine vidéo je compte louer de la puissance de calcul chez AWS pour tester des modèles encore plus gros et que ce soit rapide. Je ne sais pas quand je pourrai le faire, c'est assez technique et il me faudrait une après midi entière de disponible :)
Si les tests sont concluants cela voudra dire qu'une entreprise pourra très bien avoir une IA privée et performante (et je crois que ce sera le cas), mais il faut quand même une certaine puissance de calcul. Ceci dit cette puissance de calcul n'est pas inaccessible pour des entreprises.

 


Je comprends pas trop ce que tu essayes de démontrer. Oui c'est possible de louer un VPS avec un GPU et faire tourner un LLM dessus. Si une entreprise veut administrer son propre serveur Ollama ou autre c'est faisable, et y'a des services spécialisés qui permettent de faire ça plus simplement. Mais y'a deux niveaux de confidentialité :

 

* avoir son propre service de LLM privé cloud : ChatGPT Team vs cloud privé, c'est un peu le même combat : tes données sortent sur le net et sont sujettes au piratage, à des fuites de données ou failles de sécurité.
* avoir son propre service de LLM privé local : pas de problème de sécurité mais il faut du matériel coûteux.

 
falkon1000 a écrit :


Mais tu vas enfoncer une porte ouverte,
Il y à déjà beaucoup d’entreprises qui le font

 

Voilà.


Message édité par kaloskagatos le 28-07-2025 à 11:52:24

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73282871
Olivie
SUUUUUUUUUUUUUU
Posté le 28-07-2025 à 10:57:18  profilanswer
 

L'open source refait son retard grâce à nos amis chinois :o
 

Citation :

@OpenRouterAI
9 out of the 10 fastest-growing LLMs this week are open-source
 
https://pbs.twimg.com/media/Gw4Sx9bXMAAaHzo?format=jpg&name=small


---------------

n°73282945
ionik
Posté le 28-07-2025 à 11:05:02  profilanswer
 

En même temps au vu du prix et des perf ça donne quand même plus envie d'essayer.


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73282967
Olivie
SUUUUUUUUUUUUUU
Posté le 28-07-2025 à 11:07:23  profilanswer
 

ionik a écrit :

En même temps au vu du prix et des perf ça donne quand même plus envie d'essayer.


Surtout que le premier du classement est gratuit  :D


---------------

n°73283013
ionik
Posté le 28-07-2025 à 11:12:36  profilanswer
 

Olivie a écrit :


Surtout que le premier du classement est gratuit  :D


Ha j'avais pas vu ça xD
 
Quand c'est gratuit c'est toi le produit :
To our knowledge, this provider may use your prompts and completions to train new models.
 
Je préfère payer :o

Message cité 1 fois
Message édité par ionik le 28-07-2025 à 11:13:02

---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73283067
Olivie
SUUUUUUUUUUUUUU
Posté le 28-07-2025 à 11:18:47  profilanswer
 

ionik a écrit :


Ha j'avais pas vu ça xD
 
Quand c'est gratuit c'est toi le produit :
To our knowledge, this provider may use your prompts and completions to train new models.
 
Je préfère payer :o


 
Le problème c'est que tu n'as absolument aucune certitude que même en payant, les autres n'utiliseront pas tes datas pour l'entrainement  [:michel_cymerde:7]


---------------

n°73283211
Quich
Pouet ?
Posté le 28-07-2025 à 11:39:24  profilanswer
 

Ah bien ça, je vais voir si ça fonctionne mieux que Gemini 2.5 Pro / Flash.
Je finis souvent par dépasser les quotas gratuits avec Roo Code.
Bon j'ai plusieurs comptes Gmail donc ça permet de cumuler les quotas mais quand même :o


---------------
Feedback
n°73283245
ionik
Posté le 28-07-2025 à 11:44:07  profilanswer
 

Olivie a écrit :


 
Le problème c'est que tu n'as absolument aucune certitude que même en payant, les autres n'utiliseront pas tes datas pour l'entrainement  [:michel_cymerde:7]


 
C'est bien ça mon problème :/ Mais ceux qui indique dans leur information qu'il n'utilise pas on est censé avoir moins de chance que ce soit le cas, ceux qui l'indique par contre aucun doute :/
 
Pour ça que je voudrais le faire tourner en local même si ça rame un peu (hors auto complétion bien sur)


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°73283737
zakintosh
Posté le 28-07-2025 à 13:26:55  profilanswer
 

La startup "Sapient Intelligence" vient de sortir le Hierarchical Reasoning Model (HRM), avec seulement 27 millions de paramètres.
Apparemment il arrive à battre les géants de l’IA sur des tâches de raisonnement complexe.
 
https://korben.info/hrm-ridiculise- [...] etres.html


---------------
What we've got here is failure to communicate
n°73284666
kaloskagat​os
Posté le 28-07-2025 à 15:42:01  profilanswer
 

Excellent, merci pour l'info ! (faut que Korben lève le pied sur l'utilisation de l'IA pour rédiger les article avec son style :o)


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73284824
kaloskagat​os
Posté le 28-07-2025 à 16:05:56  profilanswer
 

Sourcebot permet d'indexer et rechercher dans des repos de code (projet alternatif à Sourcegraph). Ils ont récemment intégré la fonction "Ask sourcebot" et un serveur MCP.  C'est open-source et c'est énorme :love:  
 


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73284844
Olivie
SUUUUUUUUUUUUUU
Posté le 28-07-2025 à 16:08:28  profilanswer
 

kaloskagatos a écrit :

Sourcebot permet d'indexer et rechercher dans des repos de code (projet alternatif à Sourcegraph). Ils ont récemment intégré la fonction "Ask sourcebot" et un serveur MCP.  C'est open-source et c'est énorme :love:  
 

Copilot qui est intégré à Github fait la même chose non ?


---------------

n°73285283
kaloskagat​os
Posté le 28-07-2025 à 17:23:24  profilanswer
 

Olivie a écrit :


Copilot qui est intégré à Github fait la même chose non ?

 

Exactement oui, mais pour ma COGIP toutes les technos IA qui touchent au code et aux documents doivent être hébergées en local. Je dis pas qu'on n'utilise pas les outils cloud, mais on héberge nos propres serveurs gitlab et on a certains projets sensibles. Si tu veux un bot qui fait une review de ta pull request faut trouver des solutions auto-hébergées.


Message édité par kaloskagatos le 28-07-2025 à 17:28:22

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73285397
XaTriX
Posté le 28-07-2025 à 17:42:39  profilanswer
 

Go gitea :o


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°73285496
Agile Tool​kit
Posté le 28-07-2025 à 17:58:35  profilanswer
 

Quich a écrit :

Tu as des modèles dédiés au développement qui sont plus récents et probablement plus performants que Llama en étant plus petits.


 
Ah oui c'est vrai, ceci dit je ne teste pas dans mes vidéos les modèles de programmation car c'est tout un monde à part et je peux pas tout faire en même temps. Tous mes use cases de tests sont centrés autour de la gestion de projet en général et des méthodes agiles en particulier :)

n°73285554
Agile Tool​kit
Posté le 28-07-2025 à 18:09:04  profilanswer
 

falkon1000 a écrit :


Mais tu vas enfoncer une porte ouverte,  
Il y à déjà beaucoup d’entreprises qui le font


 
Enfoncer une porte ouverte : oui et non, je m'explique :
 
1/ Déjà mes expériences sur ma chaine n'ont pas pour unique but d'informer les gens qu'on peut faire telle ou telle chose mais un des but est de montrer et d'expliquer comment on peut faire concrètement. Cad que ce n'est pas une chaine d'information, c'est plus une chaine pédagogique, de formation, d'explication. Beaucoup d'entreprise le font déjà mais elles n'expliquent pas comment elles font ou quels sont les outils. Il y a sûrement des formations qui existent (je ne sais pas) mais moi je le fais gratuitement pour ceux que ça intéresse :)
 
2/ Ensuite, même sans le point 1 : il y a encore beaucoup d'entreprises et de professionnels qui ne connaissent pas du tout l'IA et qui n'ont jamais essayé. Le niveau est très inégal suivant les entreprises : je m'en rends compte au quotidien (je suis consultant freelance et j'interviens pour diverses entreprises au gré des missions).
Petit anecdote : il y a 3 mois j'ai fait une démo de Ollama et quelques autres outils d'IA dans un labo de chercheurs en informatique. Donc normalement des gens qui devraient être en première ligne pour être au courant des avancées de l'IA. Et bien j'ai été surpris de voir que beaucoup ne connaissaient pas du tout, notamment Ollama (qui est pourtant facile à installer), certains n'en revenaient pas de ce qu'on pouvait faire avec l'IA
 
3/ Je pense que sur ce forum on est passionnés par le sujet donc on est pas représentatifs mais avant que l'IA soit implantée partout dans les entreprises il va falloir encore quelques années (plus qu'on ne le pense à mon avis). Donc je pense modestement que les expériences que je fais sur ma chaîne sont utiles à des gens :)

n°73285729
Quich
Pouet ?
Posté le 28-07-2025 à 18:32:30  profilanswer
 

Olivie a écrit :

L'open source refait son retard grâce à nos amis chinois :o

 
Citation :

@OpenRouterAI
9 out of the 10 fastest-growing LLMs this week are open-source

 

https://pbs.twimg.com/media/Gw4Sx9b [...] name=small



Pour le coup, Qwen 3 coder fonctionne vraiment pas mal.
Il m'a fait ce que je lui ai demandé quasi sans bug du premier coup, ça m'a semblé au moins au niveau de Gemini 2.5 Pro.

 

Bon par contre le quota gratuit est trop bas, je l'ai cramé en quelques heures :o


Message édité par Quich le 28-07-2025 à 18:33:01

---------------
Feedback
n°73286085
bulldozer_​fusion
rip Mekthoub
Posté le 28-07-2025 à 19:46:04  profilanswer
 

Un nouveau modèle chinois qui tape fort
https://rehost.diberie.com/Picture/Get/r/411322
https://x.com/Zai_org/status/1949831552189518044?s=19


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73286577
Olivie
SUUUUUUUUUUUUUU
Posté le 28-07-2025 à 21:16:06  profilanswer
 

Citation :

@mustafasuleyman
 
Today is a big step towards an AI browser: Copilot Mode in Edge, built for how your brain actually works. Voice control, no digital clutter, and multi-tab context, all grounded in privacy and security. Try it at http://aka.ms/copilot-mode + feel the difference of


 

Citation :

@satyanadella
Today we’re introducing Copilot Mode in Edge, our first step in reinventing the browser for the AI age.
 
My favorite feature is multi-tab RAG. You can use Copilot to analyze your open tabs, like I do here with papers our team has published in @Nature journals over the last year.
 
And there is a lot more to come, including built-in actions so you can delegate tasks as you browse.


Message édité par Olivie le 28-07-2025 à 21:20:22

---------------

n°73286865
bulldozer_​fusion
rip Mekthoub
Posté le 28-07-2025 à 21:59:54  profilanswer
 

Claude qui va baisser les usages [:jiejie999]

Citation :

We’re rolling out new weekly rate limits for Claude Pro and Max in late August. We estimate they’ll apply to less than 5% of subscribers based on current usage.

 

From August 28, we’ll introduce new weekly limits that’ll mitigate these problems while impacting as few customers as possible.

 

We’ll also support Max plan users buying additional usage at standard API rates, if they choose to.


https://pbs.twimg.com/media/Gw9vqwMXQAEu9yK?format=png&name=medium
https://x.com/AnthropicAI/status/1949898514844307953

Message cité 1 fois
Message édité par bulldozer_fusion le 28-07-2025 à 22:07:31

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73287186
Olivie
SUUUUUUUUUUUUUU
Posté le 28-07-2025 à 23:02:45  profilanswer
 

OpenAI même pas 5%, deux fois moins que Qwen.

 

https://preview.redd.it/openai-is-only-5th-now-google-is-crushing-everyone-on-v0-09gsv57wbkff1.png?width=1080&crop=smart&auto=webp&s=a539fb26d55ff9087af82ad84f8f47a76d053f6c

Message cité 1 fois
Message édité par Olivie le 28-07-2025 à 23:03:07

---------------

n°73287216
bulldozer_​fusion
rip Mekthoub
Posté le 28-07-2025 à 23:09:10  profilanswer
 

Olivie a écrit :

OpenAI même pas 5%, deux fois moins que Qwen.

 

https://preview.redd.it/openai-is-o [...] a76d053f6c


 [:jeanmacron2:7]


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  182  183  184  ..  254  255  256  257  258  259

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)