Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2532 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  333  334  335  336  337  338
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°74451810
Olivie
SUUUUUUUUUUUUUU
Posté le 26-03-2026 à 10:04:44  profilanswer
 

Reprise du message précédent :

Citation :

@thestreamingdev
I ran a 35-billion parameter AI agent on a $600 Mac mini.  
Specs: M4 Mac-Mini 16GB RAM
 
The model doesn't fit in RAM. It pages from the SSD at 30 tokens/second.
 
On NVIDIA, the same paging gives you 1.6 tok/s. Apple Silicon gives you 30. That's 18.6x faster.


https://github.com/walter-grace/mac-code


---------------

mood
Publicité
Posté le 26-03-2026 à 10:04:44  profilanswer
 

n°74451878
falkon1000
Posté le 26-03-2026 à 10:15:10  profilanswer
 

Quels sont les modèles chinois que vous trouvez vraiment performants pour le code ?
 
Le modèle Xiami m'a fait n'importe quoi, que ce soit le pro ou le omni.
Qwen était dans la course à l'époque de Gemini 2.5 mais me donne l'impression de n'avoir pratiquement pas évolué depuis
Je teste GLM actuellement, le 5, et ça semble prometteur

n°74451882
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 26-03-2026 à 10:15:46  profilanswer
 

Je dirais Kimi et glm


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°74452114
LibreArbit​re
La /root est longue
Posté le 26-03-2026 à 10:54:57  profilanswer
 

Olivie a écrit :

Citation :

@thestreamingdev
I ran a 35-billion parameter AI agent on a $600 Mac mini.  
Specs: M4 Mac-Mini 16GB RAM
 
The model doesn't fit in RAM. It pages from the SSD at 30 tokens/second.
 
On NVIDIA, the same paging gives you 1.6 tok/s. Apple Silicon gives you 30. That's 18.6x faster.


https://github.com/walter-grace/mac-code


Bon bah plus qu'à acheter un second Mac Mini M4 maintenant :o


---------------
Hebergement d'images
n°74452464
Sirolimus
Posté le 26-03-2026 à 11:58:10  profilanswer
 

omg la première fois que j'utilise le gemini integré à gsheet, c'est une horreur: 3 plombes pour répondre, me casse mes formules  :fou:

n°74452517
the_fennec
f3nn3cUs z3rd4
Posté le 26-03-2026 à 12:09:37  profilanswer
 

Pareil, j'ai tenté une ou deux fois, c'est lent et complètement pété :o


---------------
Faudra que je teste un jour :o
n°74452547
Goon
Posté le 26-03-2026 à 12:18:01  profilanswer
 

En LLM de base pour discuter et occasionnellement me guider dans la config Linux et traiter 2/3 tableaux, c'est quoi le consensus du topic ? J'ai un abonnement ChatGPT mais je le trouve de moins en moins bon et il me gave à finir chaque réponse par "au fait, je t'ai pas dit ça mais c'est super intéressant, c'est vraiment réservé aux initiés, est-ce que tu veux que je creuse et je te dise ?"

n°74452558
the_fennec
f3nn3cUs z3rd4
Posté le 26-03-2026 à 12:19:51  profilanswer
 

Olivie a écrit :

Citation :

@thestreamingdev
I ran a 35-billion parameter AI agent on a $600 Mac mini.  
Specs: M4 Mac-Mini 16GB RAM
 
The model doesn't fit in RAM. It pages from the SSD at 30 tokens/second.
 
On NVIDIA, the same paging gives you 1.6 tok/s. Apple Silicon gives you 30. That's 18.6x faster.


https://github.com/walter-grace/mac-code


 
Je vois pas comment un modèle de 10GB tiens pas dans 16GB UMA. En plus en UD-IQ2_M, c'est pas vraiment utilisable, il le dit lui même qu'il process pas correctement le JSON.
 
Sur ma 4060Ti je suis a 66 tg/s avec Q3_K_XL qui est bien plus utilisable, 73 tg/s en Q2_K. Même une 3060 12GB doit faire bien mieux. Faudrait que je vois sur une 8GB VRAM.


---------------
Faudra que je teste un jour :o
n°74452565
the_fennec
f3nn3cUs z3rd4
Posté le 26-03-2026 à 12:20:36  profilanswer
 

Goon a écrit :

En LLM de base pour discuter et occasionnellement me guider dans la config Linux et traiter 2/3 tableaux, c'est quoi le consensus du topic ? J'ai un abonnement ChatGPT mais je le trouve de moins en moins bon et il me gave à finir chaque réponse par "au fait, je t'ai pas dit ça mais c'est super intéressant, c'est vraiment réservé aux initiés, est-ce que tu veux que je creuse et je te dise ?"


 
Gemini marche bien pour ça je trouve.


---------------
Faudra que je teste un jour :o
n°74452648
falkon1000
Posté le 26-03-2026 à 12:38:30  profilanswer
 

Personnellement, je trouve globalement que Gemini est bien plus agréable et "humain" que ChatGPT qui est lourdingue et ultra typé USA.
 
Je bosse depuis plus de 10 ans avec des équipes américaines et je retrouve clairement de grosses similitudes "culturelles" dans la manière de parler.
Sans parler du fait que ChatGPT utilise beaucoup d'expressions ou de styles d'écritures Américains simplement traduits en français, ce qui sonne bizarre, alors que Gemini parle un français tout à fait normal.
 
Claude semble très bien rédiger aussi mais j'ai bcp moins d'expérience dessus.

mood
Publicité
Posté le 26-03-2026 à 12:38:30  profilanswer
 

n°74452651
bounty2k
Posté le 26-03-2026 à 12:39:50  profilanswer
 

the_fennec a écrit :


 
Je vois pas comment un modèle de 10GB tiens pas dans 16GB UMA. En plus en UD-IQ2_M, c'est pas vraiment utilisable, il le dit lui même qu'il process pas correctement le JSON.
 
Sur ma 4060Ti je suis a 66 tg/s avec Q3_K_XL qui est bien plus utilisable, 73 tg/s en Q2_K. Même une 3060 12GB doit faire bien mieux. Faudrait que je vois sur une 8GB VRAM.


L'article indique que ça swap sur le SSD, donc ça ne rentre évidemment pas dans la RAM.
Mais je suis étonné des 30 Token / s, même pour du Q2.
Sur mon M4 avec également 16 go de RAM je plafonne a 15 Token / s sur Qwen 3.5 9B en Q4.
De toute manière un M4 de base se fait enterré par quasi n'importe quel GPU Nvidia à partir de la génération RTX4xxx, ma 4070 fait 3 fois plus de Token que mon M4 alors que j'ai un vulgaire I5 9600K et 16 Go de RAM en DDR4.
 
Sinon j'ai eu accès à un benchmark complet d'un éditeur sur tous les models open source du marché avec leur produit. Avec 2 A100 de 80Gb de RAM chacun, la différence de perf (token /s) pour un même model entre vllm et Ollama est de 800%, c'est vraiment monstrueux (enfin surtout sur CUDA). A noté que les models les plus recommandables sont les Qwen3.

n°74452904
cataflamme
Posté le 26-03-2026 à 13:24:02  profilanswer
 

Sirolimus a écrit :

omg la première fois que j'utilise le gemini integré à gsheet, c'est une horreur: 3 plombes pour répondre, me casse mes formules  :fou:


c'est de la merde en effet, dans gdocs aussi
nettement moins bon que notebooklm ou gemini hors de gsheet à qui tu dis d'aller trouver le fichier en question, ou que claude sur le même fichier converti en fichier excel (suivant ce que tu cherches à faire)


Message édité par cataflamme le 26-03-2026 à 13:24:12
n°74452982
the_fennec
f3nn3cUs z3rd4
Posté le 26-03-2026 à 13:36:47  profilanswer
 

bounty2k a écrit :


L'article indique que ça swap sur le SSD, donc ça ne rentre évidemment pas dans la RAM.
Mais je suis étonné des 30 Token / s, même pour du Q2.
Sur mon M4 avec également 16 go de RAM je plafonne a 15 Token / s sur Qwen 3.5 9B en Q4.
De toute manière un M4 de base se fait enterré par quasi n'importe quel GPU Nvidia à partir de la génération RTX4xxx, ma 4070 fait 3 fois plus de Token que mon M4 alors que j'ai un vulgaire I5 9600K et 16 Go de RAM en DDR4.
 
Sinon j'ai eu accès à un benchmark complet d'un éditeur sur tous les models open source du marché avec leur produit. Avec 2 A100 de 80Gb de RAM chacun, la différence de perf (token /s) pour un même model entre vllm et Ollama est de 800%, c'est vraiment monstrueux (enfin surtout sur CUDA). A noté que les models les plus recommandables sont les Qwen3.


 
L'article dit de la marde je pense :o
 
9B en Q4 demande plus de resources que 35B A3B en Q2. Tu as 3x plus de paramètres actifs.
 
C'est 8x dans quel sens? Vllm c'est un truc de prod multi-user, Ollama (via llama) doit vomir avec 3/4 requêtes en parallèle, c'est pas trop fait pour ça.


---------------
Faudra que je teste un jour :o
n°74453105
Olivie
SUUUUUUUUUUUUUU
Posté le 26-03-2026 à 13:56:46  profilanswer
 

falkon1000 a écrit :

Personnellement, je trouve globalement que Gemini est bien plus agréable et "humain" que ChatGPT qui est lourdingue et ultra typé USA.
 
.


Tu as vu que y avait une option pour la personnalité de ChatGPT ?


---------------

n°74453173
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 26-03-2026 à 14:06:53  profilanswer
 

Goon a écrit :

En LLM de base pour discuter et occasionnellement me guider dans la config Linux et traiter 2/3 tableaux, c'est quoi le consensus du topic ? J'ai un abonnement ChatGPT mais je le trouve de moins en moins bon et il me gave à finir chaque réponse par "au fait, je t'ai pas dit ça mais c'est super intéressant, c'est vraiment réservé aux initiés, est-ce que tu veux que je creuse et je te dise ?"

 
the_fennec a écrit :

 

Gemini marche bien pour ça je trouve.


+1


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°74453178
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 26-03-2026 à 14:08:06  profilanswer
 

falkon1000 a écrit :

Personnellement, je trouve globalement que Gemini est bien plus agréable et "humain" que ChatGPT qui est lourdingue et ultra typé USA.

 

Je bosse depuis plus de 10 ans avec des équipes américaines et je retrouve clairement de grosses similitudes "culturelles" dans la manière de parler.
Sans parler du fait que ChatGPT utilise beaucoup d'expressions ou de styles d'écritures Américains simplement traduits en français, ce qui sonne bizarre, alors que Gemini parle un français tout à fait normal.

 

Claude semble très bien rédiger aussi mais j'ai bcp moins d'expérience dessus.


Je préfère aussi discuter avec Gemini et Claude


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°74453282
arkeod
Lurkeur since '01
Posté le 26-03-2026 à 14:22:56  profilanswer
 

Olivie a écrit :


Tu as vu que y avait une option pour la personnalité de ChatGPT ?

 

Je trouve  ça épatant qu'il faille encore informer a ce sujet  :sweat:


---------------
“The first rule is attack, attack, attack,”  
n°74453284
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 26-03-2026 à 14:23:23  profilanswer
 

bounty2k a écrit :


L'article indique que ça swap sur le SSD, donc ça ne rentre évidemment pas dans la RAM.
Mais je suis étonné des 30 Token / s, même pour du Q2.
Sur mon M4 avec également 16 go de RAM je plafonne a 15 Token / s sur Qwen 3.5 9B en Q4.
De toute manière un M4 de base se fait enterré par quasi n'importe quel GPU Nvidia à partir de la génération RTX4xxx, ma 4070 fait 3 fois plus de Token que mon M4 alors que j'ai un vulgaire I5 9600K et 16 Go de RAM en DDR4.

 

Sinon j'ai eu accès à un benchmark complet d'un éditeur sur tous les models open source du marché avec leur produit. Avec 2 A100 de 80Gb de RAM chacun, la différence de perf (token /s) pour un même model entre vllm et Ollama est de 800%, c'est vraiment monstrueux (enfin surtout sur CUDA). A noté que les models les plus recommandables sont les Qwen3.


Lequel est le gagnant?


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°74453374
the_fennec
f3nn3cUs z3rd4
Posté le 26-03-2026 à 14:38:04  profilanswer
 

bulldozer_fusion a écrit :


Lequel est le gagnant?


 
J'imagine que c'est Vllm :o
https://developers.redhat.com/sites/default/files/styles/article_full_width_1440px_w/public/graph1.png.webp
 
https://developers.redhat.com/artic [...] nchmarking


---------------
Faudra que je teste un jour :o
n°74453396
bounty2k
Posté le 26-03-2026 à 14:40:42  profilanswer
 

the_fennec a écrit :

 

L'article dit de la marde je pense :o

 

9B en Q4 demande plus de resources que 35B A3B en Q2. Tu as 3x plus de paramètres actifs.

 

C'est 8x dans quel sens? Vllm c'est un truc de prod multi-user, Ollama (via llama) doit vomir avec 3/4 requêtes en parallèle, c'est pas trop fait pour ça.


EDIT : En fait en relisant je crois que les througput sont calculés avec 16 requêtes concurrentes, ça explique l'écart énorme avec Ollama.
La moyenne de token / s sur vLLM est a 750 t/s vs 91 t/s sur Ollama sur l'ensemble des modèles testés. En sachant que vllm fonctionne en FP16 et Ollama en Q4.

 

Tu parles de quelles ressources ?
Quand je regarde la tailles des images je trouve 11 Go pour Qwen3.5 en 35B Q2 et 5Go et Qwen 3.5 9B en Q4, il me semble que la consommation RAM est proportionnelle à la taille du model.

Message cité 1 fois
Message édité par bounty2k le 26-03-2026 à 14:52:24
n°74453467
the_fennec
f3nn3cUs z3rd4
Posté le 26-03-2026 à 14:54:36  profilanswer
 

bounty2k a écrit :


De ma compréhension les tests se font en mono requête, mais en gros la moyenne de token / s sur vLLM est a 750 t/s vs 91 t/s sur Ollama sur l'ensemble des modèles testés. En sachant que vllm fonctionne en FP16 et Ollama en Q4.
 
Tu parles de quelles ressources ?  
Quand je regarde la tailles des images je trouve 11 Go pour Qwen3.5 en 35B Q2 et 5Go et Qwen 3.5 9B en Q4, il me semble que la consommation RAM est proportionnelle à la taille du model.


 
C'est difficile de commenter sans connaître le bench, le hard, etc. Vllm et Ollama sont pas du tout fait pour faire la même chose. Si tu as la VRAM, un FP16 sera plus rapide qu'un Q4, un safetensors est plus efficace qu'un gguf.
 
Je veux dire qu'au niveau calcul GPU, il y a plus de boulot pour un 9B qu'un 35BA3B.
 
Edit: Il me semble que llama (utilisé par Ollama) n'a pas de mécanisme de sessions concurrentes, il y a des "slot" mais je sais pas si c'est pas séquentiel.

Message cité 1 fois
Message édité par the_fennec le 26-03-2026 à 14:59:48

---------------
Faudra que je teste un jour :o
n°74453519
bounty2k
Posté le 26-03-2026 à 15:02:31  profilanswer
 

the_fennec a écrit :


 
C'est difficile de commenter sans connaître le bench, le hard, etc. Vllm et Ollama sont pas du tout fait pour faire la même chose. Si tu as la VRAM, un FP16 sera plus rapide qu'un Q4, un safetensors est plus efficace qu'un gguf.
 
Je veux dire qu'au niveau calcul GPU, il y a plus de boulot pour un 9B qu'un 35BA3B.
 
Edit: Il me semble que llama (utilisé par Ollama) n'a pas de mécanisme de sessions concurrentes, il y a des "slot" mais je sais pas si c'est pas séquentiel.


J'ai édité entre temps, mais effectivement le score est basé sur 16 requêtes concurrentes, donc forcément très à l'avantage de VLLM et sur du gros Hardware (2 H100 avec 80Gb de RAM) .
 

n°74453693
falkon1000
Posté le 26-03-2026 à 15:28:26  profilanswer
 

Olivie a écrit :


Tu as vu que y avait une option pour la personnalité de ChatGPT ?


Oui mais ça influe sur une partie seulement, pas sur "l'américanisme". Il est un peu moins psychopathe avec les bons réglages mais il s'exprime toujours de manière lourdingue.
En fait, avec Gemini on a l'impression de discuter avec un pote, avec Claude avec un doctorant (du peu que je l'ai fait) et avec ChatGPT à un ado américain lourdingue.

n°74453704
XaTriX
Posté le 26-03-2026 à 15:29:56  profilanswer
 

J'ai que gpt5mini high avec GitHub Copilot en gratos au taf, le reste est en premium request et c'est un quota mensuel :lol:

 

Que vaut ce model ?

Message cité 1 fois
Message édité par XaTriX le 26-03-2026 à 15:30:50

---------------
Proxytaf ? non rien
n°74453725
silga
Posté le 26-03-2026 à 15:33:08  profilanswer
 

bounty2k a écrit :


 
De toute manière un M4 de base se fait enterré par quasi n'importe quel GPU Nvidia à partir de la génération RTX4xxx, ma 4070 fait 3 fois plus de Token que mon M4 alors que j'ai un vulgaire I5 9600K et 16 Go de RAM en DDR4.
 


Mais faut pas oublier que ton PC te coute probablement 6 fois plus cher que le M4 en électricité ;)

n°74453835
Tronklou
❤❤ Vrp Bambulab à mi-temps ❤❤
Posté le 26-03-2026 à 15:51:05  profilanswer
 

J'avais fait le meme calcul sur le bar du comptoir avant d'acheter un mac mini : il viens de repartir vers d'autres contrés :D
 
En vrai si tu as deja un pc correct ( en ram surtout ) t'as mieux fait de mettre des sous dans un gpu nvidia que d'acheter un mac mini expres pour les llm.
 
En bourrinant 2h par jours tous les jours, mon gpu en conso versus le mac mini => 50 balles d'economisé par an.
Et surtout le gpu me sert pas que a ca, alors que le mac mini si tu part sur un 16gb il va devoir être dédié uniquement a ton llm local vus que c'est de la mémoire unifiée.


Message édité par Tronklou le 26-03-2026 à 15:52:05

---------------
Victime de girafophobie, mais se soigne.
n°74453863
the_fennec
f3nn3cUs z3rd4
Posté le 26-03-2026 à 15:55:27  profilanswer
 

silga a écrit :


Mais faut pas oublier que ton PC te coute probablement 6 fois plus cher que le M4 en électricité ;)


 
Si il va 6x plus vite, c'est rentable.
 
C'est bien d'avoir un Mac mini avec 100GB de RAM, mais ça rends pas le GPU plus rapide :D.


---------------
Faudra que je teste un jour :o
n°74454011
oh_damned
Posté le 26-03-2026 à 16:20:19  profilanswer
 

bulldozer_fusion a écrit :

De pire en pire...
https://rehost.diberie.com/Picture/Get/f/500763
et c'est à partir de demain qu'ils vont faire des changements  
https://rehost.diberie.com/Picture/Get/f/500764
je vous dis pas comment ça gueule
https://github.com/google-gemini/ge [...] ions/22970


 
 
T'es sur quels plans payants actuellement ?


---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°74454167
Olivie
SUUUUUUUUUUUUUU
Posté le 26-03-2026 à 16:42:22  profilanswer
 

Ils ont pas récolté assez de datas sur nous :o
 

Citation :

@XiaomiMiMo
 MiMo-V2-Pro has been #1 on OpenRouter — daily, weekly, AND trending — since launch.
 
Now we're extending free trial FOR ANOTHER WEEK!
 
The free trial for MiMo-V2-Pro and MiMo-V2-Omni now runs through April 2nd(GMT+8) via  
@OpenClaw, @OpenCode, @KiloCode, @Cline, @BlackBoxAI.


Message édité par Olivie le 26-03-2026 à 16:42:51

---------------

n°74454185
LibreArbit​re
La /root est longue
Posté le 26-03-2026 à 16:46:09  profilanswer
 

oh_damned a écrit :

T'es sur quels plans payants actuellement ?


Le Pro forcément mais c'est la même merde pour tous les users sauf les Ultra (et encore)...


---------------
Hebergement d'images
n°74454242
gatsu35
Blablaté par Harko
Posté le 26-03-2026 à 16:56:34  profilanswer
 

Je suis en train d'utiliser claude pour me renommer des épisodes d'une série de animée pour enfant afin d'avoir les bons numéros d'épisodes par rapport à thetvdb
et du coup il regarde soit le titre du fichier, soit les metadonnées, soit les frames pour trouver le titre
et si plusieurs épisodes dans 1 fichier, alors il va faire ça de maniere intelligente pour retrouver les titres de chaque épisodes
 
c'est ultra bourrin


---------------
Blablaté par Harko
n°74454254
duckjerry
Posté le 26-03-2026 à 16:58:49  profilanswer
 

falkon1000 a écrit :


Oui mais ça influe sur une partie seulement, pas sur "l'américanisme". Il est un peu moins psychopathe avec les bons réglages mais il s'exprime toujours de manière lourdingue.
En fait, avec Gemini on a l'impression de discuter avec un pote, avec Claude avec un doctorant (du peu que je l'ai fait) et avec ChatGPT à un ado américain lourdingue.


Ouais c'est exactement, tu veux que je te donne le top 3 réel des différences entre Claude et Gemini ?  
Ou alors je te fais un résumé hyper clair et sans bullshit de quelle chatbot choisir pour ton cas. Dis moi et je le fais.


---------------
Mon Flickr - "Oh, people can come up with statistics to prove anything, Kent. 40% of people know that." (Homer J. Simpson)
n°74454313
Olivie
SUUUUUUUUUUUUUU
Posté le 26-03-2026 à 17:09:31  profilanswer
 

Perso, j'adore comment chatgpt me répond, en mode full "faits", pas de blabla inutile etc...je cherche pas à avoir un ami numérique :o


---------------

n°74454337
XaTriX
Posté le 26-03-2026 à 17:14:45  profilanswer
 

gatsu35 a écrit :

Je suis en train d'utiliser claude pour me renommer des épisodes d'une série de animée pour enfant afin d'avoir les bons numéros d'épisodes par rapport à thetvdb
et du coup il regarde soit le titre du fichier, soit les metadonnées, soit les frames pour trouver le titre
et si plusieurs épisodes dans 1 fichier, alors il va faire ça de maniere intelligente pour retrouver les titres de chaque épisodes

 

c'est ultra bourrin


CC ou Cowork ?


---------------
Proxytaf ? non rien
n°74454342
XaTriX
Posté le 26-03-2026 à 17:15:21  profilanswer
 

T'as bien raison, je fais ça à mort :o
Et même si tu paies au token, vu le gain de temps dans la vie autant bosser 1hr de plus et payer ces trucs :o


---------------
Proxytaf ? non rien
n°74454378
gatsu35
Blablaté par Harko
Posté le 26-03-2026 à 17:21:32  profilanswer
 

XaTriX a écrit :


CC ou Cowork ?


Claude code, direct sur mon home-server sous linux, il fait ça d'une puissance, avant ce genre de connerie m'uarai pris pas loins de 2h car il y a 100 fichiers et faut fouiller chaque vidéo et renommer chaque épisode. là fini la galère, je matche nickel j'ai plus de soucis
 
Claude code est 10x mieux que cowork pour certains truc, gerne pour une étude de marché, tu créé un dossier sur ta machine, tu lances claude code dessus, et tu lui demande de te faire une étude de marché avec markdown + diagrammes mermaid dans markdown, et ensutie tu peux lui demander de générer du HTML ou du powerpoint avec MARP et yolo, le taf est fait


Message édité par gatsu35 le 26-03-2026 à 17:36:59

---------------
Blablaté par Harko
n°74454389
XaTriX
Posté le 26-03-2026 à 17:22:55  profilanswer
 

Le turfu du piratage :o


---------------
Proxytaf ? non rien
n°74454423
Pingoa
Posté le 26-03-2026 à 17:28:05  profilanswer
 

XaTriX a écrit :

Le turfu du piratage :o


No comment  :whistle:


---------------
Fuerte : https://www.youtube.com/watch?v=_8e2reyfvuc
n°74454428
gatsu35
Blablaté par Harko
Posté le 26-03-2026 à 17:28:32  profilanswer
 

XaTriX a écrit :

Le turfu du piratage :o


Le truc sale c'est que oui il peut faire ça tres bien, pour une app open source selfhosted, il te le fait en moins de 5 minutes, j'avais testé sur un truc sur une app de conversion vidéo, mais au final j'ai recodé entièrement une app qui fait mieux son taf, en tout cas qui est adaptée à mon besoin


Message édité par gatsu35 le 26-03-2026 à 17:29:25

---------------
Blablaté par Harko
n°74454740
falkon1000
Posté le 26-03-2026 à 18:43:00  profilanswer
 

XaTriX a écrit :

J'ai que gpt5mini high avec GitHub Copilot en gratos au taf, le reste est en premium request et c'est un quota mensuel :lol:
 
Que vaut ce model ?


Il est très bon mais peut oublier des choses et oublie parfois les appels aux outils.
Mais il peut être très performant. A mon sens il est déjà bien plus performant qu'Opus 4.6 et, quand on le prompt bien (et c'est pas un détail car il oublie vite), pas très loin de 5.4.
Enfin si tu parles bien de 5.4 mini et pas 5.1 mini
 

duckjerry a écrit :


Ouais c'est exactement, tu veux que je te donne le top 3 réel des différences entre Claude et Gemini ?  
Ou alors je te fais un résumé hyper clair et sans bullshit de quelle chatbot choisir pour ton cas. Dis moi et je le fais.


C'est carrément ça !
 
Tu as raison de challenger, je te réponds sans bullshit en allant droit au but. (...)
Tu veux que je te prépare un fichier (logiciel inconnu) prêt à être intégré en production, 100% fonctionnel ?

- Oui
Désolé je ne peux pas produire de fichier (logiciel inconnu). Je peux te faire une liste des commandes blabla. Dis le et je le fais.
 

Olivie a écrit :

Perso, j'adore comment chatgpt me répond, en mode full "faits", pas de blabla inutile etc...je cherche pas à avoir un ami numérique :o


Perso j'ai réglé le miens en pas d'enthousiasme, critique, hyper pragmatique, zéro emoji, droit au but, etc.
Il a quand même un comportement de psychopathe.
 
La personnalité que j'adore par contre c'est celle de Codex. Direct, efficace, sur de lui.

n°74455134
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 26-03-2026 à 20:09:57  profilanswer
 

oh_damned a écrit :

 


T'es sur quels plans payants actuellement ?

 
LibreArbitre a écrit :


Le Pro forcément mais c'est la même merde pour tous les users sauf les Ultra (et encore)...


Ouais


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  333  334  335  336  337  338

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)