Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2615 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  156  157  158  ..  305  306  307  308  309  310
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°72959021
Quich
Pouet ?
Posté le 28-05-2025 à 17:28:28  profilanswer
 

Reprise du message précédent :

falkon1000 a écrit :

Après réflexion tout dépend de ta capacité à faire tourner du python / Php ou autre langage sur ta propre machine en local et ou si ça doit pouvoir tourner en tâche de fond avec cron etc ou si c'est juste de la demande unitaire actionnée par toi quand tu en as besoin.

 

Perso sans VPS / Serveur web je pourrais oublier 50% de mes automatisations

 

Difficile de répondre précisément avec les infos que tu donnes.

 

L'idée serait d'étendre les fonctionnalités de l'intégration publique dont tu parles ou de ne créer que ce dont tu as besoin


Tout ce que je veux, c'est que l'IA trouve ce qu'il faut faire comme modifications/commit dans l'intégration publique sur GitHub pour que ça fonctionne par la suite.

 

En gros, je veux lui filer la doc de l'API A, le GitHub B, et lui demander de trouver les modifs à faire côté B pour que ça prenne bien tous les champs de l'endpoint Z de l'API A.


Message édité par Quich le 28-05-2025 à 17:30:03

---------------
Feedback
mood
Publicité
Posté le 28-05-2025 à 17:28:28  profilanswer
 

n°72959066
falkon1000
Posté le 28-05-2025 à 17:35:06  profilanswer
 

Un bon gros vibe coding avec un agent de code quoi  [:carbon'r:7]

n°72959481
loulou le ​marlou
Posté le 28-05-2025 à 18:48:18  profilanswer
 

A un moment, on va (enfin, je...) être vraiment, vraiment largués...

n°72959702
falkon1000
Posté le 28-05-2025 à 19:31:30  profilanswer
 

Damze a écrit :


 
C'est l'IA qui lance les appels IA ? Tu utilises quel service pour le faire ?


c'est mon customgpt qui fait les appels

n°72960043
Mevo
Divergent
Posté le 28-05-2025 à 20:32:25  profilanswer
 

falkon1000 a écrit :

Ils étaient par exemple sur le cul quand je leur ai montré un CustomGPT lancer des appels API, traiter les données, croiser ça avec un annuaire email + organigramme et qu'il pondait un mail ultra précis et pertinent à destination des bonnes personnes dans l'entreprise, en fournissant la liste des destinataires à copier coller et le contenu contenant des infos recupérées par différents appels API.


Perso, je suis un peu étonné de comment tu présentes cela. Je n'ai encore jamais vu de résultat que je qualifierais de "ultra précis", quel que soit le modèle. Ca me parait tout de même bourré de petites fautes (si ce n'est parfois d'énormes fautes), d'approximations, d'instructions pas totalement bien suivies, etc. Si tu veux quelque chose de bon, la relecture, correction et le peaufinage prend tout de même du temps. Ou vous arrivez tous à avoir des résultats parfaits du premier coup, à tous les coups, et vous allez me la jouer que c'est de ma faute ? :o


---------------
"The problem isn't that Johnny can't read. The problem isn't even that Johnny can't think. The problem is that Johnny doesn't know what thinking is; he confuses it with feeling" --Thomas Sowell
n°72960245
falkon1000
Posté le 28-05-2025 à 21:15:31  profilanswer
 

Ça fait bien longtemps que je n’ai pas vu un modèle se planter sur quelques données venant d’un RAG  
 
Le customgpt dont je parle fait appel à des fonctions qui tapent dans des API pour récupérer quelques infos sous format structuré
Je vois pas comment il pourrait se planter dans la restitution de quelque dizaines de chiffres
 
L’API, elle, n’utilise aucun LLM pour fournir ses résultats
 
PS : on a d’autres systèmes qui, eux, peuvent donner le sentiment d’halluciner mais qui en réalité se mélangent juste les pinceaux sur les données récupérées car elles ne sont pas fournies sous forme structurée. Je pense par exemple à un chatbot qui lance une recherche vectorielle dans une base qui a été indexée depuis des phrases contenant des infos utiles. Ça n’a rien à voir avec une API qui, sur la base d’une requête bien précise et calibrée te renvoie un json ou un xml parfaitement balisé

Message cité 1 fois
Message édité par falkon1000 le 28-05-2025 à 21:19:35
n°72960267
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 28-05-2025 à 21:20:57  profilanswer
 

Citation :

New DeepSeek R1 just dropped


https://huggingface.co/deepseek-ai/DeepSeek-R1-0528


Message édité par bulldozer_fusion le 28-05-2025 à 21:21:09

---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°72960291
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 28-05-2025 à 21:26:07  profilanswer
 

Un nouvel agent niveau PHD accessible en bêta  
https://www.intology.ai/blog/zochi-acl


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°72960295
Olivie
SUUUUUUUUUUUUUU
Posté le 28-05-2025 à 21:26:49  profilanswer
 

bulldozer_fusion a écrit :

Un nouvel agent niveau PHD accessible en bêta  
https://www.intology.ai/blog/zochi-acl


Accessible où et comment ? :o


---------------

n°72960297
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 28-05-2025 à 21:27:16  profilanswer
 

Olivie a écrit :


Accessible où et comment ? :o


regarde dans le lien, tu peux t'inscrire pour accéder à la bêta (en haut à droite)


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
mood
Publicité
Posté le 28-05-2025 à 21:27:16  profilanswer
 

n°72960383
Yor_le_Bou​rrin
Posté le 28-05-2025 à 21:48:03  profilanswer
 

Mevo a écrit :


Perso, je suis un peu étonné de comment tu présentes cela. Je n'ai encore jamais vu de résultat que je qualifierais de "ultra précis", quel que soit le modèle. Ca me parait tout de même bourré de petites fautes (si ce n'est parfois d'énormes fautes), d'approximations, d'instructions pas totalement bien suivies, etc. Si tu veux quelque chose de bon, la relecture, correction et le peaufinage prend tout de même du temps. Ou vous arrivez tous à avoir des résultats parfaits du premier coup, à tous les coups, et vous allez me la jouer que c'est de ma faute ? :o


C'est variable en fonction du besoin : au plus il est standard / courant (genre faire une interface en react / vuejs à partir de maquettes, ou bootstrap un projet API classique), au moins tu as besoin de retoucher, il peut même faire mieux que ce que tu aurais fait au premier abord.

 

Les domaines plus exotiques et donc avec moins de liens ou des changements récents c'est une autre histoire, là je suis content quand j'ai une piste viable que je peux étendre. Genre mettre en place une stack grafana / Loki / tempo sur du k8, il racontait trop de merdes sur la conf pour que ce soit rentable, je me suis servi de la doc, à l'ancienne.

n°72960802
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 28-05-2025 à 23:24:48  profilanswer
 

Opéra rentre dans la danse

Citation :

Meet Opera Neon, a browser for the agentic web
Opera Neon can browse with you or for you, take action & help you get things done.

 

We’ve been working on agentic AI for the past two years, figuring out how to use AI to go beyond a simple conversation. We unveiled the initial results of our work in March 2025 with the introduction of Browser Operator – an AI agent that can browse and do things on the web for you


https://x.com/opera/status/1927645196059099138?s=19


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°72960813
falkon1000
Posté le 28-05-2025 à 23:28:07  profilanswer
 

Les opérateurs comme ça c’est le nouveau monde qui communique avec l’ancien
L’avenir c’est MCP et le commerce passera par là, tout comme la recherche d’info
 

n°72960817
Mevo
Divergent
Posté le 28-05-2025 à 23:29:07  profilanswer
 

falkon1000 a écrit :

Ça fait bien longtemps que je n’ai pas vu un modèle se planter sur quelques données venant d’un RAG  
 
Le customgpt dont je parle fait appel à des fonctions qui tapent dans des API pour récupérer quelques infos sous format structuré
Je vois pas comment il pourrait se planter dans la restitution de quelque dizaines de chiffres
 
L’API, elle, n’utilise aucun LLM pour fournir ses résultats
 
PS : on a d’autres systèmes qui, eux, peuvent donner le sentiment d’halluciner mais qui en réalité se mélangent juste les pinceaux sur les données récupérées car elles ne sont pas fournies sous forme structurée. Je pense par exemple à un chatbot qui lance une recherche vectorielle dans une base qui a été indexée depuis des phrases contenant des infos utiles. Ça n’a rien à voir avec une API qui, sur la base d’une requête bien précise et calibrée te renvoie un json ou un xml parfaitement balisé


Je ne saisis pas bien ta réponse. Bien entendu que les données provenant d'un RAG ou d'une API en elles-même sont correctes. Comment pourrait-il en être autrement ? C'est comme si tu lui collais toi-même les données dans le prompt. En entrée, c'est bon.
Ensuite le LLM va traiter ces données. Faire ce que tu veux en faire, ou faire avec. C'était bien ce dont tu étais en train de parler, tel que je t'ai cité et je te cite à nouveau: "...traiter les données, croiser ça avec un annuaire email + organigramme et qu'il pondait un mail ultra précis et pertinent à destination des bonnes personnes dans l'entreprise...". Et c'est là que le bas blesse éventuellement.
 
Je peux te donner un exemple concret très simple: En début de mois sur le topic bourse, était discuté deux ETFs sur l'indice NASDAQ-100. Sauf que l'un était "normal" (=les sociétés du NASDAQ-100) et l'autre était "ESG" (normalement les même boites, mais avec une sélection alakon). Le résultat a été celui-ci, en regardant (Source = le topic Bourse = https://forum.hardware.fr/hfr/Discu [...] #t72840260 ) :

Citation :

Au lieu de 100 sociétés qui composent le NASDAQ-100, il y en a 50 dans le Solactive ISS ESG US Tech 100 (101 vs 51 si on compte les deux classes d'actions d'Alphabet).
Il y a 55 sociétés qui manquent et 5 sociétés rajoutées qui ne sont pas dans le NASDAQ-100


J'ai voulu faire la comparaison des deux listes avec des LLMs pour obtenir ce résultat. J'ai concocté des instructions qui me paraissaient bien et bonnes, ainsi que claires (j'ai ai mis un peu d'effort), avec un copié/collé des deux listes de sociétés. Eh ben le résultat n'a pas été joyeux... Je me suis ensuite servi de ca comme "test" pour le filer à différents LLMs. De simples petits détails tel que le fait qu'il y avait deux fois l'action Alphabet (deux classes différentes), que les dénominations n'étaient pas toujours exprimées de l'exacte même facon (présence de "LTD" ou "LIMITED", "INC" qui apparaissait ou non, dénomination raccourcie ou un peu plus complète, etc.), qu'il y avait 5 sociétés dans la liste B qui n'étaient pas dans la A et 55 dans la A qui n'étaient pas dans la B, fait que t'obtenais rarement le bon résultat. Nombre de modèles n'arrivaient même pas à compter correctement le nombre de lignes des listes au départ, alors que ca parait pourtant ultra évident. L'une des deux listes était même numérotée, et ils arrivaient à me trouver un compte différent. Une tuerie. Et ca n'avait rien de terriblement compliqué. J'ai tout eu, genre "toutes les sociétés dans B sont dans A" => Non, ce n'est pas le cas, 5 n'y sont pas ! Bref, d'où mon étonnement devant la manière dont tu présentes cela comme outil quelque peu "magique".
 
Au-delà de ca, j'ai tendance à leur demander des trucs un peu compliqués, parce que oui, si je peux faire aussi rapidement moi-même que le temps qu'il me faut pour leur expliquer, ca ne me sert à rien. Ben les résultats, c'est souvent pas totalement ca. Au minimum, ca demande un bon coup de vérification. Et souvent d'y mettre la main à la pâte pour les aider et les guider. Pas plus tard qu'hier, sur une discussion en amont pour la création d'un dataset avec Gemini 2.5 PRO, il me donne un exemple basé sur des images de chat. Et dans son exemple, il explique qu'une image de chihuahua ressemblera environ à x%, y% et z% à d'autres trucs, mais que la plus grosse probabilité sera bien que ca ressemblera à une image de chat ! Il me sort ca, de but en blanc. Lorsque je lui fait remarquer que "euh, un chihuahua, c'est un chien, pas un chat", il me répond "ah oui, oups, désolé, c'est bien pour ca qu'il faut que tu vérifies ce que je raconte derrière et qu'il faut que tu vérifies le dataset ensuite". Bref, c'est pas précis, et ca se trompe "bêtement" assez facilement, à mon sens.
 
Sur l'exemple que tu as donné, de mon expérience, si tu te sers du LLM pour faire ca sur la durée, il te rajoutera quelques personnes qu'il ne faut pas à l'occasion, et t'en oubliera quelques unes à l'occasion (s'il faut faire de la sélection, des croisements, etc. le résultat n'est pas garanti d'être le bon)... Tu ne peux pas compter dessus pour ce que tu veux d'effectué de manière précise et sure (or "ultra précis" était ce que tu disais, d'où ma réaction / question :jap: ).


Message édité par Mevo le 28-05-2025 à 23:34:07

---------------
"The problem isn't that Johnny can't read. The problem isn't even that Johnny can't think. The problem is that Johnny doesn't know what thinking is; he confuses it with feeling" --Thomas Sowell
n°72960824
Mevo
Divergent
Posté le 28-05-2025 à 23:31:04  profilanswer
 

Yor_le_Bourrin a écrit :


C'est variable en fonction du besoin : au plus il est standard / courant (genre faire une interface en react / vuejs à partir de maquettes, ou bootstrap un projet API classique), au moins tu as besoin de retoucher, il peut même faire mieux que ce que tu aurais fait au premier abord.
 
Les domaines plus exotiques et donc avec moins de liens ou des changements récents c'est une autre histoire, là je suis content quand j'ai une piste viable que je peux étendre. Genre mettre en place une stack grafana / Loki / tempo sur du k8, il racontait trop de merdes sur la conf pour que ce soit rentable, je me suis servi de la doc, à l'ancienne.


Pour coder comme cela, sachant qu'il a vachement dû voir passer de choses du genre durant son entrainement, ok, je suis tout à fait disposé à croire que ca peut sortir quelque chose de bon :jap:


---------------
"The problem isn't that Johnny can't read. The problem isn't even that Johnny can't think. The problem is that Johnny doesn't know what thinking is; he confuses it with feeling" --Thomas Sowell
n°72961406
falkon1000
Posté le 29-05-2025 à 09:19:42  profilanswer
 

@Mevo
 
Tout dépend de ce que tu lui demandes  
Moi je lui fait faire appel à des fonctions qui font des appels API venant de différentes sources, il les récupère parfaitement car l’appel est calibré et la sortie est faite par un système spécialisé, toujours sous le même format et qu’il est parfaitement clair.
Le volume de données récupéré est faible car c’est le résultat final, que le système spécialisé qu’on a interrogé à calculé lui même de son côté.
 
Croiser 4 ou 5 données de ce type et demander au LLM de faire la restitution ça ne provoque jamais d’erreurs car on n’a pas utilisé un modèle de langage pour faire autre chose que du langage
Ici on utilise le LLM pour qu’il comprenne une demande en langage naturel, appelle la bonne fonction qui fait partie d’un catalogue de fonction dont la description a été faite en langage naturel et est interprété correctement par le LLM, produire un texte de réponse avec les données récupérées.
 
Tant qu’on reste dans ce pourquoi les outils sont sont conçus ça fonctionne bien.
 
Si je prends ton exemple sur les chats et les chiens tu utilises un LLM pour qu’il comprenne ta demande puis il fait appel à un moteur de vision qui tente de décrire l’image. Ici le problème n’est pas le LLM mais le moteur de vision. que veux-tu que le LLM te réponde d’autre que « ah oui vision a fait une erreur bon bah je vais m’excuser pour lui ». et bien évidemment tu n’auras pas un meilleur résultat parce que le metteur de vision a ses limites. Ce n’est pas une hallucination.
Le moteur de vision n’a technologiquemen t rien à voir avec le LLM. Analyse de matrices de pixel d’un côté, prédiction de token de l’autre. Ça a beau être markèté dans un unique produit c’est très différent.
 
Souvent quand on parle du manque de performance, des grands modèles de langage et que je regarde l’utilisation qui est en effet et que je vois que on leur demande des calculs mathématiques complexes, j’ai le même discours. C’est juste pas leur domaine même si on les équipe de bonnes calculatrices.
 
On peut planter un clou en frappant comme un soir avec un manche de tournevis. Ça finira par presque fonctionner tant bien que mal. C’est pas pour autant que c’est un mauvais tournevis

n°72962191
CoyoteErab​le
Dorée et Colorée
Posté le 29-05-2025 à 12:33:34  profilanswer
 

Faut que je commence à faire attention avec mes requêtes de 700K tokens en input, mes journées commencent à coûter 10e avec Gemini  [:ge haussmann]

 

Mais qu'est-ce qu'il est doué.


---------------
Bloqué par Végétarien Garçon
n°72962205
Olivie
SUUUUUUUUUUUUUU
Posté le 29-05-2025 à 12:36:33  profilanswer
 

CoyoteErable a écrit :

Faut que je commence à faire attention avec mes requêtes de 700K tokens en input, mes journées commencent à coûter 10e avec Gemini  [:ge haussmann]  
 
Mais qu'est-ce qu'il est doué.


Tu utilises le pro ou le flash?


---------------

n°72962219
Mevo
Divergent
Posté le 29-05-2025 à 12:39:39  profilanswer
 


"il les récupère parfaitement": Encore une fois: Normal. Comment pourrait-il en être autrement ?
"Croiser 4 ou 5 données de ce type et demander au LLM de faire la restitution ça ne provoque jamais d’erreurs": Si, et c'était tout le point. Enfin, à mon sens (au niveau CROISEMENTS, pas récupération. Ou "restitution", si tu ne fais RIEN avec ces données. Dans ce cas, t'aurais plus vite fait d'appeler directement l'API).
 
"car on n’a pas utilisé un modèle de langage pour faire autre chose que du langage": Une discussion à propos d'images de chat (ce n"était qu'une discussion TEXTE en amont, avec un exemple qu'il m'a donné de lui-même), pas d'actuelle image impliquée pour l'instant. Et je t'ai donné l'exemple de la liste de sociétés, qui n'est que du texte, avec rien de terriblement compliqué. Ca se rapprochait de jongler avec des listes d'emails et sélectionner les bons, par exemple. Je n'ai jamais parlé de "calculs mathématiques complexes". Bref, dialogue de sourd.

Message cité 1 fois
Message édité par Mevo le 29-05-2025 à 12:42:58

---------------
"The problem isn't that Johnny can't read. The problem isn't even that Johnny can't think. The problem is that Johnny doesn't know what thinking is; he confuses it with feeling" --Thomas Sowell
n°72962289
Olivie
SUUUUUUUUUUUUUU
Posté le 29-05-2025 à 12:57:10  profilanswer
 

https://img3.super-h.fr/images/2025/05/29/snapshot_1680740d9dd84d6ea97de.jpg


---------------

n°72962933
falkon1000
Posté le 29-05-2025 à 15:08:40  profilanswer
 

Mevo a écrit :


"il les récupère parfaitement": Encore une fois: Normal. Comment pourrait-il en être autrement ?
"Croiser 4 ou 5 données de ce type et demander au LLM de faire la restitution ça ne provoque jamais d’erreurs": Si, et c'était tout le point. Enfin, à mon sens (au niveau CROISEMENTS, pas récupération. Ou "restitution", si tu ne fais RIEN avec ces données. Dans ce cas, t'aurais plus vite fait d'appeler directement l'API).
 
"car on n’a pas utilisé un modèle de langage pour faire autre chose que du langage": Une discussion à propos d'images de chat (ce n"était qu'une discussion TEXTE en amont, avec un exemple qu'il m'a donné de lui-même), pas d'actuelle image impliquée pour l'instant. Et je t'ai donné l'exemple de la liste de sociétés, qui n'est que du texte, avec rien de terriblement compliqué. Ca se rapprochait de jongler avec des listes d'emails et sélectionner les bons, par exemple. Je n'ai jamais parlé de "calculs mathématiques complexes". Bref, dialogue de sourd.


Améliore ton prompt alors [:spamafote]  
J’ai pas particulièrement envie de débattre
Perso j’ai des résultats qui nous font avancer

n°72962981
CoyoteErab​le
Dorée et Colorée
Posté le 29-05-2025 à 15:17:27  profilanswer
 

Olivie a écrit :


Tu utilises le pro ou le flash?


Les deux en fonction des besoins.

 

Pour extraire des citations d'un corpus, même Flash se débrouille très bien. Le pro c'est plutôt pour apporter des critiques sur certaines notes que j'ai produites en se basant sur ce même corpus.

 

Très honnêtement je n'ai jamais vu une seule hallucination dans les citations qu'il m'a apportées. Par contre ça arrive (⅒ environ) sur Flash qu'il crédite un autre auteur sur une citation/donnée ou qu'il sur interprète. Mais bon, ça arrive même aux humains et de toutes façons je connais bien mon corpus  [:garypresident:2].


---------------
Bloqué par Végétarien Garçon
n°72963745
Mevo
Divergent
Posté le 29-05-2025 à 17:53:07  profilanswer
 

falkon1000 a écrit :

Améliore ton prompt alors [:spamafote]  
J’ai pas particulièrement envie de débattre
Perso j’ai des résultats qui nous font avancer


Je ne crois pas que mon prompt soit en cause (ca peut arriver à l'occasion, mais ca se remarque, dans ce cas). On a simplement une différence d'opinion sur la fiabilité et ou le supposé forcément "parfait" du résultat, voilà tout. Perso, je veux bien du retour de gens autre que du "J’ai pas particulièrement envie de débattre. Perso j’ai des résultats qui nous font avancer" :o Entre "ca fait avancer" et c'est "ultra précis", il y a une différence, à mes yeux. Je n'ai pas dit que c'était inutile pour autant (faut pas tout mélanger).
 
De manière intéressante, le soucis me semble d'ailleurs augmenter proportionnellement à la réduction de la taille d'un modèle (au niveau du nombre de paramètres). Autant les bon gros modèles hébergés, ils se trompent peu et restent très bon. Mais les erreurs restent présentes à l'occasion. Autant avec les petits modèles en local, le soucis augmente de manière notable, je trouve. Le parallèle entre comment ils deviennent moins "intelligents" lorsqu'ils sont plus petits est assez marrant également (à considérer que les gros modèles seraient "intelligents" ). Ils ont davantage de mal à comprendre, davantage de difficultés avec la nuance, ils tapent plus facilement à coté de la plaque, se retrouvent beaucoup plus vite largués, et font davantage d'erreurs (on ne parle pas non plus que d'hallucinations, qui est autre chose). Un certain parallèle pourrait presque être fait avec l'intelligence des humains, d'ailleurs :o (je ne dis pas cela pour toi, ici, pas qu'il y ait méprise).

Message cité 1 fois
Message édité par Mevo le 29-05-2025 à 17:56:48

---------------
"The problem isn't that Johnny can't read. The problem isn't even that Johnny can't think. The problem is that Johnny doesn't know what thinking is; he confuses it with feeling" --Thomas Sowell
n°72963787
duckjerry
Posté le 29-05-2025 à 18:02:44  profilanswer
 

Assez d'accord avec toi, je ne constate pas d'ultra précis sur un usage d'architecture et de comparaison entre solutions. J'ai souvent le cas où la comparaison est bonne, je rajoute un paramètre et ce qui était réalisé avant est remis en question sans raison apparente. Même en refaisant un prompt ça reste parfois moins bien que le résultat initial... Voir même en faisant le même prompt une nouvelle fois il se plante à nouveau sur un autre élément !
Par exemple récemment je bosse sur des solutions pour un système air-gapped, ChatGPT invente pas mal de choses qui ne marchent pas quand il ne trouve rien dans la littérature puis se mélange entre plusieurs produits d'une même boîte en lui disant explicitement lequel évaluer, puis dit le classique "ah oui c'est vrai blablabla" et il persiste dans l'erreur. J'ai remarqué que ça me le fait souvent quand il modifie une comparaison formatée dans un tableau plutôt que dans des sections séparées.

 

Bref, le temps de relecture et vérification est non négligeable pour ma part.


---------------
Mon Flickr - "Oh, people can come up with statistics to prove anything, Kent. 40% of people know that." (Homer J. Simpson)
n°72963879
Mevo
Divergent
Posté le 29-05-2025 à 18:20:09  profilanswer
 

Voilà, j'ai également les mêmes expériences que ce que tu décris :jap: Merci.


---------------
"The problem isn't that Johnny can't read. The problem isn't even that Johnny can't think. The problem is that Johnny doesn't know what thinking is; he confuses it with feeling" --Thomas Sowell
n°72964046
LibreArbit​re
La /root est longue
Posté le 29-05-2025 à 18:57:30  profilanswer
 

Pour info je viens de découvrir dans Gemini qu'on pouvait inviter 3 amis et leur faire bénéficier de 4 mois d'abonnement gratuit à Gemini Pro...
 

Citation :

Programme de parrainage Google AI Pro
Dernière mise à jour : 11 avril 2025
Les membres Google AI Pro peuvent faire bénéficier leurs amis d'une récompense, soumise aux présentes conditions d'utilisation. Vous pouvez offrir un abonnement Google AI Pro sans frais pendant 4 mois aux personnes éligibles qui s'inscrivent pour la première fois à Google AI Pro. Vous pouvez présenter le service à autant d'amis que vous le souhaitez, mais seuls les 3 premiers à s'inscrire pourront profiter de l'offre.
 
Veuillez vous assurer que vos amis sont d'accord pour recevoir votre lien avant de l'envoyer.
 
Ce programme de parrainage est soumis aux Conditions d'utilisation de Google, ainsi qu'aux présentes conditions. L'entité Google qui fait la promotion de ce programme de parrainage est celle qui vous fournit les produits et services Google conformément aux Conditions d'utilisation de Google. Les Règles de confidentialité de Google expliquent comment les données à caractère personnel sont gérées.
 
Pour être éligible, vous devez disposer d'un forfait Google AI Pro payant ou être passé d'un forfait Google One payant à un abonnement Google AI Pro. Ce programme n'est pas disponible pour les utilisateurs d'un abonnement d'essai à Google One.
Pour bénéficier de l'offre, l'utilisateur parrainé doit être un nouveau client Google AI Pro et résider dans le même territoire pris en charge que vous, où l'application Web Gemini est disponible.
Vous devez respecter les lois en vigueur lorsque vous partagez des codes ou des liens concernant cette promotion. Veuillez vous assurer de disposer de toutes les autorisations nécessaires pour communiquer avec les personnes que vous souhaitez parrainer. Google décline toute responsabilité quant aux messages que vous envoyez en rapport avec cette promotion.
Les récompenses ne peuvent pas être cédées ni échangées contre des espèces ni des équivalents d'espèces.
Si Google détermine que cette offre fait l'objet d'une utilisation enfreignant ces conditions, d'une utilisation abusive, d'un usage abusif ou d'une fraude, la récompense ou toute partie inutilisée de la récompense peut être annulée.


Message édité par LibreArbitre le 29-05-2025 à 18:58:49

---------------
Hebergement d'images
n°72964406
H00d
Posté le 29-05-2025 à 20:21:32  profilanswer
 

Mevo a écrit :

Je ne crois pas que mon prompt soit en cause (ca peut arriver à l'occasion, mais ca se remarque, dans ce cas). On a simplement une différence d'opinion sur la fiabilité et ou le supposé forcément "parfait" du résultat, voilà tout. Perso, je veux bien du retour de gens autre que du "J’ai pas particulièrement envie de débattre. Perso j’ai des résultats qui nous font avancer" :o Entre "ca fait avancer" et c'est "ultra précis", il y a une différence, à mes yeux. Je n'ai pas dit que c'était inutile pour autant (faut pas tout mélanger).
 
De manière intéressante, le soucis me semble d'ailleurs augmenter proportionnellement à la réduction de la taille d'un modèle (au niveau du nombre de paramètres). Autant les bon gros modèles hébergés, ils se trompent peu et restent très bon. Mais les erreurs restent présentes à l'occasion. Autant avec les petits modèles en local, le soucis augmente de manière notable, je trouve. Le parallèle entre comment ils deviennent moins "intelligents" lorsqu'ils sont plus petits est assez marrant également (à considérer que les gros modèles seraient "intelligents" ). Ils ont davantage de mal à comprendre, davantage de difficultés avec la nuance, ils tapent plus facilement à coté de la plaque, se retrouvent beaucoup plus vite largués, et font davantage d'erreurs (on ne parle pas non plus que d'hallucinations, qui est autre chose). Un certain parallèle pourrait presque être fait avec l'intelligence des humains, d'ailleurs :o (je ne dis pas cela pour toi, ici, pas qu'il y ait méprise).


duckjerry a écrit :

Assez d'accord avec toi, je ne constate pas d'ultra précis sur un usage d'architecture et de comparaison entre solutions. J'ai souvent le cas où la comparaison est bonne, je rajoute un paramètre et ce qui était réalisé avant est remis en question sans raison apparente. Même en refaisant un prompt ça reste parfois moins bien que le résultat initial... Voir même en faisant le même prompt une nouvelle fois il se plante à nouveau sur un autre élément !
Par exemple récemment je bosse sur des solutions pour un système air-gapped, ChatGPT invente pas mal de choses qui ne marchent pas quand il ne trouve rien dans la littérature puis se mélange entre plusieurs produits d'une même boîte en lui disant explicitement lequel évaluer, puis dit le classique "ah oui c'est vrai blablabla" et il persiste dans l'erreur. J'ai remarqué que ça me le fait souvent quand il modifie une comparaison formatée dans un tableau plutôt que dans des sections séparées.
 
Bref, le temps de relecture et vérification est non négligeable pour ma part.


Même expérience ici.
 

n°72964945
gagaches
Posté le 29-05-2025 à 22:07:11  profilanswer
 

falkon1000 a écrit :


Améliore ton prompt alors [:spamafote]
J’ai pas particulièrement envie de débattre
Perso j’ai des résultats qui nous font avancer

 

C'est dommage cette attitude.
Tu dis sans arguments que croiser 4 ou 5 sources c'est facile et que le LLM ne se trompe pas.

 

Je ne vois pas non plus comment ça peut être vrai (que le llm se trompe pas) quand mes propres tests prouvent l'inverse.

 

Peu importe le prompt, lui donner 2 listes de valeurs textuelles et lui demander de fusionner ou de trier, ça peut foirer facilement.

 

C'est un travail d exactitude sur lequel les LLM ne sont pas bons.

 

Edit: j'avais pas vu les autres messages.
+1 avec vous

Message cité 1 fois
Message édité par gagaches le 29-05-2025 à 22:23:11

---------------

n°72965047
falkon1000
Posté le 29-05-2025 à 22:25:01  profilanswer
 

Ok
 
 
Quelqu’un sait si on peut utiliser MCP dans un custom gpt ?
J’ai lu que ça se faisait dans les Actions mais je ne trouve pas comment faire.
 
Merci

n°72965141
gagaches
Posté le 29-05-2025 à 22:41:40  profilanswer
 

falkon1000 a écrit :

Ok

 


Quelqu’un sait si on peut utiliser MCP dans un custom gpt ?
J’ai lu que ça se faisait dans les Actions mais je ne trouve pas comment faire.

 

Merci

 

Si tu prends ce topic comme un SAV gratuit à tes demandes, je vois pas l'intérêt de te répondre.

 

Demandes à ton customGpt la réponse.


---------------

n°72965874
Olivie
SUUUUUUUUUUUUUU
Posté le 30-05-2025 à 08:35:13  profilanswer
 

Citation :

I added the updated DeepSeek-R1-0528-Qwen3-8B with 4bit quant in my app to test it on iPhone. It's running with MLX.
 
It runs which is impressive but too slow to be usable, the model is thinking for too long and the phone get really hot. I wonder if 8B models will be usable when the iPhone 17 drops.
 
That said, I will add the model on iPad with M series chip.
 
https://i.imgur.com/swMZBjl.jpeg


https://www.reddit.com/r/LocalLLaMA [...] ne_16_pro/


---------------

n°72965941
Olivie
SUUUUUUUUUUUUUU
Posté le 30-05-2025 à 08:53:50  profilanswer
 

Citation :

@ai_for_success
 
Breaking : Perplexity just launched Labs mode.
 
Not just search anymore, now builds trading bots, dashboards, web apps, and scrapes data automatically.
 
Basically turned Perplexity into a full development environment.


---------------

n°72966303
falkon1000
Posté le 30-05-2025 à 10:48:47  profilanswer
 

Bon bha MCP n’en n’est qu’à ses prémices sur GPT. Dispo dans l’api en stdio et de ce que j’ai compris c’est en bêta en sse depuis cette semaine
 
La dessus Claude a une avance
Et Google a une avance sur la vidéo
 
OpenAI doit être en stress en ce moment

n°72966860
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 30-05-2025 à 13:05:25  profilanswer
 

Olivie a écrit :

Citation :

@ai_for_success

 

Breaking : Perplexity just launched Labs mode.

 

Not just search anymore, now builds trading bots, dashboards, web apps, and scrapes data automatically.

 

Basically turned Perplexity into a full development environment.



Je t'ai testé c'est pas mal !


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°72966875
Olivie
SUUUUUUUUUUUUUU
Posté le 30-05-2025 à 13:08:19  profilanswer
 

bulldozer_fusion a écrit :


Je t'ai testé c'est pas mal !


Si c’est Claude 3.7 derrière, pas de raison que ce soit mauvais :o


---------------

n°72967038
Yor_le_Bou​rrin
Posté le 30-05-2025 à 13:47:26  profilanswer
 

falkon1000 a écrit :

Bon bha MCP n’en n’est qu’à ses prémices sur GPT. Dispo dans l’api en stdio et de ce que j’ai compris c’est en bêta en sse depuis cette semaine

 

La dessus Claude a une avance
Et Google a une avance sur la vidéo

 

OpenAI doit être en stress en ce moment


J'avais regardé il y a 1/2 mois, oauth n'était pas encore supporté dans la spec MCP, ce qui limite aux données locales. Amha c'est surtout à ce moment-là que MCP va décoller et devenir un must


Message édité par Yor_le_Bourrin le 30-05-2025 à 13:48:01
n°72967128
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 30-05-2025 à 14:10:53  profilanswer
 

Olivie a écrit :


Si c’est Claude 3.7 derrière, pas de raison que ce soit mauvais :o


Ça utilise 3.7, pas 4?


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°72968420
Yor_le_Bou​rrin
Posté le 30-05-2025 à 18:25:28  profilanswer
 

Je retire ce que j'ai dit plus haut : l'impact de MCP est déjà plus profond que ce que je pensais  [:babonnguida:4]

 

https://github.com/ConAcademy/buttplug-mcp

n°72968484
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 30-05-2025 à 18:43:36  profilanswer
 

Perplexity continue sa marche en avant

Citation :

Searching academic papers and journals is now easier than ever.
 
Finance, Travel, Shopping, and Academic pages are now pinned to your sidebar for quick, seamless access.
 
Currently available on web.


https://x.com/perplexity_ai/status/1928471214533779894


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°72968559
crepator4
Deus ex machina
Posté le 30-05-2025 à 19:05:28  profilanswer
 

perplexity, me laisse perplexe, j'ai voulu faire du comparo de scooter chinois, il m'a mélangé avec d'autres modeles ... le texte fait tres pro , y'a pas à dire, mais les données utilisé sont pété ...

 

Je m'en suis rendu compte car j'ai voulu faire le comparo avec d'autres modeles, il m'a sortie les memes données ... "tiens , c'est bizzare ... "


Message édité par crepator4 le 30-05-2025 à 19:07:28

---------------
...survivre à ses Medecins...
n°72968963
falkon1000
Posté le 30-05-2025 à 20:40:07  profilanswer
 

Yor_le_Bourrin a écrit :

Je retire ce que j'ai dit plus haut : l'impact de MCP est déjà plus profond que ce que je pensais  [:babonnguida:4]  
 
https://github.com/ConAcademy/buttplug-mcp


 
Perso je pense que MCP c’est la vraie révolution annoncée depuis l’annonce de ChatGPT
Ça va faire passer l’usage des LLM à un tout autre niveau


Message édité par falkon1000 le 30-05-2025 à 20:40:45
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  156  157  158  ..  305  306  307  308  309  310

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)