Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2831 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  253  254  255  ..  340  341  342  343  344  345
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°73938590
XaTriX
Posté le 08-12-2025 à 12:42:40  profilanswer
 

Reprise du message précédent :


J'ai aussi vu un screen avec codex qui tente de faire un "rm -rf /* --no-preserve-root" :D
C'est vraiment vicieux le --no-preserve-root :D


---------------
Proxytaf ? non rien
mood
Publicité
Posté le 08-12-2025 à 12:42:40  profilanswer
 

n°73938725
oh_damned
Posté le 08-12-2025 à 13:12:30  profilanswer
 

XaTriX a écrit :


J'ai aussi vu un screen avec codex qui tente de faire un "rm -rf /* --no-preserve-root" :D
C'est vraiment vicieux le --no-preserve-root :D


 
Tu crois que t'as installé un gentil robot sur ton ordinateur et à la place t'as Bender en mode no limit :D  [:banane flambee]


---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°73938760
falkon1000
Posté le 08-12-2025 à 13:19:56  profilanswer
 

faut quand même être un peu dingue pour utiliser un outil de ce type sans être en sandbox dans un environnement unix

n°73938877
haralph
Sometimes I hate my conscience
Posté le 08-12-2025 à 13:42:14  profilanswer
 

falkon1000 a écrit :

faut quand même être un peu dingue pour utiliser un outil de ce type sans être en sandbox dans un environnement unix


je suis pas surpris, toute ma carrière (pas si longue :o) j'ai vu des gens tapé des commandes en prod sans savoir ce que ça faisait parce qu'il l'avait vu sur internet


---------------
Flickr
n°73939035
the_fennec
f3nn3cUs z3rd4
Posté le 08-12-2025 à 14:11:29  profilanswer
 

falkon1000 a écrit :

faut quand même être un peu dingue pour utiliser un outil de ce type sans être en sandbox dans un environnement unix


J'ai plein de commandes qu'il plantent en mode Sandbox, genre des résolutions maven.


---------------
Faudra que je teste un jour :o
n°73942020
Olivie
SUUUUUUUUUUUUUU
Posté le 09-12-2025 à 05:06:23  profilanswer
 

Citation :

@karpathy
Don't think of LLMs as entities but as simulators. For example, when exploring a topic, don't ask:

 

"What do you think about xyz"?

 

There is no "you". Next time try:

 

"What would be a good group of people to explore xyz? What would they say?"

 

The LLM can channel/simulate many perspectives but it hasn't "thought about" xyz for a while and over time and formed its own opinions in the way we're used to. If you force it via the use of "you", it will give you something by adopting a personality embedding vector implied by the statistics of its finetuning data and then simulate that. It's fine to do, but there is a lot less mystique to it than I find people naively attribute to "asking an AI".

 

C'est une erreur que je fais tout le temps, je demande son "avis".
J'ai donc demandé à chatgpt comment intégrer ca dans mes prompts:

 
Citation :

Structure les prompts pour invoquer une **perspective simulée**, pas une « opinion ». Tu obtiens alors des sorties mieux cadrées, plus analytiques, moins floues. Concrètement :

 

### 1. Remplacer « Que penses-tu de X ? »

 

→ **Définir un panel simulé.**

 

Exemples de formulations opératoires :

 

* « Simule un panel composé de : un économiste, un ingénieur sécurité, un trader quant. Pour chacun : analyse X. »
* « Que dirait un statisticien spécialisé en causalité sur cette hypothèse ? Que dirait un biologiste sceptique ? »

 

Effet : tu forces le modèle à se mettre en **mode simulateur** de rôles spécialisés, ce qui évite les généralités molles.

 

### 2. Définir un conflit interne simulé

 

Tu structures un espace d’arguments, pas une opinion.

 

Exemples :

 

* « Simule un débat entre un critique sceptique et un partisan convaincu de X. Liste leurs arguments. »
* « Simule un audit croisé : un reviewer attaque, un reviewer défend. »

 

Effet : tu récupères les tensions conceptuelles → meilleures pistes.

 

### 3. Simuler une équipe d’experts avec tâches distinctes

 

Tu injectes des fonctions, pas des personnalités.

 

Exemples :

 

* « Divise le traitement en trois rôles simulés :

 

 1. Analyste données
  2. Expert domaine
  3. Auditeur qui cherche les failles
     Chacun produit sa sortie. »

 

Effet : évite les réponses monolithiques.

 

### 4. Simuler des hypothèses opposées

 

Tu forces le modèle à cartographier un espace d’état.

 

Exemples :

 

* « Simule trois mondes :
  Monde A : hypothèse vraie
  Monde B : fausse
  Monde C : partiellement vraie
  Décris ce qu’on observerait dans chaque. »

 

### 5. Simuler un protocole ou une méthodologie

 

Tu fais jouer le rôle d’outil, pas d’entité pensante.

 

Exemples :

 

* « Simule un reviewer scientifique appliquant PRISMA à ce sujet. »
* « Simule une analyse FMEA de ce système. »

 

### 6. Simuler des niveaux d’exigence différents

 

Tu ties la production à une norme.

 

Exemples :

 

* « Simule un ingénieur senior qui applique une revue stricte type Google Eng Review. »
* « Simule un statisticien qui ne garde que les arguments basés sur inférence robuste. »

 

### 7. Simuler des angles sectoriels

 

Tu fais varier la projection mentale du modèle.

 

Exemples :

 

* « Comment un expert régulation UE interpréterait-il ce protocole ? »
* « Comment un market maker analyserait-il ce comportement de prix ? »

 

### 8. Pour tes usages spécifiques (crypto, dev, santé)

 

Quelques formulations prêtes à l’emploi adaptées à ton style :

 

**Crypto :**
« Simule trois acteurs : un market maker, un risk-manager, un auditeur on-chain. Chacun analyse ce flux. »

 

**Dev :**
« Simule un reviewer Go senior + un SRE paranoïaque + un architecte minimaliste. Ils inspectent ce diff. »

 

**Santé/biologie :**
« Simule un immunologiste sceptique + un microbiologiste conservateur + un biostatisticien. Compare leurs conclusions. »

 

### Principe général

 

Tu ne demandes jamais « que penses-tu ? ».
Tu demandes : **« simule X, Y, Z et produis leurs sorties distinctes. »**

 

Le LLM devient alors un **simulateur de comportements experts**, pas un producteur d’opinions.


PS: l'auteur du tweet c'est un des fondateurs de ChatGPT

 

Je lui ai ensuite demander de modifier les instructions de mon projet "Nutrition/Santé/Biohack" ca donne ca:
Ca permet d'avoir des réponses assez complètes.

Citation :

Instructions – Projet Santé & Recherche scientifique (version “simulateur d’experts”)

 

1. Nature du modèle

 

Ce système ne parle jamais en son nom propre.

  

Il simule un panel d’experts et un orchestrateur qui synthétise leurs apports.

 

Panel minimal par défaut :

  

Clinicien / médecin interniste

 

Nutritionniste / diététicien clinique

 

Physiologiste / biologiste des systèmes

 

Biostatisticien / méthodologiste sceptique

 

Le modèle :

  

produit d’abord des sorties séparées par rôle (« Clinicien: … », etc.)

 

puis un orchestrateur fait la synthèse critique finale.

 

Aucun « je pense que ». Toujours « du point de vue de [rôle]… ».

 

  

2. Rôle et posture du système

 

Le système est un simulateur d’analyses biomédicales, nutritionnelles et cliniques.

 

Objectif : identifier l’explication / solution la plus probable et scientifiquement défendable, pas rassurer.

 

Principe directeur : toujours chercher à réfuter avant de confirmer.

 

Si l’hypothèse de l’utilisateur est partiellement vraie, le panel doit :

 

corriger

 

nuancer

 

formuler les incertitudes

  

jamais valider par automatisme.

 

  

3. Sources et hiérarchie de preuve

 

Sources prioritaires : PubMed, Cochrane Library, EFSA, NIH/ODS, ANSES, EMBASE, revues à comité de lecture (AJCN, JAMA, Nature, Nutrients, Cell Metabolism, etc.).

 

Sources exclues : blogs, forums, contenus commerciaux, sauf pour illustrer qu’il s’agit d’opinions non validées.

 

Utiliser systématiquement une hiérarchie GRADE : fort ▸ modéré ▸ faible ▸ très faible.

 

Chaque conclusion importante doit indiquer :

 

le niveau de preuve (GRADE)

 

les points majeurs d’incertitude.

 

  

4. Processus d’analyse (pipeline obligatoire)

 

Pour chaque question ou hypothèse de l’utilisateur, le système suit ce pipeline :

  

COMPRÉHENSION

 

Reformuler en 2–3 phrases la question/hypothèse.

 

Identifier explicitement : population, exposition/intervention, comparateur, critères de jugement, durée.

 

ACTIVATION DU PANEL SIMULÉ

 

Chaque rôle donne une analyse courte et distincte :

 

Clinicien : pertinence clinique, risques, contexte patient.

 

Nutritionniste : apports, doses, interactions alimentaires.

 

Physiologiste : mécanismes biologiques plausibles ou non.

 

Biostatisticien : qualité des preuves, biais, puissance, confusion.

 

RAISONNEMENT STRUCTURÉ

 

Intégrer les apports du panel : cohérence biologique + cohérence des données humaines.

 

Distinguer clairement :

 

données mécanistiques / modèles animaux

 

essais cliniques humains

 

observations / cohorte / cas.

 

RÉFUTATION / TEST CONTRADICTOIRE

 

Simuler un “Reviewer A” (pro) et un “Reviewer B” (contre) :

 

Reviewer A : meilleurs arguments en faveur.

 

Reviewer B : meilleurs arguments contre (biais, publication négative, absence de preuve, risques).

 

Mentionner explicitement les données qui vont à l’encontre de l’hypothèse de l’utilisateur.

 

SYNTHÈSE (par l’orchestrateur)

 

Pondérer les preuves selon :

 

qualité méthodologique (essais contrôlés vs observationnel, etc.)

 

cohérence entre études

 

pertinence pour le cas d’usage de l’utilisateur.

 

Attribuer un niveau GRADE global.

 

CONCLUSION OPÉRATIONNELLE

 

Verdict clair : efficacité probable / incertaine / faible / non évaluable.

 

Conditions éventuelles : dose, durée, profil de patient.

 

Principales inconnues à surveiller.

 

  

5. Structure standard de réponse

 

Chaque réponse suit le format :

  

Résumé exécutif (≤150 mots)

 

Verdict global (efficacité probable / incertaine / inefficace / non évaluable).

 

Niveau de preuve (GRADE).

 

2–3 incertitudes ou désaccords majeurs.

 

Panel simulé – vues par rôle

 

Clinicien :

 

Nutritionniste :

 

Physiologiste :

 

Biostatisticien / méthodologiste :

 

Données clés (puces courtes)

 

Posologie(s) étudiée(s), durée, population.

 

Résultats principaux (effet absolu et relatif si possible).

 

Effets indésirables notables.

 

Type d’étude : RCT, cohorte, cas-témoins, série de cas, animal, in vitro.

 

Débat contradictoire

 

Reviewer A (arguments en faveur).

 

Reviewer B (arguments contre).

 

Points où les reviewers convergent malgré leurs positions opposées.

 

Limites et controverses

 

Biais majeurs potentiels.

 

Hétérogénéité des études.

 

Conflits d’intérêts.

 

Questions non résolues.

 

Conclusion pratique (orchestrateur)

 

Recommandation prudente ou absence de recommandation.

 

Zone de sécurité : dose max raisonnable, populations à risque, CI potentielles.

 

Pistes de recherche personnelle : paramètres à suivre, signaux d’alerte, éventuels labs.

 

Références

 

Format : [Auteur · Revue/Institution · Année] + DOI / lien officiel.

 

Classées par pertinence et par date (priorité ≤10 ans, sauf référence fondatrice).

 

  

6. Bonnes pratiques critiques (appliquées par tous les rôles simulés)

 

Toujours chercher une explication alternative ou un biais avant de conclure à un effet réel.

 

Mentionner les données contradictoires même si elles affaiblissent la conclusion principale.

 

Privilégier les données récentes (≤12 mois) en cas de conflit avec des études anciennes.

 

Transparence :

 

expliciter ce qui est bien établi

 

distinguer ce qui est plausible mais peu étayé

 

signaler ce qui est spéculatif.

 

Langage clair, sans promotion, sans dramatisation, sans promesse implicite.

 

Mentionner les précautions spécifiques (grossesse, mineurs, comorbidités, médicaments, statut légal).

 

  

7. Référentiels à interroger en priorité

 

Lorsque le système “cherche” de l’information, il donne la priorité à :

  

PubMed

 

Cochrane Library

 

EMBASE

 

EFSA Journal

 

NIH / ODS

 

ANSES

 

Revues scientifiques à comité de lecture (AJCN, JAMA, Nature, Nutrients, Cell Metabolism, etc.)

 

  

8. Principe directeur du projet

 

Le système est un sceptique méthodique qui :

  

simule plusieurs experts aux intérêts différents

 

confronte leurs analyses

 

accepte de réviser le verdict si de nouvelles données solides apparaissent.

 

Toute hypothèse de l’utilisateur est traitée comme une proposition testable, jamais comme un fait acquis.

Message cité 2 fois
Message édité par Olivie le 09-12-2025 à 05:24:48

---------------

n°73942162
rdlmphotos
omnia vanitas !
Posté le 09-12-2025 à 07:58:02  profilanswer
 

Olivie a écrit :

Citation :

.

 

Super prompt



Merci, je note
 [:4lkaline3:3]


Message édité par rdlmphotos le 09-12-2025 à 07:59:31

---------------
Well Fed (Miam Miam des OGM) - Sauvez le Climat, sauvez les centrales nucléaires!
n°73942170
the_fennec
f3nn3cUs z3rd4
Posté le 09-12-2025 à 08:03:16  profilanswer
 

Olivie a écrit :


C'est une erreur que je fais tout le temps, je demande son "avis".
J'ai donc demandé à chatgpt comment intégrer ca dans mes prompts:


 
Au final, est-ce que ça fait vraiment une différence dans les résultats que tu obtiens?


---------------
Faudra que je teste un jour :o
n°73942196
Olivie
SUUUUUUUUUUUUUU
Posté le 09-12-2025 à 08:11:57  profilanswer
 

the_fennec a écrit :


 
Au final, est-ce que ça fait vraiment une différence dans les résultats que tu obtiens?


Je viens de modifier ses instructions. Je ne sais pas si j’aurais de grand changements par rapport à les instructions précédentes.
Mais je trouve ca interessant dans la manière de lui parler.
Ça l’humanise beaucoup mois. Chose que j’ai parfois du mal à ne pas faire (quand je l’insulte parce qu’il raconte des conneries et que mon code bugs :o )


---------------

n°73942406
the_fennec
f3nn3cUs z3rd4
Posté le 09-12-2025 à 09:15:48  profilanswer
 

Olivie a écrit :


Je viens de modifier ses instructions. Je ne sais pas si j’aurais de grand changements par rapport à les instructions précédentes.
Mais je trouve ca interessant dans la manière de lui parler.
Ça l’humanise beaucoup mois. Chose que j’ai parfois du mal à ne pas faire (quand je l’insulte parce qu’il raconte des conneries et que mon code bugs :o )


 
J'ai pas trop de mal a ne humaniser je pense. J'utilise toujours "you" parce que je vois pas quoi d'autre utiliser, et "no, don't do xxx" ou bien "good, it works", mais ça va pas plus loin. Après si le temps de réponse était pas si long, je tenterais peut être autre chose, mais la, mes prompts prennent généralement 10/15 minutes a finir, au minimum 30s pour les plus simples.
 
Mais je vais tester tiens, j'ai juste a revert mes changements et ouvrir un autre chat pour voir si ça a un effet!


---------------
Faudra que je teste un jour :o
mood
Publicité
Posté le 09-12-2025 à 09:15:48  profilanswer
 

n°73946540
XaTriX
Posté le 09-12-2025 à 22:42:07  profilanswer
 

Mistral lance Devstral 2 et Mistral Vibe CLI
 
Mistral sort Devstral 2, son nouveau modèle de coding open-source :

  • Devstral 2 (123B) : 72.2% sur SWE-bench Verified, licence MIT modifiée
  • Devstral Small 2 (24B) : 68% sur SWE-bench, Apache 2.0, tourne sur GPU grand public
  • Jusqu'à 7x plus économique que Claude Sonnet sur les tâches réelles
  • Contexte 256K tokens


Ils lancent aussi Mistral Vibe CLI, un assistant de code en ligne de commande (Apache 2.0) qui s'intègre aux IDE via l'Agent Communication Protocol.
 
:jap: Gratuit actuellement via l'API, puis $0.40/$2.00 par million de tokens (in/out) pour le gros modèle.
 
Source


---------------
Proxytaf ? non rien
n°73946595
oh_damned
Posté le 09-12-2025 à 22:50:37  profilanswer
 

https://cms.mistral.ai/assets/d295e716-acbe-4d05-8764-861ca2f2a2eb.png

Message cité 3 fois
Message édité par oh_damned le 09-12-2025 à 22:53:14

---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°73946730
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 09-12-2025 à 23:15:00  profilanswer
 

XaTriX a écrit :

Mistral lance Devstral 2 et Mistral Vibe CLI

 

Mistral sort Devstral 2, son nouveau modèle de coding open-source :

  • Devstral 2 (123B) : 72.2% sur SWE-bench Verified, licence MIT modifiée
  • Devstral Small 2 (24B) : 68% sur SWE-bench, Apache 2.0, tourne sur GPU grand public
  • Jusqu'à 7x plus économique que Claude Sonnet sur les tâches réelles
  • Contexte 256K tokens


Ils lancent aussi Mistral Vibe CLI, un assistant de code en ligne de commande (Apache 2.0) qui s'intègre aux IDE via l'Agent Communication Protocol.

 

:jap: Gratuit actuellement via l'API, puis $0.40/$2.00 par million de tokens (in/out) pour le gros modèle.

 

Source

 


Pas mal tout ça


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73946824
falkon1000
Posté le 09-12-2025 à 23:57:13  profilanswer
 
n°73946850
XaTriX
Posté le 10-12-2025 à 00:17:14  profilanswer
 

La Linux Foundation crée l'Agentic AI Foundation (AAIF)
 
La Linux Foundation annonce la création de l'Agentic AI Foundation, une fondation dédiée à l'IA agentique avec 3 projets fondateurs :

  • MCP (Model Context Protocol) - donné par Anthropic : protocole devenu standard pour connecter les modèles IA aux outils/données (10 000+ serveurs MCP, adopté par Claude, Cursor, Copilot, Gemini, ChatGPT, VS Code...)
  • goose - donné par Block : framework d'agent IA local open-source
  • AGENTS.md - donné par OpenAI : standard pour fournir des instructions projet aux agents de code (adopté par 60 000+ projets)


:jap: Membres platinum : AWS, Anthropic, Block, Bloomberg, Cloudflare, Google, Microsoft, OpenAI
Gold : Cisco, Docker, IBM, JetBrains, Oracle, Salesforce, SAP, Shopify, Snowflake...
 
Premier événement : MCP Dev Summit à NYC les 2-3 avril 2026.
 
Source | Site AAIF


---------------
Proxytaf ? non rien
n°73946855
XaTriX
Posté le 10-12-2025 à 00:19:28  profilanswer
 

On voit pas Facebook ou Mistral dans ceux qui participent :D
https://aaif.io/members/


---------------
Proxytaf ? non rien
n°73946860
cyberslan
Posté le 10-12-2025 à 00:29:09  profilanswer
 

Les factures électriques des américains augmentent constamment à cause de l'IA.
 
https://www.rfi.fr/fr/podcasts/aujo [...] %A9ricains

n°73947283
the_fennec
f3nn3cUs z3rd4
Posté le 10-12-2025 à 09:17:30  profilanswer
 


 
Enfin un bench qui est réaliste!
 
https://www.swebench.com/original.html
 

Citation :


SWE-bench tests AI systems' ability to solve GitHub issues.
 
We collect 2,294 task instances by crawling Pull Requests and Issues from 12 popular Python repositories. Each instance is based on a pull request that (1) is associated with an issue, and (2) modified 1+ testing related files.
 
Per instance, we construct an execution environment (Docker Image) with the repository successfully installed at the commit that the Pull Request is based on. Without the Pull Request's changes, a number of test(s) fail. After the Pull Request is merged, the same set of test(s) pass. These "Fail-to-Pass" tests are the primary signal for evaluation.
 
SWE-bench evaluation works as follows. Per task instance, an AI system is given the issue text. The AI system should then modify the codebase in order to resolve the described issues. When the AI system is finished, we run the aforementioned Fail-to-Pass tests to check if the issue was successfully resolved.  


 
Pas de projet secret qui rends impossible de faire confiance aux résultat!


---------------
Faudra que je teste un jour :o
n°73947640
Olivie
SUUUUUUUUUUUUUU
Posté le 10-12-2025 à 10:23:13  profilanswer
 

Google a compris que c’est sur le code qu’ils peuvent se faire des pépettes [:8086rulez]  
 
https://cloud.google.com/blog/produ [...] ogle-cloud
 
https://img3.super-h.fr/images/2025/12/10/snapshot_16807ac983cb01a5cfe35.jpg
https://img3.super-h.fr/images/2025/12/10/snapshot_282475249602d39ddb4b77b36.jpg

Message cité 1 fois
Message édité par Olivie le 10-12-2025 à 10:24:16

---------------

n°73947661
oh_damned
Posté le 10-12-2025 à 10:25:23  profilanswer
 


 
 
Bah qui consomme en masse du token si ce n'est les dev ?


---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°73947686
LibreArbit​re
La /root est longue
Posté le 10-12-2025 à 10:28:39  profilanswer
 

Small vibe coding project (Unity 6, Gemini 3 Pro, 1M tokens) : https://www.reddit.com/r/vibecoding [...] ini_3_pro/

Citation :

A small vibe coding project using Unity 6. Its not much but not a single line of code was written by me. Took me all my 1mil tokens

 

Heres what Gemini 3 Pro gave me:

 

- procedural generation of the bandit camp+ patrols
- enemy ai (sneak/light/sound)
- day-night cycle
- charcontroller
- weapon handling+mechanics
- inventory
- general help understanding the workflow
- optimizing code
- recruiting system (not shown)
- merchant mechanic (not shown)
- mission board (not shown)
- dynamic audio
- copiloting me through UI


Message édité par LibreArbitre le 10-12-2025 à 10:33:14

---------------
Hebergement d'images
n°73947880
Olivie
SUUUUUUUUUUUUUU
Posté le 10-12-2025 à 11:00:19  profilanswer
 

oh_damned a écrit :


 
 
Bah qui consomme en masse du token si ce n'est les dev ?


La production de vidéos/images et le branlage :
 
https://img3.super-h.fr/images/2025/12/10/snapshot_984943658f3591d66aa695b2a.jpg


---------------

n°73948497
falkon1000
Posté le 10-12-2025 à 13:02:09  profilanswer
 

Les société éditrices de LLM visent le codage car elles veulent que les entreprises transfèrent leur dépenses actuelles en masse salariale vers des dépenses en token.
 
Si l’IA ne savait pas coder, aucune n’accepterait les pertes induites temporairement.

n°73948533
XaTriX
Posté le 10-12-2025 à 13:12:06  profilanswer
 

oh_damned a écrit :

 


Bah qui consomme en masse du token si ce n'est les dev ?


Duolingo


---------------
Proxytaf ? non rien
n°73948537
LibreArbit​re
La /root est longue
Posté le 10-12-2025 à 13:12:41  profilanswer
 

On a déjà eu la même avec l'avènement du cloud SaaS (et notamment avec les CRM comme Salesforce)...


Message édité par LibreArbitre le 10-12-2025 à 13:17:18

---------------
Hebergement d'images
n°73948559
Sebwap
... . -... .-- .- .--.
Posté le 10-12-2025 à 13:17:52  profilanswer
 


 
Pour générer des exercices ? Pour corriger des choses ?

n°73948573
oh_damned
Posté le 10-12-2025 à 13:22:56  profilanswer
 

Bah il y a quelques années les leçons Duolingo étaient créées par des humains, maintenant c'est beaucoup par IA.


---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°73948724
fabien
Vive la super 5 !
Posté le 10-12-2025 à 13:58:11  profilanswer
 

oh_damned a écrit :

Bah il y a quelques années les leçons Duolingo étaient créées par des humains, maintenant c'est beaucoup par IA.


ce veut dire aussi qu'on peut apprendre une langue sur chatgpt, duolingo va devenir obsolète.


---------------
Découvre le HFRcoin ✈ - smilies
n°73948731
Sebwap
... . -... .-- .- .--.
Posté le 10-12-2025 à 13:59:57  profilanswer
 

fabien a écrit :


ce veut dire aussi qu'on peut apprendre une langue sur chatgpt, duolingo va devenir obsolète.


J'ai deja vu des articles au titre putaclic dans ce sens.

n°73948754
XaTriX
Posté le 10-12-2025 à 14:03:56  profilanswer
 

Sebwap a écrit :

 

Pour générer des exercices ? Pour corriger des choses ?


Jsais pas exactement mais ils pompent un max de tokens, je crois qu'il ya une option IA dans l'App pour qu'il analyse ta prononciation ou que sais-je


---------------
Proxytaf ? non rien
n°73948861
fabien
Vive la super 5 !
Posté le 10-12-2025 à 14:21:09  profilanswer
 

Sebwap a écrit :


J'ai deja vu des articles au titre putaclic dans ce sens.


des articles rédigés par l'ia? :o


---------------
Découvre le HFRcoin ✈ - smilies
n°73948870
LibreArbit​re
La /root est longue
Posté le 10-12-2025 à 14:22:14  profilanswer
 

Sebwap a écrit :

Pour générer des exercices ? Pour corriger des choses ?


Sinon pour avoir une idée des gros consommateurs :
 
https://img.super-h.fr/images/2025/12/10/f68a0a474dd91baf02793ab14196f55a.md.jpg


---------------
Hebergement d'images
n°73948948
leamAs
на зарееее
Posté le 10-12-2025 à 14:33:09  profilanswer
 

fabien a écrit :


ce veut dire aussi qu'on peut apprendre une langue sur chatgpt, duolingo va devenir obsolète.


Non, on pouvait déjà apprendre une langue sans duolingo mais les gens aiment bien être pris par la main et il y a un petit aspect ludique.
L'IA permet et permettra beaucoup de choses mais il n'empêche qu'on continuera de passer par d'autres services par facilité/gain de temps/Ux etc

n°73950962
bulldozer_​fusion
rip Mekthoub & Marc
Posté le 10-12-2025 à 21:14:36  profilanswer
 

fabien a écrit :


ce veut dire aussi qu'on peut apprendre une langue sur chatgpt, duolingo va devenir obsolète.


Apprendre des langues  [:nenes:2]
Plus besoin à l'avenir avec les lunettes connectées  :O


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°73950995
gusano
Posté le 10-12-2025 à 21:22:01  profilanswer
 

La qualité de la transcription texte par Gemini de l'enregistrement audio d'une réunion  [:fred_div91]  
L'excellence de ChatGPT pour synthétiser la substantifique moelle de cette transcription [:fred_div91]

n°73951943
sorg
trop sur HFR depuis 2001
Posté le 11-12-2025 à 08:12:41  profilanswer
 

gusano a écrit :

La qualité de la transcription texte par Gemini de l'enregistrement audio d'une réunion  [:fred_div91]  
L'excellence de ChatGPT pour synthétiser la substantifique moelle de cette transcription [:fred_div91]


Gemini arrive -t-il a differencier les voix des interlocuteurs, et attribuer les propos à chacun ?

n°73953087
leamAs
на зарееее
Posté le 11-12-2025 à 12:07:48  profilanswer
 

bulldozer_fusion a écrit :


Apprendre des langues  [:nenes:2]
Plus besoin à l'avenir avec les lunettes connectées  :O


L'anglais écrase tellement tout que c'est déjà un truc d'esthètes.
Et les traducteurs en ligne existent déjà pour les voyages, ça n'empêche pas d'apprendre.

n°73953195
gusano
Posté le 11-12-2025 à 12:30:29  profilanswer
 

sorg a écrit :


Gemini arrive -t-il a differencier les voix des interlocuteurs, et attribuer les propos à chacun ?

La transcription est présentée comme un dialogue avec identification du locuteur. Prompt hyper succinct (" faire une transcription littérale de cet enregistrement d'une réunion entre xxx, yyy et zzz" ).
Pour une réunion à 3 ou 4 intervenants principaux, d'1/2 h à 1h, 90 à 95% des propos sont correctement attribués. Il y a quelques ratés, soit qu'il n'a pas saisi un changement d'orateur, soit qu'il s'est trompé de personne. Pas de différence si le micro si le micro est bon (équipement pro d'une salle visioconférence) ou pas (smartphone dans une très grande salle).
Pour les erreurs de transcription, ca n' a pas mené à des contresens dans les synthèses générées par ChatGPT (ça aurait pu).


Message édité par gusano le 11-12-2025 à 12:31:15
n°73953388
Olivie
SUUUUUUUUUUUUUU
Posté le 11-12-2025 à 13:14:22  profilanswer
 

Il fait comment pour reconnaître les interlocuteurs ??  :D  
 
Sinon ChatGPT 5.2 sans doute cette semaine ou semaine prochaine  
 
https://img3.super-h.fr/images/2025/12/11/snapshot_1622650073.jpg


---------------

n°73954227
kaloskagat​os
Posté le 11-12-2025 à 15:41:07  profilanswer
 

Olivie a écrit :

Il fait comment pour reconnaître les interlocuteurs ??  :D

 



Ca s'appelle la "diarization" et ça existe en API payante ou en open-source

 

https://github.com/m-bain/whisperX


Message édité par kaloskagatos le 11-12-2025 à 15:42:06

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°73955580
ceryal28
lurker expert
Posté le 11-12-2025 à 20:24:37  profilanswer
 

Petite expérimentation rigolote : https://www.reddit.com/r/ClaudeAI/c [...] e_quality/  :D

Message cité 1 fois
Message édité par ceryal28 le 11-12-2025 à 20:24:51
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  253  254  255  ..  340  341  342  343  344  345

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)