Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3932 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  320  321  322  323  324  325
Page Suivante
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°74383421
docmaboul
Posté le 12-03-2026 à 22:26:21  profilanswer
 

Reprise du message précédent :

the_fennec a écrit :

Désolé si tu penses que ce sont les farfadets cachés dans l'ordinateur qui tapent les réponses, mais non, les LLMs sont bien des probabilités. Je ne nie pas leur utilité, j'en utilise tout les jours dans mon travail et je joue avec a la maison aussi.


 
Le problème de l'idée que tu répètes, c'est qu'elle part du présupposé implicite que l'intelligence est antinomique avec les probabilités, plus précisément qu'on ne peut pas faire émerger une forme d'intelligence à partir de statistiques linguistiques. Et le problème est que c'est pourtant le cas. Généralisation, induction, inférence, résolution de problèmes, ..., l'intelligence est là. La supercherie est de prétendre qu'une manifestation d'intelligence n'est pas équivalente à une autre manifestation d'intelligence quand les deux donnent des résultats opérationnels équivalents.  
 
Tu peux te raconter les histoires que tu veux : le fait est que les LLMs sont intelligents et ne sont pas de simples outils.

Message cité 1 fois
Message édité par docmaboul le 12-03-2026 à 22:28:26
mood
Publicité
Posté le 12-03-2026 à 22:26:21  profilanswer
 

n°74383455
the_fennec
f3nn3cUs z3rd4
Posté le 12-03-2026 à 22:36:01  profilanswer
 

docmaboul a écrit :

Le problème de l'idée que tu répètes, c'est qu'elle part du présupposé implicite que l'intelligence est antinomique avec les probabilités, plus précisément qu'on ne peut pas faire émerger une forme d'intelligence à partir de statistiques linguistiques. Et le problème est que c'est pourtant le cas. Généralisation, induction, inférence, résolution de problèmes, ..., l'intelligence est là. La supercherie est de prétendre qu'une manifestation d'intelligence n'est pas équivalente à une autre manifestation d'intelligence quand les deux donnent des résultats opérationnels équivalents.  
 
Tu peux te raconter les histoires que tu veux : le fait est que les LLMs sont intelligents et ne sont pas de simples outils.


 
Les LLMs ne sont pas intelligent, ils sont même très con, c'est une mécanique.  
Est-ce que tu utilises des LLMs? Si oui lesquels et pour faire quoi?


---------------
Faudra que je teste un jour :o
n°74383463
the_fennec
f3nn3cUs z3rd4
Posté le 12-03-2026 à 22:39:53  profilanswer
 

Tronklou a écrit :


 
 
Lien ? Je te suit  :D  
 
Sinon la BC250 les retours étaient pas bon, ce qui m'avait motivé a pas en acheter une


 
https://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
 
Pour la BC250, c'est la HBM le bus 256bit qui me botte bien (vs le 128 bit de ma 4060Ti). Sur le topic j'ai posté un bench llama cpp, elle tient tête a ma 4060Ti 16GB en token generation, pour 126€ ça le fait bien!

Message cité 1 fois
Message édité par the_fennec le 12-03-2026 à 23:06:58

---------------
Faudra que je teste un jour :o
n°74383467
Quich
Pouet ?
Posté le 12-03-2026 à 22:40:52  profilanswer
 

the_fennec a écrit :

 

https://forum.hardware.fr/forum2.ph [...] w=0&nojs=0

 

Pour la BC250, c'est la HBM qui me botte bien. Sur le topic j'ai posté un bench llama cpp, elle tient tête a ma 4060Ti 16GB en token generation, pour 126€ ça le fait bien!


C'est de la gddr6 14gbps, pas de la hbm.

Message cité 1 fois
Message édité par Quich le 12-03-2026 à 22:41:06

---------------
Feedback
n°74383554
the_fennec
f3nn3cUs z3rd4
Posté le 12-03-2026 à 23:04:09  profilanswer
 

skipass a écrit :

Au dela de qwen vs. autres modeles, j'aurais pensé que passer par un provider (eg. même ovh) serait moins cher et potentiellement plus efficace que de faire tourner ca localement (optimisations sur le prix du materiel, de l'electricité > a leur marge). Tu as regardé?  
 
J'ai utilisé qwen3 en mode agentique, il fonctionnait bien. C'était le meilleur des petits modeles.
 
Par contre, sur tout mes usages chatbot, le modele est important, mais l'accès web aussi. Je trouve que chatgpt >> gemini pour cette seule raison, par exemple: il vérifie beaucoup plus que ce qu'il raconte est a jour.


 
Je fais du local pour m'amuser, apprendre comment ça marche et le défi technique. J'aimerais bien aussi laisser tourner des agents h24 avec une mission, genre créer un OS, et voir ce que ça donne après quelques jours.
 
Niveau prix, mon server avec la 4060Ti plafonne à 200W avec le GPU a 100%, soit 28€ par mois si le GPU est a 100% tout le temps, ce qui n'est évidement pas le cas, difficile de faire moins chère. Pour l'accès web, j'ai mis searxng pour mon Openclaw mais il peut aussi ouvrir le Chromium que je lui ais mis et "browser" tout seul.


---------------
Faudra que je teste un jour :o
n°74383574
the_fennec
f3nn3cUs z3rd4
Posté le 12-03-2026 à 23:09:34  profilanswer
 

Quich a écrit :


C'est de la gddr6 14gbps, pas de la hbm.


 
Oups, tu as raison, je confonds avec les V100 sur lesquelles je louchait aussi :o
https://fr.aliexpress.com/item/1005010804906142.html
 
C'est dommage que les 32GB soient aussi chères :(.


---------------
Faudra que je teste un jour :o
n°74383626
kaloskagat​os
Posté le 12-03-2026 à 23:27:15  profilanswer
 

the_fennec a écrit :

 

Les LLMs ne sont pas intelligent, ils sont même très con, c'est une mécanique.
Est-ce que tu utilises des LLMs? Si oui lesquels et pour faire quoi?

 

Y'a un moment de ça j'ai écouté une vidéo qui place l'intelligence sur un continuum, et qu'on peut pas déterminer un point limite entre pas intelligent et intelligent.

 

Je crois qu'ils posaient la question de savoir si un singe était intelligent, une souris, une moule, etc.

 

Et par comparaison on ne saurait pas quand une IA deviendrait une AGI, parce que c'est continu. Et peut-être que c'est déjà arrivé, mais on ne le réalisera que dans longtemps, quand ce sera évident.

 

C'est un peu confus dans mon souvenir mais c'était vraiment intéressant comme vision.


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°74383668
extenue1
Posté le 12-03-2026 à 23:42:12  profilanswer
 

berlin a écrit :

Langdock ( https://langdock.com/ ) peut être testé gratuitement, si tu veux te faire une idée.


Roussillon.fr est pas mal non plus  :O

n°74383705
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 00:06:11  profilanswer
 

kaloskagatos a écrit :

Y'a un moment de ça j'ai écouté une vidéo qui place l'intelligence sur un continuum, et qu'on peut pas déterminer un point limite entre pas intelligent et intelligent.
 
Je crois qu'ils posaient la question de savoir si un singe était intelligent, une souris, une moule, etc.  
 
Et par comparaison on ne saurait pas quand une IA deviendrait une AGI, parce que c'est continu. Et peut-être que c'est déjà arrivé, mais on ne le réalisera que dans longtemps, quand ce sera évident.
 
C'est un peu confus dans mon souvenir mais c'était vraiment intéressant comme vision.


 
Je parle de LLM, ce qui est utilisé pour les agents de codage. Il ne sont pas intelligents et ne sont pas fait pour ça. C'est d'ailleurs la raison qui a poussé Yann Le Cun a quitter Meta pour fonder sa startup.
 
L'intelligence est un sujet très profond, mais qui est trop philosophique pour moi :o
 
Pourquoi les LLMs marchent aussi bien? C'est parce qu'ils utilisent une quantité énorme de données. Il y a une très bonne présentation de Peter Norvig a ce sujet.
 
The Unreasonable Effectiveness of Data Peter Norvig
https://www.youtube.com/watch?v=yvDCzhbjYWs


---------------
Faudra que je teste un jour :o
n°74384050
LibreArbit​re
La /root est longue
Posté le 13-03-2026 à 07:51:55  profilanswer
 

bulldozer_fusion a écrit :

Tu penses que c'est à cause de ça?  
Il faut que je vois ce que je fais, mon abonnement doit se renouveler bientôt, l'offre pro a été cannibalisé
GPT qui se rapproche trop du gouvernement ça me dérange même si je le reconnais, GPT 5.4 est très très bon et j'entends le plus grand bien de codex
Et sinon il y a Claude mais avec l'abonnement à 20 balles, qu'est ce qu'on peut faire, leurs modèles sont très performants mais très gourmand aussi


Attention à ne pas confondre, GPT-5.4 remplace Codex 5.3, le produit n'est plus différencié (enfin c'est à nuancer : https://www.turingcollege.com/blog/ [...] -5-3-codex


---------------
Hebergement d'images
mood
Publicité
Posté le 13-03-2026 à 07:51:55  profilanswer
 

n°74384060
LibreArbit​re
La /root est longue
Posté le 13-03-2026 à 07:54:47  profilanswer
 

bulldozer_fusion a écrit :

Citation :

Spend caps in the Gemini API, available starting today!!


https://rehost.diberie.com/Picture/Get/f/497677
aistudio.google.com/spend


Ha putain il était temps !!!  
 
Merci pour l'info :jap:


---------------
Hebergement d'images
n°74384115
docmaboul
Posté le 13-03-2026 à 08:20:18  profilanswer
 

kaloskagatos a écrit :

Y'a un moment de ça j'ai écouté une vidéo qui place l'intelligence sur un continuum, et qu'on peut pas déterminer un point limite entre pas intelligent et intelligent.
 
Je crois qu'ils posaient la question de savoir si un singe était intelligent, une souris, une moule, etc.  
 
Et par comparaison on ne saurait pas quand une IA deviendrait une AGI, parce que c'est continu. Et peut-être que c'est déjà arrivé, mais on ne le réalisera que dans longtemps, quand ce sera évident.
 
C'est un peu confus dans mon souvenir mais c'était vraiment intéressant comme vision.


 
Une difficulté avec ce sujet, c'est l'imprécision des termes, ensuite c'est la méthode. Raisonner à partir d'exemples pour généraliser afin d'apprendre (l'homme, le singe, la moule, ...), c'est la méthode empirique. On fait du bottom up et on part de la réalité pour aller vers l'abstraction.
 
Une autre méthode consiste à partir d'élément premiers, pour faire du top down et construire abstraction après abstraction une théorie complète qui permette de décrire, d'expliquer et de prédire la réalité. C'est ce qui nous manque : il n'existe pas de théorie physique complète de l'intelligence, comme il existe par exemple une physique du vivant (la biochimie).
 
the_fennec affirme que les LLMs ne sont pas intelligents, mais sans avoir de critères pour caractériser l'intelligence à un niveau matériel. Qu'est-ce qu'est l'intelligence, c'est avant tout une question de matière et de physique si on veut tuer le débat, pas une question philosophique.
 
Si on aborde quand même ce problème de manière philosophique, il faut alors au préalable faire un travail sur soit afin d'éviter de projeter une vision anthropocentrique de l'intelligence et la réduire à l'intelligence humaine, voire de faire une confusion avec la conscience et notre cognition toute entière.
 
C'est pourquoi tous les énoncés à base de "LLMs ne sont pas intelligents parce qu'ils sont basés sur des maths ou des mécaniques" ne valent rien. Ils ne sont ni scientifiques, ni empiriques, ni philosophiques. On pourrait aussi énoncer de manière toute aussi péremptoire et toute aussi fausse que les hommes ne sont pas intelligents parce que leurs neurones ne comprennent rien et ne font que véhiculer mécaniquement des signaux électriques.


Message édité par docmaboul le 13-03-2026 à 08:22:36
n°74384139
falkon1000
Posté le 13-03-2026 à 08:27:35  profilanswer
 

[:darien]

n°74384157
docmaboul
Posté le 13-03-2026 à 08:31:09  profilanswer
 

enfoiré :D

n°74384176
kaloskagat​os
Posté le 13-03-2026 à 08:35:48  profilanswer
 

Justement, je suis d'accord avec vos deux visions, mais un peu plus avec celle de docmaboul.

 

Les LLM ne sont pas très intelligents, mais ils sont peut-être intelligents comme une amibe, ou Nabilla.

 

Je ne parle évidemment pas de forme de vie, ni même de conscience.

 

Je reste persuadé qu'on est des énormes machines à état et qu'on pourrait théoriquement simuler le cerveau humain de manière complète, pas besoin de phénomène quantique ou d'intervention divine. Donc je place les LLM quelque part sur le continuum de l'intelligence, mais pas le marteau.

 

edit: en fait à y réfléchir, je crois que moi aussi je m'embrouille dans la notion de conscience. Il est clair que les LLM sont plus intelligents que Nabilla.

Message cité 1 fois
Message édité par kaloskagatos le 13-03-2026 à 09:38:14

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°74385501
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 11:28:04  profilanswer
 

Un LLM n'est pas intelligent car il execute des formules mathématiques, il multiplie des chiffres pour en obtenir d'autres de manière prédictible et définie. Il n'apprends rien et ne comprends rien. C'est juste le volume de données colossal du modèle et l'apparente "alléatoirité" des données d'entrée qui donne l'illusion d'intelligence. C'est très long a faire, mais chaque étape peut être exécutée une a une et on peut expliquer pourquoi on a eu tel ou tel résultat. Avec un temps infini, tu pourrais le faire a la main avec une feuille et un crayon, comme on le fait en cour pour apprendre comment un CPU fonctionne.
 
Les soft d’exécution de LLMs, comme llama.cpp, utilisent le paramètre "de température" comme façon d’obtenir des résultats aléatoire, pour se sortir des boucles par exemple. Si tu la met a zéro, tu auras toujours le même résultat pour un set de données d'entrée.
 
Quelque soit la définition de l’intelligence, un être intelligent ne se comporte pas comme ça. Un stimuli répété donnera un résultat différent, dans le temps et pour chaque individu (fourmis, humain, singe, chat, etc.) car il apprends et comprends à son échelle l’environnement et ces stimuli.
 
Prends https://huggingface.co/Qwen/Qwen3.5-397B-A17B charge le dans un GPU aujourd'hui et entre lui des paramètres, et une température 0, repose lui la même question en boucle, tu auras la même réponse. Pareil demain, dans un an, sur un GPU AMD, NVidia, etc.
 
L'intelligence des LLMs est une illusion.


---------------
Faudra que je teste un jour :o
n°74385588
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 11:37:49  profilanswer
 

kaloskagatos a écrit :

Je reste persuadé qu'on est des énormes machines à état et qu'on pourrait théoriquement simuler le cerveau humain de manière complète, pas besoin de phénomène quantique ou d'intervention divine. Donc je place les LLM quelque part sur le continuum de l'intelligence, mais pas le marteau.


 
Je pense aussi qu'on pourrait simuler le cerveau humain, mais par contre ça serait peut être quantique, voir la théorie Orch-OR de Penrose et Hameroff, donc bien plus complexe que ce que fait un LLM aujourd'hui. Il est probable qu'on ait pas assez de puissance de calcul pour le faire avant un bon moment.


---------------
Faudra que je teste un jour :o
n°74385608
docmaboul
Posté le 13-03-2026 à 11:39:29  profilanswer
 

the_fennec a écrit :

Un LLM n'est pas intelligent car il execute des formules mathématiques [...]
 
L'intelligence des LLMs est une illusion.


 
Non, l'intelligence des LLMs est limitée et différente de la nôtre, ce qui n'a rien à voir. Maintenant tu introduis le déterminisme comme opposition à l'intelligence alors que c'est un énorme sophisme. C'est comme si tu énonçais : "une intelligence ne peut pas être sèche. En effet il y a de l'eau chez tous les êtres intelligents. Les LLMs n'étant pas mouillés, ils ne peuvent pas être intelligents". J'arrête là parce que tu ne réponds pas aux arguments qu'on t'oppose (je t'ai répondu sur l'aspect calculatoire dès le début) et on tourne donc en rond.
 
:hello:

Message cité 1 fois
Message édité par docmaboul le 13-03-2026 à 11:41:14
n°74385775
the_fennec
f3nn3cUs z3rd4
Posté le 13-03-2026 à 11:59:29  profilanswer
 

docmaboul a écrit :


 
Non, l'intelligence des LLMs est limitée et différente de la nôtre, ce qui n'a rien à voir. Maintenant tu introduis le déterminisme comme opposition à l'intelligence alors que c'est un énorme sophisme. C'est comme si tu énonçais : "une intelligence ne peut pas être sèche. En effet il y a de l'eau chez tous les êtres intelligents. Les LLMs n'étant pas mouillés, ils ne peuvent pas être intelligents". J'arrête là parce que tu ne réponds pas aux arguments qu'on t'oppose (je t'ai répondu sur l'aspect calculatoire dès le début) et on tourne donc en rond.
 
:hello:


 
Je vois pas de quels arguments tu parles, tu parles juste de philosophie, c'est pas un argument c'est de interprétation, ce n'est pas la méthode scientifique, juste de l’émotion.
 
Tu ne réponds pas a mes argument non plus. En quoi un LLM c'est pas juste des maths?
Est-ce que ax+by+c=0 est intelligent selon ta définition?
 
Un LLM est essentiellement une immense fonction mathématique f(x)=y où :

  •    x est une suite de nombres (mots convertis en vecteurs).
  •    f est une série de multiplications de matrices (les paramètres).
  •    y est la probabilité du prochain mot.


---------------
Faudra que je teste un jour :o
n°74385807
Sirolimus
Posté le 13-03-2026 à 12:04:00  profilanswer
 

Je crois surtout que vous surestimez l'intelligence humaine en y attribuant des dimensions métaphysiques.  
Je ne suis pour ma part, pas certains d'être fondamentalement différent d'un Llm, j'ai accumulé une base de données informationnelle et j'en ressors et réagence des bribes en fonction des prompts que m'envoie le réel.  [:elessar53]  
test rapide, remplacez les ... : "chocolat avec un coeur ... au caramel", statistiquement vous avez placé automatiquement le mot "fondant" :o
 
La problème n'est pas tant l'échelle d'intelligence, mais cette surcouche logicielle dans laquelle on habite et qu'on appelle la conscience de soi.

n°74385822
Sirolimus
Posté le 13-03-2026 à 12:05:46  profilanswer
 

the_fennec a écrit :


 En quoi un LLM c'est pas juste des maths?
Est-ce que ax+by+c=0 est intelligent selon ta définition?


 
tu me rappelles de qui les mathématiques sont la formalisation de l'intelligence ?  [:clooney10]  :D

n°74385826
kaloskagat​os
Posté le 13-03-2026 à 12:06:32  profilanswer
 

the_fennec a écrit :

Un LLM n'est pas intelligent car il execute des formules mathématiques, il multiplie des chiffres pour en obtenir d'autres de manière prédictible et définie. Il n'apprends rien et ne comprends rien. C'est juste le volume de données colossal du modèle et l'apparente "alléatoirité" des données d'entrée qui donne l'illusion d'intelligence. C'est très long a faire, mais chaque étape peut être exécutée une a une et on peut expliquer pourquoi on a eu tel ou tel résultat. Avec un temps infini, tu pourrais le faire a la main avec une feuille et un crayon, comme on le fait en cour pour apprendre comment un CPU fonctionne.

 

Les soft d’exécution de LLMs, comme llama.cpp, utilisent le paramètre "de température" comme façon d’obtenir des résultats aléatoire, pour se sortir des boucles par exemple. Si tu la met a zéro, tu auras toujours le même résultat pour un set de données d'entrée.

 

Quelque soit la définition de l’intelligence, un être intelligent ne se comporte pas comme ça. Un stimuli répété donnera un résultat différent, dans le temps et pour chaque individu (fourmis, humain, singe, chat, etc.) car il apprends et comprends à son échelle l’environnement et ces stimuli.

 

Prends https://huggingface.co/Qwen/Qwen3.5-397B-A17B charge le dans un GPU aujourd'hui et entre lui des paramètres, et une température 0, repose lui la même question en boucle, tu auras la même réponse. Pareil demain, dans un an, sur un GPU AMD, NVidia, etc.

 

L'intelligence des LLMs est une illusion.

 

Y'a quelques points discutables dans tes arguments :

 


On peut considérer qu'un LLM est juste une brique d'un système agentique, donc c'est ce système qu'il faut considérer pour la discussion (claude code, OpenClaw). Il a de la mémoire, pannifie, etc. Si on reste bloqués sur les fichiers de poids des LLM on ira pas très loin.

 


Au sujet des stimuli et le côté non répétable, j'ai vu passer des articles sur des LLM en cours de recherche qui apprennent en continu :

 

https://www.lemagit.fr/actualites/3 [...] en-continu
https://research.google/blog/titans [...] rm-memory/

 

Donc voilà, le réseau de neuronne est en constante évolution, donc on avance un peu sur le continuum de l'intelligence. Si c'est juste le côté apprentissage en continu qui manque pour décider qu'un LLM est intelligent j'ai pas de mal à extrapoler qu'on en est plus très loin, donc on y est déjà.

 


the_fennec a écrit :


Prends https://huggingface.co/Qwen/Qwen3.5-397B-A17B charge le dans un GPU aujourd'hui et entre lui des paramètres, et une température 0, repose lui la même question en boucle, tu auras la même réponse. Pareil demain, dans un an, sur un GPU AMD, NVidia, etc.

 

L'intelligence des LLMs est une illusion.

 

Vas-y pose moi une question en boucle pour tester mon intelligence :D


Message édité par kaloskagatos le 13-03-2026 à 12:15:46

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°74385871
kaloskagat​os
Posté le 13-03-2026 à 12:14:10  profilanswer
 

the_fennec a écrit :

 

Je vois pas de quels arguments tu parles, tu parles juste de philosophie, c'est pas un argument c'est de interprétation, ce n'est pas la méthode scientifique, juste de l’émotion.

 

Tu ne réponds pas a mes argument non plus. En quoi un LLM c'est pas juste des maths?
Est-ce que ax+by+c=0 est intelligent selon ta définition?

 

Un LLM est essentiellement une immense fonction mathématique f(x)=y où :

  •    x est une suite de nombres (mots convertis en vecteurs).
  •    f est une série de multiplications de matrices (les paramètres).
  •    y est la probabilité du prochain mot.


Un humain n’est qu’un ensemble de cellules qui s’envoient des impulsions électriques. C'est des molécules et des réactions chimiques. Développé avec le langage ATGC. C'est un peu réductionniste comme comparaison.

 


edit: zut j'ai choisi mon camp :o


Message édité par kaloskagatos le 13-03-2026 à 12:14:31

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°74385877
falkon1000
Posté le 13-03-2026 à 12:15:03  profilanswer
 

Excusez-moi, mais on s’en fout complètement de savoir si c’est intelligent ou pas, ce qui compte c’est le résultat qu’on peut en tirer et ce résultat, il est en train de changer le monde

n°74385919
Sirolimus
Posté le 13-03-2026 à 12:23:06  profilanswer
 

falkon1000 a écrit :

Excusez-moi, mais on s’en fout complètement de savoir si c’est intelligent ou pas, ce qui compte c’est le résultat qu’on peut en tirer et ce résultat, il est en train de changer le monde


 
Disaient les conquistadors des peuples autochtones  :o  
Tu devrais lire plus de SF, les implications éthiques de cette question vont sans doute être au coeur de l'organisation de nos sociétés dans quelques dizaines d'années. C'est ça qui va tout changer.
 

n°74385967
kaloskagat​os
Posté le 13-03-2026 à 12:31:26  profilanswer
 

falkon1000 a écrit :

Bha oui c'est exactement ce vers quoi on tend. De manière très brute et glaciale, le métier de dev et celui de PO n'existent QUE par ce que l'utilisateur final ne parle pas le langage de la machine. Mais ça c'était avant. Si l'IA continue d'évoluer comme elle le fait (quasi doublement des capacités tous les 3 mois), il n'y aura bientôt plus aucune raison d'avoir un couteux et lent intermédiaire.
Je dis ça de manière brute pour exprimer rapidement l'idée. Ca me désole pour tout le métier mais c'est purement logique.


the_fennec a écrit :


Pour moi il faudra toujours un dev qui comprends ce qui se passe, l'IA permet de s'abstraire et de traiter des problèmes plus complexes. L'IA n'est qu'un outil de plus.
Et ça part en prod direct :lol:, j'aimerais pas être l’utilisateur final :o.


Cell Nucleus a écrit :


Ce genre de certitude vieillit souvent mal :o


the_fennec a écrit :


Effectivement quand on aura l'AGI, il n'y aura plus besoin de personne. D'ici la, il faudra quand même quelqu'un qui comprends un minimum ce qu'il se passe, pour des solutions complexes. On est d'accord qu'on peut très bien vibe coder des trucs assez avancés sans être dev. Mais entre faire un proto et mettre une vraie solution en prod, de manière fiable, c'est pas la même chose.


the_fennec a écrit :


Un agent ne peut pas être tenu responsable d'un bug en prod, c'est le dev qui signe. S'il n'y a pas de responsabilité, c'est que l'agent reste un instrument.

 
falkon1000 a écrit :

Excusez-moi, mais on s’en fout complètement de savoir si c’est intelligent ou pas, ce qui compte c’est le résultat qu’on peut en tirer et ce résultat, il est en train de changer le monde

 

Excuse-moi mais c'est toi qui as lancé la discussion :o

 

La question c'est de savoir s'il va rester des dev pour surveiller les outils qui codent à leur place ? qui est responsable si une IA fait péter une centrale nucléaire parce qu'elle a décidé que c'était pour le bien de l'humanité ? est-ce qu'on va tous mourir ? est-ce que Nabilla reviendra aux anges de la téléréalité et discutera avec Claude pour savoir combien de livres il a lu pour être si intelligent parce que elle elle en a jamais lu ? :o


Message édité par kaloskagatos le 13-03-2026 à 12:32:10

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°74386083
klins
Posté le 13-03-2026 à 12:48:19  profilanswer
 

falkon1000 a écrit :

Excusez-moi, mais on s’en fout complètement de savoir si c’est intelligent ou pas, ce qui compte c’est le résultat qu’on peut en tirer et ce résultat, il est en train de changer le monde


 
Gros +1
 
Quand j'envois des fichiers à une IA et que je pose mille questions derrière sur ce documents à l'IA, et que celui ci arrive à répondre à toutes mes questions, et cela de toutes les manières simplifiées ou détaillées, déjà que pour moi ça me parait intelligent, mais si au final ce n'est pas réellement intelligent et bien au final le résultat est le même.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  320  321  322  323  324  325
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)