Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3154 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  89  90  91  ..  257  258  259  260  261  262
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°72330638
LibreArbit​re
La /root est longue
Posté le 03-02-2025 à 13:47:16  profilanswer
 

Reprise du message précédent :

Studiopr a écrit :

Ok c'est très bien si vous pouvez concrétiser des idées, mais c'est quand même utiliser un raccourci / une béquille.
Le problème c'est quand on utilise ces IA pour faire croire à d'autres (bénévolement ou pas d'ailleurs) qu'on a crée une oeuvre de A à Z.


Quel est le problème si on ne compte pas monétiser ses productions ? Les enjeux ne sont pas les mêmes...

 

Après, comme tu le dis, les musiciens vraiment créatifs n'ont pas de souci à se faire mais ceux qui font de la soupe par contre c'est autre chose...

 

Concernant le temps mobilisé par ta passion, t'es sur HFR le forum de l'élite, on est très nombreux à avoir passé des milliers d'heures sur nos spécialités donc on comprend bien le fond de ta pensée et ton ressentiment, on n'est pas dans le même domaine mais nous sommes nombreux à être animé par une passion infinie...

 
Studiopr a écrit :

(@Libre Arbitre, si jamais je suis curieux de savoir si tu as raison sur mon identité, car moi je ne te connais pas :D )


Si ton prénom ne commence pas par un "F" alors je me suis trompé :)

 

Preneur de quelques prod en mp par curiosité, et si ça ne t'oblige pas à dévoiler ton identité :)


Message édité par LibreArbitre le 03-02-2025 à 13:48:14

---------------
Hebergement d'images
mood
Publicité
Posté le 03-02-2025 à 13:47:16  profilanswer
 

n°72330892
evildeus
Posté le 03-02-2025 à 14:27:17  profilanswer
 

Klins a écrit :


 
T'es sur de ça?
 
Moi intuitivement je pense qu'il y a proportionnellement moins de gens au travail par habitant qu'il y a 20 ans.
 
Aujourd'hui je crois qu'il y a environ 1.3 travailleur pour 1 retraité si ma mémoire est bonne.
Les retraités sont de loin la part la plus importante des inactifs en France.
 
Je suppose qu'il y a 20 ans le taux de travailleur par rapport aux inactifs était bien + élevé.


Je parle dans le monde, OSEF la France. Mais si tu veux:
 
Il y a 3+m d'actifs supplémentaires et le taux d'activité a augmenté de 400 pdb  
https://cdn.statcdn.com/Statistic/535000/539163-blank-754.png
 

Citation :

Figure 1 - Population active et taux d'activité selon les caractéristiques des personnes
Figure 1 - Population active et taux d'activité selon les caractéristiques des personnes - Lecture : en 2022, le taux d’activité des personnes de 15 à 64 ans est de 73,6 %.
2000 2019 2020 2021 2022
Population active de 15 ans ou plus (en milliers) 27 058 29 963 29 735 30 264 30 575
Femmes 12 591 14 673 14 576 14 778 14 933
Hommes 14 468 15 290 15 159 15 485 15 643
Taux d'activité des 15 à 64 ans (en %) 69,6 72,5 71,9 73,0 73,6


https://www.insee.fr/fr/statistique [...] re=7456956

n°72330957
evildeus
Posté le 03-02-2025 à 14:35:45  profilanswer
 

kaloskagatos a écrit :


 
 
Justement parce que le phénomène est inédit. Les révolutions précédentes on déplacé l'emploi en l'automatisant, nécessitant de programmer les machines et laissant certaines tâches non automatisées à réaliser manuellement.
La révolution de l'IA remplacera les tâches intellectuelles et supprimera plus d'emplois qu'elle n'en créera en effectuant des tâches à moindre coût qu'un humain. Et faut oublier qu'en France on bosse à plus de 75% dans le domaine tertiaire.
 
D'ailleurs on parle plus de l'actualité mais openAI a annoncé Deep Seek Research (super nom :o) https://openai.com/index/introducing-deep-research/
 
Un modèle (plutôt un agent) avec raisonnement et accès au web et interpréteur python dans sa chaîne de pensée.


Ah.... Si tu le dis, c'est à peu près la meme rengaine à chaque révolution indus. On verra mais perso je pense juste qu'il y aura d'autres types de métiers.
Pour rappel:

Citation :

Certaines estimations indiquent qu'il y aurait un taux de chômage de 50 % dans l'industrie en 17895. Il est estimé qu'à cette date, 10 % environ de la population rurale mendiait, équivalant à 2 millions de personnes sans travail


 

Citation :

[b]Lorsque la Deuxième République est proclamée, il y a environ 7 millions de personnes sans emploi en France, selon les calculs d'Alfred Sauvy2.[/b]


https://fr.wikipedia.org/wiki/Histo [...] 20travail.


Message édité par evildeus le 03-02-2025 à 14:40:40
n°72331774
Klins
Posté le 03-02-2025 à 16:28:13  profilanswer
 

Klins a écrit :

Dites, je me pose une question depuis quelques jours.
Il est évident que le Hardware est un des paramètres les plus importants pour l'évolution de l'IA, bien évidement ce n'est pas le seul paramètre à prendre en considération, mais je ne pense pas qu'on aurait pût faire un ChatGPT au début des années 2000 par exemple.
 
D'où ma question : savez vous si le plafond de verre a été atteint pour exploiter au mieux l'IA avec le Hardware disponible actuellement ou s'il y a encore une marge importante?
Ou sinon s'il faudra attendre l'évolution du Hardware pour avoir par la suite une montée en puissance de l'IA?


 
 
Ah bha tiens je suis retombé sur cette question que je m'étais posé à l'époque.
 
Si j'ai bien compris le phénomène Deepseek, le Hardware n'était pas assez exploité par les boites d'IA étant donné que Deepseek a réussi a faire au moins aussi bien qu'OpenAi avec une technologie moins performante.

n°72331894
eurusd
Posté le 03-02-2025 à 16:41:37  profilanswer
 

le hardware c'est une course sans fin:
* deja on veut run ces modeles a la maison... ce qui est pas le cas encore; j'ai vu des builds de PC a 6000 EURpour run le modele... pas encore a la portée de tout le monde
* Ensuite le chiffre des 6m EUR pour entrainer le modele c'est hors investissement dans les cartes graphiques donc ca fait deja un bon gros investissement; il va falloir des dizaines d'années avant que nos telephones soient capables de faire du training :)
* enfin, les modeles ont réussi a manger tout le materiel ecrit de la terre mais le graal ultime c'est lorsqu'ils sauront s'entrainer sur tout le materiel video/visuel + Audio + texte en meme temps et pour ca il faut une sacré puissance de calcul

n°72332138
simius_com​putus
oh Gary boy
Posté le 03-02-2025 à 17:24:26  profilanswer
 

ionik a écrit :

Je suis d'accord sur le fait que l'IA est une révolution, tout ceux qui le nie vont se prendre un gros retour.
 
Ce que je veux dire c'est que tout ceux qui indique que l'IA va remplacer quasi tous les postes sont possiblement dans l'erreur, les métiers vont évoluer, ça limitera surement le besoin de personnel mais je ne pense pas que ça remplace totalement les gens.
 
Par exemple, j'entends depuis quelques années dire que ça va remplacer les développeur, dernier exemples en date une société a viré tout ses développeur pour les remplacer par l'IA, quelques mois plus tard machine arrière ils en rembauchent plein. (je ne me souviens plus de qui c'était)
 
Ce que je veux dire c'est que l'IA est une grand d'aide (je suis le premier a le dire), ça me sert pour compléter partiellement mon code et m'aider a coder plus vite, mais ça ne me remplacera pas sur les projets ou je suis. (Si on parle d'un truc moyen one shot qui aurait pris une ou deux semaine sur un projet unique, elle sera surement plus rapide que moi et je pourrais m'aider d'elle pour le faire plus rapidement c'est sur)
 
Après tout ceci n'est qu'hypothétique et chacun a surement son avis. (vu qu'on a vu des impacts mais on ne connait pas les impacts dans un futur encore plus lointain)


 
Perso ultimement je m'en balec, si ma boîte coule à cause de l'IA ça sera une solution simple à ma double phobie du CDI et du changement de boîte  :o
J'espère juste qu'elle tiendra assez longtemps pour que j'arrive au chomdu en même tant que le revenu universel  :D


---------------
IWH  ---  Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde)
n°72332261
simius_com​putus
oh Gary boy
Posté le 03-02-2025 à 17:46:39  profilanswer
 

Studiopr a écrit :


Mais est-ce que le revers de la médaille, ce ne serait pas l’uniformisation de la musique ?  
 


 
Je pense que si.
L'IA maniée par un vrai artiste sera sûrement capable de créer vraiment du neuf, mais si tu te contentes de lui demander de pisser de la musique "dans le style de", ça sortira jamais des clous.
La playlist machinée pour Mr Toulmonde selon une poignée de mots-clés a des chances de l'enfermer esthétiquement encore mieux que les algo de recommandation.
 
My 2cents...


---------------
IWH  ---  Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde)
n°72332408
LibreArbit​re
La /root est longue
Posté le 03-02-2025 à 18:13:23  profilanswer
 

Honnêtement, quand on voit la merde produite en studio je pense que l'IA n'aura mal à faire mieux :o
 
Si va peut nous débarrasser de PNL, JuL et consort je m'en plaindrai pas :o


---------------
Hebergement d'images
n°72333693
_tchip_
Posté le 03-02-2025 à 21:35:46  profilanswer
 

LibreArbitre a écrit :

Liste des 100 métiers que l'intelligence artificielle ne va PAS dévaster : https://synthographie.fr/blog/refle [...] etiers-ia/
 
Edit : cette liste de 2024 ne tenait pas compte des avancées majeures de la robotique des derniers mois donc elle devrait bien se réduire dans les années à venir...


rien sur le p0rn ?


---------------
He likes the taste...
n°72333756
Rasthor
Posté le 03-02-2025 à 21:43:07  profilanswer
 

_tchip_ a écrit :


rien sur le p0rn ?


Vu la quantité de data disponible, ça doit être facile de générer par IA un film avec son propre script. :D

mood
Publicité
Posté le 03-02-2025 à 21:43:07  profilanswer
 

n°72333919
Klins
Posté le 03-02-2025 à 22:04:20  profilanswer
 

_tchip_ a écrit :


rien sur le p0rn ?


 
Ah bha tiens c'est marrant ça aussi dès que je sais que c'est fait par IA je trouve tout de suite que c'est de la merde.
 
Y'a pas mal de vidéos qui sont sorties ces derniers temps où y'a un remplacement du visage par celui d'une femme connue mais pas de ce milieu (par exemple Scarlett Johansson).
 
Et franchement c'est très bien fait, mais juste le fait de savoir que c'est une IA je trouve ça pourrit.

n°72334703
LibreArbit​re
La /root est longue
Posté le 04-02-2025 à 07:04:01  profilanswer
 

_tchip_ a écrit :

rien sur le p0rn ?


Tu penses bien qu'il y a déjà de gros acteurs sur le TDS robotisé...


---------------
Hebergement d'images
n°72335309
franckyvin​vin12
Posté le 04-02-2025 à 09:52:41  profilanswer
 

eurusd a écrit :

le hardware c'est une course sans fin:
* deja on veut run ces modeles a la maison... ce qui est pas le cas encore; j'ai vu des builds de PC a 6000 EURpour run le modele... pas encore a la portée de tout le monde
* Ensuite le chiffre des 6m EUR pour entrainer le modele c'est hors investissement dans les cartes graphiques donc ca fait deja un bon gros investissement; il va falloir des dizaines d'années avant que nos telephones soient capables de faire du training :)
* enfin, les modeles ont réussi a manger tout le materiel ecrit de la terre mais le graal ultime c'est lorsqu'ils sauront s'entrainer sur tout le materiel video/visuel + Audio + texte en meme temps et pour ca il faut une sacré puissance de calcul


Pour le "hors investissement", c'est vraiment le cas ? Il me semblerait logique que les couts d'entrainement annoncés intègrent l'énergie + l'amortissement de l'investissement ?

n°72342544
eurusd
Posté le 05-02-2025 à 11:34:14  profilanswer
 

franckyvinvin12 a écrit :


Pour le "hors investissement", c'est vraiment le cas ? Il me semblerait logique que les couts d'entrainement annoncés intègrent l'énergie + l'amortissement de l'investissement ?


 
visiblement (je retrouve pas les sources), c'etait pas hyper clair dans leur livre blanc et les 6m USD indiqués pour le training sont extrapolés de "si on avait loué 2000 H100 pendant X heures, ca nous aurait couté 6 millions"ca n'empeche pas la prouesse et les bonnes idées du modele derriere mais effectivement c'est pas un modele qui s'et entrainé sur 3 raspberry en //cf. egalement l'interview de anthropic recente dans laquelle il indique que leur dernier modeles c'est entre 10-15m USD de training

n°72342892
LibreArbit​re
La /root est longue
Posté le 05-02-2025 à 12:15:08  profilanswer
 

Le vrai budget c'est pas 6 millions mais 1.3 Mds (selon leur CAPEX) à priori : https://interestingengineering.com/ [...] st-billion
 
Edit : D'autres sources parlent de 2.3 Mds : https://medium.com/@kalimanie58/the [...] f2f8abac99

Message cité 1 fois
Message édité par LibreArbitre le 05-02-2025 à 12:15:42

---------------
Hebergement d'images
n°72343340
kaloskagat​os
Posté le 05-02-2025 à 13:33:56  profilanswer
 

franckyvinvin12 a écrit :


Pour le "hors investissement", c'est vraiment le cas ? Il me semblerait logique que les couts d'entrainement annoncés intègrent l'énergie + l'amortissement de l'investissement ?


 
Y'a une qu'une seule déclaration de la part de Deepseek, c'est dans leur publication au sujet du modèle :
 
https://arxiv.org/html/2412.19437v1
 

Citation :

During the pre-training stage, training DeepSeek-V3 on each trillion tokens requires only 180K H800 GPU hours, i.e., 3.7 days on our cluster with 2048 H800 GPUs. Consequently, our pre-training stage is completed in less than two months and costs 2664K GPU hours. Combined with 119K GPU hours for the context length extension and 5K GPU hours for post-training, DeepSeek-V3 costs only 2.788M GPU hours for its full training. Assuming the rental price of the H800 GPU is $2 per GPU hour, our total training costs amount to only $5.576M. Note that the aforementioned costs include only the official training of DeepSeek-V3, excluding the costs associated with prior research and ablation experiments on architectures, algorithms, or data.


 
Il parlent du temps nécessaire à l'entraînement, avec un coût équivalent en louant le matériel, c'est plus pour donner un ordre d'idée pour la partie technique.
 
Et c'est parfaitement clair que Deepseek appartient à une boîte de fonds spéculatifs qui avaient déjà des GPU, et du temps GPU disponible, donc le matériel est probablement entièrement amorti par ailleurs.


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°72343962
falkon1000
Posté le 05-02-2025 à 14:49:18  profilanswer
 

Mouarf. Je voulais faire un POC d'un concept d'Ui e-commerce mais mon Ui manager est en RTT
J'ai demandé à ChatGPT o3 de le faire (donc fournir HTML, CSS, JS), en 5 échanges il me fait un truc utilisable et qui rempli totalement le besoin.
 
Ca promet d'etre un joli atout même pour des équipes front

n°72344020
Rasthor
Posté le 05-02-2025 à 14:54:43  profilanswer
 

falkon1000 a écrit :

Mouarf. Je voulais faire un POC d'un concept d'Ui e-commerce mais mon Ui manager est en RTT
J'ai demandé à ChatGPT o3 de le faire (donc fournir HTML, CSS, JS), en 5 échanges il me fait un truc utilisable et qui rempli totalement le besoin.
 
Ca promet d'etre un joli atout même pour des équipes front


Je ne sais plus si cela a été posté dans ce topic, mais cette vidéo est intéressante sur l'avenir du métier:
 
La fin des développeurs.
https://www.youtube.com/watch?v=dFFlhSV-X8g

n°72344535
franckyvin​vin12
Posté le 05-02-2025 à 16:01:01  profilanswer
 

kaloskagatos a écrit :


 
Y'a une qu'une seule déclaration de la part de Deepseek, c'est dans leur publication au sujet du modèle :
 
https://arxiv.org/html/2412.19437v1
 

Citation :

During the pre-training stage, training DeepSeek-V3 on each trillion tokens requires only 180K H800 GPU hours, i.e., 3.7 days on our cluster with 2048 H800 GPUs. Consequently, our pre-training stage is completed in less than two months and costs 2664K GPU hours. Combined with 119K GPU hours for the context length extension and 5K GPU hours for post-training, DeepSeek-V3 costs only 2.788M GPU hours for its full training. Assuming the rental price of the H800 GPU is $2 per GPU hour, our total training costs amount to only $5.576M. Note that the aforementioned costs include only the official training of DeepSeek-V3, excluding the costs associated with prior research and ablation experiments on architectures, algorithms, or data.


 
Il parlent du temps nécessaire à l'entraînement, avec un coût équivalent en louant le matériel, c'est plus pour donner un ordre d'idée pour la partie technique.
 
Et c'est parfaitement clair que Deepseek appartient à une boîte de fonds spéculatifs qui avaient déjà des GPU, et du temps GPU disponible, donc le matériel est probablement entièrement amorti par ailleurs.


Si le nombre d'heures de calculs et le coût de l'heure de calcul incluant la location du matos sont corrects, alors pour moi le coût de 6m$ annoncé est cohérent. Les GPU ne sont pas à usage unique, on ne peut pas se baser uniquement sur le montant de l'investissement pour avoir le coût de l'entrainement.

n°72344587
Rasthor
Posté le 05-02-2025 à 16:08:07  profilanswer
 

Question pour vous tous: vous êtes uniquement des utilisateurs finaux de OpenAI/DeepSeek/Claude, ou bien vous gênerez aussi vos propres LLM / Foundation models? Et si oui, quels outils utilisez vous ? Et c'est faisable sur laptop / pc, ou il faut quand même beaucoup de puissance, et donc passer sur de cloud ?

n°72344700
LibreArbit​re
La /root est longue
Posté le 05-02-2025 à 16:22:41  profilanswer
 

Je montrais à un collègue la puissance de o3-mini sur un dev bidon et c'était un beau fail :o :

 
Citation :

Copying files with rsync

 

I'm working on copying files from XXX to destination hosts using rsync on XXX, ensuring the script works with the older version and handles size differences.

 

Établir une stratégie

 

Je suis en train de définir les variables nécessaires, puis de créer une commande rsync conditionnelle incluant les options de vérification de l'existence des fichiers et de mise à jour selon les différences de taille.

 

Методы обмена данными

 

Я изучаю разные способы использования rsync с различными параметрами для обмена данными между Linux и удаленными хостами, включая проверку существования файлов и их обновление в зависимости от размера и времени изменения.

 

Le bouzin qui switch entre 3 langues dans sa réflexion :lol:


Message édité par LibreArbitre le 05-02-2025 à 16:24:06

---------------
Hebergement d'images
n°72344826
fazero
Salut c'est Ralph
Posté le 05-02-2025 à 16:35:06  profilanswer
 

LibreArbitre a écrit :

Le vrai budget c'est pas 6 millions mais 1.3 Mds (selon leur CAPEX) à priori : https://interestingengineering.com/ [...] st-billion
 
Edit : D'autres sources parlent de 2.3 Mds : https://medium.com/@kalimanie58/the [...] f2f8abac99


Ces nimps ces articles ils comparent des choux et des carottes :pt1cable:


---------------
Agent immobilier sur Paris 16
n°72345179
Olivie
SUUUUUUUUUUUUUU
Posté le 05-02-2025 à 17:12:13  profilanswer
 

fazero a écrit :


Ces nimps ces articles ils comparent des choux et des carottes :pt1cable:


Ben c'est surtout pour répondre aux articles "olalala OpenaAi lève 200Mrds pour chatGPT et emploie 50k ingénieurs, alors qu'un chinois dans son garage avec $10k fait mieux"


---------------

n°72345368
LibreArbit​re
La /root est longue
Posté le 05-02-2025 à 17:35:24  profilanswer
 

C'est exactement ça. Sans parler de la triche pour former leur LLM...


---------------
Hebergement d'images
n°72345515
kaloskagat​os
Posté le 05-02-2025 à 17:56:52  profilanswer
 

De quelle triche on parle ?

 

https://rehost.diberie.com/Picture/Get/r/358133

 

Tous ces articles poubelles c'est de la propagande pro Trump / America First (je fais un gros raccourci).

 

D'un côté on a une boîte qui s'appelle quand même OPEN-ai qui était censée faire avancer l'open-source en IA  tout en expliquant qu'il faut 500 milliards de dollars pour faire tourner tout ça parce que "l'IA, c'est cher", et de l'autre une boîte qui balance une série de modèles open-source, à l'état de l'art, et qui prouve que 6M$ suffisent pour s'en sortir avec un modèle performant. En vrai, on est juste en train d'assister à une bataille narrative où chaque camp défend son modèle économique. Avec au milieu des média qui captent rien, comme d'habitude.

 

Message cité 1 fois
Message édité par kaloskagatos le 05-02-2025 à 17:57:47

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°72345646
Klins
Posté le 05-02-2025 à 18:16:03  profilanswer
 

kaloskagatos a écrit :

De quelle triche on parle ?
 
https://rehost.diberie.com/Picture/Get/r/358133
 
Tous ces articles poubelles c'est de la propagande pro Trump / America First (je fais un gros raccourci).
 
D'un côté on a une boîte qui s'appelle quand même OPEN-ai qui était censée faire avancer l'open-source en IA  tout en expliquant qu'il faut 500 milliards de dollars pour faire tourner tout ça parce que "l'IA, c'est cher", et de l'autre une boîte qui balance une série de modèles open-source, à l'état de l'art, et qui prouve que 6M$ suffisent pour s'en sortir avec un modèle performant. En vrai, on est juste en train d'assister à une bataille narrative où chaque camp défend son modèle économique. Avec au milieu des média qui captent rien, comme d'habitude.
 


 
Si j'ai bien compris les explications données, ne me connaissant pas vraiment en informatique.
 
Les gars qui ont crées Deepseek, sont les gérants/travailleurs d'une société de gestion fonds spéculatif importante.
 
Ils ont du matos informatique ultra performanjt qui leurs coutent plusieurs centaines de millions d'euros pour leur mission de base, les fonds spéculatifs.
 
Ils ont utilisés en parallèle ce matos pour créer à coté leur IA mais s'ils avaient achetés tout leur matériel seulement pour l'IA, c'est là qu'on peut dire que le vrai coût aurait du être par conséquent de plusieurs centaines de millions d'euros?
 
J'ai bien compris le truc ?  :??:  
 

n°72345695
kaloskagat​os
Posté le 05-02-2025 à 18:23:11  profilanswer
 

C'est ça. Le patron a parlé de Deepseek en terme de "side project" de quelques petits génies en IA de leur boîte. Ils avaient des idées d'optimisation et du temps GPU dispo. Et bien sûr le soutien financier de la boîte, on parle pas d'un projet Arduino le vendredi après-midi (tout ce shitstorm est clairement une guerre de pouvoir économique entre les USA et la Chine).

 

Et pour la triche, ils auraient utilisé l'API OpenAi pour générer des données synthétiques et entraîner leur modèle, ce qui est contraire aux conditions d'utilisation d'OpenAI. Sauf que OpenAi a été pris la main dans le sac par le New-York Times qui a fait cracher mot pour mot des articles de leur journal alors qu'il avaient interdit l'utilisation de leurs données. Et faut voir les interviews de Mira Murati directrice technique d'OpenAi qui sait pas quoi répondre quand on lui demande s'il se sont entraîné (pour Sora) sur telle ou telle donnée qu'ils auraient pas le droit d'utiliser.

Message cité 1 fois
Message édité par kaloskagatos le 05-02-2025 à 18:30:45

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°72345741
Klins
Posté le 05-02-2025 à 18:33:15  profilanswer
 

:jap:  
 
ok merci.
 
Comme quoi c'est maintenant même étonnant que ce n'est pas été fait par une boite américaine en side project.
 
J'imagine que des boites comme ça aux US y'en a un paquet avec des gens compétents et un matériel encore plus performant que ce qui a été utilisé par les chinois.

n°72345815
Rasthor
Posté le 05-02-2025 à 18:41:48  profilanswer
 

Klins a écrit :

:jap:  
 
ok merci.
 
Comme quoi c'est maintenant même étonnant que ce n'est pas été fait par une boite américaine en side project.
 
J'imagine que des boites comme ça aux US y'en a un paquet avec des gens compétents et un matériel encore plus performant que ce qui a été utilisé par les chinois.


Ca a peut-être été fait, mais pas rendu public.

n°72345835
kaloskagat​os
Posté le 05-02-2025 à 18:43:54  profilanswer
 

Meta (Facebook) est quand même pas mal placé dans la course, et leur modèle est open-source.
 
La sortie de DeepSeek a quand même créé un petit vent de panique :
 
https://rehost.diberie.com/Picture/Get/t/358142
 
Source : post sur teamblind un réseau social d'employés anonyme de grandes entreprises (il faut valider son compte avec une adresse pro de sa boîte, j'ai découvert ça a l'occasion).
 
A noter que Alibaba a sorti le modèle Qwen 2.5 en open-source qui serait plus performant que Deepseek V3.


Message édité par kaloskagatos le 05-02-2025 à 18:47:14

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°72347115
falkon1000
Posté le 05-02-2025 à 22:28:33  profilanswer
 

Rasthor a écrit :

Question pour vous tous: vous êtes uniquement des utilisateurs finaux de OpenAI/DeepSeek/Claude, ou bien vous gênerez aussi vos propres LLM / Foundation models? Et si oui, quels outils utilisez vous ? Et c'est faisable sur laptop / pc, ou il faut quand même beaucoup de puissance, et donc passer sur de cloud ?


Perso juste utilisateur final des outils de chat et des API (GPT, claude, DeepL principalement)
 
Tu veux créer ton propre modèle ? Bon courage…
Regarde du côté de PyTorch

n°72347500
autocall
Wallah
Posté le 06-02-2025 à 00:20:58  profilanswer
 

Rasthor a écrit :

Question pour vous tous: vous êtes uniquement des utilisateurs finaux de OpenAI/DeepSeek/Claude, ou bien vous gênerez aussi vos propres LLM / Foundation models? Et si oui, quels outils utilisez vous ? Et c'est faisable sur laptop / pc, ou il faut quand même beaucoup de puissance, et donc passer sur de cloud ?


Générer un LLM à partir de 0 ? Faut une très grosse infra, c'est pas possible pour un particulier.
 
Ce que tu peux faire en tant que particulier, c'est prendre un modèle préentraîné et le spécialiser sur des datas qui t'intéressent.


---------------
Je n'aimais qu'un seul être et je le perds deux fois.
n°72347502
autocall
Wallah
Posté le 06-02-2025 à 00:22:39  profilanswer
 

Perso j'aime beaucoup utiliser chatgpt comme psy/coach sur des difficultés relationnelles du quotidien.
Ca donne de très bon conseils pragmatiques et applicables, c'est super efficace.
Ca bat 95% des psys à mon avis :o


---------------
Je n'aimais qu'un seul être et je le perds deux fois.
n°72347508
XaTriX
Posté le 06-02-2025 à 00:25:11  profilanswer
 

autocall a écrit :


Générer un LLM à partir de 0 ? Faut une très grosse infra, c'est pas possible pour un particulier.
 
Ce que tu peux faire en tant que particulier, c'est prendre un modèle préentraîné et le spécialiser sur des datas qui t'intéressent.


yes, on peut faire ça avec HFR ! :o
comment on fait ?


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°72347510
XaTriX
Posté le 06-02-2025 à 00:26:34  profilanswer
 

autocall a écrit :

Perso j'aime beaucoup utiliser chatgpt comme psy/coach sur des difficultés relationnelles du quotidien.
Ca donne de très bon conseils pragmatiques et applicables, c'est super efficace.
Ca bat 95% des psys à mon avis :o


t'as essayé deepseek ?
 
en 3 mois tu seras fan du parti communiste chinois :o


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°72347515
Rasthor
Posté le 06-02-2025 à 00:27:47  profilanswer
 

falkon1000 a écrit :


Perso juste utilisateur final des outils de chat et des API (GPT, claude, DeepL principalement)
 
Tu veux créer ton propre modèle ? Bon courage…
Regarde du côté de PyTorch


 

autocall a écrit :


Générer un LLM à partir de 0 ? Faut une très grosse infra, c'est pas possible pour un particulier.
 
Ce que tu peux faire en tant que particulier, c'est prendre un modèle préentraîné et le spécialiser sur des datas qui t'intéressent.


 
Ok. :jap:
 
Le truc est qu'il y a pas mal de features sur les Apple Silicon, je me demandais s'il y avait des trucs intéressant à faire pour les utiliser.

Citation :

The M1 contains dedicated neural network hardware in a 16-core Neural Engine, capable of executing 11 trillion operations per second.[8] Other components include an image signal processor, a NVM Express storage controller, a USB4 controller that includes Thunderbolt 3 support, and a Secure Enclave. The M1 Pro, Max and Ultra support Thunderbolt 4.

n°72347516
autocall
Wallah
Posté le 06-02-2025 à 00:28:05  profilanswer
 

XaTriX a écrit :


t'as essayé deepseek ?

 

en 3 mois tu seras fan du parti communiste chinois :o


 :D


---------------
Je n'aimais qu'un seul être et je le perds deux fois.
n°72348412
falkon1000
Posté le 06-02-2025 à 09:48:47  profilanswer
 

Rasthor a écrit :


 
Ok. :jap:
 
Le truc est qu'il y a pas mal de features sur les Apple Silicon, je me demandais s'il y avait des trucs intéressant à faire pour les utiliser.

Citation :

The M1 contains dedicated neural network hardware in a 16-core Neural Engine, capable of executing 11 trillion operations per second.[8] Other components include an image signal processor, a NVM Express storage controller, a USB4 controller that includes Thunderbolt 3 support, and a Secure Enclave. The M1 Pro, Max and Ultra support Thunderbolt 4.



T’as pas idée de la puissance de calcul nécessaire pour faire tourner un llm
Honnêtement oublie l’idée

n°72348490
gremi
Vieux con des neiges d'antan
Posté le 06-02-2025 à 09:56:35  profilanswer
 

Rasthor a écrit :

Question pour vous tous: vous êtes uniquement des utilisateurs finaux de OpenAI/DeepSeek/Claude, ou bien vous gênerez aussi vos propres LLM / Foundation models? Et si oui, quels outils utilisez vous ? Et c'est faisable sur laptop / pc, ou il faut quand même beaucoup de puissance, et donc passer sur de cloud ?


Générer comme dit plus haut impossible pour un particulier.

 

Par contre en local tu peux faire de l'inférence sur des petits modèles tant que tu restes cohérent avec ta Vram (ou Ram sur un Apple silicon).

 

J'arrive à faire tourner en local le R1/Qwen 14b sur mon Macbook Air M1/16Go, c'est tout à fait utilisable. (les modèles 7/8b sont assez rapides sinon sur un GPU avec 8Go de Vram)

 

Regarde du côté de Llmstudio si ça t'intéresse, c'est très simple à utiliser.

Message cité 1 fois
Message édité par gremi le 06-02-2025 à 09:57:36

---------------
In aligot we trust.
n°72349112
Rasthor
Posté le 06-02-2025 à 11:11:18  profilanswer
 

falkon1000 a écrit :


T’as pas idée de la puissance de calcul nécessaire pour faire tourner un llm
Honnêtement oublie l’idée


Je me doute bien que les gros demande de la puissance enorme. Mais je me demandais s’il avait d’autres sympa a faire.

gremi a écrit :


Générer comme dit plus haut impossible pour un particulier.
 
Par contre en local tu peux faire de l'inférence sur des petits modèles tant que tu restes cohérent avec ta Vram (ou Ram sur un Apple silicon).
 
J'arrive à faire tourner en local le R1/Qwen 14b sur mon Macbook Air M1/16Go, c'est tout à fait utilisable. (les modèles 7/8b sont assez rapides sinon sur un GPU avec 8Go de Vram)
 
Regarde du côté de Llmstudio si ça t'intéresse, c'est très simple à utiliser.


 
Merci, je vais regarder ça. :jap:

n°72356028
XprtZ
Profil : O.O
Posté le 07-02-2025 à 12:00:54  profilanswer
 

autocall a écrit :

Perso j'aime beaucoup utiliser chatgpt comme psy/coach sur des difficultés relationnelles du quotidien.
Ca donne de très bon conseils pragmatiques et applicables, c'est super efficace.
Ca bat 95% des psys à mon avis :o


1er degré, oui je trouve que c'est plus pertinent et terrifiant en même temps :D


---------------
PSN : XprtZ - BattleTag : XprtZ#2257 - 3DS : 2492-4109-3060
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  89  90  91  ..  257  258  259  260  261  262

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)