Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2700 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  48  49  50  ..  63  64  65  66  67  68
Auteur Sujet :

Intelligence artificielle

n°72309363
trueslash
(╯°□°)╯︵ MMM
Posté le 30-01-2025 à 15:13:49  profilanswer
 

Reprise du message précédent :
Les modèles avec 70B paramètres tournent pas mal sur un macbook pro avec 64GB de RAM sinon, uniquement pour l'inference bien sûr mais pour faire de l'evaluation, c'est un rapport qualité prix pas trop mal

mood
Publicité
Posté le 30-01-2025 à 15:13:49  profilanswer
 

n°72309513
Sebwap
... . -... .-- .- .--.
Posté le 30-01-2025 à 15:32:12  profilanswer
 

trueslash a écrit :

Les modèles avec 70B paramètres tournent pas mal sur un macbook pro avec 64GB de RAM sinon, uniquement pour l'inference bien sûr mais pour faire de l'evaluation, c'est un rapport qualité prix pas trop mal


 
On fait bien mieux maintenant (encore au stade de la recherche certes :o )
 
 
https://www.hackster.io/news/a-litt [...] ceb2c5ef71
 

Citation :

A new approach makes it possible to run AI inferences with a small fraction of the data usually required, greatly reducing resource use.


 

Citation :

To drive this point home, the researchers ran SIUN on the tiny, $4 Raspberry Pi Pico microcontroller. Despite its severely limited hardware resources, the system successfully performed AI inference tasks, proving that SIUN could bring advanced AI capabilities to even the most resource-limited devices.

n°72309568
trueslash
(╯°□°)╯︵ MMM
Posté le 30-01-2025 à 15:38:03  profilanswer
 

Sebwap a écrit :


 
On fait bien mieux maintenant (encore au stade de la recherche certes :o )
 
 
https://www.hackster.io/news/a-litt [...] ceb2c5ef71
 

Citation :

A new approach makes it possible to run AI inferences with a small fraction of the data usually required, greatly reducing resource use.


 

Citation :

To drive this point home, the researchers ran SIUN on the tiny, $4 Raspberry Pi Pico microcontroller. Despite its severely limited hardware resources, the system successfully performed AI inference tasks, proving that SIUN could bring advanced AI capabilities to even the most resource-limited devices.



 
Il faut toujours une grosse machine pour comparer :D

n°72309602
Sebwap
... . -... .-- .- .--.
Posté le 30-01-2025 à 15:42:04  profilanswer
 

Si dans 10 ans on arrive à faire de l'inférence temps réel sur des modèles de LLM avec une carte à 5€ j'imagine pas ce qu'on fera avec les grosses machines :D

n°72309697
deweychat
Posté le 30-01-2025 à 15:54:08  profilanswer
 

Oui pour du LLM on en est quand meme pas à faire tourner ça sur des Raspberry
 
Par contre pour l'IA embarquée dans l'industrie c'est super utile déjà ce qui peut se faire aujourd'hui (et risque de bien mettre à mal Nvidia qui misent une bonne partie de leur activité là dessus)

n°72310328
the_fennec
f3nn3cUs z3rd4
Posté le 30-01-2025 à 17:32:30  profilanswer
 

Des petits modèles tournent sans problème sur un Raspberry:
https://itsfoss.com/llms-for-raspberry-pi/


---------------
Faudra que je teste un jour :o
n°72310373
Sebwap
... . -... .-- .- .--.
Posté le 30-01-2025 à 17:40:27  profilanswer
 

the_fennec a écrit :

Des petits modèles tournent sans problème sur un Raspberry:
https://itsfoss.com/llms-for-raspberry-pi/


 
On est assez loin d'un Raspberry Pico tout de même.
 
J'imagine qu'en plus avec le nouveau modèle 16gb et les cartes dédiés IA qui sortent aussi, certains sont déjà entrain de faire tourner deepseek la dessus :D

n°72310732
the_fennec
f3nn3cUs z3rd4
Posté le 30-01-2025 à 18:55:43  profilanswer
 

Ha oui un Pico avec un LLM c'est chaud :D


---------------
Faudra que je teste un jour :o
n°72310817
Sebwap
... . -... .-- .- .--.
Posté le 30-01-2025 à 19:17:41  profilanswer
 

the_fennec a écrit :

Ha oui un Pico avec un LLM c'est chaud :D


Ça viendra avec un pico version 2030 par exemple pourquoi pas :)

n°72310821
trueslash
(╯°□°)╯︵ MMM
Posté le 30-01-2025 à 19:19:00  profilanswer
 

Le truc c'est qu'en 2030, ya de bonnes chances que l'on ne trouve plus du tout qu'un LLM de 2025 soit particulièrement impressioannt ou utile, on regardera le dernier truc à la mode qui tourne sur une GeForce 7080 avec 4TB de ram :o

mood
Publicité
Posté le 30-01-2025 à 19:19:00  profilanswer
 

n°72310847
Sebwap
... . -... .-- .- .--.
Posté le 30-01-2025 à 19:25:12  profilanswer
 

trueslash a écrit :

Le truc c'est qu'en 2030, ya de bonnes chances que l'on ne trouve plus du tout qu'un LLM de 2025 soit particulièrement impressioannt ou utile, on regardera le dernier truc à la mode qui tourne sur une GeForce 7080 avec 4TB de ram :o


Bien-sûr, mais un llm de 2025 sera toujours aussi efficace même si pas impressionnant.

 

J'imagine pas le nombre de paramètres qu'auront les modèles  :D

n°72310850
trueslash
(╯°□°)╯︵ MMM
Posté le 30-01-2025 à 19:25:59  profilanswer
 

Sebwap a écrit :


Bien-sûr, mais un llm de 2025 sera toujours aussi efficace même si pas impressionnant.
 
J'imagine pas le nombre de paramètres qu'auront les modèles  :D


 
Justement, le sont-ils, efficaces :??: :D

n°72311547
crepator4
Deus ex machina
Posté le 30-01-2025 à 21:27:25  profilanswer
 

Voici le meilleur ChatGPT chinois (et c'est pas DeepSeek)
https://www.youtube.com/watch?v=zE_dM7DwPQw


---------------
...survivre à ses Medecins...
n°72311702
simius_com​putus
oh Gary boy
Posté le 30-01-2025 à 21:48:54  profilanswer
 

Les LLM c'est dla merde   [:djekyl]


---------------
IWH  ---  Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde)
n°72312204
kaloskagat​os
Posté le 30-01-2025 à 23:15:41  profilanswer
 

crepator4 a écrit :

Voici le meilleur ChatGPT chinois (et c'est pas DeepSeek)
https://www.youtube.com/watch?v=zE_dM7DwPQw


Ce mec sait pas lire les articles, Qwen 2.5 Max se compare à Deepseek V3, GPT 4o et Sonnet 2.5.

 

Il passe toute sa vidéo à faire rédiger des articles à la con au modèle R1 qui sert à faire du raisonnement. Comme le modèle o1 les modèles de raisonnement servent à résoudre des problèmes complexes de maths, physique ou informatique, pas à rédiger des articles de blog.

 

https://chat.qwenlm.ai


Message édité par kaloskagatos le 30-01-2025 à 23:16:09

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°72315093
deweychat
Posté le 31-01-2025 à 14:25:14  profilanswer
 

J'ai pu tester rapidement, j'ai été optimise sur mon PC c'est en fait une Geforce 1650  :D  
 
Via Ollama j'ai installé la version 7b de Deepseek de 4,5Go, le temps de réponse est correct sans que ça sollicite énormément mon PC (c'est un portable et le ventilo s'est meme pas allumé).  
J'ai vérifié que c'est bien du local en coupant internet
C'est le modèle R1 pourtant il reste fort en écriture et capable de faire du texte, des plans de présentation etc(pas mal de fautes de français et d'anglicismes quand meme, on est pas au niveau de la version web )
 
J'ai pas comparé avec les quelques autres modèles qui peuvent tourner en local, probable que ça nuance un peu plus ces qualités


Message édité par deweychat le 31-01-2025 à 14:26:09
n°72315535
the_fennec
f3nn3cUs z3rd4
Posté le 31-01-2025 à 15:13:43  profilanswer
 

Bon petit test rapide de Deepseek avec Ollama et ma 4060Ti 16GB.  
 
Voila pour les utilisations VRAM (j'ai 600MB de pris par l'OS Win 2029)
 
* deepseek-r1:6b => 7GB
* deepseek-r1:14b => 11GB
* deepseek-r1:32b => 13.4GB (lent)
 
Je trouve pas les réponses extraordinaires, mais c'est rapide avec le 6b ou le 14b, le 32b est assez lent par contre.
 
Quand je lui demande si il peut faire des recherches sur internet il me dit qu'il peut pas et ajoute:

Citation :

my knowledge cutoff is October 2023


 
Je sais pas si c'est le vrai modèle R1, mais il semble que c'est juste un modèle Qwent distillé sur R1. Je vais réessayer avec le vrai repo Deepseek.
 
edit: il suffisait de lire :o
https://github.com/deepseek-ai/Deep [...] ill-models

Citation :


DeepSeek-R1-Distill models are fine-tuned based on open-source models, using samples generated by DeepSeek-R1. We slightly change their configs and tokenizers. Please use our setting to run these models.

Message cité 1 fois
Message édité par the_fennec le 31-01-2025 à 15:16:07

---------------
Faudra que je teste un jour :o
n°72315556
chienBlanc
Posté le 31-01-2025 à 15:16:48  profilanswer
 

drap


---------------
J'ai un million à deux : version RAP / version Rock
n°72317591
lady287
La lumière fuse
Posté le 31-01-2025 à 21:06:38  profilanswer
 

trueslash a écrit :

Il faudrait une IA pour choisir la bonne IA :o


L'apprentissage par renforcement ?


---------------
jovalise (C) 2002 Manuel De Girardi
n°72317656
Sebwap
... . -... .-- .- .--.
Posté le 31-01-2025 à 21:16:15  profilanswer
 

Une IA qui apprendrait d'une IA, c'est sans fin, mais pour les biais ça risque d'être sympa :D

n°72317665
Gottorp
Burn, burn, yes ya gonna burn
Posté le 31-01-2025 à 21:17:50  profilanswer
 

et surtout elle n'apprend rien de nouveau au final (si on prend la médecine tout ce qui est découvert après le corpus d'origine n'est plus inclu)


---------------
Les convictions sont des ennemis de la vérité plus dangereux que les mensonges
n°72317953
deweychat
Posté le 31-01-2025 à 22:05:32  profilanswer
 

the_fennec a écrit :

Bon petit test rapide de Deepseek avec Ollama et ma 4060Ti 16GB.

 

Voila pour les utilisations VRAM (j'ai 600MB de pris par l'OS Win 2029)

 

* deepseek-r1:6b => 7GB
* deepseek-r1:14b => 11GB
* deepseek-r1:32b => 13.4GB (lent)

 

Je trouve pas les réponses extraordinaires, mais c'est rapide avec le 6b ou le 14b, le 32b est assez lent par contre.

 

Quand je lui demande si il peut faire des recherches sur internet il me dit qu'il peut pas et ajoute:

Citation :

my knowledge cutoff is October 2023

 

Je sais pas si c'est le vrai modèle R1, mais il semble que c'est juste un modèle Qwent distillé sur R1. Je vais réessayer avec le vrai repo Deepseek.

 

Après comme dit plus haut le R1 c'est pour résoudre des calculs, si tu veux le deepseek qui parle super bien fait prendre la V3 et c'est 600Go :o

 

Pour la seule partie conversationnelle Mistral est plus efficace pour a peu près le même poids et même perfs (car fait pour ça)


Message édité par deweychat le 31-01-2025 à 22:06:15
n°72318543
the_fennec
f3nn3cUs z3rd4
Posté le 31-01-2025 à 23:55:45  profilanswer
 

Oui, c'est juste que sans accès internet/fichier/image je vois pas trop quoi lui faire faire. Si c'est juste pour des maths, difficile de l'utiliser pour moi.


---------------
Faudra que je teste un jour :o
n°72320805
mattgiver
joueur de bouse
Posté le 01-02-2025 à 16:33:39  profilanswer
 

Les français de mistral AI viennent de sortir mistral small 3 en open source (47 Go) :   https://mistral.ai/news/mistral-small-3/


---------------
Je suis riche des biens dont je sais me passer.
n°72320830
the_fennec
f3nn3cUs z3rd4
Posté le 01-02-2025 à 16:41:36  profilanswer
 

Citation :

When quantized, Mistral Small 3 can be run privately on a single RTX 4090 or a Macbook with 32GB RAM.


 
C'est pas pour moi :o


---------------
Faudra que je teste un jour :o
n°72331203
crepator4
Deus ex machina
Posté le 03-02-2025 à 15:06:18  profilanswer
 

On a découvert le monde fascinant des AI-cheats
https://www.youtube.com/watch?v=cb6lIg2nZu0


---------------
...survivre à ses Medecins...
n°72331351
crepator4
Deus ex machina
Posté le 03-02-2025 à 15:27:45  profilanswer
 

DeepSeek R1 COPIÉ pour 30$ | La Percée CHOC de Berkeley Déclenche une Révolution.
https://www.youtube.com/watch?v=JldLaCUTZ3k


---------------
...survivre à ses Medecins...
n°72332747
the_fennec
f3nn3cUs z3rd4
Posté le 03-02-2025 à 19:07:26  profilanswer
 

crepator4 a écrit :

DeepSeek R1 COPIÉ pour 30$ | La Percée CHOC de Berkeley Déclenche une Révolution.
https://www.youtube.com/watch?v=JldLaCUTZ3k


 
J'ai regardé le début de la vidéo, mais pas de sources dans la description...
 
Mais ça vient de la:
https://github.com/Jiayi-Pan/TinyZero

Citation :

TinyZero is a reproduction of DeepSeek R1 Zero in countdown and multiplication tasks.


 
Comme d'hab un super titre :o C'est intéressant, mais ils ont juste extrait deux fonctions relativement simple du modèle, ils ont en aucun cas COPIÉ le modèle en entier comme le titre le laisse supposer.


---------------
Faudra que je teste un jour :o
n°72334906
deweychat
Posté le 04-02-2025 à 08:40:30  profilanswer
 

En plus Deepseek est open source, y'a rien de choquant à le copier et changer son nom si tu veux t'en servir

n°72337090
chinois02
Posté le 04-02-2025 à 14:19:49  profilanswer
 

La résistance contre les AI génératives apparaît:
Par data poisoning pour faire dérailler les AI fonctionnant sur la base des LLM.
Vous scrappez les sites? nous vous intoxiquons avec un pipotron.
 
https://algorithmic-sabotage.github [...] age-of-ai/
 
iocaine, le poison de l'AI...
https://iocaine.madhouse-project.org/
 


---------------
N'importe qui peut voir ce que tu sembles être; quelques rares seulement peuvent tâter ce que tu es. Et ces derniers n'osent contredire l'opinion du grand nombre, renforcée par toute la majesté de l'État. Machiavel-Le Prince.
n°72337185
the_fennec
f3nn3cUs z3rd4
Posté le 04-02-2025 à 14:31:39  profilanswer
 

A ce propos, une étude intéressante:
 
Medical large language models are vulnerable to data-poisoning attacks
https://www.nature.com/articles/s41591-024-03445-1
src: https://hackaday.com/2025/02/03/exa [...] poisoning/
 
Un article plus court :o et intéressant aussi je trouve:
What DeepSeek Means for Open-Source AI
Its new open reasoning model cuts costs drastically on AI reasoning

 
https://spectrum.ieee.org/darpa-grand-challenge
src: https://hackaday.com/2025/02/03/mor [...] -big-deal/
 

Citation :


...
DeepSeek-R1 used a “cold start” technique that begins with a small supervised fine-tuning (SFT) dataset of just a few thousand examples. From there, reinforcement learning (RL) is used to complete the training. Wolfe calls it a “huge discovery that’s very nontrivial.”
...


 
C'est novateur car jusqu'ici une IA qui entraîne une IA ça marchait pas du tout et ça donnait juste un modèle final qui ne marchait que sur son set de training et pas du tout en dehors. Ça pourrait aussi (peut-être) aider a régler les soucis quand on "re-train" a un modèle sur ses propres "outputs", ce qui arrive quand on scrap la terre entière tous les deux jours :o


Message édité par the_fennec le 04-02-2025 à 14:31:50

---------------
Faudra que je teste un jour :o
n°72339607
kcnarf77
Posté le 04-02-2025 à 20:53:00  profilanswer
 

Gottorp a écrit :

et surtout elle n'apprend rien de nouveau au final (si on prend la médecine tout ce qui est découvert après le corpus d'origine n'est plus inclu)


 
On peut imaginer que si, ça a été le cas pour les échecs ou le go par exemple, il me semble. Après, c'est sûr que les arts, les sciences ou la philo, c'est pas vraiment comparables à des juex de stratégie avec quelques règles simples, mais bon ...

n°72339869
Gottorp
Burn, burn, yes ya gonna burn
Posté le 04-02-2025 à 21:26:52  profilanswer
 

ben la médecine entre y'a 2 ans et ce jour (par ex) y'a des changements, des molécules etc qui changent la donner. Si pas dans le corpus tu peux pas savoir.
 
Après dans ce domaine, la souveraineté commence (lentement) à faire comprendre que les données restant en France (et même dans l'hopital) c'est quand mieux mieux que d'aller faire un tour sur des serveurs aux USA


---------------
Les convictions sont des ennemis de la vérité plus dangereux que les mensonges
n°72348885
crepator4
Deus ex machina
Posté le 06-02-2025 à 10:43:00  profilanswer
 

Applcation medical/ cancer
OpenAI SURPREND tout le monde : "Le moment de l'AGI" est arrivé avec DEEP RESEARCH.
https://youtu.be/5AF4aYa470k?t=553


---------------
...survivre à ses Medecins...
n°72353205
Gottorp
Burn, burn, yes ya gonna burn
Posté le 06-02-2025 à 20:54:59  profilanswer
 

allez du français pour une fois :D
 
[:teepodavignon:8]

https://rehost.diberie.com/Picture/Get/f/327943 Theo Laubry US (theolaubry.bsky.social) :

Le Chat de Mistral AI est enfin disponible sur l’Apple Store et le Play Store. L’alternative française aux géants américains et chinois mérite un peu de publicité. D’autant qu’elle est plutôt réputée.
 
https://gitlab.com/BZHDeveloper/HFR/raw/master/emojis-micro/1f1eb-1f1f7.png https://gitlab.com/BZHDeveloper/HFR/raw/master/emojis-micro/2694.pnghttps://gitlab.com/BZHDeveloper/HFR/raw/master/emojis-micro/1f1fa-1f1f8.png https://gitlab.com/BZHDeveloper/HFR/raw/master/emojis-micro/1f1e8-1f1f3.png
https://rehost.diberie.com/Rehost?size=min&url=https://cdn.bsky.app/img/feed_thumbnail/plain/did:plc:wsail44m7g4ex7mdirmy4sgm/bafkreidmo5mtpk54vlvibebwel5njp4iggboj3hun7uatuwbpxt6lahmjy


---------------
Les convictions sont des ennemis de la vérité plus dangereux que les mensonges
n°72353769
_tchip_
Posté le 06-02-2025 à 22:44:38  profilanswer
 

crepator4 a écrit :

Applcation medical/ cancer
OpenAI SURPREND tout le monde : "Le moment de l'AGI" est arrivé avec DEEP RESEARCH.
https://youtu.be/5AF4aYa470k?t=553


la fin des dev ?


---------------
He likes the taste...
n°72353778
crepator4
Deus ex machina
Posté le 06-02-2025 à 22:47:40  profilanswer
 

Dans 2 ou 3 ans seulement :o


---------------
...survivre à ses Medecins...
n°72353918
simius_com​putus
oh Gary boy
Posté le 06-02-2025 à 23:38:08  profilanswer
 

Sachant qu'on n'a pas de test formel pour déterminer si on est face à une AGI  :o


---------------
IWH  ---  Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde)
n°72359941
crepator4
Deus ex machina
Posté le 07-02-2025 à 22:32:07  profilanswer
 

NOUVEAU : Elon Musk sur l'avenir de la guerre
Vision Actus
https://www.youtube.com/watch?v=jwjqjwZ-R5c


---------------
...survivre à ses Medecins...
n°72360221
tbse78
Posté le 07-02-2025 à 23:21:51  profilanswer
 
n°72360270
chinois02
Posté le 07-02-2025 à 23:39:03  profilanswer
 


HS on:
c'est pour que les émirats arabes unis puissent analyser les moindres écrits des français sur internet...ou alors pour diffuser la bonne parole...
Comme disent les américains c'est celui qui paie qui choisit la musique.
A ce rythme je vais équiper mon serveur de iocaine, un soft empoisonneur de données.


Message édité par chinois02 le 07-02-2025 à 23:39:30

---------------
N'importe qui peut voir ce que tu sembles être; quelques rares seulement peuvent tâter ce que tu es. Et ces derniers n'osent contredire l'opinion du grand nombre, renforcée par toute la majesté de l'État. Machiavel-Le Prince.
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  48  49  50  ..  63  64  65  66  67  68

Aller à :
Ajouter une réponse
 

Sujets relatifs
Intelligence artificielle : conceptualisation et formulationintelligence artificielle pour jeu puissance4 avec matlab
L'intelligence artificielle est-elle la bien venue parmis les hommes.Intelligence artificielle....demain
robot et intelligence artificielleINTELLIGENCE ARTIFICIELLE
Intelligence artificielle : vous y croyez ?Intelligence artificielle
l'intelligence artificielleL'intelligence artificielle !
Plus de sujets relatifs à : Intelligence artificielle


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)