| |||||
FORUM HardWare.fr

Discussions

Actualité

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co| Auteur | Sujet : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co |
|---|---|
Funky Max And then, I woke up. | Reprise du message précédent : |
Publicité | Posté le 13-03-2025 à 20:52:32 ![]() ![]() |
gagaches |
C'est tellement vaste en fait comme question. 1/ Veille techno : identifier les personnes intéressantes qui parlent de trucs concrets et pas de bullshit technique. Philippe dont je parlais avant est bien, il est de Microsoft donc forcément, vous verrez principalement du chatGPT/copilot. Son linkedin pour suivre ses publications : Paul Péton, Microsoft AI MVP (il rentre plus dans le technique data/ia) Et comme il (co-)anime la Global AI Community France :
3/ regarder ce que partagent les autres. 4/ tester sur le tas et se faire ses convictions (argumentées si possible Message cité 2 fois Message édité par gagaches le 13-03-2025 à 21:55:21 --------------- |
bulldozer_fusion rip Mekthoub |
--------------- feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas |
crepator4 Deus ex machina | Bon , je veut faire une sorte de youtube downloader pour recup mes videos , le claude il veut pas ,je risque trop d'atteindre aux droits d'auteurs
Message cité 1 fois Message édité par crepator4 le 13-03-2025 à 22:01:27 --------------- ...survivre à ses Medecins... |
gagaches |
--------------- |
crepator4 Deus ex machina | j'ai essayé de pleurer,ça a moyennement fonctionner,la il me fait un bouton lien qui m'envoie via un autre site ... bon ça devient un jeu, je retente ... faire le tour des zotres modeles aussi ... Message cité 1 fois Message édité par crepator4 le 13-03-2025 à 22:21:42 --------------- ...survivre à ses Medecins... |
Funky Max And then, I woke up. |
J'ai organisé mon dernier voyage en partant de suggestions IA par contre j'ai trouvé que ça avait super bien fonctionné avec des programmes cohérents.
Merci Message cité 1 fois Message édité par Funky Max le 13-03-2025 à 22:23:39 |
bulldozer_fusion rip Mekthoub | Deep research est passé gratos avec Gemini --------------- feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas |
n@thou Scandinavie ♥ |
|
gagaches |
--------------- |
Publicité | Posté le 13-03-2025 à 23:24:30 ![]() ![]() |
crepator4 Deus ex machina | a oki, moi je pensais passer par un service web tiers, ce qu'il m'avait proposé (dont notamment y2mate qui semble mort depuis lurette),derniers essais avec cobalt infructueux mais un batch et un .exe c'est pas plus mal Message édité par crepator4 le 14-03-2025 à 01:02:59 --------------- ...survivre à ses Medecins... |
gagaches |
--------------- |
falkon1000 | Quel équivalent en perf des modèles commerciaux tu peux faire tourner en local sur un pc normal avec un gpu grand public ?
|
gagaches |
A mon niveau, c'est compliqué de mesurer car je suis pas expert et j'ai une cg 3060 avec 12go de ram, c'est un truc correct mais pas une HDG. Mais du coup, les modèles sont optimisés pour ça. DeepSeek team has demonstrated that the reasoning patterns of larger models can be distilled into smaller models, resulting in better performance compared to the reasoning patterns discovered through RL on small models. Below are the models created via fine-tuning against several dense models widely used in the research community using reasoning data generated by DeepSeek-R1. The evaluation results demonstrate that the distilled smaller dense models perform exceptionally well on benchmarks." Pour mes tests persos, je dirais : Ce qui va être gamechanger (mais faut que je poc ça) c'est un crewai avec plusieurs agents qui prend l'automatisation de tâches. Du coup, faire tourner ça en local sur une infra dédiée (au hasard un ex-rig de minage Message édité par gagaches le 14-03-2025 à 08:37:39 --------------- |
bulldozer_fusion rip Mekthoub |
--------------- feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas |
bulldozer_fusion rip Mekthoub |
--------------- feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas |
rz1 Profil supprimé |
non, c'est aussi simple que d'installer n'importe quelle application. Anything LLM, GPT4All , ... permettent sans difficulté de faire tourner une IA en local, si la conf matérielle le permet. Message cité 3 fois Message édité par rz1 le 14-03-2025 à 11:00:03 --------------- Message édité par rz1 le <INVALID FIELD TYPE> à <INVALID FIELD TYPE> - Message cité <INVALID VALUE> fois |
gagaches |
--------------- |
gremi Vieux con des neiges d'antan | LMStudio est très accessible également ...
--------------- In aligot we trust. |
CoyoteErable Dorée et Colorée |
Deux Mac studio M3 Ultra à 512GB reliés en Tb5 donne, par exemple, Deepseek R1 en 8 bits à 11 tokens/s. Quelques optimisations encore possibles j'imagine. https://x.com/alexocheema/status/1899735281781411907 Tu entraînes via fine-tuning ta propre version de cette LLM en cloud (OVH pour resté français et maître de ses données) et tu joues l'inférence + RAG/agents localement comme sur l'exemple. D'ici 1 ou 2 ans, on aura sûrement du hardware spécialisé encore plus performant et de bons logiciels pour dev des agents. On articulera plus facilement les besoins entre petites LLM et modèles plus volumineux pour les tâches qui nécessitent de la précision et de la réflexion. --------------- Bloqué par Végétarien Garçon |
falkon1000 |
|
XaTriX |
--------------- Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb |
CoyoteErable Dorée et Colorée |
--------------- Bloqué par Végétarien Garçon |
gagaches |
--------------- |
LibreArbitre La /root est longue |
--------------- Hebergement d'images |
CoyoteErable Dorée et Colorée |
Une RTX 3090 (la référence mémoire/prix en occas' pour l'inférence) c'est 930gb/s, la 4090 1,3 Tb/s et la 5090 c'est 1,7 Tb/s. Avec 24gb/32gb par GPU en fonction de la gen. Là, dans l'exemple donné, on a plus d'1Tb à 800gb/s donc plus que parfait pour de l'inférence, sachant que le GPU du M3 Ultra n'est pas à la ramasse sans être un foudre de guerre. C'est plutôt parfait pour des modèles type Mixture Of Experts comme DS R1 qui n'utilisent qu'une partie des paramètres pour l'inférence. --------------- Bloqué par Végétarien Garçon |
Rasthor |
|
XaTriX |
--------------- Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb |
crepator4 Deus ex machina | Alors claude m'a semblé differends niveau qualité de sorti et la ça parle de variation(changement de modele) selon la charge ...
--------------- ...survivre à ses Medecins... |
CoyoteErable Dorée et Colorée |
Ça peut l'être pour le fine tuning par contre --------------- Bloqué par Végétarien Garçon |
CoyoteErable Dorée et Colorée |
--------------- Bloqué par Végétarien Garçon |
XaTriX |
--------------- Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb |
CoyoteErable Dorée et Colorée |
https://github.com/exo-explore/exo/ [...] ls.py#L108 J'imagine que c'est différent avec du tensor parallel. J'avoue que ça dépasse mes compétences à ce stade haha. Mais oui, si ça dépasse, faut utiliser une version q6. Ou même une version dynamique comme celle de Unsloth si on manque vraiment beaucoup de place (mais qui fonctionne très bien apparemment). Message édité par CoyoteErable le 14-03-2025 à 16:34:11 --------------- Bloqué par Végétarien Garçon |
CoyoteErable Dorée et Colorée |
Par exemple, j'ai cité Unsloth qui propose une solution dynamique avec certaines couches à 1,5 bits et d'autres à 4 ou 6 bits. Ça permet de réduire grandement le poids du modèle (mieux vaut avoir un modèle qui tient dans la VRAM qu'un modèle qui ne tient pas et tourne à 0,5 tokens/s). https://unsloth.ai/blog/deepseekr1-dynamic Ça dépendra des usages, du nombre de paramètres, de l'architecture (MoE), du fine-tuning etc... Ça permet aussi de libérer de la place pour du contexte. Faire tenir le modèle c'est bien, envoyer plusieurs fichiers et/ou échanger plus de 3 messages, c'est mieux. --------------- Bloqué par Végétarien Garçon |
Publicité | Posté le ![]() ![]() |

FORUM HardWare.fr

Discussions

Actualité

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co| Sujets relatifs | |
|---|---|
| THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptable | Nombre de réponses par page par défaut |
| Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4 | Notification des réponses |
| mails d'avertissements des réponses sur hfr | [Questions sans réponses] Timidité, rejet, décès |
| (voiture) casi achat, besoin de réponses | [Le topic de toutes les réponses] |
| Je voudrais avoir vos réponses pour mes questions | APL petite question sans réponses |
| Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co | |


