|
Auteur | Sujet : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co |
---|
Funky Max And then, I woke up. | Reprise du message précédent : |
![]() Publicité | Posté le 13-03-2025 à 20:52:32 ![]() ![]() |
gagaches |
C'est tellement vaste en fait comme question. 1/ Veille techno : identifier les personnes intéressantes qui parlent de trucs concrets et pas de bullshit technique. Philippe dont je parlais avant est bien, il est de Microsoft donc forcément, vous verrez principalement du chatGPT/copilot. Son linkedin pour suivre ses publications : Paul Péton, Microsoft AI MVP (il rentre plus dans le technique data/ia) Et comme il (co-)anime la Global AI Community France :
3/ regarder ce que partagent les autres. 4/ tester sur le tas et se faire ses convictions (argumentées si possible Message cité 2 fois Message édité par gagaches le 13-03-2025 à 21:55:21 --------------- |
bulldozer_fusion rip Mekthoub |
--------------- feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas |
crepator4 Deus ex machina | Bon , je veut faire une sorte de youtube downloader pour recup mes videos , le claude il veut pas ,je risque trop d'atteindre aux droits d'auteurs
Message cité 1 fois Message édité par crepator4 le 13-03-2025 à 22:01:27 --------------- ...survivre à ses Medecins... |
gagaches |
--------------- |
crepator4 Deus ex machina | j'ai essayé de pleurer,ça a moyennement fonctionner,la il me fait un bouton lien qui m'envoie via un autre site ... bon ça devient un jeu, je retente ... faire le tour des zotres modeles aussi ... Message cité 1 fois Message édité par crepator4 le 13-03-2025 à 22:21:42 --------------- ...survivre à ses Medecins... |
Funky Max And then, I woke up. |
J'ai organisé mon dernier voyage en partant de suggestions IA par contre j'ai trouvé que ça avait super bien fonctionné avec des programmes cohérents.
Merci Message cité 1 fois Message édité par Funky Max le 13-03-2025 à 22:23:39 |
bulldozer_fusion rip Mekthoub | Deep research est passé gratos avec Gemini --------------- feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas |
n@thou Scandinavie ♥ |
|
gagaches |
--------------- |
![]() Publicité | Posté le 13-03-2025 à 23:24:30 ![]() ![]() |
crepator4 Deus ex machina | a oki, moi je pensais passer par un service web tiers, ce qu'il m'avait proposé (dont notamment y2mate qui semble mort depuis lurette),derniers essais avec cobalt infructueux mais un batch et un .exe c'est pas plus mal Message édité par crepator4 le 14-03-2025 à 01:02:59 --------------- ...survivre à ses Medecins... |
falkon1000 | Attention Gemini Deep research est limité à 5 par période glissante de 31 jours
--------------- https://www.instagram.com/crustobsession |
gagaches |
--------------- |
falkon1000 | Quel équivalent en perf des modèles commerciaux tu peux faire tourner en local sur un pc normal avec un gpu grand public ?
--------------- https://www.instagram.com/crustobsession |
gagaches |
A mon niveau, c'est compliqué de mesurer car je suis pas expert et j'ai une cg 3060 avec 12go de ram, c'est un truc correct mais pas une HDG. Mais du coup, les modèles sont optimisés pour ça. DeepSeek team has demonstrated that the reasoning patterns of larger models can be distilled into smaller models, resulting in better performance compared to the reasoning patterns discovered through RL on small models. Below are the models created via fine-tuning against several dense models widely used in the research community using reasoning data generated by DeepSeek-R1. The evaluation results demonstrate that the distilled smaller dense models perform exceptionally well on benchmarks." Pour mes tests persos, je dirais : Ce qui va être gamechanger (mais faut que je poc ça) c'est un crewai avec plusieurs agents qui prend l'automatisation de tâches. Du coup, faire tourner ça en local sur une infra dédiée (au hasard un ex-rig de minage Message édité par gagaches le 14-03-2025 à 08:37:39 --------------- |
falkon1000 | Intéressant. Pour l'instant ça requiert des connaissances qui dépassent celles de 90% des gens (j'y mets tout employé possible) mais on peut imaginer qu'on aura rapidement des LLM locaux assez corrects et hyper simple à utiliser. Si j'ai bien compris c'est ce que vise Apple avec Apple Intelligence et ses puces silicon très efficaces.
--------------- https://www.instagram.com/crustobsession |
bulldozer_fusion rip Mekthoub |
--------------- feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas |
bulldozer_fusion rip Mekthoub |
--------------- feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas |
rz1 Profil supprimé |
non, c'est aussi simple que d'installer n'importe quelle application. Anything LLM, GPT4All , ... permettent sans difficulté de faire tourner une IA en local, si la conf matérielle le permet. Message cité 3 fois Message édité par rz1 le 14-03-2025 à 11:00:03 --------------- Message édité par rz1 le <INVALID FIELD TYPE> à <INVALID FIELD TYPE> - Message cité <INVALID VALUE> fois |
gagaches |
--------------- |
gremi Vieux con des neiges d'antan | LMStudio est très accessible également ...
--------------- In aligot we trust. |
CoyoteErable Dorée et Colorée |
Deux Mac studio M3 Ultra à 512GB reliés en Tb5 donne, par exemple, Deepseek R1 en 8 bits à 11 tokens/s. Quelques optimisations encore possibles j'imagine. https://x.com/alexocheema/status/1899735281781411907 Tu entraînes via fine-tuning ta propre version de cette LLM en cloud (OVH pour resté français et maître de ses données) et tu joues l'inférence + RAG/agents localement comme sur l'exemple. D'ici 1 ou 2 ans, on aura sûrement du hardware spécialisé encore plus performant et de bons logiciels pour dev des agents. On articulera plus facilement les besoins entre petites LLM et modèles plus volumineux pour les tâches qui nécessitent de la précision et de la réflexion. --------------- "Je prononce à regret cette fatale vérité...mais Louis doit mourir parce qu'il faut que la patrie vive." |
falkon1000 |
--------------- https://www.instagram.com/crustobsession |
XaTriX |
--------------- "Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020 |
CoyoteErable Dorée et Colorée |
--------------- "Je prononce à regret cette fatale vérité...mais Louis doit mourir parce qu'il faut que la patrie vive." |
gagaches |
--------------- |
LibreArbitre La /root est longue |
--------------- Hebergement d'images | Le topic de la VR standalone |
falkon1000 | Oui sur Gemini je suis en gratuit. Jusqu'à la sortie de Gemini 2.0 j'avais toujours trouvé les modèles Google complètement à la ramasse et ne parlons même pas de Bard.
--------------- https://www.instagram.com/crustobsession |
CoyoteErable Dorée et Colorée |
Une RTX 3090 (la référence mémoire/prix en occas' pour l'inférence) c'est 930gb/s, la 4090 1,3 Tb/s et la 5090 c'est 1,7 Tb/s. Avec 24gb/32gb par GPU en fonction de la gen. Là, dans l'exemple donné, on a plus d'1Tb à 800gb/s donc plus que parfait pour de l'inférence, sachant que le GPU du M3 Ultra n'est pas à la ramasse sans être un foudre de guerre. C'est plutôt parfait pour des modèles type Mixture Of Experts comme DS R1 qui n'utilisent qu'une partie des paramètres pour l'inférence. --------------- "Je prononce à regret cette fatale vérité...mais Louis doit mourir parce qu'il faut que la patrie vive." |
Rasthor |
|
XaTriX |
--------------- "Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020 |
crepator4 Deus ex machina | Alors claude m'a semblé differends niveau qualité de sorti et la ça parle de variation(changement de modele) selon la charge ...
--------------- ...survivre à ses Medecins... |
CoyoteErable Dorée et Colorée |
Ça peut l'être pour le fine tuning par contre --------------- "Je prononce à regret cette fatale vérité...mais Louis doit mourir parce qu'il faut que la patrie vive." |
CoyoteErable Dorée et Colorée |
--------------- "Je prononce à regret cette fatale vérité...mais Louis doit mourir parce qu'il faut que la patrie vive." |
XaTriX |
--------------- "Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020 |
CoyoteErable Dorée et Colorée |
https://github.com/exo-explore/exo/ [...] ls.py#L108 J'imagine que c'est différent avec du tensor parallel. J'avoue que ça dépasse mes compétences à ce stade haha. Mais oui, si ça dépasse, faut utiliser une version q6. Ou même une version dynamique comme celle de Unsloth si on manque vraiment beaucoup de place (mais qui fonctionne très bien apparemment). Message édité par CoyoteErable le 14-03-2025 à 16:34:11 --------------- "Je prononce à regret cette fatale vérité...mais Louis doit mourir parce qu'il faut que la patrie vive." |
CoyoteErable Dorée et Colorée |
Par exemple, j'ai cité Unsloth qui propose une solution dynamique avec certaines couches à 1,5 bits et d'autres à 4 ou 6 bits. Ça permet de réduire grandement le poids du modèle (mieux vaut avoir un modèle qui tient dans la VRAM qu'un modèle qui ne tient pas et tourne à 0,5 tokens/s). https://unsloth.ai/blog/deepseekr1-dynamic Ça dépendra des usages, du nombre de paramètres, de l'architecture (MoE), du fine-tuning etc... Ça permet aussi de libérer de la place pour du contexte. Faire tenir le modèle c'est bien, envoyer plusieurs fichiers et/ou échanger plus de 3 messages, c'est mieux. --------------- "Je prononce à regret cette fatale vérité...mais Louis doit mourir parce qu'il faut que la patrie vive." |
![]() Publicité | Posté le ![]() ![]() |