| |||||
| Auteur | Sujet : -> Topic Serveurs@home |
|---|---|
jeffk | Reprise du message précédent : --------------- Le topic des badistes : 5 grammes de plumes, des tonnes d'émotions. |
Publicité | Posté le 04-10-2025 à 19:15:54 ![]() ![]() |
jeffk | persoent dnsmasq. --------------- Le topic des badistes : 5 grammes de plumes, des tonnes d'émotions. |
ibuprophet | unbound et/ou dnsproxy de la team adguard
|
LibreArbitre La /root est longue | Je viens de découvrir Dokploy et je suis enchanté par cette solution Message édité par LibreArbitre le 13-10-2025 à 16:52:53 --------------- Hebergement d'images |
dafunky | ça a l'air pas mal. est-ce que ça sait superviser des stacks docker-compose déjà en place, qu'il n'a pas déployées?
--------------- xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4 |
LibreArbitre La /root est longue |
L'IA est disponible oui, mais tu dois renseigner ta clé API (j'ai mis celle d'OpenRouter) mais il faut bien choisir son modèle car hier j'ai testé avec Gemini 2.5 Flash et c'était moisi (non fonctionnel) et OK avec Claude Sonnet 4.5, mais pas à tous les coups, je vais creuser mais ça semble manquer de stabilité... Après, ils proposent un paquet de templates de base... Après, pour du troubleshooting c'est un peu moins fin que Portainer mais bon, pour mon usage du moment, j'ai accès aux logs, au monitoring et aux terminaux et ça me suffit... Si tu veux je te donne un accès (c'est du PoC, fin du mois je déterminerai si je change de VPS pour un plus gros) pour que tu te fasses ton avis et que tu fasses des déploiements (j'ai un wildcard sur un sous-domaines donc pas de risques)... Edit : Invitation envoyée sur Didi Message édité par LibreArbitre le 15-10-2025 à 10:16:37 --------------- Hebergement d'images |
Moz007 | |
kouby |
--------------- )><(((((°> |
Ivy gu 3 blobcats dans un trenchcoat |
ptibeur Today you, tomorrow me | Chaud à trouver même quand on l'a sous le nez --------------- - Hey, why do you have an unlit cigarette ? - Because I don't smoke. |
Publicité | Posté le 17-10-2025 à 16:07:06 ![]() ![]() |
dafunky | Il y a moultes possibilités mais si tu as l'habitude d'assembler des configs, et vu que ça part dans le garage, voici ma config précédente qui répondait largement à ton besoin pour un budget serré : Message édité par dafunky le 20-10-2025 à 00:29:10 --------------- xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4 |
spence foxtrot ^^ | Hello, Du coup je cherche à avoir des idées sur une cm matx (je pense y mettre une carte pour des sata en plus, probablement une carte sfp+ ausi). Evidement, une alim (forma sfp ou flex ?) Et surtout, avec un cpu qui consomme rien pas trop vieux (un n100 ça aurait été bien non ?) Message édité par spence foxtrot le 02-11-2025 à 22:03:10 --------------- Revendre vos jeux Steam, Origin et Cie individuellement |
bobby8921 | En carte mère, tu as la Topton n18 en format mini itx. À confirmer quand même qu'elle peut recevoir ce que tu comptais ajouter. |
Ivy gu 3 blobcats dans un trenchcoat | Mini itx avec 2 ports pcie ça va être compliqué --------------- The Mystery of the Bloomfield Bridge |
fegre Voleur professionnel | En sacrifiant un M2 tu peux avoir la carte pour les SATA dessus et la carte sfp sur le pcie Le problème c'est plutôt les lignes pcie à un moment... |
spence foxtrot ^^ | une matx passe large dans ce boitier hein, c'est pour ça que je parle de matx ^^ Message édité par spence foxtrot le 03-11-2025 à 17:15:14 --------------- Revendre vos jeux Steam, Origin et Cie individuellement |
kouby | https://nascompares.com/review/cwwk [...] bo-review/ Ça coche quelques cases je crois Message édité par kouby le 03-11-2025 à 22:44:14 --------------- )><(((((°> |
SirGallahad Girouette Pro |
--------------- Oui. Non. Peut être... |
LibreArbitre La /root est longue |
--------------- Hebergement d'images |
LibreArbitre La /root est longue | Oui, ça fait le job pour des tâches simples mais extenue1 avance deux éléments : Du développement de scripts et l'espérance d'un LLM plus rapide que ChatGPT, ce qui est totalement impossible... Et sinon il ne parle pas de développer ses propres modèles (le training) mais de générer du code (l'inférence) Edit : Autant le training (ou le fine-tuning) d'un LLM est impossible sans avoir un budget de plusieurs millions d'euros (oui oui) autant faire du training d'un modèle prédictif est à la portée (relative) de chacun. Pour ceux que ça intéresse : https://www.sas.com/en_gb/insights/ [...] rning.html Message édité par LibreArbitre le 04-11-2025 à 11:22:24 --------------- Hebergement d'images |
LibreArbitre La /root est longue |
La plupart des gens ne le savent pas mais c'est pas tant le poids du modèle qui consomme de la VRAM mais le contexte, dès qu'on dépasse les 8K. La base de calcul pour l'estimation de la VRAM est : (Parameters × Precision Factor) + (Context Size × 0.0005). Pour un modèle de 8B en fp8 ça donne : - 8K de contexte : 12 Go de VRAM En fp16 c'est le double. Si on passe sur un modèle exploitable (pour du dev) alors il faut passer à un modèle avec 30B de paramètres et donc ajouter +22 Go de VRAM aux valeurs précédentes, en gardant en tête que pour du dev un minimum sérieux il faut tabler sur un contexte de 128K... Oubliez aussi le fp4, c'est pas exploitable. Voici un très bon article (OVH blog) sur le dimensionnement d'une infra en tenant compte de tous les facteurs : https://blog.ovhcloud.com/gpu-for-l [...] ing-guide/ Alors bien entendu tu vas me dire qu'avec l'offloading tu peux décharger la VRAM de ton GPU mais on parle d'une baisse de perf d'un facteur 4...
En cas de perte de réseau ou de gros plantage tu seras sûrement content de pouvoir troubleshooter ou rebooter sur un kernel de debug, ce qui ne sera pas possible si tu n'as pas d'accès console (https://www.codequoi.com/difference [...] -et-shell/. Alors en vrai c'est à nuancer car si ton système est mort alors ton GPU ne sera pas assigné à ta VM ou à ton container donc disponible pour la console locale mais dans tous les cas, avec du VT-d (IOMMU) c'est quand même mieux d'avoir un autre GPU... Honnêtement, je n'arrive pas à identifier un cas de figure où il est pertinent de ne s'appuyer que sur de l'inférence locale. Les aspects de privacy/souveraineté ça s'entend mais pour être utilisable en production (pour de vrais projets, car si c'est pour générer des scripts de 100 lignes alors l'IA n'a que peu de valeur ajoutée, autant se former) éh bien il te faudra de vraies cartes et là c'est un autre monde, d'où l'intérêt de passer par des API... Loin de moi de critiquer l'approche locale, j'ai qu'une 5070 Ti qui me sert à des tests locaux et pour générer des images via ComfyUI (entre autre) et pour du machine learning (training de modèles prédictifs) mais pour le reste j'ai mon instance Open WebUI que j'utilise avec OpenRouter et là c'est performant (évitez les modèles gratuits pour une question de privacy)... Mais ce n'est que mon avis Edit : dadamonhfr, autant acheter deux RTX 3090 pour le même prix, voire le GPU de Huawei, le Huawei Atlas 300I à $1,400 (96 Go de VRAM. Ça permet de charger de gros modèles mais en terme de perf c'est pas fou par contre en terme de tokens/s, voir https://www.reddit.com/r/LocalLLaMA [...] w=original en notant que ça tourne a priori pas dans un PC classique mais une archi particulière il me semble, j'ai pas trop suivi pour être honnête)... Edit 2 : Par contre ça vaut le coût de surveiller le NVIDIA DGX Spark (mais le prix pique !) Edit 3 : Notez qu'en terme de performances (génération de tokens par seconde) le facteur limitant c'est la vitesse de la bande-passante mémoire, pas TMU/ROP/SM/Tensor Cores, ce qui rend les H100 si performantes c'est leur BP qui atteint 2.04 TB/s (en HBM2e). Message édité par LibreArbitre le 04-11-2025 à 16:57:53 --------------- Hebergement d'images |
LibreArbitre La /root est longue |
- Si tu utilises déjà VS Code alors il y a des extensions pour Gemini, Claude et Codex. Si tu veux utiliser un grand nombre de LLM tu peux utiliser l'extension Kilo Code, Roo Code, Cline et d'autres Par contre note que pour la plupart de ces usages tu vas devoir un abo payant, et à mon sens le plus intéressant est OpenAI Codex (avec ChatGPT Plus) et Gemini (via l'abo Google AI Pro tu auras aussi accès à Veo 3.1 et quantité d'autres outils + un stockage de 2 To). Si tu veux rester sur un IDE comme VS Code alors Kilo Code est top (et tu peux commencer avec des crédits gratuits voire $40 de crédits juste en payant $5, sachant qu'ils ne prennent pas de com' sur le crédit qui servira aux modèles... Edit : J'ai lu trop vite, si tu veux juste générer des scripts en PS alors effectivement reste sur ChatGPT car le monde sandbox ne te servira pas, par contre dès que tu voudras faire plus tu seras bloqué... Pour ma part j'utilise un peu tous ces modes, pour générer des SaaS complet (front, back, FastAPI, CI/CD, documentation, etc. Enfin, pour arrêter le HS tu peux venir sur un des topics dédiés : https://forum.hardware.fr/hfr/Discu [...] 0036_1.htm Pour les autres, désolé pour le HS Message édité par LibreArbitre le 05-11-2025 à 00:12:03 --------------- Hebergement d'images |
lestat67sel :-) |
|
_pollux_ Pan ! t'es mort | bah, normalement, si t'es chez toi, ça doit continuer de marcher. Le problème se pose plus si tu n'es pas chez toi, parce que monter une infra avec réplication des services sur un autre site, c'est là que ça se complique vraiment. --------------- Le topic du sport électronique@hfr : watch the l33t ! |
fegre Voleur professionnel |
Là je suis bon pour attendre mardi le rdv avec le tech avec pour solution de secours un routeur 4G et 5Mbits/s de débit en pointe |
fegre Voleur professionnel | Ben voilà, entre autres |
_pollux_ Pan ! t'es mort | Le seul truc qui me ferait chier, personnellement, c'est le suivi de ma production en panneau solaire... Qui passe par un cloud inévitable --------------- Le topic du sport électronique@hfr : watch the l33t ! |
fegre Voleur professionnel |
Publicité | Posté le ![]() ![]() |

| Sujets relatifs | |
|---|---|
| Avez-vous testé le Linksys Wag354G ? Topic officiel Wag354g | [Topic R+] Free non-dégroupé |
| *** Configurer son Speed Touch Home pour Free Dégroupé | [Topic R+] Orange --- adsl 2+ --- |
| [Topic R+] Orange --- adsl Max --- | |
| Plus de sujets relatifs à : -> Topic Serveurs@home | |





