Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2516 connectés 

 


Parlons réseau, vous êtes plutôt?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  1761  1762  1763  1764  1765  1766
Auteur Sujet :

-> Topic Serveurs@home

n°1263603
jeffk
Posté le 04-10-2025 à 19:15:54  profilanswer
 

Reprise du message précédent :
oui


---------------
Le topic des badistes : 5 grammes de plumes, des tonnes d'émotions.
mood
Publicité
Posté le 04-10-2025 à 19:15:54  profilanswer
 

n°1263604
jeffk
Posté le 04-10-2025 à 19:18:28  profilanswer
 
n°1263618
ibuprophet
Posté le 05-10-2025 à 14:35:37  profilanswer
 

unbound et/ou dnsproxy de la team adguard
https://github.com/AdguardTeam/dnsproxy

n°1263862
LibreArbit​re
La /root est longue
Posté le 13-10-2025 à 16:17:24  profilanswer
 

Je viens de découvrir Dokploy et je suis enchanté par cette solution :)
 
La génération automatique des subdomains et l'ajout auto des labels pour Traefik c'est franchement top :love:
 
A l'origine je cherchais une solutions de déploiement rapide pour mes dev en vibe coding et franchement ça fait le taff...
 
J'avais hésité avec Coolify, CapRover et Komodo mais Dokploy me semblait plus complet, même s'il est encore jeune...
 
De là à migrer de Portainer vers Dokploy peut-être pas encore mais c'est une belle découverte :jap:
 
Edit : Ha et j'oubliais la feature vraiment top, "AI Assistant" qui permet de générer un template custom, qui depuis une prompt (le besoin), propose 3 variantes, et génère le docker compose adapté à notre environnement, le .env, le domaine à utiliser et la config de l'application :love:


Message édité par LibreArbitre le 13-10-2025 à 16:52:53

---------------
Hebergement d'images
n°1263887
dafunky
Posté le 15-10-2025 à 00:03:51  profilanswer
 

ça a l'air pas mal. est-ce que ça sait superviser des stacks docker-compose déjà en place, qu'il n'a pas déployées?
 
Tu utilises la version gratuite? L'IA est disponible sur la version gratuite?


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1263892
LibreArbit​re
La /root est longue
Posté le 15-10-2025 à 09:56:41  profilanswer
 

dafunky a écrit :

ça a l'air pas mal. est-ce que ça sait superviser des stacks docker-compose déjà en place, qu'il n'a pas déployées?


Non, il faut les recréer sur Dokploy autant que je sache.

 
Citation :

Tu utilises la version gratuite? L'IA est disponible sur la version gratuite?


Il n'y a pas de version gratuite ou payante en soi, ils proposent juste un service d'infogérance (pas cher du tout par ailleurs) mais tu as toutes les fonctionnalités sauf Remote Servers Monitoring forcément, c'est le même produit, pas deux lignes distinctes...

 

L'IA est disponible oui, mais tu dois renseigner ta clé API (j'ai mis celle d'OpenRouter) mais il faut bien choisir son modèle car hier j'ai testé avec Gemini 2.5 Flash et c'était moisi (non fonctionnel) et OK avec Claude Sonnet 4.5, mais pas à tous les coups, je vais creuser mais ça semble manquer de stabilité... Après, ils proposent un paquet de templates de base...

 

Après, pour du troubleshooting c'est un peu moins fin que Portainer mais bon, pour mon usage du moment, j'ai accès aux logs, au monitoring et aux terminaux et ça me suffit...

 

Si tu veux je te donne un accès (c'est du PoC, fin du mois je déterminerai si je change de VPS pour un plus gros) pour que tu te fasses ton avis et que tu fasses des déploiements (j'ai un wildcard sur un sous-domaines donc pas de risques)...

 

Edit : Invitation envoyée sur Didi ;)


Message édité par LibreArbitre le 15-10-2025 à 10:16:37

---------------
Hebergement d'images
n°1263911
Moz007
Posté le 15-10-2025 à 17:50:28  profilanswer
 

[:michrone]

n°1263951
kouby
Posté le 16-10-2025 à 19:26:56  profilanswer
 

https://rehost.diberie.com/Picture/Get/f/440459
3 jours que je cherchais pourquoi le reverse dns ne fonctionnait pas  [:cheesecake]


---------------
)><(((((°>
n°1263964
Ivy gu
3 blobcats dans un trenchcoat
Posté le 17-10-2025 à 01:42:16  profilanswer
 
n°1263979
ptibeur
Today you, tomorrow me
Posté le 17-10-2025 à 16:07:06  profilanswer
 

Chaud à trouver même quand on l'a sous le nez :D


---------------
- Hey, why do you have an unlit cigarette ? - Because I don't smoke.
mood
Publicité
Posté le 17-10-2025 à 16:07:06  profilanswer
 

n°1264014
ParanoYak
Posté le 19-10-2025 à 10:20:21  profilanswer
 

Bonjour,
 
Nouveau ici, auriez vous des conseils pour un setup homelab.
 
Je suis actuellement sur une vieille machine de récupération Intel(R) Celeron(R) CPU G1830 @ 2.80GHz avec 4 Gb RAM sous Ubuntu 20.04.6 LTS et un disque IDE de 4Tb (de la récup datant d'il y a 10 ans). Outre la consommation qui doit pas être top (et encore ça va, je suis à 30W en idle), ça montre ses limites pour la décompression des gros fichiers, les débits wireguard ou mon instance NextCloud qui rame.
 
Je souhaiterais donc passer vers quelque chose de plus futur proof.
 
J'héberge les services suivants :
- Serveur wireguard
- Nextcloud
- Nzbget
- Radarr, Sonarr & co
- Serveur de fichier avec backup sur NAS
- Serveur domotique (basé sur OpenHab)
 
C'est une utilisation assez modeste (mais qui peut être amené à évoluer) et qui fonctionne plutôt bien mais je me rends compte que j'aimerais profiter de la virtualisation avec Proxmox pour pouvoir gérer proprement des backup si je casse tout, avoir une VM sandbox et pourquoi pas une VM windows en accès RDP pour l'utilisation de softs windows only (étant sur Mac).
 
Auriez vous des conseils pour le matos dans lequel investir ?  
J'étais tombé sur le Shuttle DL30N à base de N100, avec 1Tb SSD + 16gb de RAM cela revient à environ 450euros --> mais peut être il y a plus efficace en terme de rapport qualité / prix (la RAM est peut être limite ?). Le refroidissement passif n'étant pas forcément nécessaire (la machine sera dans le garage).


Message édité par ParanoYak le 19-10-2025 à 10:22:01
n°1264036
dafunky
Posté le 20-10-2025 à 00:26:40  profilanswer
 

Il y a moultes possibilités mais si tu as l'habitude d'assembler des configs, et vu que ça part dans le garage, voici ma config précédente qui répondait largement à ton besoin pour un budget serré :  
 
- Ryzen 5600G
- Carte mère B450m 4 slots
- 2X32Go DDR4, ou 2x16Go si tu veux tirer sur le budget
- le reste à ta convenance
 
Le ryzen et la carte maman se dégotent sur leboncoin pour une bouchée de pain
 
Les 2x32Go j'ai payé ça 95€ sur amazon
 
J'ai payé un SSD MLC SATA III 512go 33€ sur amazon. Je m'en sers pour le système (proxmox) et les VM. Je privilégie le type de NAND à la performance, j'ai déjà descendu un SSD TLC. Pour le stockage j'ai ajouté un SSD 4to (c'est un autre budget), et pour le backup j'ai un HDD 8To.


Message édité par dafunky le 20-10-2025 à 00:29:10

---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1264107
Kha-sou
Posté le 21-10-2025 à 13:14:27  profilanswer
 

Bonjour à tous
J'ai un soucis avec mon setup pihole/nginx
Les 2 sont installés sur mon serveur local dans des containers. pihole sur le network : host, nginx sur un network dédié (npm).
J'ai qqls containers media (Sonarr, Radarr) qui tournent sur le même serveurs en bridge. J'ai ajouté le network "npm" au container Radarr, j'ai créé un local DNS record "radarr.home" dans pihole (IP = addresse IP du serveur local), j'ai créé un proxy host sur nginx "radarr.home" pointant vers l'adresse IP du serveur + port mappé que j'utilise normalement pour accéder à radarr
Et pourtant j'ai une erreur 403:
https://rehost.diberie.com/Picture/Get/f/441746

n°1264432
spence fox​trot
^^
Posté le 02-11-2025 à 21:58:43  profilanswer
 

Hello,
Je viens de me prendre ça sur un coup de tete : (84€ - 10€ de cashback en plus igraal)
https://fr.aliexpress.com/item/1005007329288791.html

 

Du coup je cherche à avoir des idées sur une cm matx (je pense y mettre une carte pour des sata en plus, probablement une carte sfp+ ausi).

 

Evidement, une alim (forma sfp ou flex ?)

 

Et surtout, avec un cpu qui consomme rien pas trop vieux (un n100 ça aurait été bien non ?)
L'idée c'est de me faire un NAS pour partager pour mes firestick (mes vidéos de vacances évidement), et potentiellement des target iscsi. Je penche pour une debian pure tout à la mano.


Message édité par spence foxtrot le 02-11-2025 à 22:03:10

---------------
Revendre vos jeux Steam, Origin et Cie individuellement
n°1264443
bobby8921
Posté le 03-11-2025 à 12:02:21  profilanswer
 

En carte mère, tu as la Topton n18 en format mini itx. À confirmer quand même qu'elle peut recevoir ce que tu comptais ajouter.

n°1264446
Ivy gu
3 blobcats dans un trenchcoat
Posté le 03-11-2025 à 14:17:48  profilanswer
 

Mini itx avec 2 ports pcie ça va être compliqué


---------------
The Mystery of the Bloomfield Bridge
n°1264447
fegre
Voleur professionnel
Posté le 03-11-2025 à 14:27:30  profilanswer
 

En sacrifiant un M2 tu peux avoir la carte pour les SATA dessus et la carte sfp sur le pcie

 

Le problème c'est plutôt les lignes pcie à un moment...

n°1264454
spence fox​trot
^^
Posté le 03-11-2025 à 17:14:47  profilanswer
 

une matx passe large dans ce boitier hein, c'est pour ça que je parle de matx ^^


Message édité par spence foxtrot le 03-11-2025 à 17:15:14

---------------
Revendre vos jeux Steam, Origin et Cie individuellement
n°1264461
kouby
Posté le 03-11-2025 à 22:43:22  profilanswer
 

https://nascompares.com/review/cwwk [...] bo-review/

 

Ça coche quelques cases je crois


Message édité par kouby le 03-11-2025 à 22:44:14

---------------
)><(((((°>
n°1264464
extenue1
Posté le 04-11-2025 à 00:35:43  profilanswer
 

Je compte me monter un home server pour faire homelab:
  - VMs windows dont une pour remplacer mon       PC bureau (Outlook , Teams , ...)
  - VM IA pour LLM locale (scripts PS , SQL , Python) pour etre plus rapide que chatGPT
  - VM gaming tant qu'a faire pour profiter de la CG du point précédent. (Moonlight / Sunshine)

 

Pas de NAS , serveur allumé 18h par jour 7j/7 normalement donc la consommation fais partie de l'équation.

 

Y'en a ici qui font qqchose de similaire ?

 

Je cherche a savoir quel serait le meilleur proc et la meilleure CM , je pars sur du 64 Go de RAM , il me faut tout sauf les SSD que j'ai deja , budget entre 1.5 et 2k , je ne m'y connais plus vraiment en matos donc tout aide est la bienvenue.

 

idealement le setup dure 5 ans (peut être que je rêve la) , en partant sur du home made (enfin que je ferais monter par une boite en ligne)  je me dis que je serais flexible.

 

J'essaye de ne pas me laisser tenter par les sirènes des MiniPCs mais tout argument est le bienvenu , ceci etant dit est ce que les mini PCs sont vraiment tailles pour heberger des LLM.

 

n°1264470
SirGallaha​d
Girouette Pro
Posté le 04-11-2025 à 07:58:14  profilanswer
 

extenue1 a écrit :

Je compte me monter un home server pour faire homelab:
  - VMs windows dont une pour remplacer mon       PC bureau (Outlook , Teams , ...)
  - VM IA pour LLM locale (scripts PS , SQL , Python) pour etre plus rapide que chatGPT
  - VM gaming tant qu'a faire pour profiter de la CG du point précédent. (Moonlight / Sunshine)

 

Pas de NAS , serveur allumé 18h par jour 7j/7 normalement donc la consommation fais partie de l'équation.

 

Y'en a ici qui font qqchose de similaire ?

 

Je cherche a savoir quel serait le meilleur proc et la meilleure CM , je pars sur du 64 Go de RAM , il me faut tout sauf les SSD que j'ai deja , budget entre 1.5 et 2k , je ne m'y connais plus vraiment en matos donc tout aide est la bienvenue.

 

idealement le setup dure 5 ans (peut être que je rêve la) , en partant sur du home made (enfin que je ferais monter par une boite en ligne)  je me dis que je serais flexible.

 

J'essaye de ne pas me laisser tenter par les sirènes des MiniPCs mais tout argument est le bienvenu , ceci etant dit est ce que les mini PCs sont vraiment tailles pour heberger des LLM.

 



Sans contraintes de taille, y a pas vraiment de mauvais choix je pense n'importe quel cpu dans ton budget. L'idée est plutôt dimensionnée ce que tu veux faire avec.
S'il y a du jeux un cpu récent.
Les mini pc sont cool mais pour jouer cela dépend de ton attendu.
Pour l'IA, avec les méga adressage de ram, cela doit être bien. Perso, je trouve que je suis vite limité avec mon ancêtre.
Enfin, s'il faut jouer+ ia en simultané. Va falloir de la ram et potentiellement plusieurs gpu.


---------------
Oui. Non. Peut être...
n°1264472
SirGallaha​d
Girouette Pro
Posté le 04-11-2025 à 08:02:01  profilanswer
 

Hier j'ai tenté de mettre cockpit sur ma debian.
Il a fonctionné 1h. J'ai coupé puis au retour impossible de s'authentifier.
Je me suis dit, normal c'est a cause du pam.
J'ai tourné pendant 2h sans réussir a trouver la config qui va bien.
La double authentification via google fonctionne sans soucis en ssh et pour le vpn.
Quelqu'un aurait un tuto/astuce ou un concurrent ?

 


J'ai par contre installé portainer avec succès. Pour l'instant pas convaincu du truc.
J'ai tenté 2/3 choses en suivant leurs tuto. Par forcément un succès a chaque fois. Par contre ce sera pratique pour gérer la stack en cas de modification a distance.


---------------
Oui. Non. Peut être...
n°1264478
LibreArbit​re
La /root est longue
Posté le 04-11-2025 à 09:53:48  profilanswer
 

extenue1 a écrit :

 - VM IA pour LLM locale (scripts PS , SQL , Python) pour etre plus rapide que chatGPT


Je pense que tu rêves éveillé... Déjà, il te faudra un GPU avec beaucoup de VRAM, tant pour charger le modèle en lui-même mais surtout, et de façon exponentielle, pour augmenter la taille du contexte. Quoiqu'il en soit, si tu parviens à générer une vitesse supérieure à ChatGPT (qui n'est pas fait pour du dev soi dit en passant, il y a des outils dédiés pour ça) alors ça sera au détriment de la qualité, et de très loin...
 
Après, pour du dev de petits scripts (car tu ne pourras pas dépasser une fenêtre contextuelle de plus de 8K tokens sans avoir besoin de plus de 32 Go de VRAM - on ne parle pas de RAM ici, mais bien de VRAM) ça pourra faire le job mais à peine...
 
A la limite il serait plus pertinent de te créer un container Open WebUI et d'utiliser l'endpoint d'OpenRouter. Alors oui c'est pas gratuit mais certains modèles ne sont pas chers du tout (moins de $1 pour 1M tokens en output) et très performants.
 
De plus, si tu tiens vraiment à assigner un GPU à ta VM alors il faudra que ton proco prenne en charge le VT-d et donc que ton CPU intègre un IGP pour les autres besoins, notamment l'affichage de la console locale.
 
Après, si t'as les moyens de t'offrir une H100 (30-35K HT) alors oui tu ne rencontreras aucun problème :jap:


---------------
Hebergement d'images
n°1264484
raukoras
Posté le 04-11-2025 à 11:07:25  profilanswer
 

Globalement d'accord avec LibreArbitre.

 

Une petite nuance cependant, le GPU va fortement dépendre de l'attendu.

 

Je fais tourner des petits modèles (7B) sur une 1050ti, donc pas forcément besoin de la puissance de calcul d'un datacenter. Mais ça reste limité à des trucs simples (e.g. classifier un email, et pré-rédiger une réponse) et il ne faut pas être pressé (3 minutes de bout en bout).

 

Pour essayer de développer ses propres modèles, ouai il faut en revanche une machine de guerre.

n°1264485
LibreArbit​re
La /root est longue
Posté le 04-11-2025 à 11:18:56  profilanswer
 

Oui, ça fait le job pour des tâches simples mais extenue1 avance deux éléments : Du développement de scripts et l'espérance d'un LLM plus rapide que ChatGPT, ce qui est totalement impossible...

 

Et sinon il ne parle pas de développer ses propres modèles (le training) mais de générer du code (l'inférence) ;)

 

Edit : Autant le training (ou le fine-tuning) d'un LLM est impossible sans avoir un budget de plusieurs millions d'euros (oui oui) autant faire du training d'un modèle prédictif est à la portée (relative) de chacun. Pour ceux que ça intéresse : https://www.sas.com/en_gb/insights/ [...] rning.html


Message édité par LibreArbitre le 04-11-2025 à 11:22:24

---------------
Hebergement d'images
n°1264486
SirGallaha​d
Girouette Pro
Posté le 04-11-2025 à 11:25:40  profilanswer
 

Avec une Quaddro RTX 4000 (8gb) et 128 go de ram sur des modèles autour de 8B, les réponses sont quasiment instantanées.
Mais leur pertinence est largement en dessous de chatgpt et consorts.
C'est cool pour faire des tests mais cela ne va pas beaucoup plus loin. Imo

 

Pour afficher la console, etc en ssh, un seul gpu suffit. Mais il est vite en limite. J'ai essayé mistral nemo7b + stable diffusion. Les perf étaient lamentables quand cela ne crashais pas.


---------------
Oui. Non. Peut être...
n°1264488
dadamonhfr
Posté le 04-11-2025 à 11:42:49  profilanswer
 

Pour le matos orienté LLM, il y a les nouveaux Ryzen AI 395 qui sont bien.
En gros ça donne :
- quasi 120 Go de RAM accessible en mémoire partagée.
- Une bande passante de 250 Go/s . C'est pas pareil qu'un GPU digne de ce nom mais c'est beaucoup mieux que la vitesse classique de la RAM sur PC classique
- un iGPU ultra boosté par rapport aux iGPU qu'on a l'habitude de voir

 

Ça coute entre 1500 et 2500 € (en fonction du constructeur)

 

C'est plutôt intéressant pour ceux qui utilisent des modèles MoE comme le dernier GPT-OSS de Open AI ou certains modèles de QWEN

 

Et éventuellement il y a moyen de bidouiller et ajouter une prise Oculink (en la branchant sur un port m2) pour pouvoir brancher un GPU si le besoin se fait ressentir un jour

 

L'autre point positif de ce Ryzen 395 c'est que c'est peu consommateur par rapport aux traditionnel (CPU + GPU) et ça prend peu de place aussi

 

Parfait selon moi pour ceux qui veulent leur LLM local et jouer à des jeux AAA sans avoir à tout descendre en low res, low detail.


Message édité par dadamonhfr le 04-11-2025 à 11:43:14
n°1264499
LibreArbit​re
La /root est longue
Posté le 04-11-2025 à 15:43:33  profilanswer
 

SirGallahad a écrit :

Avec une Quaddro RTX 4000 (8gb) et 128 go de ram sur des modèles autour de 8B, les réponses sont quasiment instantanées.
Mais leur pertinence est largement en dessous de chatgpt et consorts.
C'est cool pour faire des tests mais cela ne va pas beaucoup plus loin. Imo


Oui, la problématique c'est pas de pouvoir générer du code mais de pouvoir gérer un contexte de plus de 64K tokens (vs certains LLM qui permettent de monter à 2M).

 

La plupart des gens ne le savent pas mais c'est pas tant le poids du modèle qui consomme de la VRAM mais le contexte, dès qu'on dépasse les 8K. La base de calcul pour l'estimation de la VRAM est : (Parameters × Precision Factor) + (Context Size × 0.0005).

 

Pour un modèle de 8B en fp8 ça donne :

 

- 8K de contexte : 12 Go de VRAM
- 16K de contexte : 16 Go de VRAM
- 32K de contexte : 24 Go de VRAM
- 64K de contexte : 32 Go de VRAM
- 128K de contexte : 74 Go de VRAM

 

En fp16 c'est le double.

 

Si on passe sur un modèle exploitable (pour du dev) alors il faut passer à un modèle avec 30B de paramètres et donc ajouter +22 Go de VRAM aux valeurs précédentes, en gardant en tête que pour du dev un minimum sérieux il faut tabler sur un contexte de 128K... Oubliez aussi le fp4, c'est pas exploitable.

 

Voici un très bon article (OVH blog) sur le dimensionnement d'une infra en tenant compte de tous les facteurs : https://blog.ovhcloud.com/gpu-for-l [...] ing-guide/

 

Alors bien entendu tu vas me dire qu'avec l'offloading tu peux décharger la VRAM de ton GPU mais on parle d'une baisse de perf d'un facteur 4...

 
Citation :

Pour afficher la console, etc en ssh, un seul gpu suffit. Mais il est vite en limite. J'ai essayé mistral nemo7b + stable diffusion. Les perf étaient lamentables quand cela ne crashais pas.


Si je parle de console locale c'est que je ne parle pas d'un accès via un shell distant ;)

 

En cas de perte de réseau ou de gros plantage tu seras sûrement content de pouvoir troubleshooter ou rebooter sur un kernel de debug, ce qui ne sera pas possible si tu n'as pas d'accès console (https://www.codequoi.com/difference [...] -et-shell/. Alors en vrai c'est à nuancer car si ton système est mort alors ton GPU ne sera pas assigné à ta VM ou à ton container donc disponible pour la console locale mais dans tous les cas, avec du VT-d (IOMMU) c'est quand même mieux d'avoir un autre GPU...

 

Honnêtement, je n'arrive pas à identifier un cas de figure où il est pertinent de ne s'appuyer que sur de l'inférence locale. Les aspects de privacy/souveraineté ça s'entend mais pour être utilisable en production (pour de vrais projets, car si c'est pour générer des scripts de 100 lignes alors l'IA n'a que peu de valeur ajoutée, autant se former) éh bien il te faudra de vraies cartes et là c'est un autre monde, d'où l'intérêt de passer par des API...

 

Loin de moi de critiquer l'approche locale, j'ai qu'une 5070 Ti qui me sert à des tests locaux et pour générer des images via ComfyUI (entre autre) et pour du machine learning (training de modèles prédictifs) mais pour le reste j'ai mon instance Open WebUI que j'utilise avec OpenRouter et là c'est performant (évitez les modèles gratuits pour une question de privacy)...

 

Mais ce n'est que mon avis :jap:

 

Edit : dadamonhfr, autant acheter deux RTX 3090 pour le même prix, voire le GPU de Huawei, le Huawei Atlas 300I à $1,400 (96 Go de VRAM. Ça permet de charger de gros modèles mais en terme de perf c'est pas fou par contre en terme de tokens/s, voir https://www.reddit.com/r/LocalLLaMA [...] w=original en notant que ça tourne a priori pas dans un PC classique mais une archi particulière il me semble, j'ai pas trop suivi pour être honnête)...

 

Edit 2 : Par contre ça vaut le coût de surveiller le NVIDIA DGX Spark (mais le prix pique !)

 

Edit 3 : Notez qu'en terme de performances (génération de tokens par seconde) le facteur limitant c'est la vitesse de la bande-passante mémoire, pas TMU/ROP/SM/Tensor Cores, ce qui rend les H100 si performantes c'est leur BP qui atteint 2.04 TB/s (en HBM2e).


Message édité par LibreArbitre le 04-11-2025 à 16:57:53

---------------
Hebergement d'images
n°1264519
extenue1
Posté le 04-11-2025 à 21:13:57  profilanswer
 

Merci pour toutes ces réponses.... Je me rends compte que je ne m'y connais pas du tout et que ..... d'apres mes recherches en utilisant l'IA  :pt1cable: , je pouvais esperer gagner en vitesse en generation de scripts PS de 500 lignes VS ChatGPT ok je vais changer de projet, je vais qd meme garder l'idee du server home lab mais sans la VM IA du coup , ce qui me fera gagner sur la CG car je compte faire un peu de gaming qd meme.

 

Sinon , qu'y a t'il de mieux que ChatGPT pour le dev ? Claude c'est ca ?

n°1264530
LibreArbit​re
La /root est longue
Posté le 05-11-2025 à 00:07:47  profilanswer
 

extenue1 a écrit :

Merci pour toutes ces réponses.... Je me rends compte que je ne m'y connais pas du tout et que ..... d'apres mes recherches en utilisant l'IA  :pt1cable: , je pouvais esperer gagner en vitesse en generation de scripts PS de 500 lignes VS ChatGPT ok je vais changer de projet, je vais qd meme garder l'idee du server home lab mais sans la VM IA du coup , ce qui me fera gagner sur la CG car je compte faire un peu de gaming qd meme.


C'est un bon choix :jap:

 
Citation :

Sinon , qu'y a t'il de mieux que ChatGPT pour le dev ? Claude c'est ca ?


Ça ça va dépendre de la façon dont tu dev : Vibe Coding ? Via un terminal ? Avec VS Code ? Du dev système ? Du front/back/fullstack ? T'es familier de GitHub/GitLab ?

 

- Si tu utilises déjà VS Code alors il y a des extensions pour Gemini, Claude et Codex. Si tu veux utiliser un grand nombre de LLM tu peux utiliser l'extension Kilo Code, Roo Code, Cline et d'autres
- Si tu as l'habitude d'utiliser la CLI via un shell (ou typiquement WSL si tu es sous Windows) alors il y a Codex CLI, Kilo Code CLI, Claude Code, Gemini CLI (et d'autres)
- Si tu veux vide coder au max sans te perdre dans la technique alors OpenAI Codex et ses sandbox sera parfait (tout se fait via leur site : Tu donnes ton prompts, le mode Plan l'enrichit et tu n'as plus qu'à donner accès à ton repos GitHub à Codex pour qu'il passe en mode Code et te génère tout ça, teste le build, debug et te génère toute la documentation.

 

Par contre note que pour la plupart de ces usages tu vas devoir un abo payant, et à mon sens le plus intéressant est OpenAI Codex (avec ChatGPT Plus) et Gemini (via l'abo Google AI Pro tu auras aussi accès à Veo 3.1 et quantité d'autres outils + un stockage de 2 To). Si tu veux rester sur un IDE comme VS Code alors Kilo Code est top (et tu peux commencer avec des crédits gratuits voire $40 de crédits juste en payant $5, sachant qu'ils ne prennent pas de com' sur le crédit qui servira aux modèles...

 

Edit : J'ai lu trop vite, si tu veux juste générer des scripts en PS alors effectivement reste sur ChatGPT car le monde sandbox ne te servira pas, par contre dès que tu voudras faire plus tu seras bloqué...

 

Pour ma part j'utilise un peu tous ces modes, pour générer des SaaS complet (front, back, FastAPI, CI/CD, documentation, etc.

 

Enfin, pour arrêter le HS tu peux venir sur un des topics dédiés : https://forum.hardware.fr/hfr/Discu [...] 0036_1.htm

 

Pour les autres, désolé pour le HS :jap:


Message édité par LibreArbitre le 05-11-2025 à 00:12:03

---------------
Hebergement d'images
n°1264541
extenue1
Posté le 05-11-2025 à 10:20:06  profilanswer
 

Oula que c'est compliqué mais merci.

 

Mon besoin est mini , faire du powershell de base (500 lignes max en gros) , j'ai gouté a github copilot dans vs code et c'est vraiment tout ce que j'ai besoin au jour d'aujourd'hui.

 

Me suis inscris qd meme sur l'autre topic , merci du lien.

n°1264843
fegre
Voleur professionnel
Posté le 15-11-2025 à 14:09:11  profilanswer
 

Bon, plus de fibre à la maison depuis 6h45 ce matin, je découvre que toute mon infra n'est pas vraiment adaptée à ça :o  
Va falloir que je prévois un fallback sur de la 4G parce que là j'ai plus rien d'utilisable (à part la domotique ça ça va à peu près :/ )

n°1264848
lestat67se​l
:-)
Posté le 15-11-2025 à 22:29:03  profilanswer
 

fegre a écrit :

Bon, plus de fibre à la maison depuis 6h45 ce matin, je découvre que toute mon infra n'est pas vraiment adaptée à ça :o
Va falloir que je prévois un fallback sur de la 4G parce que là j'ai plus rien d'utilisable (à part la domotique ça ça va à peu près :/ )


C'est là qu'on se rend compte que le full setup diy c'est moins cool quand ça marche pas :o

n°1264849
_pollux_
Pan ! t'es mort
Posté le 15-11-2025 à 23:13:22  profilanswer
 

bah, normalement, si t'es chez toi, ça doit continuer de marcher. Le problème se pose plus si tu n'es pas chez toi, parce que monter une infra avec réplication des services sur un autre site, c'est là que ça se complique vraiment.


---------------
Le topic du sport électronique@hfr : watch the l33t !
n°1264850
fegre
Voleur professionnel
Posté le 16-11-2025 à 00:31:46  profilanswer
 

lestat67sel a écrit :


C'est là qu'on se rend compte que le full setup diy c'est moins cool quand ça marche pas :o


Pas grand chose à voir avec le DIY, juste que j'ai jamais pris le temps de me poser sur ce cas de figure...

_pollux_ a écrit :

bah, normalement, si t'es chez toi, ça doit continuer de marcher. Le problème se pose plus si tu n'es pas chez toi, parce que monter une infra avec réplication des services sur un autre site, c'est là que ça se complique vraiment.


Pas que, j'ai des trucs qui passent par les adresses externes au lieu de passer par les IP par exemple. Des conneries quoi mais quand t'as pas jamais eu de coupure de plus d'1h en 8 ans bah la flemme de mettre le nez dedans :o

 

Là je suis bon pour attendre mardi le rdv avec le tech avec pour solution de secours un routeur 4G et 5Mbits/s de débit en pointe :o

n°1264856
lestat67se​l
:-)
Posté le 16-11-2025 à 10:51:36  profilanswer
 

Le plus marrant que j'ai eu dans le genre c'est mes password qui sont dans le plugin nextcloud du même nom.
Plugin qui n'est accessible qu'en https, certif présenté par mon reverse, mais comme j'avais une livebox de merde avec le loopback qui marche pas, je pouvais pas accéder à mes mot de passe .. pour ouvrir un ticket chez Sosh :o

n°1264857
fegre
Voleur professionnel
Posté le 16-11-2025 à 10:57:18  profilanswer
 

Ben voilà, entre autres :o

n°1264865
_pollux_
Pan ! t'es mort
Posté le 16-11-2025 à 13:19:16  profilanswer
 

Le seul truc qui me ferait chier, personnellement, c'est le suivi de ma production en panneau solaire... Qui passe par un cloud inévitable :/
Les mdp, C'est trop critique , je stocke ça sur un vaultwarden chez ovh.


---------------
Le topic du sport électronique@hfr : watch the l33t !
n°1264869
fegre
Voleur professionnel
Posté le 16-11-2025 à 14:05:05  profilanswer
 

Bah je préfère les stocker chez moi justement plutôt qu'à l'extérieur... Si c'est OVH qui tombe (ou qui crame :o ) tu fais quoi?
Moi mes mots de passe mon container est chez moi, c'est juste qu'il faut que je bricole pour que ça reste accessible même avec internet down, ce que j'ai pas encore pris le temps de (comprendre comment) faire

n°1264872
e_esprit
Posté le 16-11-2025 à 14:32:41  profilanswer
 

Le client bitwarden Android permet de consulter ses mots de passe depuis la version qu'il garde en cache, même sans accès au serveur (je viens de re-tester en coupant 4G et WiFi).
Me semble que l'extension chrome fait de même.

 

Du coup ça ne devrait même pas être un sujet :D


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1264874
fegre
Voleur professionnel
Posté le 16-11-2025 à 14:44:38  profilanswer
 

J'ai tenté mais pas l'App nextcloud, fais chier...

 

https://rehost.diberie.com/Picture/Get/r/448186

 

Après on peut peut-être le relier à d'autres clients? J'ai jamais creusé ça, l'App est pas mal elle fait ce qu'on lui demande mais c'est pas une folie d'expérience utilisateur non plus...

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  1761  1762  1763  1764  1765  1766

Aller à :
Ajouter une réponse
 

Sujets relatifs
Avez-vous testé le Linksys Wag354G ? Topic officiel Wag354g[Topic R+] Free non-dégroupé
*** Configurer son Speed Touch Home pour Free Dégroupé[Topic R+] Orange --- adsl 2+ ---
[Topic R+] Orange --- adsl Max --- 
Plus de sujets relatifs à : -> Topic Serveurs@home


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)