Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3374 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  22  23  24  ..  50  51  52  53  54  55
Auteur Sujet :

[TOPICUNIK] Docker

n°1442030
e_esprit
Posté le 20-12-2019 à 10:42:02  profilanswer
 

Reprise du message précédent :
Parce que c'est le port 5432 qu'il faut que tu utilises, que ce soit en interne à ton conteneur db (localhost), où depuis le réseau interne de Docker (donc depuis ton conteneur wog).

 

Tu n'a pas besoin d'exposer le port à l'extérieur (ton ports : - 5423:5432) pour avoir la connectivité wog <=> db, c'est uniquement pour rendre ton conteneur accessible de l'extérieur du réseau Docker, en l'exposant sur ton hote (l'IP de ta machine à toi).


Message édité par e_esprit le 20-12-2019 à 11:00:58

---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
mood
Publicité
Posté le 20-12-2019 à 10:42:02  profilanswer
 

n°1442031
SnowBear
Posté le 20-12-2019 à 10:47:50  profilanswer
 

Le soucis, dans mon cas, c'est que le port 5432 est déjà utilisé par une autre image Docker.
 
J'ai donc besoin de changer le port utilisé que ce soit pour mon local ou pour mon réseau Docker.
 
Après test j'accède effectivement bien à ma base docker depuis mon image wog (reste à comment créer une base par défaut depuis le docker-compose).
 
Et... je peux bien accéder depuis mon poste à mon serveur db via localhost:5423.
 
 
Donc... en fiat j'ai pas de bug ! o_O  
 
 
Merci de m'avoir mis sur la piste, je n'avais bien bien compris la portée de `ports`.

n°1442032
e_esprit
Posté le 20-12-2019 à 10:59:49  profilanswer
 

OSEF qu'un autre conteneur écoute sur son port 5432, chaque conteneur a son IP, donc c'est pas un problème.
 
La section "ports" du docker-compose ne sert qu'à exposer les ports des conteneurs sur ton hote.
Tu peux donc très bien mapper le port 5432 de ton conteneur sur un port 6666 de ton hote, ce qui importe c'est qu'en interne à ton réseau Docker, tes autres conteneurs accèderont toujours sur le port 5432 du conteneur, là où se trouve le service, et pas le 6666 qui lui est sur ton hote (c'est un simple NAT) ;)
 
Dans la pratique, un conteneur de DB on n'expose très rarement son port.
Depuis ta machine tu peux très bien adresser l'IP du conteneur directement (même si c'est pas toujours simple à retrouver).
Et la bonne pratique c'est de lancer un autre conteneur avec le CLI si besoin, en le placant dans le même réseau que ta DB.


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1442034
SnowBear
Posté le 20-12-2019 à 11:22:02  profilanswer
 

J'ai bien compris qu'en interne chaque conteneur à sa propre IP.
 
Dans mon cas, base de dev en local j'ai besoin d'accéder à mes containers via datagrip (par exemple), je dois donc exposer les ports (pour aller au plus simple).
 
Connaître l'IP interne (172....) je peux le voir rapidement avec Portainer mais l'idée est de faire un truc rapide pour mes collègues (localhost:<port exposé> ) et c'est fin i!  
 
 
Pour le fait d'exposer les ports d'une DB avec toi je suis totalement d'accord mais dans mon cas, comme dit plus haut c'est juste une base locale pour que chaque dev puisse bosser en local.

n°1442035
e_esprit
Posté le 20-12-2019 à 11:30:43  profilanswer
 

Oui, dans ce cas là pas de souci.
 
Par contre à ce moment là, le mieux c'est de définir :
ports:
  -localhost:5423:5432
 
Comme ça tu n'exposes pas ton conteneur sur le réseau :D
 
Bon, c'est du pinaillage, mais ça peut aider à comprendre le fonctionnement de l'exposition de port avec Docker qui est pas forcément évidente de premier abord.


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1442036
SnowBear
Posté le 20-12-2019 à 12:44:48  profilanswer
 

Ha yes !
 
C'est pas mal ça !
 
Merci :jap:
 
EDIT :  
 
je n'arrive pas à mettre `localhost` dans mon docker :D


Message édité par SnowBear le 20-12-2019 à 14:22:45
n°1442041
e_esprit
Posté le 20-12-2019 à 14:28:39  profilanswer
 

Comment ça ?
Y a pas à mettre localhost nulle part dans un conteneur, c'est uniquement pour ton accès "via datagrip par exemple" ;)


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1442042
SnowBear
Posté le 20-12-2019 à 14:41:56  profilanswer
 

Comme tu as dis plus haut :
 


ports:
  - localhost:5423:5432


 

services.db.ports is invalid: Invalid port "localhost:5423:5432", should be [[remote_ip:]remote_port[-remote_port]:]port[/protocol]


 
 
Ok... en fait il attends 127.0.0.1 et non localhost... problem solved! :D


Message édité par SnowBear le 20-12-2019 à 14:42:30
n°1442043
e_esprit
Posté le 20-12-2019 à 14:44:03  profilanswer
 

Ah oui, my bad :D


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1442391
frenchieis​verige
Nej, men HEJSAN!
Posté le 28-12-2019 à 19:35:43  profilanswer
 

:hello:
 
C'est de nouveau moi avec mes petites aventures de programmation :D
Dans une soucis d'optimisation d'image, j'ai découvert le multi-stage, et je me suis dit que c'était un bon cas pratique.
Je précise que j'ai aussi aussi effectué une division en modules de mon-script.py.
Mon Dockerfile:

Code :
  1. FROM python:3.8.0-alpine3.10 as base
  2. ############################ Base Build ############################
  3. FROM base as builder
  4. # Install libraries via pip
  5. RUN mkdir /install
  6. WORKDIR /install
  7. COPY requirements.txt ./requirements.txt
  8. RUN pip install --no-cache-dir -r ./requirements.txt
  9. ######################## Productive Build ##########################
  10. FROM base
  11. # Import built dependencies from base
  12. COPY --from=builder /install /usr/local
  13. # Environment and build variables
  14. ARG build_update_rate=6
  15. ENV update_rate=${build_update_rate}
  16. WORKDIR /
  17. COPY . .
  18. # Start script
  19. CMD [ "sh", "-c", "python ./main.py -u $update_rate" ]


 
Et biensur, j'ai une erreur :o  
Un module appelé par main.py n'arrive pas à importer feedparser, précédemment installé via pip. Je suspecte quelque chose au niveau de la copie "from builder".
Bon au final, c'est un gain de 10Mo donc pas dramatique si le multi-stage n'est pas présent, mais j'aimerais bien comprendre :D


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
mood
Publicité
Posté le 28-12-2019 à 19:35:43  profilanswer
 

n°1442392
LOL POLARI​SE
cadre en trading
Posté le 28-12-2019 à 19:50:57  profilanswer
 

Perso pour du multistage sur python je fais un virtualenv que je recopie dans la seconde image. Il y a des exemples sur le net.
 
Une alternative est d'utiliser les wheels.
 
Là difficile à dire, on n'a pas ton requirements.txt
 
Le gain peut être faible mais si certains modules ont besoin de compilation parce qu'ils contiennent du code en C alors tu t'économises une install de build-essential ou équivalent (+ tout un tas de paquets *dev), ce qui est un gain énorme ; si ton appli est amenée à évoluer ça vaut vraiment le coup.

n°1442393
frenchieis​verige
Nej, men HEJSAN!
Posté le 28-12-2019 à 20:07:13  profilanswer
 

LOL POLARISE a écrit :

Perso pour du multistage sur python je fais un virtualenv que je recopie dans la seconde image. Il y a des exemples sur le net.
 
Une alternative est d'utiliser les wheels.
 
Là difficile à dire, on n'a pas ton requirements.txt
 
Le gain peut être faible mais si certains modules ont besoin de compilation parce qu'ils contiennent du code en C alors tu t'économises une install de build-essential ou équivalent (+ tout un tas de paquets *dev), ce qui est un gain énorme ; si ton appli est amenée à évoluer ça vaut vraiment le coup.


Voici mon requirements.txt

Code :
  1. feedparser>=5.2.0,<6.0
  2. requests>2.21


Sinon je vais aller voir les deux pistes que tu m'as proposé. Merci :jap:


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1442394
LOL POLARI​SE
cadre en trading
Posté le 28-12-2019 à 20:15:43  profilanswer
 

Ah j'ai pas vu que tu partais sur alpine aussi. Alpine est vraiment chiante à cause de la libc qu'elle utilise, ça pose plein de problèmes avec python et d'autres langages.
 
Essaie de partir d'une debian pour voir aussi.

n°1442397
frenchieis​verige
Nej, men HEJSAN!
Posté le 28-12-2019 à 21:06:36  profilanswer
 

Beh j'étais partis sur une python3.8, mais quand tu vois qu'elle fait plus de 900Mo :ouch: juste faire tourner un pauvre script :o  
J'ai vite changé pour la 3.8.1-slim-buster, mais quand j'ai vu que je pouvais encore rogner quelques Mo avec alpine, je ne m'en suis pas trop privé :D
 
EDIT:
Arf, bordel il me manque le setup.py :whistle:


Message édité par frenchieisverige le 28-12-2019 à 21:11:17

---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1442401
frenchieis​verige
Nej, men HEJSAN!
Posté le 28-12-2019 à 22:12:25  profilanswer
 

Je n'arrive pas à build :/
Je reste coincé à l'étape:

Step 9/15 : RUN pip install .
 ---> Running in d959685648dd
Processing /


Mon Dockerfile:

Code :
  1. FROM python:3.8-slim-buster as base
  2. ############################ Base Build ############################
  3. FROM base as builder
  4. # Install libraries via pip
  5. RUN python -m venv /opt/venv
  6. ENV PATH="/opt/venv/bin:$PATH"
  7. COPY requirements.txt .
  8. RUN pip install --no-cache-dir -r requirements.txt
  9. COPY setup.py .
  10. COPY . .
  11. RUN pip install .
  12. ######################## Productive Build ##########################
  13. FROM base
  14. # Import built dependencies from base
  15. COPY --from=builder /opt/venv /opt/venv
  16. # Environment and build variables
  17. ARG build_update_rate=6
  18. ENV update_rate=${build_update_rate}
  19. ENV PATH="/opt/venv/bin:$PATH"
  20. # Start script
  21. CMD [ "sh", "-c", "python ./main.py -u $update_rate" ]


Mon setup.py:

Code :
  1. from setuptools import setup, find_packages
  2. setup(
  3.     name='test',
  4.     version='1.0.0',
  5.     url='https://github.com',
  6.     author='Author Name',
  7.     author_email='author@gmail.com',
  8.     description='Description of my package',
  9.     packages=find_packages(),   
  10.     install_requires=['feedparser>=5.2.0', 'requests>2.21'],
  11. )


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1442405
LOL POLARI​SE
cadre en trading
Posté le 28-12-2019 à 22:52:28  profilanswer
 

C'est censé faire quoi ce `pip install . ` ?
 
Tu as déjà installé tes requirements dans `pip install -r requirements.txt` non ? Ou je rate quelque chose ?
 
Tu utilises le venv correctement j'ai l'impression (j'ai retrouvé l'article ici, j'ai mes sources au taf) : https://pythonspeed.com/articles/ac [...] ockerfile/
 
Mais j'ai l'impression que ta question est plus liée à python qu'à docker. Au passage tu es dans "/" d'où le "Processing /" qui doit prendre une plombe s'il essaie de faire un truc récursivement sur tout ton FS.

n°1442436
frenchieis​verige
Nej, men HEJSAN!
Posté le 29-12-2019 à 17:32:07  profilanswer
 

LOL POLARISE a écrit :

C'est censé faire quoi ce `pip install . ` ?  
Tu as déjà installé tes requirements dans `pip install -r requirements.txt` non ? Ou je rate quelque chose ?


 
Justement, j'ai suivi le tuto multi-stage du même site que tu viens de me donner (solution avec les venv)
https://pythonspeed.com/articles/mu [...] er-python/

LOL POLARISE a écrit :


Tu utilises le venv correctement j'ai l'impression (j'ai retrouvé l'article ici, j'ai mes sources au taf) : https://pythonspeed.com/articles/ac [...] ockerfile/
Mais j'ai l'impression que ta question est plus liée à python qu'à docker. Au passage tu es dans "/" d'où le "Processing /" qui doit prendre une plombe s'il essaie de faire un truc récursivement sur tout ton FS.


[:transparency]  
J'ai testé mon ancien docker build avec le script non modulaire (le paté de ligne de code :o) et bordel mon script se lance :o Je comprends pas l'erreur que j'ai faite, j'ai juste split le code et importer les libs qui faut dans chaque module.
Et j'ai importé mes modules dans mon main.py.
 
Donc au final, j'ai la situation suivante:

  • La modularisation de mon code fonctionne avec une build standard (sans multi-stage)
  • Le multi-stage fonctionne avec tout dans un script.


 


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1443033
dough29
Posté le 09-01-2020 à 22:28:19  profilanswer
 

Yop !
 
Je viens d'essuyer une belle perte de data sur mon swarm... je ne sais pas bien ce qu'il s'est passé entre la mauvaise manip' au niveau de l'interface chaise-clavier ou alors ma façon de stocker les volumes qui est foireuse :heink:
 
Bon j'ai des backup quotidiens et rien de bien vital dans ces données donc ça va.
 
Concrètement mes node accèdent à un partage NFS, comme ça tous les nodes ont accès aux mêmes volumes = que le conteneur se lance sur node1, node2 ou node3 le volume reste le même !
 
Mais il est possible que ça ne soit pas une solution idéale.
 
Vous avez des expériences à partager sur des solutions de stockage des volumes ?
 
Mon infra : 3 nodes Docker (Debian 10) qui ont accès à un serveur de stockage (NFS actuellement mais ça peut être autre chose si besoin !).
 
Voilà plus qu'à récupérer mes volumes et remonter mes stacks !

n°1443037
dd_pak
Posté le 09-01-2020 à 23:18:17  profilanswer
 

Oui ok mais ça depend de la conf !
Tu fais un docker volume, un bind d'un dossier nfs sur le host ? Il ressemble à quoi ton docker compose ?
Tu as bien vérifié que c'était dispo sur les 3 hosts tes datas ?

n°1443039
dough29
Posté le 09-01-2020 à 23:24:51  profilanswer
 

J'utilise le driver NFS comme suit :
 

Code :
  1. volumes:
  2.   traccar-opt:
  3.     driver: nfs
  4.     driver_opts:
  5.       share: 192.168.1.10:/volume1/DockerStorage
  6.       create: "true"


 
En gros dans le dossier NFS ça me crée un dossier au format "stack-nomService" pour le volume.
 
Que je lance sur node1, 2 ou 3 pas de soucis les données sont récupérées.
 
Mais j'ai l'impression que le driver NFS délire de temps à autre et pour moi c'est lui qui a tout dégagé tout à l'heure...
 
Pour ça que j'aimerais passer à quelque chose de plus solide ^^

n°1443040
dd_pak
Posté le 09-01-2020 à 23:37:45  profilanswer
 

Tu peux monter le nfs sur chaque host et faire un bind de dossier, et donc plus besoin de volume.  
J’ai fais ça longtemps c’est stable.
Sinon je suis passé à k8s

n°1443041
dough29
Posté le 09-01-2020 à 23:43:50  profilanswer
 

J'ai effectivement prévu de m'intéresser à K8S, qu'est-ce qui est proposé dans cette situation de ce côté ?
 
Faudrait que je test en montant le share NFS et en bindant mes volumes dedans effectivement :heink:

n°1443042
dd_pak
Posté le 09-01-2020 à 23:46:07  profilanswer
 

dough29 a écrit :

J'ai effectivement prévu de m'intéresser à K8S, qu'est-ce qui est proposé dans cette situation de ce côté ?
 
Faudrait que je test en montant le share NFS et en bindant mes volumes dedans effectivement :heink:


 K8s gère le nfs mais c’est stable...  
le bind c’est moche mais ça fonctionne  swarm va mourir de toute façon autant migrer

n°1443050
dough29
Posté le 10-01-2020 à 09:57:36  profilanswer
 

Allé tu m'as chauffé j'ai créé des VM sur mon lab pour voir ce que donne K8S :lol:
 
Si jamais tu as des ressources à conseiller pour débuter ^^
 
Après quelques constats j'ai vraiment l'impression que c'est le driver NFS qui a mis la grouille... en gros j'ai déployé un service qui n'a pas réussis à créer son dossier dans le share NFS, du coup il a "vomit" ses fichiers à la racine du share #crado ! Et au passage on dirait bien qu'il a tout simplement vidé tout le reste :ouch: Possible que l'image du service deployé fasse le ménage...
 
Donc oui des binds plus secure seraient de bonne augure et surtout abandonner ce driver NFS !

n°1443058
phraide
Posté le 10-01-2020 à 12:47:33  profilanswer
 

NFS c’est juste rock stable depuis 40 ans :o
 
Pourquoi ton service avait accès au root de l’export en rw.... that is the question :o


---------------
I'm too old for this shit.
n°1443060
dough29
Posté le 10-01-2020 à 12:52:41  profilanswer
 

Oui NFS ok c'est du solide c'est certain, mais le driver Docker que j'utilise pas certain...

 

Ce n'est pas la première fois que je constate que des conteneurs ne créent pas leur "dossier" de volume et gerbent à la racine du share NFS !

 

Je vais déjà dégager ce driver "docker-volume-netshare"... pour moi le soucis est quelque part dans la déclaration du volume (voir ci dessus) qui pointe uniquement le share NFS avec le comportement attendu que le volume crée son propre dossier au format "stack-service" au lieu d'accéder à la racine...


Message édité par dough29 le 10-01-2020 à 12:54:57
n°1443108
frenchieis​verige
Nej, men HEJSAN!
Posté le 11-01-2020 à 13:25:10  profilanswer
 

:hello:
 
Faut être root pour pourvoir écrire dans un volume?
 
J'ai créé un utilisateur lambda qui doit écrire dans un dossier situé dans /.
J'ai fait un chown -R utilisateur:utilisateur /dossier


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1443110
kaari
Fuck Yeah !
Posté le 11-01-2020 à 13:40:23  profilanswer
 

Si tu bind, il faut utiliser le même uid/gid pour les permissions dans ton container et en dehors.


---------------
Mon topic ventes ;)
n°1443139
frenchieis​verige
Nej, men HEJSAN!
Posté le 12-01-2020 à 10:21:02  profilanswer
 

Effectivement, si je ne crée pas explicitement de user, je n'ai pas d'erreur d’écriture.
Je pensais bien faire en voulant sécuriser un minimum mon conteneur via les droits. Est ce qu'il existe un autre moyen?


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1443144
LOL POLARI​SE
cadre en trading
Posté le 12-01-2020 à 11:40:43  profilanswer
 

dd_pak a écrit :

swarm va mourir de toute façon autant migrer


 
Source ?

n°1443146
trictrac
Posté le 12-01-2020 à 11:59:26  profilanswer
 

Toute la communauté passe sur kubernetes ... il n’y a plus que docker qui maintient Swarm en vie par perfusion ... et pour preuve ils ont intégrer kubernetes dans docker desktop pour éviter une fuite de tous les dev de leur plateforme;

n°1443148
kaari
Fuck Yeah !
Posté le 12-01-2020 à 12:42:02  profilanswer
 

frenchieisverige a écrit :

Effectivement, si je ne crée pas explicitement de user, je n'ai pas d'erreur d’écriture.
Je pensais bien faire en voulant sécuriser un minimum mon conteneur via les droits. Est ce qu'il existe un autre moyen?


Tu peux, il faut juste que l'id du user qui ecrit dans le container et l'id du user proprietaire des fichiers hors du container soient les memes.
 
C'est pour ca que j'evite de binder et que j'utilise des volumes le plus possible.


---------------
Mon topic ventes ;)
n°1443154
sined
Posté le 12-01-2020 à 14:01:54  profilanswer
 

kaari a écrit :


Tu peux, il faut juste que l'id du user qui ecrit dans le container et l'id du user proprietaire des fichiers hors du container soient les memes.
 
C'est pour ca que j'evite de binder et que j'utilise des volumes le plus possible.


Salut à tous.
Je n'ai pas compris ta dernière phrase.
Si tu dois échanger ou lire des fichiers en dehors du contenu, la problématique d'UID reste la même qu'on utilise bind ou volume non ?
Quand tu dis volume, tu penses à la commande (qui permet d'avoir aussi un REP comme volume) ou un espace de stockage dédié à un conteneur ?
Contexte, je suis sysadmin mais quasi noob en docker (je manipule des conteneurs en VM pour me former pour l'instant).


---------------
c'est un croque-mort qui rentre dans un bar et là le patron lui dit "Je vous sers une bière ?".
n°1443201
Celos
Posté le 13-01-2020 à 21:17:19  profilanswer
 

Hello,
 
J'ai une question concernant Traefik.
 
J'ai un docker-compose de ce  type :

Code :
  1. network_mode: host
  2.     labels:
  3.       - "traefik.enable=true"
  4.       - "traefik.basic.frontend.rule=HostRegexp:mondomaine.fr;PathPrefix:/monpath/"
  5.       - "traefik.port=8123"
  6.       - "traefik.frontend.entryPoints=http,https"


 
Et pourtant je ne le vois pas apparaitre dans mon Traefik.
 
Je précise que mon Traefik est fonctionnel pour d'autres docker. Je soupçonne le "network_mode: host".

n°1443203
dough29
Posté le 13-01-2020 à 21:26:49  profilanswer
 

Traefik v1 ou v2 ?

 

Les déclarations sont assez différentes entre ces 2 versions.

 

Aussi tu est en docker compose ou swarm ? Là aussi il faut une instruction pour indiquer que tu tournes en swarm.

 

Si ça fonctionne pour d'autres conteneurs une configuration "copier-coller" devrait passer en adaptant :heink: Le conteneur concerné se lance bien ?


Message édité par dough29 le 13-01-2020 à 21:27:44
n°1443204
Celos
Posté le 13-01-2020 à 21:32:11  profilanswer
 

Traefik 1.
 
Docker-compose.
 
Le conteneur tourne bien et est fonctionnel. La différence avec les autres ? Le network_mode: Host.

n°1443205
dough29
Posté le 13-01-2020 à 21:38:01  profilanswer
 

Tu n'as aucune réaction que ça soit côté "frontend" et "backend" ? :heink:
 
Est-ce qu'il ne faudrait pas un label du genre :
 

Code :
  1. traefik.docker.network=host


 
Mais pas certain que ça fonctionne...
 
Il faudrait peut être passer par un "file" pour déclarer à la main le service :heink:

n°1443235
Celos
Posté le 14-01-2020 à 11:54:27  profilanswer
 

Justement, je voudrais éviter de passer par un "file". J'aime bien le côté dynamique directement via les labels docker.
 
Sinon, vous savez s'il est possible en ligne de commande de lister tous les frontends / backends en cours dans Traefik ?
En gros, avoir les infos du dashboard, mais en ligne de commande, à la demande.

n°1443236
dough29
Posté le 14-01-2020 à 12:04:51  profilanswer
 

Quelle est la raison de mettre en mode Host ?
 
Pourquoi ne pas déclarer que les ports nécessaires ?

n°1443240
Celos
Posté le 14-01-2020 à 13:06:28  profilanswer
 

Mon docker est pour Home Assistant. Ils recommandent d’utiliser le mode host, j’imagine pour utiliser tous les services du rpi lié à la découverte de service ou autre.

n°1443242
dough29
Posté le 14-01-2020 à 13:59:49  profilanswer
 

Mouais, j'ai du Jeedom et du HA en Docker je ne les ai jamais mis en mode host :heink:
 
Tu redirige uniquement le nécessaire, d'ailleurs le service est plus souvent client que serveur (sauf pour le HTTP bien sûr) ;)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  22  23  24  ..  50  51  52  53  54  55

Aller à :
Ajouter une réponse
 

Sujets relatifs
Docker deux fenetres sous KDE ?[Window Maker] Comment docker 2x la même appli ?
Plus de sujets relatifs à : [TOPICUNIK] Docker


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)