Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1677 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  13  14  15  ..  45  46  47  48  49  50
Auteur Sujet :

[TOPICUNIK] Docker

n°1427398
Je@nb
Kindly give dime
Posté le 21-12-2018 à 17:22:43  profilanswer
 

Reprise du message précédent :

ptibeur a écrit :

Mon appli est sur un git. Si je comprends bien ce que tu dis, il faut que je lie le processus de git checkout (changement de version) au fait de générer un nouveau docker qui contient php + code web mis à jour tous ensemble ? [:transparency]  
 
Viendra bientôt un moment il faudra qu'on test en parallèle plusieurs versions du code web sur des branches différentes, ça va être fun à gérer [:mur-mur:2]  
J'hésite à partir soit sur du docker, soit revenir à 1 VM complète (nginx-php-code-mongodb) par version à tester.


tu fous ton dockerfile dans ton git et tu as ton pipeline de ci/cd qui build l'appli, qui build le/les containers et les déploie.

mood
Publicité
Posté le 21-12-2018 à 17:22:43  profilanswer
 

n°1427399
ptibeur
Today you, tomorrow me
Posté le 21-12-2018 à 17:38:33  profilanswer
 

Impec merci pour toutes vos suggestions, je vais lire et googler tout ça, j'ai de quoi m'occuper [:huit] :D  
 
@ Shinuza et dd_pak : Pour le moment ya que le code web .php qui change, on garde les mêmes versions software pour l'environnement PHP7.x/MongoDB3.x, ça simplifie les résultats sans besoin de croisement :jap: Je voudrais surtout automatiser le déploiement de l'environnement, ça doit se trouver dans ce truc "CI/CD".  
 
Premiers pas dans le Devops, heureusement j'ai eu l'intro par DevOps Borat [:kbchris] https://twitter.com/devops_borat


---------------
It ain't what you got, it's what you do with what you have... do you understand? And, it ain't what you do, it's how you do it.
n°1427401
dd_pak
Posté le 21-12-2018 à 17:54:31  profilanswer
 

Dans tous les cas il te faut au moins une version développement et une version production
Entre les deux tu automatises des tests pour valider tes modifications (déjà es-ce que le site réponds bien par exemple) puis si ça passe les tests tu envois en production via un outils, scripts, ansible ^^ ce que tu veux. Et donc pour faire des tests (par exemple insérer une donnée, il faut aussi une version de dev de ta basse).  
Je pense tu as compris l'idée, après des outils il y en a 1000 !  
 
Tu commences avec un truc simple, et tu ajouteras les tests en fonction des incidents que tu rencontres en production.

n°1427547
farika
Posté le 25-12-2018 à 12:16:45  profilanswer
 

Bonjour , je débute sur docker et j'essaie de comprendre le principe...
 
Petite question. J'ai besoin de tunneler le traffic de plusieurs programmes docker (compatibles socks5) à travers SSH. Est-ce que ces programmes peuvent passer par mon tunnel SSH ouvert hors docker , ou est-ce que ce tunnel ssh doit impérativement être ouvert depuis docker ?  
 
Merci

n°1427990
kofra
Posté le 03-01-2019 à 21:00:27  profilanswer
 

Bonjour a tous,
J'ai commencé une série de tuto video pour apprendre docker pour ceux qui débutent
https://www.youtube.com/watch?v=cWk [...] biGOR_FYHu
 
@farika chaque conteneur a sa propre interface réseau virtuelle. Tu devrais pouvoir accéder au tunnel SSH depuis un conteneur en spécifiant ton l'ip de ton host depuis tes conteneurs. Aussi tu devra crée un tunnel remote (-R) car ton conteneur est considéré comme une machine distante.


Message édité par kofra le 04-01-2019 à 06:25:27
n°1427999
snowden
Posté le 03-01-2019 à 23:28:25  profilanswer
 

Merci, je vais aller voir ta chaîne ;)


---------------
« A l’origine de toute erreur attribuée à l’ordinateur, vous trouverez au moins deux erreurs humaines. Dont celle consistant à attribuer l’erreur à l’ordinateur. »
n°1428002
iskor
Posté le 04-01-2019 à 07:56:29  profilanswer
 

Dites, j'essaie de faire causer 2 conteneurs qui sont sur 2 hosts différents.
 
Host1: relai SMTP postifx avec auth LDAP
Host2: conteneur LDAP
 
J'ai vu qu'il fallait utiliser le link et autoriser le forward dans les règles IPTABLES, mais ça ne veut toujours pas.. Il me manque un truc?
 
merci :jap:

n°1428006
e_esprit
Posté le 04-01-2019 à 10:29:08  profilanswer
 

Soit tu exposes les ports et tu configure le lien de host1 => host2 (sans batailler avec les IP internes et les links), soit il te faut un système de gestion du réseau distribué sur tes différents hôtes.


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1428007
iskor
Posté le 04-01-2019 à 10:34:46  profilanswer
 

e_esprit a écrit :

Soit tu exposes les ports et tu configure le lien de host1 => host2 (sans batailler avec les IP internes et les links), soit il te faut un système de gestion du réseau distribué sur tes différents hôtes.


 
Les ports sont déjà exposés. Qu'entends-tu par configurer le lien? Une route? Elle est implicite, les 2 hosts sont sur le même réseau.

n°1428010
e_esprit
Posté le 04-01-2019 à 12:33:17  profilanswer
 

Configurer le lien : configurer ton serveur postfix pour s'adresser à host2 (en utilisant l'IP ou le fqdn de host2 donc, pas l'IP/nom de ton conteneur LDAP) pour le LDAP.


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
mood
Publicité
Posté le 04-01-2019 à 12:33:17  profilanswer
 

n°1428014
iskor
Posté le 04-01-2019 à 14:35:13  profilanswer
 

Aaahh oui, ça je suis en train de faire. Mais vu que je suis absolument pas habitué à postfix et aux systèmes de mail en général, c'est compliqué :D
Et puis visiblement, il faut importer un "schéma" postfix dans LDAP pour les bons champs, et dans la version conteneurisée, c'est chaud d'ajouter des schémas personnalisés...

n°1428015
e_esprit
Posté le 04-01-2019 à 15:00:49  profilanswer
 

Bah ça dépends de ce que tu utilises pour ton serveur LDAP, mais ça fait quand même pas mal d'années que les serveurs LDAP gèrent ça à chaud (comprendre sans config au niveau du filesystem, c'est géré dans leurs propres bases). Donc en te connectant au service LDAP avec un outil du type directory studio, tu dois pouvoir rajouter à chaud n'importe quel schéma.

Message cité 1 fois
Message édité par e_esprit le 04-01-2019 à 15:01:13

---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1428018
iskor
Posté le 04-01-2019 à 15:12:17  profilanswer
 

e_esprit a écrit :

Bah ça dépends de ce que tu utilises pour ton serveur LDAP, mais ça fait quand même pas mal d'années que les serveurs LDAP gèrent ça à chaud (comprendre sans config au niveau du filesystem, c'est géré dans leurs propres bases). Donc en te connectant au service LDAP avec un outil du type directory studio, tu dois pouvoir rajouter à chaud n'importe quel schéma.


On dérive un peu, mais j'utilise un container openldap basé sur une Debian. Quand je tape dedans avec un truc simple style Ldapadmin, il me demande un champ "Maildrop", mais je n'ai AUCUNE idée de ce que c'est, et j'ai trouvé sur le site du soft qu'il fallait peut être rajouter un schéma à tout ça. Je vais tenter Directory studio, que je ne connaissais pas :)

n°1428547
iskor
Posté le 16-01-2019 à 11:04:49  profilanswer
 

Dites les pros, j'ai une problématique.
Ma direction m'a demandé si c'était possible de passer une variable d'environnement à une image docker perso, histoire que le port exposé soit défini au run.  
Si je fais un
 

EXPOSE $PORT


 
Dans le dockerfile, et que je run l'image avec  
 

docker run -dit -p 2222:2222 -e PORT='2222' monimage


 
Est-ce que c'est la bonne méthode?
 
Par contre mon image perso (je teste avec un sshd) doit écouter sur une range de ports, parce que je ne pense pas que ça soit possible de modifier le port que le démon écoute après avoir fait l'image...
 
Merci pour votre expertise!

n°1428548
dd_pak
Posté le 16-01-2019 à 11:12:35  profilanswer
 

A partir du moment où tu mappes ton port dans le run, il est exposé ! même si il n'y a pas de Expose dans le Dockerfile, donc retire le expose, la variable... Par contre tu peux mettre une variable si c'est au niveau de l'application.

n°1428549
iskor
Posté le 16-01-2019 à 11:24:55  profilanswer
 

Ahhh mais ça rend le truc plus facile du coup :)
J'ai juste à config mon démon SSH pour écouter sur une range de ports et voir ce que ça donne. Merci! :)

n°1428550
e_esprit
Posté le 16-01-2019 à 12:09:01  profilanswer
 

iskor a écrit :


Par contre mon image perso (je teste avec un sshd) doit écouter sur une range de ports, parce que je ne pense pas que ça soit possible de modifier le port que le démon écoute après avoir fait l'image...


Bien sur que c'est possible, faut jute que ton entrypoint soit un script qui va mettre à jour la conf (sed -i "s/^#?Port\ .*$/Port\ ${PORT}/" /etc/ssh/sshd_config) ou encore lancer le service sshd avec la bonne option en ligne de commande (sshd -p ${PORT} ...).


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1428553
iskor
Posté le 16-01-2019 à 14:27:41  profilanswer
 

OK, merci pour tes éclaircissements, le truc des entrypoints je maîtrise pas... C'est l'inconvénient des auto formations, on arrive à se dépatouiller mais certains trucs nous échappent.

 

Après dans mon cas de test, je me viens de me rendre compte que je me compliquais la vie, il suffit de publier un autre port qui redirigera vers le 22 du container et ça roule.

 

Je vais bosser un peu sur les entrypoints.

Message cité 1 fois
Message édité par iskor le 16-01-2019 à 14:30:11
n°1428554
dd_pak
Posté le 16-01-2019 à 14:34:07  profilanswer
 

iskor a écrit :

OK, merci pour tes éclaircissements, le truc des entrypoints je maîtrise pas... C'est l'inconvénient des auto formations, on arrive à se dépatouiller mais certains trucs nous échappent.
 
Après dans mon cas de test, je me viens de me rendre compte que je me compliquais la vie, il suffit de publier un autre port qui redirigera vers le 22 du container et ça roule.
 
Je vais bosser un peu sur les entrypoints.


 
Vérifie le mode "réseaux de ton Kubernetes", ou test avant avec un docker-compose sur un serveur externe pour avancer petit à petit...  
De mémoire un serveur ssh dans un container docker, faut vraiment 2-3 manips en plus du apt-get sinon ça va pas.

n°1428556
iskor
Posté le 16-01-2019 à 14:36:32  profilanswer
 

dd_pak a écrit :

 

Vérifie le mode "réseaux de ton Kubernetes", ou test avant avec un docker-compose sur un serveur externe pour avancer petit à petit...
De mémoire un serveur ssh dans un container docker, faut vraiment 2-3 manips en plus du apt-get sinon ça va pas.

 

J'ai édité, c'est bon. J'ai désactivé Kubernetes, rebooté, et zou.
J'ai déjà fait quelques modifs pour que ça fonctionne, javais déjà fait un dockerfile pour un SSH avec user chrooté au tout début de mon apprentissage :)

 

EDIT: c'est quand même chouette d'avoir des experts à qui causer :p

 
e_esprit a écrit :


Bien sur que c'est possible, faut jute que ton entrypoint soit un script qui va mettre à jour la conf (sed -i "s/^#?Port\ .*$/Port\ ${PORT}/" /etc/ssh/sshd_config) ou encore lancer le service sshd avec la bonne option en ligne de commande (sshd -p ${PORT} ...).

 

J'ai fait un dockerfile avec
CMD ["/usr/sbin/sshd", "-p ${PORT}", "-D"]

 

et j'appelle mon image avec  docker run -dit -p 3000:3000 -e PORT="3000" registry.local:5000/sshdperso

 

Mais j'ai un "bad port number", j'ai comme l'impression que la variable n'est pas prise en compte. Faut pas la déclarer quelque part dans le Dockerfile?


Message édité par iskor le 16-01-2019 à 15:24:02
n°1428561
e_esprit
Posté le 16-01-2019 à 16:43:44  profilanswer
 

Tu te bases sur quelle image pour construire ton image perso ?
Il est possible qu'il faille passer par un process bash pour que ça fonctionne :D


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1428562
dd_pak
Posté le 16-01-2019 à 16:54:34  profilanswer
 

Je comprends pas l'intérêt de changer le port ssh interne du container.  
Tu fais -p $port:22 et basta
Sinon je suis curieux de la raison de ce changement ?

n°1428579
iskor
Posté le 17-01-2019 à 08:13:13  profilanswer
 

e_esprit a écrit :

Tu te bases sur quelle image pour construire ton image perso ?
Il est possible qu'il faille passer par un process bash pour que ça fonctionne :D


L'image de base c'est ubuntu. Mais effectivement si j'exécute un script c'est envisageable :D
 
 

dd_pak a écrit :

Je comprends pas l'intérêt de changer le port ssh interne du container.  
Tu fais -p $port:22 et basta
Sinon je suis curieux de la raison de ce changement ?


En fait c'est un test pour un autre truc. Je fais le SSH parce que c'est l'un des trucs les plus faciles à tester :)
Mes collègues m'ont demandé si c'était possible de lancer un container en changeant le port d'écoute à chaque instance (à la main, pas en auto). J'ai exploré cette piste de juste faire correspondre un port différent du host et ne pas changer celui du container, et ça a eu l'air de convenir. Mais pour ma culture personnelle (et si ça peut m'être utile), j'aimerais bien comprendre le principe des arguments à passer à un container qui vont configurer certains aspects, comme le nom de la base LDAP ou le mot de passe superadmin à l'install d'un LDAP par exemple..

n°1428586
e_esprit
Posté le 17-01-2019 à 10:05:05  profilanswer
 

iskor a écrit :

Mais pour ma culture personnelle (et si ça peut m'être utile), j'aimerais bien comprendre le principe des arguments à passer à un container qui vont configurer certains aspects, comme le nom de la base LDAP ou le mot de passe superadmin à l'install d'un LDAP par exemple..


En gros, on va dire qu'il y a 3 façons de faire, le choix dépends de l'appli et de ton niveau d'aisance avec les différentes solutions :
1) l'appli gère elle-même les variables d'environnement et est capable de taper dedans si elles sont définies : rien de spécial à faire
2) l'appli ne gère pas, mais tu es à l'aise avec bash/shell : tu utilises un script qui va générer le fichier de conf (ou juste modifier 2/3 trucs) en fonction des variables d'environnements et qui va lancer l'appli derrière (pro-tip : au moment de lancer l'appli, faire un "exec l_appli", de façon à ce que le process de l'appli devienne le process principal du conteneur, et non un sous-processus de bash). Exemple : https://github.com/docker-library/w [...] rypoint.sh (pas forcément le plus simple, mais ça donne une idée).
3) l'appli ne gère pas, et tu souhaites utiliser un système qui gère la conf tout seul à base de template (par exemple confd). L'intérêt est que tu gère un template, et l'outil génère ta conf depuis des variables d'env, voire depuis autre chose (un outil de centralisation de la conf comme etcd ou consul). L'outil peut même dans certain cas (utilisation de etcd/consul avec notification) mettre à jour la conf et relancer ton process sans avoir à relancer le conteneur. Par contre faut se plonger un peu dans le fonctionnement de l'outil, donc moins immédiat à prendre en main que la solution 2) à base de bash. http://www.mricho.com/confd-and-do [...] ontainers/
 
Après y a une 4ème solution pour les applis maisons (que tu développes, ou que ta boite développe), c'est de les rendre configurable depuis l'extérieur (soit comme dans le cas 1) via des variable d'env, soit en s'adressant à un serveur de conf/discovery service, etc...). Mais bon, c'est déjà beaucoup plus particulier.
 
Sinon je te recommande de parcourir le docker hub et de regarder comment font les applis courantes, c'est une très bonne façon d'apprendre à faire des entrypoint.


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1428587
iskor
Posté le 17-01-2019 à 10:11:50  profilanswer
 

Merci pour ta réponse :)
Ce matin j'ai déjà vu 2-3pages qui m'ont un peu éclairé, mais c'est encore très flou.  
J'avais pas pensé à aller chercher sur le hub, vu que je n'y avais trouvé que des images toutes prêtes jusqu'à présent :)
 
Merci!

n°1428588
e_esprit
Posté le 17-01-2019 à 10:17:12  profilanswer
 

Faut regarder les images en build auto, t'as un lien vers le Dockerfile/github ;)


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1428589
iskor
Posté le 17-01-2019 à 10:26:05  profilanswer
 

J'ai vu quelques dockerfiles en cherchant du LDAP, mais rien de folichon. Ya une section spéciale pour les images en build auto sur le hub?

n°1428590
e_esprit
Posté le 17-01-2019 à 10:56:13  profilanswer
 

Il me semble qu'avant on pouvait filtrer sur les build auto, mais ça ne semble plus être possible.
En général les images officielles sont dans ce mode là de toutes façons.


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1428607
iskor
Posté le 17-01-2019 à 16:37:14  profilanswer
 

C'est bon, j'ai réussi à me dépatouiller!  
Après je sais pas si c'est la solution la plus propre, mais ça marche!
 
- J'ai créé un script qui fait un sed avec en entrée un argument
- j'ai copié ce script dans mon image, et je l'ai mis en entrypoint, avec comme CMD mon numéro de port
- j'ai lancé l'image avec  
run -dit --name sshperso -p 3000:3000 master.local:5000/sshdperso 3000
 
Et c'est bon!
j'aurais bien aimé arriver à la solution qu'utilisent les images officielles style -e PORT=3000, mais pour un premier jet et en autoformation c'est pas si mal :D

n°1428728
dough29
Posté le 20-01-2019 à 09:51:02  profilanswer
 

Coucou les gros porteurs !
 
Je fais face à un dilemme concernant les conteneurs de bases de données (MySQL, MariaDB, PostgreSQL, ...) :
 
1° dois-je plutôt avoir une machine dédiée (VM quand même faut pas déconner) à la fourniture de ce service ?
2° dois-je créer un conteneur "global" qui sera attaqué par tous les conteneurs nécessitant une base de données ?
3° dois-je créer un conteneur DB pour chacun de mes services ?
 
J'aurai tendance à partir sur l'option 3 car c'est un peu le principe de Docker, on décrit le service dans sa globalité avec le service de DB dont il a besoin si nécessaire... mais quid des performances si je me retrouve avec 400 conteneurs MySQL ?
 
D'où l'idée d'avoir un Docker/VM dédié au service de DB :heink:
 
Des avis et retours d'expérience sur le sujet ?

n°1428731
dd_pak
Posté le 20-01-2019 à 12:45:01  profilanswer
 

Option 3
Pourquoi ça jouerai sur les performances, ce qui compte c'est ton nombre de connexion globale (approximativement on est d'accord)...
Si tu arrives à 400 containers, tu as un orchestrateur qui gère ça, tu ne le fais pas à la main  :o

n°1428732
Je@nb
Kindly give dime
Posté le 20-01-2019 à 13:46:22  profilanswer
 

Bah un moteur sql pour gérer 10 DB c'est sûrement plus économique en ram que 10 containers avec un moteur chacun

n°1428733
dd_pak
Posté le 20-01-2019 à 14:00:35  profilanswer
 

Je viens de regarder 50M de ram en moyenne par container chez moi.  
Par contre je peux faire tourner des versions différentes, quand je migre une app c'est plus simple (docker compose), ça scale mieux, la gestion des droits et plus simple, etc...
Si c'est pour tout mettre dans le même container, autant laisser tomber docker et faire une VM

n°1428734
Je@nb
Kindly give dime
Posté le 20-01-2019 à 14:11:21  profilanswer
 

Je dis pas le contraire :D

n°1428757
LeRiton
Posté le 21-01-2019 à 15:34:40  profilanswer
 

dough29 a écrit :

Coucou les gros porteurs !
 
Je fais face à un dilemme concernant les conteneurs de bases de données (MySQL, MariaDB, PostgreSQL, ...) :
 
1° dois-je plutôt avoir une machine dédiée (VM quand même faut pas déconner) à la fourniture de ce service ?
2° dois-je créer un conteneur "global" qui sera attaqué par tous les conteneurs nécessitant une base de données ?
3° dois-je créer un conteneur DB pour chacun de mes services ?
 
J'aurai tendance à partir sur l'option 3 car c'est un peu le principe de Docker, on décrit le service dans sa globalité avec le service de DB dont il a besoin si nécessaire... mais quid des performances si je me retrouve avec 400 conteneurs MySQL ?
 
D'où l'idée d'avoir un Docker/VM dédié au service de DB :heink:
 
Des avis et retours d'expérience sur le sujet ?


 

dd_pak a écrit :

Option 3
Pourquoi ça jouerai sur les performances, ce qui compte c'est ton nombre de connexion globale (approximativement on est d'accord)...
Si tu arrives à 400 containers, tu as un orchestrateur qui gère ça, tu ne le fais pas à la main  :o


 
Je suis pas expert, mais la dernière fois que je me suis penché sur le sujet, c'était vraiment bad practice d'utiliser Docker pour les DB (en prod en tout cas). Y'a une pelleté d'articles sur l'intarweb qui expliqueront ça mieux que moi. Je vote option 1 donc.

n°1428836
e_esprit
Posté le 23-01-2019 à 12:15:25  profilanswer
 

+1
 
Les DB dans du conteneur c'est bien pour du dev, pour de la prod c'est pas top, sauf si ton système est distribué et résilient (probablement pas ton cas sinon tu ne poserais pas cette question).
 
Après tout dépends de ce que tu stockes dans ta DB, y a pas de réponse générale, c'est du cas par cas. Si c'est un cache qui peut être reconstruit, tu peux, par exemple.


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1428937
LOL POLARI​SE
cadre en trading
Posté le 25-01-2019 à 15:54:18  profilanswer
 

Hello,
 
Je trouve pas de topic unique kubernetes ou openshift, alors je demande ici à tout hasard ; c'est quoi la différence entre external ip et ingress ip ? Je trouve la doc floue sur le sujet : https://docs.openshift.com/containe [...] vices.html

n°1428946
dd_pak
Posté le 25-01-2019 à 19:16:24  profilanswer
 

LOL POLARISE a écrit :

Hello,
 
Je trouve pas de topic unique kubernetes ou openshift, alors je demande ici à tout hasard ; c'est quoi la différence entre external ip et ingress ip ? Je trouve la doc floue sur le sujet : https://docs.openshift.com/containe [...] vices.html


 
De ce que je comprends avec la doc
external IP tu la fixe toi même dans la plage IP
ingress ip c'est dynamique dans la plage IP
 
Je suis peut être des conneries  :o

n°1428947
LOL POLARI​SE
cadre en trading
Posté le 25-01-2019 à 20:16:06  profilanswer
 

dd_pak a écrit :


 
De ce que je comprends avec la doc
external IP tu la fixe toi même dans la plage IP
ingress ip c'est dynamique dans la plage IP
 
Je suis peut être des conneries  :o


 
C'est très possible maintenant que tu le dis, mais ça pourrait être plus clair...
 

Citation :

Service ingressIPs
In non-cloud clusters, externalIP addresses can be automatically assigned from a pool of addresses. This eliminates the need for the administrator manually assigning them.


 
On dirait bien qu'il sous-entend que le ingressIP c'est une façon de pas avoir besoin de set un externalIP :jap:

n°1428950
dd_pak
Posté le 25-01-2019 à 22:49:04  profilanswer
 

LOL POLARISE a écrit :


 
On dirait bien qu'il sous-entend que le ingressIP c'est une façon de pas avoir besoin de set un externalIP :jap:


 
Oui je pense aussi !
Avec un proxy qui écoute la plage ça devient puissant niveau souplesse, plus rien a gérer au niveau réseaux.

n°1431357
lexomilou
Posté le 13-03-2019 à 18:24:25  profilanswer
 

Bonsoir à tous,
 
Je découvre avec plaisir docker sur un vieux raspberry 2 :)
En revanche je n'arrive pas à trouver un container d'agenda multiple un peu façon outlook.
La raison ?
Là où je remplace ils utilisent outlook pour une connexion du cabinet de 2Mega.
Bilan un rdv est visible 15minutes plus tard car il faut récupérer cela sur le net.
Du coup je cherche à mettre au point un calendrier multiple en local.
Je suis preneur si vous connaissez un container qui peut repondre à ma demande car pour l'instant je ne trouve que des calendriers simples.
J'avais espoir avec Nextcloud et son agenda mais il ne sépare pas les utilisateurs :-/
 
Drap au passage  [:jcqs]


Message édité par lexomilou le 13-03-2019 à 18:26:47
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  13  14  15  ..  45  46  47  48  49  50

Aller à :
Ajouter une réponse
 

Sujets relatifs
Docker deux fenetres sous KDE ?[Window Maker] Comment docker 2x la même appli ?
Plus de sujets relatifs à : [TOPICUNIK] Docker


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR