Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3040 connectés 

 

 

Proxmox c'est ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  65  66  67  ..  200  201  202  203  204  205
Auteur Sujet :

[TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !

n°1425836
gnarky
Sac à puces
Posté le 13-11-2018 à 05:53:39  profilanswer
 

Reprise du message précédent :
Merci pour vos réponses.
Oui, effectivement, il faut deux interfaces réseau, si j'ai bien compris: un pont WAN (relié au port eth0, qui connecte le host et pfsense avec l'extérieur) et un pont LAN (pour les VMs).
 
J'ai fait une fresh intall et j'ai suivi un tutoriel : https://www.quent1.fr/2016/09/insta [...] t-pfsense/
Il y a un premier blocage: l'interface proxmox refuse de créer le deuxième pont avec une passerelle différente (il ne peut y avoir qu'une passerelle par défaut). Bizarrement, l'auteur du tutorial n'a pas eu ce problème. Il utilise probablement une version différente.
Enfin, je vais essayer de faire autrement ou d'ajouter la passerelle du deuxième pont directement en sur /etc/network/interface
Je vous tiendrai au courant.
 
(et oui, je sais, la faute dans le commentaire ne change rien, mais bon ça fait un peu tache)
 

mood
Publicité
Posté le 13-11-2018 à 05:53:39  profilanswer
 

n°1425839
l0g4n
Expert en tout :o
Posté le 13-11-2018 à 07:13:20  profilanswer
 

Évidemment que ton proxmox ne peut avoir qu'une passerelle par défaut !
Allez hop, cours de réseau pour les nuls :o

Message cité 2 fois
Message édité par l0g4n le 13-11-2018 à 07:19:48

---------------
Fort et motivé. Sauf parfois.
n°1425847
b0ugie
Cyber-DeepCloud Instructor
Posté le 13-11-2018 à 10:11:56  profilanswer
 

l0g4n a écrit :

Évidemment que ton proxmox ne peut avoir qu'une passerelle par défaut !
Allez hop, cours de réseau pour les nuls :o


Non, strictement parlant, tu peux avoir plusieurs routes avec le même poids.


---------------
Une femme c'est temporaire - une ex c'est pour la vie.
n°1425851
gnarky
Sac à puces
Posté le 13-11-2018 à 11:04:59  profilanswer
 

l0g4n a écrit :

Évidemment que ton proxmox ne peut avoir qu'une passerelle par défaut !
Allez hop, cours de réseau pour les nuls :o


 
Oui, j'ai besoin d'un cours de réseau, justement  :pt1cable:  
Le tutoriel que j'ai essayé de suivre configure une passerelle différente sur chacun des deux bridge. https://www.quent1.fr/2016/09/insta [...] t-pfsense/

n°1425854
l0g4n
Expert en tout :o
Posté le 13-11-2018 à 13:01:49  profilanswer
 

b0ugie a écrit :


Non, strictement parlant, tu peux avoir plusieurs routes avec le même poids.


Strictement parlant, oui. Mais je pense pas qu'il en soit a ce niveau si il pose ce type de questions.


---------------
Fort et motivé. Sauf parfois.
n°1425855
l0g4n
Expert en tout :o
Posté le 13-11-2018 à 13:02:40  profilanswer
 

Gnarky, t'a pas besoin de configurer, au niveau de proxmox, une passerelle sur le bridge qui servira de réseau "interne".


---------------
Fort et motivé. Sauf parfois.
n°1426065
Ketchoupi1
Posté le 21-11-2018 à 19:37:11  profilanswer
 

bonjour
 
je decouvre proxmox (je n y connais pas grand chose)
 
pour debuter, je suis ceci :
http://www.touteladomotique.com/fo [...] 18&t=19434
 
dont à la fin l interface reseau :  
http://www.touteladomotique.com/in [...] &Itemid=90
 
je ne sais pas si cela repond a ton besoin
 
cordialement

n°1426161
LibreArbit​re
RIP mon Orion
Posté le 22-11-2018 à 23:45:36  profilanswer
 

Dites, j'ai besoin de Docker+Portainer et j'hésite entre mettre ça dans un container ou dans une VM, une recommandation sachant que ça sera stocké sur un share NFS (ou pas, éventuellement sur le SSD en local, ça me donnera l'occasion de tester une Storage Migration sur autre chose qu'ESXi :)


---------------
Hebergement d'images | Le topic de la VR standalone
n°1426192
decamerone
Posté le 23-11-2018 à 14:56:41  profilanswer
 

LibreArbitre a écrit :

Dites, j'ai besoin de Docker+Portainer et j'hésite entre mettre ça dans un container ou dans une VM, une recommandation sachant que ça sera stocké sur un share NFS (ou pas, éventuellement sur le SSD en local, ça me donnera l'occasion de tester une Storage Migration sur autre chose qu'ESXi :)


Tu peux aussi installer docker sur l'host proxmox si c'est pas pour de la prod.

n°1426193
LibreArbit​re
RIP mon Orion
Posté le 23-11-2018 à 15:40:11  profilanswer
 

Oui, c'est ce que je me suis dit en lisant ce tuto : https://www.servethehome.com/creati [...] ment-guis/
 
C'est pas pour de la prod mais ce qui me gêne c'est ce qui est relevé dans un des commentaires sur le fait que si un container est compromis alors l'attaquant peut potentiellement accéder à une élévation de privilège le processus Docker étant exécuté en root, avoir alors accès à Proxmox...
 
C'est du lab mais quand même...


---------------
Hebergement d'images | Le topic de la VR standalone
mood
Publicité
Posté le 23-11-2018 à 15:40:11  profilanswer
 

n°1426510
Zedosix
Posté le 28-11-2018 à 11:33:43  profilanswer
 

Bonjour à tous,
 
Je m'apprête à configurer un pool de stockage Ceph sur un cluster de 3 nœuds (3 OSD au total, un seul par nœud).
J'aurais juste besoin que quelqu'un me confirme si je ne fais pas fausse route sur les paramètres que je rentre lors de la création du pool.
 
https://i.ibb.co/CzrvqJW/Capture.png
 
Je cherche à avoir 2 copies sur l'ensemble de mon noeud. (Chaque OSD fait 3 To, donc 9 To au total, donc je dois paramétrer size=2 : 9 To/2 = 4,5 To utiles sur l'ensemble du cluster.)
Si un nœud/OSD tombe HS, tout le système avec les VM doit rester fonctionnel sur les 2 nœuds restants grâce à la seconde copie. (Corrigez moi si je me trompe)
Ce que j'ai du mal à comprendre, c'est min.size. Il correspond au nombre de copie minimale restante en cas de défaillance ? (dans mon cas ce serait 1 alors) Ou bien ça correspond au nombre de nœuds du cluster encore en fonctionnement ? (du coup 2)
pg_num j'ai lu que 100 était une bonne valeur, mais j'aimerais connaître une formule de calcul qui me permette d'être sûr de ce que je paramètre.
 
Si quelqu'un est calé en stockage répartit Ceph je suis preneur de ses connaissances. (avec les histoires de size/minsize, qui se note X/Y d'après quelques infos que j'ai pu lire)
Merci d'avance.

n°1426511
LibreArbit​re
RIP mon Orion
Posté le 28-11-2018 à 11:45:10  profilanswer
 

Réponse à la con mais que te dit la doc en cliquant sur le bouton Help de ton screenshot ? C'est pas du tout pour clamer un RTFM mais à chaque interrogation j'ai cliqué sur ce bouton et les explications me semblaient bien pertinentes (et peut-être pas adaptée à ton contexte)...


---------------
Hebergement d'images | Le topic de la VR standalone
n°1426516
Zedosix
Posté le 28-11-2018 à 12:44:37  profilanswer
 

J'ai jeté un oeil, et c'est vrai qu'on y trouve la formule pour calculer le nombre de PG. Par contre concernant les size voilà ce qu'on y trouve :  
 
"When no options are given, we set a default of 64 PGs, a size of 3 replicas and a min_size of 2 replicas for serving objects in a degraded state."
 
Ça n'explique pas concrètement comment cela fonctionne.

n°1426520
Deadlock
Feck off, cup !
Posté le 28-11-2018 à 14:05:58  profilanswer
 

Min size c'est le nombre de copies online pour que le pool reste "actif".
Dans ton cas, 2/1 veut dire deux copies des datas et une est suffisante pour que le pool soit accessible.
Je suis parti sur du 3/1 avec une configuration identique à la tienne (3 nodes et 1 osd/node). Donc chaque node peut démarrer seul avec les VMs dont j'ai absolument besoin dans cet état.


---------------
Institutions européennes: Ensemble d'outils dont le but est de transformer une grande quantité d'argent en merde. Cette merde est utilisée pour créer de nouveaux fonctionnaires. L'argent restant payant des externes pour faire leur travail.
n°1426607
Zedosix
Posté le 29-11-2018 à 16:18:01  profilanswer
 

Merci j'y vois plus clair. Je viens de créer mon pool en 2/1. Pour tester tout ça, j'ai volontairement coupé un des 3 nœuds sur lequel s'exécutait une VM. Elle a bien basculé sur un des 2 autres nœuds encore en fonctionnement.
Par contre, si je me rend dans le menu Ceph, j'ai pu voir dans les lignes de statut une info indiquant "Degraded data redundancy, 231/834 objects degraded, 70 pgs degraded, 75 pgs undersized"
 
https://i.ibb.co/Jxx0Prf/Test-Node-HS.png
 
Ce message indiquerait que j'ai potentiellement des données corrompues/perdues ?

n°1426609
ptibeur
Today you, tomorrow me
Posté le 29-11-2018 à 16:50:22  profilanswer
 

Je me pose la même question donc si tu peux tester l'accès à un fichier en mode "degraded" ça confirmerait :D  
 
Dans un contexte RAID, un array RAID en mode "dégradé" ne signifie pas que les données sont corrompues mais uniquement que la redondance n'est pas optimale. Par exemple un array RAID5 avec un disque défaillant ne perd aucune donnée, mais n'est plus redondant, il est donc en DEGRADED au lieu de OPTIMAL.  
 
J'espère que c'est la même chose pour CEPH :)


---------------
It ain't what you got, it's what you do with what you have... do you understand? And, it ain't what you do, it's how you do it.
n°1426610
webmail-75​000
Posté le 29-11-2018 à 16:57:28  profilanswer
 

je monte mon cluster proxmox avec deux noeud actuellement bientot 3, un server et deux barebones.
Je compte stocker une partie des vm sur un nas accessible en NFS et quelques unes sur les SSD des trois hotes.
Aies-je intêret à mettre ses ssd en ZFS lors de l'install des proxmox? (seul le serveur a de la ram ecc)  
merci :)


---------------

n°1426612
Deadlock
Feck off, cup !
Posté le 29-11-2018 à 17:41:11  profilanswer
 

Zedosix a écrit :

Merci j'y vois plus clair. Je viens de créer mon pool en 2/1. Pour tester tout ça, j'ai volontairement coupé un des 3 nœuds sur lequel s'exécutait une VM. Elle a bien basculé sur un des 2 autres nœuds encore en fonctionnement.
Par contre, si je me rend dans le menu Ceph, j'ai pu voir dans les lignes de statut une info indiquant "Degraded data redundancy, 231/834 objects degraded, 70 pgs degraded, 75 pgs undersized"

 

https://i.ibb.co/Jxx0Prf/Test-Node-HS.png

 

Ce message indiquerait que j'ai potentiellement des données corrompues/perdues ?


Non ça veut juste dire que tu as des pgs qui ne respectent plus la directive "2 copies" suite à la perte d'un nœud. Une fois l'osd de nouveau up il va resynchroniser ces pgs.


---------------
Institutions européennes: Ensemble d'outils dont le but est de transformer une grande quantité d'argent en merde. Cette merde est utilisée pour créer de nouveaux fonctionnaires. L'argent restant payant des externes pour faire leur travail.
n°1426703
b0wh
Posté le 02-12-2018 à 07:39:18  profilanswer
 

:hello:
 
De retour avec une question :
 
J'ai plusieurs conteneurs différents qui vont récupérer des infos à droite à gauche sur les Internets
 
A côté de ça, je viens de monter un OpenVPN dans un conteneur avec le paramétrage qui va bien, tout est OK :jap:
 
Comment faire transiter mes conteneurs par ce dernier (OpenVPN) pour qu'ils puissent en profiter ?

n°1426708
Deadlock
Feck off, cup !
Posté le 02-12-2018 à 09:53:01  profilanswer
 

b0wh a écrit :

:hello:

 

De retour avec une question :

 

J'ai plusieurs conteneurs différents qui vont récupérer des infos à droite à gauche sur les Internets

 

A côté de ça, je viens de monter un OpenVPN dans un conteneur avec le paramétrage qui va bien, tout est OK :jap:

 

Comment faire transiter mes conteneurs par ce dernier (OpenVPN) pour qu'ils puissent en profiter ?


Ton vpn hébergé est un VPN "input" permettant de te connecter à tes containers depuis l'extérieur. En aucun cas ce que tu cherches à faire.
Il te faut un VPN externe à ton réseau si tu veux masquer/sécuriser l'activité de tes containers :spamafote:


---------------
Institutions européennes: Ensemble d'outils dont le but est de transformer une grande quantité d'argent en merde. Cette merde est utilisée pour créer de nouveaux fonctionnaires. L'argent restant payant des externes pour faire leur travail.
n°1426730
b0wh
Posté le 02-12-2018 à 15:23:16  profilanswer
 

Deadlock a écrit :


Ton vpn hébergé est un VPN "input" permettant de te connecter à tes containers depuis l'extérieur. En aucun cas ce que tu cherches à faire.
Il te faut un VPN externe à ton réseau si tu veux masquer/sécuriser l'activité de tes containers :spamafote:


J’ai mal détaillé mon montage : c’est ProtonVPN monté dans un container via OpenVPN
 
Edit : bref, de ce que j’en comprends je dois paramétrer des routes côté VPN mais aussi ajouter des éléments sur chaque client ?


Message édité par b0wh le 02-12-2018 à 15:24:12
n°1426832
webmail-75​000
Posté le 05-12-2018 à 21:13:33  profilanswer
 

ça y est, ma nouvelle infra est quasi en place
srv1  principal : E3-1260l, 24go de ram, raid1 de 240go de ssd et raid1 de 500go de HDD sur une Perc H200 et une carte quad gigabit
srv2 secondaire : barebone avec 8go de ram un SSD de 128go et un de 32 sur un celeron N2930, deux ports gigabit
srv3 à venir mais quasi identique au srv2  
et enfin un nas IX4-300d, avec 4*2to en raid 10. Ses deux ports réseau sont agrégés. Une fois que les deux srv seront dans le rack (ils sont encore dans le bureau) je ferai aussi de l'agrégation de port pour avoir le réseau SRV/NAS en full 2gb
 
Les actuels deux servers sont en cluster, mes anciennes vm linux de mon ESX ont été migrées avec succès, je n'ai pas cherché à migrer les vm windows car je comptais les abandonner.
Premier container créé pour le Unifi Controller
 
alors pour être honnete, je me tate à mettre en route le 3e server, et aussi à retirer 8go de ram du srv1
 
Je n'ai pas encore mesuré la conso, mais je dois être bien en dessous de l'ancien server qui avait deux X5650, 64go de ram, deux cartes raid et une carte quad gigabit, avec 8HDD et 2 SSD
 
merci pour les conseils reçu dans ce sujet qui m'a bien aidé à quitter Esxi et migrer vers Proxmox


---------------

n°1426837
Deadlock
Feck off, cup !
Posté le 06-12-2018 à 04:48:08  profilanswer
 

Si tu veux veux faire du HA mais que ton infra actuelle est suffisante, tu peux juste ajouter un RPI qui servira de 3ème node corosync (witness).


---------------
Institutions européennes: Ensemble d'outils dont le but est de transformer une grande quantité d'argent en merde. Cette merde est utilisée pour créer de nouveaux fonctionnaires. L'argent restant payant des externes pour faire leur travail.
n°1426841
webmail-75​000
Posté le 06-12-2018 à 08:56:48  profilanswer
 

j'ai essayé de mettre un proxmox juste pour le corrum en vm sur mon nas qnap mais j'ai un soucis de neested virtualization
pour le pi il faut mettre proxmox dessus ou juste corosync?


---------------

n°1426842
Deadlock
Feck off, cup !
Posté le 06-12-2018 à 09:11:55  profilanswer
 

webmail-75000 a écrit :

j'ai essayé de mettre un proxmox juste pour le corrum en vm sur mon nas qnap mais j'ai un soucis de neested virtualization
pour le pi il faut mettre proxmox dessus ou juste corosync?


Tu as quel soft de virtualisation sur le Qnap ? J'avais cette config à l'époque avec une VM Proxmox sous phpVirtualbox dans un Syno et sans soucis de NV. Le CPU de ton NAS est bien x86_64/VT-x ?
Pour utiliser un RPI (où une VM debian sur le NAS si pas VT-x) en witness corosync: https://pve.proxmox.com/wiki/Raspberry_Pi_as_third_node

Message cité 1 fois
Message édité par Deadlock le 06-12-2018 à 09:12:38

---------------
Institutions européennes: Ensemble d'outils dont le but est de transformer une grande quantité d'argent en merde. Cette merde est utilisée pour créer de nouveaux fonctionnaires. L'argent restant payant des externes pour faire leur travail.
n°1426843
lestat67se​l
:-)
Posté le 06-12-2018 à 09:14:36  profilanswer
 

webmail-75000 a écrit :

ça y est, ma nouvelle infra est quasi en place
srv1  principal : E3-1260l, 24go de ram, raid1 de 240go de ssd et raid1 de 500go de HDD sur une Perc H200 et une carte quad gigabit
srv2 secondaire : barebone avec 8go de ram un SSD de 128go et un de 32 sur un celeron N2930, deux ports gigabit
srv3 à venir mais quasi identique au srv2  
et enfin un nas IX4-300d, avec 4*2to en raid 10. Ses deux ports réseau sont agrégés. Une fois que les deux srv seront dans le rack (ils sont encore dans le bureau) je ferai aussi de l'agrégation de port pour avoir le réseau SRV/NAS en full 2gb
 
Les actuels deux servers sont en cluster, mes anciennes vm linux de mon ESX ont été migrées avec succès, je n'ai pas cherché à migrer les vm windows car je comptais les abandonner.
Premier container créé pour le Unifi Controller
 
alors pour être honnete, je me tate à mettre en route le 3e server, et aussi à retirer 8go de ram du srv1
 
Je n'ai pas encore mesuré la conso, mais je dois être bien en dessous de l'ancien server qui avait deux X5650, 64go de ram, deux cartes raid et une carte quad gigabit, avec 8HDD et 2 SSD
 
merci pour les conseils reçu dans ce sujet qui m'a bien aidé à quitter Esxi et migrer vers Proxmox


 
Bienvenue du bon côté de la force  [:yoda_aloy]  

n°1426844
Deadlock
Feck off, cup !
Posté le 06-12-2018 à 09:17:21  profilanswer
 

S'il pouvait maintenant porter la bonne parole sur le topic HP Microserver ça permettrait de rendre ce dernier plus lisible ... Mais aussi le faire couler dans les profondeur du forum  [:chewyy]


---------------
Institutions européennes: Ensemble d'outils dont le but est de transformer une grande quantité d'argent en merde. Cette merde est utilisée pour créer de nouveaux fonctionnaires. L'argent restant payant des externes pour faire leur travail.
n°1426846
webmail-75​000
Posté le 06-12-2018 à 09:59:58  profilanswer
 

Deadlock a écrit :


Tu as quel soft de virtualisation sur le Qnap ? J'avais cette config à l'époque avec une VM Proxmox sous phpVirtualbox dans un Syno et sans soucis de NV. Le CPU de ton NAS est bien x86_64/VT-x ?
Pour utiliser un RPI (où une VM debian sur le NAS si pas VT-x) en witness corosync: https://pve.proxmox.com/wiki/Raspberry_Pi_as_third_node


virtualizationstation de qnap

lestat67sel a écrit :


 
Bienvenue du bon côté de la force  [:yoda_aloy]  


 :jap:  
je vais conteneuriser certains services en vm actuellement


---------------

n°1426847
Zedosix
Posté le 06-12-2018 à 10:00:58  profilanswer
 

Petite question subsidiaire concernant Ceph : une idée de la taille que représenterait la journalisation d'un OSD de 3 To ? (j'envisage de stocker cette journalisation sur un SSD à part, sauf si vous me dites qu'il n'y a pas vraiment d'intérêt que ce soit terme de performances ou de sécurité)

n°1426850
meluor
Posté le 06-12-2018 à 14:30:30  profilanswer
 

Bonjour,
Nous avons reçu un devis de changement de serveur pour mon boulot.
Il s'agirait d'un serveur (HP ProLiant DL380 G8) où proxmox serait installé pour faire tourner plusieurs VM (windows et linux).
J'ai suggéré à l'auteur du devis de rajouter une solution réseau, histoire de pouvoir faire la base (filtrage, proxy, QoS, etc).
Ce dernier a l'air de penser que cela nécessiterait une machine dédiée, plutôt que virtualiser un pfsense ou consors sur une VM du serveur.
Y a-t-il de la doc ou des retours d'expérience un peu officiels/faisant autorité pour le convaincre que ce n'est pas du bricolage que de prévoir cela sur une VM du serveur ?
Après si effectivement ce n'est pas sûr de mettre les œufs du réseau dans le même panier du serveur (ou que je ne pose pas la question au bon endroit), n'hésitez pas à le dire aussi je suis prêt à l'entendre :jap:

n°1426851
Deadlock
Feck off, cup !
Posté le 06-12-2018 à 14:50:45  profilanswer
 

Au sens large, je fais toujours en sorte qu'un serveur ne soit pas client d'une de ses VMs ... Donc pour moi tant que le node Proxmox n'est pas lui même client de ces VMs  (dont pfsense/proxy/dhcp/etc...) je ne vois pas pourquoi tu ne peux pas virtualiser pfsense.
Maintenant pour des raisons de service, je mettrai quand même un second serveur en cluster avec celui-ci, éventuellement plus "petit" pour héberger seulement les VMs critiques en cas de crash/maintenance.


Message édité par Deadlock le 06-12-2018 à 14:51:25

---------------
Institutions européennes: Ensemble d'outils dont le but est de transformer une grande quantité d'argent en merde. Cette merde est utilisée pour créer de nouveaux fonctionnaires. L'argent restant payant des externes pour faire leur travail.
n°1426852
lestat67se​l
:-)
Posté le 06-12-2018 à 15:23:50  profilanswer
 

En environnement pro, ça sent quand même la bidouille :o
 
Mais +1, la base ce serait déjà d’avoir 2 noeud dans le cluster.
Après pour pfsense, ça dépend ce que tu veux lui faire faire. Il faut que ta VM pfsense puisse basculer d'un noeud à l'autre (voir les arrivé réseau etc ..)
 
Après si tu poses la question, j'imagine que la strucutre de la boite est toute petite, un compromis me choquerait moins. Si je proposait ça chez nous, j'pense qu'on se fouterait bien de ma gueule :o


Message édité par lestat67sel le 06-12-2018 à 15:24:43
n°1426862
meluor
Posté le 06-12-2018 à 19:56:59  profilanswer
 

Bonsoir, et merci pour vos réponses. Oui c'est une petite boîte où l'on ne fait pas (encore ?) de haute disponibilité, il n'y aurait qu'un seul serveur (avec possibilité de remonter les VM sauvegardées, mais à la main, sur un autre serveur en cas de crash).

n°1426880
krank35
Posté le 07-12-2018 à 19:14:55  profilanswer
 

Bonjour à tous , je suis nouveau dans l'utilisation de Proxmox et je suis planté depuis une semaine sur le partage des disques du serveur
et une VM (enfin un CT) installée sur proxmox.
 
La configuration :
- Un serveur PowerEdge Dell avec Proxmox 5.2 d'installer
- Sur ce serveur j'ai trois disques dur  
- Disk1= Proxmox , Disk2=Vide formater à partir de Proxmox , Disk3=un disque avec déjà des données
- J'ai rajouté un CT Ubuntu 18.04 à partir des templates Proxmox
 
Mon serveur  Proxmox VE à l'adresse 192.168.0.130 et ma VM Ubuntu 192.168.0.131
 
Sur mon serveur j'ai dna sla VM Ubuntu j'ai rajouter le disk2 et le disk3 via répertoire
 
Je cherche à retrouver sur ma VM le disque que j'ai mon montés sur le serveur afin de faire un partage Samba pour les machines Windows et un partage NFS pour les machines Linux
 
Sur ma VM je ne sais comment faire pour voir mes partages ... lorsque je fais un lsblk je vois sdb->sdb1 et sdc->sdb1 mais dans /dev j'ai rien ???
 
Si quelqu'un peut m'éclairer ??
 
 
 

n°1426883
l0g4n
Expert en tout :o
Posté le 07-12-2018 à 19:40:48  profilanswer
 

C'est un CT, c'est pas une vm, tu n'accède pas a /dev dedans, c'est fait pour isoler des processus, pas forcément pour ce que tu essais de faire.


---------------
Fort et motivé. Sauf parfois.
n°1426885
krank35
Posté le 07-12-2018 à 20:54:59  profilanswer
 

OK je commence a comprendre pourquoi c'est la merde et rien ne fonctionne  
 
Merci
 
de l'info

n°1426886
krank35
Posté le 07-12-2018 à 21:00:55  profilanswer
 

ok merci
 
une bonne info

n°1426887
lestat67se​l
:-)
Posté le 07-12-2018 à 21:05:48  profilanswer
 

Pour un CT faut faire du bind de dossier.

n°1426900
futa
Posté le 08-12-2018 à 12:18:16  profilanswer
 

J'ai monté une VM Debian 9.6 + Tvheadend,
L'installation s'est passée correctement. Le tuner est reconnu correctement. Le scan des chaînes se fait correctement. Seul point noir: Lorsque je lance un flux tnt (environ 5Mbits), l'image pixelise toutes les 5 secondes environ.
Cela ressemble au comportement décrit sur ce post: https://forum.hardware.fr/hfr/OSAlt [...] m#t1408525
 
Le problème ne vient pas de mon cablage ni de mon antenne (installation neuve qui fonctionne sans accrocs sur différentes TV. Concernant le tuner TNT usb utilisé dans cette installation, je l'utilisait avec Tvheadend sur un rpi sans constater ce problème.
 
SI besoin, ma config:
Intel DQ45CB (Support intel VT-X/VT-D)
C2D E8400 (Support intel VT-D)
8Go DDR2
2x2To WD en ZFS Mirrored Vdev’s
Je n'ai pas trouvé de solution en parcourant ce topic. Quelqu'un aurait une idée?
CPU et RAM non saturée (1CT et 1VM tournent en plus de la VM Tvheadend)


Message édité par futa le 08-12-2018 à 12:19:05
n°1426903
krank35
Posté le 08-12-2018 à 14:37:18  profilanswer
 

lestat67sel a écrit :

Pour un CT faut faire du bind de dossier.


 
Merci je viens de faire un essai et ça fonctionne  
 
Je donne la démarche de mon essai :
-Proxmox serveur Nom pve
-CT Nom Alpine (ID 100)
 
1-création des répertoires /mnt/bindmounts/partage sur Serveur pve
2-rajout du fichier dans /mnt/bindmounts/partage/fichier1.txt  
3-création du répertoire /partage sur CT Alpine
4-rajout de la ligne ci-dessous dans /etc/pve/lxc/100.conf. sur Serveur pve
    mp0: /mnt/bindmounts/partage,mp=/partage
5-reboot de CT Alpine
6-Visu des fichiers de depuis CT Alpine dans /partage
 
 
Doc officielle  
https://pve.proxmox.com/wiki/Linux_Container
 
       

n°1426904
webmail-75​000
Posté le 08-12-2018 à 14:39:18  profilanswer
 

j'ai l'impression que les container de temps en temps sont plus "lents" que les vms, possible?
j'ai du rebooter mes loadbalancer (haproxy). ils répondaient mais genre je me logguait dessus (ssh) 5secondes après il faisait le prompt password, 5 secondes après il était logué,... normal?


---------------

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  65  66  67  ..  200  201  202  203  204  205

Aller à :
Ajouter une réponse
 

Sujets relatifs
Choix Hyperviseur pour Xeon [Box de test]Routage vm Proxmox
Questionnement sur un hyperviseur[Topikunik] Personnalisation des interfaces graphiques
Plus de sujets relatifs à : [TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR