Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2683 connectés 

 

 

Proxmox c'est ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  57  58  59  ..  197  198  199  200  201  202
Auteur Sujet :

[TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !

n°1410122
decamerone
Posté le 13-11-2017 à 23:16:58  profilanswer
 

Reprise du message précédent :
Le contenu de ce message a été effacé par son auteur

mood
Publicité
Posté le 13-11-2017 à 23:16:58  profilanswer
 

n°1410123
freegate
Posté le 13-11-2017 à 23:18:25  profilanswer
 
n°1410124
freegate
Posté le 13-11-2017 à 23:21:50  profilanswer
 

Voila pour les screnshots :
https://www.dropbox.com/s/xg5a4mcbiv0y59k/img3.png?dl=0
https://www.dropbox.com/s/z9lmph4nn9zmb8j/img4.png?dl=0
 
Sinon en terme de filesystem c'est du zfs (raidzo) monté sur du raid matériel raid10 (adaptec 6405)

n°1410125
winproof38
Posté le 14-11-2017 à 01:05:41  profilanswer
 

ok, moi je dirais commence déjà par mettre a jour proxmox, on en est a la version 5.1 :)

n°1410127
decamerone
Posté le 14-11-2017 à 07:42:14  profilanswer
 

La version en Jessie est encore maintenue, ça se réfléchit un peu plus que ça de changer de version majeure de distro.

n°1410131
winproof38
Posté le 14-11-2017 à 09:53:21  profilanswer
 

decamerone a écrit :

La version en Jessie est encore maintenue, ça se réfléchit un peu plus que ça de changer de version majeure de distro.


 
c'est vrai, mais je parlais en général, je ne connait pas le contexte d'utilisation de freegate.
proxmox est basé sur de la debian, c'est quand même sacrément stable, et vu qu'il a un problème qu'il n'arrive pas a résoudre, de mon point de vue c'est une bonne raison pour envisager un changement de distro, voir si ça résout le pb, sauf bien sur si il a une raison technique de rester en 4.

n°1410139
freegate
Posté le 14-11-2017 à 15:21:06  profilanswer
 

Sages conseils. j'ai profité du week end pour passer en 5.1 justement (pas de migration, je suis parti sur une install propre).
J'attends de voir si le problème se reproduit pour vous en faire part. Mais je suis frustré de ne pas connaitre son origine.
 
C'est handicapant à l'utilisation. Car en cas de lock ce sont les vm qui s’arrêtent, et tant qu'un technicien n'est pas intervenu (moi en l'occurence) tout le monde est bloqué.


Message édité par freegate le 14-11-2017 à 15:22:32
n°1410140
decamerone
Posté le 14-11-2017 à 15:48:51  profilanswer
 

Le contenu de ce message a été effacé par son auteur

n°1410144
winproof38
Posté le 14-11-2017 à 17:16:30  profilanswer
 

:)

n°1410150
freegate
Posté le 15-11-2017 à 04:59:20  profilanswer
 

Bien sur que tu peux avoir les logs. J'ai 2 proxmoxs. Celui où il y a eu l'incident est encore en 4.4. L'autre est passé en 5.1 et j'ai migré toutes les vm dessus.  
 
On est en pleine enquête. Je ne vais quand même pas supprimé la scène de crime

mood
Publicité
Posté le 15-11-2017 à 04:59:20  profilanswer
 

n°1410158
eeeinstein
Électricien au CERN
Posté le 15-11-2017 à 11:04:21  profilanswer
 

petite question sur les sauvegarde/restauration
 
je vais bientôt refaire l'installation de mon proxmox, vu que je change mes hdd 10Krpm/300Go par un seul ssd de 525Go
 
comment est-ce que l'on fait pour restaurer les backup en tar.lzo, j'ai vu sur le wiki de proxmox qu'il fallait utiliser la commande "pct restore" ou "qmrestore"
 
Est-ce qu'il faut recréer les vms dans proxmox avec les hdd exact, ou est-ce que le fichier de restauration combien bien tous ?
 
merci

n°1410159
gizmo15
Posté le 15-11-2017 à 11:21:50  profilanswer
 

tu fais un qmrestore idvm monimage.tar.lzo et il refait tout, tout seul :)
 
ou sinon tu branche ton ssd en plus et tu change juste les disques de tes vm de stockage et voila

n°1410160
eeeinstein
Électricien au CERN
Posté le 15-11-2017 à 11:35:33  profilanswer
 

comment est-ce qu'il va faire avec les hdd virtuel ?

 

actuellement j'ai 2 HDD 300go en raid1 pour le system, 2 autre hdd de 300Go pour le stock de hdd des vm, 1 ssd pour certaines autre vm.

 

du coup je vais passer de 4 disque dur, par seulement 1 au début.

 

par exemple mon omv à 5 hdd virtuel, stocké sur chacun des hdd réel, on peut lui dire de restauré tout sur le SSD principale, ensuite je ferais des migrations, quand je recevrais mon ssd nvme
http://reho.st/self/16bbb2a2a86149d216ae347416ab74425e17578f.png


Message édité par eeeinstein le 15-11-2017 à 11:54:57
n°1410165
eeeinstein
Électricien au CERN
Posté le 15-11-2017 à 15:36:43  profilanswer
 

finalement, j'ai branché le hdd sur le proxmox neuf, monté le hdd, ajouté dans le "datacenter" et au final tout peut ce faire via la webgui :
http://reho.st/self/b0c8810eecb98b775e45dc100124eadfa1d34505.png
il ajoute tous les hdd virtuel à la racine du disque installé, donc tout à l'air good pour le moment

n°1410177
Bocal83
Posté le 16-11-2017 à 09:32:02  profilanswer
 

Salut,
 
Est-ce que certains d'entre vous ont tenté de faire une VM Domoticz sur Proxmox ?
Ca marcherait comment au niveau du récepteur ?
Car j'ai pas envie d'utiliser un Raspberry pour faire ça...
 
Merci !

n°1410181
Deadlock
Feck off, cup !
Posté le 16-11-2017 à 10:28:42  profilanswer
 

C'est un récepteur USB ? Si oui tu peux l'attacher à la VM donc comme n'importe quel périphérique.


---------------
Institutions européennes: Ensemble d'outils dont le but est de transformer une grande quantité d'argent en merde. Cette merde est utilisée pour créer de nouveaux fonctionnaires. L'argent restant payant des externes pour faire leur travail.
n°1410183
Bocal83
Posté le 16-11-2017 à 10:43:39  profilanswer
 

Ok c'est bien ce que je pensais.
Il faut que je trouve un récepteur USB compatible alors ;)
 
Merci !

n°1410194
Deadlock
Feck off, cup !
Posté le 16-11-2017 à 11:41:16  profilanswer
 

Migration pm5.0 -> 5.1 et ceph filestore -> bluestore done :o


---------------
Institutions européennes: Ensemble d'outils dont le but est de transformer une grande quantité d'argent en merde. Cette merde est utilisée pour créer de nouveaux fonctionnaires. L'argent restant payant des externes pour faire leur travail.
n°1410219
Koshi_n
Posté le 17-11-2017 à 10:12:05  profilanswer
 

:bounce:

n°1410285
turt64
Posté le 18-11-2017 à 17:56:08  profilanswer
 

Bonjour à tous,
 
Je dispose d'un serveur Proxmox 4.3.
 
Parmi toutes les vms, je dispose d'une VM 108 sur un vlan 99 supervision.
 
Pour me connecter à distance sur le proxmox, j'utilise une VM 105 d'entrée sous windows7 qui possède tout les outils de management sur vlan d'accés.
 
Je désirerai pouvoir utiliser la fonctionnalité du début de topic: utilisation de realVnc ou UltraVnc afin d’accéder à la vm supervision.
 
Je me connecte sur Ultra vnc avec IPPROXMOX:Port de la VM  
 
59060 stream tcp nowait root /usr/sbin/qm qm vncproxy 108
 
L'utra vnc ne me propose pas de saisir l'identifiant et le mot de passe root@pam
 
Comment puis-je forcer la saisie couple User/mdp dans vnc ou autres?
 
Merci pour vos réponses!
 
Cordialement,


---------------
"Le partage du savoir, contribue à l'évolution du progrès"
n°1410286
freegate
Posté le 18-11-2017 à 18:26:48  profilanswer
 

Je n'ai vraiment pas de chance avec proxmox. Je suis passé sur une 5.1 (fresh install)
 
Mes VM windows 2012R2 tombent toutes en rade (écran bleu avec l'erreur CRITICAL_STRUCTURE_CORRUPTION). Le problème est aléatoire. La VM peut fonctionner pendant des jours sans problème ou bien peut crasher 5 fois en un journée.  :fou:  
 
Mes VM sont à jour, les pilotes virtio sont à jour (0.1.141). Apparemment le problème est connu depuis le 24 octobre sur le forum proxmox mais non résolu à ce jour.
 
https://forum.proxmox.com/threads/b [...] 5-1.37664/
 
Semble-t-il que cela concerne certains CPU intel Xeon !!!
 
Un début solution serait de rétrograder en kernel 4.10, mais pour ceux qui ont une fresh install sur un file system en ZFS, cette solution n'est pas possible.
 
D'autres ont rencontré ce bug ?  :whistle:  
 
En tout cas j'informe du risque à passer en 5.1   :pfff:  

n°1410342
Deadlock
Feck off, cup !
Posté le 20-11-2017 à 14:33:13  profilanswer
 

C'est quand même robuste Debian ... Je nettoyais tranquillement les vieux kernels de mes nodes PM quand bien sûr, sur le 3ème, je "rate" ma regex et je vire tous les kernels, actif inclus :o
Vite un coup de apt install pve-kernel-xxxx, migration des VMs et reboot ... Et comme si de rien n'était :whistle:


Message édité par Deadlock le 20-11-2017 à 14:33:57

---------------
Institutions européennes: Ensemble d'outils dont le but est de transformer une grande quantité d'argent en merde. Cette merde est utilisée pour créer de nouveaux fonctionnaires. L'argent restant payant des externes pour faire leur travail.
n°1410369
depart
Posté le 20-11-2017 à 18:44:06  profilanswer
 

drapal : j'aimerai bien migrer un kimsufi (N2800 4Go de RAM) sous proxmox (1 seul container) juste pour avoir un backup super rapide à restaurer sur la machine ou une autre en cas de pépin, sans avoir douze mille commandes ssh à taper, fichiers de config à éditer... parce qu'entre le serveur web, mysql, le serveur mail...
 
Je vais lire le topic parce que pour l'instant je galère un peu en terme de config réseau...
 
Quelqu'un a déjà fait ça ? en gros j'aimerai que tout le trafic aille vers la VM (abus de langage pour dire le conteneur) sauf pour l'accès au ssh (22 ou remappé) et l'interface web proxmox (8006). Ou à l'envers, je veux bien mapper les ports un par un s'il faut, j'en aurai une douzaine à tout casser (ssh, http(s), pop(s), imap(s)...) j'ai pas encore trop capté comment faire ça proprement, si quelqu'un a un tuto je suis preneur (les trucs de blog.zwindler.fr sont un peu overkill pour moi (vm dédiée à pfsense, vpn obligatoire pour taper une VM en ssh...)).


Message édité par depart le 20-11-2017 à 20:21:00
n°1410421
depart
Posté le 21-11-2017 à 17:06:05  profilanswer
 

Bon après 24h de galère... ça semble fonctionner
 
#proxmox sur kimsufi
 
sur l'hôte :
créer un linux bridge nommé "vmbr1" (vmbr0 est déjà créé)
ip : 192.168.2.1
masque : 255.255.255.0
démarrage automatique
 
se loguer en root sur l'hôte

vi /etc/network/interfaces


 
à la section vmbr1 ajouter :

    post-up echo 1 > /proc/sys/net/ipv4/ip_forward
    post-up iptables -t nat -A POSTROUTING -s '192.168.2.0/24' -o vmbr0 -j MASQUERADE
    post-down iptables -t nat -D POSTROUTING -s '192.168.2.0/24' -o vmbr0 -j MASQUERADE
 
    # reroutage du trafic ssh (ssh du conteneur sera accessible sur l'ip publique port 2222)
    post-up iptables -t nat -A PREROUTING -i vmbr0 -p tcp --dport 2222 -j DNAT --to 192.168.2.2:22
    post-down iptables -t nat -D PREROUTING -i vmbr0 -p tcp --dport 2222 -j DNAT --to 192.168.2.2:22


 
sur le conteneur, paramètres réseau :
eth0 -> pont vers vmbr1
ip statique : 192.168.2.2/24
passerelle : 192.168.2.1
 
Démarrer le conteneur, se loguer via novnc et créer un user (car visiblement pas d'accès root depuis l'extérieur avec mot de passe).  
 
on reboote l'hôte, on démarre la VM et normalement depuis l'extérieur on peut faire un ssh sur l'ip publique port 2222 et ça permet de se loguer sur le conteneur créé avec le compte utilisateur créé !
Sur le même principe on peut rerouter le port 80, 443... puisque proxmox utilise le 22 pour le ssh de l'hôte et le 8006 pour l'interface d'admin, tout le reste est libre.
 
Après je n'ai pas été plus loin, est-ce que tout va fonctionner ? Je ne sais pas pourquoi mais le serveur de mails je le sens moyen...


Message édité par depart le 21-11-2017 à 17:44:23
n°1410935
mum1989
Posté le 05-12-2017 à 18:30:45  profilanswer
 

Bonjour,
existerait-il un tuto pour bien comprendre les interface virtuelle sous GNU/Linux notamment sous Proxmox
(avec des schéma pas seulement avec des fichiers de config déjà complétés qui n'explique rien :/ )
 
 
https://pve.proxmox.com/wiki/Networ [...] g_a_bridge
 
 
(mon besoin  
un serveur physique proxmox avec une seule interface réseau physique. ip fixe 192.168.1.180
un VM debian  dans l'hyperviseur proxmox avec une ip fixe 192.168.1.181
(par la suite j'ajouterais d'autre vm toujours dans le même réseau, je n'ai pas envie d'avoir un sous réseau)
 
ma conf actuelle :

Citation :

auto lo
iface lo inet loopback
 
allow-hotplug eth0
 
iface eth0 inet manual
 
iface eth0 inet6 auto
 
iface eth1 inet manual
 
auto vmbr0
iface vmbr0 inet static
        address  192.168.1.180/24
        gateway  192.168.1.1
        bridge_ports eth0
        bridge_stp off
        bridge_fd 0
# dns-*
#dns-nameservers 192.168.1.1
#dns-search tssi.lan


 
 
j'ai trouvé un gros tuto avec beau schéma, mais je n'ai pas réussi à transposer cette infra, sur la mienne ... :
https://blog.zwindler.fr/2017/07/18 [...] ie-part-2/
 
Merci

n°1410936
eeeinstein
Électricien au CERN
Posté le 05-12-2017 à 18:53:32  profilanswer
 

bah tu mets l'ip fixe sur la debian, je vois pas le soucis..

 

perso je passe par mon dhcp pour attribuer les adresses..


Message édité par eeeinstein le 05-12-2017 à 18:54:58
n°1410937
mum1989
Posté le 05-12-2017 à 19:10:47  profilanswer
 

J'ai justement mis une adresse ip sur la vm client (192.168.1.181)
mais je pingue rien (ni 192.168.1.181 ni 192.168.1.1).
 
(petite particularité, vu que je fais des test, proxmox est installé dans virtualbox, et la carte réseau et en accès par pont ) (oui je sais ce n'est pas idéal) :
mais j'ai suivi la conf ici :
https://pve.proxmox.com/wiki/Proxmo [...] nd_Run_PVE

n°1410939
winproof38
Posté le 05-12-2017 à 19:18:03  profilanswer
 

j'ai eu un peu le même genre de soucis sur mon infra de test, assure-toi qu'au niveau virtualbox, la carte réseau soit en mode promiscuous.
si je me souvient bien, c'est merdique a gérer coté virtualbox (idem avec vmware), c'est pour ca que pour mon infra de test j'ai fini par installer un proxmox nesté dans un autre proxmox.

n°1410942
mum1989
Posté le 05-12-2017 à 19:57:33  profilanswer
 

winproof38 a écrit :

j'ai eu un peu le même genre de soucis sur mon infra de test, assure-toi qu'au niveau virtualbox, la carte réseau soit en mode promiscuous.
si je me souvient bien, c'est merdique a gérer coté virtualbox (idem avec vmware), c'est pour ca que pour mon infra de test j'ai fini par installer un proxmox nesté dans un autre proxmox.


Je viens d'activer le mode promiscuous, et j'ai redémarré, pas de changement
 
Merci quand même.

n°1410952
matteu
Posté le 05-12-2017 à 23:39:49  profilanswer
 

attention de faire un cold reboot.
on arrete la vm puis on la demarre.
mais sinon oui le mode promiscuite est necessaire quand on virtualise un hyperviseur

Message cité 1 fois
Message édité par matteu le 05-12-2017 à 23:40:35

---------------
Mon Feedback---Mes ventes
n°1411394
winproof38
Posté le 15-12-2017 à 01:56:42  profilanswer
 

salut!
ch'tite question, sur vos VM windows (7 ou 10) vous utilisez plutôt un disque virtio ou ide?
et coté mémoire, driver balloon ou pas?
 
car ça fait plusieurs fois que j'ai des soucis de vm windows qui, de tt en tt, soit au démarrage, soit a l’arrêt, freeze avec le cpu a 100% (cpu vm), je suis obligé de passer par un "stop" pour résoudre le pb.
sur le site proxmox, a "win 7 guest best practices" il est indiqué d'utiliser le balloon, mais sur "performance tweaks" il est noté de ne pas l'utiliser...
 
enfin, coté image disque, plutot raw ou qcow2?

n°1411395
eeeinstein
Électricien au CERN
Posté le 15-12-2017 à 06:37:45  profilanswer
 

Win 7, hdd virtuo, raw, sur un SSD nvme

 

Drivers balloon aucune idée de ce que c'est

 

Aucun soucis particulier

n°1411419
decamerone
Posté le 15-12-2017 à 12:46:16  profilanswer
 

Raw c'est pas une super idée pour les snapshots.

n°1411459
mum1989
Posté le 16-12-2017 à 17:40:07  profilanswer
 

winproof38 a écrit :

j'ai eu un peu le même genre de soucis sur mon infra de test, assure-toi qu'au niveau virtualbox, la carte réseau soit en mode promiscuous.
si je me souvient bien, c'est merdique a gérer coté virtualbox (idem avec vmware), c'est pour ca que pour mon infra de test j'ai fini par installer un proxmox nesté dans un autre proxmox.


matteu a écrit :

attention de faire un cold reboot.
on arrete la vm puis on la demarre.
mais sinon oui le mode promiscuite est necessaire quand on virtualise un hyperviseur


Bon Bizarrement
la création de la carte virtuelle sur un serveur physique Proxmox a très bien fonctionné.  
 
------------------------------------------------------------------------------------------------------------------
 
J'ai maintenant une question au niveau du stockage sur proxmox :
 
 
mon SRV est sur  Proxmox 5.1 (J1900 + 4Go Ram)
Deux HDD d'1TO  RAID1 ( root / and /home with data) (proxmox + VM debian  dessus) (/dev/sda and /dev/sdc)
un HDD de 2To  avec déjà des données dessus (EXT4 /dev/sdb)
 
mon  fstab et mon storage.cfg :

Code :
  1. cat /etc/fstab
  2. # /etc/fstab: static file system information.
  3. #
  4. ##
  5. # <file system> <mount point>   <type>  <options>       <dump>  <pass>
  6. /dev/mapper/vg--red-vl--racine /               ext4    errors=remount-ro 0       1
  7. # (...)
  8. /dev/mapper/vg--red-vl--data /home           ext4    defaults        0       2
  9. /dev/mapper/vg--red-vl--swap none            swap    sw              0       0
  10. /dev/sr0        /media/cdrom0   udf,iso9660 user,noauto     0       0
  11. cat /etc/pve/storage.cfg
  12. dir: local
  13.         path /var/lib/vz
  14.         content rootdir,iso,images,vztmpl
  15.         maxfiles 0
  16. dir: data
  17.         path /home
  18.         content rootdir,images,iso,vztmpl,backup
  19.         maxfiles 0
  20.         shared 1


 
Je pense que je doit ajouter ça à mon fstab

Code :
  1. dev/sdb /media/data             ext4    errors=remount-ro 0       1


 
et à  storage.cfg
 

Code :
  1. dir: 2todata
  2.         path /media/data
  3.         content
  4.         maxfiles 0
  5.         shared 1


 
mais je n'en suis pas sur et je ne sais pas ce que je dois rajouter à la ligne "content" storage.cfg
 
J'ai peur qu'en ajoutant un disque dans storage ça m'écrase ou efface le contenu, puisque quand je met "iso" à content, ça créé des répertoire.
 
Merci

n°1411475
snipereyes
Posté le 16-12-2017 à 22:08:53  profilanswer
 

Sinon depuis l'interface web on peut le faire aussi :o


---------------
-- Topic de vente -- FeedBack --
n°1411481
mum1989
Posté le 17-12-2017 à 03:01:06  profilanswer
 

sinon c'est ça qu'il faut que je mette ?

 

et sinon mouai, les perfs sont pas terrible à priori,
mon débit en écriture a presque été divisé par deux sous Proxmox en Raid 1 logiciel (Atom quad core J1900 + 4Go de ram)
https://reho.st/thumb/self/ea17efcfe11e7b0ab58ebdfb7b78753822b5c6da.png


Message édité par mum1989 le 17-12-2017 à 03:13:38
n°1411539
matteu
Posté le 18-12-2017 à 19:53:01  profilanswer
 

deja ca swap... pas normal


---------------
Mon Feedback---Mes ventes
n°1411787
mum1989
Posté le 25-12-2017 à 14:15:31  profilanswer
 

matteu a écrit :

deja ca swap... pas normal


pourquoi ?
ça vient de quoi ?
 
fuite mémoire ?
toute ma ram n'est pas utilisée pourtant (80%)

n°1411847
ElMago31
Posté le 27-12-2017 à 16:39:00  profilanswer
 

Hello les barbus de la virtu,
 
J'espère que vous n'avez pas trop abusé du pingouin euh de la dinde à Noël.
 
Je m'en viens ici vous présenter mon projet de virtualisation.
Rien de bien compliqué (je pense même que l'on va me dire que c'est même un peu useless).
 
Il s'agit d'un serveur pour la maison avec :
-Une VM sur laquelle sera créé un NAS via OMV (oui un NAS virtualisé pastapper). La VM OMV sera installé sur le même disque que Proxmox. Quand aux disques du NAS il y aura 2*4To et 2*2To montés en RAID1.
-Une VM Win10 (pastaper c'est pour Mme) hébergée sur un SSD de 500Go, avec un GPU Passthrough de la carte graphique.
 
Le matériel pour héberger tout ça se compose d'un R7 1700X, de 32 Go de RAM, une CG pour Proxmox et une 2ème pour la VM Win10, 4 HDDs pour le NAS, un SSD pour le système, un pour la VM Win10 et 1 3ème pour l'instant non "attribué".
 
Vous allez me dire qu'OMV étant basé sur Debian je pourrais l'installer directement sans passer par une VM.
C'est vrai c'est ce que j'avais fait sur mon précédent PC de salon qui tournait sur Debian.
On va dire que c'est un mélange de flemme et de limites de connaissances sur le sujet.
La question que je me pose est de savoir si je rattaché directement les HDD à ma VM OMV ou si je passe par des LVM.
Qu'est-ce qui selon vous est le plus judicieux ?
 
Alors ça c'est pour la 1ère partie, par la suite je verrais pour exploiter plus profondément les possibilités de Proxmox (de ce que j'ai pu en apercevoir).
 
Pour la VM Win10, j'ai testé le GPU Passthrough ça marche pas mal, je ferais pareil pour la carte son (puisque cette VM sert d'HTPC).
 
Pour les sauvegardes du système Proxmox je me pose la question :
-Soit utiliser le SSD restant pour les faire dessus puis les déplacer sur le NAS (sachant que celui-ci est sauvegardé sur un HDD externe de même capacité allumer une fois par semaine pour la sauvegarde complète via Syncbak),
-Soit la faire directement sur le NAS puis le HDD externe.
 
Je suis preneur de tous vos bons conseils et optimisations de mon système.
 
Bonne fin de journée.
 
Nico

n°1411855
eeeinstein
Électricien au CERN
Posté le 27-12-2017 à 19:54:08  profilanswer
 

J'ai 2 omv sous proxmox et j'ai aucun soucis perso, ça marche très bien,

 

Pour la sauvegarde, perso j'utilise 2 vieux hdd en usb3


Message édité par eeeinstein le 27-12-2017 à 21:21:21
n°1412631
gizmo15
Posté le 09-01-2018 à 10:14:37  profilanswer
 

gizmo15 a écrit :

Bonjour à vous,
 
petite question:
j'ai un cluster de 3 serveurs en proxmox 5 et j'aimerais faire de la migration online. Vu que j'ai pas de stockage distribué, obligé de passer en cli pour ajouter les disques locaux de la vm lors de la migration jusque la ok.
 
Mes vms sont sur un stockage LVM qui porte le même nom sur chaque serveur.
 
Le soucis que j'ai c'est que si j'ai qu'un disque attaqué à la vm la réplication se passe bien mais à la fin j'ai ca:
 

2017-10-08 23:03:26 starting online/live migration on unix:/run/qemu-server/115.migrate
2017-10-08 23:03:26 migrate_set_speed: 8589934592
2017-10-08 23:03:26 migrate_set_downtime: 0.1
2017-10-08 23:03:26 set migration_caps
2017-10-08 23:03:26 set cachesize: 53687091
2017-10-08 23:03:26 start migrate command to unix:/run/qemu-server/115.migrate
2017-10-08 23:03:27 migration status: active (transferred 119125247, remaining 430804992), total 554508288)
2017-10-08 23:03:27 migration xbzrle cachesize: 33554432 transferred 0 pages 0 cachemiss 0 overflow 0
2017-10-08 23:03:28 migration status: active (transferred 236867332, remaining 312258560), total 554508288)
2017-10-08 23:03:28 migration xbzrle cachesize: 33554432 transferred 0 pages 0 cachemiss 0 overflow 0
2017-10-08 23:03:29 migration status: active (transferred 354732987, remaining 178475008), total 554508288)
2017-10-08 23:03:29 migration xbzrle cachesize: 33554432 transferred 0 pages 0 cachemiss 0 overflow 0
2017-10-08 23:03:30 migration status: active (transferred 472479275, remaining 54288384), total 554508288)
2017-10-08 23:03:30 migration xbzrle cachesize: 33554432 transferred 0 pages 0 cachemiss 0 overflow 0
2017-10-08 23:03:30 migration status: active (transferred 484519320, remaining 40910848), total 554508288)
2017-10-08 23:03:30 migration xbzrle cachesize: 33554432 transferred 0 pages 0 cachemiss 0 overflow 0
2017-10-08 23:03:31 migration status: active (transferred 496392820, remaining 28782592), total 554508288)
2017-10-08 23:03:31 migration xbzrle cachesize: 33554432 transferred 0 pages 0 cachemiss 0 overflow 0
query migrate failed: VM 115 qmp command 'query-migrate' failed - client closed connection
 
2017-10-08 23:03:31 query migrate failed: VM 115 qmp command 'query-migrate' failed - client closed connection
query migrate failed: VM 115 not running
 
2017-10-08 23:03:32 query migrate failed: VM 115 not running
query migrate failed: VM 115 not running
 
2017-10-08 23:03:33 query migrate failed: VM 115 not running
query migrate failed: VM 115 not running
 
2017-10-08 23:03:34 query migrate failed: VM 115 not running
query migrate failed: VM 115 not running
 
2017-10-08 23:03:35 query migrate failed: VM 115 not running
query migrate failed: VM 115 not running
 
2017-10-08 23:03:36 query migrate failed: VM 115 not running
2017-10-08 23:03:36 ERROR: online migrate failure - too many query migrate failures - aborting
2017-10-08 23:03:36 aborting phase 2 - cleanup resources
2017-10-08 23:03:36 migrate_cancel
2017-10-08 23:03:36 migrate_cancel error: VM 115 not running
drive-virtio0: Cancelling block job
2017-10-08 23:03:36 ERROR: VM 115 not running
2017-10-08 23:03:42 ERROR: command '/usr/bin/ssh -o 'BatchMode=yes' -o 'HostKeyAlias=guerech' root@monip pvesm free VMData:vm-115-disk-1' failed: exit code 5
2017-10-08 23:03:45 ERROR: migration finished with problems (duration 00:02:37)


 
J'ai cherché dans les fichiers de conf dans /etc/pve pour voir si y avais un timer quelque part sans succès.
 
Et si j'ai 2 disques attachés à la vm la par contre c'est la réplication du deuxième disque qui foire:
 

drive-virtio0: transferred: 10723786752 bytes remaining: 10751049728 bytes total: 21474836480 bytes progression: 49.94 % busy: 1 ready: 0  
drive-virtio1: transferred: 34360197120 bytes remaining: 0 bytes total: 34360197120 bytes progression: 100.00 % busy: 0 ready: 1  
drive-virtio0: transferred: 10823401472 bytes remaining: 10651435008 bytes total: 21474836480 bytes progression: 50.40 % busy: 1 ready: 0  
drive-virtio1: transferred: 34360197120 bytes remaining: 0 bytes total: 34360197120 bytes progression: 100.00 % busy: 0 ready: 1  
drive-virtio0: transferred: 10923016192 bytes remaining: 10551820288 bytes total: 21474836480 bytes progression: 50.86 % busy: 1 ready: 0  
drive-virtio1: transferred: 34360197120 bytes remaining: 131072 bytes total: 34360328192 bytes progression: 100.00 % busy: 1 ready: 1  
drive-virtio0: transferred: 11034165248 bytes remaining: 10440671232 bytes total: 21474836480 bytes progression: 51.38 % busy: 1 ready: 0  
drive-virtio0: Cancelling block job
drive-virtio1: Cancelling block job
drive-virtio1: Done.
drive-virtio0: Done.
2017-10-08 22:59:29 ERROR: online migrate failure - mirroring error: drive-virtio1: mirroring has been cancelled
2017-10-08 22:59:29 aborting phase 2 - cleanup resources
2017-10-08 22:59:29 migrate_cancel
2017-10-08 22:59:35 ERROR: command '/usr/bin/ssh -o 'BatchMode=yes' -o 'HostKeyAlias=barbetorte' root@monip pvesm free VMData:vm-700-disk-2' failed: exit code 5
2017-10-08 22:59:41 ERROR: command '/usr/bin/ssh -o 'BatchMode=yes' -o 'HostKeyAlias=barbetorte' root@monip pvesm free VMData:vm-700-disk-1' failed: exit code 5
2017-10-08 22:59:44 ERROR: migration finished with problems (duration 00:08:36)


 
Une idée de ce que j'ai loupé?
 
La réplication passe par un lien giga.
 
Merci


 
Je fais suite à ça, donc le soucis est bien quand la VM est online, une vm éteinte et c'est bon.
 
J'ai pas trouvé si je pouvais passer qm en plus verbeux, une idée?
 
Merci

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  57  58  59  ..  197  198  199  200  201  202

Aller à :
Ajouter une réponse
 

Sujets relatifs
Choix Hyperviseur pour Xeon [Box de test]Routage vm Proxmox
Questionnement sur un hyperviseur[Topikunik] Personnalisation des interfaces graphiques
Plus de sujets relatifs à : [TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR