Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1510 connectés 

 

 

Proxmox c'est ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  141  142  143  ..  200  201  202  203  204  205
Auteur Sujet :

[TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !

n°1469775
BENETNATH
papa poule bricoleur- ILLKIRCH
Posté le 10-11-2021 à 12:20:45  profilanswer
 

Reprise du message précédent :
Non, je n'ai qu'un serveur que je peux éteindre pour configurer.
 
Sur une install propre, peut on juste mettre les fichiers de config ? Stockage, host..?
J'ai trouvé ceux des host


---------------
MAMECab-DIY - Arcade Woodstick  - Des lumières dans les yeux
mood
Publicité
Posté le 10-11-2021 à 12:20:45  profilanswer
 

n°1469777
l0g4n
Expert en tout :o
Posté le 10-11-2021 à 12:38:49  profilanswer
 

De mémoire, tu risques d'avoir des difficultés avec les clés ssh et ce genre de choses.


---------------
Fort et motivé. Sauf parfois.
n°1469778
BENETNATH
papa poule bricoleur- ILLKIRCH
Posté le 10-11-2021 à 13:01:52  profilanswer
 

Gasp.. Un clone de l'host serait plus sûr ?


---------------
MAMECab-DIY - Arcade Woodstick  - Des lumières dans les yeux
n°1469779
webmail-75​000
Posté le 10-11-2021 à 13:07:12  profilanswer
 

Je suis tjs reparti sur une clean install pour ma part, la seule chose que je récupérais de l host était le fichier de conf du reseau par flemme, mais le reste, pas du tout.
Attention je parle bien d hote standaline qui remplace un hôte standalone


---------------

n°1469780
ilium
Candeur et décadence
Posté le 10-11-2021 à 13:08:52  profilanswer
 

Clonezilla c'est bien en effet, mais lourd. J'ai carrément fait un dd pour passer en NVMe mais mon disque d'origine était clean.
 
Sinon, une recherche sur proxmox backup host donnait de bons résultats. J'avais procédé comme ça... mais pas gardé de trace de la procédure, désolé. :/
 
Je retrouve juste ça rapidement:
https://github.com/DerDanilo/proxmox-stuff
Cité dans ce fil:
https://forum.proxmox.com/threads/h [...] les.67789/


Message édité par ilium le 10-11-2021 à 13:11:30
n°1469781
BENETNATH
papa poule bricoleur- ILLKIRCH
Posté le 10-11-2021 à 13:24:50  profilanswer
 

OK, mais il faut que je reconfig mon raidz 2, le cache ZIL etc ?
Je sais plus du tout comment j'avais config et j'ai vraiment pas le temps pour faire mumuse..


---------------
MAMECab-DIY - Arcade Woodstick  - Des lumières dans les yeux
n°1469787
dafunky
Posté le 10-11-2021 à 14:31:58  profilanswer
 

Perso j'ai récemment cloné un proxmox, ce n'est pas un secret que les copies de disques fonctionnent. Reste le problème à la base, il est question de changer de host sans réellement savoir si :  
 
- le linux est corrompu
- la config proxmox est devenue bancale
- le ssd est corrompu
- un autre hardware est défectueux
- obiwan kenobi
 
Pour la petite histoire, j'avais mappé un lecteur de carte usb sur ma VM windows, j'ai mis 6 mois pour comprendre que la VM crashait exactement quand on retirait la carte mémoire dudit lecteur... Et j'étais en train de chercher les causes un peu partout...


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1469793
BENETNATH
papa poule bricoleur- ILLKIRCH
Posté le 10-11-2021 à 15:42:18  profilanswer
 

Oui, mais en l'occurrence, la config tournait bien, et c'est arrivé après une période d'arrêt, redémarrage à froid.. Je me dis que le ssd a peut être pris un jeton à ce moment là.


---------------
MAMECab-DIY - Arcade Woodstick  - Des lumières dans les yeux
n°1469823
ilium
Candeur et décadence
Posté le 11-11-2021 à 10:28:24  profilanswer
 

En théorie, un clone du disque bloquera sur un secteur défectueux donc je tenterais cette voie qui te permettra de tout récupérer. Si c'est foireux, il te restera toujours la solution de réinstaller.

n°1469945
depart
Posté le 15-11-2021 à 12:58:41  profilanswer
 

ip link show
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: enp2s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP mode DEFAULT group default qlen 1000
    link/ether a8:r1:59:72:d0:ae brd ff:ff:ff:ff:ff:ff
3: eno1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 9000 qdisc pfifo_fast master vmbr0 state UP mode DEFAULT group default qlen 1000
    link/ether a8:r1:59:72:d0:ae brd ff:ff:ff:ff:ff:ff
    altname enp0s31f6
2 cartes réseaux (internes à la carte mère) avec la même adresse mac : normal ou wtf ?
 
Si je branche les 2 câbles sur le même switch, ça part en cacahuète (logique).
 
Vous comprenez le truc comme un failover en cas de carte réseau 1 HS ou alors d'un bug quelque part ?
Comment changer l'adresse MAC proprement et définitivement ?


Message édité par depart le 15-11-2021 à 13:13:12
mood
Publicité
Posté le 15-11-2021 à 12:58:41  profilanswer
 

n°1469994
M300A
Sehr hopfen, vielen IBU, wow!
Posté le 17-11-2021 à 08:32:48  profilanswer
 

Joli :D

 

Normalement dans network/interfaces tu peux mettre un truc pour réécrire la mac, au pire en pre-up


---------------
:wq
n°1469995
l0g4n
Expert en tout :o
Posté le 17-11-2021 à 08:50:58  profilanswer
 

T'aurais pas un bridge avec les deux cartes dedans ?


---------------
Fort et motivé. Sauf parfois.
n°1470009
Iv4ndi
Posté le 17-11-2021 à 12:20:07  profilanswer
 

l0g4n a écrit :

T'aurais pas un bridge avec les deux cartes dedans ?


En effet, pour la carte eno1 on voit la mention "Master vmbr0"

 

Donc ya du bridge-utils dans l'air  :D

 

Faudrait un aperçu de la commande "brctl show"

 

[:gaston10241:2]

n°1470025
depart
Posté le 17-11-2021 à 19:34:28  profilanswer
 

Ben non à priori c'est vraiment les adresses des 2 nics intégrés.
C'est très bête.
Sachant que c'est une carte mère de remplacement, la précédente fonctionnait bien niveau réseau... mais le 2nd slot de ram ne fonctionnait pas. On peut pas tout avoir :o

n°1470042
depart
Posté le 18-11-2021 à 11:56:11  profilanswer
 

J'ai quand même creusé cette histoire de bridge, je n'ai pas souvenir d'avoir fait quoi que ce soit en ce sens...  


brctl show :
bridge name     bridge id               STP enabled     interfaces
vmbr0           8000.a8r15972d0ae       no              eno1
                                                        enp1s0
                                                        tap104i0
                                                        veth100i0
                                                        veth101i0
                                                        veth103i0
                                                        veth106i0


Je vais creuser, ça serait concomitant à mon changement de carte mère... mais sans rapport... étrange.
Nan enp1s0 c'est ma carte 10GB, et c'est normal qu'elle soit dans le bridge car j'ai PC <-> carte 10GB <-> carte 10GB <-> proxmox  <-> NIC intégré 1GB <-> switch <-> BOX...
Comme je n'ai pas (encore) de switch 10GB, je me sers de mon serveur proxmox comme "pont" vers le reste de mon LAN.
enp1s0  : 10 GB
eno1 : NIC intégré 1G (branché à mon switch)
enp2s0 : NIC intégré 2 1G que j'aimerai utiliser pour éventuellement pfsense ou équivalent et commencer à réfléchir à transformer mon serveur en routeur pour quand j'aurai la fibre et que peut-être je pourrai virer la livebox même si j'y crois moyen :)  
 
Sinon je viens de voir que Proxmox 7.1 gère le paramétrage de la rétention des sauvegardes "par VM", directement dans la GUI, wahou :)
 
La carte mère c'est une ASRock H370M-ITX/ac (90-MXB6R0-A0UAYZ)
Visiblement il existe un utilitaire pour réécrire l'adresse MAC : https://www.asrock.com/support/download/SOP.asp?cat=DOS
 
Mais bon, une clé usb bootable dos... bien bien bien... ou est ce que je vais trouver ça moi ? (edit : rufus) et puis faut un clavier, un écran... bon je vous tiens au courant.
 
Edit 2 : bon ben... ça marche. Un peu capricieux car l'outil n'accepte pas n'importe quelle adresse mac, mais au moins il a la bonne intelligence d'annoncer quels "débuts" il accepte. Donc j'ai pris un truc au pif, remis la fin de ma mac d'origine + incrémenté de 1 pour la 2è carte... et c'est passé.
 
Nettement mieux !

2: enp2s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP mode DEFAULT group default qlen 1000
    link/ether bc:5f:f4:42:d0:ae brd ff:ff:ff:ff:ff:ff
3: enp1s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 9000 qdisc mq master vmbr0 state UP mode DEFAULT group default qlen 1000
    link/ether a8:5e:45:ea:b6:4a brd ff:ff:ff:ff:ff:ff
4: eno1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 9000 qdisc pfifo_fast master vmbr0 state UP mode DEFAULT group default qlen 1000
    link/ether bc:5f:f4:42:d0:af brd ff:ff:ff:ff:ff:ff
    altname enp0s31f6


 
En tout cas c'est bon à savoir. Ce petit utilitaire a l'air de scanner les cartes disponibles et lance ensuite le bon outil pour changer l'adresse en fonction de la marque de la carte, car j'imagine que chaque marque a son outil attitré (intel, broadcom, realtek,...).
 
Ah ça a pété mon montage automatique de disque chiffré par contre :( (vu qu'il se base sur l'adresse mac [entre autre])...


Message édité par depart le 18-11-2021 à 14:53:13
n°1470103
burn2
ça rox du poney
Posté le 19-11-2021 à 07:09:42  profilanswer
 

Proxmox 7.1 est sorti au fait.
 
Bon il va falloir que je pense à faire mon upgrade un de ces jours. :D
Je suis toujours en 6...


---------------
"C'est vrai qu'un type aussi pénible de jour on serait en droit d'espérer qu'il fasse un break de nuit mais bon …"
n°1470107
lestat67se​l
:-)
Posté le 19-11-2021 à 08:36:25  profilanswer
 

on est même déjà en 7.1.5 :o
 
Comme d'hab aucun problème pour les conf standalone classique

n°1470117
Sylar
TaaaaaaKeT !
Posté le 19-11-2021 à 13:26:55  profilanswer
 

burn2 a écrit :

Proxmox 7.1 est sorti au fait.
 
Bon il va falloir que je pense à faire mon upgrade un de ces jours. :D
Je suis toujours en 6...


 
Idem ... pas franchi le pas encore. Quand je vois la taille du guide de l'update  :sweat:

Message cité 1 fois
Message édité par Sylar le 19-11-2021 à 13:27:27
n°1470119
Iv4ndi
Posté le 19-11-2021 à 14:47:08  profilanswer
 

lestat67sel a écrit :

on est même déjà en 7.1.5 :o

 

Comme d'hab aucun problème pour les conf standalone classique


Voilà
Mon hébergeur impose un RAID en Ext4 et je touche du bois  [:joueurducovidgrenier:8]

n°1470120
Iv4ndi
Posté le 19-11-2021 à 14:48:01  profilanswer
 

Sylar a écrit :

 

Idem ... pas franchi le pas encore. Quand je vois la taille du guide de l'update :sweat:


J'ai backup mes config de VM et j'ai tout remonté from scratch  [:tonymontana2013:3]

n°1470134
XaTriX
Posté le 20-11-2021 à 00:47:13  profilanswer
 

redrap :o


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°1470136
XaTriX
Posté le 20-11-2021 à 01:23:29  profilanswer
 

J'ai 3 nodes à monter avec pas mal de NIC : 1x 1GbE intégré, 1x 10GbE SFP+ Mellanox 3 et 2x 40GbE Mellanox 3.
 
J'ai des disques 3To, 1To, des NVMe à 256/512Go. Pour l'instant je pense que niveau storage je vais faire 1 To SATA sur chaque node, et 256Go NVMe aussi par node, fin faut que je vois si j'ai assez de 512 Go.
 
J'imagine que je vais partir sur du Ceph pour le storage.
Question network le tout sera relié sur un Ubnt USW-Aggregation. Les QSFP+ seront meshés entre nodes.
 
Bon ça fait un bail que je dois faire ça mais bon :o


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°1470137
XaTriX
Posté le 20-11-2021 à 01:35:44  profilanswer
 

Ah je crois me souvenir que je les ai déjà monté avec un SSD sata aussi :o


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°1470165
Iv4ndi
Posté le 20-11-2021 à 18:42:17  profilanswer
 

[:lalan28200]

n°1470168
XaTriX
Posté le 20-11-2021 à 19:35:22  profilanswer
 

Quoi :o


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°1470272
depart
Posté le 22-11-2021 à 08:50:23  profilanswer
 

Depuis mon passage en 7.1 (concomitance, pas forcément causalité) j'ai des erreurs de réplication sur mon cluster."I/O error" pas grand chose de plus en terme d'infos. Ca me l'a fait sur une VM d'abord, je pensais que c'était réglé car je n'avais pas eu d'autres remontées aux réplications suivantes (1 par jour), mais en fait non, c'était bloqué.
Ce matin un conteneur...
 
J'ai réglé le souci en dégageant le réplicat sur le serveur de destination et en relançant la réplication manuellement.
 
Etrange, on verra si ça se reproduit ou non.
 
Sinon dans un autre genre, j'aimerai bien réduire un peu la taille de la partition d'une VM Windows 10 (1 disque virtIO de 120 go) alors que la VM n'en occupe même pas la moitié.
Est-ce que avec virtIO on peut le faire en mode bourrin genre  

qm resize 102 virtio0 -50G


ou alors il faut rentrer dans un mode compliqué de réduction de la partition depuis l'intérieur de la VM puis ensuite de réduire depuis l'hôte ? Si c'est dans cette direction qu'il faut aller, vous faites comment ?

Message cité 1 fois
Message édité par depart le 22-11-2021 à 08:56:49
n°1470273
l0g4n
Expert en tout :o
Posté le 22-11-2021 à 09:03:03  profilanswer
 

depart a écrit :


ou alors il faut rentrer dans un mode compliqué de réduction de la partition depuis l'intérieur de la VM puis ensuite de réduire depuis l'hôte ? Si c'est dans cette direction qu'il faut aller, vous faites comment ?


Oui. Je fait du thin.


---------------
Fort et motivé. Sauf parfois.
n°1470274
depart
Posté le 22-11-2021 à 09:08:20  profilanswer
 

zfs ici

n°1470275
l0g4n
Expert en tout :o
Posté le 22-11-2021 à 09:12:18  profilanswer
 

C'est pas dispo par défaut mais me semble que c'est activable. Ça s'appliquera pas aux disques déjà existants, mais a la limite tu fait un clone.


---------------
Fort et motivé. Sauf parfois.
n°1470280
Iryngael
Awesome, ain't it ?
Posté le 22-11-2021 à 11:35:28  profilanswer
 

XaTriX a écrit :

J'ai 3 nodes à monter avec pas mal de NIC : 1x 1GbE intégré, 1x 10GbE SFP+ Mellanox 3 et 2x 40GbE Mellanox 3.
 
J'ai des disques 3To, 1To, des NVMe à 256/512Go. Pour l'instant je pense que niveau storage je vais faire 1 To SATA sur chaque node, et 256Go NVMe aussi par node, fin faut que je vois si j'ai assez de 512 Go.
 
J'imagine que je vais partir sur du Ceph pour le storage.
Question network le tout sera relié sur un Ubnt USW-Aggregation. Les QSFP+ seront meshés entre nodes.
 
Bon ça fait un bail que je dois faire ça mais bon :o


La on parle. Ca va être du bon cluster ça :o Par contre les IO ça va y aller sur les SSD. Pour surveiller un peu les miens, j'ai deja plusieurs To ecrits avec la replication ZFS, j'imagine meme pas avec Ceph.
 
Et sinon
Je sais pas si c'est lié à Debian 11 ou quoi mais pour mes containers je dois maintenant activer le nesting sous peine d'avoir des services systemd qui veulent pas démarrer (genre grafana) ce qui peut causer aussi un délai de 25 secondes pour se connecter en ssh...
Ca m'a bien rendu fou.
Et ça oblige d'ailleurs à utiliser le compte root pour déployer des containers car c'est le seul à pouvoir activer la feature... (J'ai bien morflé en testant les deploiements full ansible ce week-end :o, m'enfin maintenant ça marche je peux déployer et provisionner/configurer mes containers en quelques secondes)


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°1470287
Iv4ndi
Posté le 22-11-2021 à 14:26:07  profilanswer
 

Iryngael a écrit :


La on parle. Ca va être du bon cluster ça :o Par contre les IO ça va y aller sur les SSD. Pour surveiller un peu les miens, j'ai deja plusieurs To ecrits avec la replication ZFS, j'imagine meme pas avec Ceph.

 

Et sinon
Je sais pas si c'est lié à Debian 11 ou quoi mais pour mes containers je dois maintenant activer le nesting sous peine d'avoir des services systemd qui veulent pas démarrer (genre grafana) ce qui peut causer aussi un délai de 25 secondes pour se connecter en ssh...
Ca m'a bien rendu fou.
Et ça oblige d'ailleurs à utiliser le compte root pour déployer des containers car c'est le seul à pouvoir activer la feature... (J'ai bien morflé en testant les deploiements full ansible ce week-end :o, m'enfin maintenant ça marche je peux déployer et provisionner/configurer mes containers en quelques secondes)


Pour les containers je me suis fait avoir lors des upgrade de mes LXC de Debian 10 vers 11.

 

J'ai vu le changement dans la doc un poil trop tard.

 

Que de  perte de temps en effet  [:massys]

n°1470289
XaTriX
Posté le 22-11-2021 à 15:18:49  profilanswer
 

Qu'est-ce qui a changé ?


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°1470298
ilium
Candeur et décadence
Posté le 22-11-2021 à 20:43:42  profilanswer
 

ilium a écrit :


Je progresse car ce genre d'erreur pourrait être lié à un stockage défaillant (soit erreur, soit saturé) et ça pourrait expliquer l'appararition soudaine après des années de bons et loyaux services sauf que:
-ça le fait en rsync en pull depuis la VM avec plusieurs hébergements externes différents, donc pannes distantes peu probables
-ca ne le fait pas en rsync en push depuis ordi local vers VM (au moment où le pull plante)
-un reboot de la VM résoud le problème provisoirement (depuis MàJ de la VM vers deb11, ça ne change rien mais au moins ça reboote correctement)
 
J'avais pensé un moment au disque qui se déconnecterait mais ce n'est pas le cas et en ssh ou via un lien web vers un répertoire de ce disque, ça fonctionne parfaitement.
 
Il y a d'autres options que l'accès direct pour avoir ce disque sans en changer le contenu?


 
J'ai fait une vérif read-only de la surface et pas de soucis de disque a priori (et ça tombe bien, je n'en ai pas de spare sous la main).
 
En passant en Debian 11 sur cette VM de sauvegarde, ça semblait plus stable mais en fait ça plante autant. J'ai même eu une fois le plantage immédiatement après reboot.
 
Voilà où j'en suis:
-ça ne plante jamais en push depuis un PC local vers cette VM de sauvegarde
-ça plante uniquement lors du pull rsync d'un PC Internet
-si je lance plusieurs fois le process, ça plantera à chaque fois (sauf reboot de la VM de sauvegarde) mais si j'essaye un pull d'un autre PC dans la foulée, ça fonctionnera
-quand ça plante, un ctrl+c ou même un kill -9 du rsync sur la VM de sauvegarde ne permettent pas de récupérer quoi que ce soit, le process ne disparait pas (alors qu'il finit par le faire côté PC distant)
-pas de saturation mémoire, pas de process qui s'emballe, pas d'autre panne quand ça plante, c'est juste rsync (via ssh) qui devient une usine à zombies
 
Incompréhensible, ça semble venir de la VM mais de manière aléatoire. Je vais essayer avec plus de RAM ou avec une VM neuve sans aucun process (là il y a un apache, un minidlna, un nfs et un netatalk, pas grand chose quoi, d'autant moins que seuls l'apache et le minidlna sont vraiment utilisés).
 
edit 30/11:
Pour la première fois, j'ai eu un plantage d'un rsync disque vers disque. Je ne comprends toujours pas car je n'ai aucune erreur disque, aucun message d'erreur d'aucune sorte sauf qu'un process ne répond plus (et d'autres liés aux disques), mais rien sur l'hyperviseur.
 
Je vais tenter de tout faire depuis l'hyperviseur pour voir si j'ai le même soucis ou pas, mais on dirait bien que le disque en direct-access ça ne plait pas. Lié à la V7?


Message édité par ilium le 30-11-2021 à 19:52:58
n°1470299
Iv4ndi
Posté le 22-11-2021 à 21:25:11  profilanswer
 

XaTriX a écrit :

Qu'est-ce qui a changé ?


Obligé d'activer le nested virt sur tous tes LXC

n°1470302
XaTriX
Posté le 22-11-2021 à 22:37:30  profilanswer
 

Cad ?


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°1470303
webmail-75​000
Posté le 23-11-2021 à 07:34:48  profilanswer
 

Nested c’est pas pour virtualiser un hyperviseur?


---------------

n°1470307
Iryngael
Awesome, ain't it ?
Posté le 23-11-2021 à 09:11:34  profilanswer
 

Alors si, mais ça permet aussi à systemd dans le container d'accéder à /proc/

Message cité 1 fois
Message édité par Iryngael le 23-11-2021 à 09:11:47

---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°1470309
depart
Posté le 23-11-2021 à 14:00:39  profilanswer
 

Grrr, en fait mes pb de réplication persistent :(
 

2021-11-23 13:47:00 102-0: start replication job
2021-11-23 13:47:00 102-0: guest => VM 102, running => 0
2021-11-23 13:47:00 102-0: volumes => rpool:vm-102-disk-0
2021-11-23 13:47:00 102-0: delete stale replication snapshot '__replicate_102-0_1637669820__' on rpool:vm-102-disk-0
2021-11-23 13:47:03 102-0: (remote_prepare_local_job) delete stale replication snapshot '__replicate_102-0_1637669820__' on rpool:vm-102-disk-0
2021-11-23 13:47:04 102-0: create snapshot '__replicate_102-0_1637671620__' on rpool:vm-102-disk-0
2021-11-23 13:47:04 102-0: using secure transmission, rate limit: none
2021-11-23 13:47:04 102-0: full sync 'rpool:vm-102-disk-0' (__replicate_102-0_1637671620__)
2021-11-23 13:47:06 102-0: full send of rpool/vm-102-disk-0@__replicate_102-0_1637671620__ estimated size is 48.8G
2021-11-23 13:47:06 102-0: total estimated size is 48.8G
2021-11-23 13:47:07 102-0: TIME        SENT   SNAPSHOT rpool/vm-102-disk-0@__replicate_102-0_1637671620__
2021-11-23 13:47:07 102-0: 13:47:07   2.11M   rpool/vm-102-disk-0@__replicate_102-0_1637671620__
2021-11-23 13:47:08 102-0: volume 'rpool/vm-102-disk-0' already exists
2021-11-23 13:47:08 102-0: warning: cannot send 'rpool/vm-102-disk-0@__replicate_102-0_1637671620__': signal received
2021-11-23 13:47:08 102-0: cannot send 'rpool/vm-102-disk-0': I/O error
2021-11-23 13:47:08 102-0: command 'zfs send -Rpv -- rpool/vm-102-disk-0@__replicate_102-0_1637671620__' failed: exit code 1
2021-11-23 13:47:08 102-0: delete previous replication snapshot '__replicate_102-0_1637671620__' on rpool:vm-102-disk-0
2021-11-23 13:47:08 102-0: end replication job with error: command 'set -o pipefail && pvesm export rpool:vm-102-disk-0 zfs - -with-snapshots 1 -snapshot __replicate_102-0_1637671620__ | /usr/bin/ssh -e none -o 'BatchMode=yes' -o 'HostKeyAlias=serveurdest' root@192.168.1.12 -- pvesm import rpool:vm-102-disk-0 zfs - -with-snapshots 1 -snapshot __replicate_102-0_1637671620__ -allow-rename 0' failed: exit code 255


Des suggestions ?
 
C'est donc une VM Windows, arrêtée, sur un disque ZFS, 120Go de taille de disque pour la VM
j'ai viré le fichier distant pour que ça reprenne à zéro
J'ai genre 2.5go qui se transfèrent bien au départ, puis le log s'arrête mais le transfert semble continuer (visible sur l'occupation réseau de l'hôte). Au bout d'un moment ça vide le log et affiche ce que j'ai posté plus haut à la place


Message édité par depart le 23-11-2021 à 14:03:30
n°1470310
XaTriX
Posté le 23-11-2021 à 14:17:17  profilanswer
 

Iryngael a écrit :

Alors si, mais ça permet aussi à systemd dans le container d'accéder à /proc/


Et ça n'était pas possible avant ?


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°1470317
depart
Posté le 23-11-2021 à 18:44:12  profilanswer
 

()
2021-11-23 14:26:00 102-0: start replication job
2021-11-23 14:26:00 102-0: guest => VM 102, running => 0
2021-11-23 14:26:00 102-0: volumes => rpool:vm-102-disk-0
2021-11-23 14:26:03 102-0: create snapshot '__replicate_102-0_1637673960__' on rpool:vm-102-disk-0
2021-11-23 14:26:03 102-0: using secure transmission, rate limit: none
2021-11-23 14:26:03 102-0: full sync 'rpool:vm-102-disk-0' (__replicate_102-0_1637673960__)
2021-11-23 14:26:06 102-0: full send of rpool/vm-102-disk-0@__replicate_102-0_1637673960__ estimated size is 48.8G
2021-11-23 14:26:06 102-0: total estimated size is 48.8G
2021-11-23 14:26:07 102-0: TIME        SENT   SNAPSHOT rpool/vm-102-disk-0@__replicate_102-0_1637673960__
2021-11-23 14:26:07 102-0: 14:26:07   2.12M   rpool/vm-102-disk-0@__replicate_102-0_1637673960__
2021-11-23 14:26:08 102-0: 14:26:08   3.05M   rpool/vm-102-disk-0@__replicate_102-0_1637673960__
2021-11-23 14:26:09 102-0: 14:26:09   33.5M   rpool/vm-102-disk-0@__replicate_102-0_1637673960__
[...]
2021-11-23 14:27:25 102-0: 14:27:25   2.46G   rpool/vm-102-disk-0@__replicate_102-0_1637673960__
2021-11-23 14:27:26 102-0: 14:27:26   2.49G   rpool/vm-102-disk-0@__replicate_102-0_1637673960__
2021-11-23 14:27:27 102-0: 14:27:27   2.52G   rpool/vm-102-disk-0@__replicate_102-0_1637673960__
2021-11-23 14:27:28 102-0: 14:27:28   2.56G   rpool/vm-10


oui ça s'arrête comme ça au milieu de rien
 
ça plante toujours autour de 2.5go (au niveau des logs en tout cas)


Message édité par depart le 23-11-2021 à 18:48:07
n°1470318
M300A
Sehr hopfen, vielen IBU, wow!
Posté le 23-11-2021 à 19:29:21  profilanswer
 

Iryngael a écrit :


La on parle. Ca va être du bon cluster ça :o Par contre les IO ça va y aller sur les SSD. Pour surveiller un peu les miens, j'ai deja plusieurs To ecrits avec la replication ZFS, j'imagine meme pas avec Ceph.

 

Et sinon
Je sais pas si c'est lié à Debian 11 ou quoi mais pour mes containers je dois maintenant activer le nesting sous peine d'avoir des services systemd qui veulent pas démarrer (genre grafana) ce qui peut causer aussi un délai de 25 secondes pour se connecter en ssh...
Ca m'a bien rendu fou.
Et ça oblige d'ailleurs à utiliser le compte root pour déployer des containers car c'est le seul à pouvoir activer la feature... (J'ai bien morflé en testant les deploiements full ansible ce week-end :o, m'enfin maintenant ça marche je peux déployer et provisionner/configurer mes containers en quelques secondes)

 

Faut que je vous montre les bécanes que j'ai reçu chez mon client :o
12 SSD 4Tb en raid10  [:toyoyost:2]


---------------
:wq
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  141  142  143  ..  200  201  202  203  204  205

Aller à :
Ajouter une réponse
 

Sujets relatifs
Choix Hyperviseur pour Xeon [Box de test]Routage vm Proxmox
Questionnement sur un hyperviseur[Topikunik] Personnalisation des interfaces graphiques
Plus de sujets relatifs à : [TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR