Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2546 connectés 

 

 

Proxmox c'est ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  96  97  98  ..  197  198  199  200  201  202
Auteur Sujet :

[TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !

n°1439442
clem7303
Posté le 24-10-2019 à 15:02:32  profilanswer
 

Reprise du message précédent :
J'ai une question pour ceux qui ont fait l'upgrade vers la version 6.
J'ai bien suivi la doc ici : https://pve.proxmox.com/wiki/Upgrade_from_5.x_to_6.0
Tout se passe bien, mais il reste une trentaine de packages qui ne se mettent pas à jour.
J'ai aussi essayé en SSH, ça ne fonctionne pas non plus. Est ce que vous avez eu le problème ?
Comme je n'ai pas de message d'erreur, je ne sais pas trop où chercher.
Merci

Message cité 1 fois
Message édité par clem7303 le 24-10-2019 à 15:02:49

---------------
Topic achat/vente
mood
Publicité
Posté le 24-10-2019 à 15:02:32  profilanswer
 

n°1439443
dafunky
Posté le 24-10-2019 à 15:04:15  profilanswer
 

Grr, c'est quoi cette histoire de V6, j'ai fait une install from scratch en V5 le mois dernier :fou:


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1439444
clem7303
Posté le 24-10-2019 à 16:06:41  profilanswer
 

Elle est dispo depuis juillet je crois :o


---------------
Topic achat/vente
n°1439465
Romn
Posté le 24-10-2019 à 21:56:26  profilanswer
 

clem7303 a écrit :

J'ai une question pour ceux qui ont fait l'upgrade vers la version 6.
J'ai bien suivi la doc ici : https://pve.proxmox.com/wiki/Upgrade_from_5.x_to_6.0
Tout se passe bien, mais il reste une trentaine de packages qui ne se mettent pas à jour.
J'ai aussi essayé en SSH, ça ne fonctionne pas non plus. Est ce que vous avez eu le problème ?
Comme je n'ai pas de message d'erreur, je ne sais pas trop où chercher.
Merci


Est-ce qu'il donne une erreur de licence/souscription ?
Est-ce que tu as bien remis le nouveau repo de la v6 dans /etc/apt/source.list.d/ ?
 
Ça:
https://reho.st/self/b83102964146d50348cd6449655fe70eacc8dab0.png


---------------
DVD |  Ludothèque: BGG
n°1439469
clem7303
Posté le 24-10-2019 à 22:36:17  profilanswer
 

Non pas d'erreur, j'ai mis le repo no subscription.
Il me trouve bien les packages à upgrade quand je fais upgradable list. Mais il ne les installe pas quand je fais un dist-upgrade.
A la fin j'ai un message x package n'ont pas été mis à jour, mais pas d'erreur.


---------------
Topic achat/vente
n°1439545
hydrosaure
Posté le 27-10-2019 à 23:18:27  profilanswer
 

Si ça intéresse certains, un petit comparo entre Proxmox KVM, ESXi et baremetal sous Linux sur une config que j'ai qui traîne à base de i3 6300: c'est par là


Message édité par hydrosaure le 30-10-2019 à 12:48:36
n°1439551
webmail-75​000
Posté le 28-10-2019 à 08:48:33  profilanswer
 

j'ai un de mes hotes qui reboot régulièrement vers 5h00 la nuit, je n'arrive pas à comprendre pourquoi, une idée, voici une partie du syslog au moment du reboot (5h04)

Code :
  1. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  2. Oct 28 05:04:00 ProxmoxNode3 systemd[1]: Starting Proxmox VE replication runner...
  3. Oct 28 05:04:02 ProxmoxNode3 systemd[1]: pvesr.service: Succeeded.
  4. Oct 28 05:04:02 ProxmoxNode3 systemd[1]: Started Proxmox VE replication runner.
  5. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [TOTEM ] Token has not been received in 198 ms
  6. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [TOTEM ] A new membership (1.ca4) was formed. Members
  7. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [CPG   ] downlist left_list: 0 received
  8. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [CPG   ] downlist left_list: 0 received
  9. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [CPG   ] downlist left_list: 0 received
  10. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [QUORUM] Members[3]: 1 2 4
  11. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [MAIN  ] Completed service synchronization, ready to provide service.
  12. Oct 28 05:04:10 ProxmoxNode3 vzdump[4567]: INFO: Finished Backup of VM 108 (00:04:07)
  13. Oct 28 05:04:10 ProxmoxNode3 vzdump[4567]: INFO: Starting Backup of VM 115 (lxc)
  14. Oct 28 05:04:28 ProxmoxNode3 pmxcfs[5075]: [status] notice: received log
  15. Oct 28 05:04:48 ProxmoxNode3 corosync[5231]:   [KNET  ] link: host: 4 link: 0 is down
  16. Oct 28 05:04:48 ProxmoxNode3 corosync[5231]:   [KNET  ] host: host: 4 (passive) best link: 0 (pri: 1)
  17. Oct 28 05:04:48 ProxmoxNode3 corosync[5231]:   [KNET  ] host: host: 4 has no active links
  18. Oct 28 05:04:49 ProxmoxNode3 corosync[5231]:   [TOTEM ] Token has not been received in 60 ms
  19. Oct 28 05:04:50 ProxmoxNode3 corosync[5231]:   [KNET  ] rx: host: 4 link: 0 is up
  20. Oct 28 05:04:50 ProxmoxNode3 corosync[5231]:   [KNET  ] host: host: 4 (passive) best link: 0 (pri: 1)
  21. Oct 28 05:05:00 ProxmoxNode3 systemd[1]: Starting Proxmox VE replication runner...
  22. Oct 28 05:05:02 ProxmoxNode3 systemd[1]: pvesr.service: Succeeded.
  23. Oct 28 05:05:02 ProxmoxNode3 systemd[1]: Started Proxmox VE replication runner.
  24. Oct 28 05:08:21 ProxmoxNode3 systemd-modules-load[5263]: Inserted module 'iscsi_tcp'
  25. Oct 28 05:08:21 ProxmoxNode3 systemd-modules-load[5263]: Inserted module 'ib_iser'
  26. Oct 28 05:08:21 ProxmoxNode3 systemd-modules-load[5263]: Inserted module 'vhost_net'
  27. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Starting Flush Journal to Persistent Storage...
  28. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Started Set the console keyboard layout.
  29. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Reached target Local File Systems (Pre).
  30. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Started Flush Journal to Persistent Storage.
  31. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Started udev Coldplug all Devices.
  32. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Starting Helper to synchronize boot up for ifupdown...
  33. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Starting udev Wait for Complete Device Initialization...
  34. Oct 28 05:08:21 ProxmoxNode3 systemd-udevd[5333]: Using default interface naming scheme 'v240'.
  35. Oct 28 05:08:21 ProxmoxNode3 systemd-udevd[5331]: Using default interface naming scheme 'v240'.
  36. Oct 28 05:08:21 ProxmoxNode3 systemd-udevd[5333]: link_config: autonegotiation is unset or enabled, the speed and duplex are not writable.
  37. Oct 28 05:08:21 ProxmoxNode3 systemd-udevd[5331]: link_config: autonegotiation is unset or enabled, the speed and duplex are not writable.
  38. Oct 28 05:08:21 ProxmoxNode3 systemd-udevd[5339]: link_config: autonegotiation is unset or enabled, the speed and duplex are not writable.
  39. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Started Helper to synchronize boot up for ifupdown.
  40. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Started udev Wait for Complete Device Initialization.
  41. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Reached target Sound Card.
  42. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Condition check resulted in Import ZFS pools by cache file being skipped.
  43. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Reached target ZFS pool import target.
  44. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Starting Mount ZFS filesystems...
  45. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Starting Wait for ZFS Volume (zvol) links in /dev...
  46. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Created slice system-lvm2\x2dpvscan.slice.
  47. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Starting LVM event activation on device 8:16...
  48. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Listening on Load/Save RF Kill Switch Status /dev/rfkill Watch.
  49. Oct 28 05:08:21 ProxmoxNode3 zvol_wait[5435]: No zvols found, nothing to do.
  50. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Started Wait for ZFS Volume (zvol) links in /dev.
  51. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Reached target ZFS volumes are ready.
  52. Oct 28 05:08:21 ProxmoxNode3 lvm[5436]:   0 logical volume(s) in volume group "ssd128" now active
  53. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Started LVM event activation on device 8:16.
  54. Oct 28 05:08:21 ProxmoxNode3 systemd[1]: Started Mount ZFS filesystems.
  55. Oct 28 05:08:21 ProxmoxNode3 kernel: [    0.000000] Linux version 5.0.21-3-pve (build@pve) (gcc version 8.3.0 (Debian 8.3.0-6)) #1 SMP PVE 5.0.21-7 (Mon, 30 Sep 2019 09:11:02 +0200) ()
  56. Oct 28 05:08:21 ProxmoxNode3 kernel: [    0.000000] Command line: initrd=\EFI\proxmox\5.0.21-3-pve\initrd.img-5.0.21-3-pve root=ZFS=rpool/ROOT/pve-1 boot=zfs
  57. Oct 28 05:08:21 ProxmoxNode3 kernel: [    0.000000] KERNEL supported cpus:
  58. Oct 28 05:08:21 ProxmoxNode3 kernel: [    0.000000]   Intel GenuineIntel
  59. ]


Message édité par webmail-75000 le 28-10-2019 à 08:48:48

---------------

n°1439560
gizmo15
Posté le 28-10-2019 à 12:19:06  profilanswer
 

faudrait voir surtout avant le reboot

n°1439561
webmail-75​000
Posté le 28-10-2019 à 12:22:39  profilanswer
 

les container 108 et 115 sont sur cet hote (backup 5h), pas les autres. pare ailleurs les vm sur cet hotes sont backupées à 2h30

 
Code :
  1. Oct 28 05:00:01 ProxmoxNode3 CRON[4535]: (root) CMD (vzdump 107 108 115 114 113 --mailnotification failure --mailto monemail --storage BackupOnSynoNas --compress gzip --quiet 1 --mode suspend)
  2. Oct 28 05:00:02 ProxmoxNode3 systemd[1]: pvesr.service: Succeeded.
  3. Oct 28 05:00:02 ProxmoxNode3 systemd[1]: Started Proxmox VE replication runner.
  4. Oct 28 05:00:03 ProxmoxNode3 pmxcfs[5075]: [status] notice: received log
  5. Oct 28 05:00:03 ProxmoxNode3 vzdump[4536]: <root@pam> starting task UPID:ProxmoxNode3:000011D7:0083340F:5DB667C3:vzdump::root@pam:
  6. Oct 28 05:00:03 ProxmoxNode3 vzdump[4567]: INFO: starting new backup job: vzdump 107 108 115 114 113 --mailnotification failure --quiet 1 --mode suspend --storage BackupOnSynoNas --compress gzip --mailto monemail
  7. Oct 28 05:00:03 ProxmoxNode3 vzdump[4567]: INFO: Starting Backup of VM 108 (lxc)
  8. Oct 28 05:00:04 ProxmoxNode3 pmxcfs[5075]: [status] notice: received log
  9. Oct 28 05:00:35 ProxmoxNode3 corosync[5231]:   [TOTEM ] Retransmit List: 82931
  10. Oct 28 05:00:35 ProxmoxNode3 systemd[1]: Starting Daily PVE download activities...
  11. Oct 28 05:00:40 ProxmoxNode3 pveupdate[7482]: <root@pam> starting task UPID:ProxmoxNode3:00002062:00834253:5DB667E7:aptupdate::root@pam:
  12. Oct 28 05:00:46 ProxmoxNode3 pveupdate[8290]: update new package list: /var/lib/pve-manager/pkgupdates
  13. Oct 28 05:00:58 ProxmoxNode3 pveupdate[7482]: <root@pam> end task UPID:ProxmoxNode3:00002062:00834253:5DB667E7:aptupdate::root@pam: OK
  14. Oct 28 05:00:58 ProxmoxNode3 systemd[1]: pve-daily-update.service: Succeeded.
  15. Oct 28 05:00:58 ProxmoxNode3 systemd[1]: Started Daily PVE download activities.
  16. Oct 28 05:01:00 ProxmoxNode3 systemd[1]: Starting Proxmox VE replication runner...
  17. Oct 28 05:01:02 ProxmoxNode3 systemd[1]: pvesr.service: Succeeded.
  18. Oct 28 05:01:02 ProxmoxNode3 systemd[1]: Started Proxmox VE replication runner.
  19. Oct 28 05:02:00 ProxmoxNode3 systemd[1]: Starting Proxmox VE replication runner...
  20. Oct 28 05:02:02 ProxmoxNode3 systemd[1]: pvesr.service: Succeeded.
  21. Oct 28 05:02:02 ProxmoxNode3 systemd[1]: Started Proxmox VE replication runner.
  22. Oct 28 05:03:00 ProxmoxNode3 systemd[1]: Starting Proxmox VE replication runner...
  23. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: 2A88D408C3: from=<>, size=2737, nrcpt=1 (queue active)
  24. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: 8D15B25245: from=<root@ProxmoxNode3.local>, size=791, nrcpt=1 (queue active)
  25. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: 59BE3408B4: from=<root@ProxmoxNode3.local>, size=791, nrcpt=1 (queue active)
  26. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: C9C9C180B6: from=<>, size=2737, nrcpt=1 (queue active)
  27. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: C47C3408AD: from=<>, size=2757, nrcpt=1 (queue active)
  28. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: 6AB0718BCB: from=<root@ProxmoxNode3.local>, size=789, nrcpt=1 (queue active)
  29. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: 6E0F21BE40: from=<root@ProxmoxNode3.local>, size=811, nrcpt=1 (queue active)
  30. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: 61F5125482: from=<>, size=5707, nrcpt=1 (queue active)
  31. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: 6391C2530C: from=<>, size=5643, nrcpt=1 (queue active)
  32. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: A603318C05: from=<>, size=2735, nrcpt=1 (queue active)
  33. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: EC7DA348C7: from=<root@ProxmoxNode3.local>, size=791, nrcpt=1 (queue active)
  34. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: 704FC34951: from=<>, size=2737, nrcpt=1 (queue active)
  35. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: 088D91BEC4: from=<root@ProxmoxNode3.local>, size=791, nrcpt=1 (queue active)
  36. Oct 28 05:03:02 ProxmoxNode3 postfix/qmgr[5223]: BD30A252DF: from=<>, size=2737, nrcpt=1 (queue active)
  37. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: error: open database /etc/aliases.db: No such file or directory
  38. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  39. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: warning: hash:/etc/aliases: lookup of 'root' failed
  40. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: error: open database /etc/aliases.db: No such file or directory
  41. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  42. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: warning: hash:/etc/aliases: lookup of 'root' failed
  43. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: 2A88D408C3: to=<root@ProxmoxNode3.local>, relay=local, delay=281345, delays=281345/0.05/0/0.05, dsn=4.3.0, status=deferred (alias database unavailable)
  44. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  45. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: 8D15B25245: to=<root@ProxmoxNode3.local>, orig_to=<root>, relay=local, delay=370978, delays=370978/0.04/0/0.05, dsn=4.3.0, status=deferred (alias database unavailable)
  46. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  47. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  48. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: warning: hash:/etc/aliases: lookup of 'root' failed
  49. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  50. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: warning: hash:/etc/aliases: lookup of 'root' failed
  51. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: C9C9C180B6: to=<root@ProxmoxNode3.local>, relay=local, delay=109914, delays=109914/0.09/0/0.03, dsn=4.3.0, status=deferred (alias database unavailable)
  52. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  53. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  54. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: warning: hash:/etc/aliases: lookup of 'root' failed
  55. Oct 28 05:03:02 ProxmoxNode3 systemd[1]: pvesr.service: Succeeded.
  56. Oct 28 05:03:02 ProxmoxNode3 systemd[1]: Started Proxmox VE replication runner.
  57. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: 59BE3408B4: to=<root@ProxmoxNode3.local>, orig_to=<root>, relay=local, delay=284578, delays=284578/0.1/0/0.05, dsn=4.3.0, status=deferred (alias database unavailable)
  58. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  59. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  60. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: warning: hash:/etc/aliases: lookup of 'root' failed
  61. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: error: open database /etc/aliases.db: No such file or directory
  62. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: C47C3408AD: to=<root@ProxmoxNode3.local>, relay=local, delay=285545, delays=285545/0.12/0/0.04, dsn=4.3.0, status=deferred (alias database unavailable)
  63. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  64. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  65. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: warning: hash:/etc/aliases: lookup of 'root' failed
  66. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: 6AB0718BCB: to=<root@ProxmoxNode3.local>, orig_to=<root>, relay=local, delay=21778, delays=21778/0.14/0/0.04, dsn=4.3.0, status=deferred (alias database unavailable)
  67. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  68. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  69. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: warning: hash:/etc/aliases: lookup of 'root' failed
  70. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: 6E0F21BE40: to=<root@ProxmoxNode3.local>, orig_to=<root>, relay=local, delay=115378, delays=115378/0.16/0/0.04, dsn=4.3.0, status=deferred (alias database unavailable)
  71. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  72. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  73. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: warning: hash:/etc/aliases: lookup of 'root' failed
  74. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: 61F5125482: to=<root@ProxmoxNode3.local>, relay=local, delay=365355, delays=365355/0.19/0/0.04, dsn=4.3.0, status=deferred (alias database unavailable)
  75. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  76. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  77. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: warning: hash:/etc/aliases: lookup of 'root' failed
  78. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: 6391C2530C: to=<root@ProxmoxNode3.local>, relay=local, delay=365355, delays=365355/0.21/0/0.04, dsn=4.3.0, status=deferred (alias database unavailable)
  79. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  80. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  81. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: warning: hash:/etc/aliases: lookup of 'root' failed
  82. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: A603318C05: to=<root@ProxmoxNode3.local>, relay=local, delay=23100, delays=23100/0.23/0/0.04, dsn=4.3.0, status=deferred (alias database unavailable)
  83. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  84. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  85. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: warning: hash:/etc/aliases: lookup of 'root' failed
  86. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: EC7DA348C7: to=<root@ProxmoxNode3.local>, orig_to=<root>, relay=local, delay=198179, delays=198179/0.25/0/0.04, dsn=4.3.0, status=deferred (alias database unavailable)
  87. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  88. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  89. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: warning: hash:/etc/aliases: lookup of 'root' failed
  90. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: 704FC34951: to=<root@ProxmoxNode3.local>, relay=local, delay=197637, delays=197637/0.27/0/0.04, dsn=4.3.0, status=deferred (alias database unavailable)
  91. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17876]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  92. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: warning: hash:/etc/aliases is unavailable. open database /etc/aliases.db: No such file or directory
  93. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: warning: hash:/etc/aliases: lookup of 'root' failed
  94. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: 088D91BEC4: to=<root@ProxmoxNode3.local>, orig_to=<root>, relay=local, delay=111779, delays=111778/0.29/0/0.04, dsn=4.3.0, status=deferred (alias database unavailable)
  95. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17881]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  96. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: BD30A252DF: to=<root@ProxmoxNode3.local>, relay=local, delay=369556, delays=369556/0.31/0/0.04, dsn=4.3.0, status=deferred (alias database unavailable)
  97. Oct 28 05:03:02 ProxmoxNode3 postfix/local[17875]: using backwards-compatible default setting relay_domains=$mydestination to update fast-flush logfile for domain "ProxmoxNode3.local"
  98. Oct 28 05:04:00 ProxmoxNode3 systemd[1]: Starting Proxmox VE replication runner...
  99. Oct 28 05:04:02 ProxmoxNode3 systemd[1]: pvesr.service: Succeeded.
  100. Oct 28 05:04:02 ProxmoxNode3 systemd[1]: Started Proxmox VE replication runner.
  101. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [TOTEM ] Token has not been received in 198 ms
  102. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [TOTEM ] A new membership (1.ca4) was formed. Members
  103. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [CPG   ] downlist left_list: 0 received
  104. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [CPG   ] downlist left_list: 0 received
  105. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [CPG   ] downlist left_list: 0 received
  106. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [QUORUM] Members[3]: 1 2 4
  107. Oct 28 05:04:09 ProxmoxNode3 corosync[5231]:   [MAIN  ] Completed service synchronization, ready to provide service.
  108. Oct 28 05:04:10 ProxmoxNode3 vzdump[4567]: INFO: Finished Backup of VM 108 (00:04:07)
  109. Oct 28 05:04:10 ProxmoxNode3 vzdump[4567]: INFO: Starting Backup of VM 115 (lxc)
  110. Oct 28 05:04:28 ProxmoxNode3 pmxcfs[5075]: [status] notice: received log
  111. Oct 28 05:04:48 ProxmoxNode3 corosync[5231]:   [KNET  ] link: host: 4 link: 0 is down
  112. Oct 28 05:04:48 ProxmoxNode3 corosync[5231]:   [KNET  ] host: host: 4 (passive) best link: 0 (pri: 1)
  113. Oct 28 05:04:48 ProxmoxNode3 corosync[5231]:   [KNET  ] host: host: 4 has no active links
  114. Oct 28 05:04:49 ProxmoxNode3 corosync[5231]:   [TOTEM ] Token has not been received in 60 ms
  115. Oct 28 05:04:50 ProxmoxNode3 corosync[5231]:   [KNET  ] rx: host: 4 link: 0 is up
  116. Oct 28 05:04:50 ProxmoxNode3 corosync[5231]:   [KNET  ] host: host: 4 (passive) best link: 0 (pri: 1)
  117. Oct 28 05:05:00 ProxmoxNode3 systemd[1]: Starting Proxmox VE replication runner...
  118. Oct 28 05:05:02 ProxmoxNode3 systemd[1]: pvesr.service: Succeeded.
  119. Oct 28 05:05:02 ProxmoxNode3 systemd[1]: Started Proxmox VE replication runner.
  120. Oct 28 05:08:21 ProxmoxNode3 systemd-modules-load[5263]: Inserted module 'iscsi_tcp'
  121. Oct 28 05:08:21 ProxmoxNode3 systemd-modules-load[5263]: Inserted module 'ib_iser'
  122. Oct 28 05:08:21 ProxmoxNode3 systemd-modules-load[5263]: Inserted module 'vhost_net'


spafo :o


Message édité par webmail-75000 le 28-10-2019 à 12:25:15

---------------

n°1439607
webmail-75​000
Posté le 30-10-2019 à 09:12:15  profilanswer
 

j'ai un 2e node qui me fait la meme chose
https://framapic.org/0VTzTkJYmwL9/0G0H48glT5FX.png


---------------

mood
Publicité
Posté le 30-10-2019 à 09:12:15  profilanswer
 

n°1439632
gizmo15
Posté le 30-10-2019 à 17:34:28  profilanswer
 

t'as rien dans le kern.log ?

n°1439633
LibreArbit​re
RIP mon Orion
Posté le 30-10-2019 à 17:36:28  profilanswer
 


Tu vas pouvoir ouvrir un ticket au support...


---------------
Hebergement d'images | Le topic de la VR standalone
n°1439648
clem7303
Posté le 30-10-2019 à 19:31:52  profilanswer
 

J'ai finalement réussi à faire la mise à jour vers la version 6, mais maintenant je n'ai plus de réseau avec le nouveau kernel.
Si je relance sur l'ancien, tout fonctionne.
Quelqu'un a eu le problème ?
 
Merci


---------------
Topic achat/vente
n°1439664
webmail-75​000
Posté le 31-10-2019 à 08:24:16  profilanswer
 

gizmo15 a écrit :

t'as rien dans le kern.log ?


voici (reboot vers 5h00 du matin, encore eu sur mes nodes 2 et 3 ce matn)

Code :
  1. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689520] [  pid  ]   uid  tgid total_vm      rss pgtables_bytes swapents oom_score_adj name
  2. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689651] [   5855]     0  5855    15619     3818   159744        0             0 systemd-journal
  3. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689668] [   5874]   107  5874    11282      108   131072        0          -900 dbus-daemon
  4. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689684] [   5882]     0  5882    62528      172   135168        0             0 rsyslogd
  5. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689700] [   5959]   110  5959    13952      899   155648        0             0 snmpd
  6. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689715] [   5964]     0  5964     3164       32    73728        0             0 agetty
  7. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689731] [   6060]     0  6060     4220       40    73728        0             0 jsvc
  8. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689746] [   6064]   109  6064   800759    21070   446464        0             0 launcher
  9. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689768] [   6273]   101  6273    20855      204   155648        0             0 qmgr
  10. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689785] [  12689]     0 12689     3164       31    73728        0             0 agetty
  11. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689803] [   1917]   101  1917    20814      192   147456        0             0 pickup
  12. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689836] [  28863]     0 28863     1069       16    53248        0             0 sh
  13. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689853] oom-kill:constraint=CONSTRAINT_MEMCG,nodemask=(null),cpuset=ns,mems_allowed=0,oom_memcg=/lxc/115,task_memcg=/lxc/115/ns,task=java,pid=6346,uid=109
  14. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.689949] Killed process 18267 (mongod) total-vm:377992kB, anon-rss:54900kB, file-rss:0kB, shmem-rss:0kB
  15. Oct 31 00:17:18 ProxmoxNode3 kernel: [241886.701606] oom_reaper: reaped process 18267 (mongod), now anon-rss:0kB, file-rss:0kB, shmem-rss:0kB
  16. Oct 31 05:07:20 ProxmoxNode3 kernel: [    0.000000] Linux version 5.0.21-3-pve (build@pve) (gcc version 8.3.0 (Debian 8.3.0-6)) #1 SMP PVE 5.0.21-7 (Mon, 30 Sep 2019 09:11:02 +0200) ()
  17. Oct 31 05:07:20 ProxmoxNode3 kernel: [    0.000000] Command line: initrd=\EFI\proxmox\5.0.21-3-pve\initrd.img-5.0.21-3-pve root=ZFS=rpool/ROOT/pve-1 boot=zfs
  18. Oct 31 05:07:20 ProxmoxNode3 kernel: [    0.000000] KERNEL supported cpus:
  19. Oct 31 05:07:20 ProxmoxNode3 kernel: [    0.000000]   Intel GenuineIntel
  20. Oct 31 05:07:20 ProxmoxNode3 kernel: [    0.000000]   AMD AuthenticAMD
  21. Oct 31 05:07:20 ProxmoxNode3 kernel: [    0.000000]   Hygon HygonGenuine
  22. Oct 31 05:07:20 ProxmoxNode3 kernel: [    0.000000]   Centaur CentaurHauls
  23. Oct 31 05:07:20 ProxmoxNode3 kernel: [    0.000000] x86/fpu: x87 FPU will use FXSAVE
  24. Oct 31 05:07:20 ProxmoxNode3 kernel: [    0.000000] BIOS-provided physical RAM map:


---------------

n°1439665
hydrosaure
Posté le 31-10-2019 à 09:43:21  profilanswer
 

oom-kill=> OOM => Out Of Memory
 
tu as une saturation mémoire

n°1439666
dafunky
Posté le 31-10-2019 à 09:52:32  profilanswer
 

Du coup la migration de proxmox vers la 6 c'est tendu ou tranquillou? Sachant que j'ai installé quelques services sur le host proxmox, genre samba et DLNA (oui ok, c'est pas foufou).


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1439667
clem7303
Posté le 31-10-2019 à 10:02:52  profilanswer
 

Pour moi, pas top, la procédure n'a pas fonctionné correctement, j'ai dû aller mettre les sources à jour dans le fichier pour qu'il veuille bien installer la mise à jour (j'ai peut être mal fait un truc ?).
Et maintenant que c'est installé, je n'ai plus de réseau si je démarre sur le nouveau kernel, j'ai un peu cherché, mais je n'ai pas trouvé pourquoi.
Sur l'ancien tout marche bien.
C'est sur un serveur distant, je ne pense pas que ça joue mais je précise. Je n'ai pas encore lancé la mise à jour chez moi.


---------------
Topic achat/vente
n°1439668
lestat67se​l
:-)
Posté le 31-10-2019 à 10:07:18  profilanswer
 

Perso j'ai fais l'update genre 2j après la sortie sans aucun problème.
Après j'ai rien de spécifique (mais du samba/nfs sur l'hôte aussi)

n°1439669
webmail-75​000
Posté le 31-10-2019 à 10:19:37  profilanswer
 

hydrosaure a écrit :

oom-kill=> OOM => Out Of Memory
 
tu as une saturation mémoire

c'était sans doute pas une bonne idée de les installer en ZFS, alors que je n'en utilises pas les fonctionnalités...
et c'est sans doute au déclenchement des backups que le reboot se fait, je vais les reprogrammer voir si le soucis se déplace dans le temps
merci :)
 

dafunky a écrit :

Du coup la migration de proxmox vers la 6 c'est tendu ou tranquillou? Sachant que j'ai installé quelques services sur le host proxmox, genre samba et DLNA (oui ok, c'est pas foufou).


easy en suivant la procèdure


---------------

n°1439672
LibreArbit​re
RIP mon Orion
Posté le 31-10-2019 à 11:07:24  profilanswer
 

clem7303 a écrit :

J'ai finalement réussi à faire la mise à jour vers la version 6, mais maintenant je n'ai plus de réseau avec le nouveau kernel.
Si je relance sur l'ancien, tout fonctionne.
Quelqu'un a eu le problème ?

 

Merci


En v6 tu dois faire un bridge (vmbr0) même si tu n'as qu'une seule interface...

Message cité 1 fois
Message édité par LibreArbitre le 31-10-2019 à 11:08:12

---------------
Hebergement d'images | Le topic de la VR standalone
n°1439673
hydrosaure
Posté le 31-10-2019 à 11:07:26  profilanswer
 

J'utilise pas mal de Linux sous ZFS sans soucis jusque là.
 
La pression mémoire est peut etre trop forte dans ton cas.
Quelle est la configuration mémoire ?
Tu peux toujours essayer de limiter l'utilisation mémoire de ZFS pour voir.

n°1439674
webmail-75​000
Posté le 31-10-2019 à 11:16:58  profilanswer
 

8go de rampar node
aprèes le nodes ne sont pas surchargés non plus  
 
https://framapic.org/0VTzTkJYmwL9/0G0H48glT5FX.png


---------------

n°1439677
clem7303
Posté le 31-10-2019 à 11:37:27  profilanswer
 

LibreArbitre a écrit :


En v6 tu dois faire un bridge (vmbr0) même si tu n'as qu'une seule interface...


Je viens de vérifier, j'ai bien un bridge du vmbr0 vers enp2s0, il y était déjà en V5.


---------------
Topic achat/vente
n°1439678
LibreArbit​re
RIP mon Orion
Posté le 31-10-2019 à 11:40:38  profilanswer
 

Au temps pour moi, je n'étais plus sûr...


---------------
Hebergement d'images | Le topic de la VR standalone
n°1439679
clem7303
Posté le 31-10-2019 à 11:47:05  profilanswer
 

Pas de problème, merci quand même.
Je vérifierai quand même au reboot sur le dernier kernel que c'est bien présent.


---------------
Topic achat/vente
n°1439682
gizmo15
Posté le 31-10-2019 à 15:35:10  profilanswer
 

clem7303 : passage à full systemd, vérifie que les interfaces ont pas été renommées ;)
 
Webmail-75000: comme les autres, OOM, donc t'as un truc qui surconsomme. si tu veux garder ton zfs, regarde pour désactiver la déduplication et la compression c'est ce qui prend le plus de ram

n°1439684
webmail-75​000
Posté le 31-10-2019 à 15:37:43  profilanswer
 

ok je vais chercher pour désactiver ça, merci à tous !


Message édité par webmail-75000 le 31-10-2019 à 15:37:49

---------------

n°1439685
clem7303
Posté le 31-10-2019 à 16:00:20  profilanswer
 

gizmo15 a écrit :

clem7303 : passage à full systemd, vérifie que les interfaces ont pas été renommées ;)

 

Webmail-75000: comme les autres, OOM, donc t'as un truc qui surconsomme. si tu veux garder ton zfs, regarde pour désactiver la déduplication et la compression c'est ce qui prend le plus de ram


Ouais j'ai vu ça des les causes de problèmes potentiels.
Mais je n'ai rien vu qui a changé. Tu sais où il faut regarder ? Pour savoir si j'ai bien regardé au bon endroit.
Merci


Message édité par clem7303 le 31-10-2019 à 16:00:34

---------------
Topic achat/vente
n°1439688
gizmo15
Posté le 31-10-2019 à 16:08:16  profilanswer
 

avec ip link ou ip a et tu auras la liste des interfaces avec leur nom

n°1439689
clem7303
Posté le 31-10-2019 à 16:25:59  profilanswer
 

ok, merci je regarde ce soir.
J'avais regardé avec ip addr et les noms correspondaient bien à ce que j'ai dans le fichier interfaces.


Message édité par clem7303 le 31-10-2019 à 16:26:08

---------------
Topic achat/vente
n°1439694
hydrosaure
Posté le 31-10-2019 à 20:12:45  profilanswer
 

J'ai suivi cet article pour configurer une interface wifi: https://pve.proxmox.com/wiki/WLAN
 
ça semble marcher pas trop mal par contre c'est normal que dans l'interface web, partie réseau, je ne puisse rien faire sur cette interface ?
type unknown
 
EDIT: ah oui, le bridge avec du Wifi c'est mal


Message édité par hydrosaure le 03-11-2019 à 10:15:49
n°1439769
x1fr
Posté le 03-11-2019 à 15:04:42  profilanswer
 

Ptain, ce week-end je me motive à tester l'installation d'un proxmox sur mon pc de jeu, avec l'usb et la carte graph en passthrough sur une vm pour faire double usage serveur / pc de jeu.
 
J'ai bien galéré à chaque étape, tout ça pour arriver à la fin à booter la vm avec l'affichage en direct sur l'écran, sauf que Nvidia, dans sa grande bonté, a désactivé dans les drivers la possibilité d'utiliser ses geforce dans des vm. Du coup il y a à priori une solution à base de bidouille des drivers mais bon... pas super chaud pour ça
 
Merci nvidia!


---------------
Origin / PSN / Steam / Uplay : x1fr - bnet : Fab#2717
n°1439773
LibreArbit​re
RIP mon Orion
Posté le 03-11-2019 à 16:39:53  profilanswer
 

Le passthrough fonctionne avec VMware Workstation par contre (et tu peux créer tes hosts Proxmox dedans au pire)...


---------------
Hebergement d'images | Le topic de la VR standalone
n°1439777
x1fr
Posté le 03-11-2019 à 17:06:34  profilanswer
 

Ca fonctionne :love:
 
Ce n'était pas un problème de proxmox, mais du driver nvidia à l'intérieur de la vm windows. Si j'ai bien compris, il détecte qu'on est à l'intérieur d'une vm et désative la carte.
 
En modifiant des paramètres dans le fichier de config de la vm, ça fonctionne! avec le dual screen et tout  :bounce:  
 
Install d'un jeu en cours, voir ce que ça donne


---------------
Origin / PSN / Steam / Uplay : x1fr - bnet : Fab#2717
n°1439785
x1fr
Posté le 03-11-2019 à 19:01:11  profilanswer
 

Première impression à chaud, ça fonctionne! et ça fonctionne plutôt bien même.

 

Faudrait comparer en condition réelles (là il n'y a pas de passthrough sur le disque dur entre autres), avec genre des jeux qui disposent d'un benchmark intégré pour avoir une idée plus précises de ce que ça donne niveau perfs

 

Et en usage de tous les jours s'il n'y a pas trop de ralentissements ou autres

 

edit : je viens d'ajouter les disques de mon pc à la vm, du coup je suis sur mon pc comme avant, mais qui tourne dans une vm, je vais tester quelques jours pour voir

Message cité 1 fois
Message édité par x1fr le 03-11-2019 à 23:42:40

---------------
Origin / PSN / Steam / Uplay : x1fr - bnet : Fab#2717
n°1440012
dafunky
Posté le 10-11-2019 à 19:36:37  profilanswer
 

depart a écrit :


Oui c'est ce que j'ai écrit... je voulais juste plus d'infos sur la raison du choix (vs nut par ex), la mise en place sur l'hôte ou un conteneur/vm...
 
Tant pis je me suis lancé. Petit tuto "au goût du jour" :
Pour info j'ai un APC 700 USB


 
Salut, tu as progressé sur l'intégration de apcupsd sur ton environnement proxmox? J'aimerais en particulier déclencher l'extinction du serveur après 15mn de coupure (et non pas dès la coupure), et remonter les infos à grafana. Je suis preneur de feedback, savoir si chez toi ça fonctionne bien et que tu as une vraie valeur ajoutée avec cet outil.


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1440207
snipereyes
Posté le 14-11-2019 à 00:16:05  profilanswer
 

x1fr a écrit :

Première impression à chaud, ça fonctionne! et ça fonctionne plutôt bien même.

 

Faudrait comparer en condition réelles (là il n'y a pas de passthrough sur le disque dur entre autres), avec genre des jeux qui disposent d'un benchmark intégré pour avoir une idée plus précises de ce que ça donne niveau perfs

 

Et en usage de tous les jours s'il n'y a pas trop de ralentissements ou autres

 

edit : je viens d'ajouter les disques de mon pc à la vm, du coup je suis sur mon pc comme avant, mais qui tourne dans une vm, je vais tester quelques jours pour voir

 

Preneur de ton retour sur la durée


---------------
-- Topic de vente -- FeedBack --
n°1440208
x1fr
Posté le 14-11-2019 à 00:28:40  profilanswer
 

snipereyes a écrit :

 

Preneur de ton retour sur la durée


Stand by pour l'instant, j'ai testé sur le dernier ghost recon et j'ai bien 30% de perfs en moins en mode vm.

 

Je n'ai pas encore pris le temps d'approfondir, voir si je peux améliorer un peu ca.

 

J'ai l'impression que c'est le cpu qui limite


---------------
Origin / PSN / Steam / Uplay : x1fr - bnet : Fab#2717
n°1440213
depart
Posté le 14-11-2019 à 09:57:38  profilanswer
 

dafunky a écrit :

 

Salut, tu as progressé sur l'intégration de apcupsd sur ton environnement proxmox? J'aimerais en particulier déclencher l'extinction du serveur après 15mn de coupure (et non pas dès la coupure), et remonter les infos à grafana. Je suis preneur de feedback, savoir si chez toi ça fonctionne bien et que tu as une vraie valeur ajoutée avec cet outil.


J'ai rien fait de plus.
J'ai des coupures, c'est bien détecté car je reçois des mails au début et à la fin de la coupure.
Le fichier de config définit à quel moment le serveur est sensé s'éteindre (x pourcents de batterie) donc c'est ok.
Après je n'ai pas testé l'extinction réelle ni le retour à la normale en cas d'extinction (dans le bios le serveur est configuré sur always on, donc ça devrait redémarrer tout seul)... En théorie.
Je ne suis pas un utilisateur de grafana donc sur ce point je ne peux pas t'aider, désolé.


Message édité par depart le 14-11-2019 à 09:58:27
n°1440214
dafunky
Posté le 14-11-2019 à 10:02:06  profilanswer
 

Merci pour ton retour :jap:
Pour info voici les données remontées par apcupsd, à voir si c'est dispo sur tous les onduleurs :  
 
MinLineVoltage, MaxLineVoltage, OutputVoltage, BatteryVoltage, LineFrequency, LoadPercent, UPSTemperature, AmbientTemperature, Humidity, LineVoltage, BatteryCharge, toggle
 
Ce serait top d'obtenir un tel graphique de charge sans se fatiguer
 
https://grafana.com/api/dashboards/7197/images/5965/image
 
EDIT : du coup la question habituelle, je mets ça sur le host ou je déporte ça sur une de mes VM?


Message édité par dafunky le 14-11-2019 à 10:09:26

---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1440217
depart
Posté le 14-11-2019 à 13:28:40  profilanswer
 

sur l'host je pense qu'il n'y a pas de souci particulier (enfin moi j'ai fait ça). On peut partir du principe que c'est intimement lié à la machine physique, donc pas de raison spéciale de faire tourner ça dans une VM.
C'est léger, il n'y a pas de grosses interactions avec le reste... le plus "lourd" c'est éventuellement apache+le mod-cgi associé si tu veux avoir une page web avec les valeurs.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  96  97  98  ..  197  198  199  200  201  202

Aller à :
Ajouter une réponse
 

Sujets relatifs
Choix Hyperviseur pour Xeon [Box de test]Routage vm Proxmox
Questionnement sur un hyperviseur[Topikunik] Personnalisation des interfaces graphiques
Plus de sujets relatifs à : [TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR