Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2961 connectés 

 

 

Proxmox c'est ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  200  201  202  203  204  205
Auteur Sujet :

[TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !

n°1490554
Shaad
Posté le 15-03-2024 à 09:26:23  profilanswer
 

Reprise du message précédent :
:hello:  
 
Comme espéré, tout est tombé en marche en quelques minutes hier soir en repartant d'une install propre host + conteneur sur base Debian.
En synthèse la seule chose qui me semble avoir été nécessaire a été l'installation du paquet 'mesa-va-drivers' sur mon host pour gérer l'IGPU AMD.
Le reste c'est que du standard : création du LXC, montage de la carte renderD128 en vérifiant bien 3 fois la syntaxe dans le fichier du conf du conteneur.
Côté conteneur je n'ai rien fait.
 
Mon Frigate a bien démarré. L'iGPU gère le transcodage hardware, et le Coral USB se charge de la détection.
J'utilise 3 caméras 1440p (1440p@20FPS pour l'enregistrement mais je fais la détection sur un flux 360p@6FPS).
Inference speed du Coral < 10ms
Charge iGPU < 5%.

Message cité 1 fois
Message édité par Shaad le 15-03-2024 à 09:26:56
mood
Publicité
Posté le 15-03-2024 à 09:26:23  profilanswer
 

n°1490556
MilesTEG1
Posté le 15-03-2024 à 10:07:57  profilanswer
 

Shaad a écrit :

:hello:  
 
Comme espéré, tout est tombé en marche en quelques minutes hier soir en repartant d'une install propre host + conteneur sur base Debian.
En synthèse la seule chose qui me semble avoir été nécessaire a été l'installation du paquet 'mesa-va-drivers' sur mon host pour gérer l'IGPU AMD.
Le reste c'est que du standard : création du LXC, montage de la carte renderD128 en vérifiant bien 3 fois la syntaxe dans le fichier du conf du conteneur.
Côté conteneur je n'ai rien fait.
 
Mon Frigate a bien démarré. L'iGPU gère le transcodage hardware, et le Coral USB se charge de la détection.
J'utilise 3 caméras 1440p (1440p@20FPS pour l'enregistrement mais je fais la détection sur un flux 360p@6FPS).
Inference speed du Coral < 10ms
Charge iGPU < 5%.


Intéressant ce compte rendu.
Est-ce que l’iGPU peut être partagé entre plusieurs LXC ?
J’aimerais bien faire un serveur Plex sur le nuc ryzen  :)  
 
Autre question , car je ne maîtrise pas les lxc… si je fais une VM Debian+docker , l’igpu amd se partage-il facilement ?
 
(Je ne sais pas vraiment gérer un lxc ni comment lui faire des mises à jour …)


---------------
Mes ventes : [FeedBack] http://forum.hardware.fr/hfr/Achat [...] 4599_1.htm
n°1490557
desp
Posté le 15-03-2024 à 10:16:28  profilanswer
 

Bravo Shaad!
 
Miles: oui on peut partager entre plusieurs LXC.

n°1490558
MilesTEG1
Posté le 15-03-2024 à 10:25:49  profilanswer
 

desp a écrit :

Bravo Shaad!
 
Miles: oui on peut partager entre plusieurs LXC.


ha cool ça :)
Mais du coup, ça va vouloir dire que je vais devoir faire et utiliser des LXC  :pt1cable: donc me former dessus, avec le peu de temps à ma disposition  :whistle:  


---------------
Mes ventes : [FeedBack] http://forum.hardware.fr/hfr/Achat [...] 4599_1.htm
n°1490561
dafunky
Posté le 15-03-2024 à 12:10:14  profilanswer
 

Pareil. J'ai créé un LXC pour pihole il y a 4 ans, depuis je mets tout sur docker, je suis un peu rouillé.


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1490564
katkar
Posté le 15-03-2024 à 12:58:47  profilanswer
 

Je suis pas trop fan du concept des CT, par rapport au VM ...
J'ai en tête que les VM, sont plus facilement transférables d'un host à un autre (je parle bien sur de VM sans passtrough) ... Je me trompe ?

n°1490577
mqnu
Hu ?
Posté le 16-03-2024 à 03:16:14  profilanswer
 


Bof, c'est pareil.


---------------
:o
n°1490578
ElMago31
Posté le 16-03-2024 à 09:18:19  profilanswer
 

Ça dépend pourquoi.
 
Pour des p’tits services je trouve ça pas mal.
J’ai mon contrôleur UniFi, InfluxDB et Graphana qui tourne sous des LXC sans aucuns soucis.

n°1490579
MilesTEG1
Posté le 16-03-2024 à 09:28:03  profilanswer
 

ElMago31 a écrit :

Ça dépend pourquoi.
 
Pour des p’tits services je trouve ça pas mal.
J’ai mon contrôleur UniFi, InfluxDB et Graphana qui tourne sous des LXC sans aucuns soucis.


Tu gères comment les mises à jour des os des LXC ?
Et quid des services que tu fais tourner dedans ?
 
Je suis trop habitué aux conteneurs docker qui se mettent à jour via l’image et avec watchtower.


---------------
Mes ventes : [FeedBack] http://forum.hardware.fr/hfr/Achat [...] 4599_1.htm
n°1490580
Antionn
Posté le 16-03-2024 à 10:05:16  profilanswer
 

desp a écrit :


Hello,
 
Tu peux, je l’ai fait et ca marche bien!
 
Utilise un profile apparmor specifique: « lxc-default-with-nfsd »
voici le tuto que j'avais suivi:https://forum.proxmox.com/threads/nfs-server-in-lxc.105073/
 
Cherche LXC NFS , il y a des tutos


 
Merci pour ta réponse :jap:
 
J'ai regardé le lien que tu m'a mis ... en effet il touche à des fichiers, mais surtout, il crée le CT en mode privileged. Je sais pas trop ce qu'il fait en modifiant les fichiers, mais j'aurais envie de dire qu'il doit faire "à la main" ce que la console de Proxmox fait de façon automatiser en un clic pour activer cette prise en charge :jap:
 
https://rehost.diberie.com/Picture/Get/t/262091
 
 

MilesTEG1 a écrit :


Tu gères comment les mises à jour des os des LXC ?
Et quid des services que tu fais tourner dedans ?
 
Je suis trop habitué aux conteneurs docker qui se mettent à jour via l’image et avec watchtower.


 
De la même façon qu'une VM, via le gestionnaire de paquet de la VM de la distribution du LXC. En pratique les LXC se manipule un peu de la même façon, mais avec quelques limitations ou possibilités en plus ou en moins. Mais faut les voir un peu comme une VM en plus léger.


---------------
Mon topic achat // [TU] Radeon Software // [TU] AMD RDNA2 - RX6x00
mood
Publicité
Posté le 16-03-2024 à 10:05:16  profilanswer
 

n°1490581
depart
Posté le 16-03-2024 à 10:25:07  profilanswer
 

MilesTEG1 a écrit :


Tu gères comment les mises à jour des os des LXC ?
Et quid des services que tu fais tourner dedans ?

 

Je suis trop habitué aux conteneurs docker qui se mettent à jour via l’image et avec watchtower.


Faudra que je retrouve ça si tu veux mais j'ai un script que je lance sur l'hôte et qui fait un update/upgrade de tous les lxc qui tournent. Ca peut même se mettre dans un cron si on est joueur.

n°1490582
desp
Posté le 16-03-2024 à 12:47:18  profilanswer
 

depart a écrit :


Faudra que je retrouve ça si tu veux mais j'ai un script que je lance sur l'hôte et qui fait un update/upgrade de tous les lxc qui tournent. Ca peut même se mettre dans un cron si on est joueur.


C’est ca ?
 
https://tteck.github.io/Proxmox/

n°1490583
MilesTEG1
Posté le 16-03-2024 à 12:54:39  profilanswer
 

Antionn a écrit :


 
De la même façon qu'une VM, via le gestionnaire de paquet de la VM de la distribution du LXC. En pratique les LXC se manipule un peu de la même façon, mais avec quelques limitations ou possibilités en plus ou en moins. Mais faut les voir un peu comme une VM en plus léger.


Ha oui, tu vois je ne suis pas habitué au fonctionnement des lxc !
En fait ce sont des Linux ! Dans lesquels on installé l’application désirée c’est ça ?
 
 

depart a écrit :

Faudra que je retrouve ça si tu veux mais j'ai un script que je lance sur l'hôte et qui fait un update/upgrade de tous les lxc qui tournent. Ca peut même se mettre dans un cron si on est joueur.


 
Je veux bien ton script  :)  
 
Je sens qu’il va ressembler à celui que je me suis fait pour mettre à jour mes instances proxmox depuis mon mac sans devoir me loguer dessus un par un.
Bon moi je passe toujours par un mot de passe  :pt1cable: je n’ai paz pris le temps d’étudier le système avec clé …

Message cité 1 fois
Message édité par MilesTEG1 le 16-03-2024 à 12:55:17

---------------
Mes ventes : [FeedBack] http://forum.hardware.fr/hfr/Achat [...] 4599_1.htm
n°1490584
depart
Posté le 16-03-2024 à 14:08:09  profilanswer
 


Ca c'est le haut de gamme, moi j'ai bien plus simple :)
 

MilesTEG1 a écrit :


Je veux bien ton script  :)  


 
Voilà mon truc (.sh sur l'hôte) :

for CT in $(pct list | grep running | awk '{print $1}'); do
  pct exec ${CT} -- bash -c "apt update && apt dist-upgrade -y"
done


Message édité par depart le 16-03-2024 à 14:09:48
n°1490586
ElMago31
Posté le 16-03-2024 à 19:13:52  profilanswer
 

MilesTEG1 a écrit :


Tu gères comment les mises à jour des os des LXC ?
Et quid des services que tu fais tourner dedans ?
 
Je suis trop habitué aux conteneurs docker qui se mettent à jour via l’image et avec watchtower.


Effectivement je m’astreins à faire les mises à jour moi-même à intervalle régulier.
Après si je peux l’automatiser ce sera mieux, me suis pas encore penché sur la question.

n°1490619
Ketchoupi1
Posté le 17-03-2024 à 15:10:33  profilanswer
 

hello
 
suis de retour, j'ai enfin réussi à faire ce que je voulais  
faire tourner un lxc (ici ubuntu, je n'ai pas encore réussi pour debian) avec un docker pour jellyfin avec passthrough d'une carte nvidia quadro p2000.
comme la video de jim's garage et avec un partage samba sur mon synology
 
pour la partie partage en samba, le tuto original :
https://forum.proxmox.com/threads/t [...] es.101795/
 
Je vous mets ce qui a marché chez moi :  
 
 

Code :
  1. ———Update && Upgrade Proxmox ———
  2. activer le paquet  pve-no-subscription
  3. update && apt upgrade -y
  4. apt install pve-headers dkms build-essential -y
  5. ———Disable Nvidia Free Driver ———
  6. lspci | grep -i nvidia
  7. nano /etc/modprobe.d/blacklist.conf (ok)
  8. blacklist nouveau
  9. update-initramfs -u
  10. reboot
  11. — Install nvidia driver ———
  12. wget https://us.download.nvidia.com/XFre [...] .54.14.run
  13. chmod +x NVIDIA-Linux-x86_64-550.54.14.run
  14. ./NVIDIA-Linux-x86_64-550.54.14.run
  15. nano /etc/modules-load.d/modules.conf (chez moi : rien, mais au cas ou)
  16. nvidia
  17. nvidia_uvm
  18. nvidia-drm (en plus ? )
  19. update-initramfs -u -k all
  20. nano /etc/udev/rules.d/70-nvidia.rules
  21. KERNEL=="nvidia", RUN+="/bin/bash -c '/usr/bin/nvidia-smi -L && /bin/chmod 666 /dev/nvidia*'"
  22. KERNEL=="nvidia_modeset", RUN+="/bin/bash -c '/usr/bin/nvidia-modprobe -c0 -m && /bin/chmod 666 /dev/nvidia-modeset*'"
  23. KERNEL=="nvidia_uvm", RUN+="/bin/bash -c '/usr/bin/nvidia-modprobe -c0 -u && /bin/chmod 666 /dev/nvidia-uvm*'"
  24. reboot
  25. ls -al /dev/nvidia*
  26. crw-rw-rw- 1 root root 195,   0 Mar 11 10:45 /dev/nvidia0
  27. crw-rw-rw- 1 root root 195, 255 Mar 11 10:45 /dev/nvidiactl
  28. crw-rw-rw- 1 root root 195, 254 Mar 11 10:45 /dev/nvidia-modeset
  29. crw-rw-rw- 1 root root 235,   0 Mar 11 10:45 /dev/nvidia-uvm
  30. crw-rw-rw- 1 root root 235,   1 Mar 11 10:45 /dev/nvidia-uvm-tools
  31. /dev/nvidia-caps:
  32. total 0
  33. drw-rw-rw-  2 root root     80 Mar 11 10:45 .
  34. drwxr-xr-x 20 root root   4500 Mar 11 10:45 ..
  35. cr--------  1 root root 239, 1 Mar 11 10:45 nvidia-cap1
  36. cr--r--r--  1 root root 239, 2 Mar 11 10:45 nvidia-cap2
  37. Write Down Your GPU
  38. moi : 195,235 (cela a changé après 195,236)
  39. nvidia-smi
  40. creation lxc ubuntu
  41. ne pas lancer
  42. nano /etc/pve/lxc/105.conf
  43. arch: amd64
  44. cores: 2
  45. cpulimit: 2
  46. features: nesting=1
  47. hostname: jelly5
  48. memory: 2048
  49. net0: name=eth0,bridge=vmbr0,firewall=1,gw=10.0.1.1,hwaddr=BC:24:11:5C:A2:08,ip=10.0.1.225/24,type=veth
  50. ostype: ubuntu
  51. rootfs: exemple:105/vm-105-disk-0.raw,size=20G
  52. swap: 512
  53. unprivileged: 1
  54. lxc.cgroup2.devices.allow: c 195:* rwm
  55. lxc.cgroup2.devices.allow: c 236:* rwm
  56. lxc.mount.entry: /dev/nvidia0 dev/nvidia0 none bind,optional,create=file
  57. lxc.mount.entry: /dev/nvidiactl dev/nvidiactl none bind,optional,create=file
  58. lxc.mount.entry: /dev/nvidia-uvm dev/nvidia-uvm none bind,optional,create=file
  59. lxc.mount.entry: /dev/nvidia-modeset dev/nvidia-modeset none bind,optional,create=file
  60. lxc.mount.entry: /dev/nvidia-uvm-tools dev/nvidia-uvm-tools none bind,optional,create=file
  61. LXC ubuntu
  62. apt update && apt upgrade -y
  63. apt install make gcc sudo curl git gpg docker-compose -y
  64. wget https://us.download.nvidia.com/XFre [...] .54.14.run
  65. chmod +x NVIDIA-Linux-x86_64-550.54.14.run
  66. ./NVIDIA-Linux-x86_64-550.54.14.run --no-kernel-module
  67. install nvidia toolkit :
  68. https://docs.nvidia.com/datacenter/ [...] guide.html
  69. curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  70.   && curl -s -L https://nvidia.github.io/libnvidia- [...] olkit.list | \
  71.     sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
  72.     sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
  73. sed -i -e '/experimental/ s/^#//g' /etc/apt/sources.list.d/nvidia-container-toolkit.list
  74. sudo apt-get update
  75. sudo apt-get install -y nvidia-container-toolkit
  76. apt install nvtop
  77. sudo nvidia-ctk runtime configure --runtime=docker
  78. sudo systemctl restart docker
  79. nano /etc/nvidia-container-runtime/config.toml
  80. no-cgroups = true
  81. nvidia-smi
  82. nano docker-compose.yml
  83. version: '3'
  84. services:
  85.   jellyfin:
  86.     image: jellyfin/jellyfin
  87.     restart: always
  88.     user: 0:0 #utilisateur root du lxc
  89.     network_mode: 'host'
  90.     volumes:
  91.       - /home/gpto/jellyfin/config:/config
  92.       - /home/gpto/jellyfin/cache:/cache
  93.       - /home/gpto/jellyfin/media:/media
  94.     runtime: nvidia
  95.     deploy:
  96.       resources:
  97.         reservations:
  98.           devices:
  99.             - capabilities: [gpu]
  100. docker-compose up -d
  101. bonus : pour retirer la limitation des flux de votre carte nvidia :
  102. https://forum.openmediavault.org/in [...] container/
  103. if you don't have git, install it:
  104. apt install git
  105. git clone https://github.com/keylase/nvidia-patch.git nvidia-patch
  106. Patch the nvidia driver:
  107. cd nvidia-patch
  108. bash ./patch.sh
  109. If you want to rollback:
  110. bash ./patch.sh -r
  111. video de test
  112. cd /home/gpto/jellyfin/media
  113. creer
  114. mkdir films
  115. cd films
  116. pour telecharger la video big buck bunny
  117. curl -O https://download.blender.org/peach/ [...] stereo.avi


 
activez le transcodage nvenc dans jellyfin
 
lancez la video en faisant du transcodage et regarder sur la console de votre lxc et tapez
nvtop pour voir la charge du gpu
 
 
je laisse le soin aux experts de corriger mes erreurs probables.


Message édité par Ketchoupi1 le 17-03-2024 à 23:10:49
n°1490653
Shaad
Posté le 19-03-2024 à 09:10:33  profilanswer
 

:hello:  
 
J'ai fini de réinstaller mon nouvel host. Tout fonctionne désormais au poil. Mais j'ai dû faire pas mal de manip' sur l'hôte lui-même notamment pour gérer le passthrough ou recompiler des drivers non-inclus dans le kernel pour des équipements un peu exotiques.
 
Quel est le meilleur moyen de faire un backup propre, complet et auto-porteur d'un hôte Proxmox ?
J'utilise PBS pour mes VM et LXC et j'en suis très content, mais ça ne semble pas répondre à mon besoin.
Faire une image disque à l'ancienne type Clonezilla ou autre outil sans doute un peu plus moderne ?
Autre chose ?
 
Merci  :jap:


Message édité par Shaad le 19-03-2024 à 09:15:53
n°1490654
dafunky
Posté le 19-03-2024 à 09:24:15  profilanswer
 

La réponse m'intéresse, étant totalement noob sous linux, la dernière fois j'ai démonté le SSD et j'ai fait un clone sous windows :'(

Message cité 1 fois
Message édité par dafunky le 19-03-2024 à 09:24:25

---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1490655
mqnu
Hu ?
Posté le 19-03-2024 à 09:36:37  profilanswer
 

Pourquoi ne pas utiliser proxmox-backup-client ? https://ostechnix.com/use-proxmox-b [...] kup-files/
 
Ca doit pouvoir fonctionner.


---------------
:o
n°1490656
fegre
Voleur professionnel
Posté le 19-03-2024 à 09:47:31  profilanswer
 

dafunky a écrit :

La réponse m'intéresse, étant totalement noob sous linux, la dernière fois j'ai démonté le SSD et j'ai fait un clone sous windows :'(


ça a marché ? :ouch: je voulais faire ça pour y mettre un disque plus gros mais quand j'ai vu la gueule du partitionnement cloné par Minitool je me suis dit qu'il manquait des trucs et j'ai pas continué...

Message cité 1 fois
Message édité par fegre le 19-03-2024 à 09:47:45
n°1490659
Shaad
Posté le 19-03-2024 à 10:32:25  profilanswer
 

mqnu a écrit :

Pourquoi ne pas utiliser proxmox-backup-client ? https://ostechnix.com/use-proxmox-b [...] kup-files/
 
Ca doit pouvoir fonctionner.


 
Ca semble en effet la méthode actuellement recommandée : https://linuxconfig.org/how-to-crea [...] kup-client
En attendant une solution plus intégrée directement dans PBS. Ca fait partie de la roadmap depuis un bout de temps et ce n'est pas abandonné, ça finira par sortir.
 
Je vais tester ça, mais je ne testerai pas le restore. Donc je vais aussi voir pour voir un ISO de backup juste au cas où...


Message édité par Shaad le 19-03-2024 à 10:32:52
n°1490664
dafunky
Posté le 19-03-2024 à 11:04:33  profilanswer
 

mqnu a écrit :

Pourquoi ne pas utiliser proxmox-backup-client ? https://ostechnix.com/use-proxmox-b [...] kup-files/
Ca doit pouvoir fonctionner.


 
Parce que ça demande une machine supplémentaire. Or je ne veux pas de machine supplémentaire. J'ai choisi de faire du all in 1, à savoir que mon serveur proxmox héberge la totale, le routeur/firewall, la domotique, le nas, etc etc.
Et j'ai pas envie de maintenir un autre hardware, même si on ne parle que d'un rpi.
 
Par contre si vous me dites que sur ma machine daily, à savoir un windows, je peux facilement mettre en place une VM linux et lancer périodiquement proxmox-backup-client dessus, je creuserai cette piste.
 

fegre a écrit :


ça a marché ? :ouch: je voulais faire ça pour y mettre un disque plus gros mais quand j'ai vu la gueule du partitionnement cloné par Minitool je me suis dit qu'il manquait des trucs et j'ai pas continué...


 


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1490667
Shaad
Posté le 19-03-2024 à 11:30:12  profilanswer
 

Tu peux ajouter sur ton Proxmox une VM ou un conteneur avec PBS. C'est pas idéal mais beaucoup d'utilisateurs Proxmox sans cluster font ainsi.
Ca te servira à faire un backup à la fois de toutes tes VM et LXC, et aussi du host.
 
Reste juste à définir la cible de tous ces backups. Dans tous les cas ça ne devra bien-sûr pas être en local sur les disques de Proxmox ou PBS. Ca devra a minima être sur une partition différente, encore mieux sur un disque différent (interne ou USB), et idéalement sur un stockage distant (NAS ou autre).
Sans ajouter aucun hardware additionnel, la sauvegarde sur un partage de ta VM NAS sur un disque autonome sans système de fichier spécifique est sans doute la meilleure solution.

Message cité 1 fois
Message édité par Shaad le 19-03-2024 à 11:30:57
n°1490668
dafunky
Posté le 19-03-2024 à 11:39:20  profilanswer
 

Merci, je prends  [:yakari35]


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1490685
fegre
Voleur professionnel
Posté le 19-03-2024 à 19:55:44  profilanswer
 

T'as oublié de me répondre dans ta quote ou t'as missclick? :D

n°1490687
dafunky
Posté le 19-03-2024 à 20:29:14  profilanswer
 

Bah ouais ça a marché, je ne sais plus quel app j'avais utilisé en revanche


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1490688
fegre
Voleur professionnel
Posté le 19-03-2024 à 20:57:32  profilanswer
 

Bon faut que je tente alors :jap:

n°1490919
PithPossum
Poursuivi par la cabale
Posté le 31-03-2024 à 11:38:14  profilanswer
 

Shaad a écrit :

Tu peux ajouter sur ton Proxmox une VM ou un conteneur avec PBS. C'est pas idéal mais beaucoup d'utilisateurs Proxmox sans cluster font ainsi.
Ca te servira à faire un backup à la fois de toutes tes VM et LXC, et aussi du host.
...

 

Lapin compris :sweat:
J'ai un PBS qui fonctionne (sur une autre machine) et je n'ai pas vu/compris comment faire un backup du serveur (host)


Message édité par PithPossum le 31-03-2024 à 11:38:33

---------------
Di'Anno Roxor - Dickinson Puxor
n°1490926
desp
Posté le 31-03-2024 à 16:23:23  profilanswer
 
n°1490939
Usernet
Since 2004
Posté le 01-04-2024 à 22:24:43  profilanswer
 

Hello,
 
Je suis en version 8.1.10 et je vous que je suis toujours sur le noyau 6.5.11-6 de novembre 2023  :heink:  
 
Déjà est-ce normal ? Sinon quelle version devrais-je avoir et comment upgrader ?
 

apt update && apt full-upgrade


ne donne rien :/


Message édité par Usernet le 01-04-2024 à 23:35:04
n°1490942
lestat67se​l
:-)
Posté le 01-04-2024 à 22:34:40  profilanswer
 
n°1490943
Usernet
Since 2004
Posté le 01-04-2024 à 22:38:11  profilanswer
 


idem toujours en 6.5.11-6-pve

n°1490944
Usernet
Since 2004
Posté le 01-04-2024 à 22:50:04  profilanswer
 

Ok c'est résolu. Le kernel était simplement épinglé (ou pinned)
 

proxmox-boot-tool kernel list


Manually selected kernels:
None.
 
Automatically selected kernels:
6.2.16-20-pve
6.5.11-6-pve
6.5.13-1-pve
6.5.13-3-pve
 
Pinned kernel:
6.5.11-6-pve


Résolu avec :
 

proxmox-boot-tool kernel unpin


 
Puis reboot

n°1490957
renaud072
Posté le 02-04-2024 à 16:10:02  profilanswer
 

:hello:

 

J'ai un assez gros soucis depuis ce matin : le SSD sur lequel sont mes VM et proxmox est parti en cacahuètes sans crier gare, en gros quasi plus rien ne marche et lorsque je tape certaines commandes ça me sort des IO error :/ J'ai connecté un écran externe et comme je m'y attendais j'ai une tonne de messages sur des secteurs défectueux.

 

Plutôt que de continuer le carnage, j'ai tout éteint et monté le disque sur un autre PC. Sauf que j'ai un soucis pour récupérer les VM. J'arrive à y accéder en les montant sous forme de LV (j'utilisais local-lvm) mais du coup, je ne peux pas les récupérer sous forme de fichier disque, si ? J'avais bougé certaines sur un autre SSD et pour celles là c'est ok, j'ai bien le .qow2

 

Merci.


Message édité par renaud072 le 02-04-2024 à 16:11:26

---------------
MSI B450 Tomahawk MAX - R7 3700X - Ballistix 2x8 + 2x16 Go 3200 Mhz CL16 - RX570 4 Go / Laptop : Lenovo Gaming 3 - R5 5600H - RX Vega 8/GTX 1650 - 32 Go
n°1490958
dafunky
Posté le 02-04-2024 à 18:36:48  profilanswer
 

Pourquoi tu ne récupères pas simplement les backup de tes VM qui sont sur un autre disque ? Wait, ne me dis pas que...


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1490959
Usernet
Since 2004
Posté le 02-04-2024 à 18:43:07  profilanswer
 

dafunky a écrit :

Wait, ne me dis pas que...


 [:alph-one]

n°1490962
renaud072
Posté le 02-04-2024 à 21:18:55  profilanswer
 

dafunky a écrit :

Pourquoi tu ne récupères pas simplement les backup de tes VM qui sont sur un autre disque ? Wait, ne me dis pas que...


 
Backup anciennes, je faisais tout à la mano, oublis réguliers... oui je sais  :whistle:   :sweat:  
 
Heureusement j'ai récupéré presque toutes les fichiers de config, mais y'a des VM (enfin des LV) que je n'arrive pas à monter. Du coup, je ne sais pas si c'est corrompu pour celles là ou si je loupe un truc.
 
Si j'essaie, ça me revoie un wrong fs :  

Code :
  1. sudo mount -t ext4 /dev/mapper/pve-vm--100--disk--0 /mnt/100
  2. mount: /mnt/100: wrong fs type, bad option, bad superblock on /dev/mapper/pve-vm--100--disk--0, missing codepage or helper program, or other error.


 
J'ai ça qui monte tout seul :  

Code :
  1. /dev/mapper/pve-vm--107--disk--0   5,9G    807M  4,8G  15% /media/renaud/9e747e95-c9cf-48c2-9d07-b2b5186d89b5
  2. /dev/mapper/pve-vm--104--disk--0   2,0G    909M  920M  50% /media/renaud/ae45bdc1-c7b0-47cf-9d1f-06b6e8ef98a9
  3. /dev/mapper/pve-vm--111--disk--0   7,8G    777M  6,7G  11% /media/renaud/a339fdea-c828-4366-afca-2204a5d8edc1
  4. /dev/mapper/pve-vm--109--disk--0   7,8G    770M  6,7G  11% /media/renaud/60b5ad88-a1da-4fdb-8d01-6f068c9b7eea
  5. /dev/mapper/pve-vm--101--disk--0   3,9G    1,2G  2,5G  33% /media/renaud/00647f50-e48c-49b3-90ac-321c2cf93418
  6. /dev/mapper/pve-root               5,9G    4,7G  870M  85% /media/renaud/8f508018-89fe-4971-b083-725ba9b31472
  7. /dev/mapper/pve-vm--103--disk--0    92M     70M   16M  82% /media/renaud/4025c31f-21d3-4415-bdc8-d14e9fcd0ba9
  8. /dev/mapper/pve-vm--102--disk--0    61M     16M   41M  28% /media/renaud/ac32eab0-fb6f-4600-8d92-8cc7ee7b09c0


 
Alors que ma liste complète c'est :  

Code :
  1. LV                         VG  Attr       LSize   Pool Origin                    Data%  Meta%  Move Log Cpy%Sync Convert
  2.   data                       pve twi-aotz--  88,41g                                33,64  3,06                           
  3.   root                       pve -wi-a-----   6,00g                                                                     
  4.   snap_vm-106-disk-0_sambaOK pve Vri---tz-k   8,00g data vm-106-disk-0                                                   
  5.   snap_vm-106-disk-0_vierge  pve Vri---tz-k   8,00g data                                                                 
  6.   swap                       pve -wi-a-----   1,00g                                                                     
  7.   vm-100-disk-0              pve Vwi-a-tz--   8,00g data                           95,72                                 
  8.   vm-101-disk-0              pve Vwi-aotz--   4,00g data                           62,89                                 
  9.   vm-102-disk-0              pve Vwi-aotz--  68,00m data                           51,19                                 
  10.   vm-103-disk-0              pve Vwi-a-tz-- 100,00m data                           80,50                                 
  11.   vm-104-disk-0              pve Vwi-aotz--   2,00g data                           71,53                                 
  12.   vm-105-disk-0              pve Vwi-a-tz--   4,00g data                           92,27                                 
  13.   vm-106-disk-0              pve Vwi-a-tz--   8,00g data snap_vm-106-disk-0_vierge 37,07                                 
  14.   vm-106-state-sambaOK       pve Vwi-a-tz--  <1,99g data                           36,66                                 
  15.   vm-106-state-vierge        pve Vwi-a-tz--  <1,99g data                           36,73                                 
  16.   vm-107-disk-0              pve Vwi-aotz--   6,00g data                           26,81                                 
  17.   vm-108-disk-0              pve Vwi-a-tz--   6,00g data                           82,69                                 
  18.   vm-109-disk-0              pve Vwi-a-tz--   8,00g data                           17,62                                 
  19.   vm-111-disk-0              pve Vwi-a-tz--   8,00g data                           13,43


 
Il manque 100/105/106/108. Un en particulier me fait un peu chier, c'était toute ma conf de VPN aux petits oignons, pour les autres, j'avais splitté les roles à d'autres VM, donc y'a pas grand chose à refaire.

Message cité 1 fois
Message édité par renaud072 le 02-04-2024 à 21:19:16

---------------
MSI B450 Tomahawk MAX - R7 3700X - Ballistix 2x8 + 2x16 Go 3200 Mhz CL16 - RX570 4 Go / Laptop : Lenovo Gaming 3 - R5 5600H - RX Vega 8/GTX 1650 - 32 Go
n°1490965
drpatch
Blacklist avec uBlock
Posté le 02-04-2024 à 21:56:49  profilanswer
 

Bonjour,
 
c'est quoi le SSD, à tout hasard un Samsung Evo xxx ?
 
Je commence à m'en méfier de cela... si oui, avec l'utilitaire Samsung Magician - il y a un "Diagnostic Scan" et avec l'option "Analyse complète" l'outil prétend "détecter et corriger les erreurs de lecture sur chaque LBA.

n°1490966
SnowBear
Posté le 02-04-2024 à 22:01:31  profilanswer
 

renaud072 a écrit :


 
Backup anciennes, je faisais tout à la mano, oublis réguliers... oui je sais  :whistle:   :sweat:


 
 
Dommage, surtout quand Proxmox propose un outils de backup automatisé  :sweat:

n°1490968
Usernet
Since 2004
Posté le 02-04-2024 à 22:27:24  profilanswer
 

SnowBear a écrit :

Dommage, surtout quand Proxmox propose un outils de backup automatisé  :sweat:

Oui des backups externe sur un nas par exemple...
Mais avec un lien SMB3/CIFS les disques du nas n'entrent jamais en hibernation.
 
Dans les logs je vois un spam toutes les 10 secondes avec ce message :

User [xxxx] from [VM] via [CIFS(SMB3)] accessed shared folder [zzzz].


Du coup je passe en manuel en activant le stockage externe le temps du backup :/

n°1490970
drpatch
Blacklist avec uBlock
Posté le 02-04-2024 à 22:53:17  profilanswer
 

Usernet a écrit :

Oui des backups externe sur un nas par exemple...
Mais avec un lien SMB3/CIFS les disques du nas n'entrent jamais en hibernation.


On peut mettre en place une tâche qui active / désactive le service de partage avec bien sûr l'inconvéniant que les autres partages soient impactés. Mais il est peut-être possible via un script en tâche planifiée de partager / départager le dossier "Proxmox" seul ?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  200  201  202  203  204  205

Aller à :
Ajouter une réponse
 

Sujets relatifs
Choix Hyperviseur pour Xeon [Box de test]Routage vm Proxmox
Questionnement sur un hyperviseur[Topikunik] Personnalisation des interfaces graphiques
Plus de sujets relatifs à : [TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR