Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3134 connectés 

 

 

Proxmox c'est ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  164  165  166  ..  227  228  229  230  231  232
Auteur Sujet :

[TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !

n°1479630
depart
Posté le 22-11-2022 à 18:13:31  profilanswer
 

Reprise du message précédent :
"Reworked USB devices: can now be hot-plugged"
 
Oh, ça ça m'intéresse !
J'avais pas creusé car c'était pas urgent, mais j'ai une galère avec un disque dur externe usb justement (en zfs).
 
En gros j'ai passé mon disque principal de 8 à 10 To lors d'une promo cet été, et le 8 a rejoint un boitier usb 3.0 pour y stocker mes archives "ce que je veux garder mais pas forcément dispo online h24". Et j'avais eu des galères, genre impossible de démonter/remonter le disque usb.
 
Après ça n'a peut-être rien à voir avec cette update...  
 
Je laisse passer quelques jours et je sens que je vais migrer rapidement.


Message édité par depart le 22-11-2022 à 18:18:37
mood
Publicité
Posté le 22-11-2022 à 18:13:31  profilanswer
 

n°1479633
burn2
Pour ceux qui viendront après
Posté le 22-11-2022 à 23:49:00  profilanswer
 

dough29 a écrit :

Proxmox 7.3 dispo

 
  • Debian 11.5 "Bullseye", but using a newer Linux kernel 5.15 or 5.19
  • QEMU 7.1, LXC 5.0.0, and ZFS 2.1.6
  • Ceph Quincy 17.2.5 and Ceph Pacific 16.2.10; heuristical checks to see if it is safe to stop or remove a service instance (MON, MDS, OSD)
  • Initial support for a Cluster Resource Scheduler (CRS)
  • Proxmox Offline Mirror - https://pom.proxmox.com/
  • Tagging virtual guests in the web interface
  • CPU pinning: Easier affinity control using taskset core lists
  • New container templates: Fedora, Ubuntu, Alma Linux, Rocky Linux
  • Reworked USB devices: can now be hot-plugged
  • ZFS dRAID pools
  • Proxmox Mobile: based on Flutter 3.0
  • And many more enhancements.


Plus d'infos : https://forum.proxmox.com/threads/p [...] ed.118390/


J'ai mis à jour mon serveur@home sans m'en rendre compte, ras ici. :D
(à la base je me suis dis tien je vais faire mes majs de secu, j'ai vu pas mal de majs mais je me suis dis normal ça fait un moment que je ne les avais pas fait, donc pas tilté:D )
Bon il n'y a qu'un proxmox backup qui tourne dessus mais pour l'instant ras.

 

EDIT: c'est toujours un kernel 5.15 ici.


Message édité par burn2 le 22-11-2022 à 23:51:47

---------------
"C'est vrai qu'un type aussi pénible de jour on serait en droit d'espérer qu'il fasse un break de nuit mais bon …"
n°1479636
dafunky
Posté le 23-11-2022 à 07:29:33  profilanswer
 

Reworked USB devices: can now be hot-plugged"

 

[:jean-michel platini:3]


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1479639
peronik
Posté le 23-11-2022 à 09:44:41  profilanswer
 

bonjour à tous,  
j'aurais une question pour les DIEUX de PROXMOX !
 
Au taff je doit concevoir un stockage de masse (50To +), sans fusiller le budget
 
 les solutions avec logiciels et/ou matériels propriétaires clef en main =  hors budget  
 serveurs standards et Linux / opensource = you are welcome)
 
ma solution est, pour le moment,  
un cluster de 3 serveurs sous Proxmox avec mutualisation du stockage physique des 3 serveurs par CEPH ;
 le service des datas (hébergées par CEPH) sera opérer par une VM Samba KivaBien !
 
là ou j'ai comme un doute c'est sur l'architecture réseau a envisager pour que cela passe crème  
ma 1ere idée était de mettre en place un double réseau:
 
un réseau EXTERNE qui servira les data aux clients (en 10GbE),  
 
et un réseau  INTERNE avec agrégation de lien LACP (en 2 X 25GbE = ~50GbE)  
   pour gérer les flux de clustering et de gestion CEPH  
sur un switch 25GbE spécifiquement paramétré pour le LACP
 
questions
ma solution est elle valide ou je doit revoir ma copie  
si elle est valide quels points pourrait être délicats
 
d'avance merci

n°1479641
LibreArbit​re
La /root est longue
Posté le 23-11-2022 à 10:33:28  profilanswer
 

Non, on ne fera pas tes devoirs à ta place ;)

 

Quand un mec commence par "pour les dieux de XXX" c'est 99% du temps un étudiant qui cherche l'aide de professionnels pour un TP :o

Message cité 1 fois
Message édité par LibreArbitre le 23-11-2022 à 10:35:08

---------------
Hebergement d'images
n°1479645
l0g4n
Expert en tout :o
Posté le 23-11-2022 à 11:08:21  profilanswer
 

Stop.
Ton truc n'a aucun sens.
Tu veux du 2x25Gb/s en back, mais si c'est pour coller 3 disque 10To par machine c'est useless.
Si c'est juste pour partager du samba, tu montes deux nas classiques syno/qnap/whatever avec réplication chaque nuit et basta.
Au pire avec deux OMV/Freenas, pareil, réplication et c'est marre.
Et si t'a un besoin de perf particulier, pas les moyens et que tu veux forcément un cluster 3 noeuds proxmox avec une vm omv pour présenter les data... T'a un problème avec ton besoin.

 

On a des dd de 20To sur le marché, 50To c'est pas "de masse", c'est juste 5x20To en raid6 dans un syno rackable.


Message édité par l0g4n le 23-11-2022 à 11:09:51

---------------
Fort et motivé. Sauf parfois.
n°1479648
depart
Posté le 23-11-2022 à 12:06:48  profilanswer
 

+1 : Pour ce genre de volume ET uniquement du stockage, je ne suis pas sûr que le cluster proxmox soit super pertinent.
 
Après, proxmox c'est une chouette solution hein, ça permet de faire plein d'autres choses, mais si le besoin EST et RESTERA du stockage, c'est un peu overkill et comme dit l0g4n, 1 serveur unique avec un OS typé "NAS" + réplication sur son compère sera plus pertinent.
 
Notamment sur l'aspect backup, personnellement j'ai toujours préféré avoir une copie en dur des données avec 1 jour d'ancienneté en permanence à disposition AVANT de commencer à attaquer les mécanismes compliqués de snapshot et compagnie.
 
Le jour où le serveur crame (physiquement) ou qu'un bug quelconque ou une fausse manip pète ton bel array de disques "principaux" tu es content d'avoir physiquement une copie qui marche.
 
Parfois pour récupérer des fichiers effacés accidentellement c'est plus simple d'aller sur le nas "J-1" (qu'on peut rendre accessible à tout le monde en lecture seule par exemple) plutôt que de devoir passer par une demande de restauration d'un point de snapshot précédent ou ce genre de chose.
 
...
 
Bref dans ton cas (si tu ne veux pas de solution propriétaire type synology) j'achèterai un bête serveur (un truc dell ou hp entreée de gamme avec 2 alims en gros) avec suffisamment de place pour y caser les "50 To+", éventuellement un peu de ssd pour faire du cache, et un serveur miroir idéalement installé dans une autre baie ailleurs.
Le miroir peut même être un truc nettement moins performant : mettre 8 disques dans une tour de PC avec un bête core i3-7 sous truenas c'est pas un gros problème. Une carte 10GB dedans et rulezz. Pour la synchro nocturne ça fera probablement largement l'affaire, je ne vois pas trop l'idée derrière du 50GbE pour 50 To de stockage, tu vas avoir quoi comme delta de modif chaque jour ? 100 Go ? C'est 100 secondes de transfert en 10GbE si les disques suivent)
 
Après si tu as des besoins ultra spécifiques, détaille les, parce que là comme ça ça me semble en effet un peu étrange.
 
Edit : personnellement j'ai été plutôt déçu d'OMV, que j'ai trouvé usine à gaz pour pas grand chose. Truenas m'avait semblé vachement mieux. Après j'ai testé il y a maintenant plusieurs années (3 ?) donc ça a pu évoluer.


Message édité par depart le 23-11-2022 à 12:44:04
n°1479649
lestat67se​l
:-)
Posté le 23-11-2022 à 12:10:35  profilanswer
 

+1 pour du pur stockage, un syno rackable avec quelque disques, t'as 50To pour moins de 3k

n°1479653
extenue1
Posté le 23-11-2022 à 20:19:55  profilanswer
 

QNAP sera mieux et moins cher que Syno

n°1479661
desp
Posté le 24-11-2022 à 12:21:52  profilanswer
 

Salut à tous,
J’ai un souci que je n’arrive pas à résoudre. Je n’arrive pas à acceder a un partage NFS monté sur l’hote depuis un conteneur LXC non privilégié.
 
J’ai beau retourner le probleme dans tous les sens, j’obtiens un magnifique « permission denied » lorsque j’essaie d’y accéder.
 
Mon mapping uid est bon entre le lxc et l’hote et cela fonctionne si je fais la manip avec un conteneur privilégié.
 
A l’aide!
 
PS: dans l’idéal, j’aimerais monter directement le partage NFS dans le conteneur non privilégié, mais j’ai plus ou moins abandonné l’idée en faisant quelques recherches

Message cité 1 fois
Message édité par desp le 24-11-2022 à 12:25:35
mood
Publicité
Posté le 24-11-2022 à 12:21:52  profilanswer
 

n°1479662
SnowBear
Posté le 24-11-2022 à 12:25:34  profilanswer
 

desp a écrit :

Salut à tous,
J’ai un souci que je n’arrive pas à résoudre. Je n’arrive pas à acceder a un partage NFS monté sur l’hote depuis un conteneur LXC non privilégié.
 
J’ai beau retourner le probleme dans tous les sens, j’obtiens un magnifique « permission denied » lorsque j’essaie d’y accéder.
 
Mon mapping uid est bon entre le lxc et l’hote et cela fonctionne si je fais la manip avec un conteneur privilégié.
 
A l’aide!
 


 
 
Les conteneurs non privilégiés ne peuvent pas accéder à des partages réseaux.
 
J'avais eu ce soucis avec un partage samba.
 
T'as solutions :
- le rendre privilégié (manip un peu relou)
- au niveau de l'hôte ajouter un mount point à ton conteneur qui pointe sur ton NFS

n°1479663
desp
Posté le 24-11-2022 à 12:27:37  profilanswer
 

SnowBear a écrit :


 
 
Les conteneurs non privilégiés ne peuvent pas accéder à des partages réseaux.  
 
c’est ce que j’avais compris aussi (cf mon PS)
 
J'avais eu ce soucis avec un partage samba.
 
T'as solutions :
- le rendre privilégié (manip un peu relou)
- au niveau de l'hôte ajouter un mount point à ton conteneur qui pointe sur ton NFS
c’est justement ce que j’essaie de faire mais « permission denied »


n°1479664
SnowBear
Posté le 24-11-2022 à 12:31:26  profilanswer
 

si sur ton container tu fais un mount ou df tu vois bien ton point de montage ?
 
Si oui c'est "juste" que sur NFS tu as la gestion des droits et que ton point de montage ne doit pas avoir les bons droits (ce que tu pourras voir avec un "ls -l /path-vers-point-de-montage) je pense.

n°1479665
lestat67se​l
:-)
Posté le 24-11-2022 à 12:33:01  profilanswer
 

Fait un mount point dans ton LXC (c'est une ligne à mettre dans le conf du CT et ça ne passe pas par le NFS du coup)
 
Edit: C'est un "Bind mount point"
https://pve.proxmox.com/wiki/Linux_ [...] t_settings

Message cité 1 fois
Message édité par lestat67sel le 24-11-2022 à 12:34:38
n°1479666
desp
Posté le 24-11-2022 à 12:38:39  profilanswer
 

SnowBear a écrit :

si sur ton container tu fais un mount ou df tu vois bien ton point de montage ?
oui df me rapporte l’adresse reseau sur le bon point de montage du LXC
 
 
Si oui c'est "juste" que sur NFS tu as la gestion des droits et que ton point de montage ne doit pas avoir les bons droits (ce que tu pourras voir avec un "ls -l /path-vers-point-de-montage) je pense.
Le ls -l  
- point de montage host: a priori ok sur les droits et owner
- lxc: idem

 


 
La je seche


Message édité par desp le 24-11-2022 à 12:43:21
n°1479667
desp
Posté le 24-11-2022 à 12:39:50  profilanswer
 

lestat67sel a écrit :

Fait un mount point dans ton LXC (c'est une ligne à mettre dans le conf du CT et ça ne passe pas par le NFS du coup)
 
Edit: C'est un "Bind mount point"
https://pve.proxmox.com/wiki/Linux_ [...] t_settings


Oui c’est justement ce que j’ai fait, ca marche c’est monté mais apres impossible de rentrer dedans alors que sur un conteneur privilégié, en faisant la même manip, pas de probleme…

Message cité 1 fois
Message édité par desp le 24-11-2022 à 12:40:06
n°1479668
MisterMoT
Les loutres vainqueront
Posté le 24-11-2022 à 12:46:24  profilanswer
 

:hello:
Est-ce qu'il est possible d'avoir un lien direct vers une VM sans passer par l'interface de gestion?


---------------
Labellisé Original HB Seal Of Quality :o
n°1479669
SnowBear
Posté le 24-11-2022 à 12:47:52  profilanswer
 

Tu entends quoi par lien direct ?

n°1479670
MisterMoT
Les loutres vainqueront
Posté le 24-11-2022 à 12:50:04  profilanswer
 

Une URL


---------------
Labellisé Original HB Seal Of Quality :o
n°1479671
desp
Posté le 24-11-2022 à 12:50:36  profilanswer
 


L’IP tu veux dire?

n°1479672
l0g4n
Expert en tout :o
Posté le 24-11-2022 à 12:54:54  profilanswer
 


Pour accéder à quoi ? La console graphique de la vm dans proxmox ? Un service hébergé sur la vm ?


---------------
Fort et motivé. Sauf parfois.
n°1479673
lestat67se​l
:-)
Posté le 24-11-2022 à 13:04:02  profilanswer
 

desp a écrit :


Oui c’est justement ce que j’ai fait, ca marche c’est monté mais apres impossible de rentrer dedans alors que sur un conteneur privilégié, en faisant la même manip, pas de probleme…


 
En effet, alors j'suis une bille dans ce domaine, j'ai quelques LXC qui ont des bind mount point, toute en "unpriviligied container = No" (du coup c'est pas ce que tu veux si j'comprend bien)
Et j'en ai une avec un bind mount point fonctionnel, "unpriviligied container = Yes" par contre elle a du "Features nesting=1"
 
On sait jamais si ça peu aider  [:thesphinx]  

n°1479674
desp
Posté le 24-11-2022 à 13:05:57  profilanswer
 

lestat67sel a écrit :


 
En effet, alors j'suis une bille dans ce domaine, j'ai quelques LXC qui ont des bind mount point, toute en "unpriviligied container = No" (du coup c'est pas ce que tu veux si j'comprend bien)
Et j'en ai une avec un bind mount point fonctionnel, "unpriviligied container = Yes" par contre elle a du "Features nesting=1"
 
On sait jamais si ça peu aider  [:thesphinx]  


Merci quand même !  

n°1479675
MisterMoT
Les loutres vainqueront
Posté le 24-11-2022 à 13:08:03  profilanswer
 

Pardon oui j'aurais dû être un poil plus précis :
Effectivement c'est pour accéder à la console graphique de la VM.


---------------
Labellisé Original HB Seal Of Quality :o
n°1479676
desp
Posté le 24-11-2022 à 13:31:30  profilanswer
 

SnowBear a écrit :

si sur ton container tu fais un mount ou df tu vois bien ton point de montage ?
 
Si oui c'est "juste" que sur NFS tu as la gestion des droits et que ton point de montage ne doit pas avoir les bons droits (ce que tu pourras voir avec un "ls -l /path-vers-point-de-montage) je pense.


 
Problem solved!
 
Cela venait des autorisations du serveur nfs, il n’y avait pas de mappage des utilisateurs, en l’activant ca marche.
 
 
Merci pour tes reponses!

n°1479677
desp
Posté le 24-11-2022 à 13:32:13  profilanswer
 

MisterMoT a écrit :

Pardon oui j'aurais dû être un poil plus précis :
Effectivement c'est pour accéder à la console graphique de la VM.


 
Desole je connais pas, bon courage!

n°1479678
SnowBear
Posté le 24-11-2022 à 13:36:23  profilanswer
 

desp a écrit :


 
Problem solved!
 
Cela venait des autorisations du serveur nfs, il n’y avait pas de mappage des utilisateurs, en l’activant ca marche.
 
 
Merci pour tes reponses!


 
Parfait alors ! :jap:

n°1479680
LibreArbit​re
La /root est longue
Posté le 24-11-2022 à 13:53:45  profilanswer
 

desp a écrit :

Desole je connais pas, bon courage!


Il peut installer un serveur VNC sur sa VM...


---------------
Hebergement d'images
n°1479682
l0g4n
Expert en tout :o
Posté le 24-11-2022 à 14:06:32  profilanswer
 

MisterMoT a écrit :

Pardon oui j'aurais dû être un poil plus précis :
Effectivement c'est pour accéder à la console graphique de la VM.


Rdp ou ssh direct sur la vm ?


---------------
Fort et motivé. Sauf parfois.
n°1479683
SnowBear
Posté le 24-11-2022 à 14:21:06  profilanswer
 

l0g4n a écrit :


Rdp ou ssh direct sur la vm ?


 
+1

n°1479685
MisterMoT
Les loutres vainqueront
Posté le 24-11-2022 à 14:48:29  profilanswer
 

LibreArbitre a écrit :


Il peut installer un serveur VNC sur sa VM...


[:poogz:5]
...
C'est pas faux :o

l0g4n a écrit :


Rdp ou ssh direct sur la vm ?


Oui bah je sais pas pourquoi j'y ai pas pensé non plus au rdp.  
Je dois manquer de sommeil  
[:s@ms:5]
 
Merci pour vos réponses :D


---------------
Labellisé Original HB Seal Of Quality :o
n°1479700
depart
Posté le 25-11-2022 à 08:41:47  profilanswer
 

LibreArbitre a écrit :

Non, on ne fera pas tes devoirs à ta place ;)
 
Quand un mec commence par "pour les dieux de XXX" c'est 99% du temps un étudiant qui cherche l'aide de professionnels pour un TP :o


 
Tu aurais pu rajouter : "et qui ne revient jamais détailler ses besoins ou informer de son choix final" :o

n°1479705
isanaud
Posté le 25-11-2022 à 11:19:13  profilanswer
 

Dans le cadre d'enseignement, on fait tourner les VM avec une solution à base de libvirt sur les postes de TP (50 postes).
On a en plus 2 serveurs qui font tourner des VM.
Les pc de TP sont sous ubuntu.
La gestion de tout ca se fait à partir de scripts CGi en perl  et une interface web maison et historique.
 
Je regarde si on pourrait migrer vers un proxmox.
Est ce qu'il serait possible de faire des hyperviseurs (cpu + stockage) proxmox qui fonctionnent sous ubuntu ?

n°1479707
l0g4n
Expert en tout :o
Posté le 25-11-2022 à 11:39:10  profilanswer
 

Proxmox c'est un os complet sur une base debian.
Sur le papier c'est probablement possible, mais c'est une mauvaise idée. Vous allez vous taper une charge de maintenance débile.


---------------
Fort et motivé. Sauf parfois.
n°1479709
depart
Posté le 25-11-2022 à 13:59:43  profilanswer
 

Passage en 7.3 effectué (cluster), RAS !


Message édité par depart le 25-11-2022 à 13:59:58
n°1479722
depart
Posté le 25-11-2022 à 20:32:01  profilanswer
 

Question comme ça vu que je viens de rebrancher mon disque dur externe usb pour mettre à jour un peu un backup et transférer des données à archiver.
 
Le disque est sur l'hôte, chiffré (luks) + zfs (montage dans /mnt/xyz)
 
C'est quoi le moyen le plus simple d'avoir le contenu du disque dans un clickodrome ?
Parce que bon les copies à la main via cp c'est pas foufou.
Pour les synchros rsync me va très bien, mais là l'idée c'est de pouvoir aussi transférer d'un disque à l'autre des choses que je veux archiver.
Idéalement depuis plusieurs sources.
 
L'idéal serait un montage samba, comme ça je gère ça tranquillement depuis l'explorateur Windows sur mon PC, mais je me vois mal aller éditer le fichier de config de samba sur l'hôte, redémarrer le service... quand je branche/rébranche le disque.
 
Qu'est-ce qui pourrait être un peu plus automatique/pratique ?
 
Question subsidiaire : c'est quoi le bon process avant de débrancher le disque ? sachant donc qu'on parle d'un volume zfs sur un disque chiffré luks.


Message édité par depart le 25-11-2022 à 20:37:31
n°1479728
LibreArbit​re
La /root est longue
Posté le 26-11-2022 à 01:29:28  profilanswer
 
n°1479730
depart
Posté le 26-11-2022 à 07:41:58  profilanswer
 


Nope.
Archivage = déplacement de vieux contenus que je veux conserver mais pas online.

 

J'ai vu le redface, mais ça ne m'aide pas.

n°1479735
depart
Posté le 26-11-2022 à 10:12:40  profilanswer
 

Je me réponds à moi-même :
sshfs et ses dérivés.
 
Même avec une GUI : https://github.com/evsar3/sshfs-win-manager
Perso j'ai installé sshfs avec chocolatey (app manager windows) car il y a aussi une dépendance à un autre programme nommé winfsp.
 
Bon bref au final ça monte le système de fichiers distant via ssh en tant que lecteur réseau (genre X:\) et on a accès à tout ce qu'on veut... notamment mon dossier /mnt où j'ai mon disque dur usb.
 
Sinon usb + luks + zfs c'est un peu le bronx, je n'arrive jamais à démonter proprement le disque, il est marqué toujours comme en cours d'utilisation. Que ce soit des umount / zfs umount / zpool export / ... ça ne répond jamais correctement :(


Message édité par depart le 26-11-2022 à 10:36:19
n°1479787
hydrosaure
Posté le 28-11-2022 à 17:24:24  profilanswer
 

Sinon, j'ai réussi ma migration de carte mère en simplement cassant le miroir de 2 SSD, rebootant sur l'un des 2 média de départ sur la nouvelle carte mère et reconstruit le miroir avec le nouveau nvme.
Donc là pour l'instant j'ai un miroir hybride SATA/nvme.
Après reconfiguration du réseau, je trouve bien l'accès à l'interface web. Le seul truc c'était que le changement de hostname est censé se faire à vide.... Bon après simplement recopie des fichiers de conf au bon endroit, il retrouve bien ses VMs/LXCs. Pour la VMs FreeNas juste eu à reconfigurer les devices en passthrough et roule ma poule.
 
Pour les curieux, ça donne à peu près ça pour les commandes:

root@nouvoPVE:~# sgdisk /dev/sda -R /dev/nvme0n1
The operation has completed successfully.
root@nouvoPVE:~# sgdisk -G /dev/nvme0n1
The operation has completed successfully.
root@nouvoPVE:~# zpool replace -f rpool 16544127082943491053 /dev/disk/by-id/nvme-PNY_CS3030_250GB_SSD_PNYxxxxxxxxxxxxxx-part3
root@nouvoPVE:~#
root@nouvoPVE:~# zpool status -v 10
  pool: rpool
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
        continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Mon Nov 14 16:48:01 2022
        97.3G scanned at 9.73G/s, 686M issued at 68.6M/s, 97.3G total
        724M resilvered, 0.69% done, 00:24:02 to go
config:
 
        NAME                                                        STATE     READ WRITE CKSUM
        rpool                                                       DEGRADED     0     0     0
          mirror-0                                                  DEGRADED     0     0     0
            replacing-0                                             DEGRADED     0     0     0
              16544127082943491053                                  UNAVAIL      0     0     0  was /dev/disk/by-id/ata-CT250MX500SSD1_yyyyyyyyy-part3
              nvme-PNY_CS3030_250GB_SSD_PNYxxxxxxxxxxxxxx-part3  ONLINE       0     0     0  (resilvering)
            ata-CT250MX500SSD1_xxxxxxxxxxx-part3                   ONLINE       0     0     0
 
errors: No known data errors
 
...
 
  pool: rpool
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
        The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
        the pool may no longer be accessible by software that does not support
        the features. See zpool-features(7) for details.
  scan: resilvered 98.4G in 00:08:59 with 0 errors on Mon Nov 14 16:57:00 2022
config:
 
        NAME                                                      STATE     READ WRITE CKSUM
        rpool                                                     ONLINE       0     0     0
          mirror-0                                                ONLINE       0     0     0
            nvme-PNY_CS3030_250GB_SSD_PNYxxxxxxxxxxxxxx-part3  ONLINE       0     0     0
            ata-CT250MX500SSD1_xxxxxxxxxxx-part3                 ONLINE       0     0     0
 
errors: No known data errors
 
root@nouvoPVE:~# proxmox-boot-tool init /dev/disk/by-id/nvme-PNY_CS3030_250GB_SSD_PNYxxxxxxxxxxxxxx-part2
Re-executing '/usr/sbin/proxmox-boot-tool' in new private mount namespace..
UUID="589A-8A91" SIZE="536870912" FSTYPE="vfat" PARTTYPE="c12a7328-f81f-11d2-ba4b-00a0c93ec93b" PKNAME="nvme0n1" MOUNTPOINT=""
Mounting '/dev/disk/by-id/nvme-PNY_CS3030_250GB_SSD_PNYxxxxxxxxxxxxxx-part2' on '/var/tmp/espmounts/589A-8A91'.
Installing systemd-boot..
Created "/var/tmp/espmounts/589A-8A91/EFI/systemd".
Created "/var/tmp/espmounts/589A-8A91/EFI/BOOT".
Created "/var/tmp/espmounts/589A-8A91/loader".
Created "/var/tmp/espmounts/589A-8A91/loader/entries".
Created "/var/tmp/espmounts/589A-8A91/EFI/Linux".
Copied "/usr/lib/systemd/boot/efi/systemd-bootx64.efi" to "/var/tmp/espmounts/589A-8A91/EFI/systemd/systemd-bootx64.efi".
Copied "/usr/lib/systemd/boot/efi/systemd-bootx64.efi" to "/var/tmp/espmounts/589A-8A91/EFI/BOOT/BOOTX64.EFI".
Random seed file /var/tmp/espmounts/589A-8A91/loader/random-seed successfully written (512 bytes).
Successfully initialized system token in EFI variable with 512 bytes.
Created EFI boot entry "Linux Boot Manager".
Configuring systemd-boot..
Unmounting '/dev/disk/by-id/nvme-PNY_CS3030_250GB_SSD_PNYxxxxxxxxxxxxxx-part2'.
Adding '/dev/disk/by-id/nvme-PNY_CS3030_250GB_SSD_PNYxxxxxxxxxxxxxx-part2' to list of synced ESPs..
Refreshing kernels and initrds..
Running hook script 'proxmox-auto-removal'..
Running hook script 'zz-proxmox-boot'..
WARN: /dev/disk/by-uuid/1D07-7F6A does not exist - clean '/etc/kernel/proxmox-boot-uuids'! - skipping
Copying and configuring kernels on /dev/disk/by-uuid/589A-8A91
        Copying kernel and creating boot-entry for 5.15.39-2-pve
        Copying kernel and creating boot-entry for 5.4.195-1-pve
Copying and configuring kernels on /dev/disk/by-uuid/FE16-0F3D
        Copying kernel and creating boot-entry for 5.15.39-2-pve
        Copying kernel and creating boot-entry for 5.4.195-1-pve
root@nouvoPVE:~#


 

n°1479788
desp
Posté le 28-11-2022 à 22:22:44  profilanswer
 

Hello la compagnie,
 
Je prévois de remplacer la carte graphique de mon serveur pour passer d’une T400 2Go a 4Go
C’est donc le même modele mais pas la même marque.
 
Actuellement je l’utilise pour un conteneur docker jellyfin hébergé dans un lxc
 
A votre avis y’a -il des manips a faire avant le remplacement physique permettant de derisquer un éventuel plantage au redémarrage ?
 
EDIT:
Echange standard effectué sans souci, tout a redémarré sans faire de manip particulière…


Message édité par desp le 29-11-2022 à 09:57:22
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  164  165  166  ..  227  228  229  230  231  232

Aller à :
Ajouter une réponse
 

Sujets relatifs
Choix Hyperviseur pour Xeon [Box de test]Routage vm Proxmox
Questionnement sur un hyperviseur[Topikunik] Personnalisation des interfaces graphiques
Plus de sujets relatifs à : [TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)