Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2773 connectés 

 

 

Proxmox c'est ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  222  223  224  ..  232  233  234  235  236  237
Auteur Sujet :

[TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !

n°1498412
dkomputer
Posté le 24-03-2025 à 07:32:09  profilanswer
 

Reprise du message précédent :

bobby8921 a écrit :

Aucun soucis pour y accéder en local.
Aucun soucis pour y accéder à l'adresse https://pve.mondomain.com lorsque je gère la redirection avec traefik mais sans le port 8006 dans l'url, la redirection Authentik ne fonctionne pas.

 

Edit : si on parlait de mon ip publique, ça ne fonctionne pas. Mais pour ça, il faudrait que j'ouvre le port 8006 sur mon routeur, non ?


Ton DNS redirige sur ton ip privée ou ip publique ?

mood
Publicité
Posté le 24-03-2025 à 07:32:09  profilanswer
 

n°1498414
bobby8921
Posté le 24-03-2025 à 08:01:52  profilanswer
 

dkomputer a écrit :


Ton DNS redirige sur ton ip privée ou ip publique ?

 

J'ai :
- un DNS A : mondomaine.com qui pointe vers mon ip public.
- un DNS CNAME : *.mondomaine.com

 

Je n'ai aucun problème pour accéder à tous mes containers qui sont gérés par Traefik sur Ubuntu Server.
Juste Proxmox que j'ai voulu gérer via les paramètres de Proxmox plutôt que par Traefik.

 

Je vais réessayer de faire l'authentification via Traefik et Authentik.

n°1498434
bobby8921
Posté le 24-03-2025 à 21:45:49  profilanswer
 

Bon, j'avais dû rater un copier/coller en créant le realm Authentik parcequ'en réessayant ce soir, plus aucun soucis. J'ai bien accès à l'authentification sur Proxmox avec Authentik

n°1498437
Kyjja
Y'a pot !
Posté le 24-03-2025 à 22:10:01  profilanswer
 

hydrosaure a écrit :


Décocher l'option "Backup" des disques du RAID?
si tu les passes bien individuellement depuis proxmox à cette VM.


 
TY :jap:
 
Il faut aller dans l'onglet Hardware de la VM et double-cliquer sur les disques.


---------------
HWBot | Conso GPU | Who's who PSU | Mes BD \o/ | GReads | MSpaint
n°1498515
MilesTEG1
Posté le 27-03-2025 à 12:13:13  profilanswer
 

Salut,
Dites, j'aimerais savoir comment vous configurer vos notifications (email) ?
 
Actuellement je reçois une notif email pour les MAJ à faire mais aussi pour toutes les sauvegardes qui se font qu'elles soient OK ou en échec.
 
J'aimerais conserver les notifications des MAJ à faire, mais j'aimerais ne recevoir que les notifications des sauvegardes en échec ou avec des warnings...
 
Sauf que je n'ai pas réussi à faire ça :
La notif de base :
https://rehost.diberie.com/Picture/Get/r/381928
 
La notif pour les sauvegardes échouées :
https://rehost.diberie.com/Picture/Get/r/381929
 
 
Quelqu'un a-t-il une configuration à proposer pour m'aider ?
Merci d'avance ;)


---------------
Mes ventes : [FeedBack] http://forum.hardware.fr/hfr/Achat [...] 4599_1.htm
n°1498560
burn2
Pour ceux qui viendront après
Posté le 29-03-2025 à 10:27:53  profilanswer
 

:hello:

 

Petite question, j'ai du mal à savoir quand il faut cocher ou pas la case iothread sur le disque dur de la vm.

 

Vous avez des exemples de quand il faut le cocher ou quand il ne faut pas?

 

Genre sur la vm proxmox backup server vous cocher l'option?

 

la doc dit:

Citation :


IO Thread
The option IO Thread can only be used when using a disk with the VirtIO controller, or with the SCSI controller, when the emulated controller type is VirtIO SCSI single. With IO Thread enabled, QEMU creates one I/O thread per storage controller rather than handling all I/O in the main event loop or vCPU threads. One benefit is better work distribution and utilization of the underlying storage. Another benefit is reduced latency (hangs) in the guest for very I/O-intensive host workloads, since neither the main thread nor a vCPU thread can be blocked by disk I/O.


Message édité par burn2 le 29-03-2025 à 10:28:29

---------------
"C'est vrai qu'un type aussi pénible de jour on serait en droit d'espérer qu'il fasse un break de nuit mais bon …"
n°1498849
ilium
Candeur et décadence
Posté le 11-04-2025 à 11:34:20  profilanswer
 

Bon bin je comprends plus rien, je dois louper un truc énorme:
-j'ai paramétré vmbr0 attaché à eth0 et il porte l'adresse 192.168.1.10/24.
-mon PVE est bien vu et accessible du LAN par cette adresse 192.168.1.10
-si j'ajoute une VM liée à ce vmbr0 elle ne voit pas le DHCP et si je force une IP fixe 192.168.1.11 par exemple, elle ne voit pas le LAN. La VM voit le PVE.
-depuis le PVE je ping bien la 10 (lui même :o), la passerelle en 1 et la VM en 11, bref, il voit tout.
-depuis le LAN, je vois le PVE mais pas la VM.
-il n'y a pas de VLAN (ou plutôt il y en a en amont mais le PVE est connecté dans un VLAN par défaut et lui n'en a pas de configuré). De toutes façons, j'ai fini par cocher VLAN aware mais ça ne change rien.
-pas de netfilter paramétré, ip_forward activé même si je pense que ça ne sert à rien dans ce cas
 
Je loupe quoi? C'est pas censé être un bridge?
 
edit: J'ai la conf par défaut décrite ici:
https://pve.proxmox.com/wiki/Networ [...] g_a_bridge
 
edit2: J'ai fait un vmbr1 avec un sous-réseau routé (192.168.2.1 sur le PVE qui est la passerelle de la VM en 192.168.2.2) pour contourner la difficulté et ça fonctionne parfaitement. Mais je suis toujours preneur d'une explication ou d'une solution pour avoir des adresses du LAN sur le vmbr connecté / lié à l'interface LAN.


Message édité par ilium le 11-04-2025 à 14:05:33
n°1498856
depart
Posté le 11-04-2025 à 14:51:02  profilanswer
 

ça te fait pareil pour un LXC ?
Pas de firewall activé sur proxmox ?
Tu as bien ajouté les interfaces physiques dans le vmbr0 ? Pas de faute de frappe (genre zth0 ou plusieurs interfaces pas séparées par un espace) ?

n°1498874
the_fireba​ll
I have fucking failed
Posté le 12-04-2025 à 15:49:15  profilanswer
 

Hello, des courageux sont déja passés à Proxmox 8.4 ?


---------------
Two thousand years of misery, of torture in my name, hypocrisy made paramount, paranoia the law, my name is called religion, sadistic, sacred whore.
n°1498875
SnowBear
Posté le 12-04-2025 à 16:11:02  profilanswer
 

Oui, je suis en 8.4.1 ici.
 
Mais ça fait un moment que c'est déjà cette version ?!

mood
Publicité
Posté le 12-04-2025 à 16:11:02  profilanswer
 

n°1498876
the_fireba​ll
I have fucking failed
Posté le 12-04-2025 à 16:36:48  profilanswer
 

09/04/2025
 
Je viens de passer mon promox faisant tourner seulement deux LXC dessus
 
J'utilise le kernel 6.14.0-2-pve
 
Si tout se passe bien, je migrerai l'autre qui héberge plus de choses


---------------
Two thousand years of misery, of torture in my name, hypocrisy made paramount, paranoia the law, my name is called religion, sadistic, sacred whore.
n°1498878
NicCo
Posté le 12-04-2025 à 16:52:03  profilanswer
 

Pareil 8.4.1 pas de problème pour le moment


---------------
Topic de vente
n°1498879
burn2
Pour ceux qui viendront après
Posté le 12-04-2025 à 18:14:30  profilanswer
 

Pas encore mis à jour ici.  
Je vais patienter un peu au cas ou. :D


---------------
"C'est vrai qu'un type aussi pénible de jour on serait en droit d'espérer qu'il fasse un break de nuit mais bon …"
n°1498882
dkomputer
Posté le 12-04-2025 à 20:36:49  profilanswer
 

Dites je débute dans les clusters et je voudrais faire une réplication d'une VM d'un node sur les autres nodes de mon cluster. Pour que cela soit possible est ce que le disque de la VM doit être sur un stockage partagé (genre Ceph ou NAS) ou bien est-ce possible sans disque partagé ?

n°1498883
burn2
Pour ceux qui viendront après
Posté le 12-04-2025 à 20:47:38  profilanswer
 

Réplication temps réel ou une fois par jour?
 
Quel est le but précis?
Le stockage partagé est nécéssaire pour le ha il me semble.


---------------
"C'est vrai qu'un type aussi pénible de jour on serait en droit d'espérer qu'il fasse un break de nuit mais bon …"
n°1498884
dkomputer
Posté le 12-04-2025 à 21:13:22  profilanswer
 

burn2 a écrit :

Réplication temps réel ou une fois par jour?

 

Quel est le but précis?
Le stockage partagé est nécéssaire pour le ha il me semble.


Je voulais jouer avec la HA.
J'ai déjà une gestion de backup. Là je veux essayer mieux.

n°1498887
burn2
Pour ceux qui viendront après
Posté le 12-04-2025 à 23:46:14  profilanswer
 

A ma connaissance dans ce cas précis il faut un stockage dissocié oui.
 
Après y a peut-être moyen de faire de la duplication en temps réel d'une partition mais pas sûr que ça soit l'idéal ni le plus fiable.


---------------
"C'est vrai qu'un type aussi pénible de jour on serait en droit d'espérer qu'il fasse un break de nuit mais bon …"
n°1498893
dkomputer
Posté le 13-04-2025 à 13:56:27  profilanswer
 

Ca y est j'ai mon Premier LXC (mon contrôleur Unifi) sur mon cluster avec le storage dans un pool Ceph... j'ai l'impression que ça marche bien, sans ralentir le conteneur (qui ne fout pas grand chose à la base).

n°1498895
Iryngael
Awesome, ain't it ?
Posté le 13-04-2025 à 20:45:25  profilanswer
 

dkomputer a écrit :

Dites je débute dans les clusters et je voudrais faire une réplication d'une VM d'un node sur les autres nodes de mon cluster. Pour que cela soit possible est ce que le disque de la VM doit être sur un stockage partagé (genre Ceph ou NAS) ou bien est-ce possible sans disque partagé ?


Si la VM est sur un stockage partagé (Ceph), la réplication est inutile.

 

Dans le cas de noeuds avec chacun son stockage, je réplique les VM avec la fonctionnalité idoine. Comme j'utilsie ZFS, ça fonctionne avec des snapshots et donc transparent pour la VM/container.
J'ai une réplication toutes les 15 min pour Nextcloud, toutes les heures pour les VM avrc peu d'écritures.

 

La live migration fonctionne sans souci dans cette config, ca prend 30 sec avec une interruption du réseau de 2-3sec.

 

Par contre si tu n'utilises pas ZFS la réplication nécessite de shutdown les VM


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°1498896
dkomputer
Posté le 13-04-2025 à 21:56:15  profilanswer
 

Iryngael a écrit :


Si la VM est sur un stockage partagé (Ceph), la réplication est inutile.

 

Dans le cas de noeuds avec chacun son stockage, je réplique les VM avec la fonctionnalité idoine. Comme j'utilsie ZFS, ça fonctionne avec des snapshots et donc transparent pour la VM/container.
J'ai une réplication toutes les 15 min pour Nextcloud, toutes les heures pour les VM avrc peu d'écritures.

 

La live migration fonctionne sans souci dans cette config, ca prend 30 sec avec une interruption du réseau de 2-3sec.

 

Par contre si tu n'utilises pas ZFS la réplication nécessite de shutdown les VM


Mon conteneur a un stockage sous Ceph donc partagé et je ne vois le conteneur que sur un seul des nodes. Est-ce normal ?

n°1498904
Iryngael
Awesome, ain't it ?
Posté le 14-04-2025 à 10:01:25  profilanswer
 

1 conteneur ne peut etre lancé que sur 1 node, meme si son stockage est présent sur les 2 autres.
Tu veux faire quoi exactement ? Avoir plusieurs instances d'un même LXC lancées simultanément ?


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°1498905
dkomputer
Posté le 14-04-2025 à 10:18:39  profilanswer
 

Iryngael a écrit :

1 conteneur ne peut etre lancé que sur 1 node, meme si son stockage est présent sur les 2 autres.
Tu veux faire quoi exactement ? Avoir plusieurs instances d'un même LXC lancées simultanément ?


Non, juste être sûr qu'en cas de soucis sur le node qui l'héberge un autre prendra le relais.

n°1498906
ilium
Candeur et décadence
Posté le 14-04-2025 à 11:02:25  profilanswer
 

depart a écrit :

ça te fait pareil pour un LXC ?
Pas de firewall activé sur proxmox ?
Tu as bien ajouté les interfaces physiques dans le vmbr0 ? Pas de faute de frappe (genre zth0 ou plusieurs interfaces pas séparées par un espace) ?


 
Pour LXC, je ne sais pas. Je vais essayer d'en créer un.
Non pas de firewall nulle part.
Oui, l'interface physique est bien liée au vmbr et correctement tapée.
 
PS: J'ai tout revérifié une énième fois et je confirme.
 
Fichier interfaces :

auto ens192
iface ens192 inet manual
        dns-nameservers 1.1.1.1
 
auto vmbr0
iface vmbr0 inet static
        address 192.168.1.10/24
        gateway 192.168.1.1
        bridge-ports ens192
        bridge-stp off
        bridge-fd 0


Message édité par ilium le 14-04-2025 à 11:11:51
n°1498919
Iryngael
Awesome, ain't it ?
Posté le 14-04-2025 à 19:50:45  profilanswer
 

dkomputer a écrit :


Non, juste être sûr qu'en cas de soucis sur le node qui l'héberge un autre prendra le relais.


Ca c'est géré par la HA. Mais oui c'est le but. Si le cluster est en carafe et que le watchdog détecte un node down il redémarrera les conteneurs après le temps défini


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°1499097
mirtouf
Light is right !
Posté le 18-04-2025 à 17:46:11  profilanswer
 

jeffk a écrit :

En pas cher et en cloud ya Layer7.


C'est pas cher mais quand un disque est en train de mourir, le support prend du temps à répondre. :o


---------------
-~- Libérez Datoune ! -~- Camarade, toi aussi rejoins le FLD pour que la flamme de la Révolution ne s'éteigne pas ! -~- A VENDRE
n°1499099
jeffk
Posté le 18-04-2025 à 18:02:31  profilanswer
 

C'est des disques individuels par client ?

 

C'est pas un giga pool partagé ?


Message édité par jeffk le 18-04-2025 à 18:03:04

---------------
Le topic des badistes : 5 grammes de plumes, des tonnes d'émotions.
n°1499110
mirtouf
Light is right !
Posté le 18-04-2025 à 22:23:22  profilanswer
 

C'est un pool partagé, on verra quand et quelle sera la réponse.


---------------
-~- Libérez Datoune ! -~- Camarade, toi aussi rejoins le FLD pour que la flamme de la Révolution ne s'éteigne pas ! -~- A VENDRE
n°1499221
dkomputer
Posté le 20-04-2025 à 22:14:31  profilanswer
 

Iryngael a écrit :


Ca c'est géré par la HA. Mais oui c'est le but. Si le cluster est en carafe et que le watchdog détecte un node down il redémarrera les conteneurs après le temps défini


Tiens bah je viens de me rendre compte que si on active la HA on peut plus faire de backup en mode STOP.

n°1499271
dafunky
Posté le 22-04-2025 à 11:28:59  profilanswer
 

Hello,
 
Je me lance dans la màj de mon proxmox 6.4 demain ou après demain.
Je suis encore novice dans linux.
Je me suis documenté, si j'ai bien compris j'ai tout intérêt à faire une première migration 6.4->7.4, puis 7.4->8.4.
Je le sens venir gros comme une maison, les adresses physiques des périphériques et des interfaces réseau vont bouger.  
 
Je ne sais pas ce que vaut ce conseil censé bloquer le nommage des interfaces réseau :  
 

Citation :


    MAC-Based Interface Naming : Add net.ifnames=0 biosdevname=0 to GRUB to retain legacy names (e.g., eth0) and prevent systemd’s predictable naming


 

bash
sed -i 's/GRUB_CMDLINE_LINUX=""/GRUB_CMDLINE_LINUX="net.ifnames=0 biosdevname=0"/' /etc/default/grub  
update-grub  


 
Merci d'avance pour vos conseils et retours d'expérience, je tiendrai compte de vos avis, ayez pitié de ma noobitude  [:jean-michel platini:3]


Message édité par dafunky le 22-04-2025 à 11:29:47

---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1499274
Iryngael
Awesome, ain't it ?
Posté le 22-04-2025 à 14:14:15  profilanswer
 

N'oublie pas de fixer ton adresse mac pour chaque interface si tu as du DHCP qui a des réservations par MAC (genre l'interface publique d'un dédié chez Online ou autre provider).

 

dans le ficher interfaces faut rajouter

 

hwaddress xx:xx:xx:xx:xx:xx

 

dans la config de chaque interface concernée. Cette modif est à faire avant l'upgrade vers la 7.x si tu veux pas te faire avoir (j'ai fait l'upgrade quasi day 1 vers la 7, c'st apparu dans la doc le lendemain...)

 


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°1499275
dafunky
Posté le 22-04-2025 à 14:50:29  profilanswer
 

Si je te montre un morceau de mon /etc/network/interfaces ci-dessous, tu mets "hwaddress xx:xx:xx:xx:xx:xx" où?
 


 
auto lo
iface lo inet loopback
 
iface enp1s0 inet manual
 
auto vmbr3
iface vmbr3 inet static
        address 192.168.1.25/24
        gateway 192.168.1.1
        bridge-ports enp1s0
        bridge-stp off
        bridge-fd 0
 

Message cité 1 fois
Message édité par dafunky le 22-04-2025 à 14:52:16

---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1499276
li1ju
ho putain, ça tourne !
Posté le 22-04-2025 à 17:17:44  profilanswer
 

Du coup, il ne faudra pas oublier de remplacer enp1s0 par eth0 dans ton fichier /etc/network/interfaces :)

n°1499278
dafunky
Posté le 22-04-2025 à 17:50:47  profilanswer
 

Euh, c'est la conséquence de la modif grub plus haut?

 

Le souci c'est que j'ai trois interfaces ethernet sur la machine, ça va être là zizanie pour savoir qui est eth0 / eth1 / eth2, non?


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1499279
li1ju
ho putain, ça tourne !
Posté le 22-04-2025 à 18:01:17  profilanswer
 

C'est ca, c'est la conséquence du parametre rajouté dans grub.
Pour tes interfaces, assures toi à minima que eth0 soit bien configurée au boot pour avoir du reseau et agir dessus. les 2 autres, tu pourras voir apres le boot.
normalement c'est dans l'ordre.
et contrairement au nouveau nommage, les eth0/1/2/xxx ça ne bouge juste plus jamais :)

n°1499286
Iryngael
Awesome, ain't it ?
Posté le 22-04-2025 à 19:10:12  profilanswer
 

dafunky a écrit :

Si je te montre un morceau de mon /etc/network/interfaces ci-dessous, tu mets "hwaddress xx:xx:xx:xx:xx:xx" où?

 

 

auto lo
iface lo inet loopback

 

iface enp1s0 inet manual

 

auto vmbr3
iface vmbr3 inet static
address 192.168.1.25/24
gateway 192.168.1.1
bridge-ports enp1s0
bridge-stp off
bridge-fd 0

 



Au meme niveau que les autres configs (address, bridge-fd etc)


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°1499405
the_fireba​ll
I have fucking failed
Posté le 24-04-2025 à 22:18:12  profilanswer
 

li1ju a écrit :

C'est ca, c'est la conséquence du parametre rajouté dans grub.
Pour tes interfaces, assures toi à minima que eth0 soit bien configurée au boot pour avoir du reseau et agir dessus. les 2 autres, tu pourras voir apres le boot.
normalement c'est dans l'ordre.
et contrairement au nouveau nommage, les eth0/1/2/xxx ça ne bouge juste plus jamais :)


 
C’est l’inverse, les ethX peuvent changer, ce sont les autres noms qui ne changent pas pour un hardware donné.
 
J’ai eu tellement de serveurs avec des cartes 1G/10G/25G qui ont eu des problèmes avec l’ancienne convention. Systemd est parallélisé à mort donc il peut détecter et charger presque en même temps les drivers des cartes, et du coup, le kernel attribue les ethX aux différentes cartes dans l’ordre qu’il veut. Tu rebootes et ça a encore changé, je ne te raconte pas le bordel…
 
Plus jamais je ne reviendrai à l’ancienne convention de nom des interfaces en tout cas.


---------------
Two thousand years of misery, of torture in my name, hypocrisy made paramount, paranoia the law, my name is called religion, sadistic, sacred whore.
n°1499431
li1ju
ho putain, ça tourne !
Posté le 25-04-2025 à 20:21:11  profilanswer
 

c'est rigolo, j'ai l'experience totalement inverse :lol:
trop de fois systemd, au grè de ses humeurs, a changé le nom de mon interface réseau... alors qu'avec le nommage ethX, je n'ai jamais eu le probleme. pourtant j'ai de la prod pro sous debian depuis 20 ans :)

n°1499482
the_fireba​ll
I have fucking failed
Posté le 26-04-2025 à 11:56:13  profilanswer
 

li1ju a écrit :

c'est rigolo, j'ai l'experience totalement inverse :lol:
trop de fois systemd, au grè de ses humeurs, a changé le nom de mon interface réseau... alors qu'avec le nommage ethX, je n'ai jamais eu le probleme. pourtant j'ai de la prod pro sous debian depuis 20 ans :)


 
Les expériences sont différentes pour chacun  
 
J’ai eu jusqu’à 40k serveurs principalement sous Redhat et des qu’on est passé a la nouvelle convention pour les noms des interfaces, tout est devenu prévisible la plupart du temps.
 
Parfois quelques soucis avec machine sous OpenStack mais globalement pas de problèmes.


---------------
Two thousand years of misery, of torture in my name, hypocrisy made paramount, paranoia the law, my name is called religion, sadistic, sacred whore.
n°1499496
dafunky
Posté le 26-04-2025 à 16:50:07  profilanswer
 

Je ne suis plus sûr de rien du coup :'(
Je vais attaquer la migration lundi. vu que mon routeur est une VM dudit serveur, si les eth pètent je suis obligé de faire un point d'accès 4G pour me faire aider par les internets dans la résolution du pb :)


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1499689
dafunky
Posté le 01-05-2025 à 00:57:15  profilanswer
 

Proxmox mis à jour en deux étapes, comme prévu : 6.4->7.4->8.4
 
Dire que ça s'est bien passé serait mentir.  
 
Lors de 6.4 -> 7.4 , à la fin de la migration je me suis retrouvé avec un fichier storage.cfg manquant, c'est assez gênant pour faire fonctionner le système. J'ai dû le retaper à la main, au moins une partie, me permettant de récupérer le SSH et de coller un backup.
 
Lors de 7.4 ->8.4 , ça s'est arrêté avec un message "trop d'erreur, installation abandonnée".
 
Je suis venu à bout de tout ça avec l'aide de chatgpt qui a tout débloqué progressivement et surtout m'a filé les lignes de commande magiques qui permettent de vérifier ceci, cela, de reprendre une installation qui a foiré etc.


---------------
xPLduino, la domotique DIY deluxe - - - - Sigma 85mm F1.4
n°1499833
SNoof
Ou pas...
Posté le 05-05-2025 à 09:07:09  profilanswer
 

t'avais utilisé les commandes pve6to7 & pve7to8 avant ?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  222  223  224  ..  232  233  234  235  236  237

Aller à :
Ajouter une réponse
 

Sujets relatifs
Choix Hyperviseur pour Xeon [Box de test]Routage vm Proxmox
Questionnement sur un hyperviseur[Topikunik] Personnalisation des interfaces graphiques
Plus de sujets relatifs à : [TOPIKUNIK] Proxmox, une solution de virtualisation kellébien !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)