quand je disais os pour les 2 ssd, c'était pour les serveurs physique
il y a une partition os (2 ssd raid1)
1 partition datas 1 (4 ssd raid 10)
1 partition datas 2 (8 hddd raid 10)
la partition datas 1 hébergera 4vm (os+datas) sur l'hote 1 et les 4 réplications sur l'hote 2
la partition datas 2 hébergera 5vm (os + datas ) sur l'hote 2 et les 5 réplications sur l'hote 2
la baie en iscsi est raccordée à chaque hote pour pouvoir présenté un gros lun à une des vm qui a besoin de stockage
et la baie 2 sur l'autre hote est pour la réplication du lun de cette vm
c'est bien du réplica que je vais mettre en place et pas un cluster
pour un cluster, il m'aurait fallu une baie redondante pour pouvoir créer un csv
les 2 baies à ma disposition, sont des baies synology avec en plus des disques sata
et le whitepaper synology pour les mettre en cluster, c'est de relier les 2 baies par un cable directe pour le heartbeat
impossible dans mon cas, car les 2 hotes hyperv et donc les 2 baies sont dans des batiments séparés
en ce qui concerne les live migration
ici elles ne se feraient qu'au moment de la maintenance des hotes, puis que je serai sur du réplica donc sur des arrets programmés
la réplication serait arrêtée, je déplacerait mes vm et je ferais la maintenance de mon hote, re-livemigration et reprise de la réplication
pour le réseau, je pensais aussi que les 2 10 gbits étaient suffisants
mais comme les 8 cartes 1 gb sont intégrées, je voudrais m'en servir pour les rentabiliser
est ce qu'au pire, je pourrais faire l'inverse
enlever les deux 10gb qui sont en pci et les affecter à un autre serveur
et monter cettre infra avec 8x1 gb
pour le iscsi, ça me prendrait déjà 2 cartes
il m'en resterait 6 que je pourrai mettre en teaming et créer 2 virtual switch
1 switch virtuel avec 3 cartes virtuelles pour adm/live migration/réplica
1 switch virtuel pour les vm