Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2400 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  97  98  99  ..  136  137  138  139  140  141
Auteur Sujet :

VirtualBox /VMWare mais surtout Xen ...Mangez en...

n°1339121
grao
The visitor
Posté le 07-06-2013 à 16:10:22  profilanswer
 

Reprise du message précédent :
Regardez du coté de CEPH.


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
mood
Publicité
Posté le 07-06-2013 à 16:10:22  profilanswer
 

n°1339123
roscocoltr​an
L'enfer c'est les utilisateurs
Posté le 07-06-2013 à 16:30:37  profilanswer
 

grao a écrit :

Regardez du coté de CEPH.


J'en viens (dans ma recherche), et quand je lis les commentaires ça penche plutôt vers glusterfs. Mais je veux bien tester, c'est juste que ça prend du temps.


---------------
"Your god is too small", Giordano Bruno, 1548 - 1600
n°1339125
grao
The visitor
Posté le 07-06-2013 à 16:52:45  profilanswer
 

Faudrait que je prenne le temps de tester du Lustre sur des vms.
Je suis pas sur que ça ait déjà été fait.
edit: réflexion à la con :o
http://wiki.lustre.org/index.php/Using_Xen_with_Lustre
http://lists.centos.org/pipermail/ [...] 97714.html
http://www.mail-archive.com/lustre [...] 07520.html


Message édité par grao le 07-06-2013 à 17:05:09

---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1339137
Plam
Bear Metal
Posté le 07-06-2013 à 20:06:47  profilanswer
 

J'ai eu ouïe dire que Ceph avait pris de la maturité, que ça commençait à être pas mal :jap:

 

Mais de toutes façon le cluster c'est « rentable » qu'avec un certain nombre de nœuds, pour des petites et moyennes infra, ça à tendance à apporter plus d'emmerdes qu'autre chose (j'ai des clients qui font machine arrière, pour plus de perfs vu le faible nombre de nœud, sur du ZFS avec cache SSD).

 

Migration des volumes régulière pour faire un genre de CDP, et ça leur suffit. Finalement la HA ça coûte cher (en € et/ou en perfs), alors que c'est pas toujours pertinent.

 

edit : my 2 cents bien entendu :jap:


Message édité par Plam le 07-06-2013 à 20:07:28

---------------
Spécialiste du bear metal
n°1339138
roscocoltr​an
L'enfer c'est les utilisateurs
Posté le 07-06-2013 à 20:44:41  profilanswer
 

moi c'est la migration live que je cherche, pour être plus à l'aise pour updater les hosts, gérer la charge toussa. Bref une solution du pauvre. :o
 
Mais ça me stresse de me lancer dans une solution pas testée, rien que XFS alors que etx3/4 m'ont jamais posé de problèmes ça me stresse.


---------------
"Your god is too small", Giordano Bruno, 1548 - 1600
n°1339139
Plam
Bear Metal
Posté le 07-06-2013 à 21:18:22  profilanswer
 

roscocoltran a écrit :

moi c'est la migration live que je cherche, pour être plus à l'aise pour updater les hosts, gérer la charge toussa. Bref une solution du pauvre. :o

 

Mais ça me stresse de me lancer dans une solution pas testée, rien que XFS alors que etx3/4 m'ont jamais posé de problèmes ça me stresse.

 

bah iSCSI sur un SAN commun à tes hyperviseurs. C'est presque trivial à mettre en place, et ça fonctionne bien :jap:

 

edit : et si t'es allergique au mode bloc, il te reste NFS [:spamafote]


Message édité par Plam le 07-06-2013 à 21:18:54

---------------
Spécialiste du bear metal
n°1339143
grao
The visitor
Posté le 08-06-2013 à 00:52:47  profilanswer
 

Ouai enfin les SSD en prod sauf modèle pro @ XXXX€ je suis pas fan...


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1339144
grao
The visitor
Posté le 08-06-2013 à 00:53:33  profilanswer
 

roscocoltran a écrit :

moi c'est la migration live que je cherche, pour être plus à l'aise pour updater les hosts, gérer la charge toussa. Bref une solution du pauvre. :o
 
Mais ça me stresse de me lancer dans une solution pas testée, rien que XFS alors que etx3/4 m'ont jamais posé de problèmes ça me stresse.


XFS tu peux y aller les yeux bandés. C'est ultra robuste.


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1339146
gug42
Posté le 08-06-2013 à 07:35:42  profilanswer
 

On a laissé tomber les FS  "logiciels" répartis pour les raisons suivantes :  
- manque de maturité (à l'époque)
- problématique des exploitants à former et nécessite un bon niveau
- pas suffisament de besoin en espace disque (On pense que le biniou devient super au dessus de 500To  ... la où le prix des baies traditionnels devient  très important)
- Une boiboite constructeur plus simple pour l'exploitant ...
 
Concernant le stockage ahma nous avons actuellement deux cibles/optiques :  
- Gros datastore NFS de plusieurs To
- 1 lun iscsi par VMs (qemu/libvirt supporte la possibilité d'accéder en raw et en direct à une lun ; openstack a tendance à associer un volume à une lun ; puis ce volume à une vm)
- 10Gpbs fibre only

n°1339149
e_esprit
Posté le 08-06-2013 à 09:11:38  profilanswer
 

roscocoltran a écrit :

moi c'est la migration live que je cherche, pour être plus à l'aise pour updater les hosts, gérer la charge toussa. Bref une solution du pauvre. :o
 
Mais ça me stresse de me lancer dans une solution pas testée, rien que XFS alors que etx3/4 m'ont jamais posé de problèmes ça me stresse.


XFS ça pootre :o
Et c'est ultra-robuste (je l'utilise pour tout ce qui est stockage, DB et boites mail - 2000 + 15000 boites sous cyrus), jamais eu de souci, même après des coupures électriques/crashs suite à des pannes de clim, c'est toujours reparti sans avoir à intervenir sur les FS :jap:  
Sinon +1 pour iSCSI :D


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
mood
Publicité
Posté le 08-06-2013 à 09:11:38  profilanswer
 

n°1339151
Plam
Bear Metal
Posté le 08-06-2013 à 09:53:22  profilanswer
 

grao a écrit :

Ouai enfin les SSD en prod sauf modèle pro @ XXXX€ je suis pas fan...

 

Ta pas obligé pour du cache : tu peux les mettre en miroir. Et c'est du cache en random read (donc pas d'usure)

 

Après le ZIL c'est une autre histoire...

Message cité 1 fois
Message édité par Plam le 08-06-2013 à 09:54:44

---------------
Spécialiste du bear metal
n°1339155
grao
The visitor
Posté le 08-06-2013 à 12:56:07  profilanswer
 

gug42 a écrit :

On a laissé tomber les FS  "logiciels" répartis pour les raisons suivantes :  
- manque de maturité (à l'époque)
- problématique des exploitants à former et nécessite un bon niveau
- pas suffisament de besoin en espace disque (On pense que le biniou devient super au dessus de 500To  ... la où le prix des baies traditionnels devient  très important)
- Une boiboite constructeur plus simple pour l'exploitant ...
 
Concernant le stockage ahma nous avons actuellement deux cibles/optiques :  
- Gros datastore NFS de plusieurs To
- 1 lun iscsi par VMs (qemu/libvirt supporte la possibilité d'accéder en raw et en direct à une lun ; openstack a tendance à associer un volume à une lun ; puis ce volume à une vm)
- 10Gpbs fibre only


Alors NFS niveau performance et scallabilité je déconseille plus que fortement.
J'entends pour de grosses archis genre + de 500 clients.


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1339156
grao
The visitor
Posté le 08-06-2013 à 12:56:44  profilanswer
 

Plam a écrit :


 
Ta pas obligé pour du cache : tu peux les mettre en miroir. Et c'est du cache en random read (donc pas d'usure)
 
Après le ZIL c'est une autre histoire...


Heu et ton cache tu le peuples comment ? Tu fais pas d'écritures ?


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1339159
dam1330
...
Posté le 08-06-2013 à 13:39:08  profilanswer
 

grao a écrit :


Alors NFS niveau performance et scallabilité je déconseille plus que fortement.
J'entends pour de grosses archis genre + de 500 clients.


 
 
Perso j'avais du NFS sur un serveur Debian:
- 16go de RAM
- XFS ou ext4
- testé plein de parametres
- 12 disques 15k/trs en raid 10
 
J'avais 100VM avec Xen XCP le serveur montait en charge de temps en temps, les dom0 perdaient le serveur NFS => reboot de toute l'archi
 
Depuis j'ai acheté une baie DELL MD 3620i iscsi 10Gb, avec la meme config disque, j'ai déplacé toutes les VM, plus aucun probleme

n°1339160
Plam
Bear Metal
Posté le 08-06-2013 à 13:45:07  profilanswer
 

grao a écrit :


Heu et ton cache tu le peuples comment ? Tu fais pas d'écritures ?


 
Il se peuple relativement doucement, rien à voir avec le ZIL. C'est pas du tout délétère même pour un SSD du commerce (enfin Crucial, Samsung ou Intel). Ya pas mal de retour comme quoi c'est solide (et puis c'est du cache, donc si ça claque, tu perds juste de la perfs, rien de dramatique)


---------------
Spécialiste du bear metal
n°1339163
e_esprit
Posté le 08-06-2013 à 15:10:46  profilanswer
 

dam1330 a écrit :


 
 
Perso j'avais du NFS sur un serveur Debian:
- 16go de RAM
- XFS ou ext4
- testé plein de parametres
- 12 disques 15k/trs en raid 10
 
J'avais 100VM avec Xen XCP le serveur montait en charge de temps en temps, les dom0 perdaient le serveur NFS => reboot de toute l'archi
 
Depuis j'ai acheté une baie DELL MD 3620i iscsi 10Gb, avec la meme config disque, j'ai déplacé toutes les VM, plus aucun probleme


Nan mais NFS, à moins d'avoir un truc super optimisé (netapp), faut pas y penser pour ce genre d'usage.


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1339164
Plam
Bear Metal
Posté le 08-06-2013 à 16:30:43  profilanswer
 

Donc on en revient au iSCSI, qui marche très bien :jap:
Avec XCP, c'est encore plus facile, la notion de pool fait qu'on peut pas se planter en lançant deux fois la même vm, bref, c'est impeccable :jap:


---------------
Spécialiste du bear metal
n°1339187
grao
The visitor
Posté le 09-06-2013 à 18:49:52  profilanswer
 

Plam a écrit :

Donc on en revient au iSCSI, qui marche très bien :jap:
Avec XCP, c'est encore plus facile, la notion de pool fait qu'on peut pas se planter en lançant deux fois la même vm, bref, c'est impeccable :jap:


iSCSI avec quoi comme matos ?


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1339190
dam1330
...
Posté le 09-06-2013 à 19:57:54  profilanswer
 

grao a écrit :


iSCSI avec quoi comme matos ?


 
Perso:
 
Une baie de stockage DELL MD3620i 2x10gb
Switch cisco 3750x avec 1 module 2 x 10gb
les dom0 sont en 1gb
 
Le switch est en mtu 9000

n°1339192
hfrfc
Bob c'est plus simple à dire..
Posté le 09-06-2013 à 21:37:37  profilanswer
 

equallogic 4000 chez nous (sas 10k)
2 * 2960S stackés, dédiés au SAN, MTU 9k
Vmware 5.1


Message édité par hfrfc le 09-06-2013 à 21:38:26

---------------
D3/Hots/Hs Doc#2847
n°1339201
gug42
Posté le 10-06-2013 à 01:00:23  profilanswer
 

e_esprit a écrit :


Nan mais NFS, à moins d'avoir un truc super optimisé (netapp), faut pas y penser pour ce genre d'usage.


 
NetApp avec du 10Gbps ca marche correctement ;)  Ou iscsi sur 10Gbps c'est pas mal non plus

n°1339206
roscocoltr​an
L'enfer c'est les utilisateurs
Posté le 10-06-2013 à 08:41:43  profilanswer
 

ouais mais c'est pas du matos de pauvre ce que vous avez là. Moi j'ai des desktops plutôt robustes que je voudrais mutualiser, absolument rien de rackable par exemple.


---------------
"Your god is too small", Giordano Bruno, 1548 - 1600
n°1339211
Plam
Bear Metal
Posté le 10-06-2013 à 09:09:38  profilanswer
 

grao a écrit :


iSCSI avec quoi comme matos ?


 

roscocoltran a écrit :

ouais mais c'est pas du matos de pauvre ce que vous avez là. Moi j'ai des desktops plutôt robustes que je voudrais mutualiser, absolument rien de rackable par exemple.


 
Pour répondre aux deux posts en même temps : n'importe quel matos, après les perfs seront corrélées au dit matériel :D
Si on veut faire simple et puissant : Nexenta avec un cache SSD et quelques HDD (espace disque + vitesse). Si on veut aller encore plus vite : bien onduler le nœud pour pas avoir de coupure électrique (comme ça on peut désactiver le ZIL et là on va encore plus vite).  
Si on a vraiment pas de matos (comprendre pas de ram surtout) : n'importe quel OS avec un target iSCSI :D


---------------
Spécialiste du bear metal
n°1339213
hfrfc
Bob c'est plus simple à dire..
Posté le 10-06-2013 à 09:28:22  profilanswer
 

gug42 a écrit :


 
NetApp avec du 10Gbps ca marche correctement ;)  Ou iscsi sur 10Gbps c'est pas mal non plus


 
ouais Netapp pousse le NFS pour la virtualisation. Après jamais testé, mais le technico-commercial est un aficionado de ce protocole.


---------------
D3/Hots/Hs Doc#2847
n°1339220
grao
The visitor
Posté le 10-06-2013 à 11:16:50  profilanswer
 

e_esprit a écrit :


Nan mais NFS, à moins d'avoir un truc super optimisé (netapp), faut pas y penser pour ce genre d'usage.


Même avec du Netapp, on arrive vite aux limites du protocole. (enfin vite relativement au contexte :o )


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1339234
gug42
Posté le 10-06-2013 à 15:15:20  profilanswer
 

Tout dépend du besoin/contexte ;)

Message cité 1 fois
Message édité par gug42 le 10-06-2013 à 15:15:44
n°1339238
grao
The visitor
Posté le 10-06-2013 à 17:02:04  profilanswer
 

gug42 a écrit :

Tout dépend du besoin/contexte ;)


D'où ma parenthèse  ;)


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1339239
gug42
Posté le 10-06-2013 à 17:11:48  profilanswer
 

Pas lue :o


Message édité par gug42 le 10-06-2013 à 17:11:57
n°1340199
dam1330
...
Posté le 25-06-2013 à 22:25:15  profilanswer
 

Citrix libère complètement XenServer:
 
http://blog.xen.org/index.php/2013 [...] n-project/
http://blogs.citrix.com/2013/06/25 [...] en-source/
 
 
 

XenServer 6.2.0 includes the following new features and ongoing improvements:
 
Licensing Simplification
 
In this release the introduction of XenServer 6.2.0 which replaces the previous XenServer Free, Advanced, Enterprise, and Platinum editions. Functionality previously available within premium versions of XenServer is now available free of charge. With this simplification Citrix has also introduced per-socket* licensing. Licenses no longer enable specific XenServer features, instead they signify that a XenServer is under a valid support contract. XenServer 6.2.0 no longer requires a license server or licence file to enable features, as all features are enabled for free in unlicensed mode. Licenses are only required to receive Citrix Support and to enable the use of XenCenter for the installation of security and feature hotfixes. Hotfixes can continue to be installed on unlicensed hosts using the xe command line.
 
*A socket is a physical CPU socket on the motherboard and not a core or thread.
 
Performance and Scale
 
Significant performance and scale improvements; given a server of sufficient capacity XenServer will scale to:
 
1.     650 Linux VMs per host (bootable and operational)
 
2.     500 Windows VMs per host (bootable and operational)
 
3.     3250 vCPUs per host (Windows)
 
Performance improvements include:
 
1.     Reduction in the amount of traffic between a VM and the Control Domain (Dom0).
 
2.     Automatic scaling of Dom0 memory and vCPUs based on physical memory and CPU capacity on the host.
 
Monitoring
 
The XenServer 6.1.0 Performance and Monitoring Supplemental Pack is now fully integrated and extended for XenServer 6.2.0. This provides detailed monitoring of performance metrics, including CPU, memory, disk, network, C-state/P-state information, and storage. Where appropriate, these metrics are available on a per host and a per VM basis. These metrics are available directly through the RRD interface, or can be accessed and viewed graphically in XenCenter or other third-party applications.
 
It is now possible to export the performance information directly as a Comma Separated Values (.csv) formatted stream enabling the use, or easy development, of third-party tooling.
 
New system alerts can be seen in XenCenter and XenDesktop Director and optionally sent by e-mail. Alerts are notifications that occur in response to selected system events, or when CPU, memory usage, network throughput, storage throughput, or VM disk activity go over a specified threshold on a managed host, VM, or storage repository.
 
Clone on Boot
 
This feature supports Machine Creation Services (MCS) which is shipped as part of XenDesktop. Clone on boot allows rapid deployment of hundreds of transient desktop images from a single source, with the images being automatically destroyed and their disk space freed on exit.
 
New and Improved Guest Support
 
1.     Microsoft Windows 8
 
2.     Microsoft Windows Server 2012
 
3.     SUSE Linux Enterprise Server (SLES) 11 SP2 (32/64-bit)
 
4.     Red Hat Enterprise Linux (RHEL) 5.8, 5.9, 6.3, 6.4 (32/64-bit)
 
5.     Oracle Enterprise Linux (OEL) 5.8, 5.9, 6.3, 6.4 (32/64-bit)
 
6.     CentOS 5.8, 5.9, 6.3, 6.4 (32/64-bit)
 
7.     Debian Wheezy (32/64-bit)
 
8.     VSS support for Windows Server 2008R2 has been improved and reintroduced
 
Other Improvements
 
1.     Improvements to logging in Dom0: logs cannot over-consume Dom0 resource, increasing host stability
 
2.     Live Storage Migration is now possible from the VM Storage tab in XenCenter
 
3.     Support for additional CPUs (AMD Piledriver, Intel Haswell-DT)
 
4.     Updated in-box device drivers
 
5.     Minor Hypervisor upgrade (Xen-4.1.5)
 
6.     Updated DM Multipath (0.4.9.56)
 
7.     Support for alert severity filtering in XenCenter
 
8.     Updated XenServer alert severity levels for consistency


http://www.ervik.as/citrix/xenserv [...] -available

Message cité 1 fois
Message édité par dam1330 le 25-06-2013 à 22:26:00
n°1340200
Plam
Bear Metal
Posté le 25-06-2013 à 22:50:57  profilanswer
 

dam1330 a écrit :

Citrix libère complètement XenServer:


 
Ptain j'avais oublié ce topic, j'aurai du l'annoncer ce matin ici [:ddr555]


---------------
Spécialiste du bear metal
n°1340224
e_esprit
Posté le 26-06-2013 à 11:25:49  profilanswer
 

Les vrais savaient [:paydaybear:3]


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1340225
Plam
Bear Metal
Posté le 26-06-2013 à 11:31:09  profilanswer
 

e_esprit a écrit :

Les vrais savaient [:paydaybear:3]


 
 [:doppelgangbanger:2]


---------------
Spécialiste du bear metal
n°1340371
babajaga
Piles ? Nie pisz
Posté le 27-06-2013 à 15:28:47  profilanswer
 

J'ai une question un peu existentiel :
 
Sur une machine mono core, ça vaut le coup de faire de la virtu ?
 
Enfin comment vous faites pour la virtualisation de serveur, pour chaque utilisation vous avez une machine virtuelle ?
 
Par exemple, j'ai un serveur chez moi, il y a un site internet dessus, un VPN un serveur de jeu et il fait office de NAS.
 
Vous sépareriez ces trois utilisation en trois machine virtuelle ?
 
Merci d'avance

n°1340374
Plam
Bear Metal
Posté le 27-06-2013 à 15:39:35  profilanswer
 

babajaga a écrit :

J'ai une question un peu existentiel :

 

Sur une machine mono core, ça vaut le coup de faire de la virtu ?

 

Enfin comment vous faites pour la virtualisation de serveur, pour chaque utilisation vous avez une machine virtuelle ?

 

Par exemple, j'ai un serveur chez moi, il y a un site internet dessus, un VPN un serveur de jeu et il fait office de NAS.

 

Vous sépareriez ces trois utilisation en trois machine virtuelle ?

 

Merci d'avance

 

1) ça peut servir si ta pas de gros besoins, ton cpu va « scheduler » via l'hyperviseur, c'est pas top mais pour tester no souci, à l'utilisation « concrète » après bof.
2) ça dépend (ça dépasse). Si tu as les ressources pour séparer, c'est plus facile de s'y retrouver (pour les plans de backup, migration etc.) Dans ton cas (monocore) tout laisser sur un OS physique ça va très bien.

 

Le seul avantage que je vois pour toi, ça serait pour faire des tests (tu crées ta VM vite fait, et si ça te plait pas tu la vires). Mais bon, à ta place je resterai sur ton install physique.


Message édité par Plam le 27-06-2013 à 15:39:45

---------------
Spécialiste du bear metal
n°1340381
e_esprit
Posté le 27-06-2013 à 16:24:15  profilanswer
 

Oui, pour un usage perso, avec du hardware limité c'est pas forcément la bonne approche.

 

L'intérêt de séparer les services c'est pour étanchéifier les applis entre elles, quand tu as besoin d'en mettre une à jour (avec les dépendances que ça implique), tu ne risques pas de péter le reste.
Mais pour du @home avec 3 services, ça ne se justifie pas vraiment.


Message édité par e_esprit le 27-06-2013 à 16:24:29

---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1340382
Plam
Bear Metal
Posté le 27-06-2013 à 16:28:33  profilanswer
 

Bon sinon testé le Storage Xenmotion dans des conditions difficiles :o
Deux serveurs Dedibox avec stockage locaux, migration d'une VM de l'un à l'autre à chaud :love:

 

Par contre ya forcément une coupure le temps de migrer l'IP failover, mais bon ça c'est pas la faute de XenServer [:ocube]

Message cité 1 fois
Message édité par Plam le 27-06-2013 à 16:28:59

---------------
Spécialiste du bear metal
n°1341253
Arcord
Posté le 11-07-2013 à 13:32:03  profilanswer
 

Bonjour,
 
j'ai besoin d'aide car mes connaissances sont limitées et bien que d'habitude je finisse par m'en sortir en lisant des docs et divers forums, là je suis en galère.
Voici donc mon "installation"; un PC sous OpenSuse 12.3 qui fait tourner quelques machines virtuelles via KVM, dont une sous Windows 7 64 bits.
Cette VM utilise le PCI Passthrough pour un contrôleur USB2 et pour une carte graphique AMD Radeon HD 7750 (cette VM est branché sur la télé et sert à la fois de HomeCinema et occasionnellement pour jouer sur la télé).
Hier j'ai fait une mise à jour qui a passé libvirt de la version 1.0.6 à la version 1.1.0.
 
Depuis, impossible de faire fonctionner le PCI Passthrough.
Ma VM habituelle ne se lance pas, j'ai un message disant "error Invalid device 0000:01:00.0 driver file /sys/bus/pci/devices/0000:01:00.0/driver is not a symlink"
0000:01:00.0 correspondant à ma carte graphique
J'ai bien le dossier /sys/bus/pci/devices/0000:01:00.0/ mais il ne contient pas "driver".
Dois-je créer le lien symbolique. Si oui à partir de quoi?
 
J'ai édité le fichier xml de ma VM et constaté que mes périphériques PCI étaient managés, ce qui n'est pas forcément utile dans le cas de la Radeon puisque le module est blacklisté.
J'ai donc modifié ce paramètre la VM ne se lance toujours pas, mais le message d'erreur n'est plus le même:
erreur :Impossible de démarrer le domaine Win7_HomeCinema
erreur :Unable to read from monitor: Connection reset by peer
 
J'avoue que je suis bloqué et toute aide sera la bienvenue.

n°1341258
Mysterieus​eX
Chieuse
Posté le 11-07-2013 à 14:21:28  profilanswer
 

Plam a écrit :

Bon sinon testé le Storage Xenmotion dans des conditions difficiles :o  
Deux serveurs Dedibox avec stockage locaux, migration d'une VM de l'un à l'autre à chaud :love:
 
Par contre ya forcément une coupure le temps de migrer l'IP failover, mais bon ça c'est pas la faute de XenServer [:ocube]


 
Tu veux que je te prête mon filer et mes machines pour faire les tests en local avec une session remote desktop ? xD

n°1341259
e_esprit
Posté le 11-07-2013 à 14:24:42  profilanswer
 

MysterieuseX a écrit :


 
Tu veux que je te prête mon filer et mes machines pour faire les tests en local avec une session remote desktop ? xD


Ben si par local tu entends que tes machines sont sur un même switch (physique ou logique), ben ce sera complètement transparent :o


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1341260
Plam
Bear Metal
Posté le 11-07-2013 à 14:24:51  profilanswer
 

MysterieuseX a écrit :

 

Tu veux que je te prête mon filer et mes machines pour faire les tests en local avec une session remote desktop ? xD

 

oui je veux bien :o

 

edit : surtout quand on aura des fonctionnalités de gestion de l'énergie sur les serveurs :D


Message édité par Plam le 11-07-2013 à 14:25:34

---------------
Spécialiste du bear metal
n°1341261
Mysterieus​eX
Chieuse
Posté le 11-07-2013 à 14:34:15  profilanswer
 

e_esprit a écrit :


Ben si par local tu entends que tes machines sont sur un même switch (physique ou logique), ben ce sera complètement transparent :o


 
Lustre + infinband avec se qui faut derrière, j'pense que rien que d'y penser, le transfert sera déjà fait avant qu'il clique sur le bouton :O

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  97  98  99  ..  136  137  138  139  140  141

Aller à :
Ajouter une réponse
 

Sujets relatifs
VMware/routeur et debianvmware : ne compile pas
Cloner un systeme pour vmwarevmware tools et souris non bloquée dans la fenetre
compilation module vmware qui foiredemande aide pour installer Freebsd 6.2 sur VMware
installer un serveur ftp sous vmwarePerl sur VMWare ESX
Accès distant aux machines virtuelles Vmware[Linux/vmware]
Plus de sujets relatifs à : VirtualBox /VMWare mais surtout Xen ...Mangez en...


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)