Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3626 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  91  92  93  ..  136  137  138  139  140  141
Auteur Sujet :

VirtualBox /VMWare mais surtout Xen ...Mangez en...

n°1321294
-Marmite-
Posté le 10-10-2012 à 20:09:00  profilanswer
 

Reprise du message précédent :
Hello,
 
Je dois migrer plusieurs VM (windows et debian) sur Xen entre différents Dom0. J'aimerais trouver un moyen rapide pour le faire.
 
Actuellement je fais des backups des paritions LVM avec dd et je zip le tout. J'aimerais éviter de multiplier les étapes (backup, transfert, et dézip sur le nouveau serveur).
 
J'ai essayée la commande suivante :
dd if=/dev/xenvg/MonLV | ssh MonHote "of=/dev/xenvg/LVDest"
Mais cela ne fonctionne pas, je récupère quasiment directement la main et aucun message ne s'affiche.
 
Avez vous déjà utilisé ce genre de commande ? Vous utilisez/utiliseriez quel méthode/outil pour ce genre de travail ?

mood
Publicité
Posté le 10-10-2012 à 20:09:00  profilanswer
 

n°1321298
Misssardon​ik
prévisible a posteriori
Posté le 10-10-2012 à 20:14:59  profilanswer
 

y'a pas déjà un outil pour ça (migration d'une VM d'un dom0 à un autre) dans Xen ?


---------------
Que va-t-il se passer cette gelgamar ? vous le découvrirez janamont à 20h
n°1321304
e_esprit
Posté le 10-10-2012 à 20:29:53  profilanswer
 

-Marmite- a écrit :

Hello,
 
Je dois migrer plusieurs VM (windows et debian) sur Xen entre différents Dom0. J'aimerais trouver un moyen rapide pour le faire.
 
Actuellement je fais des backups des paritions LVM avec dd et je zip le tout. J'aimerais éviter de multiplier les étapes (backup, transfert, et dézip sur le nouveau serveur).
 
J'ai essayée la commande suivante :
dd if=/dev/xenvg/MonLV | ssh MonHote "of=/dev/xenvg/LVDest"
Mais cela ne fonctionne pas, je récupère quasiment directement la main et aucun message ne s'affiche.
 
Avez vous déjà utilisé ce genre de commande ? Vous utilisez/utiliseriez quel méthode/outil pour ce genre de travail ?


rsync, what else ? :D


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1321305
e_esprit
Posté le 10-10-2012 à 20:31:28  profilanswer
 

Quoique pour les VMs Windows ça va pas être top :o
Mais sinon rsync :o
 
et pour dd, ça doit pouvoir se faire avec un petit netcat des familles :D
 
(au passage pour ton ssh, il manque le dd dans la commande sur la destination)


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1321330
-Marmite-
Posté le 10-10-2012 à 20:59:10  profilanswer
 

e_esprit a écrit :

Quoique pour les VMs Windows ça va pas être top :o
Mais sinon rsync :o
 
et pour dd, ça doit pouvoir se faire avec un petit netcat des familles :D
 
(au passage pour ton ssh, il manque le dd dans la commande sur la destination)


'TIN  :fou:  
 
J'ai cherche une heure ce qui ne marchait pas ! Ça doit bien être le dd dans la commande de destination qui manque.
 
Sinon oui j'avais prévu d'utiliser rsync pour les debian.
 
Merci pour votre aide !

n°1321332
-Marmite-
Posté le 10-10-2012 à 21:00:15  profilanswer
 

Pour l'outil de migration, si il existe, je n'en ai jamais entendu parler.
 
Mais ça m’intéresse.

n°1321382
Profil sup​primé
Posté le 10-10-2012 à 22:18:41  answer
 

-Marmite- a écrit :

Pour l'outil de migration, si il existe, je n'en ai jamais entendu parler.
 
Mais ça m’intéresse.


 
En fait, avec Xen4 sous debian, tu peux faire des migrations live assez simplement, la condition, c'est d'avoir un stockage partagé sur tes 2 dom0.
J'ai pas vu de possibilité de migrer le disque automatiquement.
 
Sinon, pour speeder les transferts ssh, assure toi que la compression est bien activée dans ton transfert ssh (-C).  
Perso, je compresse les données avec gzip, et je décompresse de l'autre côté avec gunzip, ça devrait marcher:
dd if=/dev/xenvg/MonLV | gzip | ssh MonHote "gunzip | dd of=/dev/xenvg/LVDest"  
 
Tu peux aussi choisir le cipher (-c), on m'a conseillé arcfour qui utiliserait moins de cpu (-c arcfour).

n°1321391
Plam
Bear Metal
Posté le 10-10-2012 à 23:03:32  profilanswer
 


 
Ptin c'est quand même beau Linux et son shell :love: ça fait longtemps maintenant, mais je reste toujours autant émerveillé par cette puissance.


---------------
Spécialiste du bear metal
n°1321427
quess
Posté le 11-10-2012 à 09:11:53  profilanswer
 

Je confirme
perso je fais ça sur un LAN: pas de compression et chiffrement rapide. J'avais benché les différents modes et c'est arcfour qui avait donné les résultats les + intéressants (50-60Mo/s sur du lien giga)
 
dd if=/dev/VGsrc/VM-disk bs=1M |ssh -c arcfour root@DEST dd of=/dev/VGdest/VM-disk bs=1M


---------------
---- Mon feedback ----
n°1321439
Plam
Bear Metal
Posté le 11-10-2012 à 09:58:54  profilanswer
 

quess a écrit :

Je confirme
perso je fais ça sur un LAN: pas de compression et chiffrement rapide. J'avais benché les différents modes et c'est arcfour qui avait donné les résultats les + intéressants (50-60Mo/s sur du lien giga)
 
dd if=/dev/VGsrc/VM-disk bs=1M |ssh -c arcfour root@DEST dd of=/dev/VGdest/VM-disk bs=1M


 
 [:clooney44]


---------------
Spécialiste du bear metal
mood
Publicité
Posté le 11-10-2012 à 09:58:54  profilanswer
 

n°1321484
e_esprit
Posté le 11-10-2012 à 18:37:29  profilanswer
 

quess a écrit :

Je confirme
perso je fais ça sur un LAN: pas de compression et chiffrement rapide. J'avais benché les différents modes et c'est arcfour qui avait donné les résultats les + intéressants (50-60Mo/s sur du lien giga)
 
dd if=/dev/VGsrc/VM-disk bs=1M |ssh -c arcfour root@DEST dd of=/dev/VGdest/VM-disk bs=1M


Bah sur un LAN ou y a pas besoin de chiffrer du tout, utilise plutôt netcat :D


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1321508
roscocoltr​an
L'enfer c'est les utilisateurs
Posté le 11-10-2012 à 20:25:27  profilanswer
 

-Marmite- a écrit :

Hello,

 

Je dois migrer plusieurs VM (windows et debian) sur Xen entre différents Dom0. J'aimerais trouver un moyen rapide pour le faire.

 

Actuellement je fais des backups des paritions LVM avec dd et je zip le tout. J'aimerais éviter de multiplier les étapes (backup, transfert, et dézip sur le nouveau serveur).

 

J'ai essayée la commande suivante :
dd if=/dev/xenvg/MonLV | ssh MonHote "of=/dev/xenvg/LVDest"
Mais cela ne fonctionne pas, je récupère quasiment directement la main et aucun message ne s'affiche.

 

Avez vous déjà utilisé ce genre de commande ? Vous utilisez/utiliseriez quel méthode/outil pour ce genre de travail ?


Alors je vais quoter un grand auteur:

 
roscocoltran a écrit :

Sur le serveur qui va recevoir l'image, tu tappe:

 

nc -l 3000 | dd bs=1M of=/files/mon.image

 

ta machine est prête et écoute le port 3000 pour stocker le flux que tu vas lui envoyer

 

Sur la machine dont tu veux faire l'image, tu tappe depuis une distribution live (une ubuntu USB persistante dans mon cas)

 

dd bs=1M if=/dev/hda | gzip | nc ipduserveur 3000; commande optionnelle

 

Ca va envoyer le contenu exact de tout ton disque (tout le disque) à travers gzip puis vers ton PC qui fait office de serveur. La commande optionnelle, ça peut-être l'envoi d'un mail pour te dire que la copie est finie par exemple.

   

Pour restaurer, tu fais sur la machine à restaurer (depuis ta session live):

 

nc -l 3000 | gunzip | dd bs=1M of=/dev/hda

 

La machine est en écoute du flux

 

et sur ton serveur:

 

dd if=/files/mon.image | nc ipdelamachinecliente 3000

 

l'image sera envoyée.

 

Pas de soucis de grub ou de partition...tout le disque est copié. Ca marche parfaitement et ma clef usb conserve les commandes précédemment utilisées. Pas de soft à installer, de service...tu fais juste un ssh sur ta machine serveur pour lancer la commande de réception.

 

Petit truc, si tu veux avoir l'image la plus légère possible, formatte ton disque avant l'installation de tes programmes avec un

 

dd bs=1M if=/dev/zero of=/dev/hda

 

Ton disque sera rempli avec des zeros, et l'espace vide final sera plus facile à zipper.

 

Si tu veux connaître l'avancée du processus, tu tappe sur la machine qui exécute le "dd": kill -USR1 pid_de_dd. Ca ne gène pas le process.

 

Tu dois adapter ça à tes /dev/volmachin et tu peux aussi naturellement te passer de l'étape serveur et attaquer directement la cible depuis la source.

Message cité 1 fois
Message édité par roscocoltran le 11-10-2012 à 20:26:29

---------------
"Your god is too small", Giordano Bruno, 1548 - 1600
n°1321509
roscocoltr​an
L'enfer c'est les utilisateurs
Posté le 11-10-2012 à 20:36:05  profilanswer
 

Plam a écrit :


 
Premiers tests GlusterFS avec deux noeuds « tous pourris » (serveurs R210 avec procos pourris et 1go de ram, disque SATA interne de 250Go avec l'OS dessus), réplication sur les deux noeuds :
 
47 Mo/s en écriture et 100 Mo/s en lecture sur iozone (et dd, même résultats en écriture).
 
Ce qui est « rigolo » par rapport à un SAN classique, c'est que ce sont les clients qui ont conscience de l'archi derrière (genre mon client écrivait sur les deux noeuds en même temps). Avantage : pas de soucis de lien de réplication. Problème : faut du débit réseau, ça peut devenir le facteur limitant.  
 
Test de coupure physique d'un des deux noeud : 100% OK, no souci, quand ça reboot, il récupère tous seul les data, c'est « magique » (niveau conf, c'est plus que trivial, enfin après avoir fait un multi master DRBD :o )
 
L'infra idéale serai 4 noeuds corrects, reste à comprendre exactement le mécanisme de réplication (genre avec replication à 2, si j'ai 4 noeuds, je peux en perdre jusqu'à 2 ? Si je passe à 6 noeuds quid ? etc.)
 
En lecture c'est vraiment intéressant... Hâte de tester avec quelques VM de prod (bon, le projet est pas en tête de liste je dois terminer une infra wifi PEAP etc.)


C'est intéressant pour mon cas parce que je n'ai pas la thune pour blinder mes VM de baie de stockage de classe militaire et je cherche toujours un moyen simple et fiable de monter du NFS haute dispo. Déjà DRBD je trouve pas ça simple et ça paraît trop sensible (fragile) pour être utilisé chez moi. Le raid 1 de device réseau vous avez essayé ?


---------------
"Your god is too small", Giordano Bruno, 1548 - 1600
n°1321510
grao
The visitor
Posté le 11-10-2012 à 20:56:23  profilanswer
 

P-NFS :)
http://www.pnfs.com/

Message cité 2 fois
Message édité par grao le 11-10-2012 à 20:57:12

---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1321513
roscocoltr​an
L'enfer c'est les utilisateurs
Posté le 11-10-2012 à 21:22:46  profilanswer
 
n°1321514
grao
The visitor
Posté le 11-10-2012 à 22:18:05  profilanswer
 


Je contre:
LUSTRE
www.lustre.org
:o


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1321515
grao
The visitor
Posté le 11-10-2012 à 22:18:44  profilanswer
 

Plam a écrit :


 
Ptin c'est quand même beau Linux et son shell :love: ça fait longtemps maintenant, mais je reste toujours autant émerveillé par cette puissance.


Il y a l'informatique et l'informatique by microsoft :o


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1321516
hfrfc
Bob c'est plus simple à dire..
Posté le 11-10-2012 à 22:31:41  profilanswer
 

C'est vrai que le powershell c'est pas mal tu as raison
:o

n°1321518
grao
The visitor
Posté le 11-10-2012 à 22:38:23  profilanswer
 

hfrfc a écrit :

C'est vrai que le powershell c'est pas mal tu as raison
:o


Je bosse dans un domaine de l'informatique ou microsoft a disparu depuis pas mal d'années alors  [:prodigy]


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1321523
roscocoltr​an
L'enfer c'est les utilisateurs
Posté le 11-10-2012 à 23:52:13  profilanswer
 
n°1321524
Profil sup​primé
Posté le 12-10-2012 à 00:03:29  answer
 

grao a écrit :


Je contre:
LUSTRE
www.lustre.org
:o


 
J'ai une install lustre sympatoche au taff, on a 170To, et de mémoire, on monte à 3Go/s en read/write. Le truc, c'est que c'est performant et scalable, ça c'est clair. Par contre pour la fiabilité, j'y mettrai pas ma main au feu  :whistle:  
C'est spécialement intéressant pour faire un filesystem scratch dans un cluster de calcul, où on ne garantit pas les données sur le long terme (voire on purge automatiquement tous les fichiers vieux de plus de x jours).

n°1321525
grao
The visitor
Posté le 12-10-2012 à 00:37:05  profilanswer
 

Le but de Lustre n'est pas la fiabilité mais les performances. La redondance doit être assurée au niveau des disques.
 
Dans les clusters on utilise des systèmes de données hiérarchiques: en fonction de la fréquence d'utilisation les données sont migrées automatiquement vers le niveau suivant. D'abord Lustre ou équivalent pour les perf puis un deuxième niveau un peu moins perf pour les données à quelques jours et enfin les bandes pour la longue durée.
Avec du Lustre j'ai déjà vu du 500go/s en read/write :)
\HS


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1321526
grao
The visitor
Posté le 12-10-2012 à 00:38:27  profilanswer
 


Oracle ne supporte quasi plus le projet. Les dev ont monté leur propre boite.


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1321540
Plam
Bear Metal
Posté le 12-10-2012 à 09:44:32  profilanswer
 

Vous tombez bien je fais des tests sur GlusterFS aujourd'hui ou demain [:ocube]

 

Pré-étude : opé sur les « gros » fichiers (> 100ko), très belles perfs à la fois en read et en write (même si plutôt réputé pour les vitesses en read). Niveau simplicité d'utilisation, difficile de faire mieux.
Le seul « problème », à revalider avec 4 noeuds, c'est la décompression d'une tarball de noyau Linux : entre le fs local et celui de GlusterFS, on a bien un ordre de grandeur de différence..

 

Est-ce que c'est vraiment un problème pour stocker du fichier « users » ou du gros espace de stockage ? Je pense pas, à creuser encore donc :o

Message cité 1 fois
Message édité par Plam le 12-10-2012 à 09:44:53

---------------
Spécialiste du bear metal
n°1321544
roscocoltr​an
L'enfer c'est les utilisateurs
Posté le 12-10-2012 à 10:15:33  profilanswer
 

Mais pratiquement ça veut dire qu'on ne gère pas la perte d'un nœud ? On se contente d'en ajouter quand ils tombent ?


---------------
"Your god is too small", Giordano Bruno, 1548 - 1600
n°1321546
Plam
Bear Metal
Posté le 12-10-2012 à 10:20:55  profilanswer
 

roscocoltran a écrit :

Mais pratiquement ça veut dire qu'on ne gère pas la perte d'un nœud ? On se contente d'en ajouter quand ils tombent ?


 
Soit tu le fais remonter (et il se resynchro), soit tu le remplace (plus long à resychro mais ça marcherai quand même)


---------------
Spécialiste du bear metal
n°1321576
the_fireba​ll
I have fucking failed
Posté le 12-10-2012 à 23:14:45  profilanswer
 

e_esprit a écrit :


Bah sur un LAN ou y a pas besoin de chiffrer du tout, utilise plutôt netcat :D


 
j'allais le dire :sol:  
 

roscocoltran a écrit :


Alors je vais quoter un grand auteur:
 
 
 
Tu dois adapter ça à tes /dev/volmachin et tu peux aussi naturellement te passer de l'étape serveur et attaquer directement la cible depuis la source.


 
il manque un petit pipeview pour avoir le débit en live
 


 
Panasas
Isilon
 

grao a écrit :


Je contre:
LUSTRE
www.lustre.org
:o


 
je surcontre
GPFS


---------------
Two thousand years of misery, of torture in my name, hypocrisy made paramount, paranoia the law, my name is called religion, sadistic, sacred whore.
n°1321707
grao
The visitor
Posté le 15-10-2012 à 00:43:42  profilanswer
 

Va falloir créer un topic unique FS distribués voir HPC :whistle:


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1321731
Plam
Bear Metal
Posté le 15-10-2012 à 11:21:49  profilanswer
 

grao a écrit :

Va falloir créer un topic unique FS distribués voir HPC :whistle:


 
Je t'en prie :o


---------------
Spécialiste du bear metal
n°1321884
grao
The visitor
Posté le 15-10-2012 à 19:47:48  profilanswer
 

Ouai enfin si on est 3 clampins...


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1321885
roscocoltr​an
L'enfer c'est les utilisateurs
Posté le 15-10-2012 à 20:05:19  profilanswer
 

grao a écrit :

Ouai enfin si on est 3 clampins...


fous "Apple" dans le titre, ça va remplir le topic. :o


---------------
"Your god is too small", Giordano Bruno, 1548 - 1600
n°1321888
grao
The visitor
Posté le 15-10-2012 à 20:07:03  profilanswer
 

Un cluster de mac book pro :love:
Le cluster le plus cher du monde :o


---------------
Recherche affiche de GITS Arise 3 et 4, faire offre.
n°1322100
gug42
Posté le 17-10-2012 à 11:56:44  profilanswer
 

Plam a écrit :

Vous tombez bien je fais des tests sur GlusterFS aujourd'hui ou demain [:ocube]

 

Pré-étude : opé sur les « gros » fichiers (> 100ko), très belles perfs à la fois en read et en write (même si plutôt réputé pour les vitesses en read). Niveau simplicité d'utilisation, difficile de faire mieux.
Le seul « problème », à revalider avec 4 noeuds, c'est la décompression d'une tarball de noyau Linux : entre le fs local et celui de GlusterFS, on a bien un ordre de grandeur de différence..

 

Est-ce que c'est vraiment un problème pour stocker du fichier « users » ou du gros espace de stockage ? Je pense pas, à creuser encore donc :o

 


Hello,

 

On a fait quelques tests également par ici sur gluster. Quelques conclusions (corroborées par les dires sur la ML GlusterFS) :
- Pour faire du filer "bureautique" ca roule.
- Pour les gros fichiers (>100 Go soit un disque d'une vm), ca patine dans la choucroute. Débit très faible de quelques ko
- Les accès concurents sont pas au top ...

 

=> En conclusion ce n'est pas forcément très adapté à la virtu, surtout avec un minimum d'activité. D'ailleurs dans la roadmap de gluster est indiqué la volonté d'améliorer les perfs pour la virtu, sur les gros fichiers et les accès concurents.

 

Actuellement on teste également mooseFS .. interessant :)

 

Concernant lustre, l'objectif est clairement la performance et il ne gère pas la redondance.

 

ps : j'avais lancé un topic à une époque de FS distribué/réparti/performance mais sans beaucoup d'émultion dessus ;)
ps2 : actuellement le support côté client sur RHEL du pNFS est dispo en "preview" uniquement.  Les constructeurs commencent seulement à implémenter le pNFS sur le tête NAS. Je suis en tout cas impatient de pouvoir jouer avec et voir les implémentations ;)

 


Autres sujets : sur les kernel 2.6.X, avec un FS journalisés, sous fortes charges (load > 1000) et avec beaucoup d'IO (>50k), le kernel plante (kernel panic). C'est un bug  dans la journalisation, corrigé sur la branche 3.X.

Message cité 3 fois
Message édité par gug42 le 17-10-2012 à 12:02:25
n°1322101
e_esprit
Posté le 17-10-2012 à 11:59:42  profilanswer
 

load > 1000 [:le kneu]


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1322107
gug42
Posté le 17-10-2012 à 13:10:55  profilanswer
 

Pour nos tests on a un tentinet chargé la mule xD Ca permet de pousser les systèmes aux extrèmes, c'est chouette :)
Bien sur dans la vie de tous les jours ...


Message édité par gug42 le 17-10-2012 à 13:13:12
n°1322121
e_esprit
Posté le 17-10-2012 à 14:22:57  profilanswer
 

Du coup le test est-il bien pertinent ? [:cerveau dr]


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°1322128
Plam
Bear Metal
Posté le 17-10-2012 à 14:38:37  profilanswer
 

gug42 a écrit :

 


Hello,

 

On a fait quelques tests également par ici sur gluster. Quelques conclusions (corroborées par les dires sur la ML GlusterFS) :
- Pour faire du filer "bureautique" ca roule.
- Pour les gros fichiers (>100 Go soit un disque d'une vm), ca patine dans la choucroute. Débit très faible de quelques ko
- Les accès concurents sont pas au top ...

 

=> En conclusion ce n'est pas forcément très adapté à la virtu, surtout avec un minimum d'activité. D'ailleurs dans la roadmap de gluster est indiqué la volonté d'améliorer les perfs pour la virtu, sur les gros fichiers et les accès concurents.

 

Actuellement on teste également mooseFS .. interessant :)

 

Concernant lustre, l'objectif est clairement la performance et il ne gère pas la redondance.

 

ps : j'avais lancé un topic à une époque de FS distribué/réparti/performance mais sans beaucoup d'émultion dessus ;)
ps2 : actuellement le support côté client sur RHEL du pNFS est dispo en "preview" uniquement.  Les constructeurs commencent seulement à implémenter le pNFS sur le tête NAS. Je suis en tout cas impatient de pouvoir jouer avec et voir les implémentations ;)

 


Autres sujets : sur les kernel 2.6.X, avec un FS journalisés, sous fortes charges (load > 1000) et avec beaucoup d'IO (>50k), le kernel plante (kernel panic). C'est un bug  dans la journalisation, corrigé sur la branche 3.X.

 

J'en viens aux mêmes conclusions. Pour la virtu, je pense fortement aujourd'hui sur du ZFS avec NFS (et du zfs send sur une deuxieme serveur quasi hot spare à quelques minutes près).

 

Par contre, je me demande bien quel paramétrage utiliser dans la conf de mes VM (file, tap, blktap2 ?) pour avoir de bonnes perfs. Car j'ai absolument pas l'habitude de bosser en fichier pour les HDD des vm (LVM depuis le début :o )

 

Des conseils ?


Message édité par Plam le 17-10-2012 à 14:38:47

---------------
Spécialiste du bear metal
n°1322132
gug42
Posté le 17-10-2012 à 15:28:26  profilanswer
 

Salut,

 

L'aventage du fichier est sa simplicité de gestion. Les perfs sont bonnes (5/10% de pertes sur du heavy IO par rapport à du FC en direct). En format, soit du raw soit du qcow2. Ce dernier proposant plus de fonctionnalités (snap principalement) mais avec une toute chtite perte de perf.
Sur ZFS je n'ai pas d'avis ...

 

edit : sous KVM hein :o

Message cité 1 fois
Message édité par gug42 le 17-10-2012 à 15:29:58
n°1322133
gug42
Posté le 17-10-2012 à 15:29:39  profilanswer
 

e_esprit a écrit :

Du coup le test est-il bien pertinent ? [:cerveau dr]

 

Oui, ca permet de voir si ca explose ou non : au sens perte de données ? perte d'accès ? etc... même si effectivement le service au sens utilisateurs n'est plus utilisable depuis belle lurette ;)

 

Et si tu cherches pas les limites comment les connaitres ?


Message édité par gug42 le 17-10-2012 à 15:46:45
n°1322134
Plam
Bear Metal
Posté le 17-10-2012 à 15:39:54  profilanswer
 

gug42 a écrit :

Salut,
 
L'aventage du fichier est sa simplicité de gestion. Les perfs sont bonnes (5/10% de pertes sur du heavy IO par rapport à du FC en direct). En format, soit du raw soit du qcow2. Ce dernier proposant plus de fonctionnalités (snap principalement) mais avec une toute chtite perte de perf.
Sur ZFS je n'ai pas d'avis ...
 
edit : sous KVM hein :o


 
À voir sur Xen donc :o


---------------
Spécialiste du bear metal
n°1322136
gug42
Posté le 17-10-2012 à 15:45:57  profilanswer
 

Plam a écrit :


 
À voir sur Xen donc :o


 
 [:spamatounet]  
 
Je pense pas que ca change énormément sur les principes

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  91  92  93  ..  136  137  138  139  140  141

Aller à :
Ajouter une réponse
 

Sujets relatifs
VMware/routeur et debianvmware : ne compile pas
Cloner un systeme pour vmwarevmware tools et souris non bloquée dans la fenetre
compilation module vmware qui foiredemande aide pour installer Freebsd 6.2 sur VMware
installer un serveur ftp sous vmwarePerl sur VMWare ESX
Accès distant aux machines virtuelles Vmware[Linux/vmware]
Plus de sujets relatifs à : VirtualBox /VMWare mais surtout Xen ...Mangez en...


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)