|
Bas de page | |
---|---|
Auteur | Sujet : SAN Giga ou 10 Giga |
Publicité | Posté le 10-10-2013 à 12:10:41 |
alex th | Salut,
--------------- Mon blog sur le métier de DSI : http://www.dsiblog.fr |
Je@nb ModérateurKindly give dime | +1, après aujourd'hui du iSCSI simple lien c'est un peu limite (pas de redondance et pas de pic de charge) |
juju159 | Merci
|
ledub | faudrait avoir une idée des besoins en io |
Publicité | Posté le 12-10-2013 à 17:01:21 |
juju159 | Merci pour l'info.
|
wonee Ben Chui SyMpA |
Message édité par wonee le 15-10-2013 à 15:01:44 --------------- Ustea ez da jakitea |
Arthur OH www.openhost.fr | Si tu es sur Hyper-V et que tu veux évoluer vers du stockage centralisé, n'hésites pas à te renseigner la technologie appelée Storage Spaces, qui va devenir extrêmement intéressante avec Windows Serveur 2012 R2 (notamment via l'arrivée du storage tiering, qui permet d'améliorer les perfs avec un lot de SSD en "frontal" ) Cette techno permet d'utiliser de " simples " baies JBOD SAS, toute l'intelligence du stockage étant gérée sans surcoût par Windows Server. Pour peu qu'on veuille assumer le paramétrage logiciel, et couplé à la techno Scale Out File Server, on peut diviser plusieurs fois la facture d'un SAN classique pour des performances au moins équivalentes. Quelques exemples d'architecture : http://www.dataonstorage.com/datao [...] tions.html Pour ce qui est du 1Gb vs 10Gb : on peut s'en tirer en agrégeant les liens 1000 pour une petite infra mais le 10000 est fortement conseillé et sera plus future-proof. Par contre il n'est pas forcément utile de déployer du 10gb ailleurs qu'entre les hôtes et le SAN (ou dans le cas de storages spaces, le SOFS) donc ça limite le nombre de ports nécessaires. (compter 2 port par hôte, idem pour pour les serveurs du SOFS, et deux switchs pour la tolérance de panne et l’aggregation. Message édité par Arthur OH le 17-10-2013 à 18:04:39 |
ledub |
juju159 | Question bête et pour ma culture personnel: dans ce cas la, n'importe quel switch Giga suffit ou pas?
|
Arthur OH www.openhost.fr |
Avec des concentrations qui tendent aujourd'hui vers 256Go, et bientôt 512Go de Ram par serveur physique, crois-moi c'est vite fait. Message édité par Arthur OH le 17-10-2013 à 18:08:32 |
Misssardonik prévisible a posteriori | quel rapport ? on parle de réseau de stockage là... --------------- Que va-t-il se passer cette gelgamar ? vous le découvrirez janamont à 20h |
Arthur OH www.openhost.fr |
Plus tu as de RAM par noeud de virtualisation, plus tu as de VM/workload dessus qui ont besoin d'accéder au stockage et donc la taille du tuyau nécessaire pour chaque host augmente.
En environnement rack avec une densité élevée (>=2 nœuds par U), je pense qu'on est limité par le nombre de ports PCIe avant d'arriver au break-even point. Donc pour l'instant je pense qu'on le fait plus part besoin de perf que d'économies. Message cité 1 fois Message édité par Arthur OH le 17-10-2013 à 20:52:41 |
ChaTTon2 Je l'aime ! |
Ce que j'ai du mal à comprendre ... C'est pourquoi le nombre de VM justifie une utilisation. Certes, il y a le trafic système, mais qui est quand même dérisoire. Ca dépend, SELON MOI, du type d'applis que tu habrites, comme le disent certains, un serveur DB aura pas les même besoin de performance qu'un serveur de fichier. Le premier va tirer sur les IOP/S séquentielles, quand le second pourra peut être avoir plus besoin de débit. non ? Message édité par ChaTTon2 le 18-10-2013 à 11:48:46 --------------- Mon feed-back : http://forum.hardware.fr/hfr/Achat [...] 1974_1.htm |
ChaTTon2 Je l'aime ! | ben pour moi non ... Tu avais 4 brins Gbs et ensuite tu as 4 brins Gbps ...
--------------- Mon feed-back : http://forum.hardware.fr/hfr/Achat [...] 1974_1.htm |
ledub | il faut regarder quels sont tes besoins en bande passante et ton budget ...
|
Arthur OH www.openhost.fr |
Dans le premier exemple mon cluster avait : 1024 Go de RAM (8x128) Si on prends une moyenne de 10go de RAM par VM ça fait 1024/10=102 Machines vituelles. Dans le deuxième exemple mon cluster a : 1024 Go de RAM (4x256) donc autant de VM Si on reste à 4 lien Gb par hôte, et vu qu'on a plus que 4 hôtes, ça nous donne un total de 4x4= 16Gbs sur le réseau SAN. Donc pour garder le même débit dans le deuxième cluster, il lui faudrait 8 liens gigabit par hôte, juste pour le réseau de stockage. Message édité par Arthur OH le 18-10-2013 à 17:22:07 |
ChaTTon2 Je l'aime ! | Au temps pour moi j'avais pas vue le nombre de nœuds ! Je pensais que tu parlais de toucher la mémoire ...
--------------- Mon feed-back : http://forum.hardware.fr/hfr/Achat [...] 1974_1.htm |
Publicité | Posté le |