Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1462 connectés 

  FORUM HardWare.fr
  Systèmes & Réseaux Pro
  Stockage

  SAN Giga ou 10 Giga

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

SAN Giga ou 10 Giga

n°115057
juju159
Posté le 10-10-2013 à 12:10:41  profilanswer
 

Bonjour à tous
 
J'ai une question bête,
 
Nous avons un client qui possède 3 HyperV avec les VMs stockés en local (DAS).  
On aimerait stocker la prod dans un SAN type HP ou autre. Est-il concevable de relié les HyperV au SAN en Giga ou es-ce que 10 Giga dédié est obligatoire ??
 
Merci.

mood
Publicité
Posté le 10-10-2013 à 12:10:41  profilanswer
 

n°115059
alex th
Posté le 10-10-2013 à 12:35:55  profilanswer
 

Salut,
 
oui c'est tout à fait concevable de relier les HyperV au SAN en 1 Gbps. De plus, si tu utilises du stockage avec le protocole ISCSI et que tu as plusieurs interfaces au niveau de tes serveurs et du SAN, tu peux faire du "multipathing" au niveau stockage, c'est à dire aggréger les interfaces pour aller plus vite et avoir de la redondance.
 
Le 10Gbps n'est donc pas indispensable mais c'est sur que ca dépend de l'activité de tes VMs, que c'est plus confortable et que tes configs seront plus simples. Maintenant, vous prendrez une claque au niveau des prix, particulièrement sur le switching.


---------------
Mon blog sur le métier de DSI : http://www.dsiblog.fr
n°115064
juju159
Posté le 10-10-2013 à 16:59:23  profilanswer
 

J'ai trouvé cet article intéressant, en gros si tu connecte un SAN en Gigabit sur un HyperV t'es moins rapide qu'un serveur avec un disque SATA et si tu souhaites la performance d'un RAID 5, il te faut 4GB (FC), et la c'est du 1 pour 1, si plusieurs serveurs sont connectés au SAN il faut des interfaces dédiés ....
 
 
Depending on the SAN infrastructure, the theoretical speed limits are around:
 
    1GB Fibre Channel or iSCSI – around 125 MBs/second (this is the most commonly deployed iSCSI speed)
    2GB Fibre Channel – around 250 MBs/second
    4GB Fibre Channel – around 500 MBs/second (this is the most commonly deployed FC SAN speed)
    10GB iSCSI – around 1250 MBs/second
 
These limits were fine ten or fifteen years ago when hard drives weren’t all that fast, but here’s some sample read speeds from today’s desktop-class SATA drives:
 
    One drive – around 130 MBs/second (from TomsHardware reviews)
    RAID 5 array of five drives – around 300 MBs/second  

n°115069
Misssardon​ik
prévisible a posteriori
Posté le 10-10-2013 à 17:59:08  profilanswer
 

oui enfin 130Mo/s pour du disque sata c'est en lecture séquentielle, c'est un cas d'utilisation bien particulier, pour d'autres scénarios on sera limité au niveau des IOPS bien avant d'atteindre la limite du média réseau.


Message édité par Misssardonik le 10-10-2013 à 17:59:32

---------------
Que va-t-il se passer cette gelgamar ? vous le découvrirez janamont à 20h
n°115072
Je@nb
Modérateur
Kindly give dime
Posté le 10-10-2013 à 20:18:21  profilanswer
 

+1, après aujourd'hui du iSCSI simple lien c'est un peu limite (pas de redondance et pas de pic de charge)

n°115081
couak
Posté le 11-10-2013 à 09:40:20  profilanswer
 

+1 également
les débits annoncés sont théoriques et ne concernent que le front-end (c'est à dire la liaison entre les serveurs et le stockage)
Quand on parle de stockage, on parle également d'IOPS qui est dans la plupart des cas plus important que la bande passante max : en faisant des lectures aléatoires sur une base de données ca m'étonnerais que tu dépasses les 20Mo/s sur un disque SATA

n°115084
juju159
Posté le 11-10-2013 à 10:25:25  profilanswer
 

Merci
Voici un comparatif intéressant concernant l'IOPS en fonction du type de disque ...
 
http://wintelguy.com/raidperf.pl

n°115091
ledub
Posté le 11-10-2013 à 13:39:43  profilanswer
 

faudrait avoir une idée des besoins en io

n°115111
Mysterieus​eX
Chieuse
Posté le 12-10-2013 à 16:10:07  profilanswer
 

Sauf que les iops dépendent du type de phy/carte dédiée utilisée et des PPS des switchs ainsi que la topo d'infra déployée (je suis en train de passer d'une topo classique 2 switchs FC et liens croisés front end <=> fabric <=> SP vers taurus et même sans changer le hard, on gagne en PPS et donc en iops, par exemple, mais ça complexifie l'infra :) )
Donc bon, techniquement tant que tu reste dans une certaine gamme de produits et d'utilisation, on va dire que tu peu y aller "sans problèmes" avec se que tu trouve sur le marché. Après faut passer sur du custom et topologie exotique.
Nous manque la topologie, la volumétrie et les scénarios d'usage de ton infra pour vraiment te dire quoi :)

n°115112
awmoon
Posté le 12-10-2013 à 17:01:21  profilanswer
 

L'Ethernet 10Gbps pour le stockage n'a pour le moment que d'intérêt lorsque l'on possède déjà une infra 10 Gbps et qu'on veut limiter les couts (ou pour ne pas diversifier les équipements, compétences en interne). Il faut de plus s'assurer que les liens entre les switchs et le coeur peuvent encaisser le trafic réseau et stockage.
 
En effet, actuellement les switchs 10Gbps ou fabric FC 8Gpbs ont un cout a peu près équivalement et les bonnes cartes 10Gbps (avec offloading) sont à peine moins cher que les cartes FC.
 
De plus, du fait de l'encapsulation IP, si tu ne passes pas sur du FCOE - techno pas encore très mature et qui nécessite une infra dédiée -, les performances sur les petits blocs seront bien inférieures à du FC.
 
Autre solution quand on a peu de moyen pour une petite infra virtualitée, utiliser du SAS directement avec des switchs SAS et un petit SAN SAS (les switchs SAS sontlimités mais pas très couteux, les HBA SAS sont très peu chers). Par contre, je ne sais pas si Hyper-V le supporte comme VMWare le permet.

mood
Publicité
Posté le 12-10-2013 à 17:01:21  profilanswer
 

n°115166
juju159
Posté le 15-10-2013 à 10:36:59  profilanswer
 

Merci pour l'info.
 
Switch SAS je connaissais pas, et quel est le protocol utilisé pour relié le Switch au serveur, c'est de l'IP? Ou un protocole propriétaire?

n°115179
wonee
Ben Chui SyMpA
Posté le 15-10-2013 à 14:58:38  profilanswer
 

juju159 a écrit :

Merci pour l'info.
 
Switch SAS je connaissais pas, et quel est le protocol utilisé pour relié le Switch au serveur, c'est de l'IP? Ou un protocole propriétaire?


Si tu as juste 3 hôtes du peux mettre une baies DAS en double attachement direct SAS6G. çà marche très bien et çà te permet de connecter jusqu'à 4 hôtes en double attachement.
http://www.dell.com/fr/entreprise/ [...] -md3200/pd


Message édité par wonee le 15-10-2013 à 15:01:44

---------------
Ustea ez da jakitea
n°115206
Arthur OH
www.openhost.fr
Posté le 16-10-2013 à 12:51:03  profilanswer
 

Si tu es sur Hyper-V et que tu veux évoluer vers du stockage centralisé, n'hésites pas à te renseigner la technologie appelée Storage Spaces, qui va devenir extrêmement intéressante avec Windows Serveur 2012 R2 (notamment via l'arrivée du storage tiering, qui permet d'améliorer les perfs avec un lot de SSD en "frontal" )

 

Cette techno permet d'utiliser de " simples " baies JBOD SAS, toute l'intelligence du stockage étant gérée sans surcoût par Windows Server.

 

Pour peu qu'on veuille assumer le paramétrage logiciel, et couplé à la techno Scale Out File Server, on peut diviser plusieurs fois la facture d'un SAN classique pour des performances au moins équivalentes.

 

Quelques exemples d'architecture : http://www.dataonstorage.com/datao [...] tions.html

 

Pour ce qui est du 1Gb vs 10Gb : on peut s'en tirer en agrégeant les liens 1000 pour une petite infra mais le 10000 est fortement conseillé et sera plus future-proof.

 

Par contre il n'est pas forcément utile de déployer du 10gb ailleurs qu'entre les hôtes et le SAN (ou dans le cas de storages spaces, le SOFS) donc ça limite le nombre de ports nécessaires. (compter 2 port par hôte, idem pour pour les serveurs du SOFS, et deux switchs pour la tolérance de panne et l’aggregation.


Message édité par Arthur OH le 17-10-2013 à 18:04:39
n°115263
ledub
Posté le 17-10-2013 à 10:05:12  profilanswer
 

vu les prix du 10Go, aggrege 4 liens 1 Go et tu m'appelles qd tu satureras ...  :pt1cable:

n°115295
juju159
Posté le 17-10-2013 à 16:50:47  profilanswer
 

Question bête et pour ma culture personnel: dans ce cas la, n'importe quel switch Giga suffit ou pas?
Y a-t-il un config spéciale à faire sur les switch?

n°115304
Arthur OH
www.openhost.fr
Posté le 17-10-2013 à 18:07:39  profilanswer
 

ledub a écrit :

vu les prix du 10Go, aggrege 4 liens 1 Go et tu m'appelles qd tu satureras ...  :pt1cable:

 

Avec des concentrations qui tendent aujourd'hui vers 256Go, et bientôt 512Go de Ram par serveur physique, crois-moi c'est vite fait.  ;)


Message édité par Arthur OH le 17-10-2013 à 18:08:32
n°115305
Misssardon​ik
prévisible a posteriori
Posté le 17-10-2013 à 18:47:10  profilanswer
 

quel rapport ? on parle de réseau de stockage là...


---------------
Que va-t-il se passer cette gelgamar ? vous le découvrirez janamont à 20h
n°115306
Je@nb
Modérateur
Kindly give dime
Posté le 17-10-2013 à 19:12:53  profilanswer
 

D'ailleurs je serais intéressé par savoir à partir de cb de port Gb c'est plus intéressant de prendre un port 10Gb en prenant tout en compte (faut plus de switch, plus de power, plus de gestion, plus de cables etc)


Message édité par Je@nb le 17-10-2013 à 19:20:45
n°115311
Arthur OH
www.openhost.fr
Posté le 17-10-2013 à 20:41:54  profilanswer
 

Misssardonik a écrit :

quel rapport ? on parle de réseau de stockage là...

 

Plus tu as de RAM par noeud de virtualisation, plus tu as de VM/workload dessus qui ont besoin d'accéder au stockage et donc la taille du tuyau nécessaire pour chaque host augmente.

 


Je@nb a écrit :

D'ailleurs je serais intéressé par savoir à partir de cb de port Gb c'est plus intéressant de prendre un port 10Gb en prenant tout en compte (faut plus de switch, plus de power, plus de gestion, plus de cables etc)

 

En environnement rack avec une densité élevée (>=2 nœuds par U), je pense qu'on est limité par le nombre de ports PCIe avant d'arriver au break-even point. Donc pour l'instant je pense qu'on le fait plus part besoin de perf que d'économies.

Message cité 1 fois
Message édité par Arthur OH le 17-10-2013 à 20:52:41
n°115333
ChaTTon2
Je l'aime !
Posté le 18-10-2013 à 11:46:13  profilanswer
 

Arthur OH a écrit :

 

Plus tu as de RAM par noeud de virtualisation, plus tu as de VM/workload dessus qui ont besoin d'accéder au stockage et donc la taille du tuyau nécessaire pour chaque host augmente.

 



 
Arthur OH a écrit :

 

En environnement rack avec une densité élevée (>=2 nœuds par U), je pense qu'on est limité par le nombre de ports PCIe avant d'arriver au break-even point. Donc pour l'instant je pense qu'on le fait plus part besoin de perf que d'économies.


Suis pas sûr d'avoir compris ta première remarque. Plus tu as de RAM, plus tu as de VM ?

 

Ce que j'ai du mal à comprendre ... C'est pourquoi le nombre de VM justifie une utilisation. Certes, il y a le trafic système, mais qui est quand même dérisoire. Ca dépend, SELON MOI, du type d'applis que tu habrites, comme le disent certains, un serveur DB aura pas les même besoin de performance qu'un serveur de fichier. Le premier va tirer sur les IOP/S séquentielles, quand le second pourra peut être avoir plus besoin de débit. non ?


Message édité par ChaTTon2 le 18-10-2013 à 11:48:46

---------------
Mon feed-back : http://forum.hardware.fr/hfr/Achat [...] 1974_1.htm
n°115339
Arthur OH
www.openhost.fr
Posté le 18-10-2013 à 12:01:39  profilanswer
 

La logique me parait pourtant simple :)

 

Tu as un cluster Hyper-V, 8 Noeuds, avec chacun :

 

2x   4 cores CPU
128Go de RAM
4x Gigabit port

 

Tu le remplaces par un cluster 4 noeuds, avec chacun :
2x    8 cores CPU
256Go de RAM

 

On est d'accord que si tu gardes 4 liens gigabit par serveur, tu divises par 2 la quantité de bande passante disponible alors que tu as toujours autant de VM qui tournent sur ton cluster ?

 

Edit : bien évidemment on ne dimensionne pas son stockage en fonction du nombre de VM, c'est juste pour expliquer le lien entre la densité croissante dans les datacenters et la nécessité de déployer du 10Gb


Message édité par Arthur OH le 18-10-2013 à 12:09:17
n°115348
ChaTTon2
Je l'aime !
Posté le 18-10-2013 à 14:12:55  profilanswer
 

ben pour moi non ... Tu avais 4 brins Gbs et ensuite tu as 4 brins Gbps ...
 
Tu rapproches les cores (Threads ?) du serveur Hôte au LAN ? Mais si ton nombre de VMProc est inchangé ...


---------------
Mon feed-back : http://forum.hardware.fr/hfr/Achat [...] 1974_1.htm
n°115354
ledub
Posté le 18-10-2013 à 15:15:51  profilanswer
 

il faut regarder quels sont tes besoins en bande passante et ton budget ...
est ce que ton infra va évoluer , est ce que ca va rester stable ...

n°115361
Arthur OH
www.openhost.fr
Posté le 18-10-2013 à 16:17:06  profilanswer
 

ChaTTon2 a écrit :

ben pour moi non ... Tu avais 4 brins Gbs et ensuite tu as 4 brins Gbps ...

 

Tu rapproches les cores (Threads ?) du serveur Hôte au LAN ? Mais si ton nombre de VMProc est inchangé ...

 

:pt1cable:

 

Dans le premier exemple mon cluster avait :

 

1024 Go de RAM (8x128)
32Gbs sur le réseau SAN (8x4)

 

Si on prends une moyenne de 10go de RAM par VM ça fait 1024/10=102 Machines vituelles.
Qui se partagent donc 32Gbs soit 32/102=314Mbs en moyenne par VM

 

Dans le deuxième exemple mon cluster a :

 

1024 Go de RAM (4x256) donc autant de VM

 

Si on reste à 4 lien Gb par hôte, et vu qu'on a plus que 4 hôtes, ça nous donne un total de 4x4= 16Gbs sur le réseau SAN.
Soit 16/102= 157Mbs par VM en moyenne par VM

 

Donc pour garder le même débit dans le deuxième cluster, il lui faudrait 8 liens gigabit par hôte, juste pour le réseau de stockage.

 



Message édité par Arthur OH le 18-10-2013 à 17:22:07
n°115363
ChaTTon2
Je l'aime !
Posté le 18-10-2013 à 16:40:00  profilanswer
 

Au temps pour moi j'avais pas vue le nombre de nœuds ! Je pensais que tu parlais de toucher la mémoire ...
 
Effectivement 40 machine sur 8 hotes avec 4 * 1 Gbps c'est pas pareil que 4 hotes avec les même connexions ....  


---------------
Mon feed-back : http://forum.hardware.fr/hfr/Achat [...] 1974_1.htm
mood
Publicité
Posté le   profilanswer
 


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Systèmes & Réseaux Pro
  Stockage

  SAN Giga ou 10 Giga

 

Sujets relatifs
Stockage NAS/SAN pour plateforme webPB cible iSCSI SAN pour 2 EXSi
HP SAN msa2000 several disks failed vdisk offlinerépliquat SAN HP
deploiement SAN certificateVmware esx 5 et SAN
Virtualisation - Choix SAN EquallogicBaie San HP P2000 - Extension Volume
Choix NAS/SAN (EMC VNXe vs NetApp FAS2200 vs Dell NX3200) 
Plus de sujets relatifs à : SAN Giga ou 10 Giga


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR