Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1516 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13
Auteur Sujet :

[Topic ZFS] ZFS on Linux et BSD - débats/questions

n°1378934
Profil sup​primé
Posté le 15-07-2015 à 11:49:03  answer
 

Reprise du message précédent :

LimDul a écrit :

Je viens de trouver LE manuel du zfs en version plus récente :
http://docs.oracle.com/cd/E26919_01/pdf/E25822.pdf
 
Page 119 :

Citation :

Remplacement d'un disque dans un pool racine ZFS
Vous pouvez être amené à remplacer un disque dans le pool racine pour les raisons suivantes :
■ Le pool racine est trop petit et vous souhaitez le remplacer par un disque plus grand.
■ Le disque du pool racine est défectueux


 
Donc j'ai la confirmations que l'on peut remplacer un disque par un plus grand.
Reste à "m’initier" au pool, zpool, vdev et tout ça pour savoir comment fonctionne l'ajout de disques et si c'est dans le sens que je désire.
 
Merci.


:hello:  Nous on fais des expand/gros de zpool, mais on est en solaris/sparc... Notre procedure (si ca vous aide):
 
Contexte: on a des disques dans un SAN, donc quand on presente un LUN de 80GB et qu'on fait un expand dans la baie de disque, il faut ensuite instruire l'OS que ses disques sont plus gros.
 

Solaris 11 san expand zpool zfs :
 
# Original situation:
[bsto@g-t5-prod6 ~ ] zpool list
NAME                SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
DATAHUB_PARKING    79.5G  35.9G  43.6G  45%  1.00x  ONLINE  -
 
 
# Check if zpool is on autoexpand - set to "on"
[bsto@g-t5-prod6 ~ ] nus zpool get autoexpand DATAHUB_PARKING
NAME             PROPERTY    VALUE  SOURCE
DATAHUB_PARKING  autoexpand  off    default
 
[bsto@g-t5-prod6 ~ ] nus zpool set autoexpand=on DATAHUB_PARKING
 
# Shake disks
nus cfgadm -al
 
# Change partition
[bsto@g-t5-prod6 ~ ] nus format c0t60050768028081118C00000000000200d0
p - partition
expand
# answer yes soeur
 
# Check (p)
(s2 should have grown [expanded {bigger}])
BEFORE:
Part      Tag    Flag     Cylinders         Size            Blocks
  0       root    wm       0 - 10237       79.98GB    (10238/0/0) 167739392
  1       swap    wu       0                0         (0/0/0)             0
  2     backup    wu       0 - 10237       79.98GB    (10238/0/0) 167739392
 
AFTER VIAGRA:
Part      Tag    Flag     Cylinders         Size            Blocks
  0       root    wm       0 - 10237       79.98GB    (10238/0/0) 167739392
  1       swap    wu       0                0         (0/0/0)             0
  2     backup    wu       0 - 12157       94.98GB    (12158/0/0) 199196672
 
 
# Change slice 0
0
<ENTER>
<ENTER>
<ENTER>
$ (take everything)
la
-> y (it will complain if the device is in-use -> don't give a damn)
 
q
-> profit!
 
[bsto@g-t5-prod6 ~ ] zpool list DATAHUB_PARKING
NAME              SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
DATAHUB_PARKING  94.5G  35.9G  58.6G  37%  1.00x  ONLINE  -

mood
Publicité
Posté le 15-07-2015 à 11:49:03  profilanswer
 

n°1378993
LimDul
Comment ça j'ai tort ?
Posté le 18-07-2015 à 01:17:54  profilanswer
 

Je pense que je vais me diriger vers du ZFS.
Questions sur le RAIDZ3 :
Bien, pas bien ?
Trop jeune ou pas ?
Stable ?
Pour finir : je vais créer un serveur de stockage avec 8 disques, raidz2 ou raidz3 ?
Je ne trouve pas de recommandation pour 8 disques.
6 disques c'est raidz2 conseillé et 9 disques c'est raidz3, mais je trouve pas pour 8.

 


EDIT : j'avais pas vu le "AFTER VIAGRA:" ^^


Message édité par LimDul le 18-07-2015 à 01:19:04

---------------
Liberkey, colection d'utilitaires sur clef USB / Silverstone DS380 - Mini tour ITX 8 baies Hot-swap 3.5"
n°1379168
LOL POLARI​SE
cadre en trading
Posté le 23-07-2015 à 20:43:16  profilanswer
 


 
Moi je fais
 

zpool online -e <pool> <disk>


 
Et ça marche très bien, pas besoin de format et tout le toutim.


---------------
Le monsieur arrive.
n°1379176
Profil sup​primé
Posté le 24-07-2015 à 07:40:21  answer
 

LOL POLARISE a écrit :

 

Moi je fais

 

zpool online -e <pool> <disk>

 

Et ça marche très bien, pas besoin de format et tout le toutim.


Tu presentes surement le s2 (ou simplement, tout le disque) a ton pool -> c'est niet dans ma boite. On slice le disque pour n'avoir qu'un s0 qui fait toute la taille du disque et on l'inclu dans le pool.

 


Edit: et apres un test (avec un pool qui utilise un s0) -> ca ne fait rien

Message cité 1 fois
Message édité par Profil supprimé le 24-07-2015 à 10:06:20
n°1379183
LimDul
Comment ça j'ai tort ?
Posté le 24-07-2015 à 16:32:51  profilanswer
 

ça y est j'ai retrouvé la recomandation type de raidz/nombre de disque (ou inversement) :

 

http://www.solarisinternals.com/wi [...] mendations

 

Comme 8 disques c'est plus proches de 9 que de 6 je vais me baser sur de la triple parité.

  

EDIT :
Je trouve pas grand chose sur la fragmentation des fichiers avec du ZFS.
Vos avis ?


Message édité par LimDul le 24-07-2015 à 16:33:42

---------------
Liberkey, colection d'utilitaires sur clef USB / Silverstone DS380 - Mini tour ITX 8 baies Hot-swap 3.5"
n°1379185
sligor
Posté le 24-07-2015 à 16:41:23  profilanswer
 

Non pour 8 disques tu peux rester sur du raidz2 (6+2)
 
du raidz3 avec 8 disques c'est pas terrible comme configuration (5+3)


Message édité par sligor le 24-07-2015 à 16:42:08

---------------
qwerty-fr
n°1379196
LOL POLARI​SE
cadre en trading
Posté le 24-07-2015 à 18:28:24  profilanswer
 


 
Pourquoi c'est niet ? C'est beaucoup mieux pour zfs d'avoir tout le disque...


---------------
Le monsieur arrive.
n°1379219
Mysterieus​eX
Chieuse
Posté le 25-07-2015 à 05:19:21  profilanswer
 

LOL POLARISE a écrit :


 
Pourquoi c'est niet ? C'est beaucoup mieux pour zfs d'avoir tout le disque...


 
Parce qu'ils présentent des LUN et pas des disques a ZFS, leurs baies n'est pas une JBOD sur laquelle il font tourner ZFS : c'est un SAN qu'ils fractionnent pour présenter les LUN a leurs stations solaris/sparc (ou serveurs).
 
En gros, ils font des Zpool de LUN <_<. T'as déjà vue inception ? Ben c'est pareil : un cube dans un cube dans un cube ... xD
Se qu'il appelle disque c'est une LUN. (qui soit dit en passant doit très certainement être un container logique mais les disques doivent être formattés en ZFS en natif suivant la marque du SAN <_< )

n°1379222
LOL POLARI​SE
cadre en trading
Posté le 25-07-2015 à 10:58:36  profilanswer
 

Ben nous on a ça aussi, dell compellent ou emc clariion, SAN FC. Y a pas de filesystem sur la baie, et un disque = 1 LUN, et on crée un zpool dessus. Opérationnellement c'est beaucoup plus simple.


---------------
Le monsieur arrive.
n°1379223
Mysterieus​eX
Chieuse
Posté le 25-07-2015 à 12:15:13  profilanswer
 

LOL POLARISE a écrit :

Ben nous on a ça aussi, dell compellent ou emc clariion, SAN FC. Y a pas de filesystem sur la baie, et un disque = 1 LUN, et on crée un zpool dessus. Opérationnellement c'est beaucoup plus simple.


 
Le firmware de ton SAN a forcément un FS sur les disques, mais ça t'es pas forcément censé le savoir. Souvent, c'est du ZFS ou assimilé (OneFS/Celerra/SFS pour EMC, IntelliSnap/FluidFS pour Dell par exemple.) Un disque ne peut être utilisé en mode "raw" dans un SAN. :)
Niveau perf, c'est assez bof au final, vue l'overhead de faire 1 disque = 1 lun. A ce tarif, autant prendre des baies JBOD en direct parce que tu rajoute l'overhead du SAN + overhead IB/FC/ethernet dessus + exposition + overhead ZFS, au final sur le disque en lui même tu perd 40% de perfs a cause de ces overheads qui s'empilent.
ZFS c'est fait pour être exposé en direct, ou au pire a faire un SAN derrière un FS type Lustre.  
 
 :ange:

mood
Publicité
Posté le 25-07-2015 à 12:15:13  profilanswer
 

n°1379236
LOL POLARI​SE
cadre en trading
Posté le 25-07-2015 à 20:25:07  profilanswer
 

Je vérifierai ça me paraît louche ton histoire de fs, jamais entendu parler de ça.
 
Sinon quand je dis un disque = une lun je parle pas d'un disque physique. Sur une compellent par exemple, une lun va être composée de blocks répartis sur tous les disques physiques d'un même tier, pour maximiser le nombre d'axe.
 
C'est côté OS (en faisant echo | format) que tu verras 1 disque par lun ajoutée. Et c'est recommandé par Dell ET Oracle de créer un seul zpool sur chacune de ces luns (et pas au niveau des slices).


---------------
Le monsieur arrive.
n°1379238
Mysterieus​eX
Chieuse
Posté le 25-07-2015 à 21:20:55  profilanswer
 

LOL POLARISE a écrit :

Je vérifierai ça me paraît louche ton histoire de fs, jamais entendu parler de ça.
 
Sinon quand je dis un disque = une lun je parle pas d'un disque physique. Sur une compellent par exemple, une lun va être composée de blocks répartis sur tous les disques physiques d'un même tier, pour maximiser le nombre d'axe.
 
C'est côté OS (en faisant echo | format) que tu verras 1 disque par lun ajoutée. Et c'est recommandé par Dell ET Oracle de créer un seul zpool sur chacune de ces luns (et pas au niveau des slices).


 
Comme ça c'est plus clair ... Et évite de me prendre pour une quiche, je connais bien les termes LUN etc ... Puisque j'en ai conçue des SAN.  :ange:  
Donc, quand a l'origine tu dis un disque = 1 LUN, c'est un abus de langage, utilise les bons termes.
 
Pour être parfaitement exacte on parle de slice : on ne slice pas sous ZFS, soit pas de slice de LUN, ni de disques. Et on évite les LUN de 20 disques (connerie en branche).
 
Plus l'infra est grosse, moins on a intérêt a utiliser du SAN si on a du ZFS, la finalité étant d'avoir 16 baies jbod raccordées en SAS de 240 disques (exemple des baies fujitsu eternus JX60) sur un node et qu'il envoie son steak en IB.
1 baie = 1 vdev.

n°1379239
LOL POLARI​SE
cadre en trading
Posté le 25-07-2015 à 22:10:35  profilanswer
 

MysterieuseX a écrit :


 
Comme ça c'est plus clair ... Et évite de me prendre pour une quiche, je connais bien les termes LUN etc ... Puisque j'en ai conçue des SAN.  :ange:  
Donc, quand a l'origine tu dis un disque = 1 LUN, c'est un abus de langage, utilise les bons termes.
 
Pour être parfaitement exacte on parle de slice : on ne slice pas sous ZFS, soit pas de slice de LUN, ni de disques. Et on évite les LUN de 20 disques (connerie en branche).
 
Plus l'infra est grosse, moins on a intérêt a utiliser du SAN si on a du ZFS, la finalité étant d'avoir 16 baies jbod raccordées en SAS de 240 disques (exemple des baies fujitsu eternus JX60) sur un node et qu'il envoie son steak en IB.
1 baie = 1 vdev.


 
Je te prends pas pour une quiche. Désolé mais je vois pas pourquoi tu m'as repris alors si je me base sur ce que tu dis (et notamment "on ne slice pas sur zfs" ), c'est exactement ce que j'ai répondu à ktulu.


---------------
Le monsieur arrive.
n°1379244
asmomo
Posté le 26-07-2015 à 01:36:09  profilanswer
 

LimDul : pour ma part je suis en RAIDZ3 depuis 2 ans.

 

Au début 1 vdev de 19*2To. Le plus efficient d'après mes calculs.

 

J'ai récemment ajouté 2 vdev : 2*19*4To.

 

Et là je suis en train de remplacer un par un les 2To d'origine par des 3To. ça resilver à 2,5Go/s, mais chaque resilver lit toute l'array donc ça reste un poil long.

 

Par contre c'est du ZFS natif (OpenIndiana).

Message cité 1 fois
Message édité par asmomo le 26-07-2015 à 01:36:32

---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1379245
el_barbone
too old for this shit ...
Posté le 26-07-2015 à 02:28:34  profilanswer
 

je vote mystx ... mais bon, comme en SAN j'y connais rien, je me melerais pas à ce débat d'experts.

n°1379247
LimDul
Comment ça j'ai tort ?
Posté le 26-07-2015 à 11:00:41  profilanswer
 
n°1379248
LOL POLARI​SE
cadre en trading
Posté le 26-07-2015 à 11:02:29  profilanswer
 

el_barbone a écrit :

je vote mystx ... mais bon, comme en SAN j'y connais rien, je me melerais pas à ce débat d'experts.


 
Choisis ton camp camarade :o


---------------
Le monsieur arrive.
n°1379249
Mysterieus​eX
Chieuse
Posté le 26-07-2015 à 11:39:08  profilanswer
 

LOL POLARISE a écrit :


 
Je te prends pas pour une quiche. Désolé mais je vois pas pourquoi tu m'as repris alors si je me base sur ce que tu dis (et notamment "on ne slice pas sur zfs" ), c'est exactement ce que j'ai répondu à ktulu.


 
J'ai juste repris les termes étymologiquement exacts :) (tant qu'a faire, autant utiliser le bon vocabulaire, parce que ça peut être trompeur de dire qu'un disque c'est une LUN et inversement : c'est ton mode de fonctionnement et ce cas particulier ne s'applique qu'a toi :) )

n°1379250
Mysterieus​eX
Chieuse
Posté le 26-07-2015 à 11:43:53  profilanswer
 

asmomo a écrit :

LimDul : pour ma part je suis en RAIDZ3 depuis 2 ans.
 
Au début 1 vdev de 19*2To. Le plus efficient d'après mes calculs.
 
J'ai récemment ajouté 2 vdev : 2*19*4To.
 
Et là je suis en train de remplacer un par un les 2To d'origine par des 3To. ça resilver à 2,5Go/s, mais chaque resilver lit toute l'array donc ça reste un poil long.
 
Par contre c'est du ZFS natif (OpenIndiana).


 
Tu peu aller plus vite pour le resilver : tu change les disques a parité max, et une fois que t'as changer tout les disques, seulement tu resilver, vue ta volumétrie, ça fait 4 changements de disques et 1 resilver. Sinon, tu change tes spares en premier et tu bascule les données dessus et tu resilver au dernier changement de disque.

n°1379253
LOL POLARI​SE
cadre en trading
Posté le 26-07-2015 à 12:25:42  profilanswer
 

MysterieuseX a écrit :


 
J'ai juste repris les termes étymologiquement exacts :) (tant qu'a faire, autant utiliser le bon vocabulaire, parce que ça peut être trompeur de dire qu'un disque c'est une LUN et inversement : c'est ton mode de fonctionnement et ce cas particulier ne s'applique qu'a toi :) )


 
:)
 
Mais du coup, je capte toujours pas pourquoi il associe pas son zpool à une LUN, et comme ça il pourrait faire
 
zpool online -e <pool> c0tXXXd0
 
au lieu de se faire chier à aller dans format... Typiquement nous on a un script qui fait toute la chaîne (création de lun sur la baie via l'api puis création du zpool), on l'utilise pas parce qu'on a un peu peur que le support fasse nimp avec mais ça fonctionne nickel.


---------------
Le monsieur arrive.
n°1379265
LimDul
Comment ça j'ai tort ?
Posté le 26-07-2015 à 17:54:48  profilanswer
 

Probablement la dernière question avant que je ne me décide :
Peut-on utiliser des disques au caractéristiques différentes dans un même vdev ?
 
Comme ça je dirais que oui car on peu agrandir un vdev en changeant par des disques plus grands.
Mais là je vais mélanger 3 marques différentes avec des vitesses de rotation et des caches différents ainsi que sata2 et sata3.
Mais je mélange pas sata et sas.
 
Perso je pense que ça vas faire comme avec un mélange de barrettes de mémoire différentes : alignement sur les plus petites performances.
Mais j’aimerai avoir vos avis


---------------
Liberkey, colection d'utilitaires sur clef USB / Silverstone DS380 - Mini tour ITX 8 baies Hot-swap 3.5"
n°1379275
Mysterieus​eX
Chieuse
Posté le 26-07-2015 à 23:01:48  profilanswer
 

LOL POLARISE a écrit :


 
:)
 
Mais du coup, je capte toujours pas pourquoi il associe pas son zpool à une LUN, et comme ça il pourrait faire
 
zpool online -e <pool> c0tXXXd0
 
au lieu de se faire chier à aller dans format... Typiquement nous on a un script qui fait toute la chaîne (création de lun sur la baie via l'api puis création du zpool), on l'utilise pas parce qu'on a un peu peur que le support fasse nimp avec mais ça fonctionne nickel.


 
En gros, il ne rajoute pas un slice a son vdev/pool quand il expand, mais il étend le "slice" existant, sauf qu'on s'en fou un peu dans le topoc, ça tire pas franchement partie de ZFS au final, c'est du stockage "classique" sur SAN au format ZFS (son lun datahub_parking est vue comme un dev simple non slice monté en backup). Il "resilver" via format sur un pool d'un disque au final.
 
En fait pour étendre un dev, t'as deux choix : tu rajoute des disques/lun et tu expand dessus (scrub/silver, se que tu fait), où tu agrandis ton lun existant directement dans le SAN et tu reformate pour dire a l'OS que le disque est plus grand (se qu'il fait).
Les deux choix sont valables même si en SAN, sa solution est plus "propre" (après tout comme j'ai dis, l'intérêt de faire des vdev/zpool de LUNs est quasiment nul). La tienne est valable si tu a du multi baie et que tu veuille par exemple stocker un chunk de parité sur une baie et un chunk sur une autre (=meilleurs résilience si défaillance d'une baie complète).
 
Dans un cas, comme dans l'autre, ça reste assez contre productif ou économiquement non viable sur le long terme (puisque un jour ou l'autre tu sera amené a te passer du SAN et partir sur du node custom pour augmenter tes perfs I/O et mieux contrôler tes disques).

n°1379276
LOL POLARI​SE
cadre en trading
Posté le 26-07-2015 à 23:18:07  profilanswer
 

MysterieuseX a écrit :


 
En fait pour étendre un dev, t'as deux choix : tu rajoute des disques/lun et tu expand dessus (scrub/silver, se que tu fait), où tu agrandis ton lun existant directement dans le SAN et tu reformate pour dire a l'OS que le disque est plus grand (se qu'il fait).  
 


 
Mais moi, j'agrandis mon lun dans le san, et ensuite je fais zpool online -e. Sauf qu'à zfs à la base je lui ai présenté le d0 et pas le d0sX.
 
# créer lun sur baie
# puis
zpool create mypool c0tXXd0
 
# expand lun sur baie
# puis
zpool online -e mypool c0tXXd0
 
Et quand j'agrandis mon lun, je mets pas plus de disque dedans ni rien, et je la stripe pas avec une autre lun non plus. Mon lun est composé de blocks répartis sur tous les disques de la baie (ça c'est transparent pour moi en fait), et je dis juste maintenant tu fais pas 200go mais 250.
 
Je suis d'accord pour le node custom mais faudra l'expliquer à mon CIO (ou attendre qu'il parte à la retraite) parce que pour lui le SAN c'est la vie... Avec genre 10% de données vraiment utiles stockées sur le SAN on continue de capitaliser à mort dessus c'est ridicule.


---------------
Le monsieur arrive.
n°1379282
Profil sup​primé
Posté le 27-07-2015 à 08:13:23  answer
 

LOL POLARISE et MysterieuseX>
 
Les raisons d'utiliser des slices au lieu du disques sont et de une, historique (on ne change pas les habitudes d'une boite comme ca) et de deux:
 
Apres des tests sous Solaris 11.1, un zpool sur un LUN comprenant tout le disque (disons c0t0d0 sans preciser de slicing), marche nickel, jusqu'a un expand du LUN -> bizarrement, on a le zpool qui merde et on plante tout, jusqu'a reboot du host -> pas bien!
A la base, j'etais un fervent adepte du -> le disque entier pour le zpool, jusqu'aux tests qui ont revele ce bug. La j'ai en effet vu que c'etait pas une bonne idee, d'ou le slicing.
 
Pour l'idee d'utiliser toute une baie de disque en jbod, c'est une bonne idee mais rendue nulle sur des baies de disque IBM qui virtualisent le brol et mettent du cache partout. On n'a plus de jbod pur contrairement aux anciennes DS. On rajoute a ca que notre infra n'est pas 100% ZFS et on reste donc contraint d'utiliser la methode traditionelle LUN -> host.

n°1379291
sligor
Posté le 27-07-2015 à 10:48:59  profilanswer
 

c'est légèrement HS, mais vu qu'il y a des gens trapus sur le sujet ici:
j'aimerais avoir plus de connaissances dans les infrastructures de stockage DAS/NAS/SAN/NFS/Backup etc...  
Il y a de bon bouquins à jour sur le sujet ? des site où aller ? des forum anglophones avec des gens compétents ?
 
j'ai l'impression que la catégorie sys & réseaux pro est à moitié morte sur HFR.
 
Un exemple de question que je me pose: je ne comprends pas pourquoi les baie de stockage/extension DAS de Dell sont si chères, c'est juste un boitier, alim redondée et un contrôleur SAS, non ?

Message cité 3 fois
Message édité par sligor le 27-07-2015 à 10:49:11

---------------
qwerty-fr
n°1379297
el_barbone
too old for this shit ...
Posté le 27-07-2015 à 11:40:58  profilanswer
 

sligor a écrit :

c'est légèrement HS, mais vu qu'il y a des gens trapus sur le sujet ici:
j'aimerais avoir plus de connaissances dans les infrastructures de stockage DAS/NAS/SAN/NFS/Backup etc...  
Il y a de bon bouquins à jour sur le sujet ? des site où aller ? des forum anglophones avec des gens compétents ?
 
j'ai l'impression que la catégorie sys & réseaux pro est à moitié morte sur HFR.
 
Un exemple de question que je me pose: je ne comprends pas pourquoi les baie de stockage/extension DAS de Dell sont si chères, c'est juste un boitier, alim redondée et un contrôleur SAS, non ?


 
C'est surtout rempli de gens qui n'y connaissent rien et racontent n'importe quoi ...


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
n°1379300
Plam
Bear Metal
Posté le 27-07-2015 à 12:19:37  profilanswer
 

el_barbone a écrit :


 
C'est surtout rempli de gens qui n'y connaissent rien et racontent n'importe quoi ...


 
Un peu comme dans la vraie vie quoi...


---------------
Spécialiste du bear metal
n°1379301
el_barbone
too old for this shit ...
Posté le 27-07-2015 à 12:20:21  profilanswer
 

Plam a écrit :


 
Un peu comme dans la vraie vie quoi...


spafaux :D


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
n°1379302
l0g4n
Expert en tout :o
Posté le 27-07-2015 à 12:49:46  profilanswer
 

sligor a écrit :


j'aimerais avoir plus de connaissances dans les infrastructures de stockage DAS/NAS/SAN/NFS/Backup etc...  
Il y a de bon bouquins à jour sur le sujet ? des site où aller ? des forum anglophones avec des gens compétents ?


Quand j'ai demandé, MystX m'a gentiment redirigée vers les formations de M. MystX :o


---------------
Fort et motivé. Sauf parfois.
n°1379312
sligor
Posté le 27-07-2015 à 17:05:54  profilanswer
 

s'il y a un lien qui en présente rapidement le contenu/prix je suis preneur  :o


Message édité par sligor le 27-07-2015 à 17:06:24

---------------
qwerty-fr
n°1379324
el_barbone
too old for this shit ...
Posté le 27-07-2015 à 22:43:39  profilanswer
 

le mieux ça reste de parcourir les forums spécialisés (anglophones) et les user group sur le domaine.
les groupes de discussion sur LinkedIn aussi (tri à faire néanmoins, parmi les réponses et les interlocuteurs).
sinon, quelques experts de haut niveau peuvent trainer sur ce forum ...

n°1379502
sligor
Posté le 03-08-2015 à 17:14:37  profilanswer
 

je suis en train de refaire des tests sur zfsonlinux pour voir si je retrouve les mêmes problèmes qu'il y a 6 mois. (normalement ça devrait être corrigé vus les rapports de bug fermés et les commits effectués)
hâte de pouvoir l'utiliser en prod, mais avant il faut que je prouve sa robustesse.
 
 
edit: pour ceux qui seraient intéressé, un de mes testcase: (on récupère les sources de linux et on lance 200 copie du répertoire en // )
 

Code :
  1. for i in {1..200}; do cp -R linux linux-$i & done;


c'est barbare mais ça avait bien marché (pour le faire crasher) la première fois :D
 
config de test: debian stable + zfsonlinux + raidz2 de 6 disques + l2arc sur ssd + cpu 4 cores/8thread
 
edit: ça a l'air de beaucoup mieux marcher maintenant :)


Message édité par sligor le 04-08-2015 à 13:56:13

---------------
qwerty-fr
n°1379538
sligor
Posté le 04-08-2015 à 13:57:14  profilanswer
 

https://github.com/Traviis/htop/com [...] 2bc615fdee
 
on peut compiler htop pour prendre en compte le cache zfs (ARC), il faut appliquer le patch ci-dessus et rajouter --enable-zfs-cache-awareness au "configure"
 
=> rajouté en première page


Message édité par sligor le 04-08-2015 à 14:04:35

---------------
qwerty-fr
n°1379571
LOL POLARI​SE
cadre en trading
Posté le 05-08-2015 à 09:47:09  profilanswer
 

sligor a écrit :


 
Un exemple de question que je me pose: je ne comprends pas pourquoi les baie de stockage/extension DAS de Dell sont si chères, c'est juste un boitier, alim redondée et un contrôleur SAS, non ?


 
Quelle baie pour quel prix par exemple ?
 
2 indices possibles : Les prix publics sont souvent largement au dessus du prix final pour tromper l'ennemi. De plus sur certaines baies il y a quand même pas mal de fonctionnalités comme de l'auto-tiering, de la dédup, des migrations à chaud de baie à baie voire de la haute dispo cross-site...


---------------
Le monsieur arrive.
n°1379572
LOL POLARI​SE
cadre en trading
Posté le 05-08-2015 à 09:48:19  profilanswer
 


 
Ah ok. Bizarre j'ai jamais eu ce bug, t'es sur que ça a pas été corrigé depuis ? T'as jamais vu avec le support ce qu'ils en disent ?


---------------
Le monsieur arrive.
n°1379574
Profil sup​primé
Posté le 05-08-2015 à 11:31:34  answer
 

LOL POLARISE a écrit :


 
Ah ok. Bizarre j'ai jamais eu ce bug, t'es sur que ça a pas été corrigé depuis ? T'as jamais vu avec le support ce qu'ils en disent ?


Bah le support Oracle est plutot bof ces temps-ci, donc...
 
Ca m'avait aussi choque ce bug, moi qui voulais convaincre un collegue """legacy""" [:thektulu] que donner le disque c'etait bien... C'est peut-etre du a nos baies? (IBM Storwize) - mais c'etait un franco "je perd le pool" et plus moyen de l'exporter/destroy/nada.
 
J'en ai conclu que le resize touchait au private region du zpool  [:spamafote]

n°1379580
sligor
Posté le 05-08-2015 à 13:56:43  profilanswer
 

LOL POLARISE a écrit :


 
Quelle baie pour quel prix par exemple ?
 
2 indices possibles : Les prix publics sont souvent largement au dessus du prix final pour tromper l'ennemi. De plus sur certaines baies il y a quand même pas mal de fonctionnalités comme de l'auto-tiering, de la dédup, des migrations à chaud de baie à baie voire de la haute dispo cross-site...


genre du MD1200 12 baies le truc est "affiché" à 8k€.  
Et pour la dédup/migration chaud/haute dispo (hormis alim et chemins SAS redondants) je pensais que c'était fait plutôt par des boitiers SAN que par un simple DAS  :??:  
 
Et pareil pour le SAN/NAS j'ai du mal à trouver un boitier hard (sans le soft qui va avec) où je peux installer ma linux ou ma BSD custom. Ca serait pour de la PME avec utilisation en interne (pas d'accès par des clients) donc pas besoins de trucs de malades et super cher pour avoir de la ultra haute disponibilité.  (je pourrais détaillé ce que je veux, mais c'est surement pas le bon topic)
 
En vrai je suis un peut perdu par tout ça, je me demande si je ne devrais pas me faire payer une formation ou un consultant formateur.

Message cité 1 fois
Message édité par sligor le 05-08-2015 à 13:57:57

---------------
qwerty-fr
n°1379589
LOL POLARI​SE
cadre en trading
Posté le 05-08-2015 à 20:54:46  profilanswer
 

sligor a écrit :


genre du MD1200 12 baies le truc est "affiché" à 8k€.  
Et pour la dédup/migration chaud/haute dispo (hormis alim et chemins SAS redondants) je pensais que c'était fait plutôt par des boitiers SAN que par un simple DAS  :??:


 
Dedup et tout c'est pour des SAN oui mais tu as mis SAN aussi dans ton post initial. Je connais pas trop les prix des DAS.
 

sligor a écrit :

Et pareil pour le SAN/NAS j'ai du mal à trouver un boitier hard (sans le soft qui va avec) où je peux installer ma linux ou ma BSD custom. Ca serait pour de la PME avec utilisation en interne (pas d'accès par des clients) donc pas besoins de trucs de malades et super cher pour avoir de la ultra haute disponibilité.  (je pourrais détaillé ce que je veux, mais c'est surement pas le bon topic)


 
Regarde les boitiers Nexenta je sais pas si ça te conviendrait... Y a une distro qui vient avec basée sur illumos mais tu paies que si tu veux du support je crois. ZFS est natif sur illumos.
 

sligor a écrit :

En vrai je suis un peut perdu par tout ça, je me demande si je ne devrais pas me faire payer une formation ou un consultant formateur.


 
L'idéal ça serait d'avoir un bon support sur un produit que tu as pour le maîtriser à fond, nous on a de très bon contacts avec dell qui nous suivent de très près et mine de rien on monte bien en compétence, bon que sur un seul produit par contre.


---------------
Le monsieur arrive.
n°1379846
LimDul
Comment ça j'ai tort ?
Posté le 14-08-2015 à 10:26:39  profilanswer
 

Bonjour.
 
J'ai pas mal lu pour tenter de commencer à comprendre ce système de fichiers.
Je voudrai que vous puissiez me confirmer ou corriger ce que je pense avoir compris.
 
Déjà je vais commencer par les "définitions".
 
Pool de stockage ou zpool : un zpool est composé d'un ou plusieurs vdev et contient un ou plusieurs dataset ou jeu de données. Les données sont réparties entre les vdev comme dans un raid0 (mais avec des variation en fonction des performances et capacité des vdev) et donc si un vdev est perdu le zpool l'est aussi, on peux ajouter des vdev à un zpool mais pas en retirer. Il est conseillé d'utiliser dans un zpool des vdev de même types
 
Dataset ou jeu de données : "sorte de répertoire" (ou de partition, j'ai pas vraiment bien compris) permet de gérer les autorisations, les quotas, la compression et la déduplication, est stocké dans un zpool
 
zvol : disque virtuel accessible en iSCSI je n'ai pas compris dans quoi il est stocké (dans un dataset ou un zpool ?)
 
vdev : périphérique logique contenant un ou plusieurs HDD ou partitions, gère le raid0, raid1, raidz1, raidz2, raidz3. On ne peux pas ajouter ou retirer de disque/partition à un vdev (sauf pour le raid1 miroir où on peux en ajouter) le seul moyen pour l'agrandir (mais pas en cas de raid0) est de changer les disques par des plus grand en laissant le raid se reconstruire
 
Strip : type de vdev (comme raid0 ou raidz2), je n'ai pas compris si c'est du JBOD ou raid0 ou raid1
 
ARC : cache de lecture en RAM
 
L2ARC : cache de lecture sur un support rapide (HDD de 10 OU 15k rpm ou mieux SSD)
 
ZIL : cache d'écriture sauf en cas d'écriture synchrone, peux être déporté depuis la grappe zfs vers un support plus rapide, on parle alors de SLOG
 
 
Déjà, je voudrai savoir si j'ai bon ou pas pour ces définitions.
Ensuite, je voudrais des précisions sur les filesystem.
J'ai cru comprendre que l'on peux formater un filesystem dans un autre type : ext, fat, ntfs...
Mais je n'ai pas compris où (dans quoi) il est stocké, ni si on peux l’apparenter à un disque (et donc le partitionner) ou à une partition (et donc non).
Quelle est la différence avec les zvol ? Et donc les avantage de l'un et de l'autre ?
 
 
 
Les datasets.
J'ai cru comprendre que l'on peu ajouter la compression après coup mais que les données présentes ne  seront compressées qu'après leur modification et donc qu'il vaut mieux l'ajouter dés le début, de plus on peux aussi la retirer. Par contre pour la déduplication j'ai cru comprendre que contrairement à la compression que l'on peux ajouter/retirer on doit l'ajouter lors de la création et on ne peux la retirer sans détruire le dataset.
 
 
Merci à vous.


---------------
Liberkey, colection d'utilitaires sur clef USB / Silverstone DS380 - Mini tour ITX 8 baies Hot-swap 3.5"
n°1379861
LOL POLARI​SE
cadre en trading
Posté le 14-08-2015 à 19:02:24  profilanswer
 

Salut,
 

LimDul a écrit :


Pool de stockage ou zpool : un zpool est composé d'un ou plusieurs vdev et contient un ou plusieurs dataset ou jeu de données. Les données sont réparties entre les vdev comme dans un raid0 (mais avec des variation en fonction des performances et capacité des vdev) et donc si un vdev est perdu le zpool l'est aussi, on peux ajouter des vdev à un zpool mais pas en retirer. Il est conseillé d'utiliser dans un zpool des vdev de même types
 
Tu peux aussi faire du raidz au lieu du raid0 (sorte de raid5 logiciel géré par zfs), voire du raidz2 ou raidz3 (double/triple parité) ou du mirroring (raid 1)
 
Dataset ou jeu de données : "sorte de répertoire" (ou de partition, j'ai pas vraiment bien compris) permet de gérer les autorisations, les quotas, la compression et la déduplication, est stocké dans un zpool
 
Un dataset est un filesystem, on lui associe en général un répertoire de montage, ainsi que des propriétés/options comme tu l'as mis.
 
zvol : disque virtuel accessible en iSCSI je n'ai pas compris dans quoi il est stocké (dans un dataset ou un zpool ?)
 
Pas nécessairement accessible en iscsi.
 
Un zvol est un volume sous zfs. On le crée en dessous d'un zpool. Il peut servir de vdisk pour une machine virtuelle, ou une zone sur solaris par exemple. On peut créer par dessus un filesystem d'un autre type (ufs, ext...) voire même un autre zpool !

 
vdev : périphérique logique contenant un ou plusieurs HDD ou partitions, gère le raid0, raid1, raidz1, raidz2, raidz3. On ne peux pas ajouter ou retirer de disque/partition à un vdev (sauf pour le raid1 miroir où on peux en ajouter) le seul moyen pour l'agrandir (mais pas en cas de raid0) est de changer les disques par des plus grand en laissant le raid se reconstruire
 
cf au-dessus, le raidz est une propriété d'un zpool ; en fait vdev n'est même pas un terme associé au vocabulaire autour de zfs
 
Strip : type de vdev (comme raid0 ou raidz2), je n'ai pas compris si c'est du JBOD ou raid0 ou raid1
 
ARC : cache de lecture en RAM
 
L2ARC : cache de lecture sur un support rapide (HDD de 10 OU 15k rpm ou mieux SSD)
 
ZIL : cache d'écriture sauf en cas d'écriture synchrone, peux être déporté depuis la grappe zfs vers un support plus rapide, on parle alors de SLOG
 
 
Déjà, je voudrai savoir si j'ai bon ou pas pour ces définitions.
Ensuite, je voudrais des précisions sur les filesystem.
J'ai cru comprendre que l'on peux formater un filesystem dans un autre type : ext, fat, ntfs...
Mais je n'ai pas compris où (dans quoi) il est stocké, ni si on peux l’apparenter à un disque (et donc le partitionner) ou à une partition (et donc non).
Quelle est la différence avec les zvol ? Et donc les avantage de l'un et de l'autre ?
 
 
 
Les datasets.
J'ai cru comprendre que l'on peu ajouter la compression après coup mais que les données présentes ne  seront compressées qu'après leur modification et donc qu'il vaut mieux l'ajouter dés le début, de plus on peux aussi la retirer. Par contre pour la déduplication j'ai cru comprendre que contrairement à la compression que l'on peux ajouter/retirer on doit l'ajouter lors de la création et on ne peux la retirer sans détruire le dataset.
 
 
Merci à vous.


 
Pour clarifier sur tes questions, filesystem et dataset sont en fait les mêmes choses.
 
Tu as un disque par exemple /dev/dsk/c0t0d0.
Tu crées un zpool dessus : zpool create data c0t0d0
Ensuite tu crées tes datasets (ou filesystem) : zfs create data/home; zfs create data/home/limdul; zfs create data/shares
Ensuite (ou en passant les options à la création) tu peux changer les options :
zfs set mountpoint=/home data/home # par défaut le zfs data/home sera monté dans /data/home ; par ailleurs data est un zpool mais est aussi un zfs, monté dans /data par défaut ; tu peux aussi changer son point de montage
zfs set quota=1g data/home/limdul
zfs set compression=lz4 data # data est un zfs donc on peut lui appliquer la compression à lui ; les zfs "en dessous" hériteront de la propriété
 
un zvol ça sera du style :
zfs create -V 3g data/myzvol
 
Et un fichier /dev/zvol/dsk/data/myzvol apparaîtra que tu pourras formater en ce que tu veux, comme un disque physique, ou l'assigner à une vm, etc.
 
Pour faire du iscsi c'est encore autre chose il faut créer une target et tout, regarde dans les docs je connais pas de tête.
 
Attention pour partager en nfs il suffit pas de le mettre dans dfstab (exportfs sous linux ?) mais il faut aussi faire
zfs set sharenfs=on data/shares
(en samba l'option s'appelle sharesmb)
 


---------------
Le monsieur arrive.
n°1379862
LimDul
Comment ça j'ai tort ?
Posté le 14-08-2015 à 20:31:01  profilanswer
 

Oula avant de parler des commandes j'en suis encore juste à tenter de comprendre le vocabulaire et les concepts.

 
LOL POLARISE a écrit :

le raidz est une propriété d'un zpool ; en fait vdev n'est même pas un terme associé au vocabulaire autour de zfs

Alors là cela me perd encore plus.
Tu me dis que les vdev ça n'existe pas. Mais alors que comprendre de ceci :
http://www.durindel.fr/informatiqu [...] ocabulaire :

Citation :

Les vdev, point critique

 

On vient de voir qu’un pool (on dit parfois zpool) est constitué des disques dur, c’est en réalité un peu plus complexe et puissant que ça : un pool est en réalité constitué de un ou plusieurs vdev (pour virtual devices).

 

Les vdevs sont en quelque sorte des périphériques logiques regroupant un ou plusieurs disques durs physiques pouvant être organisés selon les schémas de RAID pour assurer la redondance en cas de panne d’un des disques. On trouve ainsi des vdevs mirror où les disques sont en RAID1, des vdevs RAIDZ avec une organisation équivalente au RAID5 (simple parité, autorise la panne d’un disque) et le RAIDZ2 (double parité équivalent au RAID6, autorise la panne de 2 disques). Il y a même un RAIDZ3 et des miroirs avec 3 disques ou plus pour les plus paranoïaques.

 

Les vdevs sont ensuite agrégés entre eux en stripe (équivalent d’un RAID 0) pour former le pool et donc leurs capacités s’additionnent. Il est conseillé d’agréger dans un pool uniquement des vdev de même capacité.


De ceci :
https://blog.belfalas.eu/administra [...] -les-vdev/

Citation :

Introduction aux périphériques virtuels

 

Pour commencer, il faut comprendre le concept des périphériques virtuels (ou VDEV) du fait que ZFS les utilise considérablement en interne. Si vous êtes déjà familier avec RAID, alors ce concept n’est pas nouveau pour vous bien

 

Et tout le reste que l'on peux trouver en faisant une recherche "ZFS + VDEV"

 

Ce que tu me dis casse totalement la compréhension en poupées russes que j'avais.

 

Voila ce que je comprend de ton exemple :
J'ai un disque
je créé un zpool avec (le disque ne contient que ce zpool et le zpool est composé que de ce disque, mais le zpool aurai pu avoir plusieurs disques)
je créé un ou plusieurs datasets/filesystem

 

Avec ton changement dans ce que j'avais cru comprendre après je suis perdu.
Comment ajouter des disques ?
Qui contient quoi et qui est composé de quoi ?
(sans donner les commandes, dis-moi juste dans quoi je les ajoutes)

 

Avant j'imaginais ceci :
Les disques 1, 2 et 3 forment le vdev1 en raidz
Les disques 4, 5 et 6 forment le vdev2 en raidz
vdev1 et vdev2 forment le zpool1
zpool1 contient les dataset/jeu de données/zvol
Et donc pour agrandir le zpool1 il y avait deux solutions : soit changer un a un les disques d'un vdev par des plus grands et laisser à chaque fois reconstruire le vdev soit ajouter au zpool un autre vdev (avec sa propre composition)

 

Là avec ce que tu me dis que les vdev ça n'existe pas ça casse tout et je suis perdu.

  


EDIT :
Peut-être y a-t-il un problème de "traduction", ne parlant pas englais je me limite aux sources françaises.
Peut-être parlons-nous des mêmes choses mais sous des noms différents ou décalés.


Message édité par LimDul le 14-08-2015 à 20:42:18

---------------
Liberkey, colection d'utilitaires sur clef USB / Silverstone DS380 - Mini tour ITX 8 baies Hot-swap 3.5"
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Résolu] Changement de carte mère : Linux en grève[RESOLU] Quel linux choisir avec ma mini config ?
Linux commande pour savoir les services qui sont installés ?Problème avec apache sur linux debian/ install GLPI
filezilla server sous linux[Gnu/Linux] Ouverture d'un xterm dans mon application graphique.
Installation serveur Darwin sous LinuxRecherche Mini pc tournant avec distrib linux
Routage et VLAN sous Linux - Virtualisation[Débutant] Linux et OS Alternatifs
Plus de sujets relatifs à : [Topic ZFS] ZFS on Linux et BSD - débats/questions


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR