Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2456 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13
Auteur Sujet :

[Topic ZFS] ZFS on Linux et BSD - débats/questions

n°1426145
qwrty
BFG!
Posté le 22-11-2018 à 21:38:23  profilanswer
 

Reprise du message précédent :
Quand je fais un blkid j'ai bien des UUID sur tous mes disques, ça devrait donc être bon :D
 
Merci  :jap:


---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
mood
Publicité
Posté le 22-11-2018 à 21:38:23  profilanswer
 

n°1426146
phraide
Posté le 22-11-2018 à 21:51:30  profilanswer
 

rien à a voir..."zpool status" te donne quoi ?


---------------
I'm too old for this shit.
n°1426148
li1ju
ho putain, ça tourne !
Posté le 22-11-2018 à 22:08:32  profilanswer
 

ha oui :D
blkid te donne l'uuid des "block disk" (volumes, partitions...pas les disques brut eux même)
il faut regarder dans /dev/disk/by-id/ et tu dois retrouver ces id dans ton "zpool status"


Message édité par li1ju le 22-11-2018 à 22:10:40
n°1426170
qwrty
BFG!
Posté le 23-11-2018 à 09:02:46  profilanswer
 

zpool status me donne effectivement mon volume avec mes vdev nommé en sda/sdb/sdc
 

Citation :

 pool: volume1
 state: ONLINE
  scan: scrub repaired 64K in 10h51m with 0 errors on Sun Nov 11 11:15:29 2018
config:
 
        NAME        STATE     READ WRITE CKSUM
        volume1     ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            sda     ONLINE       0     0     0
            sdb     ONLINE       0     0     0
            sdc     ONLINE       0     0     0
 
errors: No known data errors


 
Du coup ca va pas être bon ?


---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1426172
fdaniel
Have you got a 27B/6 ?
Posté le 23-11-2018 à 09:09:50  profilanswer
 

Je pense qu'il retombera quand même sur ses pattes, mais dans le doute tu peux exporter le volume, puis l'importer sur la nouvelle config en précisant cette fois-ci les ID des disques.


---------------
Topic des restos / Topic des boutiques gastronomiques
n°1426176
qwrty
BFG!
Posté le 23-11-2018 à 09:54:55  profilanswer
 

C'est bon je viens de faire le nécessaire, merci à vous.
 

Citation :


# zpool export volume1
# zpool import -d /dev/disk/by-id volume1


 

Citation :

 pool: volume1
 state: ONLINE
  scan: scrub repaired 64K in 10h51m with 0 errors on Sun Nov 11 11:15:29 2018
config:
 
        NAME                        STATE     READ WRITE CKSUM
        volume1                     ONLINE       0     0     0
          raidz1-0                  ONLINE       0     0     0
            wwn-0x50014ee20bf1ec46  ONLINE       0     0     0
            wwn-0x50014ee260ef9e04  ONLINE       0     0     0
            wwn-0x50014ee2b7f67b03  ONLINE       0     0     0
 
errors: No known data errors


 
Comme ça, ça devrait être bon  :jap:


---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1426611
qwrty
BFG!
Posté le 29-11-2018 à 17:04:57  profilanswer
 

Juste pour vous que dire tout c'est bien passé pour le changement de carte mère. :)
 
Petite question:
 
Je vois un peu tous les avis sur la toile  :pt1cable:  
 
j'aimerais tester mon volume ZFS avec une partition dédié au cache, histoire de voir ce que je peux gagner (ou pas, car effectivement ça peut être contre productif)
 
A priori le ratio à avoir entre le cache L2ARC  et entre le ARC (RAM) serait de 4:1.
Dans mon cas j'ai 32GB de ram => Donc partir sur 128GB serait bien.
 
Le volume est composé de 3*6TB.
 
1- Est ce que utiliser simplement une partition d'un SSD est une bonne idée ? Ou il vaut mieux utiliser un SSD entier ?
2- Est ce que vous pensez que pour la config ci dessus il y aurais un gain ? (le volume ZFS est utilisé pour du stockage de fichier et des VM)
 
 :jap:
 
edit: je laisse tomber cette idée, sur un système avec moins de 64GB de ram, mettre un cache L2ARC est inutile.
Et je ne verrais de toute façon pas de grosse différence pour l'utilisation même si j'en met un.


Message édité par qwrty le 30-11-2018 à 09:57:17

---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1431695
Flipper203
Posté le 22-03-2019 à 18:38:01  profilanswer
 

drap pour parler plus tard de mes projet de zfs

n°1431895
Flipper203
Posté le 26-03-2019 à 17:41:08  profilanswer
 

re, je souhaite utiliser un HP gen8 microserver (avec 16go de ram), sur lequel je vais faire tourner proxmox sur un SSD en ZFS, dans lequel j'aurais une VM, surement du freenas. J'aurais dans un premier temps 2 HDD de 3To, auxquels s’ajouteront 2 autres HDD de 3To ou un 2 et un 3. Mes questions tournent autour de ZFS et de l'organisation de mes disques. Je n'ai pas forcément besoin de haute disponibilité de mes données, je souhaites juste stocker, sauvegarder et pouvoir éventuellement agrandir mon stockage. Actuellement, je n'ai pas plus de 3To de donnés qui sont à sauvegarder. Je pensais partir sur des mirror vdev(s) simples, deux pools de 2x3To idéalement, soit 3To par pool, 6To au total, avec sauvegarde sur disque dur externe relié à la machine des 3To qui importent le plus (et peut être sauvegarde externe). Qu'en pensez vous? Serait il plus judicieux de partir sur du raidz?

n°1431898
LOL POLARI​SE
cadre en trading
Posté le 26-03-2019 à 19:55:02  profilanswer
 

Le raidz ne te fera gagner qu'en stockage.
 
Tu as la possibilité d'aggréger 2 miroirs aussi, ça ne te fera qu'un pool à gérer (sorte de raid 10). Et si tu veux séparer / backuper t'auras juste à proprement découper ton zpool en différents zfs et snap / send / gzip et upload.
 
J'ai pas trop compris ta stack non plus. Pourquoi passer par proxmox si tu utilises du freenas ? Freenas fait hyperviseur aussi.

mood
Publicité
Posté le 26-03-2019 à 19:55:02  profilanswer
 

n°1431908
Flipper203
Posté le 26-03-2019 à 23:31:13  profilanswer
 

je préfère dédier l'hypervision a un proxmox, ça me permet de jouer un peu . J'ai actuellement un nas Qnap que je remplace et la partie hyperviseur intégré au système est pas pratique du tout, je préfère laisse freenas faire son taff de Nas et proxmox son taff d'hyperviseur

 

Sinon je suis tombé sur cet article, toujours d'actualité ? https://jrs-s.net/2015/02/06/zfs-yo [...] not-raidz/ qu'en pensez vous?


Message édité par Flipper203 le 26-03-2019 à 23:33:24
n°1431915
LOL POLARI​SE
cadre en trading
Posté le 27-03-2019 à 08:42:16  profilanswer
 

Citation :

 

   don’t be greedy. 50% storage efficiency is plenty.
    for a given number of disks, a pool of mirrors will significantly outperform a RAIDZ stripe.
    a degraded pool of mirrors will severely outperform a degraded RAIDZ stripe.
    a degraded pool of mirrors will rebuild tremendously faster than a degraded RAIDZ stripe.
    a pool of mirrors is easier to manage, maintain, live with, and upgrade than a RAIDZ stripe.
    BACK. UP. YOUR POOL. REGULARLY. TAKE THIS SERIOUSLY.

 

Pour le 2ème point ça s'est peut-être un peu amélioré. Mais globalement tout ça reste assez vrai je pense oui.

 

L'OS de qnap et FreeNAS n'ont rien à voir, si ?


Message édité par LOL POLARISE le 27-03-2019 à 08:42:56
n°1431916
Flipper203
Posté le 27-03-2019 à 08:43:32  profilanswer
 

Non effectivement mais je parlais de mon expérience en os non dédié à qui je fait plusieurs trucs...

n°1434567
li1ju
ho putain, ça tourne !
Posté le 28-05-2019 à 20:18:20  profilanswer
 

:hello:  
 
y'en a t y parmi vous qui ont testé la derniere release, 0.8 ?
https://github.com/zfsonlinux/zfs/r [...] /zfs-0.8.0
ca apporte notament le chiffrement natif  :love:  
 
testé ici dans une vm debian 9, un bete wget, ./configure, make, make install, reboot et ca roule :)
pas encore vu toutes les nouveautés, mais testé le chiffrement, ca marche bien (mais sans mot de passe, on voit toujours quelques metadatas comme le nom du pool, des diffrents volumes et leur occupation, l'historique..)
A priori, le scrub est nettement plus rapide
à voir aussi ce que le donne le zfs send/receive en chiffré..

n°1434572
Plam
Bear Metal
Posté le 28-05-2019 à 21:58:23  profilanswer
 

li1ju a écrit :

:hello:  
 
y'en a t y parmi vous qui ont testé la derniere release, 0.8 ?
https://github.com/zfsonlinux/zfs/r [...] /zfs-0.8.0
ca apporte notament le chiffrement natif  :love:  
 
testé ici dans une vm debian 9, un bete wget, ./configure, make, make install, reboot et ca roule :)
pas encore vu toutes les nouveautés, mais testé le chiffrement, ca marche bien (mais sans mot de passe, on voit toujours quelques metadatas comme le nom du pool, des diffrents volumes et leur occupation, l'historique..)
A priori, le scrub est nettement plus rapide
à voir aussi ce que le donne le zfs send/receive en chiffré..


 
Oh que oui, et SURTOUT le support de O_DIRECT :love:
 
Du coup ça marche nickel dans XCP-ng 8.0 :love: https://xcp-ng.org/forum/topic/1385 [...] xcp-ng-8-0


---------------
Spécialiste du bear metal
n°1434759
qwrty
BFG!
Posté le 04-06-2019 à 09:43:28  profilanswer
 
n°1434760
Plam
Bear Metal
Posté le 04-06-2019 à 09:53:17  profilanswer
 

Niiiice :love:


---------------
Spécialiste du bear metal
n°1434761
qwrty
BFG!
Posté le 04-06-2019 à 10:28:42  profilanswer
 

LA feature que j'attends le plus  :love:


---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1437927
lestat67se​l
:-)
Posté le 13-09-2019 à 09:47:56  profilanswer
 

#Drap et question que je repose ici du coup :)
 
J'ai un comportement étrange depuis que j'ai changé les disques de mon ZFS, je suis passé de 4x 1To à 4x 3To.
C'est super j'ai de la place, mais niveau perfs j'ai l'impression que le pool encaisse moins qu'avant, et si je regarde la RAM de mon node, c'est pas beau à voir:
 
https://reho.st/self/6f62df369c91ae [...] 9015e7.png
 
Avant c'était le calme plat, sachant que j'alloue pas plus de 6Go à mes VM/CT tous le reste sert au cache de ZFS (j'ai pas de cache SSD)(et il y a 16Go de RAM sur la machine)
 
Est-ce que ça ne serait tout simplement pas le fait que j'ai plus assez de RAM libre par rapport à la taille de mon pool qui a triplé ?

Message cité 2 fois
Message édité par lestat67sel le 13-09-2019 à 09:49:25
n°1437930
gizmo15
Posté le 13-09-2019 à 11:21:00  profilanswer
 

tu fais un arcstat et tu auras le détail du cache zfs en ram.
 
t'as pas un scrub qui tourne des fois que?

n°1437931
lestat67se​l
:-)
Posté le 13-09-2019 à 11:32:53  profilanswer
 

gizmo15 a écrit :

tu fais un arcstat et tu auras le détail du cache zfs en ram.
 
t'as pas un scrub qui tourne des fois que?


 
Dernier scrub a tourné le 08/09
 
arcstat me donne ça:
https://reho.st/self/5ab619488615b4c548e04895892cd34ac99f4c57.png
 
Si je comprend bien il bouffe 6.4G pour le cache, et y aurait max 7.4 de dispo ?
 
Dans l'absolu la question que je me pose: la préco c'est 1Go/To de donnée, du coup je serais à peu près Ok.
Mais:
- est-ce que c'est possible d'avoir des ralentissements si on est limite ?
- dois-je acheter une deuxième barette de 16Go pour mon Proxmox pour pouvoir utiliser ma fibre à son max :o ?
 
Je vais voir pour récup des barettes ce weekend et tester je crois ..

n°1438010
Power Nabo​t
Verticalement désavantagé.
Posté le 15-09-2019 à 22:49:51  profilanswer
 

lestat67sel a écrit :

#Drap et question que je repose ici du coup :)

 

J'ai un comportement étrange depuis que j'ai changé les disques de mon ZFS, je suis passé de 4x 1To à 4x 3To.
C'est super j'ai de la place, mais niveau perfs j'ai l'impression que le pool encaisse moins qu'avant, et si je regarde la RAM de mon node, c'est pas beau à voir:

 

https://reho.st/self/6f62df369c91ae [...] 9015e7.png

 

Avant c'était le calme plat, sachant que j'alloue pas plus de 6Go à mes VM/CT tous le reste sert au cache de ZFS (j'ai pas de cache SSD)(et il y a 16Go de RAM sur la machine)

 

Est-ce que ça ne serait tout simplement pas le fait que j'ai plus assez de RAM libre par rapport à la taille de mon pool qui a triplé ?


Je n'utilise pas (encore) ZFS, mais ce ne serait pas une question de secteurs (512o sur les 1To, 4Ko sur les 3 To) ?


---------------
Encore une victoire de canard !
n°1438330
asmomo
Posté le 25-09-2019 à 15:44:31  profilanswer
 

Oui à voir pour le réglage async.
 
J'utilise du Solarish (OpenIndiana) depuis ma conversion à ZFS, sans attrait particulier pour Linux pour mon usage, mais là j'ai besoin de me faire une VM Linux. Elle tournera sur des machines Windows dans un premier temps, mais pourra possiblement plus tard être transférée sur du ESXi, Xen ou autre, ou encore rester en Virtualbox mais sur OpenIndiana/OmniOS.
 
Ce n'est pas super critique, mais étant fan de ZFS, je me dis que je pourrais utiliser ZOL dans la VM, sur un disque virtuel unique, afin d'avoir au moins les checksums. Puis je pousse mon raisonnement, et je me dis que je peux mettre le paramètre dont j'ai oublié le nom, pour que tous les fichiers soient doublés. Puis je pousse encore, et je me dis que je pourrais mettre 4 disques virtuels et faire un RAIDZ1, comme ça j'ai une certaine redondance, en prenant un peu moins de place.
 
Il n'y aura pas de stockage à proprement parler sur cette VM, donc elle devrait garder une taille raisonnable, et être utilisée sur des SSDs.
 
Vous pensez que les 4 disques virtuels ça le fait, ou je risque juste de massacrer les perfs/usage CPU/RAM ?


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1438342
li1ju
ho putain, ça tourne !
Posté le 25-09-2019 à 20:15:16  profilanswer
 

Ca dépend de ce qu"il y a derriere tes disques virtuels. si c'est le meme disque physique, aucun interet. sinon ça peut être pas mal., surtout si t'as pas beaucoup de données.
J'ai moi meme une VM debian (xen) avec 4 disques physiques qui lui sont passés et gérés via ZoL, ça marche très bien :)

 

edit: pour des disques récents, vaut mieux toujours mettre ashift=12 )à la création du pool, indiquant des secteurs de 4k. c'est à priori mieux que de laisser par défaut, pour des secteurs de 512


Message édité par li1ju le 25-09-2019 à 20:18:23
n°1438347
frenchieis​verige
Nej, men HEJSAN!
Posté le 25-09-2019 à 22:22:10  profilanswer
 

Partir de "Ce n'est pas super critique" à "mettre 4 disques virtuels et faire un RAIDZ1", on voit bien comment tu apprécies ZFS :D  
Mais pourquoi faire compliqué quand on peut faire simple :o  
Je rejoins li1ju, je ne vois pas à quoi peut bien servir un RAIDZ1 de disques virtuels si ils sont tous stockés sur un même disque dur physique. Le disque physique pète, tu as tout perdu.  
Le seul cas possible que je vois, c'est quand tu veux tester les - nouvelles - fonctionnalités de ZFS.


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1438360
lestat67se​l
:-)
Posté le 26-09-2019 à 11:07:34  profilanswer
 

lestat67sel a écrit :

#Drap et question que je repose ici du coup :)
 
J'ai un comportement étrange depuis que j'ai changé les disques de mon ZFS, je suis passé de 4x 1To à 4x 3To.
C'est super j'ai de la place, mais niveau perfs j'ai l'impression que le pool encaisse moins qu'avant, et si je regarde la RAM de mon node, c'est pas beau à voir:
 
https://reho.st/self/6f62df369c91ae [...] 9015e7.png
 
Avant c'était le calme plat, sachant que j'alloue pas plus de 6Go à mes VM/CT tous le reste sert au cache de ZFS (j'ai pas de cache SSD)(et il y a 16Go de RAM sur la machine)
 
Est-ce que ça ne serait tout simplement pas le fait que j'ai plus assez de RAM libre par rapport à la taille de mon pool qui a triplé ?


 
Je me répond à moi-même: Avec 32Go de RAM au lieu de 16Go, ça marche beaucoup mieux.
L'ARC s'est stabilisé à 15Go d'utilisation, la mémoire de mon host ne fait plus de yoyo et j'ai retrouvé mes perfs.
 
https://reho.st/preview/self/d39ce35ffcddf6ba712c0414688d4c60e3afae30.png
 
Conclusion: il faut de la RAM pour ZFS :o

n°1438371
frenchieis​verige
Nej, men HEJSAN!
Posté le 26-09-2019 à 12:29:31  profilanswer
 

Mais on est bien au dessus de la règle 1Go/To :??:


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1438376
XaTriX
Posté le 26-09-2019 à 13:13:18  profilanswer
 

Bah 8+7 ça fait 15Go, ça laisse une marge de 1Go de ram :o :o


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°1438378
lestat67se​l
:-)
Posté le 26-09-2019 à 14:04:40  profilanswer
 

frenchieisverige a écrit :

Mais on est bien au dessus de la règle 1Go/To :??:

 

Bah ouai, je constate aussi :o

n°1438380
asmomo
Posté le 26-09-2019 à 16:59:42  profilanswer
 

La VM sera backupée donc "tout perdre" n'est pas à l'ordre du jour. Par contre pour profiter de la résilience de ZFS sans devoir utiliser le backup (qui est plutôt du dernier recours pour moi), il faut forcément de la redondance dans les fichiers.
 
Mettons que ma VM aie besoin de 50Go d'espace, la solution de base quand on a qu'un seul support physique c'est d'utiliser le flag copies=2. Du coup j'ai besoin de 100Go.
 
Si par contre je fais un RAIDZ1 de 4 disques virtuels de 17Go, j'ai bien 50Go d'espace dispo, mais ça ne me coûte que 68Go, vous voyez l'intérêt ?
 
Ce sera sur du SSD donc l'impact en accès serait négligeable, enfin c'est ma théorie. Par contre la conso CPU/RAM de la VM, je ne sais pas.
 
Vu vos réponses je vais devoir tester :p


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1438381
frenchieis​verige
Nej, men HEJSAN!
Posté le 26-09-2019 à 17:02:07  profilanswer
 

1Go, on est large.
A part si tu ouvres 3 Tabs ouvert dans firefox [:milfnduck lover:4]


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1438382
asmomo
Posté le 26-09-2019 à 17:14:18  profilanswer
 

gizmo15 a écrit :

Bonjour,
 
Petite question: j'ai un Raidz2 de 4*1To et je songe à y rajouter un autre Raidz2. on est d'accord que je me retrouverais avec 4To et que les données seront réparties sur les deux Raidz2?
 
Merci


 

LimDul a écrit :

De mon faible niveau de connaissance je suis tenté de dire que oui les données seront répartie entre tes deux raidz2.
Il me semble savoir que ZFS va privilégier le moins remplis pour les écritures mais je n'en suis pas sûr.
Pas plus que je ne sais pas comment la répartition d'un fichier peut se faire (sur les deux raidz2 à la foi comme un raid0 ou sur un seul ou en fonction du débit d'écriture ?)


 

francoisp31 a écrit :

mefiez vous des cumuls des raids sur les meme grappes  
dans certaines circonstances c est totalement contre-productif voir instable et generant des pertes de donnees  
 
neamoins j ai pas teste avec les versions plus recentes de raidz /zfs


 
Le problème d'ajouter un vdev à une pool existante c'est que les données ne vont pas se répartir uniformément. Il n'y a pas de defrag ou outil du même genre.
 
Pour ma part sur un serveur de pur stockage j'ai considéré que ce n'était pas un problème, et je suis parti sur 1 vdev de 19*2To en RAIDZ3, que j'ai ensuite étendu, maintenant j'ai 3 vdevs de 19*4To en RAIDZ3, une seule pool, un seul file system. 163To utilisables.
 
Pas d'instabilité, c'est même très stable, après je laisse rarement la machine tourner longtemps sauf lors des scrubs, ça consomme cette bête-là :p


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1438383
lestat67se​l
:-)
Posté le 26-09-2019 à 18:26:40  profilanswer
 

asmomo a écrit :

La VM sera backupée donc "tout perdre" n'est pas à l'ordre du jour. Par contre pour profiter de la résilience de ZFS sans devoir utiliser le backup (qui est plutôt du dernier recours pour moi), il faut forcément de la redondance dans les fichiers.
 
Mettons que ma VM aie besoin de 50Go d'espace, la solution de base quand on a qu'un seul support physique c'est d'utiliser le flag copies=2. Du coup j'ai besoin de 100Go.
 
Si par contre je fais un RAIDZ1 de 4 disques virtuels de 17Go, j'ai bien 50Go d'espace dispo, mais ça ne me coûte que 68Go, vous voyez l'intérêt ?
 
Ce sera sur du SSD donc l'impact en accès serait négligeable, enfin c'est ma théorie. Par contre la conso CPU/RAM de la VM, je ne sais pas.
 
Vu vos réponses je vais devoir tester :p


 
Le principe en virtu c'est de foutre la complexité dans le niveau le plus bas et de rester "keep it simple" dans la couche virtualisé :o
La tu veux faire tout l'inverse en fait.

n°1438400
asmomo
Posté le 27-09-2019 à 10:23:31  profilanswer
 

On est sur le thread ZFS, la complexité est de rigueur.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1440881
qwrty
BFG!
Posté le 29-11-2019 à 14:54:14  profilanswer
 

Question rapide, est ce que je peux avoir dans un Zpool, deux vdev avec des disques de différentes tailles ?
 
Genre un vdev en RAIDZ1 avec 6to*3 disques et un autre vdev en RAIDZ1 avec 4to*5 disques ?
 
Ou il faut absolument la même taille en capacité et en nombre de disque ?
 
Merci  :jap:


---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1440887
lestat67se​l
:-)
Posté le 29-11-2019 à 15:35:07  profilanswer
 

ce sera 2 zpool séparé juste du coup non ? j'suis pas spécialiste mais j'vais suivre les réponses :o


Message édité par lestat67sel le 29-11-2019 à 15:35:23
n°1440889
fdaniel
Have you got a 27B/6 ?
Posté le 29-11-2019 à 15:41:55  profilanswer
 

Ça ne devrait pas poser de problèmes, dans ce cas de figure il faut voir le zpool comme un simple volume agrégeant les différents vdev. Tu peux même t'amuser à mixer diverses redondances (mirror, raidz1, raidz2), ça fonctionnera aussi. Chez moi j'ai 2 vdev consistant en miroirs de 2 disques chacun, ils font parti du même zpool, et j'ai même pu augmenter la capacité en remplaçant les disques un à un.


Message édité par fdaniel le 29-11-2019 à 15:42:25

---------------
Topic des restos / Topic des boutiques gastronomiques
n°1440890
qwrty
BFG!
Posté le 29-11-2019 à 15:50:00  profilanswer
 

Ok, on est d'accord. :D
Il y a une "reconstruction" du zpool j'imagine ? (je me dis qu'il faut bien agréger les données des deux vdev dans le zpool)


---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1440892
fdaniel
Have you got a 27B/6 ?
Posté le 29-11-2019 à 15:53:01  profilanswer
 

Lors du remplacement des disques ? Oui, il me semble qu'il y a un scrub qui est lancé à chaque fois, faut le laisser gratter avant de passer au disque suivant. Lors de la construction initiale ben c'est comme avec n'importe quel zpool, il est démarré à la création et vide. À moins que tes vdev soient déjà dans des zpool existants ? Dans ce cas je n'avais pas bien compris la question initiale...


---------------
Topic des restos / Topic des boutiques gastronomiques
n°1441165
qwrty
BFG!
Posté le 04-12-2019 à 10:42:15  profilanswer
 

Je parlais plus lors de l'ajout de disques dans un nouveau vdev mais dans le meme zpool.  :D  
 
En fait j'ai ça actuellement:
 

Citation :

config:
 
        NAME                        STATE     READ WRITE CKSUM
        volume1                     ONLINE       0     0     0
          raidz1-0                  ONLINE       0     0     0
            wwn-0x50014ee20bf1ec46  ONLINE       0     0     0
            wwn-0x50014ee260ef9e04  ONLINE       0     0     0
            wwn-0x50014ee2b7f67b03  ONLINE       0     0     0


 
Je veux ajouter 4 ou 5 disques dans ce zpool dans un nouveau vdev (pas le choix de toute façon actuellement, vu que pas encore d'expansion possible)
Les 4 ou 5 disques ajoutés seront aussi en RAIDZ1.
 
La question, c'est, est ce que ça pose problème de ne pas avoir le même nombre de disque dans le deuxième vdev du zpool ?
Car en me documentant sur le sujet je trouve deux sons de cloche...
 
Et a priori:
 

Citation :

A zpool is made up of one or more vdevs, which themselves can be a single disk or a group of disks, in the case of a RAID transform. When multiple vdevs are used, ZFS spreads data across the vdevs to increase performance and maximize usable space.
 
Therefore to add more space into your zpool, you don't technically just add a new disk(s) you have to add a whole new VDEV.
 
Depending on your initial pool configuration this can be painless, the trick with adding space to your zpool is to plan ahead. If you know you want add more disks down the road, arrange your pool in such a way you can add the needed amount space with ease.
 
If you made a 35 disk RAIDZ2 (1VDEV of 35 disks) to add more capacity to this pool your new VDEV has to be the same size, therefore you would need to add 35 more disks, resulting in 2 VDEVs of 35 disks for a total of a 70 disk RAIDZ2.
 
However, if you arranged your drives so you had multiple smaller VDEVs, it would much easier to add more disks into the system.For example instead of the 1 VDEV of 35 disks mentioned above, you have 5 VDEVs of 7 drives. Same amount of disks, just a different configuration allowing you to only have to add 7 more drives to extend your pool.
 
In the case of a 20 disk RAID 10 (stripe of mirrors) you have 10VDEVS of 2 disks. Therefore to add more drives you only need to add them in groups of 2.


 
https://www.45drives.com/wiki/index [...] My_Pool.3F
 
Mais cette doc n'est ptet pas à jour (2015)...
 
edit:
 

Citation :

The new VDev can use a different size hard drive and
even a different number of hard drives than the old
VDev. It is recommended that they have the same
number of disks though.


 
https://www.ixsystems.com/community [...] pdf.30762/
 
Par contre pourquoi c'est recommandé ?


Message édité par qwrty le 04-12-2019 à 11:13:08

---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Résolu] Changement de carte mère : Linux en grève[RESOLU] Quel linux choisir avec ma mini config ?
Linux commande pour savoir les services qui sont installés ?Problème avec apache sur linux debian/ install GLPI
filezilla server sous linux[Gnu/Linux] Ouverture d'un xterm dans mon application graphique.
Installation serveur Darwin sous LinuxRecherche Mini pc tournant avec distrib linux
Routage et VLAN sous Linux - Virtualisation[Débutant] Linux et OS Alternatifs
Plus de sujets relatifs à : [Topic ZFS] ZFS on Linux et BSD - débats/questions


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR