Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1748 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13
Auteur Sujet :

[Topic ZFS] ZFS on Linux et BSD - débats/questions

n°1441165
qwrty
BFG!
Posté le 04-12-2019 à 10:42:15  profilanswer
 

Reprise du message précédent :
Je parlais plus lors de l'ajout de disques dans un nouveau vdev mais dans le meme zpool.  :D  
 
En fait j'ai ça actuellement:
 

Citation :

config:
 
        NAME                        STATE     READ WRITE CKSUM
        volume1                     ONLINE       0     0     0
          raidz1-0                  ONLINE       0     0     0
            wwn-0x50014ee20bf1ec46  ONLINE       0     0     0
            wwn-0x50014ee260ef9e04  ONLINE       0     0     0
            wwn-0x50014ee2b7f67b03  ONLINE       0     0     0


 
Je veux ajouter 4 ou 5 disques dans ce zpool dans un nouveau vdev (pas le choix de toute façon actuellement, vu que pas encore d'expansion possible)
Les 4 ou 5 disques ajoutés seront aussi en RAIDZ1.
 
La question, c'est, est ce que ça pose problème de ne pas avoir le même nombre de disque dans le deuxième vdev du zpool ?
Car en me documentant sur le sujet je trouve deux sons de cloche...
 
Et a priori:
 

Citation :

A zpool is made up of one or more vdevs, which themselves can be a single disk or a group of disks, in the case of a RAID transform. When multiple vdevs are used, ZFS spreads data across the vdevs to increase performance and maximize usable space.
 
Therefore to add more space into your zpool, you don't technically just add a new disk(s) you have to add a whole new VDEV.
 
Depending on your initial pool configuration this can be painless, the trick with adding space to your zpool is to plan ahead. If you know you want add more disks down the road, arrange your pool in such a way you can add the needed amount space with ease.
 
If you made a 35 disk RAIDZ2 (1VDEV of 35 disks) to add more capacity to this pool your new VDEV has to be the same size, therefore you would need to add 35 more disks, resulting in 2 VDEVs of 35 disks for a total of a 70 disk RAIDZ2.
 
However, if you arranged your drives so you had multiple smaller VDEVs, it would much easier to add more disks into the system.For example instead of the 1 VDEV of 35 disks mentioned above, you have 5 VDEVs of 7 drives. Same amount of disks, just a different configuration allowing you to only have to add 7 more drives to extend your pool.
 
In the case of a 20 disk RAID 10 (stripe of mirrors) you have 10VDEVS of 2 disks. Therefore to add more drives you only need to add them in groups of 2.


 
https://www.45drives.com/wiki/index [...] My_Pool.3F
 
Mais cette doc n'est ptet pas à jour (2015)...
 
edit:
 

Citation :

The new VDev can use a different size hard drive and
even a different number of hard drives than the old
VDev. It is recommended that they have the same
number of disks though.


 
https://www.ixsystems.com/community [...] pdf.30762/
 
Par contre pourquoi c'est recommandé ?


Message édité par qwrty le 04-12-2019 à 11:13:08

---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
mood
Publicité
Posté le 04-12-2019 à 10:42:15  profilanswer
 

n°1441167
fdaniel
Have you got a 27B/6 ?
Posté le 04-12-2019 à 10:55:16  profilanswer
 

En cherchant un peu il semble en effet que les gens conseillent d'avoir des vdevs équilibrés, donc éviter d'avoir des tailles différentes et/ou des nombres de disques différents. Après je suppose que ça impactera surtout les performances, faudrait voir si quelqu'un a réellement testé et publié des résultats.
 
Quoiqu'il en soit ça fonctionnera quand même, dès que le vdev aura été créé et intégré le zpool l'utilisera.


---------------
Topic des restos / Topic des boutiques gastronomiques
n°1441172
qwrty
BFG!
Posté le 04-12-2019 à 12:54:39  profilanswer
 

C'est ça, du coup j’espérais avoir des réponse ici  :D


---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1441177
Xum
Posté le 04-12-2019 à 13:32:38  profilanswer
 

Deux choses:
 
-Quand t'ajoutes un vdev à un pool existant, il n'y a pas de rééquilibrage des donnés déjà écrites. Si le vdev d'origine est plein il reste plein, les écritures seront faites sur le nouveau vdev. C'est au fur et à mesure des utilisation (copy / move) que les données seront rereparties sur les vdev. Si tes deux vdev sont vides les donnés sont équilibrées sur tous les vdev.
 
- la conséquence de cet équilibrage: si t'as des vdev non homogènes la perf de ton zpool est celle de ton vdev le moins performant car ZFS attend le commit de ce vdev pour valider l'écriture.
Ex: un pool constitué d'un vdev de SSD et un vdev de HDD est limité par la perf du vdev HDD.
 
Maintenant si tu mélanges des niveaux Mirror / RAIDZ sur des disques de même performance, ca ne se verra pas trop, mais sur des charges élevées ta perfo est moins prévisible, car d'un coté ton cpu fait de la partié qu'il n'a pas a faire de l'autre, donc vdev un peu plus lent que l'autre.

n°1441180
qwrty
BFG!
Posté le 04-12-2019 à 13:40:54  profilanswer
 

Je vois, merci pour les précisions, j'avais bien conscience du premier point que tu développes.  
 
D'ailleurs pour "forcer" un ré équilibrage j'avais pensé a "sortir" un gros volume de données en dehors de zpool et le remettre dedans pour justement que ca reste homogène un minimum.
(actuellement presque 85%, donc ça devient critique d'upgrade :o )
 
Pour les perf, les disques rajoutés seront identiques et le niveau également (RAIDZ1), donc je ne pense pas avoir trop de soucis de ce coté là.
 
C'est vraiment le coup du nombre de disques qui seraient différent dans mes vdevs sur lequel je me posais des questions.
 
Mais a priori pas de soucis, sauf que ce n'est pas recommandé... mais pourquoi exactement ?  
 
J'ai pas trouvé l'explication.


Message édité par qwrty le 04-12-2019 à 13:41:35

---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1441206
Xum
Posté le 04-12-2019 à 18:45:30  profilanswer
 

C'est plus compliqué à maintenir, moins prévisible, pas la même fiab entre les vdev, pas les même temps de resilver...et si tes vdev font pas la meme taille ca arrange pas les choses...pour un particulier spa bien gênant, si tu veux prévoir de la maintenance, des upgrades, estimer la perfo de ton pool vs des profils d'appli dans le temps, etc, ça prend peut etre son sens. :spamafote:  
 
C'est un peu comme t'asseoir sur deux chaises une fesse sur chaque. Si ce sont les mêmes, elles vont s'user pareil, même performance à gauche et à droite, à moins d'avoir un c*l bizarre :o , si t'en a une avec 3 pieds l'autre avec 5 et qu'en plus elle font pas la même hauteur, c'est pas performant, et laquelle va casser en premier...dur à dire

n°1441267
qwrty
BFG!
Posté le 05-12-2019 à 12:36:04  profilanswer
 

Je vois, merci pour cette comparaison  :lol:  
Je vais voir ce que je fais, c'est quand même chiant que le développement de "l'expansion" stagne comme pas possible...
 
Ça faciliterait la tache a bien de monde...


---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1442916
asmomo
Posté le 07-01-2020 à 16:44:24  profilanswer
 

Moi j'ai 3 vdev de 19 disques en RAIDZ3.
 
J'ai commencé avec 1 vdev et des disques de 2To.
 
à un moment j'avais 19 2To, 19 3To, 19 4To.
 
Maintenant j'ai 57 4To.
 
Là je vais remplacer 19 4To par des 14To. Ensuite je mettrais les 4To libérés dans un 4ème vdev.
 
Pour du stockage pur, ça ne pose pas de pb, je suis limité par le réseau.
 
C'est sur OpenIndiana par contre.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1442920
kisscoolz
Posté le 07-01-2020 à 17:31:15  profilanswer
 

Ca en fait des films de vacances :o


---------------
http://lacabanedeladmin.trickip.net/
n°1443069
el_barbone
too old for this shit ...
Posté le 10-01-2020 à 16:51:24  profilanswer
 

https://www.realworldtech.com/forum [...] tid=189841


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
mood
Publicité
Posté le 10-01-2020 à 16:51:24  profilanswer
 

n°1443075
frenchieis​verige
Nej, men HEJSAN!
Posté le 10-01-2020 à 19:39:14  profilanswer
 

asmomo a écrit :

Moi j'ai 3 vdev de 19 disques en RAIDZ3.
 
J'ai commencé avec 1 vdev et des disques de 2To.
 
à un moment j'avais 19 2To, 19 3To, 19 4To.
 
Maintenant j'ai 57 4To.
 
Là je vais remplacer 19 4To par des 14To. Ensuite je mettrais les 4To libérés dans un 4ème vdev.
 
Pour du stockage pur, ça ne pose pas de pb, je suis limité par le réseau.
 
C'est sur OpenIndiana par contre.


 
Il y a encore du monde qui utilisent encore (Open) Solaris en 2020 :o
Ça vaut encore le coup?


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1443079
XaTriX
Posté le 10-01-2020 à 20:06:39  profilanswer
 


Et ceph il est ok ? :O


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°1444761
asmomo
Posté le 18-02-2020 à 14:19:17  profilanswer
 

frenchieisverige : par rapport à ZFS on Linux tu veux dire ?
 
Pour moi c'est une machine dédiée, et les 2-3 autres trucs dont j'ai besoin (directement liés à la fonction de NAS) marchent dessus, donc je préfère garder qqchose de natif.
 
Je ne sais pas ce que Linus veut dire quand il parle de support, ZFS fermé est bien sûr supporté par Oracle, et ZFS ouvert par d'autres gens (ou les mêmes). à mon avis tout découle du pb de licence, et de ce point de vue il a parfaitement raison, pour ma part j'accepte d'utiliser cette licence, ce n'est pas comme si j'étais un gourou du free software.
 
à propos de la concurrence à ZFS :
 

Citation :

Red Hat’s announcement that it is deprecating Btrfs as a “Preview” file system. SUSE continues to support Btrfs in only RAID 10 equivalent configurations, and only time will tell if bcachefs proves to be a compelling alternative to OpenZFS. This vote of no confidence from Red Hat leaves OpenZFS as the only proven Open Source data-validating enterprise file system


 
https://www.ixsystems.com/blog/open-zfs-vs-btrfs/


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1444778
frenchieis​verige
Nej, men HEJSAN!
Posté le 18-02-2020 à 20:25:20  profilanswer
 

:hello:
 
Non, en temps qu'OS à part entière.


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1444779
Trit'
Posté le 18-02-2020 à 20:42:32  profilanswer
 

frenchieisverige :

  • « En temps de » (guerre, paix…)
  • « En tant que » (personne, chef, adjoint…)


#SOSDico

n°1444785
asmomo
Posté le 19-02-2020 à 00:02:07  profilanswer
 

Illumos a un suivi correct, OmniOS a des updates régulières, OpenIndiana moins souvent, après tout dépend de ce que tu veux en faire.
 
Moi je dois dire que pour 2 applis je n'ai pas trouvé mieux que leur version windows, donc j'ai mis wine et les 2 marchent bien :p


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1445000
frenchieis​verige
Nej, men HEJSAN!
Posté le 24-02-2020 à 19:11:40  profilanswer
 

Trit' a écrit :

frenchieisverige :

  • « En temps de » (guerre, paix…)
  • « En tant que » (personne, chef, adjoint…)


#SOSDico


Malheureusement, tu en auras jamais fini avec moi :o  

asmomo a écrit :

Illumos a un suivi correct, OmniOS a des updates régulières, OpenIndiana moins souvent, après tout dépend de ce que tu veux en faire.
 
Moi je dois dire que pour 2 applis je n'ai pas trouvé mieux que leur version windows, donc j'ai mis wine et les 2 marchent bien :p


Un OS qui supporte très bien ZFS.


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1445018
LOL POLARI​SE
cadre en trading
Posté le 25-02-2020 à 13:08:15  profilanswer
 

FreeBSD :/

 

(Je pensais pas déconseiller IllumOS un jour :o).

 

Sinon "pour jouer" ça reste très bien mais ça sera pas très bankable.

 

Edit : Ubuntu aussi a un bon support.


Message édité par LOL POLARISE le 25-02-2020 à 13:08:32
n°1445041
frenchieis​verige
Nej, men HEJSAN!
Posté le 26-02-2020 à 12:28:12  profilanswer
 

Non justement, je recherche quelque chose de stable pour mon NAS.
Je suis pour le moment sous OMV 4, mais vu qu'ils ont l'intention de supporter uniquement le BTRFS comme FS à partir de la version 6, j'anticipe en cherchant une distribution "user-friendly" ou je n'ai pas à me soucier de leurs feuilles de route.
Et toutes mes recherches me ramènent à chaque fois vers ZFS et FreeNAS/XigmaNAS.


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1445060
LOL POLARI​SE
cadre en trading
Posté le 26-02-2020 à 20:24:53  profilanswer
 

FreeNAS c'est très bien.

n°1446134
asmomo
Posté le 31-03-2020 à 13:54:04  profilanswer
 

Je viens finalement d'installer OI Hipster sur un autre disque système (je garde mon vieux OI qui marche bien en secours).
 
J'importe ma pool et là ça a l'air OK, sauf que j'ai 0 d'espace disque. J'avais modifié un truc pour qu'il y ait moins d'espace réservé, ça n'a pas dû se transférer. A priori les données sont là et accessibles, mais vu que j'avais genre 1% d'espace libre avec 0 réservation, si maintenant il y a 3% de réservé, forcément ça ne va pas.
 
Je ne retrouve pas la bidouille que j'avais faite, ça vous parle ?


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1449926
flu1
Mess with best, die like other
Posté le 04-06-2020 à 09:38:29  profilanswer
 

[:michrone]


---------------
HP w8770 - Xiami Mi A3 - Dell PowerEdge T110II & HP MicroServer G7 - Rasberry Pi 4 1go
n°1450590
lestat67se​l
:-)
Posté le 18-06-2020 à 19:51:37  profilanswer
 

J'ai un pool zfs avec 4x 3To dedans sur un proxmox avec 32Go de RAm (j'avais rajouté 16Go pour être tranquille avec le cache ARC de ZFS)
 
Force est de constaté que parfois ça rame bien, bon typiquement pour des opérations à la con du genre copier/coller 50Go de donnée d'un dossier du pool dans un autre dossier du même pool :o
Mais ça tombe souvent à 25-30Mo/s. C'est un peu la loose je trouve.
 
Ca pourrait améliorer quelque chose d'ajouter un SSD dans le pool en tant que cache ? d'ailleurs apparemment il y a deux notion: journalisation ou cache.
Qu'est-ce qui aurait le plus d’intérêt ?

Message cité 2 fois
Message édité par lestat67sel le 18-06-2020 à 19:52:25
n°1450612
LOL POLARI​SE
cadre en trading
Posté le 19-06-2020 à 05:16:47  profilanswer
 

lestat67sel a écrit :

J'ai un pool zfs avec 4x 3To dedans sur un proxmox avec 32Go de RAm (j'avais rajouté 16Go pour être tranquille avec le cache ARC de ZFS)
 
Force est de constaté que parfois ça rame bien, bon typiquement pour des opérations à la con du genre copier/coller 50Go de donnée d'un dossier du pool dans un autre dossier du même pool :o
Mais ça tombe souvent à 25-30Mo/s. C'est un peu la loose je trouve.
 
Ca pourrait améliorer quelque chose d'ajouter un SSD dans le pool en tant que cache ? d'ailleurs apparemment il y a deux notion: journalisation ou cache.
Qu'est-ce qui aurait le plus d’intérêt ?


 
C'est quoi comme disques ?

n°1450613
lestat67se​l
:-)
Posté le 19-06-2020 à 06:24:57  profilanswer
 

Des HGST Ultrastar 7K4000 64Mb 'enterprise grade', c'est pas de ce côté là que ça devrait pécher normalement.

n°1450619
qwrty
BFG!
Posté le 19-06-2020 à 11:10:52  profilanswer
 

lestat67sel a écrit :

J'ai un pool zfs avec 4x 3To dedans sur un proxmox avec 32Go de RAm (j'avais rajouté 16Go pour être tranquille avec le cache ARC de ZFS)
 
Force est de constaté que parfois ça rame bien, bon typiquement pour des opérations à la con du genre copier/coller 50Go de donnée d'un dossier du pool dans un autre dossier du même pool :o
Mais ça tombe souvent à 25-30Mo/s. C'est un peu la loose je trouve.
 
Ca pourrait améliorer quelque chose d'ajouter un SSD dans le pool en tant que cache ? d'ailleurs apparemment il y a deux notion: journalisation ou cache.
Qu'est-ce qui aurait le plus d’intérêt ?


 
Tu dois avoir un soucis ailleurs, j'ai 32Go de ram est aucun soucis avec un pool de 7*6To.
Peut être du coté de proxmox ?


---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1450620
lestat67se​l
:-)
Posté le 19-06-2020 à 11:25:39  profilanswer
 

Je vais ma planifier un test avec toutes les VMs/CT éteinte pour voir (mais elles ne sont pas sur le pool ZFS, elles accèdent juste dessus pour des données)

n°1450626
LOL POLARI​SE
cadre en trading
Posté le 19-06-2020 à 13:47:59  profilanswer
 

lestat67sel a écrit :

Des HGST Ultrastar 7K4000 64Mb 'enterprise grade', c'est pas de ce côté là que ça devrait pécher normalement.


 
Ca vaudrait ptêtre le coup de creuser quand même :
 
https://www.servethehome.com/wd-red [...] fs-issues/
 

Citation :

We found evidence that WD-HGST has said DM-SMR is not good for reliable performance, even discussing ZFS issues for years. Effectively, they had reason to know the drives would not work well in, at least ZFS NAS units, if not other NAS applications.


 
Je sais que c'est pas nécessairement les mêmes gammes, mais si WD a dit de la merde / caché de l'information, ils l'ont peut-être fait sur d'autres modèles aussi.

n°1451918
asmomo
Posté le 24-07-2020 à 15:06:23  profilanswer
 

asmomo a écrit :

Je viens finalement d'installer OI Hipster sur un autre disque système (je garde mon vieux OI qui marche bien en secours).
 
J'importe ma pool et là ça a l'air OK, sauf que j'ai 0 d'espace disque. J'avais modifié un truc pour qu'il y ait moins d'espace réservé, ça n'a pas dû se transférer. A priori les données sont là et accessibles, mais vu que j'avais genre 1% d'espace libre avec 0 réservation, si maintenant il y a 3% de réservé, forcément ça ne va pas.
 
Je ne retrouve pas la bidouille que j'avais faite, ça vous parle ?


 
Au final j'ai remplacé tous les disques d'un vdev (4To=>14To) et j'ai obtenu l'augmentation d'espace escompté, donc je n'ai pas cherché plus loin.
 
Par contre impossible d'installer mes applis windows (avec wine) sur Hipster, donc je suis revenu sur ma vieille version d'OI.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1451919
asmomo
Posté le 24-07-2020 à 15:11:01  profilanswer
 

Pour les disques j'ai un vdev de 7K4000 et c'est rock solide, pas un n'a le moindre défaut. Les WD green, WD red, seagate Barracuda, je dois en changer un de temps en temps...
 
Pour la performance seulement 4 disques, c'est quel type de RAIDZ ? Copier de la pool sur elle-même c'est pas l'idéal, perso j'ai un seul FS donc pas besoin de toute façon.
 
LOL POLARISE : attention ça parle de SMR, une techno qui franchement ne devrait même pas exister, ou alors les disques devraient être à moitié prix. ça parait tout à fait logique que ce soit catastrophique en ZFS, je n'ai jamais vu personne penser que ce serait une bonne idée de mélanger SMR et ZFS, il y a juste certains qui ont essayé et trouvé que ça allait à peu près, pour du stockage pur sans besoin de perf.
 
Perso je fais du stockage pur sans besoin de perf, et pour économiser j'ai pris des 14To WD Elements/My Book, autrement dit des disques externes, que j'ai shucké. Pour l'instant plus que content du résultat.

Message cité 1 fois
Message édité par asmomo le 24-07-2020 à 15:15:44

---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1451920
lestat67se​l
:-)
Posté le 24-07-2020 à 15:14:39  profilanswer
 

asmomo a écrit :

Pour les disques j'ai un vdev de 7K4000 et c'est rock solide, pas un n'a le moindre défaut. Les WD green, WD red, seagate Barracuda, je dois en changer un de temps en temps...
 
Pour la performance seulement 4 disques, c'est quel type de RAIDZ ? Copier de la pool sur elle-même c'est pas l'idéal, perso j'ai un seul FS donc pas besoin de toute façon.


 
J'avais oublié de donner des news désolé :jap:
 
En effet c'est uniquement quand je fais de la copie du pool sur lui-même, depuis un pc tiers en plus, à travers un partage samba .. J'ai testé à froid avec uniquement une copie de ce type c'est pareil.
Tous les test que j'ai pu faire dessus sinon sont nickel.
Et quand je copie dans un seul sens je sature toujours mon réseau donc bon je me suis pas posé plus de question.
 
Je mets un +1 sur ton avis sur les 7k4000, les miens sont des vieux trucs de récup qui ont 70k heures de vol et tournent nickel.
Au taf j'arrête pas de changer des WD Red à seulement ~30k heures :(


Message édité par lestat67sel le 24-07-2020 à 15:15:42
n°1451921
asmomo
Posté le 24-07-2020 à 15:18:47  profilanswer
 

2 des applis windows que j'utilise sont justement pour de la gestion de fichiers, une pour créer/vérifier des checksum CRC32, et l'autre pour créer/vérifier des PAR. ça va beaucoup plus vite de le faire directement sur le serveur via une GUI que de passer par le réseau.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1451923
lestat67se​l
:-)
Posté le 24-07-2020 à 17:11:27  profilanswer
 

Ah bah oui c'est sur.
 
Chez moi c'est juste de la facilité d'utilisation: je suis sur mon pc de bureau, et je déplace des fichiers sur mon serveur. Je pourrais aller le faire en shell pour le faire direct sur le serveur mais bon  [:tim_coucou]

n°1452006
asmomo
Posté le 27-07-2020 à 11:08:37  profilanswer
 

Mais c'est entre 2 FS on est d'accord ?
 
Car il m'arrive de déplacer des fichiers entre 2 dossiers du même FS, depuis mon PC windows, avec donc une fenêtre de transfert windows, et ça prend un petit temps, mais clairement ça ne copie pas tout à travers le réseau, c'est le temps de donner les ordres fichier par fichier.
 
Genre je copie plusieurs milliers de fichiers pour une taille de 500Go et ça prend 5 minutes.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1452007
lestat67se​l
:-)
Posté le 27-07-2020 à 11:12:56  profilanswer
 

Ah oui sans doute une piste .. alors c'est dans le même FS côté serveur linux, mais dans deux partages samba différents ..

n°1452012
asmomo
Posté le 27-07-2020 à 13:44:51  profilanswer
 

Effectivement c'est sûrement le pb. Fais un partage racine pour la gestion de fichiers.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1452095
qwrty
BFG!
Posté le 29-07-2020 à 09:20:37  profilanswer
 

Les travaux pour l’expansion ont un peu reprit: https://github.com/openzfs/zfs/pull/8853
 
Du moins y'a de l'activité sur le thread :o


---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1454628
lestat67se​l
:-)
Posté le 02-10-2020 à 17:13:09  profilanswer
 

Hello,  
 
J'ai le disque système de mon proxmox qui a craché.
je viens de le remplacer, réinstaller proxmox, et j'essai de retrouver mes donner sur mon pool ZFS.
 
J'ai import mon pool avec

Code :
  1. zpool import zpool1 -f


 
Ca a l'air de marcher, quand je fais un df -h je vois mon pool avec les bonne taille, par contre si je browse dedans je vois que ça:

Code :
  1. root@s-root:/dev/zpool1# ls
  2. vm-116-disk-0  vm-116-disk-0-part1  vm-116-disk-0-part2  vm-116-disk-0-part3


 
Du coup je vois les disques d'une VM KVM que j'avais dessus, ça Ok;
Par contre je devrais avoir également 3 dossiers, que je ne vois pas.
 
Une idée ?
 
Edit: c'est bon j'ai rien dit, j'suis un gros boulet/noob :o
 
J'étais dans /dev/zpool1 pas dans le mountpoint /zpool1 :D :o
 
je laisse mon post pour la postérité :o
 
Du coup c'est quand même de la balle ce système !
j'ai tout remonté en 2 temps 3 mouvements :)


Message édité par lestat67sel le 02-10-2020 à 18:00:58
n°1454813
asmomo
Posté le 08-10-2020 à 11:42:07  profilanswer
 

Réponse à une question de c_planet sur un autre thread (test secteurs défectueux sur ZFS) :
 
Le ZFS se fout un peu du disque, pour lui c'est juste un objet qui répond à certaines commandes de lecture/écriture. Par contre quand tu fais un scrub (test complet de l'intégrité des données) un disque foireux saute aux yeux (voire se faire éjecter de l'array). Ou juste à l'usage tu as des stats d'erreurs, dès qu'un disque commence à avoir quelques erreurs c'est pas bon signe. C'est un des trucs géniaux avec ZFS je trouve c'est qu'il vérifie et répare les données à la lecture.
 
Je laisse aux autres le soin de péciser s'il existe un soft de check disk (surtout sur solaris/opensolaris).


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1457597
frenchieis​verige
Nej, men HEJSAN!
Posté le 04-12-2020 à 21:25:35  profilanswer
 

:hello:  
 
Est-il possible de configurer un z-pool de tel sorte que si il perd un vdev, seulement les données de ce vdev sont perdues?
Je compte mettre un disque par vdev.  
 


---------------
[TU]: Linux Mint | NAS Homemade | Noyau Linux | OpenMediaVault | Windows 11
n°1458506
qwrty
BFG!
Posté le 21-12-2020 à 22:22:03  profilanswer
 

:hello:  
 
J’ai un disque qui commence à montrer un signe de fatigue.  
 
J’aimerais dans un premier temps « condamné le block défectueux si possible et voir comment la situation évolue avant de remplacer le disque si vraiment nécessaire. (C’est ce qui arrivera certainement  :whistle: )
 

Code :
  1. SMART Attributes Data Structure revision number: 16
  2. Vendor Specific SMART Attributes with Thresholds:
  3. ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  4.   1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  5.   3 Spin_Up_Time            0x0027   213   194   021    Pre-fail  Always       -       8316
  6.   4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       134
  7.   5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  8.   7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9.   9 Power_On_Hours          0x0032   047   047   000    Old_age   Always       -       39211
  10. 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
  11. 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
  12. 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       134
  13. 192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       71
  14. 193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       401
  15. 194 Temperature_Celsius     0x0022   123   107   000    Old_age   Always       -       29
  16. 196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
  17. 197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
  18. 198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
  19. 199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
  20. 200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       1
  21. SMART Error Log Version: 1
  22. No Errors Logged
  23. SMART Self-test log structure revision number 1
  24. Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
  25. # 1  Short offline       Completed without error       00%     39211         -
  26. # 2  Extended offline    Completed: read failure       70%     39202         2941213240
  27. # 3  Extended offline    Completed: read failure       70%     39197         2941213240


 
C’est quoi la méthode la plus simple quand on le disque est dans un zpool ?
 
Je passe le disque en offline et j’essaye avec hdparm par exemple ?
 
Puis ensuite resilver / scrub.  
 
J’ai jamais eu à faire ça, donc je ne sais pas vraiment comment prendre le pb.  [:transparency]  
 
Vos avis ?


Message édité par qwrty le 21-12-2020 à 22:24:57

---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Résolu] Changement de carte mère : Linux en grève[RESOLU] Quel linux choisir avec ma mini config ?
Linux commande pour savoir les services qui sont installés ?Problème avec apache sur linux debian/ install GLPI
filezilla server sous linux[Gnu/Linux] Ouverture d'un xterm dans mon application graphique.
Installation serveur Darwin sous LinuxRecherche Mini pc tournant avec distrib linux
Routage et VLAN sous Linux - Virtualisation[Débutant] Linux et OS Alternatifs
Plus de sujets relatifs à : [Topic ZFS] ZFS on Linux et BSD - débats/questions


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR