Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2479 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Suivante
Auteur Sujet :

Raid is dead ? (raid 5 debian)

n°1273669
T3K
Berserk Overkill Certified
Posté le 11-04-2011 à 03:04:52  profilanswer
 

Reprise du message précédent :
C'est pas un pb le nommage des disques.
 
Par contre l'ordre est ULTRA important vu qu'on va réécrire de façon arbitraire les superblock, la moindre erreur dans l'ordo et tu perds TOUT, d'où mon insistance sur ce point. Tout l'algo de distribution des parités et des données repose sur l'ordre. En temps normal, les disques ont une num inerne, ce qui ne pose pas de pb. Là on est dans le cas où on indique arbitrairement la numérotation des disques, donc l'ordre est primordial et surtout il faut le gérer manuellement tant que tes disques n'auront pas un nouveau jeu de superblock.
 
Les 4 grosses info pour remonté un raid cassé :
 
-Le type de raid bien sûr
-L'ordre des disques (inversion = foutu), on va le retrouver t'inquiète pas pour ça, j'ai déjà reconstitué les pièces du puzzle avec les infos que tu m'a filé.
-Le chunk size (mauvaise taille = foutu), info déjà connue : 64K
-l'algo de distribution des parités et données (2 méthodes de distribution des parités, 2 méthodes de distribution des données, ça fait 4 combinaisons en tout, mauvais algo = foutu), info déjà connue : left-symmetric
 
La sortie de ton mdadm --examine n'est pas complète,il manque le plus important : la ligne "this" qui est le point de repère pour chaque disque (et oui vu que les noms peuvent changer (d'ailleurs c'est le cas là), je me base pour l'ordre uniquement sur la numérotation absolue dans le raid et jamais sur le nom  du fichier de block du disque).
 
La 2eme info la plus importante, c'est la ligne "event" qui permet de savoir dans quel ordre les disques ont été sortis du raid, ce qui permet donc d'éjecter d'office le premier disque à avoir foiré chronologiquement, ce qui permet d'être tranquile lors de la reformation du raid. Comme tu as 3 disques sur 4 avec un event à 126, même pas peur  :lol:  
 
Le seul truc que je ne pige pas dans l'ordre : tu as changé les disques de chassis ? Ou juste rebranchés en vrac ? :D  
 
 
parceque sinon la soluce la plus simple c'est encore de se contenter de faire un ordonancement logique sans se préoccuper du matos, mais il me faut une sortie mdadm -E complète de tous les disques pour ça, tu en as déjà posté une mais je ne sais pas si tu as apporté des modif' dans tes branchements de disques.
 
 
J'ai fait des cassages de raid très sale ce WE, vraiment TRES sales, à chaud, avec de l'écriture en court et des erreurs d' I/O en prime, j'ai tout remonté, et ça marche, j'ai réussi à chaque tenta, bon le système de fichier à été bien poutré par moment mais fsck à réussi à le rafistoler à chaque fois ;)


Message édité par T3K le 11-04-2011 à 03:18:55
mood
Publicité
Posté le 11-04-2011 à 03:04:52  profilanswer
 

n°1273673
kemkem
back to the /s
Posté le 11-04-2011 à 07:42:45  profilanswer
 

En fait j'ai un chassis en metal qui contient 3 disques, et un 4ème qui est tout seul vissé au boitier..
C'est un peu à l'arrache en attendant mieux..
 
Je n'ai pas changé l'ordre dans le chassis par contre il est super possible que j'ai changé les branchements !
(je ferais super gaffe avec ca maintenant !)
 
merci pour ta réponse !
 
Voilà sortie de mdadm, je ne changerais plus les branchements :)

mdadm --examine /dev/sd[b-e]1
/dev/sdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 72f23314:6604bd26:2657f2ae:544b650d
  Creation Time : Sun Sep 27 18:12:27 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
 
    Update Time : Sat Apr  2 20:03:47 2011
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1
       Checksum : cf55b9b8 - correct
         Events : 120
 
         Layout : left-symmetric
     Chunk Size : 64K
 
      Number   Major   Minor   RaidDevice State
this     2       8       49        2      active sync   /dev/sdd1
 
   0     0       0        0        0      removed
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       8       33        3      active sync   /dev/sdc1
   4     4       8        1        4      spare   /dev/sda1
/dev/sdc1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 72f23314:6604bd26:2657f2ae:544b650d
  Creation Time : Sun Sep 27 18:12:27 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
 
    Update Time : Sat Apr  2 20:07:32 2011
          State : clean
 Active Devices : 2
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 1
       Checksum : cf55ba80 - correct
         Events : 126
 
         Layout : left-symmetric
     Chunk Size : 64K
 
      Number   Major   Minor   RaidDevice State
this     4       8        1        4      spare   /dev/sda1
 
   0     0       0        0        0      removed
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       0        0        2      faulty removed
   3     3       8       33        3      active sync   /dev/sdc1
   4     4       8        1        4      spare   /dev/sda1
/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 72f23314:6604bd26:2657f2ae:544b650d
  Creation Time : Sun Sep 27 18:12:27 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
 
    Update Time : Sat Apr  2 20:07:32 2011
          State : clean
 Active Devices : 2
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 1
       Checksum : cf55ba90 - correct
         Events : 126
 
         Layout : left-symmetric
     Chunk Size : 64K
 
      Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/sdb1
 
   0     0       0        0        0      removed
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       0        0        2      faulty removed
   3     3       8       33        3      active sync   /dev/sdc1
   4     4       8        1        4      spare   /dev/sda1
/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 72f23314:6604bd26:2657f2ae:544b650d
  Creation Time : Sun Sep 27 18:12:27 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
 
    Update Time : Sat Apr  2 20:07:32 2011
          State : clean
 Active Devices : 2
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 1
       Checksum : cf55baa4 - correct
         Events : 126
 
         Layout : left-symmetric
     Chunk Size : 64K
 
      Number   Major   Minor   RaidDevice State
this     3       8       33        3      active sync   /dev/sdc1
 
   0     0       0        0        0      removed
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       0        0        2      faulty removed
   3     3       8       33        3      active sync   /dev/sdc1
   4     4       8        1        4      spare   /dev/sda1

n°1273726
T3K
Berserk Overkill Certified
Posté le 11-04-2011 à 12:36:16  profilanswer
 

ok, je vais regarder un dernier truc: il est possible de mettre un raid en lecture seulle avec md (mais j'avoue que ce genre d'option ne me sert jamais), donc je vais voir s'il est possible de le mettre en ro dès la créatiton dégradée, ça évitera toute corruption en cas d'erreur de numérotation, le temps de voir si tu peux monter le volume en RO et que tu peux accéder aux données [:athlonxp2100+]
 
 
EDIT
 
maintenant le truc, c'est de savoir comment as-tu organisé l'intérieur de ton raid ? un fs (ext3 ?) écrit en direct, une structure avec lvm ?
 
ça permettrait d'éviter les suprises
 
 
pour le moment, tu peux déjà faire ceci pour recréer les superblock et passer instantanément le raid en lecture seulle :
 

Code :
  1. mdadm --create /dev/md0 --level=5 --chunk=64 --layout=ls --raid-devices=4 /dev/sd[cd]1 missing /dev/sde1;mdadm --manage /dev/md0 -o


 
ensuite tu fais un fsck (vérif forcée et en lecture seulle), bref un fsck.ext3 -fn /dev/md0 si tu es en ext3 écrit en direct sur md0 pour vérifier qu'il n'y a pas de corruption du fs
 
pour repasser le raid en rw :
 

Code :
  1. mdadm --manage /dev/md0 -w


 
puis remonter le volume, attention en ext3 des fois j'ai eu des merdes avec le journal, le mieux est encore de faire un montage en lecture seulle et en tant que ext2:
 

Code :
  1. mount -t ext2 -o ro /dev/md0 /mnt/test


 
dès que les données sont à nouveau accessible, tu peux immediatement lancer le rebuild du raid5 :
 

Code :
  1. mdadm /dev/md0 -a /dev/sdb1


 
et comme le rebuild va ralentir à mort le système si tu veux encore taper des commandes sans avoir l'impression que ça rame :
 

Code :
  1. nice -n -20 bash


 
et enfin, tu peux soit faire la récup' de tes données sur un gros disque externe, soit tenter de réparer le fs, là après ça dépend, mais genre tu démontes, tu reconstruit un journl si il a été pété (tune2fs -j /dev/md0), et autre trucs du genre, pour le moment je suis sûr pour le raid, moins pour l'état du fs. Le pb étant que c'est un très gros fs donc impossible de le répliquer facilement sur d'autres disques
 
une fois que le raid aura été refait, les pb qui peuvent persister avec ext3 sont les suivants :
 
-pb avec le journal (résolu en supprimant le journal, fsck puis recréation de journal et remontage)
-pb avec le LABEL (résolu en supprimant le label/rebootant/refaire le label) je suis un gros utilisateur de label (RHEL et centos style) donc c'est pout ça que je précise ce point qui m'a posé pb à plusieurs reprises, là idem, j'ai eu des pb de LABEL avec jfs et reiserfs aussi :lol:

Message cité 1 fois
Message édité par T3K le 11-04-2011 à 14:55:07
n°1273778
kemkem
back to the /s
Posté le 11-04-2011 à 15:23:11  profilanswer
 

Cool, je vais tester ca ce soir
 
Sur mon raid, c'est du ext3 direct.
 
Je donne des news dès que je commence...
 

n°1273828
kemkem
back to the /s
Posté le 11-04-2011 à 16:50:00  profilanswer
 

Bon je suis pas encore chez moi mais j'ai pris 5min pour lire ton post (mes commentaires en gras ci-dessous)
 

T3K a écrit :


 
maintenant le truc, c'est de savoir comment as-tu organisé l'intérieur de ton raid ? un fs (ext3 ?) écrit en direct, une structure avec lvm ?
ça permettrait d'éviter les suprises
 
-> comme je disais, direct ext3 écrit sur /dev/md0
 
pour le moment, tu peux déjà faire ceci pour recréer les superblock et passer instantanément le raid en lecture seulle :
 

Code :
  1. mdadm --create /dev/md0 --level=5 --chunk=64 --layout=ls --raid-devices=4 /dev/sd[cd]1 missing /dev/sde1;mdadm --manage /dev/md0 -o


 
ensuite tu fais un fsck (vérif forcée et en lecture seulle), bref un fsck.ext3 -fn /dev/md0 si tu es en ext3 écrit en direct sur md0 pour vérifier qu'il n'y a pas de corruption du fs
 
-> la je comprend pas trop : comme je suis en ext3, je lance le fsck avec le raid en rw ? (comme tu précise à la ligne suivante ?)

pour repasser le raid en rw :
 

Code :
  1. mdadm --manage /dev/md0 -w


 
puis remonter le volume, attention en ext3 des fois j'ai eu des merdes avec le journal, le mieux est encore de faire un montage en lecture seulle et en tant que ext2:
 

Code :
  1. mount -t ext2 -o ro /dev/md0 /mnt/test


 


 
Tks a lot !


Message édité par kemkem le 11-04-2011 à 16:50:44
n°1273854
kemkem
back to the /s
Posté le 11-04-2011 à 18:41:25  profilanswer
 

Je suis chez moi, j'essaye de comprendre la logique du create.
 
Pour moi on a :
 
device actuel - device avant - number - state
 


sdc1 - sda1 - 4 - spare
sdd1 - sdb1 - 1 - ok
sde1 - sdc1 - 3 - ok
sdb1 - sdd1 - 2 - missing


 
si je fais la correspondance avec ta commande create :


create sdc1    sdd1    missing         sde1
create sda1(4) sdb1(2) missing:sdd1(2) sdc1(4)


 
du coup je pige pas la logique.. et j'aimerais bien pour bien comprendre et ré-iterer ce genre d'exploits dans le futur :p
 
tu vois ce que je veux dire ?
 
Sinon, j'ai exécuté (en annulant lorsque mdadm me demande la confirmation) et la commande  
 

mdadm --manage /dev/md0 -o


donne le msg d'erreur suivant :

mdadm: option -o not valid in manage mode


est-ce normal ? (création non effectuée donc possible que oui)
 
Merci !


Message édité par kemkem le 11-04-2011 à 18:42:03
n°1273864
T3K
Berserk Overkill Certified
Posté le 11-04-2011 à 20:06:24  profilanswer
 

possible en effet : le -o permet le passage d'une grappe en lecture seulle, après le truc vient peut-être de la version de mdadm incorporée à deb' 6 sachant que j'ai fait mes tests sur du centos 5
 
en fait ma logique : retrouver la num interne de tes disques  (ligne "this", je ne regarde même pas comment les disques se voient entre eux relativement, étant donné que c'est justement de là que vient le pb, ce qui sera affiché sera de toutes façons erroné, mais seullement leur numérotation absolue qui est la seulle bonne info dans tout ça) et si les données sont à jour ou pas (un des disque ne l'est pas, ligne "event" ). après je suis parti du principe que le disque #4 (qui n'est pas censé exister) était le disque #0 en état removed et repassé en spare (par je ne sais quel miracle), les autres étants coérents.
 
Au pire, même si tu reconstruit ta grappe dégradée de travers, il n'y a aucun risque perte de données tant que :
-tu n'écris rien sur md0 (absolument aucune opé d'écriture)
-tant que tu ne réintègres pas le dernier disque (ce aurait pour conséquence de lancer un rebuild et va écraser des données existantes à récupérer avec des parités en cas d'erreur)
 
sion pas de soucils pour le fs en ext3 (disons que je n'utilises jamais ext3 pour du stockage, chez moi c'est à fond XFS \o/), et ouais faire un fsck avec le raid en rw, par sécu un fsck.ext3 -n préliminaire qui n'apporte pas de changement au fs même en cas d'erreur, ça permet déjà de savoir si le fs est intègre ou non avant de tenter un montage


Message édité par T3K le 11-04-2011 à 20:10:19
n°1273867
kemkem
back to the /s
Posté le 11-04-2011 à 20:35:45  profilanswer
 

Ok.
 
Je tente quand je serais de nouveau a la maison.
 
Je m'inquiete pas mal de ce qui a pu se passer quand j'ai installé tout ca sur une conf pourrie.. bon on verra bien
 
Merci en tout cas!

n°1273904
kemkem
back to the /s
Posté le 11-04-2011 à 22:39:36  profilanswer
 

Bon je viens de tester le mdadm create ; fsck.ext3 n'est pas d'accord
 

fsck.ext3 -fn /dev/md0
e2fsck 1.41.12 (17-May-2010)
fsck.ext3: Superblock invalid, trying backup blocks...
fsck.ext3: Bad magic number in super-block while trying to open /dev/md0
 
The superblock could not be read or does not describe a correct ext2
filesystem.  If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>


 
Si j'ai suivi, ça veut dire qu'il faut tester avec un autre ordre, genre

mdadm --create /dev/md0 --level=5 --chunk=64 --layout=ls --raid-devices=4 /dev/dc[cd]1 missing /dev/sde1


Puis

mdadm --create /dev/md0 --level=5 --chunk=64 --layout=ls --raid-devices=4 missing /dev/dc[cd]1 /dev/sde1


...
Jusqu’à ce que fsck soit d'accord ?
 
Je confirme que la commande de read only n'est pas acceptée par mdadm dans ce mode
(pourtant elle est présente dans le man)

n°1273923
kemkem
back to the /s
Posté le 12-04-2011 à 00:24:04  profilanswer
 

Ah et ya moyen de défaite le raid ?
Il rale quand j'essaye avec une autre combinaison ..

mood
Publicité
Posté le 12-04-2011 à 00:24:04  profilanswer
 

n°1273927
T3K
Berserk Overkill Certified
Posté le 12-04-2011 à 01:27:17  profilanswer
 

mdadm --stop /dev/md0, n'essayes pas de bouger l'ordre de missing, la combinaison ne doit pas être bonne, j'espère surtout que le disque marqué en spare ne va pas poser de pb.
 
pour le moment, il faut faire un --stop avant de réarranger la grappe, et puis bon, des cat /proc/mdstat pour surveiller  :D
 
à mon avis, tu n'a pas du défaire la grappe telle qu'elle était reconnue avant de lancer le fsck, ce qui explique l'erreur.
 
bref, pour le moment tu repart là dessus :
 

Code :
  1. mdadm --stop /dev/md0
  2. mdadm --create /dev/md0 --level=5 --chunk=64 --layout=ls --raid-devices=4 /dev/sd[cd]1 missing /dev/sde1
  3. cat /proc/mdstat     #pour bien observer l'état de la grappe, normalement à ce stade tu as 3 disques sur 4, sdb n'ayant pas été réintégré
  4. fsck.ext3 -fn /dev/md0


 
par la logique, je ne vois pas quel autre ordre on pourrait avoir, essayes déjà ceci avant de tenter autre chose.


Message édité par T3K le 12-04-2011 à 01:33:56
n°1273943
kemkem
back to the /s
Posté le 12-04-2011 à 09:13:09  profilanswer
 

La création de la grappe fonctionne :

root@pacem:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
 
root@pacem:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
unused devices: <none>
root@pacem:~# mdadm --create /dev/md0 --level=5 --chunk=64 --layout=ls --raid-devices=4 /dev/sd[cd]1 missing /dev/sde1
mdadm: /dev/sdc1 appears to contain an ext2fs file system
    size=-1364687488K  mtime=Fri Apr  1 02:47:01 2011
mdadm: /dev/sdc1 appears to be part of a raid array:
    level=raid5 devices=4 ctime=Mon Apr 11 22:27:33 2011
mdadm: /dev/sdd1 appears to be part of a raid array:
    level=raid5 devices=4 ctime=Mon Apr 11 22:27:33 2011
mdadm: /dev/sde1 appears to contain an ext2fs file system
    size=-1096252032K  mtime=Fri Apr  1 02:47:01 2011
mdadm: /dev/sde1 appears to be part of a raid array:
    level=raid5 devices=4 ctime=Mon Apr 11 22:27:33 2011
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
 
root@pacem:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sde1[3] sdd1[1] sdc1[0]
      2930276352 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/3] [UU_U]
 
unused devices: <none>


 
mais malheuresement fsck ne considère pas le fs valide..

root@pacem:~# fsck.ext3 -fn /dev/md0
e2fsck 1.41.12 (17-May-2010)
fsck.ext3: Superblock invalid, trying backup blocks...
fsck.ext3: Bad magic number in super-block while trying to open /dev/md0
 
The superblock could not be read or does not describe a correct ext2
filesystem.  If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>


Message édité par kemkem le 12-04-2011 à 09:15:06
n°1273977
T3K
Berserk Overkill Certified
Posté le 12-04-2011 à 12:28:20  profilanswer
 

ok, donc efectivement il va y avoir plusieurs combinaisons à tester  :whistle:
 
je vais essayer de la classer par num de version minor de périph' block, ce qui donne :
 

Code :
  1. mdadm --stop /dev/md0
  2. mdadm --create /dev/md0 --level=5 --chunk=64 --layout=ls --raid-devices=4 /dev/sd[c-e]1 missing
  3. fsck.ext3 -fn /dev/md0


 
j'ai regardé, en fait ça semble plus logique (ça correspond bien à l'équivalent de /dev/sd[a-c]1 missing sur ton ancienne machine, donc c'est mieux barré  :sol: )
 
un conseil : si jamais il y a encore des test de reconstruction à faire, je te conseilles de faire un --stop juste après un échec au fsck  ;)  
mais avec cette séquence là ça me paraît bien mieux barré qu'avec la première


Message édité par T3K le 12-04-2011 à 12:41:34
n°1273978
kemkem
back to the /s
Posté le 12-04-2011 à 12:39:27  profilanswer
 

Ca va être drôle :)

n°1273979
T3K
Berserk Overkill Certified
Posté le 12-04-2011 à 12:42:56  profilanswer
 

donc mouaip à priori y'avait 2 disques d'inversés dans ma toute première commande \o/

n°1273981
kemkem
back to the /s
Posté le 12-04-2011 à 12:44:41  profilanswer
 

c'est à a dire ?
 
ca fait bcp de combaison mais y'a ptet moyen d'optimiser..
 
un script sinon ?
 
j'avais pas vu ton edit
 
j'essaye


Message édité par kemkem le 12-04-2011 à 12:49:18
n°1273982
T3K
Berserk Overkill Certified
Posté le 12-04-2011 à 12:49:18  profilanswer
 

non, y'a pas 36 combinaisons, essayes déjà avec /dev/sd[c-e]1 missing
 
à priori, on a 24 combinaisons possibles :lol:
 
bon, je restes encore quelques minutes, après il faut que j'aille dégarnir une portière de ma bagnole  :pt1cable:

Message cité 1 fois
Message édité par T3K le 12-04-2011 à 12:50:42
n°1273984
kemkem
back to the /s
Posté le 12-04-2011 à 12:51:17  profilanswer
 

marche pô :)
 
bon...

n°1273985
kemkem
back to the /s
Posté le 12-04-2011 à 12:52:49  profilanswer
 

T3K a écrit :

non, y'a pas 36 combinaisons, essayes déjà avec /dev/sd[c-e]1 missing
 
à priori, on a 24 combinaisons possibles :lol:


merci :p
bon je sens que je vais faire un script

T3K a écrit :


 
bon, je restes encore quelques minutes, après il faut que j'aille dégarnir une portière de ma bagnole  :pt1cable:


 
passage de cable ? vitre qui ferme plus ?


Message édité par kemkem le 12-04-2011 à 12:53:08
n°1273986
kemkem
back to the /s
Posté le 12-04-2011 à 12:54:47  profilanswer
 
n°1273988
T3K
Berserk Overkill Certified
Posté le 12-04-2011 à 12:59:28  profilanswer
 

ou alors y'a eu une merdouille au passage d'un des disques en spare, et là ce serait la merde, il faudrait réintégrer ton actuel sdb dans la séquence et virer ton actuel sdc.
 
Tu peux toujours essayer ton script, mais je ne sais pas s'il est prévu pour fonctionner sur un raid qui n'a pas ses superblock d'origine
 
D'ailleurs, le script ne prend même pas en charge les différents algo de distrib' des parités  :lol:
un point à améliorer donc (j'aime bien le right asymmetric, plus perf' que le left-symmetric en écriture)  :D  

Message cité 1 fois
Message édité par T3K le 12-04-2011 à 13:02:56
n°1273989
kemkem
back to the /s
Posté le 12-04-2011 à 13:01:50  profilanswer
 

Ca craint d'essayer sdc = missing au lieu de sdb = missing ?

n°1273991
T3K
Berserk Overkill Certified
Posté le 12-04-2011 à 13:03:37  profilanswer
 

bah ça craint rien tant que tu ne fais pas d'opé d'écriture sur md0
dans tous les cas il faut changer l'ordre de toutes façons
 
parceque niveau combinaisons, si on prend en compte le nb de combi possible avec un missing, ça donne 96 combinaisons au total  :pt1cable:

Message cité 1 fois
Message édité par T3K le 12-04-2011 à 13:04:33
n°1273992
kemkem
back to the /s
Posté le 12-04-2011 à 13:04:44  profilanswer
 

T3K a écrit :


D'ailleurs, le script ne prend même pas en charge les différents algo de distrib' des parités  :lol:
un point à améliorer donc (j'aime bien le right asymmetric, plus perf' que le left-symmetric en écriture)  :D  


 
Dans notre cas on sait que c'est du ls deja :p
 
risqué de faire du mount au lieu de fsck (comme le fait le script ?)

n°1273994
kemkem
back to the /s
Posté le 12-04-2011 à 13:11:32  profilanswer
 

T3K a écrit :

bah ça craint rien tant que tu ne fais pas d'opé d'écriture sur md0
dans tous les cas il faut changer l'ordre de toutes façons
 
parceque niveau combinaisons, si on prend en compte le nb de combi possible avec un missing, ça donne 96 combinaisons au total  :pt1cable:


 
Effectivement, je viens de lancer le script en mode test et c'est le nombre de combinaisons testées...
 
bon :) je me lance  :(

n°1273999
kemkem
back to the /s
Posté le 12-04-2011 à 13:30:16  profilanswer
 

Ca ne donne pas de résultat...
 
Et mer....
 
(j'ai modifié le script pour passer le --chunk=64 et --layout=ls)
 
Je crois que je vais finir par me résoudre à la perte de mes données...

n°1274052
kemkem
back to the /s
Posté le 12-04-2011 à 21:28:55  profilanswer
 

Qu'en pense tu? C'est cuit ?:(

n°1274053
T3K
Berserk Overkill Certified
Posté le 12-04-2011 à 22:03:40  profilanswer
 

J'ai l'impression que c'est le passage de ton disque en spare pendant un temps qui pose pb en fait, parceque je n'ai pas réussi à reproduire ce comportement là avec md :/
 
 
Sinon, il teste à voir si des soft comme raid reconstructor fonctionnent avec md, ça me paraît bien possible. A voir donc

n°1274057
kemkem
back to the /s
Posté le 12-04-2011 à 23:51:45  profilanswer
 

Je vais laisser ces disques de coté et monter une nouvelle grappe avec de nouveaux disques (4x 2To)
 
J'y mettrais mes backups (partiels, hélas)
 
La pour l'instant j'en ai marre de galérer :/
 
Du coup si tu as des conseils sur la création d'un nouveau raid tout neuf :p je suis preneur !

n°1274129
T3K
Berserk Overkill Certified
Posté le 13-04-2011 à 13:48:06  profilanswer
 

mouaip, c'est le bordel ton affaire quand même ^^"
 
Pour la gestion des raid, voilà comment je m'y prends (déformation professionnelle aussi):
 
-Je stocke les données sur un NAS avec du raid5
-Je fais des backup différentiels réguliers du NAS
-Mes grappes raid sont toutes numérotés, et même avant que je soit un maniac du dymo, je m'arrangeais toujours pour classer mes disques dans un ordre logique (par numéro de série croissant par exemple) vissé/rackés dans l'ordre dans le chassis, branchés dans l'ordre sur le contrôleur/la mobo, reconnus dans l'ordre dans l'OS, etc.... bref tout est fait pour ne jamais se planter, même si l'ordre ne joue pas quand tout fonctionne, ça devient vite galère au premier pépin comme tu as pu le constater
 
Pour la création du raid (surtout les raid5), si tu compte continuer sur md, voilà d'autres points :
 
-toujours créer un journal (bitmap interne), option --bitmap=internal (ça marche au --create et au --grow)
-essayer différents algo de distribution, pour l'instant j'ai toujours eu de meilleurs résultats avec --layout=ra (right asymmetric : les partiés progressent vers la "droite" (du premier vers le dernier disque à chaque nouvelle série de bandes) et une nouvelle série de bandes de données repart sur le premier disque)
-essayer avec differents chunk size, quand tu as un NAS dédié au stockage, tu peux te permettre de diminuer le chunk size (ça augemente pas trop mal les débits), ça augmentera la charge CPU mais c'est pas bien grave vu qu'il est justement là pour ça :D
-Ne pas hésiter à éventuellement découper un raid md avec lvm2 si besoin.
-Essayer d'autres fs que ext3 qui est finalement peu performant, tu aura de bien meilleurs résultats avec reiserfs sur les petites fichiers et avec XFS et JFS sur les gros fichiers, quant aux arborescences énormes avec plusieurs millions de fichiers, là ya pas photo : XFS direct :lol:
 
-toujours avoir un bon bloc d'alim (mais bon, c'est déjà ton cas), il ne faut jamais rogner sur la qualité des blocs d'alim, une noname c'est traître :lol:
-je recommande très vivement d'avoir un ondulo pour le NAS, assez puissant pour tenir 20 minutes
-avec les disques : idem, prendre des disques prévus pour le 24/7 si possible, perso j'ai des WD RE3 pour mes données (maintenant ce sont les RE4 les nouveaux), c'est disques sont plus cher que des caviar black (en fait ce sont des caviar black à firm modifié et qui subbissent un test de torture de 36 à 48H avant conditionnement, tout comme les disques SCSI ou SAS) mais leur garantie est de 5 ans, ces disques sont vraiment excellents mais demandent forcément un gros budget vu que c'est des disques SATA de serveur. Sinon tu as aussi les disques prévu pour un usage en videosurveillance qui sont moins cher et probablement tout aussi bien et prévus pour être très solicités mais avec une garantie de 3 ans : http://www.ldlc.com/fiche/PB00109952.html Dans tous les cas, comme pour l'alim, il ne faut jamais rogner sur la qualité des disques, et il faut éviter de se laisser séduire pour les prix attractifs des samsung, ces disques sont performants et pas chers, mais dans les faits les taux de pannes sont vraiment énormes, bref tu peux tirer une croix sur tous les samsung en technologie PMR parceque si tu fais du raid5 avec tu va devoir les acheter par palettes entières :o
Idem, je ne recommanderais pas seagate (sauf dans les gammes pro : constellation, cheetah, savvio), je peux te dire que regarder les valeurs smart d'un barracuda ça fout des grosses frayeurs des fois  :lol:


Message édité par T3K le 13-04-2011 à 14:16:20
n°1274142
kemkem
back to the /s
Posté le 13-04-2011 à 14:22:37  profilanswer
 

Merci pour tout ces conseils et aussi pour l'aide précieuse que tu m'as apportée.
 
La perte de données est relou, mais c'est aussi une lecon (et j'ai des backup du plus important.. enfin presque )
 
Je vais monter un raid 5 3x 2To selon tes recommandations
(bitmap et tout)
 
J'ai déjà un onduleur (eaton 650), j'avais programmé le démontage de la grappe raid après 5min et l'extinction du pc au bout de 10m pour éviter tout arrêt violent
Niveau alim, j'ai opté pour une seasonic 430
 
Par contre pour les disques la solution RE4 est un peu trop chere pour moi, les AV GP ont l'air très bien mais ils ne sont pas dispos partout !
 
Donc je sais pas... Attendre ?
Caviar Green ?


Message édité par kemkem le 13-04-2011 à 14:23:12
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
Soucis connexion après mise à jour distrib DebianProxy SQUID avec authentification AD sous Debian 6
Debian: 2 Nvidia Quadro NVS450 & 8 tv fullhd verticalesProxy Compatible RTSP pour debian
serveur vpn sous debianInstallation -Debian- Centos
Debian Lenny oldstableinfo disque RAID
Debian Squeeze Installation en Raid1 
Plus de sujets relatifs à : Raid is dead ? (raid 5 debian)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR