Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2728 connectés 

  FORUM HardWare.fr
  Systèmes & Réseaux Pro
  Stockage

  Taille inattendu sur raid 5 mdadm / 1 disque ne remonte pas tout seul

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

Taille inattendu sur raid 5 mdadm / 1 disque ne remonte pas tout seul

n°147144
grichka59
Posté le 06-06-2017 à 21:31:01  profilanswer
 

Bonjour a tous,
 
Je vous expose mon problème.
 
Nous avons actuellement un raid 5 supporté par une machien debian 8 depuis mdadm, il est constitué d'une grappe de 3 disques identiques de 4 to chacun.
 
Nous avons actuellement aucune partition de montée sur ce volume raid , mais au redémarrage le disque sdb ne remonte pas tout seul, il quitte même le RAID. Nous devons l'ajouter de nouveau au RAID pour pouvoir obtenir la grappe souhaitée.
 
Voici les logs au démarage de la debian parlant du raid en question :

Citation :

[    1.756996] md: md0 stopped.
[    1.768609]  sdd: unknown partition table
[    1.770336]  sdc: unknown partition table
[    1.770681] md: bind<sdd>
[    1.770751] md: bind<sdc>
[    1.772020] EXT4-fs (sda2): re-mounted. Opts: errors=remount-ro
[    1.779810] FAT-fs (sda1): utf8 is not a recommended IO charset for FAT filesystems, filesystem will be case sensitive!
[    1.782301] FAT-fs (sda1): Volume was not properly unmounted. Some data may be corrupt. Please run fsck.
[    1.838009] raid6: sse2x1   12658 MB/s
[    1.905944] raid6: sse2x2   15602 MB/s
[    1.973890] raid6: sse2x4   16457 MB/s
[    1.973891] raid6: using algorithm sse2x4 (16457 MB/s)
[    1.973892] raid6: using ssse3x2 recovery algorithm
[    1.974397] async_tx: api initialized (async)
[    1.974783] xor: measuring software checksum speed
[    2.013887]    prefetch64-sse:  4535.000 MB/sec
[    2.053847]    generic_sse:  4223.000 MB/sec
[    2.053850] xor: using function: prefetch64-sse (4535.000 MB/sec)
[    2.056534] md: raid6 personality registered for level 6
[    2.056536] md: raid5 personality registered for level 5
[    2.056537] md: raid4 personality registered for level 4
[    2.056804] md/raid:md0: device sdc operational as raid disk 0
[    2.056806] md/raid:md0: device sdd operational as raid disk 1
[    2.056957] md/raid:md0: allocated 0kB
[    2.057040] md/raid:md0: raid level 5 active with 2 out of 3 devices, algorithm 2
[    2.057061] RAID conf printout:
[    2.057062]  --- level:5 rd:3 wd:2
[    2.057062]  disk 0, o:1, dev:sdc
[    2.057063]  disk 1, o:1, dev:sdd
[    2.057139] created bitmap (30 pages) for device md0
[    2.093186] md0: bitmap initialized from disk: read 2 pages, set 0 of 59615 bits
[    2.123548] md0: detected capacity change from 0 to 8001307017216
[    2.132449]  md0: unknown partition table
[    2.427577] EXT4-fs (md0): mounted filesystem with ordered data mode. Opts: (null)


 
Autre problème, la capacité utile du RAID ne dépasse pas 4 to alors qu'elle devrait être de 8 to.
 
Voici ce que l'on obtient avec mdadm :
*
*

Citation :

root@Hadron:/home/david# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Tue Dec 20 19:41:47 2016
     Raid Level : raid5
     Array Size : 7813776384 (7451.80 GiB 8001.31 GB)
  Used Dev Size : 3906888192 (3725.90 GiB 4000.65 GB)

   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent
 
  Intent Bitmap : Internal
 
    Update Time : Tue Jun  6 20:40:15 2017
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0
 
         Layout : left-symmetric
     Chunk Size : 512K
 
           Name : Hadron:0  (local to host Hadron)
           UUID : b0aa68ac:a435b6cb:5b4f42a1:008e3daa
         Events : 2167633
 
    Number   Major   Minor   RaidDevice State
       0       8       32        0      active sync   /dev/sdc
       2       8       48        1      active sync   /dev/sdd
       3       8       16        2      active sync   /dev/sdb


 
Voici ce que l'on obtient avec mdstat :
 

Citation :

root@Hadron:/home/david# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sdb[3] sdc[0] sdd[2]
      7813776384 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      bitmap: 0/30 pages [0KB], 65536KB chunk
 
unused devices: <none>
root@Hadron:/home/david#  fdisk -l
 
Disque /dev/sdd : 3,7 TiB, 4000787030016 octets, 7814037168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
La table de partitions GPT primaire est corrompue, mais la sauvegarde semble fon                                     ctionnelle, elle sera donc utilisée.
 
Disque /dev/sdb : 3,7 TiB, 4000787030016 octets, 7814037168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : ECD090FF-7652-4448-8046-FF42EA245A00
 
 
Disque /dev/sdc : 3,7 TiB, 4000787030016 octets, 7814037168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Disque /dev/sda : 111,8 GiB, 120034123776 octets, 234441648 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : gpt
Identifiant de disque : F9DB1ECD-C7D7-4812-B81E-FF50EF4BFD44
 
Device         Start       End   Sectors   Size Type
/dev/sda1       2048   1050623   1048576   512M EFI System
/dev/sda2    1050624 217921535 216870912 103,4G Linux filesystem
/dev/sda3  217921536 234440703  16519168   7,9G Linux swap
 


 
D'après ce que nous constatons, c'est que malgré le fait d'avoir ajouter le disque au raid 5 comme si on avait remplacé le disque, celui-ci ne récupère pas l'espace non utilisé de ce disque début la vu du débian, mais comme nous n'avons pas de partitions autre que md0 sur cette grappe raid, est-il donc necessaire d’étendre md0 aux 8to normalement disponible a l'array ?  
 
Avez-vous une idée de comment remédier a la perte de l'un des disques sur le redémarage de la machine ? et de pourquoi sdd semble indiquer une partition primaire GPT corrompu ?  
 
Merci à vous  :hello:


---------------
Samsung Galaxy Book 3 Ultra : I9 -13900H - 32go DDR5 4800mhz - RTX 4070 - SSD 1 to - 16" 3K
mood
Publicité
Posté le 06-06-2017 à 21:31:01  profilanswer
 


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Systèmes & Réseaux Pro
  Stockage

  Taille inattendu sur raid 5 mdadm / 1 disque ne remonte pas tout seul

 

Sujets relatifs
RAID pour StockageSaturation espace disque sur 2008R2
Extention espace disque sur Qnap et raid 5Chiffrement disque dur Windows
espace disque / VMRaid5 - Changement progressif des disques - nouvelle taille ?
server 2016 hyper-v créer disque lecture seul 
Plus de sujets relatifs à : Taille inattendu sur raid 5 mdadm / 1 disque ne remonte pas tout seul


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR