Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
727 connectés 

  FORUM HardWare.fr
  Linux et OS Alternatifs
  Installation

  [OMV RAID6] Récupération

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

[OMV RAID6] Récupération

n°1480246
tibodreep
Posté le 16-12-2022 à 09:52:58  profilanswer
 

Bonjour à toutes et à tous.
 
Voici ma venue ici car j'ai trouvé le topic suivant : https://cutt.ly/L0mAEta qui semble se rapprocher de mon problème.
Toutefois, pour ne pas polluer le sujet, je me suis permis de créer un nouveau topic.
 
Quelques éléments sur ma situation :
OMV installé sur un NAS maison, sans soucis particulier semble-t-il jusque là (2-3 ans).
1 ssd système (+1 de réserve en cas de crash) + sauvegarde du système initial (si tout va bien... faut qe je remette la main dessus)
6 HDD de 2To en RAID6 (+2 en reserve en cas de crash)
Les SSD sont "neufs", les HDD pas tout jeunes.
 
Problème :
Je lance mon NAS et là, plus d'accès à Docker, Portainer. Je me connecte en local, je dois les reinstaller. A la réinstallation, il retrouve tous mes containers mais ngingx par exemple, tout avait sauté...
Je jette alors un oeil sur OMV plus en détail et là, plus de RAID. Ne m'est même pas proposé de récupération. Les disques dur sont bien présents et reconnus comme vous pourrez le voir sur les captures d'écran.
Je sais que l'un de mes HDD était un peu moyen (idem, toutes les infos en capture d'écran).
 
Solution :
Aucune pour le moment mais je tombe sur le sujet cité plus haut et j'ai pris la peine de faire toutes les commandes demandées au début du post, je vous mets l'ensemble ci-dessous.
Avant d'aller plus loin ou de tenter quoi que se soit, j'ai besoin d'un avis voir de tenter une reconstruction, mais je ne veux pas faire de bêtises, alors je viens vers vous.
 
 :bounce: Merci de votre aide par avance. :bounce:  
 
Pièces jointes :
 
Captures OMV :
https://i90.servimg.com/u/f90/15/02/82/64/nas110.png
https://i90.servimg.com/u/f90/15/02/82/64/nas210.png
https://i90.servimg.com/u/f90/15/02/82/64/nas310.png
 
Résultat du rapport smart sur le disque abîmé :

Code :
  1. smartctl 7.2 2020-12-30 r5155 [x86_64-linux-5.10.0-19-amd64] (local build)
  2. Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org
  3. === START OF INFORMATION SECTION ===
  4. Model Family:     Western Digital Purple (Pro)
  5. Device Model:     WDC WD20PURX-64P6ZY0
  6. Serial Number:    WD-WCC4M7EPE5KH
  7. LU WWN Device Id: 5 0014ee 2b90d65df
  8. Firmware Version: 80.00A80
  9. User Capacity:    2,000,398,934,016 bytes [2.00 TB]
  10. Sector Sizes:     512 bytes logical, 4096 bytes physical
  11. Rotation Rate:    5400 rpm
  12. Device is:        In smartctl database [for details use: -P show]
  13. ATA Version is:   ACS-2 (minor revision not indicated)
  14. SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
  15. Local Time is:    Fri Dec 16 09:28:01 2022 CET
  16. SMART support is: Available - device has SMART capability.
  17. SMART support is: Enabled
  18. AAM feature is:   Unavailable
  19. APM feature is:   Unavailable
  20. Rd look-ahead is: Enabled
  21. Write cache is:   Enabled
  22. DSN feature is:   Unavailable
  23. ATA Security is:  Disabled, NOT FROZEN [SEC1]
  24. Wt Cache Reorder: Enabled
  25. === START OF READ SMART DATA SECTION ===
  26. SMART overall-health self-assessment test result: PASSED
  27. General SMART Values:
  28. Offline data collection status:  (0x82) Offline data collection activity
  29.     was completed without error.
  30.     Auto Offline Data Collection: Enabled.
  31. Self-test execution status:      (   0) The previous self-test routine completed
  32.     without error or no self-test has ever
  33.     been run.
  34. Total time to complete Offline
  35. data collection:   (26280) seconds.
  36. Offline data collection
  37. capabilities:     (0x7b) SMART execute Offline immediate.
  38.     Auto Offline data collection on/off support.
  39.     Suspend Offline collection upon new
  40.     command.
  41.     Offline surface scan supported.
  42.     Self-test supported.
  43.     Conveyance Self-test supported.
  44.     Selective Self-test supported.
  45. SMART capabilities:            (0x0003) Saves SMART data before entering
  46.     power-saving mode.
  47.     Supports SMART auto save timer.
  48. Error logging capability:        (0x01) Error logging supported.
  49.     General Purpose Logging supported.
  50. Short self-test routine
  51. recommended polling time:   (   2) minutes.
  52. Extended self-test routine
  53. recommended polling time:   ( 266) minutes.
  54. Conveyance self-test routine
  55. recommended polling time:   (   5) minutes.
  56. SCT capabilities:         (0x703d) SCT Status supported.
  57.     SCT Error Recovery Control supported.
  58.     SCT Feature Control supported.
  59.     SCT Data Table supported.
  60. SMART Attributes Data Structure revision number: 16
  61. Vendor Specific SMART Attributes with Thresholds:
  62. ID# ATTRIBUTE_NAME          FLAGS    VALUE WORST THRESH FAIL RAW_VALUE
  63.   1 Raw_Read_Error_Rate     POSR-K   200   200   051    -    643
  64.   3 Spin_Up_Time            POS--K   174   173   021    -    4291
  65.   4 Start_Stop_Count        -O--CK   100   100   000    -    165
  66.   5 Reallocated_Sector_Ct   PO--CK   198   198   140    -    80
  67.   7 Seek_Error_Rate         -OSR-K   200   200   000    -    0
  68.   9 Power_On_Hours          -O--CK   078   078   000    -    16764
  69. 10 Spin_Retry_Count        -O--CK   100   100   000    -    0
  70. 11 Calibration_Retry_Count -O--CK   100   100   000    -    0
  71. 12 Power_Cycle_Count       -O--CK   100   100   000    -    156
  72. 192 Power-Off_Retract_Count -O--CK   200   200   000    -    43
  73. 193 Load_Cycle_Count        -O--CK   200   200   000    -    215
  74. 194 Temperature_Celsius     -O---K   128   101   000    -    19
  75. 196 Reallocated_Event_Count -O--CK   174   174   000    -    26
  76. 197 Current_Pending_Sector  -O--CK   200   200   000    -    17
  77. 198 Offline_Uncorrectable   ----CK   200   200   000    -    57
  78. 199 UDMA_CRC_Error_Count    -O--CK   200   200   000    -    0
  79. 200 Multi_Zone_Error_Rate   ---R--   200   200   000    -    173
  80.                             ||||||_ K auto-keep
  81.                             |||||__ C event count
  82.                             ||||___ R error rate
  83.                             |||____ S speed/performance
  84.                             ||_____ O updated online
  85.                             |______ P prefailure warning
  86. General Purpose Log Directory Version 1
  87. SMART           Log Directory Version 1 [multi-sector log support]
  88. Address    Access  R/W   Size  Description
  89. 0x00       GPL,SL  R/O      1  Log Directory
  90. 0x01           SL  R/O      1  Summary SMART error log
  91. 0x02           SL  R/O      5  Comprehensive SMART error log
  92. 0x03       GPL     R/O      6  Ext. Comprehensive SMART error log
  93. 0x06           SL  R/O      1  SMART self-test log
  94. 0x07       GPL     R/O      1  Extended self-test log
  95. 0x09           SL  R/W      1  Selective self-test log
  96. 0x10       GPL     R/O      1  NCQ Command Error log
  97. 0x11       GPL     R/O      1  SATA Phy Event Counters log
  98. 0x21       GPL     R/O      1  Write stream error log
  99. 0x22       GPL     R/O      1  Read stream error log
  100. 0x80-0x9f  GPL,SL  R/W     16  Host vendor specific log
  101. 0xa0-0xa7  GPL,SL  VS      16  Device vendor specific log
  102. 0xa8-0xb6  GPL,SL  VS       1  Device vendor specific log
  103. 0xb7       GPL,SL  VS      39  Device vendor specific log
  104. 0xbd       GPL,SL  VS       1  Device vendor specific log
  105. 0xc0       GPL,SL  VS       1  Device vendor specific log
  106. 0xc1       GPL     VS      93  Device vendor specific log
  107. 0xe0       GPL,SL  R/W      1  SCT Command/Status
  108. 0xe1       GPL,SL  R/W      1  SCT Data Transfer
  109. SMART Extended Comprehensive Error Log Version: 1 (6 sectors)
  110. Device Error Count: 526 (device log contains only the most recent 24 errors)
  111. CR     = Command Register
  112. FEATR  = Features Register
  113. COUNT  = Count (was: Sector Count) Register
  114. LBA_48 = Upper bytes of LBA High/Mid/Low Registers ]  ATA-8
  115. LH     = LBA High (was: Cylinder High) Register    ]   LBA
  116. LM     = LBA Mid (was: Cylinder Low) Register      ] Register
  117. LL     = LBA Low (was: Sector Number) Register     ]
  118. DV     = Device (was: Device/Head) Register
  119. DC     = Device Control Register
  120. ER     = Error register
  121. ST     = Status register
  122. Powered_Up_Time is measured from power on, and printed as
  123. DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
  124. SS=sec, and sss=millisec. It "wraps" after 49.710 days.
  125. Error 526 [21] occurred at disk power-on lifetime: 16764 hours (698 days + 12 hours)
  126.   When the command that caused the error occurred, the device was active or idle.
  127.   After command completion occurred, registers were:
  128.   ER -- ST COUNT  LBA_48  LH LM LL DV DC
  129.   -- -- -- == -- == == == -- -- -- -- --
  130.   40 -- 51 00 00 00 00 00 00 00 09 40 00  Error: UNC at LBA = 0x00000009 = 9
  131.   Commands leading to the command that caused the error were:
  132.   CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  133.   -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  134.   60 01 00 00 70 00 00 00 00 00 00 40 08     00:00:35.147  READ FPDMA QUEUED
  135.   ef 00 10 00 02 00 00 00 00 00 00 a0 08     00:00:34.383  SET FEATURES [Enable SATA feature]
  136.   27 00 00 00 00 00 00 00 00 00 00 e0 08     00:00:34.383  READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
  137.   ec 00 00 00 00 00 00 00 00 00 00 a0 08     00:00:34.383  IDENTIFY DEVICE
  138.   ef 00 03 00 46 00 00 00 00 00 00 a0 08     00:00:34.383  SET FEATURES [Set transfer mode]
  139. Error 525 [20] occurred at disk power-on lifetime: 16764 hours (698 days + 12 hours)
  140.   When the command that caused the error occurred, the device was active or idle.
  141.   After command completion occurred, registers were:
  142.   ER -- ST COUNT  LBA_48  LH LM LL DV DC
  143.   -- -- -- == -- == == == -- -- -- -- --
  144.   40 -- 51 00 fe 00 00 00 00 00 09 40 00  Error: UNC at LBA = 0x00000009 = 9
  145.   Commands leading to the command that caused the error were:
  146.   CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  147.   -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  148.   60 01 00 00 68 00 00 00 00 00 00 40 08     00:00:34.185  READ FPDMA QUEUED
  149.   ec 00 00 00 01 00 00 00 00 00 00 40 08     00:00:27.221  IDENTIFY DEVICE
  150.   ef 00 05 00 fe 00 00 00 00 00 00 40 08     00:00:27.171  SET FEATURES [Enable APM]
  151.   ef 00 10 00 02 00 00 00 00 00 00 a0 08     00:00:27.170  SET FEATURES [Enable SATA feature]
  152.   27 00 00 00 00 00 00 00 00 00 00 e0 08     00:00:27.170  READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
  153. Error 524 [19] occurred at disk power-on lifetime: 16764 hours (698 days + 12 hours)
  154.   When the command that caused the error occurred, the device was active or idle.
  155.   After command completion occurred, registers were:
  156.   ER -- ST COUNT  LBA_48  LH LM LL DV DC
  157.   -- -- -- == -- == == == -- -- -- -- --
  158.   40 -- 51 00 00 00 00 00 00 00 09 40 00  Error: UNC at LBA = 0x00000009 = 9
  159.   Commands leading to the command that caused the error were:
  160.   CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  161.   -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  162.   60 00 08 00 80 00 00 00 00 00 08 40 08     00:00:26.986  READ FPDMA QUEUED
  163.   ef 00 10 00 02 00 00 00 00 00 00 a0 08     00:00:26.986  SET FEATURES [Enable SATA feature]
  164.   27 00 00 00 00 00 00 00 00 00 00 e0 08     00:00:26.986  READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
  165.   ec 00 00 00 00 00 00 00 00 00 00 a0 08     00:00:26.986  IDENTIFY DEVICE
  166.   ef 00 03 00 46 00 00 00 00 00 00 a0 08     00:00:26.986  SET FEATURES [Set transfer mode]
  167. Error 523 [18] occurred at disk power-on lifetime: 16764 hours (698 days + 12 hours)
  168.   When the command that caused the error occurred, the device was active or idle.
  169.   After command completion occurred, registers were:
  170.   ER -- ST COUNT  LBA_48  LH LM LL DV DC
  171.   -- -- -- == -- == == == -- -- -- -- --
  172.   40 -- 51 00 00 00 00 00 00 00 09 40 00  Error: UNC at LBA = 0x00000009 = 9
  173.   Commands leading to the command that caused the error were:
  174.   CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  175.   -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  176.   60 00 08 00 28 00 00 00 00 00 08 40 08     00:00:26.290  READ FPDMA QUEUED
  177.   60 00 08 00 88 00 00 00 00 00 00 40 08     00:00:26.236  READ FPDMA QUEUED
  178.   60 00 08 00 80 00 00 e8 e0 88 a0 40 08     00:00:26.235  READ FPDMA QUEUED
  179.   60 00 08 00 68 00 00 e8 e0 88 00 40 08     00:00:26.208  READ FPDMA QUEUED
  180.   ec 00 00 00 01 00 00 00 00 00 00 00 08     00:00:26.206  IDENTIFY DEVICE
  181. Error 522 [17] occurred at disk power-on lifetime: 16764 hours (698 days + 12 hours)
  182.   When the command that caused the error occurred, the device was active or idle.
  183.   After command completion occurred, registers were:
  184.   ER -- ST COUNT  LBA_48  LH LM LL DV DC
  185.   -- -- -- == -- == == == -- -- -- -- --
  186.   40 -- 51 00 00 00 00 00 00 00 09 40 00  Error: UNC at LBA = 0x00000009 = 9
  187.   Commands leading to the command that caused the error were:
  188.   CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  189.   -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  190.   60 01 00 00 e0 00 00 00 00 00 00 40 08     00:00:25.995  READ FPDMA QUEUED
  191.   ef 00 10 00 02 00 00 00 00 00 00 a0 08     00:00:25.405  SET FEATURES [Enable SATA feature]
  192.   27 00 00 00 00 00 00 00 00 00 00 e0 08     00:00:25.405  READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
  193.   ec 00 00 00 00 00 00 00 00 00 00 a0 08     00:00:25.404  IDENTIFY DEVICE
  194.   ef 00 03 00 46 00 00 00 00 00 00 a0 08     00:00:25.404  SET FEATURES [Set transfer mode]
  195. Error 521 [16] occurred at disk power-on lifetime: 16764 hours (698 days + 12 hours)
  196.   When the command that caused the error occurred, the device was active or idle.
  197.   After command completion occurred, registers were:
  198.   ER -- ST COUNT  LBA_48  LH LM LL DV DC
  199.   -- -- -- == -- == == == -- -- -- -- --
  200.   40 -- 51 00 00 00 00 00 00 00 09 40 00  Error: UNC at LBA = 0x00000009 = 9
  201.   Commands leading to the command that caused the error were:
  202.   CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  203.   -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  204.   60 00 08 00 e0 00 00 00 00 00 08 40 08     00:00:25.237  READ FPDMA QUEUED
  205.   ef 00 10 00 02 00 00 00 00 00 00 a0 08     00:00:25.237  SET FEATURES [Enable SATA feature]
  206.   27 00 00 00 00 00 00 00 00 00 00 e0 08     00:00:25.237  READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
  207.   ec 00 00 00 00 00 00 00 00 00 00 a0 08     00:00:25.236  IDENTIFY DEVICE
  208.   ef 00 03 00 46 00 00 00 00 00 00 a0 08     00:00:25.236  SET FEATURES [Set transfer mode]
  209. Error 520 [15] occurred at disk power-on lifetime: 16764 hours (698 days + 12 hours)
  210.   When the command that caused the error occurred, the device was active or idle.
  211.   After command completion occurred, registers were:
  212.   ER -- ST COUNT  LBA_48  LH LM LL DV DC
  213.   -- -- -- == -- == == == -- -- -- -- --
  214.   40 -- 51 00 00 00 00 00 00 00 09 40 00  Error: UNC at LBA = 0x00000009 = 9
  215.   Commands leading to the command that caused the error were:
  216.   CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  217.   -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  218.   60 00 08 00 d8 00 00 00 00 00 08 40 08     00:00:25.070  READ FPDMA QUEUED
  219.   60 00 08 00 d0 00 00 00 00 00 00 40 08     00:00:25.038  READ FPDMA QUEUED
  220.   60 00 08 00 c8 00 00 e8 e0 88 a0 40 08     00:00:25.037  READ FPDMA QUEUED
  221.   60 00 08 00 c0 00 00 e8 e0 88 00 40 08     00:00:25.006  READ FPDMA QUEUED
  222.   ef 00 10 00 02 00 00 00 00 00 00 a0 08     00:00:24.470  SET FEATURES [Enable SATA feature]
  223. Error 519 [14] occurred at disk power-on lifetime: 16764 hours (698 days + 12 hours)
  224.   When the command that caused the error occurred, the device was active or idle.
  225.   After command completion occurred, registers were:
  226.   ER -- ST COUNT  LBA_48  LH LM LL DV DC
  227.   -- -- -- == -- == == == -- -- -- -- --
  228.   40 -- 51 00 00 00 00 00 00 00 09 40 00  Error: UNC at LBA = 0x00000009 = 9
  229.   Commands leading to the command that caused the error were:
  230.   CR FEATR COUNT  LBA_48  LH LM LL DV DC  Powered_Up_Time  Command/Feature_Name
  231.   -- == -- == -- == == == -- -- -- -- --  ---------------  --------------------
  232.   60 00 08 00 20 00 00 00 00 00 08 40 08     00:00:24.306  READ FPDMA QUEUED
  233.   ef 00 10 00 02 00 00 00 00 00 00 a0 08     00:00:24.306  SET FEATURES [Enable SATA feature]
  234.   27 00 00 00 00 00 00 00 00 00 00 e0 08     00:00:24.306  READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
  235.   ec 00 00 00 00 00 00 00 00 00 00 a0 08     00:00:24.305  IDENTIFY DEVICE
  236.   ef 00 03 00 46 00 00 00 00 00 00 a0 08     00:00:24.305  SET FEATURES [Set transfer mode]
  237. SMART Extended Self-test Log Version: 1 (1 sectors)
  238. Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
  239. # 1  Short offline       Completed without error       00%      3664         -
  240. SMART Selective self-test log data structure revision number 1
  241. SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
  242.     1        0        0  Not_testing
  243.     2        0        0  Not_testing
  244.     3        0        0  Not_testing
  245.     4        0        0  Not_testing
  246.     5        0        0  Not_testing
  247. Selective self-test flags (0x0):
  248.   After scanning selected spans, do NOT read-scan remainder of disk.
  249. If Selective self-test is pending on power-up, resume after 0 minute delay.
  250. SCT Status Version:                  3
  251. SCT Version (vendor specific):       258 (0x0102)
  252. Device State:                        Active (0)
  253. Current Temperature:                    19 Celsius
  254. Power Cycle Min/Max Temperature:     18/19 Celsius
  255. Lifetime    Min/Max Temperature:      2/47 Celsius
  256. Under/Over Temperature Limit Count:   0/0
  257. Vendor specific:
  258. 01 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
  259. 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
  260. SCT Temperature History Version:     2
  261. Temperature Sampling Period:         1 minute
  262. Temperature Logging Interval:        1 minute
  263. Min/Max recommended Temperature:      0/60 Celsius
  264. Min/Max Temperature Limit:           -41/85 Celsius
  265. Temperature History Size (Index):    478 (423)
  266. Index    Estimated Time   Temperature Celsius
  267. 424    2022-12-16 01:31    28  *********
  268. ...    ..(173 skipped).    ..  *********
  269. 120    2022-12-16 04:25    28  *********
  270. 121    2022-12-16 04:26     ?  -
  271. 122    2022-12-16 04:27    18  -
  272. 123    2022-12-16 04:28    18  -
  273. 124    2022-12-16 04:29    19  -
  274. 125    2022-12-16 04:30    19  -
  275. 126    2022-12-16 04:31    20  *
  276. 127    2022-12-16 04:32    20  *
  277. 128    2022-12-16 04:33    21  **
  278. ...    ..(  2 skipped).    ..  **
  279. 131    2022-12-16 04:36    21  **
  280. 132    2022-12-16 04:37    22  ***
  281. 133    2022-12-16 04:38    22  ***
  282. 134    2022-12-16 04:39    23  ****
  283. 135    2022-12-16 04:40    23  ****
  284. 136    2022-12-16 04:41    23  ****
  285. 137    2022-12-16 04:42    24  *****
  286. ...    ..(  4 skipped).    ..  *****
  287. 142    2022-12-16 04:47    24  *****
  288. 143    2022-12-16 04:48    25  ******
  289. ...    ..(  4 skipped).    ..  ******
  290. 148    2022-12-16 04:53    25  ******
  291. 149    2022-12-16 04:54    26  *******
  292. ...    ..(  3 skipped).    ..  *******
  293. 153    2022-12-16 04:58    26  *******
  294. 154    2022-12-16 04:59    27  ********
  295. ...    ..( 11 skipped).    ..  ********
  296. 166    2022-12-16 05:11    27  ********
  297. 167    2022-12-16 05:12     ?  -
  298. 168    2022-12-16 05:13    28  *********
  299. ...    ..(  5 skipped).    ..  *********
  300. 174    2022-12-16 05:19    28  *********
  301. 175    2022-12-16 05:20     ?  -
  302. 176    2022-12-16 05:21    28  *********
  303. 177    2022-12-16 05:22    27  ********
  304. ...    ..( 25 skipped).    ..  ********
  305. 203    2022-12-16 05:48    27  ********
  306. 204    2022-12-16 05:49    28  *********
  307. ...    ..(  8 skipped).    ..  *********
  308. 213    2022-12-16 05:58    28  *********
  309. 214    2022-12-16 05:59     ?  -
  310. 215    2022-12-16 06:00    18  -
  311. 216    2022-12-16 06:01    18  -
  312. 217    2022-12-16 06:02    19  -
  313. 218    2022-12-16 06:03    28  *********
  314. ...    ..(204 skipped).    ..  *********
  315. 423    2022-12-16 09:28    28  *********
  316. SCT Error Recovery Control:
  317.            Read:     70 (7.0 seconds)
  318.           Write:     70 (7.0 seconds)
  319. Device Statistics (GP/SMART Log 0x04) not supported
  320. Pending Defects log (GP Log 0x0c) not supported
  321. SATA Phy Event Counters (GP Log 0x11)
  322. ID      Size     Value  Description
  323. 0x0001  2            0  Command failed due to ICRC error
  324. 0x0002  2            0  R_ERR response for data FIS
  325. 0x0003  2            0  R_ERR response for device-to-host data FIS
  326. 0x0004  2            0  R_ERR response for host-to-device data FIS
  327. 0x0005  2            0  R_ERR response for non-data FIS
  328. 0x0006  2            0  R_ERR response for device-to-host non-data FIS
  329. 0x0007  2            0  R_ERR response for host-to-device non-data FIS
  330. 0x0008  2            0  Device-to-host non-data FIS retries
  331. 0x0009  2            4  Transition from drive PhyRdy to drive PhyNRdy
  332. 0x000a  2            4  Device-to-host register FISes sent due to a COMRESET
  333. 0x000b  2            0  CRC errors within host-to-device FIS
  334. 0x000f  2            0  R_ERR response for host-to-device data FIS, CRC
  335. 0x0012  2            0  R_ERR response for host-to-device non-data FIS, CRC
  336. 0x8000  4          207  Vendor specific


 
Résultat des commandes  obtenus par connexion SSH :

Code :
  1. cat /proc/mdstat mdadm --detail /dev/md127
  2. mdadm --examine --scan
  3. mdadm --examine /dev/sdb
  4. mdadm --examine /dev/sdc
  5. mdadm --examine /dev/sdd
  6. mdadm --examine /dev/sde
  7. mdadm --examine /dev/sdf
  8. mdadm --examine /dev/sdg


 
 

Code :
  1. root@NAS-Clauce:~# cat /proc/mdstat
  2. Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
  3. md127 : inactive sdf[3](S) sdd[1](S) sdg[4](S) sdc[0](S) sdb[5](S)
  4.       9766912440 blocks super 1.2
  5. unused devices: <none>
  6. root@NAS-Clauce:~# fdisk -l
  7. Disk /dev/sda: 111,79 GiB, 120034123776 bytes, 234441648 sectors
  8. Disk model: CT120BX500SSD1
  9. Units: sectors of 1 * 512 = 512 bytes
  10. Sector size (logical/physical): 512 bytes / 512 bytes
  11. I/O size (minimum/optimal): 512 bytes / 512 bytes
  12. Disklabel type: dos
  13. Disk identifier: 0xcbe3b062
  14. Device     Boot     Start       End   Sectors   Size Id Type
  15. /dev/sda1  *         2048 232441855 232439808 110,8G 83 Linux
  16. /dev/sda2       232443902 234440703   1996802   975M  5 Extended
  17. /dev/sda5       232443904 234440703   1996800   975M 82 Linux swap / Solaris
  18. Disk /dev/sdg: 1,82 TiB, 2000398934016 bytes, 3907029168 sectors
  19. Disk model: ST2000DL003-9VT1
  20. Units: sectors of 1 * 512 = 512 bytes
  21. Sector size (logical/physical): 512 bytes / 4096 bytes
  22. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  23. Disk /dev/sdc: 1,82 TiB, 2000398934016 bytes, 3907029168 sectors
  24. Disk model: ST2000DL003-9VT1
  25. Units: sectors of 1 * 512 = 512 bytes
  26. Sector size (logical/physical): 512 bytes / 512 bytes
  27. I/O size (minimum/optimal): 512 bytes / 512 bytes
  28. Disk /dev/sdf: 1,82 TiB, 2000398934016 bytes, 3907029168 sectors
  29. Disk model: WDC WD20PURX-64P
  30. Units: sectors of 1 * 512 = 512 bytes
  31. Sector size (logical/physical): 512 bytes / 4096 bytes
  32. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  33. Disk /dev/sdb: 1,82 TiB, 2000398934016 bytes, 3907029168 sectors
  34. Disk model: WDC WD20EFRX-68E
  35. Units: sectors of 1 * 512 = 512 bytes
  36. Sector size (logical/physical): 512 bytes / 4096 bytes
  37. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  38. Disk /dev/sdd: 1,82 TiB, 2000398934016 bytes, 3907029168 sectors
  39. Disk model: WDC WD20EFRX-68E
  40. Units: sectors of 1 * 512 = 512 bytes
  41. Sector size (logical/physical): 512 bytes / 4096 bytes
  42. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  43. Disk /dev/sde: 1,82 TiB, 2000398934016 bytes, 3907029168 sectors
  44. Disk model: WDC WD20PURX-64P
  45. Units: sectors of 1 * 512 = 512 bytes
  46. Sector size (logical/physical): 512 bytes / 4096 bytes
  47. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  48. root@NAS-Clauce:~# lsblk -o size,name,fstype,label,mountpoint
  49.   SIZE NAME   FSTYPE            LABEL                     MOUNTPOINT
  50. 111,8G sda
  51. 110,8G ├─sda1 ext4                                        /
  52.     1K ├─sda2
  53.   975M └─sda5 swap                                        [SWAP]
  54.   1,8T sdb    linux_raid_member NAS-Clauce.local:nAsRaid6
  55.   1,8T sdc    linux_raid_member NAS-Clauce.local:nAsRaid6
  56.   1,8T sdd    linux_raid_member NAS-Clauce.local:nAsRaid6
  57.   1,8T sde
  58.   1,8T sdf    linux_raid_member NAS-Clauce.local:nAsRaid6
  59.   1,8T sdg    linux_raid_member NAS-Clauce.local:nAsRaid6
  60. root@NAS-Clauce:~# mdadm --detail /dev/md127
  61. /dev/md127:
  62.            Version : 1.2
  63.         Raid Level : raid0
  64.      Total Devices : 5
  65.        Persistence : Superblock is persistent
  66.              State : inactive
  67.    Working Devices : 5
  68.               Name : NAS-Clauce.local:nAsRaid6
  69.               UUID : e2c2cb4c:3016aaf3:85eb9454:34697d09
  70.             Events : 76091
  71.     Number   Major   Minor   RaidDevice
  72.        -       8       32        -        /dev/sdc
  73.        -       8       80        -        /dev/sdf
  74.        -       8       48        -        /dev/sdd
  75.        -       8       16        -        /dev/sdb
  76.        -       8       96        -        /dev/sdg
  77. root@NAS-Clauce:~# mdadm --examine --scan
  78. ARRAY /dev/md/nAsRaid6  metadata=1.2 UUID=e2c2cb4c:3016aaf3:85eb9454:34697d09 name=NAS-Clauce.local:nAsRaid6
  79. root@NAS-Clauce:~# mdadm --examine /dev/sdb
  80. mdadm --examine /dev/sdc
  81. mdadm --examine /dev/sdd
  82. mdadm --examine /dev/sde
  83. mdadm --examine /dev/sdf
  84. mdadm --examine /dev/sdg
  85. /dev/sdb:
  86.           Magic : a92b4efc
  87.         Version : 1.2
  88.     Feature Map : 0x1
  89.      Array UUID : e2c2cb4c:3016aaf3:85eb9454:34697d09
  90.            Name : NAS-Clauce.local:nAsRaid6
  91.   Creation Time : Thu Sep 10 00:54:20 2020
  92.      Raid Level : raid6
  93.    Raid Devices : 6
  94. Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
  95.      Array Size : 7813529600 (7451.56 GiB 8001.05 GB)
  96.   Used Dev Size : 3906764800 (1862.89 GiB 2000.26 GB)
  97.     Data Offset : 264192 sectors
  98.    Super Offset : 8 sectors
  99.    Unused Space : before=264112 sectors, after=176 sectors
  100.           State : clean
  101.     Device UUID : 30619ac9:18c1234f:bab720a7:03821dfd
  102. Internal Bitmap : 8 sectors from superblock
  103.     Update Time : Wed Nov 23 18:00:46 2022
  104.   Bad Block Log : 512 entries available at offset 16 sectors
  105.        Checksum : ec46047a - correct
  106.          Events : 76091
  107.          Layout : left-symmetric
  108.      Chunk Size : 512K
  109.    Device Role : Active device 5
  110.    Array State : AAAAAA ('A' == active, '.' == missing, 'R' == replacing)
  111. /dev/sdc:
  112.           Magic : a92b4efc
  113.         Version : 1.2
  114.     Feature Map : 0x1
  115.      Array UUID : e2c2cb4c:3016aaf3:85eb9454:34697d09
  116.            Name : NAS-Clauce.local:nAsRaid6
  117.   Creation Time : Thu Sep 10 00:54:20 2020
  118.      Raid Level : raid6
  119.    Raid Devices : 6
  120. Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
  121.      Array Size : 7813529600 (7451.56 GiB 8001.05 GB)
  122.   Used Dev Size : 3906764800 (1862.89 GiB 2000.26 GB)
  123.     Data Offset : 264192 sectors
  124.    Super Offset : 8 sectors
  125.    Unused Space : before=264112 sectors, after=176 sectors
  126.           State : clean
  127.     Device UUID : 9a8b8a48:3f16a7ea:3ba4ce98:d62c82c2
  128. Internal Bitmap : 8 sectors from superblock
  129.     Update Time : Wed Nov 23 18:00:46 2022
  130.   Bad Block Log : 512 entries available at offset 16 sectors
  131.        Checksum : bdcc1b5a - correct
  132.          Events : 76091
  133.          Layout : left-symmetric
  134.      Chunk Size : 512K
  135.    Device Role : Active device 0
  136.    Array State : AAAAAA ('A' == active, '.' == missing, 'R' == replacing)
  137. /dev/sdd:
  138.           Magic : a92b4efc
  139.         Version : 1.2
  140.     Feature Map : 0x1
  141.      Array UUID : e2c2cb4c:3016aaf3:85eb9454:34697d09
  142.            Name : NAS-Clauce.local:nAsRaid6
  143.   Creation Time : Thu Sep 10 00:54:20 2020
  144.      Raid Level : raid6
  145.    Raid Devices : 6
  146. Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
  147.      Array Size : 7813529600 (7451.56 GiB 8001.05 GB)
  148.   Used Dev Size : 3906764800 (1862.89 GiB 2000.26 GB)
  149.     Data Offset : 264192 sectors
  150.    Super Offset : 8 sectors
  151.    Unused Space : before=264112 sectors, after=176 sectors
  152.           State : clean
  153.     Device UUID : 0a8d8147:3bf0390f:40a06163:22cab317
  154. Internal Bitmap : 8 sectors from superblock
  155.     Update Time : Wed Nov 23 18:00:46 2022
  156.   Bad Block Log : 512 entries available at offset 16 sectors
  157.        Checksum : 11a9017 - correct
  158.          Events : 76091
  159.          Layout : left-symmetric
  160.      Chunk Size : 512K
  161.    Device Role : Active device 1
  162.    Array State : AAAAAA ('A' == active, '.' == missing, 'R' == replacing)
  163. mdadm: No md superblock detected on /dev/sde.
  164. /dev/sdf:
  165.           Magic : a92b4efc
  166.         Version : 1.2
  167.     Feature Map : 0x1
  168.      Array UUID : e2c2cb4c:3016aaf3:85eb9454:34697d09
  169.            Name : NAS-Clauce.local:nAsRaid6
  170.   Creation Time : Thu Sep 10 00:54:20 2020
  171.      Raid Level : raid6
  172.    Raid Devices : 6
  173. Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
  174.      Array Size : 7813529600 (7451.56 GiB 8001.05 GB)
  175.   Used Dev Size : 3906764800 (1862.89 GiB 2000.26 GB)
  176.     Data Offset : 264192 sectors
  177.    Super Offset : 8 sectors
  178.    Unused Space : before=264112 sectors, after=176 sectors
  179.           State : clean
  180.     Device UUID : 5a9a2cbe:f33d9c52:b4b2b1e0:09620b7f
  181. Internal Bitmap : 8 sectors from superblock
  182.     Update Time : Wed Nov 23 18:00:46 2022
  183.   Bad Block Log : 512 entries available at offset 16 sectors
  184.        Checksum : 9fcf957d - correct
  185.          Events : 76091
  186.          Layout : left-symmetric
  187.      Chunk Size : 512K
  188.    Device Role : Active device 3
  189.    Array State : AAAAAA ('A' == active, '.' == missing, 'R' == replacing)
  190. /dev/sdg:
  191.           Magic : a92b4efc
  192.         Version : 1.2
  193.     Feature Map : 0x1
  194.      Array UUID : e2c2cb4c:3016aaf3:85eb9454:34697d09
  195.            Name : NAS-Clauce.local:nAsRaid6
  196.   Creation Time : Thu Sep 10 00:54:20 2020
  197.      Raid Level : raid6
  198.    Raid Devices : 6
  199. Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB)
  200.      Array Size : 7813529600 (7451.56 GiB 8001.05 GB)
  201.   Used Dev Size : 3906764800 (1862.89 GiB 2000.26 GB)
  202.     Data Offset : 264192 sectors
  203.    Super Offset : 8 sectors
  204.    Unused Space : before=264112 sectors, after=176 sectors
  205.           State : clean
  206.     Device UUID : f928ff46:faf937ea:96517aa2:f85740bf
  207. Internal Bitmap : 8 sectors from superblock
  208.     Update Time : Wed Nov 23 18:00:46 2022
  209.   Bad Block Log : 512 entries available at offset 16 sectors
  210.        Checksum : c23b74f5 - correct
  211.          Events : 76091
  212.          Layout : left-symmetric
  213.      Chunk Size : 512K
  214.    Device Role : Active device 4
  215.    Array State : AAAAAA ('A' == active, '.' == missing, 'R' == replacing)


Message édité par tibodreep le 16-12-2022 à 09:56:41
mood
Publicité
Posté le 16-12-2022 à 09:52:58  profilanswer
 

n°1480951
tibodreep
Posté le 14-01-2023 à 09:25:00  profilanswer
 

Je remonte mon poste avec une info supplémentaire : il semblerait qu'un des disques soit sorti de la grappe...

Code :
  1. root@NAS:~# mdadm --assemble --scan
  2. root@NAS:~# cat /proc/mdstat
  3. Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
  4. md127 : inactive sdb[5](S) sdg[4](S) sdf[3](S) sdc[0](S) sdd[1](S)
  5.       9766912440 blocks super 1.2
  6. unused devices: <none>


 
Le disque sde faisait parti de la grappe, il est reconnu sous OMV, mais non présent ici...
Est-ce que cela peut aider ?
 
Vous pouvez en savoir plus sur sde en lignes 71 et 193 sur mon poste précédent. Il est notifié "mdadm: No md superblock detected on /dev/sde."
ligne 71 et 193


Message édité par tibodreep le 14-01-2023 à 09:28:29
n°1480962
rat de com​bat
attention rongeur méchant!
Posté le 14-01-2023 à 19:29:33  profilanswer
 

No superblock c'est toujours très mauvais signe. Je ne suis pas familier avec ces histoires de RAID, mais la première question: Est-ce que tu as une copie ailleurs du contenu de cette machine? Si non sois très prudent et tourne toi éventuellement vers une boîte spécialisée selon la valeur des données (attention ça coûte cher!!).


---------------
matos à vendre
n°1480963
tibodreep
Posté le 14-01-2023 à 19:32:18  profilanswer
 

Je vous tiendrais au courant, mais il semblerait que l'un des disques a lâché et a créé une désactivation du Raid. J'ai réactivé la grappe et je vais remplacer le disque fautif. Je tenterais une récup du raid après. On croise les doigts

n°1480964
rat de com​bat
attention rongeur méchant!
Posté le 14-01-2023 à 19:33:45  profilanswer
 

C'est fort possible, vu que le disque avait des secteurs réalloués il était mourant++.


---------------
matos à vendre
n°1480965
tibodreep
Posté le 14-01-2023 à 19:34:23  profilanswer
 

Oui je le surveillais, mais j'ai loupé le coche...

n°1480966
tibodreep
Posté le 14-01-2023 à 19:36:16  profilanswer
 

La ou je suis étonné, c'est que je m'attendais pas à ça avec un raid et encore moins un raid6. Mais comme quoi

n°1480967
rat de com​bat
attention rongeur méchant!
Posté le 14-01-2023 à 19:37:31  profilanswer
 

Peu importe le résultat final, tu auras compris qu'un RAID ne remplace pas une copie de sauvegarde externe... :o  
 
(Après oui, si on accumule les film X données ça peut être coûteux d'avoir une sauvegarde sur d'autres disques, mais il vaut mieux, enfin selon les données...)


---------------
matos à vendre
n°1480968
rat de com​bat
attention rongeur méchant!
Posté le 14-01-2023 à 19:39:36  profilanswer
 

tibodreep a écrit :

La ou je suis étonné, c'est que je m'attendais pas à ça avec un raid et encore moins un raid6. Mais comme quoi

Je n'ai qu'une connaissance théorique des RAID, mais ça me paraît pas déconnant que le NAS se mette en "sécurité" si un disque lâche, histoire que tu le remarques et que tu changes le disque en question. Après normalement il ne devrait pas y avoir de perte de données une fois le disque changé et le RAID reconstruit. Mais quand même, copie externe! (en cas de défaut électrique qui grillerait les disques ou feu ou vol ou ...)


---------------
matos à vendre
n°1480969
tibodreep
Posté le 14-01-2023 à 19:41:22  profilanswer
 

A priori, la grappe n'aurait pas dû se désactiver et l'ensemble disparaitre du système... Mais bon... Je suis pas inquiet, après réactivation il a retrouvé direct le raid. Reste à reconstruire, on verra ensuite

mood
Publicité
Posté le 14-01-2023 à 19:41:22  profilanswer
 

n°1481029
kisscoolz
Posté le 17-01-2023 à 12:37:45  profilanswer
 

Je confirme qu'avec du raid6 la grappe n'aurait pas du broncher. Après un 3eme disque hs, là oui.
 
Le disque non reconnu aurait il eu les metadatas md écrites dans les secteurs défectueux ? Pas impossible.  
 
Par contre, un moment ca parle de raid 0 et après de raid 6 pour md127. J'agirais avec prudence. Mais bon je suis pas spécialiste md.


---------------
http://lacabanedeladmin.trickip.net/
n°1481030
tibodreep
Posté le 17-01-2023 à 12:40:07  profilanswer
 

J'ai pu réactiver la grappe avec quelques manipulations simples https://forum.openmediavault.org/in [...] /&pageNo=1
Je finis de nettoyer le disque de remplacement mais je pense en effet que les metadata se sont retrouvées sur les secteurs qui ont sautés. J'aurais dû agir plus vite...

n°1481089
tibodreep
Posté le 19-01-2023 à 23:02:23  profilanswer
 

Après wipe du disque et ajout de ce dernier sur la grappe avec mdadm --add /dev/md127 /dev/sde , OMV a démarré la reconstruction.
J'ai accès à tous mes fichiers.
 
la solution a donc été résolue sur le forum que j'ai indiqué juste au dessus.


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Linux et OS Alternatifs
  Installation

  [OMV RAID6] Récupération

 

Sujets relatifs
Récupérer raid5 sur OMVPROBLEME SYSTEME OMV
Récuperation raid5 sous OMVOMV 5.5.1 et nfs
Problème Permission denied sous OMVProbleme Installation OMV cartes reseau
Impossible d'installer OMV extrasCompléments pour OMV
Serveur Nas : OMV/Seafile/NextcloudProbleme installation plugin OMV
Plus de sujets relatifs à : [OMV RAID6] Récupération


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR