Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#51 Le 09/02/2021, à 12:56

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Merci geole je m'y colle de suite.
Je relance le 1er tiers. wink

Résultat du 1er tiers.

sudo dd   if=/dev/sdf     of=/dev/null    bs=1MB  count=1000000       status=progress
999881000000 octets (1,0 TB, 931 GiB) copiés, 7098 s, 141 MB/s
1000000+0 enregistrements lus
1000000+0 enregistrements écrits
1000000000000 octets (1,0 TB, 931 GiB) copiés, 7099,32 s, 141 MB/s

Résultat de smartctl

sudo smartctl -a /dev/sdf
[sudo] Mot de passe de jeff : 
smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.0-65-generic] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Green
Device Model:     WDC WD30EZRX-00DC0B0
Serial Number:    WD-WMC1T1801757
LU WWN Device Id: 5 0014ee 60308f2af
Firmware Version: 80.00A80
User Capacity:    3000592982016 bytes [3,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Tue Feb  9 14:55:43 2021 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82)	Offline data collection activity
					was completed without error.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (  17)	The self-test routine was aborted by
					the host.
Total time to complete Offline 
data collection: 		(41160) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 413) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x70b5)	SCT Status supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       5
  3 Spin_Up_Time            0x0027   197   179   021    Pre-fail  Always       -       5116
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       122
  5 Reallocated_Sector_Ct   0x0033   193   193   140    Pre-fail  Always       -       218
  7 Seek_Error_Rate         0x002e   100   253   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   008   008   000    Old_age   Always       -       67542
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       121
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       68
193 Load_Cycle_Count        0x0032   197   197   000    Old_age   Always       -       9914
194 Temperature_Celsius     0x0022   110   088   000    Old_age   Always       -       40
196 Reallocated_Event_Count 0x0032   123   123   000    Old_age   Always       -       77
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       1
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       1

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Selective offline   Aborted by host               10%      1955         -
# 2  Selective offline   Interrupted (host reset)      10%      1938         -
# 3  Selective offline   Aborted by host               10%      1931         -
# 4  Selective offline   Aborted by host               10%      1912         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA     MAX_LBA  CURRENT_TEST_STATUS
    1        0  1999999999  Aborted_by_host [10% left] (51419312-51484847)
    2        0           0  Not_testing
    3        0           0  Not_testing
    4        0           0  Not_testing
    5        0           0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Il reste encore le current_pending_sector à 1 neutral

Dernière modification par webangel (Le 09/02/2021, à 15:51)

Hors ligne

#52 Le 09/02/2021, à 15:58

geole

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

A croire que c'est une mauvaise gestion des secteurs illisibles et que c'est un résidu.
Je pense que tu peux réinjecter le disque dans le raid  et laisser tourner le temps qu'il faudra pour la reconstruction.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#53 Le 09/02/2021, à 16:07

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Résultats de dmesg

dmesg | tail -20
[187567.805229]  sdf: sdf1
[187574.495890] Alternate GPT is invalid, using primary GPT.
[187574.495904]  sdf: sdf1
[187574.730260]  sdf: sdf1
[187640.978473]  sdf: sdf1
[187689.311970] systemd-sysv-generator[11942]: stat() failed on /etc/init.d/screen-cleanup, ignoring: No such file or directory
[187701.239100] systemd-sysv-generator[12106]: stat() failed on /etc/init.d/screen-cleanup, ignoring: No such file or directory
[187720.420765]  sdf: sdf1
[187876.981909]  sdf:
[187907.882706]  sdf:
[187949.382969]  sdf:
[188018.012327] GPT:partition_entry_array_crc32 values don't match: 0xab54d286 != 0x15d6daca
[188018.012332] GPT: Use GNU Parted to correct GPT errors.
[188018.012365]  sdf:
[188018.283007]  sdf: sdf1
[188018.893212]  sdf: sdf1
[188105.928250]  sdf: sdf1
[188373.642305] systemd-sysv-generator[13731]: stat() failed on /etc/init.d/screen-cleanup, ignoring: No such file or directory
[188788.405524] usb 4-3: USB disconnect, device number 2
[232182.141724] md: data-check of RAID array md127

Merci, ok je vais réintégrer sdf1 dans la grappe à toute. smile

Reintegration avec mdadm

sudo mdadm --manage /dev/md127 --add /dev/sdf1
mdadm: added /dev/sdf1

un petit mdstat pour l'avancement

sudo cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md127 : active raid6 sdf1[9](S) sdg1[8] sdb1[7] sda1[6] sdd1[3] sde1[4] sdc[10]
      14650670080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U]
      [=>...................]  check =  7.0% (205758652/2930134016) finish=21436.4min speed=2117K/sec

Dernière modification par webangel (Le 09/02/2021, à 16:25)

Hors ligne

#54 Le 09/02/2021, à 16:13

geole

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Cela ne ne semble pas normal dans la trace
[187574.495890] Alternate GPT is invalid, using primary GPT.
Mais peut-être as-tu fait la correction?

Dernière modification par geole (Le 09/02/2021, à 16:35)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#55 Le 09/02/2021, à 16:28

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Oui ça avait été corriger via gparted je l'avais bien remis en GPT partition Principal.

sudo cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md127 : active raid6 sdf1[9] sdg1[8] sdb1[7] sda1[6] sdd1[3] sde1[4] sdc[10]
      14650670080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U]
      [>....................]  recovery =  1.0% (31540572/2930134016) finish=22812.0min speed=2117K/sec
      
unused devices: <none>

En effet il y a un problème, ce serait fini dans environs 380 heures soit 15 jours, alors que ça devrait normalement mettre environs 20 heures, geole as tu une autre idée? wink

Dernière modification par webangel (Le 09/02/2021, à 21:17)

Hors ligne

#56 Le 09/02/2021, à 21:41

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

D'après toi, est ce qu'il serait plus raisonnable ou pas d'arrêter la reconstruction et puis de remplacer sdf par un autre des disques neufs? wink

Hors ligne

#57 Le 09/02/2021, à 22:58

geole

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Pour le moment, laisse tourner. Je pense que ce n'est pas sdf qui ralentit le process. On a vu sa vitesse d'écriture dans les remises à zéro. Je ne sais pas comment savoir quel disque ralentit la reconstruction.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#58 Le 09/02/2021, à 23:25

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Oui tu as raison, il y a un disque qui ralentit le débit, comme tu l'avais souligné dans un post #4 au début c'est sdg
qui est peut-être la cause du ralentissement de la reconstruction, au vu des erreurs constatées?
Je te cite geole:

    sudo smartctl -a /dev/sdg
    === START OF INFORMATION SECTION ===
    Model Family:     Seagate Barracuda 7200.14 (AF)
    Device Model:     ST3000DM001-1ER166
    ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
      1 Raw_Read_Error_Rate     0x000f   119   099   006    Pre-fail  Always       -       233268584
      5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
      7 Seek_Error_Rate         0x000f   066   060   030    Pre-fail  Always       -       4490593
      9 Power_On_Hours          0x0032   039   039   000    Old_age   Always       -       53881
    197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0

Un disque plus récent mais avec une mécanique de mauvaise qualité qui doit ralentir de débit de l'ensemble. Mais rien de grave. À regarder son évolution tous  les six mois. Ce n'était pas une bonne "pioche"

Dernière modification par webangel (Le 10/02/2021, à 11:31)

Hors ligne

#59 Le 10/02/2021, à 15:18

geole

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Je viens de simuler ton contexte
1) Création d'un RAID6 composé de 7 partitions de 25 Go chacune.
2)  Remplissage à 100% de ce raid . Ce qui prend environ 3 heures.
3) Simulation d'une panne et réinjection de la partition. Ce qui entraîne  la remise en état.

a@b:~$ sudo cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md50 : active raid6 sdd7[7] sdd10[6] sdd9[5] sdd8[4] sdd6[2] sdd5[1] sdd4[0]
      129751040 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUU_UUU]
      [>....................]  recovery =  0.2% (75648/25950208) finish=142.4min speed=3025K/sec

     
4) Constat. Cela est estimé à plus de deux heures  pour 25 Go!   Disons 10 go par heure....

 sudo cat /proc/mdstat | grep recovery
      [=>...................]  recovery =  8.0% (2080644/25950208) finish=109.4min speed=3635K/sec

5) Prochain test: En déclarer deux HS.

a@b:~$ lsblk -fe7 -o +size /dev/sdd
NAME     FSTYPE            LABEL UUID                                 FSAVAIL FSUSE% MOUNTPOINT      SIZE
sdd                                                                                                189,9G
├─sdd1                                                                                                32M
├─sdd2   vfat                    4B6D-0A9E                                                           512M
├─sdd3   ext4                    eb69513c-8cbc-4f19-a182-a0cd98672776                                 16G
├─sdd4   linux_raid_member b:50  cf43ed28-45e6-8e27-639d-9c441d923b10                               24,8G
│ └─md50 ext4                    fe3d1f29-9367-4d93-818c-16b5c2d37b40       0   100% /media/RAID50 123,8G
├─sdd5   linux_raid_member b:50  cf43ed28-45e6-8e27-639d-9c441d923b10                               24,8G
│ └─md50 ext4                    fe3d1f29-9367-4d93-818c-16b5c2d37b40       0   100% /media/RAID50 123,8G
├─sdd6   linux_raid_member b:50  cf43ed28-45e6-8e27-639d-9c441d923b10                               24,8G
│ └─md50 ext4                    fe3d1f29-9367-4d93-818c-16b5c2d37b40       0   100% /media/RAID50 123,8G
├─sdd7   linux_raid_member b:50  cf43ed28-45e6-8e27-639d-9c441d923b10                               24,8G
│ └─md50 ext4                    fe3d1f29-9367-4d93-818c-16b5c2d37b40       0   100% /media/RAID50 123,8G
├─sdd8   linux_raid_member b:50  cf43ed28-45e6-8e27-639d-9c441d923b10                               24,8G
│ └─md50 ext4                    fe3d1f29-9367-4d93-818c-16b5c2d37b40       0   100% /media/RAID50 123,8G
├─sdd9   linux_raid_member b:50  cf43ed28-45e6-8e27-639d-9c441d923b10                               24,8G
│ └─md50 ext4                    fe3d1f29-9367-4d93-818c-16b5c2d37b40       0   100% /media/RAID50 123,8G
└─sdd10  linux_raid_member b:50  cf43ed28-45e6-8e27-639d-9c441d923b10                               24,8G
  └─md50 ext4                    fe3d1f29-9367-4d93-818c-16b5c2d37b40       0   100% /media/RAID50 123,8G
a@b:~$ 
a@b:~$ sudo mdadm --manage /dev/md50 --set-faulty /dev/sdd6
mdadm: set /dev/sdd6 faulty in /dev/md50
a@b:~$ sudo mdadm --manage /dev/md50 --remove /dev/sdd6
mdadm: hot removed /dev/sdd6 from /dev/md50
a@b:~$ sudo mdadm --manage /dev/md50 --set-faulty /dev/sdd8
mdadm: set /dev/sdd8 faulty in /dev/md50
a@b:~$ sudo mdadm --manage /dev/md50 --remove /dev/sdd8
mdadm: hot removed /dev/sdd8 from /dev/md50
a@b:~$ sudo umount /dev/md50
a@b:~$ sudo mount /dev/md50 /media/RAID50
a@b:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md50 : active raid6 sdd7[7] sdd10[6] sdd9[5] sdd5[1] sdd4[0]
      129751040 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/5] [UU_U_UU]
...
a@b:~$ sudo ls -Rls /media/RAID50
/media/RAID50:
total 24
........
a@b:~$ date
mer. 10 févr. 2021 17:38:28 CET
a@b:~$ sudo mdadm --manage /dev/md50 --add /dev/sdd6
mdadm: added /dev/sdd6
a@b:~$ date
mer. 10 févr. 2021 17:38:28 CET
a@b:~$ sudo mdadm --manage /dev/md50 --add /dev/sdd8
mdadm: added /dev/sdd8
a@b:~$ date
mer. 10 févr. 2021 17:38:30 CET
a@b:~$ sudo cat /proc/mdstat | grep recovery
      [>....................]  recovery =  0.5% (136020/25950208) finish=129.6min speed=3317K/sec
a@b:~$ 
:~$ date && sudo cat /proc/mdstat | grep recovery
mer. 10 févr. 2021 19:40:05 CET
[sudo] Mot de passe de a : 
      [===================>.]  recovery = 95.7% (24841944/25950208) finish=5.2min speed=3499K/sec

a@b:~$ date && sudo cat /proc/mdstat | grep recovery
mer. 10 févr. 2021 19:45:49 CET
 cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md50 : active raid6 sdd8[9] sdd6[8] sdd7[7] sdd10[6] sdd9[5] sdd5[1] sdd4[0]
      129751040 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/7] [UUUUUUU]
    

Dernière modification par geole (Le 10/02/2021, à 20:01)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#60 Le 10/02/2021, à 15:41

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Super, un grand merci de créer cette simulation et voir comment elle évolue dans ce contexte.
Je reconnais bien là les passionnés de ce qu'il fond, le courage également.

De mon côté voici les nouvelles:

sudo cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md127 : active raid6 sdf1[9] sdg1[8] sdb1[7] sda1[6] sdd1[3] sde1[4] sdc[10]
      14650670080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U]
      [=>...................]  recovery =  6.7% (199224832/2930134016) finish=21526.1min speed=2114K/sec
      

Hors ligne

#61 Le 10/02/2021, à 23:22

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

D'accord pour le test finalement, il a l'air plutôt concluant, j'en déduis qu'à la vitesse du débit d'environs 3400 K/sec
pour 2500 Go il aurait fallu 8 à 9 jours du coup pour mon NAS si j'avais dans l'absolu le même débit que toi pour 2700 Go j'aurai mis 9 à 10 jours.
J'en conclue qu'il faille bien que j'attende 10 jours environs dans le meilleur des cas et au pire 16 jours que la reconstruction se termine wink

Dis-moi ce que tu en penses rectifie-moi si je me trompe ? smile

Hors ligne

#62 Le 11/02/2021, à 11:04

geole

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Bonjour
Lorsque j'ai regardé régulièrement, j'ai vu que de temps en temps,  l'estimation restait inchangée et que plus tard elle était réactualisée en changent fortement. Ce n'est donc qu'une estimation plus ou moins exacte
Tu peux, tous les jours redemander son état d'avancement..

Tes conclusions sont bonnes, Mais l'arrêt de l'ordinateur reste possible, au redémarrage suivant il devrait continuer la reconstruction et pas repatir de zéro

Je fais un autre test pour le vérifier.

sudo mdadm --manage /dev/md50 --set-faulty /dev/sdd5  /dev/sdd9 
mdadm: set /dev/sdd5 faulty in /dev/md50
mdadm: set /dev/sdd9 faulty in /dev/md50

sudo mdadm --manage /dev/md50 --remove /dev/sdd5 /dev/sdd9
mdadm: hot removed /dev/sdd5 from /dev/md50
mdadm: hot removed /dev/sdd9 from /dev/md50

sudo dd if=/dev/zero of=/dev/sdd5 bs=1MB status=progress
sudo dd if=/dev/zero of=/dev/sdd9 bs=1MB status=progress

sudo mdadm --manage /dev/md50 --add /dev/sdd5 /dev/sdd9
mdadm: added /dev/sdd5
mdadm: added /dev/sdd9

date
jeu. 11 févr. 2021 11:55:24 CET

for ((i=0;;i++)); do cat /proc/mdstat|grep recovery;sleep 300;done;
      [>....................]  recovery =  0.1% (42396/25950208) finish=142.5min speed=3028K/sec

Donc, à mi-chemin après 1 heure et 5 minutes, C'est le moment de booter.

a@b:~$ date
jeu. 11 févr. 2021 11:55:24 CET
a@b:~$ for ((i=0;;i++)); do cat /proc/mdstat|grep recovery;sleep 300;done;
      [>....................]  recovery =  0.1% (42396/25950208) finish=142.5min speed=3028K/sec
      [>....................]  recovery =  4.2% (1093232/25950208) finish=116.0min speed=3569K/sec
      [=>...................]  recovery =  7.9% (2073512/25950208) finish=130.6min speed=3044K/sec
      [==>..................]  recovery = 11.8% (3076592/25950208) finish=113.1min speed=3369K/sec
      [===>.................]  recovery = 15.6% (4072220/25950208) finish=109.3min speed=3334K/sec
      [===>.................]  recovery = 19.5% (5067572/25950208) finish=102.9min speed=3380K/sec
      [====>................]  recovery = 23.3% (6049304/25950208) finish=100.9min speed=3286K/sec
      [=====>...............]  recovery = 27.1% (7033352/25950208) finish=97.9min speed=3218K/sec
      [======>..............]  recovery = 30.8% (8008348/25950208) finish=90.1min speed=3316K/sec
      [======>..............]  recovery = 34.7% (9013136/25950208) finish=83.3min speed=3386K/sec
      [=======>.............]  recovery = 38.5% (9998444/25950208) finish=79.0min speed=3361K/sec
      [========>............]  recovery = 42.3% (10995264/25950208) finish=76.4min speed=3257K/sec
      [=========>...........]  recovery = 46.2% (11993984/25950208) finish=69.3min speed=3351K/sec
      [=========>...........]  recovery = 49.9% (12965752/25950208) finish=66.3min speed=3260K/sec

L'arrêt se passe assez bien, il faut seulement attendre 90 secondes pour que l'O.S. stoppe la reconstruction
et que cela se termine  comme d'habitude
Le reboot se passe bien.  Aussitôt que je remets sous-tension le disque, la reconstruction reprend  automatiquement sans aucune intervention.

date
jeu. 11 févr. 2021 13:06:46 CET
a@b:~$ for ((i=0;;i++)); do cat /proc/mdstat|grep recovery;sleep 300;done;
      [==========>..........]  recovery = 53.0% (13760696/25950208) finish=53.2min speed=3817K/sec
      [===========>.........]  recovery = 57.1% (14820508/25950208) finish=60.9min speed=3041K/sec
      [============>........]  recovery = 60.8% (15794736/25950208) finish=50.9min speed=3324K/sec
      [============>........]  recovery = 64.7% (16812304/25950208) finish=42.6min speed=3570K/sec
      [=============>.......]  recovery = 68.6% (17827852/25950208) finish=39.4min speed=3432K/sec
      [==============>......]  recovery = 72.7% (18867776/25950208) finish=35.4min speed=3327K/sec
      [===============>.....]  recovery = 76.5% (19859356/25950208) finish=30.9min speed=3277K/sec
      [================>....]  recovery = 80.3% (20847804/25950208) finish=24.6min speed=3445K/sec
      [================>....]  recovery = 84.1% (21833692/25950208) finish=21.2min speed=3231K/sec
      [=================>...]  recovery = 87.9% (22813952/25950208) finish=15.4min speed=3383K/sec
      [==================>..]  recovery = 91.6% (23795128/25950208) finish=11.0min speed=3259K/sec
      [===================>.]  recovery = 95.4% (24769872/25950208) finish=6.0min speed=3230K/sec
      [===================>.]  recovery = 99.1% (25721656/25950208) finish=1.1min speed=3226K/sec
^C

cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md50 : active raid6 sdd4[0] sdd10[6] sdd7[7] sdd9[11] sdd5[10] sdd6[8] sdd8[9]
      129751040 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/7] [UUUUUUU]

     
Grosse épuration pour ne conserver qu'un seul fichier. Constat: La durée ne dépend pas  du taux de remplissage.

df -h | grep RAID
/dev/md50          122G    2,1G  114G   2% /media/RAID50

sudo mdadm --manage /dev/md50 --set-faulty /dev/sdd4  /dev/sdd10
mdadm: set /dev/sdd4 faulty in /dev/md50
mdadm: set /dev/sdd10 faulty in /dev/md50

sudo mdadm --manage /dev/md50 --remove /dev/sdd4 /dev/sdd10
mdadm: hot removed /dev/sdd4 from /dev/md50
mdadm: hot removed /dev/sdd10 from /dev/md50

sudo mdadm --manage /dev/md50 --add /dev/sdd4 /dev/sdd10
mdadm: added /dev/sdd4
mdadm: added /dev/sdd10

date
jeu. 11 févr. 2021 14:23:33 CET

for ((i=0;;i++)); do cat /proc/mdstat|grep recovery;sleep 300;done;
      [>....................]  recovery =  0.0% (16280/25950208) finish=132.6min speed=3256K/sec
^C

Une seconde tentative d'arrêt mettra plus de temps pour stopper.  Presque cinq minutes d'attente.
Je pense que le process de reconstruction se stoppe uniquement lorsqu'il a atteint certains  point de cohérence.

Dernière modification par geole (Le 11/02/2021, à 14:49)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#63 Le 11/02/2021, à 11:23

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Bonjour, j'ai du coup bon espoir que cela s'accélère et fasse gagner du temps en plus
après le test que tu es en train de faire, si l'on peut arrêter et redémarrer la machine,
avec reprise automatique de la reconstruction c'est très bien. smile
Merci à toute.

Édit: c'est en effet 2 points importants que tu as testés en live,
je pourrai donc redémarrer le NAS ou s’il y avait une coupure du réseau électrique,
"les NAS s'ont sur onduleur" je ne stresserai pas il n'y aura pas de pertes de données,
et si la coupure était plus longue que 15 MN environs, temps d'énergie disponible sur onduleur,
cela n'aura pas impacté la reconstruction en cours, c'est un excellent point.

Et en deuxième point le taux de chargement de fichiers n'influençant pas le temps de reconstruction ça aussi c'est bien,
car mon NAS étant très chargé en fichiers ça n'aura pas d'incidence sur celui-ci.

Merci à toute

Dernière modification par webangel (Le 11/02/2021, à 16:15)

Hors ligne

#64 Le 11/02/2021, à 17:19

geole

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Essais supplémentaires.
   J'ai rebranché mon disque  sur un autre ordinateur.
    La reconstruction a continué.
    J'en ai profité pour lui copier 20 Go de données. Cette copie m'a semblé un peu ralentie mais très peu.
   Lorsque la copie a été finie,  j'ai décidé d'arrêter  l'ordinateur. J'ai quasiment perdu la main. Cela s'est terminé par un appui sur le bouton d'arrêt/marche. Je pense que c'est lié..

  Je l'ai alors rebranché  sur l'ordinateur de référence.
    La resynchronisation a repris
   J'ai monté le raid. Le temps de montage fut un peu long
   Je suis en train de relire les 20 Go que j'avais copié. GROSSE SURPRISE , le temps de lecture de certains  fichiers est TRES TRES lent comme s'il y avait des blocages.
La remise  en état va bientôt se terminer... Je pense que la lecture redeviendra plus rapide.
La commande IOTOP montrait que  cela se répartissait équitablement entre les deux process...

for ((i=0;;i++)); do cat /proc/mdstat|grep recovery;sleep 300;done;
      [==================>..]  recovery = 90.9% (23601464/25950208) finish=11.5min speed=3392K/sec
      [==================>..]  recovery = 94.6% (24552212/25950208) finish=7.4min speed=3128K/sec
      [===================>.]  recovery = 98.3% (25533360/25950208) finish=2.2min speed=3010K/sec

Dernière modification par geole (Le 11/02/2021, à 17:27)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#65 Le 12/02/2021, à 01:00

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Très bons tests que tu as effectués et ces mises en situation pour moi sont riches d'enseignement pour la suite.
Bonne nuit geole.
À toute. wink

Hors ligne

#66 Le 12/02/2021, à 21:35

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Dernier résultat de mdstat

sudo cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md127 : active raid6 sdf1[9] sdg1[8] sdb1[7] sda1[6] sdd1[3] sde1[4] sdc[10]
      14650670080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U]
      [====>................]  recovery = 23.2% (681613928/2930134016) finish=6245.0min speed=6000K/sec

À ce rythme là la reconstruction pourrai être terminée dans 4.5 environs à suivre... smile

Hors ligne

#67 Le 18/02/2021, à 21:35

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Bonjour geole bonjour à tous,
la reconstruction viens de se terminer au bout de 9 jours environs, le disque sdf présente encore des erreurs,
mais il a bien été réintégré au volume raid6 mais, il y a un mais le disque sdc a été écarter du volume raid6 et déclaré faulty par le système.

mdstat final

sudo cat /proc/mdstat 
[sudo] Mot de passe de jeff : 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md127 : active raid6 sdf1[9] sdg1[8] sdb1[7] sda1[6] sdd1[3] sde1[4] sdc[10](F)
      14650670080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UU_UUUU]

mdadm

sudo mdadm --detail /dev/md127
/dev/md127:
           Version : 1.2
     Creation Time : Fri Mar 22 14:27:12 2013
        Raid Level : raid6
        Array Size : 14650670080 (13971.97 GiB 15002.29 GB)
     Used Dev Size : 2930134016 (2794.39 GiB 3000.46 GB)
      Raid Devices : 7
     Total Devices : 7
       Persistence : Superblock is persistent

       Update Time : Thu Feb 18 20:51:36 2021
             State : clean, degraded 
    Active Devices : 6
   Working Devices : 6
    Failed Devices : 1
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : SRVNAS3T:0  (local to host SRVNAS3T)
              UUID : 0e2234e3:8853b712:5eb5db08:2afa36ea
            Events : 13123

    Number   Major   Minor   RaidDevice State
       6       8        1        0      active sync   /dev/sda1
       7       8       17        1      active sync   /dev/sdb1
       -       0        0        2      removed
       3       8       49        3      active sync   /dev/sdd1
       4       8       65        4      active sync   /dev/sde1
       9       8       81        5      active sync   /dev/sdf1
       8       8       97        6      active sync   /dev/sdg1

      10       8       32        -      faulty   /dev/sdc

smartctl de sdf

sudo smartctl -A /dev/sdf
smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.0-65-generic] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       5
  3 Spin_Up_Time            0x0027   197   179   021    Pre-fail  Always       -       5116
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       122
  5 Reallocated_Sector_Ct   0x0033   193   193   140    Pre-fail  Always       -       218
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   008   008   000    Old_age   Always       -       67764
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       121
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       68
193 Load_Cycle_Count        0x0032   197   197   000    Old_age   Always       -       9927
194 Temperature_Celsius     0x0022   112   088   000    Old_age   Always       -       38
196 Reallocated_Event_Count 0x0032   123   123   000    Old_age   Always       -       77
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       1
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       1

smartctl de tous les disques sauf sdc qui est faulty

./smartctl-hdd-abcdefgh.sh 
................ état du disque /dev/sda
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
No Errors Logged
................ état du disque /dev/sdb
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       2
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       4
No Errors Logged
................ état du disque /dev/sdc
................ état du disque /dev/sdd
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
No Errors Logged
................ état du disque /dev/sde
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
No Errors Logged
................ état du disque /dev/sdf
  5 Reallocated_Sector_Ct   0x0033   193   193   140    Pre-fail  Always       -       218
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       1
No Errors Logged
................ état du disque /dev/sdg
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
No Errors Logged
................ état du disque /dev/sdh
  5 Reallocated_Sector_Ct   0x0033   253   253   010    Pre-fail  Always       -       0
No Errors Logged

Du coup il y a également sdb qui présente des pending sector et des secteurs réalloués... ?
Je ne sais pas si je réintègre le disque sdc au volume raid vu qu'il est faulty ou si je le remplace par un nouveau disque ? roll smile

Dernière modification par webangel (Le 18/02/2021, à 21:56)

Hors ligne

#68 Le 19/02/2021, à 14:06

geole

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Bonjour
Merci de ton retour
tu pourrais redonner un état smartctl complet

sudo smartclt -a /dev/sdb
sudo smartctl -a /dev/sdc

Ce n'est pas grave d'avoir des secteurs réalloués tant que leur nombre reste faible.
Lorsque leur nombre est trop important, le disque est automatiquement déclaré "failing-now" ce qui justifie un changement sans se poser de question.

Je pense que cela serait mieux de remplacer SDC car s'il a été automatiquement éjecté, il y a certainement une raison.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#69 Le 19/02/2021, à 15:09

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Bonjour, merci pour ta réponse en effet je vais changer sdc par un nouveau disque est-ce que
je tente l'opération en hot swap ou non ?

Voici les résultats de smartctl -a de sdc

sudo smartctl -a /dev/sdc
smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.0-65-generic] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org

Short INQUIRY response, skip product id
A mandatory SMART command failed: exiting. To continue, add one or more '-T permissive' options.

Pas de résultat normal, contenu du fait que sdc n'est pas dans le volume ?

smartctl -a de sdb

sudo smartctl -a /dev/sdb
smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.0-65-generic] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Green
Device Model:     WDC WD30EZRX-00DC0B0
Serial Number:    WD-WMC1T1829451
LU WWN Device Id: 5 0014ee 6585e5eb7
Firmware Version: 80.00A80
User Capacity:    3000592982016 bytes [3,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Fri Feb 19 15:05:32 2021 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x84)	Offline data collection activity
					was suspended by an interrupting command from host.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(39600) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 398) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x70b5)	SCT Status supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       1779
  3 Spin_Up_Time            0x0027   199   180   021    Pre-fail  Always       -       5016
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       121
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       2
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   006   006   000    Old_age   Always       -       68979
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       120
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       68
193 Load_Cycle_Count        0x0032   197   197   000    Old_age   Always       -       9875
194 Temperature_Celsius     0x0022   120   101   000    Old_age   Always       -       30
196 Reallocated_Event_Count 0x0032   198   198   000    Old_age   Always       -       2
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       4
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       1
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       34

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Merci et à toute wink

Hors ligne

#70 Le 19/02/2021, à 15:27

geole

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

La commande smartctl, interroge le firmware du disque.
Ce firmware ne sait plus répondre correctement.  C'est mort.

Le disque SDC n'est plus  dans le raids à cause  de cet incident , en effet MDADM refuse de mettre dans un RAID des disques défectueux.....

Dans mes essais, j'ajoutais des partitions  sans difficultés avec  le RAID  monté

Pour l'ajout de ton disque neuf, pense à vérifier qu'il a bien déjà une partition de créée sur la totalité du disque.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#71 Le 19/02/2021, à 16:13

MicP

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Bonjour

Dans son message #1, webangel a écrit :

… sauf que j'ai sdc en état removed... …

Non, ce n'est pas le disque qui est en état removed
mais la première partition du disque <=> /dev/sdc1


Dans son message #1, webangel a écrit :
…
Périphérique Début        Fin   Secteurs Taille Type
…
/dev/sde1     2048 5860533134 5860531087   2,7T Système de fichiers Linux
…
/dev/sda1     2048 5860533134 5860531087   2,7T Système de fichiers Linux
…
/dev/sdb1     2048 5860533134 5860531087   2,7T Système de fichiers Linux
…
/dev/sdg1     2048 5860533134 5860531087   2,7T Système de fichiers Linux
…
/dev/sdc1     2048 5860533134 5860531087   2,7T Système de fichiers Linux
…
/dev/sdd1     2048 5860533134 5860531087   2,7T Système de fichiers Linux
…
/dev/sdf1     2048 5860533134 5860531087   2,7T Système de fichiers Linux
…

Le type de système de fichiers de ces partitions retourné par la commande fdisk
devrait plutôt être RAID et non Système de fichiers Linux

=======

Dans son message #1, webangel a écrit :
sudo mdadm --add /dev/md127 /dev/sd[c]
mdadm: added /dev/sdc

Ce n'est pas le disque entier,
mais la première partition (/dev/sdc1) du disque qui devrait être ajoutée au RAID6

Dernière modification par MicP (Le 19/02/2021, à 16:14)

Hors ligne

#72 Le 19/02/2021, à 18:59

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Oui en effet tu as raison je devrai plutôt parler de partition sdc1 en état removed .
Pour le type de système de fichiers Raid à la place de système de fichier Linux,
lors du partitionnement de sdc j'ai utilisé gdisk et lorsque j'ai listé les types de partitions possibles,
je n'avais pas trouvé le type RAID, donc par défaut j'avais opté pour système de fichiers Linux (en EXT4),
étant données que toutes mes partitions de tous les disques s'ont en EXT4 et ce depuis 9 ans, est-il possible de repasser en type de système de fichiers RAID,
sur l'ensemble des partitions des disques pour être cohérent wink, sans rien perdre étant donnée que je ne suis pas en mesure de sauvegarder environs 14 To ? smile

Hors ligne

#73 Le 19/02/2021, à 19:39

MicP

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

fdisk identifie le type de partition en lisant la table des partitions
mais cela n'empêche pas (comme tu l'as fait) de formater la partition concernée
avec un autre système de fichiers que celui indiqué dans la table des partitions.

Donc, le changement dans la table des partitions du type de partition ne modifiera rien dans la partition et son système de fichiers,
et Linux ne tient compte (comme il l'a fait) que du type de système de fichiers qu'il a su reconnaître dans la partition.

fdisk permet de changer le type de partition inscrit dans la table des partitions
sans que cela n'affecte la partition et son contenu.

Une fois lancé la commande fdisk
en tapant la touche M on peut lister les commandes accessibles,
et en tapant la touche L permet de lister tous les types de partitions que fdisk peut reconnaître.

On peut voir dans la liste que le type RAID Linux auto est celui utilisant l'ID hexa fd

root@xubu:~# fdisk /dev/sda

Bienvenue dans fdisk (util-linux 2.34).
Les modifications resteront en mémoire jusqu'à écriture.
Soyez prudent avant d'utiliser la commande d'écriture.


Commande (m pour l'aide) : m

Aide :

  DOS (secteur d'amorçage)
   a   modifier un indicateur d'amorçage
   b   éditer l'étiquette BSD imbriquée du disque
   c   modifier l'indicateur de compatibilité DOS

  Générique
   d   supprimer la partition
   F   afficher l’espace libre non partitionné
   l   afficher les types de partitions connues
   n   ajouter une nouvelle partition
   p   afficher la table de partitions
   t   modifier le type d'une partition
   v   vérifier la table de partitions
   i   Afficher des renseignements sur la partition

  Autre
   m   afficher ce menu
   u   modifier les unités d'affichage et de saisie
   x   fonctions avancées (réservées aux spécialistes)

  Script
   I   chargement de l’agencement à partir du fichier de script sfdisk
   O   sauvegarde de l’agencement vers le fichier de script sfdisk

  Sauvegarder et quitter
   w   écrire la table sur le disque et quitter
   q   quitter sans enregistrer les modifications

  Créer une nouvelle étiquette
   g   créer une nouvelle table vide de partitions GPT
   G   créer une nouvelle table vide de partitions SGI (IRIX)
   o   créer une nouvelle table vide de partitions DOS
   s   créer une nouvelle table vide de partitions Sun


Commande (m pour l'aide) : l

 0  Vide            24  NEC DOS         81  Minix / Linux a bf  Solaris        
 1  FAT12           27  TFS WinRE masqu 82  partition d'éch c1  DRDOS/sec (FAT-
 2  root XENIX      39  Plan 9          83  Linux           c4  DRDOS/sec (FAT-
 3  usr XENIX       3c  récupération Pa 84  OS/2 hidden or  c6  DRDOS/sec (FAT-
 4  FAT16 <32M      40  Venix 80286     85  Linux étendue   c7  Syrinx         
 5  Étendue         41  PPC PReP Boot   86  NTFS volume set da  Non-FS data    
 6  FAT16           42  SFS             87  NTFS volume set db  CP/M / CTOS / .
 7  HPFS/NTFS/exFAT 4d  QNX4.x          88  Linux plaintext de  Dell Utility   
 8  AIX             4e  2e partie QNX4. 8e  LVM Linux       df  BootIt         
 9  Amorçable AIX   4f  3e partie QNX4. 93  Amoeba          e1  DOS access     
 a  Gestionnaire d' 50  OnTrack DM      94  Amoeba BBT      e3  DOS R/O        
 b  W95 FAT32       51  OnTrack DM6 Aux 9f  BSD/OS          e4  SpeedStor      
 c  W95 FAT32 (LBA) 52  CP/M            a0  IBM Thinkpad hi ea  Alignement Rufu
 e  W95 FAT16 (LBA) 53  OnTrack DM6 Aux a5  FreeBSD         eb  BeOS fs        
 f  Étendue W95 (LB 54  OnTrackDM6      a6  OpenBSD         ee  GPT            
10  OPUS            55  EZ-Drive        a7  NeXTSTEP        ef  EFI (FAT-12/16/
11  FAT12 masquée   56  Golden Bow      a8  UFS Darwin      f0  Linux/PA-RISC b
12  Compaq diagnost 5c  Priam Edisk     a9  NetBSD          f1  SpeedStor      
14  FAT16 masquée < 61  SpeedStor       ab  Amorçage Darwin f4  SpeedStor      
16  FAT16 masquée   63  GNU HURD ou Sys af  HFS / HFS+      f2  DOS secondaire 
17  HPFS/NTFS masqu 64  Novell Netware  b7  BSDI fs         fb  VMware VMFS    
18  AST SmartSleep  65  Novell Netware  b8  partition d'éch fc  VMware VMKCORE 
1b  W95 FAT32 masqu 70  DiskSecure Mult bb  Boot Wizard mas fd  RAID Linux auto
1c  W95 FAT32 masqu 75  PC/IX           bc  Acronis FAT32 L fe  LANstep        
1e  W95 FAT16 masqu 80  Minix ancienne  be  Amorçage Solari ff  BBT            

Commande (m pour l'aide) : q

root@xubu:~# 

en tapant sur la lettre t on peut modifier le type de partition

root@xubu:~# fdisk /dev/sda

Bienvenue dans fdisk (util-linux 2.34).
Les modifications resteront en mémoire jusqu'à écriture.
Soyez prudent avant d'utiliser la commande d'écriture.


Commande (m pour l'aide) : p
Disque /dev/sda : 238,49 GiB, 256060514304 octets, 500118192 secteurs
Disk model: SAMSUNG MZ7LN256
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0xbc16979f

Périphérique Amorçage     Début       Fin  Secteurs Taille Id Type
/dev/sda1    *             2048   1187839   1185792   579M  7 HPFS/NTFS/exFAT
/dev/sda2               1187840 360040447 358852608 171,1G  7 HPFS/NTFS/exFAT
/dev/sda3             360040448 399454207  39413760  18,8G 83 Linux
/dev/sda4             399456254 500117503 100661250    48G  5 Étendue
/dev/sda5             399456256 436028521  36572266  17,4G 83 Linux
/dev/sda6             436031488 466561023  30529536  14,6G  7 HPFS/NTFS/exFAT
/dev/sda7             466563072 500117503  33554432    16G 82 partition d'échange Linux / Solaris

Commande (m pour l'aide) : t
Numéro de partition (1-7, 7 par défaut) : 1
Code Hexa (taper L pour afficher tous les codes) : fd

Type de partition « HPFS/NTFS/exFAT » modifié en « Linux raid autodetect ».

Commande (m pour l'aide) : p
Disque /dev/sda : 238,49 GiB, 256060514304 octets, 500118192 secteurs
Disk model: SAMSUNG MZ7LN256
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0xbc16979f

Périphérique Amorçage     Début       Fin  Secteurs Taille Id Type
/dev/sda1    *             2048   1187839   1185792   579M fd RAID Linux autodétecté
/dev/sda2               1187840 360040447 358852608 171,1G  7 HPFS/NTFS/exFAT
/dev/sda3             360040448 399454207  39413760  18,8G 83 Linux
/dev/sda4             399456254 500117503 100661250    48G  5 Étendue
/dev/sda5             399456256 436028521  36572266  17,4G 83 Linux
/dev/sda6             436031488 466561023  30529536  14,6G  7 HPFS/NTFS/exFAT
/dev/sda7             466563072 500117503  33554432    16G 82 partition d'échange Linux / Solaris

Commande (m pour l'aide) : q

root@xubu:~# 

Ci dessus, après avoir fait la modification du type de partition de la partition N°1,
j'ai listé les partitions telles qu'elles seraient si j'avais enregistré les modifications,
puis j'ai tapé la touche Q pour quitter sans enregistrer la modification.

=======
Ci-dessous, j'ai tapé sur la touche P pour lister les partitions de mon disque /dev/sda
puis j'ai modifié le type de la partition N°1 pour le type RAID  Linux auto
puis j'ai listé les partitions telles qu'elles seront enregistrées une fois modifiées
et j'ai enregistré la modifications en appuyant sur la touche W

root@xubu:~# fdisk /dev/sda

Bienvenue dans fdisk (util-linux 2.34).
Les modifications resteront en mémoire jusqu'à écriture.
Soyez prudent avant d'utiliser la commande d'écriture.


Commande (m pour l'aide) : p
Disque /dev/sda : 238,49 GiB, 256060514304 octets, 500118192 secteurs
Disk model: SAMSUNG MZ7LN256
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0xbc16979f

Périphérique Amorçage     Début       Fin  Secteurs Taille Id Type
/dev/sda1    *             2048   1187839   1185792   579M  7 HPFS/NTFS/exFAT
/dev/sda2               1187840 360040447 358852608 171,1G  7 HPFS/NTFS/exFAT
/dev/sda3             360040448 399454207  39413760  18,8G 83 Linux
/dev/sda4             399456254 500117503 100661250    48G  5 Étendue
/dev/sda5             399456256 436028521  36572266  17,4G 83 Linux
/dev/sda6             436031488 466561023  30529536  14,6G  7 HPFS/NTFS/exFAT
/dev/sda7             466563072 500117503  33554432    16G 82 partition d'échange Linux / Solaris

Commande (m pour l'aide) : t
Numéro de partition (1-7, 7 par défaut) : 1
Code Hexa (taper L pour afficher tous les codes) : fd

Type de partition « HPFS/NTFS/exFAT » modifié en « Linux raid autodetect ».

Commande (m pour l'aide) : p
Disque /dev/sda : 238,49 GiB, 256060514304 octets, 500118192 secteurs
Disk model: SAMSUNG MZ7LN256
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0xbc16979f

Périphérique Amorçage     Début       Fin  Secteurs Taille Id Type
/dev/sda1    *             2048   1187839   1185792   579M fd RAID Linux autodétecté
/dev/sda2               1187840 360040447 358852608 171,1G  7 HPFS/NTFS/exFAT
/dev/sda3             360040448 399454207  39413760  18,8G 83 Linux
/dev/sda4             399456254 500117503 100661250    48G  5 Étendue
/dev/sda5             399456256 436028521  36572266  17,4G 83 Linux
/dev/sda6             436031488 466561023  30529536  14,6G  7 HPFS/NTFS/exFAT
/dev/sda7             466563072 500117503  33554432    16G 82 partition d'échange Linux / Solaris

Commande (m pour l'aide) : w
La table de partitions a été altérée.
Synchronisation des disques.

root@xubu:~# 

=======


Je viens de comprendre ce qu'il a du t'arriver avec la commande gdisk :
le type de partition RAID  Linux auto est tout en bas de la liste (fd00)
mais cette liste est sur 4 pages => il faut appuyer sur la touche Entrée pour voir les pages suivantes.

Donc, pour afficher la liste entière,
il faudra appuyer 5 fois sur la touche Entrée après avoir tapé sur la touche L

La première page affichée
avec, tout en bas de la page,
le message invitant à appuyer sur Entrée pour visualiser la suite de la liste :

root@xubu:~# gdisk /dev/sda
GPT fdisk (gdisk) version 1.0.5

Partition table scan:
  MBR: MBR only
  BSD: not present
  APM: not present
  GPT: not present


***************************************************************
Found invalid GPT and valid MBR; converting MBR to GPT format
in memory. THIS OPERATION IS POTENTIALLY DESTRUCTIVE! Exit by
typing 'q' if you don't want to convert your MBR partitions
to GPT format!
***************************************************************


Command (? for help): l
Type search string, or <Enter> to show all codes: 
0700 Microsoft basic data                0c01 Microsoft reserved                
2700 Windows RE                          3000 ONIE boot                         
3001 ONIE config                         3900 Plan 9                            
4100 PowerPC PReP boot                   4200 Windows LDM data                  
4201 Windows LDM metadata                4202 Windows Storage Spaces            
7501 IBM GPFS                            7f00 ChromeOS kernel                   
7f01 ChromeOS root                       7f02 ChromeOS reserved                 
8200 Linux swap                          8300 Linux filesystem                  
8301 Linux reserved                      8302 Linux /home                       
8303 Linux x86 root (/)                  8304 Linux x86-64 root (/)             
8305 Linux ARM64 root (/)                8306 Linux /srv                        
8307 Linux ARM32 root (/)                8308 Linux dm-crypt                    
8309 Linux LUKS                          830a Linux IA-64 root (/)              
830b Linux x86 root verity               830c Linux x86-64 root verity          
830d Linux ARM32 root verity             830e Linux ARM64 root verity           
830f Linux IA-64 root verity             8310 Linux /var                        
8311 Linux /var/tmp                      8400 Intel Rapid Start                 
8500 Container Linux /usr                8501 Container Linux resizable rootfs  
8502 Container Linux /OEM customization  8503 Container Linux root on RAID      
8e00 Linux LVM                           a000 Android bootloader                
a001 Android bootloader 2                a002 Android boot 1                    
Press the <Enter> key to see more codes, q to quit: 

La liste complète après avoir appuyé sur Entrée 5 fois =>

Command (? for help): l
Type search string, or <Enter> to show all codes: 
0700 Microsoft basic data                0c01 Microsoft reserved                
2700 Windows RE                          3000 ONIE boot                         
3001 ONIE config                         3900 Plan 9                            
4100 PowerPC PReP boot                   4200 Windows LDM data                  
4201 Windows LDM metadata                4202 Windows Storage Spaces            
7501 IBM GPFS                            7f00 ChromeOS kernel                   
7f01 ChromeOS root                       7f02 ChromeOS reserved                 
8200 Linux swap                          8300 Linux filesystem                  
8301 Linux reserved                      8302 Linux /home                       
8303 Linux x86 root (/)                  8304 Linux x86-64 root (/)             
8305 Linux ARM64 root (/)                8306 Linux /srv                        
8307 Linux ARM32 root (/)                8308 Linux dm-crypt                    
8309 Linux LUKS                          830a Linux IA-64 root (/)              
830b Linux x86 root verity               830c Linux x86-64 root verity          
830d Linux ARM32 root verity             830e Linux ARM64 root verity           
830f Linux IA-64 root verity             8310 Linux /var                        
8311 Linux /var/tmp                      8400 Intel Rapid Start                 
8500 Container Linux /usr                8501 Container Linux resizable rootfs  
8502 Container Linux /OEM customization  8503 Container Linux root on RAID      
8e00 Linux LVM                           a000 Android bootloader                
a001 Android bootloader 2                a002 Android boot 1                    
Press the <Enter> key to see more codes, q to quit: 
a003 Android recovery 1                  a004 Android misc                      
a005 Android metadata                    a006 Android system 1                  
a007 Android cache                       a008 Android data                      
a009 Android persistent                  a00a Android factory                   
a00b Android fastboot/tertiary           a00c Android OEM                       
a00d Android vendor                      a00e Android config                    
a00f Android factory (alt)               a010 Android meta                      
a011 Android EXT                         a012 Android SBL1                      
a013 Android SBL2                        a014 Android SBL3                      
a015 Android APPSBL                      a016 Android QSEE/tz                   
a017 Android QHEE/hyp                    a018 Android RPM                       
a019 Android WDOG debug/sdi              a01a Android DDR                       
a01b Android CDT                         a01c Android RAM dump                  
a01d Android SEC                         a01e Android PMIC                      
a01f Android misc 1                      a020 Android misc 2                    
a021 Android device info                 a022 Android APDP                      
a023 Android MSADP                       a024 Android DPO                       
a025 Android recovery 2                  a026 Android persist                   
a027 Android modem ST1                   a028 Android modem ST2                 
a029 Android FSC                         a02a Android FSG 1                     
a02b Android FSG 2                       a02c Android SSD                       
Press the <Enter> key to see more codes, q to quit: 
a02d Android keystore                    a02e Android encrypt                   
a02f Android EKSST                       a030 Android RCT                       
a031 Android spare1                      a032 Android spare2                    
a033 Android spare3                      a034 Android spare4                    
a035 Android raw resources               a036 Android boot 2                    
a037 Android FOTA                        a038 Android system 2                  
a039 Android cache                       a03a Android user data                 
a03b LG (Android) advanced flasher       a03c Android PG1FS                     
a03d Android PG2FS                       a03e Android board info                
a03f Android MFG                         a040 Android limits                    
a200 Atari TOS basic data                a500 FreeBSD disklabel                 
a501 FreeBSD boot                        a502 FreeBSD swap                      
a503 FreeBSD UFS                         a504 FreeBSD ZFS                       
a505 FreeBSD Vinum/RAID                  a580 Midnight BSD data                 
a581 Midnight BSD boot                   a582 Midnight BSD swap                 
a583 Midnight BSD UFS                    a584 Midnight BSD ZFS                  
a585 Midnight BSD Vinum                  a600 OpenBSD disklabel                 
a800 Apple UFS                           a901 NetBSD swap                       
a902 NetBSD FFS                          a903 NetBSD LFS                        
a904 NetBSD concatenated                 a905 NetBSD encrypted                  
a906 NetBSD RAID                         ab00 Recovery HD                       
Press the <Enter> key to see more codes, q to quit: 
af00 Apple HFS/HFS+                      af01 Apple RAID                        
af02 Apple RAID offline                  af03 Apple label                       
af04 AppleTV recovery                    af05 Apple Core Storage                
af06 Apple SoftRAID Status               af07 Apple SoftRAID Scratch            
af08 Apple SoftRAID Volume               af09 Apple SoftRAID Cache              
af0a Apple APFS                          b300 QNX6 Power-Safe                   
bc00 Acronis Secure Zone                 be00 Solaris boot                      
bf00 Solaris root                        bf01 Solaris /usr & Mac ZFS            
bf02 Solaris swap                        bf03 Solaris backup                    
bf04 Solaris /var                        bf05 Solaris /home                     
bf06 Solaris alternate sector            bf07 Solaris Reserved 1                
bf08 Solaris Reserved 2                  bf09 Solaris Reserved 3                
bf0a Solaris Reserved 4                  bf0b Solaris Reserved 5                
c001 HP-UX data                          c002 HP-UX service                     
e100 ONIE boot                           e101 ONIE config                       
e900 Veracrypt data                      ea00 Freedesktop $BOOT                 
eb00 Haiku BFS                           ed00 Sony system partition             
ed01 Lenovo system partition             ef00 EFI system partition              
ef01 MBR partition scheme                ef02 BIOS boot partition               
f800 Ceph OSD                            f801 Ceph dm-crypt OSD                 
f802 Ceph journal                        f803 Ceph dm-crypt journal             
Press the <Enter> key to see more codes, q to quit: 
f804 Ceph disk in creation               f805 Ceph dm-crypt disk in creation    
f806 Ceph block                          f807 Ceph block DB                     
f808 Ceph block write-ahead log          f809 Ceph lockbox for dm-crypt keys    
f80a Ceph multipath OSD                  f80b Ceph multipath journal            
f80c Ceph multipath block 1              f80d Ceph multipath block 2            
f80e Ceph multipath block DB             f80f Ceph multipath block write-ahead l
f810 Ceph dm-crypt block                 f811 Ceph dm-crypt block DB            
f812 Ceph dm-crypt block write-ahead lo  f813 Ceph dm-crypt LUKS journal        
f814 Ceph dm-crypt LUKS block            f815 Ceph dm-crypt LUKS block DB       
f816 Ceph dm-crypt LUKS block write-ahe  f817 Ceph dm-crypt LUKS OSD            
fb00 VMWare VMFS                         fb01 VMWare reserved                   
fc00 VMWare kcore crash protection       fd00 Linux RAID                        

Command (? for help): 

Dernière modification par MicP (Le 19/02/2021, à 20:07)

Hors ligne

#74 Le 19/02/2021, à 20:25

webangel

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Merci MicP en effet bien vue pour le menu de gdisk j'avais mal lu et n'étais pas aller jusqu’à là fin.
Du coup j'ai pour chaque disque une seule partition de plus de 2,2 To,
est-ce que je peux quand même utiliser fdisk pour modifier le type de système de fichier en RAID Linux Auto ?

Hors ligne

#75 Le 19/02/2021, à 20:39

MicP

Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04

Comme il s'agit de tables des partition de type gpt,
autant utiliser gdisk

Dernière modification par MicP (Le 19/02/2021, à 20:51)

Hors ligne