Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 10/06/2019, à 20:56

ClaudeVernier

Recherche de l'aide pour récupérer les données d'un NAS

Bonjour,

J'ai des soucis avec les disques de mon NAS et j'ai vus des personnes très qualifiées sur ce forum et voudrais vous demander de l'aide.

Je n'ai pas beaucoup d'expérience sur Ubuntu, je suis un développeur Web sous C#/.Net et Windows.
J'avais un NAS 4 baies de Synology nommé Impa, et après un déménagement, il a cessé de fonctionner.  J'ai installé un Dual Boot Ubuntu sur mon Windows 10 et beaucoup lu sur MDADM mais je n'arrive pas à voir ce que je peux faire pour récupérer mes données.

A un moment, j'avais 3 disques dans le NAS et un est devenu défectueux donc j'ai ajouté un nouveau disque pour le remplacer et je crois que j'avais désactivé le défectueux mais je ne sais plus exactement. Maintenant j'ai 4 disques, certains avec des partitions NAS, d'autres illisibles...

J'ai l'impression que certaines parties des disques sont mortes et que la configuration des grappes RAID est fausse mais je ne sais pas quoi faire pour le réparer.

Je voudrais vous donner toutes les informations que j'ai pu trouver en espérant que quelqu?un puisse comprendre ce qu'il faut faire.

Merci de votre aide,
Claude


Lorsque le NAS fonctionnait, j'avais pris ces notes :

--------------------------------------------------------------------------------
	Synology DS413j
	DSM :                         6.2-23739 Update 2

	Type de Raid:              Hybrid RAID SHR avec protection de données sur un disque
	Système de fichiers:  ext4

	Capacité 2.68 To
	Utilisé  2.17 To
	Disponible 528.46 Go

	Disque 1
	WDC Red, 6 To

	Disque 2
	WDC WD30EFRX-68AX9N0, 2.73 To

	Disque 3
	WDC WD30EFRX-68N32N0, 3.64 To

	Disque 4
	WDC WD30EFRX-68AX9N0, 2.73 To

En les connectant sous Ubuntu, j'ai pus trouver ces informations:
--------------------------------------------------------------------------------

	Disque dur 6.0TO
	Modèle			WDC WD60EFRX-68L0BN1 (82.00A82)
	Taille			6,0 To (6001175126016 octets)
	Partitionnement		Table des partitions GUID
	Numéro de série		WD-WX61D38K3YDZ
	Estimation		SMART n’est pas activé
	Périphérique		/dev/sda

	  5,5T sda                                         
	  2,4G ├─sda1  linux_raid_membe                    
	    2G ├─sda2  linux_raid_membe                    
	  2,7T ├─sda5  linux_raid_membe Impa:2             
	931,4G ├─sda6  linux_raid_membe Impa:3             
	931,4G │ └─md3 LVM2_member                         
	  1,8T └─sda7       

		Partition 1
		 Taille			-> 2,6 Go (2550005760 octets)
		 Périphérique		-> /dev/sda1
		 UUID			-> 6019b9bf-8704-2121-3017-a5a8c86610be
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 0.90.0)
		 mdadm -Q 		-> /dev/sda1: is not an md array

		Partition 2
		 Taille			-> 2,1 Go (2147483648 octets)
		 Périphérique		-> /dev/sda2
		 UUID			-> 70e0ad02-b676-c010-53b4-b6a1ad85ad9a
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 0.90.0)
		 mdadm -Q 		-> /dev/sda2: is not an md array

		Espace dis...
		 Taille			-> 142 Mo (141541376 octets)
		 Périphérique		-> /dev/sda
		 Contenu		-> Espace non alloué

		Partition 5
		 Taille			-> 3,0 To (2995745652736 octets)
		 Périphérique		-> /dev/sda5
		 UUID			-> a6ffe45c-9b35-a893-36b0-8cd958d31f60
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 1.2)
		 mdadm -Q 		-> /dev/sda5: is not an md array
					   /dev/sda5: device 3 in 3 device inactive raid5 array.
					   
					Use mdadm --examine for more detail.
					/dev/sda5:
						  Magic : a92b4efc
						Version : 1.2
					    Feature Map : 0x0
					     Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
						   Name : Impa:2
					  Creation Time : Fri Sep 27 08:36:12 2013
					     Raid Level : raid5
					   Raid Devices : 3

					 Avail Dev Size : 5851063680 (2790.00 GiB 2995.74 GB)
					     Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
					  Used Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
					    Data Offset : 2048 sectors
					   Super Offset : 8 sectors
					   Unused Space : before=1968 sectors, after=384 sectors
						  State : clean
					    Device UUID : e0eb2eb1:f05dc775:6ee46cef:e38893c2

					    Update Time : Sun Apr  7 21:13:34 2019
					       Checksum : 2fc59dc5 - correct
						 Events : 814581

						 Layout : left-symmetric
					     Chunk Size : 64K

					   Device Role : Active device 2
					   Array State : ..A ('A' == active, '.' == missing, 'R' == replacing)

		Espace dis...
		 Taille			-> 8,2 Mo (8241152 octets)
		 Périphérique		-> /dev/sda
		 Contenu		-> Espace non alloué

		Partition 6
		 Taille			-> 1,0 To (1000087093248 octets)
		 Périphérique		-> /dev/sda6
		 UUID			-> 216bb0ff-a54f-2520-756c-7c1a8916c2bd
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 1.2)
		 mdadm -Q 		-> /dev/sda6: is not an md array
					   /dev/sda6: device 1 in 2 device active raid1 /dev/md/3. 

					Use mdadm --examine for more detail.
					/dev/sda6:
						  Magic : a92b4efc
						Version : 1.2
					    Feature Map : 0x0
					     Array UUID : 216bb0ff:a54f2520:756c7c1a:8916c2bd
						   Name : Impa:3
					  Creation Time : Mon Aug 27 20:08:31 2018
					     Raid Level : raid1
					   Raid Devices : 2

					 Avail Dev Size : 1953293056 (931.40 GiB 1000.09 GB)
					     Array Size : 976646528 (931.40 GiB 1000.09 GB)
					    Data Offset : 2048 sectors
					   Super Offset : 8 sectors
					   Unused Space : before=1968 sectors, after=0 sectors
						  State : clean
					    Device UUID : 3e3f6a39:13a2b45c:3551dadf:928f8ec6

					    Update Time : Wed Nov 21 23:47:09 2018
					       Checksum : df8cdd7c - correct
						 Events : 2


					   Device Role : Active device 1
					   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

		Partition 7  (c'est le seul avec un type = RAID et contenu = inconnu)
		 Taille			-> 2,0 To (2000379854848 octets)
		 Périphérique		-> /dev/sda7
		 Type de partition	-> RAID Linux
		 Contenu		-> Inconnu
		 mdadm -Q 		-> /dev/sda7: is not an md array

					Use mdadm --examine for more detail.
					mdadm: No md superblock detected on /dev/sda7.

		Espace dis...
		 Taille			-> 106 Mo (105963520 octets)
		 Périphérique		-> /dev/sda
		 Contenu		-> Espace non alloué

--------------------------------------------------------------------------------

	Disque dur 3.0TO
	Modèle			WDC WD30EFRX-68AX9N0 (80.00A80)
	Taille			3,0 To (3000592982016 octets)
	Partitionnement		Table des partitions GUID
	Numéro de série		WD-WCC1T1479436
	Estimation		SMART n’est pas activé
	Périphérique		/dev/sdc

	  2,7T sdc                                         
	  2,4G ├─sdc1  linux_raid_membe                    
	    2G ├─sdc2  linux_raid_membe                    
	  2,7T └─sdc5  linux_raid_membe Impa:2 

		Partition 1
		 Taille			-> 2,6 Go (2550005760 octets)
		 Périphérique		-> /dev/sdc1
		 UUID			-> 6019b9bf-8704-2121-3017-a5a8c86610be
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 0.90.0)
		 mdadm -Q 		-> /dev/sdc1: is not an md array

		Partition 2
		 Taille			-> 2,1 Go (2147483648 octets)
		 Périphérique		-> /dev/sdc2
		 UUID			-> 70e0ad02-b676-c010-53b4-b6a1ad85ad9a
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 0.90.0)
		 mdadm -Q 		-> /dev/sdc2: is not an md array

		Espace dis...
		 Taille			-> 142 Mo (142458880 octets)
		 Périphérique		-> /dev/sdc
		 Contenu		-> Espace non alloué

		Partition 5
		 Taille			-> 3,0 To (2995745652736 octets)
		 Périphérique		-> /dev/sdc5
		 UUID                    -> a6ffe45c-9b35-a893-36b0-8cd958d31f60
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 1.2)
		 mdadm -Q 		-> /dev/sdc5: is not an md array
					   /dev/sdc5: device 0 in 2 device inactive raid1 array.  

					Use mdadm --examine for more detail.
					/dev/sdc5:
						  Magic : a92b4efc
						Version : 1.2
					    Feature Map : 0x0
					     Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
						   Name : Impa:2
					  Creation Time : Fri Sep 27 08:36:12 2013
					     Raid Level : raid1
					   Raid Devices : 2

					 Avail Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
					     Array Size : 2925531648 (2790.00 GiB 2995.74 GB)
					    Data Offset : 2048 sectors
					   Super Offset : 8 sectors
					   Unused Space : before=1968 sectors, after=384 sectors
						  State : clean
					    Device UUID : aba910b9:c8a5c6ad:551bee87:2fa688b8

					    Update Time : Sun Apr  7 21:10:56 2019
					       Checksum : 449f2cb5 - correct
						 Events : 700479


					   Device Role : Active device 0
					   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

		Espace dis...
		 Taille			-> 7,2 Mo (7249920 octets)
		 Périphérique		-> /dev/sdc
		 Contenu		-> Espace non alloué

--------------------------------------------------------------------------------

	Disque dur 3.0TO
	Modèle			WDC WD30EFRX-68AX9N0 (80.00A80)
	Taille			3,0 To (3000592982016 octets)
	Partitionnement		Table des partitions GUID
	Numéro de série		WD-WCC1T0656443
	Estimation		SMART n’est pas activé
	Périphérique		/dev/sdd

	  2,7T sdd                                         
	  2,4G ├─sdd1  linux_raid_membe                    
	    2G ├─sdd2  linux_raid_membe                    
	  2,7T └─sdd5  linux_raid_membe Impa:2  

		Partition 1
		 Taille			-> 2,6 Go (2550005760 octets)
		 Périphérique		-> /dev/sdd1
		 UUID			-> 6019b9bf-8704-2121-3017-a5a8c86610be
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 0.90.0)
		 mdadm -Q 		-> /dev/sdd1: is not an md array

		Partition 2
		 Taille			-> 2,1 Go (2147483648 octets)
		 Périphérique		-> /dev/sdd2
		 UUID			-> 70e0ad02-b676-c010-53b4-b6a1ad85ad9a
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 0.90.0)
		 mdadm -Q 		-> /dev/sdd2: is not an md array

		Espace dis...
		 Taille			-> 142 Mo (142458880 octets)
		 Périphérique		-> /dev/sdd
		 Contenu		-> Espace non alloué

		Partition 5
		 Taille			-> 3,0 To (2995745652736 octets)
		 Périphérique		-> /dev/sdd5
		 UUID			-> a6ffe45c-9b35-a893-36b0-8cd958d31f60
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 1.2)
		 mdadm -Q 		-> /dev/sdd5: is not an md array
					   /dev/sdd5: device 1 in 3 device inactive raid5 array.  

					Use mdadm --examine for more detail.
					/dev/sdd5:
						  Magic : a92b4efc
						Version : 1.2
					    Feature Map : 0x0
					     Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
						   Name : Impa:2
					  Creation Time : Fri Sep 27 08:36:12 2013
					     Raid Level : raid5
					   Raid Devices : 3

					 Avail Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
					     Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
					    Data Offset : 2048 sectors
					   Super Offset : 8 sectors
					   Unused Space : before=1968 sectors, after=384 sectors
						  State : clean
					    Device UUID : 328033b9:27927c97:690b30f2:ea6e1466

					    Update Time : Sun Apr  7 21:27:00 2019
					       Checksum : ffc576f0 - correct
						 Events : 815089

						 Layout : left-symmetric
					     Chunk Size : 64K

					   Device Role : Active device 1
					   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)

		Espace dis...
		 Taille			-> 7,2 Mo (7249920 octets)
		 Périphérique		-> /dev/sdd
		 Contenu		-> Espace non alloué

--------------------------------------------------------------------------------

	Disque dur 4.0TO
	Modèle			WDC WD40EFRX-68N32N0 (82.00A82)
	Taille			4,0 To (4000787030016 octets)
	Partitionnement		Table des partitions GUID
	Numéro de série		WD-WCC1T1479436
	Estimation		SMART n’est pas activé
	Périphérique		/dev/sde

	  3,7T sde                                         
	  2,4G ├─sde1  linux_raid_membe                    
	    2G ├─sde2  linux_raid_membe                    
	  2,7T ├─sde5  linux_raid_membe Impa:2             
	931,4G └─sde6  linux_raid_membe Impa:3             
	931,4G   └─md3 LVM2_member 

		Partition 1
		 Taille			-> 2,6 Go (2550005760 octets)
		 Périphérique		-> /dev/sde1
		 UUID			-> 6019b9bf-8704-2121-3017-a5a8c86610be
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 0.90.0)
		 mdadm -Q 		-> /dev/sde1: is not an md array

		Partition 2
		 Taille			-> 2,1 Go (2147483648 octets)
		 Périphérique		-> /dev/sde2
		 UUID			-> 70e0ad02-b676-c010-53b4-b6a1ad85ad9a
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 0.90.0)
		 mdadm -Q 		-> /dev/sde2: is not an md array

		Espace dis...
		 Taille			-> 142 Mo (141541376 octets)
		 Périphérique		-> /dev/sde
		 Contenu		-> Espace non alloué

		Partition 5
		 Taille			-> 3,0 To (2995745652736 octets)
		 Périphérique		-> /dev/sde5
		 UUID			-> a6ffe45c-9b35-a893-36b0-8cd958d31f60
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 1.2)
		 mdadm -Q 		-> /dev/sde5: is not an md array
					   /dev/sde5: device 2 in 3 device inactive raid5 array.  

					Use mdadm --examine for more detail.
					/dev/sde5:
						  Magic : a92b4efc
						Version : 1.2
					    Feature Map : 0x0
					     Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
						   Name : Impa:2
					  Creation Time : Fri Sep 27 08:36:12 2013
					     Raid Level : raid5
					   Raid Devices : 3

					 Avail Dev Size : 5851063680 (2790.00 GiB 2995.74 GB)
					     Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
					  Used Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
					    Data Offset : 2048 sectors
					   Super Offset : 8 sectors
					   Unused Space : before=1968 sectors, after=384 sectors
						  State : clean
					    Device UUID : 4d27b71d:25bb1ff1:071f3044:1a487bbb

					    Update Time : Sun Apr  7 21:21:50 2019
					       Checksum : 65503423 - correct
						 Events : 815089

						 Layout : left-symmetric
					     Chunk Size : 64K

					   Device Role : Active device 0
					   Array State : A.A ('A' == active, '.' == missing, 'R' == replacing)

		Espace dis...
		 Taille			-> 8,2 Mo (8241152 octets)
		 Périphérique		-> /dev/sde
		 Contenu		-> Espace non alloué

		Partition 6
		 Taille			-> 1,0 To (1000087093248 octets)
		 Périphérique		-> /dev/sde6
		 UUID			-> 216bb0ff-a54f-2520-756c-7c1a8916c2bd
		 Type de partition	-> RAID Linux
		 Contenu		-> Membre RAID Linux (version 1.2)
		 mdadm -Q 		-> /dev/sde6: is not an md array
					   /dev/sde6: device 0 in 2 device active raid1 /dev/md/3.  

					Use mdadm --examine for more detail.
					/dev/sde6:
						  Magic : a92b4efc
						Version : 1.2
					    Feature Map : 0x0
					     Array UUID : 216bb0ff:a54f2520:756c7c1a:8916c2bd
						   Name : Impa:3
					  Creation Time : Mon Aug 27 20:08:31 2018
					     Raid Level : raid1
					   Raid Devices : 2

					 Avail Dev Size : 1953293056 (931.40 GiB 1000.09 GB)
					     Array Size : 976646528 (931.40 GiB 1000.09 GB)
					    Data Offset : 2048 sectors
					   Super Offset : 8 sectors
					   Unused Space : before=1968 sectors, after=0 sectors
						  State : clean
					    Device UUID : 004f7fd6:8f5afad8:164a69b2:b30c8a56

					    Update Time : Wed Nov 21 23:47:09 2018
					       Checksum : 5b721bbc - correct
						 Events : 2


					   Device Role : Active device 0
					   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

		Espace dis...
		 Taille			-> 106 Mo (105963520 octets)
		 Périphérique		-> /dev/sde
		 Contenu		-> Espace non alloué

Ensuite, il y a la définition de ce volume RAID:
--------------------------------------------------------------------------------

	1.0To RAID 1
	/dev/md/3
	1.0To LVM2 PV
 		Taille		1,0 To (1000086044672 octets)
		Périphérique	/dev/md/3
		UUID		r3ibpL-ImBI-1j1X-V989-92wt-TRu3-0IRbmg
		Contenu		Volume physique LVM2 (LVM2 001)

Commandes dans un terminal:
--------------------------------------------------------------------------------

~$ sudo mdadm -D /dev/md/3
/dev/md/3:
           Version : 1.2
     Creation Time : Mon Aug 27 20:08:31 2018
        Raid Level : raid1
        Array Size : 976646528 (931.40 GiB 1000.09 GB)
     Used Dev Size : 976646528 (931.40 GiB 1000.09 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Wed Nov 21 23:47:09 2018
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : Impa:3
              UUID : 216bb0ff:a54f2520:756c7c1a:8916c2bd
            Events : 2

    Number   Major   Minor   RaidDevice State
       0       8       70        0      active sync   /dev/sde6
       1       8        6        1      active sync   /dev/sda6

--------------------------------------------------------------
~$ sudo mdadm -Db /dev/md/3   --  appropriate for adding to the /dev/mdadm/mdadm.conf 
ARRAY /dev/md/3 metadata=1.2 name=Impa:3 UUID=216bb0ff:a54f2520:756c7c1a:8916c2bd

--------------------------------------------------------------
~$ sudo mdadm -Q /dev/md/3
/dev/md/3: 931.40GiB raid1 2 devices, 0 spares. Use mdadm --detail for more detail.

--------------------------------------------------------------
~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md3 : active raid1 sda6[1] sde6[0]
      976646528 blocks super 1.2 [2/2] [UU]
unused devices: <none>

Modération : merci d'utiliser les balises code (explications ici).

Dernière modification par cqfd93 (Le 10/06/2019, à 21:21)

Hors ligne

#2 Le 10/06/2019, à 21:33

Nuliel

Re : Recherche de l'aide pour récupérer les données d'un NAS

Bonjour,

Je ne vais pas pouvoir beaucoup aider (je ne connais pas mdadm ni raid) mais une chose qui pourrait être très utile, c'est les rapports smart de chaque disque afin de voir les états des disques durs (d'ailleurs je suis étonné que ce ne soit pas activé par défaut), ce qui se résume à donner les retours de commande

sudo apt-get install --no-install-recommends smartmontools
sudo smartctl --smart=on --offlineauto=on --saveauto=on /dev/sda
sudo smartctl --smart=on --offlineauto=on --saveauto=on /dev/sdb
sudo smartctl --smart=on --offlineauto=on --saveauto=on /dev/sdc
sudo smartctl --smart=on --offlineauto=on --saveauto=on /dev/sdd

(en supposant que sda, sdb, sdc, sdd sont les différents disques durs, sinon il faut adapter)
puis donner

 sudo smartctl -s on -a /dev/sda
 sudo smartctl -s on -a /dev/sdb
 sudo smartctl -s on -a /dev/sdc
 sudo smartctl -s on -a /dev/sdd

Hors ligne

#3 Le 16/06/2019, à 20:00

ClaudeVernier

Re : Recherche de l'aide pour récupérer les données d'un NAS

Bonjour !

Merci pour votre message, effectivement, dans le gestionnaire de disques il est écrit:

Estimation		SMART n’est pas activé

Mais en fait, avec la commande 'smartctl', SMART semble actif partout:

~$ sudo smartctl -s on -a /dev/a

	smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-21-generic] (local build)
	Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

	=== START OF INFORMATION SECTION ===
	Model Family:     Western Digital Red
	Device Model:     WDC WD60EFRX-68L0BN1
	Serial Number:    WD-WX61D38K3YDZ
	LU WWN Device Id: 5 0014ee 2100e3309
	Firmware Version: 82.00A82
	User Capacity:    6001175126016 bytes [6,00 TB]
	Sector Sizes:     512 bytes logical, 4096 bytes physical
	Rotation Rate:    5700 rpm
	Device is:        In smartctl database [for details use: -P show]
	ATA Version is:   ACS-2, ACS-3 T13/2161-D revision 3b
	SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
	Local Time is:    Sun Jun 16 20:44:06 2019 CEST
	SMART support is: Available - device has SMART capability.
	SMART support is: Enabled

	=== START OF ENABLE/DISABLE COMMANDS SECTION ===
	SMART Enabled.

	=== START OF READ SMART DATA SECTION ===
	SMART overall-health self-assessment test result: PASSED

	General SMART Values:
	Offline data collection status:  (0x00)	Offline data collection activity
						was never started.
						Auto Offline Data Collection: Disabled.
	Self-test execution status:      (   0)	The previous self-test routine completed
						without error or no self-test has ever 
						been run.
	Total time to complete Offline 
	data collection: 		( 5024) seconds.
	Offline data collection
	capabilities: 			 (0x7b) SMART execute Offline immediate.
						Auto Offline data collection on/off support.
						Suspend Offline collection upon new
						command.
						Offline surface scan supported.
						Self-test supported.
						Conveyance Self-test supported.
						Selective Self-test supported.
	SMART capabilities:            (0x0003)	Saves SMART data before entering
						power-saving mode.
						Supports SMART auto save timer.
	Error logging capability:        (0x01)	Error logging supported.
						General Purpose Logging supported.
	Short self-test routine 
	recommended polling time: 	 (   2) minutes.
	Extended self-test routine
	recommended polling time: 	 ( 703) minutes.
	Conveyance self-test routine
	recommended polling time: 	 (   5) minutes.
	SCT capabilities: 	       (0x303d)	SCT Status supported.
						SCT Error Recovery Control supported.
						SCT Feature Control supported.
						SCT Data Table supported.

	SMART Attributes Data Structure revision number: 16
	Vendor Specific SMART Attributes with Thresholds:
	ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
	  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
	  3 Spin_Up_Time            0x0027   197   196   021    Pre-fail  Always       -       9125
	  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       764
	  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
	  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
	  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       548
	 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
	 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
	 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       722
	192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       15
	193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       756
	194 Temperature_Celsius     0x0022   123   103   000    Old_age   Always       -       29
	196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
	197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
	198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
	199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
	200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

	SMART Error Log Version: 1
	No Errors Logged

	SMART Self-test log structure revision number 1
	Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
	# 1  Conveyance offline  Completed without error       00%       517         -
	# 2  Conveyance offline  Completed without error       00%       502         -
	# 3  Conveyance offline  Completed without error       00%       492         -
	# 4  Short offline       Completed without error       00%       474         -
	# 5  Short offline       Completed without error       00%       307         -
	# 6  Short offline       Completed without error       00%       199         -
	# 7  Short offline       Completed without error       00%        61         -

	SMART Selective self-test log data structure revision number 1
	 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
	    1        0        0  Not_testing
	    2        0        0  Not_testing
	    3        0        0  Not_testing
	    4        0        0  Not_testing
	    5        0        0  Not_testing
	Selective self-test flags (0x0):
	  After scanning selected spans, do NOT read-scan remainder of disk.
	If Selective self-test is pending on power-up, resume after 0 minute delay.
~$ sudo smartctl -s on -a /dev/sdc

	smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-21-generic] (local build)
	Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

	=== START OF INFORMATION SECTION ===
	Model Family:     Western Digital Red
	Device Model:     WDC WD30EFRX-68AX9N0
	Serial Number:    WD-WCC1T1479436
	LU WWN Device Id: 5 0014ee 25e308b70
	Firmware Version: 80.00A80
	User Capacity:    3000592982016 bytes [3,00 TB]
	Sector Sizes:     512 bytes logical, 4096 bytes physical
	Device is:        In smartctl database [for details use: -P show]
	ATA Version is:   ACS-2 (minor revision not indicated)
	SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
	Local Time is:    Sun Jun 16 20:46:52 2019 CEST
	SMART support is: Available - device has SMART capability.
	SMART support is: Enabled

	=== START OF ENABLE/DISABLE COMMANDS SECTION ===
	SMART Enabled.

	=== START OF READ SMART DATA SECTION ===
	SMART overall-health self-assessment test result: PASSED

	General SMART Values:
	Offline data collection status:  (0x00)	Offline data collection activity
						was never started.
						Auto Offline Data Collection: Disabled.
	Self-test execution status:      (   0)	The previous self-test routine completed
						without error or no self-test has ever 
						been run.
	Total time to complete Offline 
	data collection: 		(38760) seconds.
	Offline data collection
	capabilities: 			 (0x7b) SMART execute Offline immediate.
						Auto Offline data collection on/off support.
						Suspend Offline collection upon new
						command.
						Offline surface scan supported.
						Self-test supported.
						Conveyance Self-test supported.
						Selective Self-test supported.
	SMART capabilities:            (0x0003)	Saves SMART data before entering
						power-saving mode.
						Supports SMART auto save timer.
	Error logging capability:        (0x01)	Error logging supported.
						General Purpose Logging supported.
	Short self-test routine 
	recommended polling time: 	 (   2) minutes.
	Extended self-test routine
	recommended polling time: 	 ( 389) minutes.
	Conveyance self-test routine
	recommended polling time: 	 (   5) minutes.
	SCT capabilities: 	       (0x70bd)	SCT Status supported.
						SCT Error Recovery Control supported.
						SCT Feature Control supported.
						SCT Data Table supported.

	SMART Attributes Data Structure revision number: 16
	Vendor Specific SMART Attributes with Thresholds:
	ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
	  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
	  3 Spin_Up_Time            0x0027   176   173   021    Pre-fail  Always       -       6200
	  4 Start_Stop_Count        0x0032   085   085   000    Old_age   Always       -       15637
	  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
	  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
	  9 Power_On_Hours          0x0032   088   088   000    Old_age   Always       -       9024
	 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
	 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
	 12 Power_Cycle_Count       0x0032   085   085   000    Old_age   Always       -       15098
	192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       70
	193 Load_Cycle_Count        0x0032   195   195   000    Old_age   Always       -       15566
	194 Temperature_Celsius     0x0022   119   102   000    Old_age   Always       -       31
	196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
	197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
	198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
	199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
	200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

	SMART Error Log Version: 1
	No Errors Logged

	SMART Self-test log structure revision number 1
	Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
	# 1  Conveyance offline  Completed without error       00%      8985         -
	# 2  Conveyance offline  Completed without error       00%      8977         -
	# 3  Short offline       Completed without error       00%      8960         -
	# 4  Short offline       Completed without error       00%      8794         -
	# 5  Short offline       Completed without error       00%      8687         -
	# 6  Short offline       Completed without error       00%      8507         -

	SMART Selective self-test log data structure revision number 1
	 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
	    1        0        0  Not_testing
	    2        0        0  Not_testing
	    3        0        0  Not_testing
	    4        0        0  Not_testing
	    5        0        0  Not_testing
	Selective self-test flags (0x0):
	  After scanning selected spans, do NOT read-scan remainder of disk.
	If Selective self-test is pending on power-up, resume after 0 minute delay.
~$ sudo smartctl -s on -a /dev/sdd

	smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-21-generic] (local build)
	Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

	=== START OF INFORMATION SECTION ===
	Model Family:     Western Digital Red
	Device Model:     WDC WD30EFRX-68AX9N0
	Serial Number:    WD-WCC1T0656443
	LU WWN Device Id: 5 0014ee 2b2f95c86
	Firmware Version: 80.00A80
	User Capacity:    3000592982016 bytes [3,00 TB]
	Sector Sizes:     512 bytes logical, 4096 bytes physical
	Device is:        In smartctl database [for details use: -P show]
	ATA Version is:   ACS-2 (minor revision not indicated)
	SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
	Local Time is:    Sun Jun 16 20:49:37 2019 CEST
	SMART support is: Available - device has SMART capability.
	SMART support is: Enabled

	=== START OF ENABLE/DISABLE COMMANDS SECTION ===
	SMART Enabled.

	=== START OF READ SMART DATA SECTION ===
	SMART overall-health self-assessment test result: PASSED

	General SMART Values:
	Offline data collection status:  (0x00)	Offline data collection activity
						was never started.
						Auto Offline Data Collection: Disabled.
	Self-test execution status:      (   0)	The previous self-test routine completed
						without error or no self-test has ever 
						been run.
	Total time to complete Offline 
	data collection: 		(40980) seconds.
	Offline data collection
	capabilities: 			 (0x7b) SMART execute Offline immediate.
						Auto Offline data collection on/off support.
						Suspend Offline collection upon new
						command.
						Offline surface scan supported.
						Self-test supported.
						Conveyance Self-test supported.
						Selective Self-test supported.
	SMART capabilities:            (0x0003)	Saves SMART data before entering
						power-saving mode.
						Supports SMART auto save timer.
	Error logging capability:        (0x01)	Error logging supported.
						General Purpose Logging supported.
	Short self-test routine 
	recommended polling time: 	 (   2) minutes.
	Extended self-test routine
	recommended polling time: 	 ( 411) minutes.
	Conveyance self-test routine
	recommended polling time: 	 (   5) minutes.
	SCT capabilities: 	       (0x70bd)	SCT Status supported.
						SCT Error Recovery Control supported.
						SCT Feature Control supported.
						SCT Data Table supported.

	SMART Attributes Data Structure revision number: 16
	Vendor Specific SMART Attributes with Thresholds:
	ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
	  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       4
	  3 Spin_Up_Time            0x0027   176   173   021    Pre-fail  Always       -       6175
	  4 Start_Stop_Count        0x0032   084   084   000    Old_age   Always       -       16157
	  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
	  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
	  9 Power_On_Hours          0x0032   088   088   000    Old_age   Always       -       9265
	 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
	 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
	 12 Power_Cycle_Count       0x0032   085   085   000    Old_age   Always       -       15609
	192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       67
	193 Load_Cycle_Count        0x0032   195   195   000    Old_age   Always       -       16089
	194 Temperature_Celsius     0x0022   120   101   000    Old_age   Always       -       30
	196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
	197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
	198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
	199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
	200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

	SMART Error Log Version: 1
	No Errors Logged

	SMART Self-test log structure revision number 1
	Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
	# 1  Conveyance offline  Completed without error       00%      9238         -
	# 2  Conveyance offline  Completed without error       00%      9238         -
	# 3  Conveyance offline  Completed without error       00%      9228         -
	# 4  Short offline       Completed without error       00%      9210         -
	# 5  Short offline       Completed without error       00%      9044         -
	# 6  Short offline       Completed without error       00%      8936         -
	# 7  Short offline       Completed without error       00%      8779         -
	# 8  Short offline       Completed without error       00%      8661         -

	SMART Selective self-test log data structure revision number 1
	 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
	    1        0        0  Not_testing
	    2        0        0  Not_testing
	    3        0        0  Not_testing
	    4        0        0  Not_testing
	    5        0        0  Not_testing
	Selective self-test flags (0x0):
	  After scanning selected spans, do NOT read-scan remainder of disk.
	If Selective self-test is pending on power-up, resume after 0 minute delay.
~$ sudo smartctl -s on -a /dev/sde

	smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-21-generic] (local build)
	Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

	=== START OF INFORMATION SECTION ===
	Model Family:     Western Digital Red
	Device Model:     WDC WD40EFRX-68N32N0
	Serial Number:    WD-WCC7K1RF404U
	LU WWN Device Id: 5 0014ee 2640bc796
	Firmware Version: 82.00A82
	User Capacity:    4000787030016 bytes [4,00 TB]
	Sector Sizes:     512 bytes logical, 4096 bytes physical
	Rotation Rate:    5400 rpm
	Form Factor:      3.5 inches
	Device is:        In smartctl database [for details use: -P show]
	ATA Version is:   ACS-3 T13/2161-D revision 5
	SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
	Local Time is:    Sun Jun 16 20:50:43 2019 CEST
	SMART support is: Available - device has SMART capability.
	SMART support is: Enabled

	=== START OF ENABLE/DISABLE COMMANDS SECTION ===
	SMART Enabled.

	=== START OF READ SMART DATA SECTION ===
	SMART overall-health self-assessment test result: PASSED

	General SMART Values:
	Offline data collection status:  (0x00)	Offline data collection activity
						was never started.
						Auto Offline Data Collection: Disabled.
	Self-test execution status:      (   0)	The previous self-test routine completed
						without error or no self-test has ever 
						been run.
	Total time to complete Offline 
	data collection: 		(43920) seconds.
	Offline data collection
	capabilities: 			 (0x7b) SMART execute Offline immediate.
						Auto Offline data collection on/off support.
						Suspend Offline collection upon new
						command.
						Offline surface scan supported.
						Self-test supported.
						Conveyance Self-test supported.
						Selective Self-test supported.
	SMART capabilities:            (0x0003)	Saves SMART data before entering
						power-saving mode.
						Supports SMART auto save timer.
	Error logging capability:        (0x01)	Error logging supported.
						General Purpose Logging supported.
	Short self-test routine 
	recommended polling time: 	 (   2) minutes.
	Extended self-test routine
	recommended polling time: 	 ( 466) minutes.
	Conveyance self-test routine
	recommended polling time: 	 (   5) minutes.
	SCT capabilities: 	       (0x303d)	SCT Status supported.
						SCT Error Recovery Control supported.
						SCT Feature Control supported.
						SCT Data Table supported.

	SMART Attributes Data Structure revision number: 16
	Vendor Specific SMART Attributes with Thresholds:
	ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
	  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
	  3 Spin_Up_Time            0x0027   173   171   021    Pre-fail  Always       -       6308
	  4 Start_Stop_Count        0x0032   097   097   000    Old_age   Always       -       3135
	  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
	  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
	  9 Power_On_Hours          0x0032   098   098   000    Old_age   Always       -       1808
	 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
	 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
	 12 Power_Cycle_Count       0x0032   097   097   000    Old_age   Always       -       3047
	192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       31
	193 Load_Cycle_Count        0x0032   199   199   000    Old_age   Always       -       3103
	194 Temperature_Celsius     0x0022   121   101   000    Old_age   Always       -       29
	196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
	197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
	198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
	199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
	200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

	SMART Error Log Version: 1
	No Errors Logged

	SMART Self-test log structure revision number 1
	Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
	# 1  Conveyance offline  Completed without error       00%      1774         -
	# 2  Conveyance offline  Completed without error       00%      1761         -
	# 3  Short offline       Completed without error       00%      1743         -
	# 4  Short offline       Completed without error       00%      1577         -
	# 5  Short offline       Completed without error       00%      1469         -
	# 6  Short offline       Completed without error       00%      1300         -
	# 7  Short offline       Completed without error       00%      1195         -

	SMART Selective self-test log data structure revision number 1
	 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
	    1        0        0  Not_testing
	    2        0        0  Not_testing
	    3        0        0  Not_testing
	    4        0        0  Not_testing
	    5        0        0  Not_testing
	Selective self-test flags (0x0):
	  After scanning selected spans, do NOT read-scan remainder of disk.
	If Selective self-test is pending on power-up, resume after 0 minute delay.

J'aurais encore besoin d'aide pour comprendre comment reconstruire mon NAS ou sinon, récupérer mes données.
Si quelqu'un peut comprendre les différentes extractions que j'ai recopié ici et dans le premier message, ce serait vraiment super !!!

Merci pour toute aide,
Claude

Hors ligne

#4 Le 16/06/2019, à 22:56

geole

Re : Recherche de l'aide pour récupérer les données d'un NAS

Bonsoir
Je vais essayer de résumer la situation

Le disque SDA   fait  6 To  il est en bon état
Le disque SDB    est un SSD  qui ne participe pas
Le disque SDC fait 3 To il est en bon état
Le disque SDD fait 3 To il est en bon état
Le disque SDE fait 4 To il est en bon état
Le disque SDF dait 6 To il est en bon état et qui n'a rien à voir avec le problème

On va faire le point sur les partitions montées avec cette commande

   sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT

On va faire le point  sur la définition des RAIDS  avec ces commandes

cat /proc/mdstat
sudo mdadm --detail /dev/md[0-9] 

Puis après, il faudra réassembler   (au moins mal)

Dernière modification par geole (Le 17/06/2019, à 23:11)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#5 Le 17/06/2019, à 22:42

ClaudeVernier2

Re : Recherche de l'aide pour récupérer les données d'un NAS

Bonjour !
Merci geole pour ta réponse, j'ai dû me créer un second identifiant (ClaudeVernier2) pour me connecter et te répondre ! 
Le premier ne fonctionnait plus, j'ai contacté les administrateurs :-)

J'avais fournis un peu de ces informations dans mon premier message mais je les ais refait et les résultats sont plus bas.
La raison pour laquelle il n'y avait pas de "SDB" c'est que j'ai un PC avec Windows 10 avec deux disques, un SSD où j'ai Windows et mon dual boot et un autre de 6TO pour mes données.  SDB et SDF.  Je n'avais inclus que les disques qui avaient fait partie à un moment de mon NAS Synology.

~$ sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT

	  SIZE NAME    FSTYPE           LABEL              MOUNTPOINT
	 35,3M loop0   squashfs                            /snap/gtk-common-themes/1198
	 89,3M loop1   squashfs                            /snap/core/6673
	  151M loop2   squashfs                            /snap/gnome-3-28-1804/36
	140,7M loop3   squashfs                            /snap/gnome-3-26-1604/82
	  2,3M loop4   squashfs                            /snap/gnome-calculator/260
	 14,8M loop5   squashfs                            /snap/gnome-characters/254
	  3,7M loop6   squashfs                            /snap/gnome-system-monitor/77
	 14,5M loop7   squashfs                            /snap/gnome-logs/45
	  3,7M loop8   squashfs                            /snap/gnome-system-monitor/57
	 34,6M loop9   squashfs                            /snap/gtk-common-themes/818
	 53,7M loop10  squashfs                            /snap/core18/941
	140,7M loop11  squashfs                            /snap/gnome-3-26-1604/74
	   13M loop12  squashfs                            /snap/gnome-characters/139
	    4M loop13  squashfs                            /snap/gnome-calculator/406
	 1008K loop14  squashfs                            /snap/gnome-logs/61
	   91M loop15  squashfs                            /snap/core/6350
	  5,5T sda                                         
	  2,4G ├─sda1  linux_raid_membe                    
	    2G ├─sda2  linux_raid_membe                    
	  2,7T ├─sda5  linux_raid_membe Impa:2             
	931,4G ├─sda6  linux_raid_membe Impa:3             
	931,4G │ └─md3 LVM2_member                         
	  1,8T └─sda7                                      
	447,1G sdb                                         
	  500M ├─sdb1  ntfs             Réservé au système 
	411,2G ├─sdb2  ntfs                                
	  474M ├─sdb3  ntfs                                
	    1K ├─sdb4                                      
	 14,3G ├─sdb5  ext4                                /
	  7,6G ├─sdb6  swap                                [SWAP]
	 13,1G └─sdb7  ext4                                /home
	  2,7T sdc                                         
	  2,4G ├─sdc1  linux_raid_membe                    
	    2G ├─sdc2  linux_raid_membe                    
	  2,7T └─sdc5  linux_raid_membe Impa:2             
	  2,7T sdd                                         
	  2,4G ├─sdd1  linux_raid_membe                    
	    2G ├─sdd2  linux_raid_membe                    
	  2,7T └─sdd5  linux_raid_membe Impa:2             
	  3,7T sde                                         
	  2,4G ├─sde1  linux_raid_membe                    
	    2G ├─sde2  linux_raid_membe                    
	  2,7T ├─sde5  linux_raid_membe Impa:2             
	931,4G └─sde6  linux_raid_membe Impa:3             
	931,4G   └─md3 LVM2_member                         
	  5,5T sdf                                         
	  5,5T └─sdf1  ntfs                           
~$ cat /proc/mdstat
	Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
	md3 : active raid1 sda6[1] sde6[0]
	      976646528 blocks super 1.2 [2/2] [UU]
	      
	unused devices: <none>
~$ sudo mdadm --detail /dev/md3
	/dev/md3:
		   Version : 1.2
	     Creation Time : Mon Aug 27 20:08:31 2018
		Raid Level : raid1
		Array Size : 976646528 (931.40 GiB 1000.09 GB)
	     Used Dev Size : 976646528 (931.40 GiB 1000.09 GB)
	      Raid Devices : 2
	     Total Devices : 2
	       Persistence : Superblock is persistent

	       Update Time : Wed Nov 21 23:47:09 2018
		     State : clean 
	    Active Devices : 2
	   Working Devices : 2
	    Failed Devices : 0
	     Spare Devices : 0

	Consistency Policy : resync

		      Name : Impa:3
		      UUID : 216bb0ff:a54f2520:756c7c1a:8916c2bd
		    Events : 2

	    Number   Major   Minor   RaidDevice State
	       0       8       70        0      active sync   /dev/sde6
	       1       8        6        1      active sync   /dev/sda6
~$ sudo smartctl -s on -a /dev/sdb
	smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-21-generic] (local build)
	Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

	=== START OF INFORMATION SECTION ===
	Device Model:     KINGSTON SUV400S37480G
	Serial Number:    50026B7767036FB1
	LU WWN Device Id: 0 550380 440010000
	Firmware Version: 0C3FD6SD
	User Capacity:    480103981056 bytes [480 GB]
	Sector Sizes:     512 bytes logical, 4096 bytes physical
	Rotation Rate:    Solid State Device
	Form Factor:      M.2
	Device is:        Not in smartctl database [for details use: -P showall]
	ATA Version is:   Unknown(0x0ffe), ATA8-ACS T13/1699-D revision 6
	SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
	Local Time is:    Mon Jun 17 23:16:38 2019 CEST
	SMART support is: Available - device has SMART capability.
	SMART support is: Enabled

	=== START OF ENABLE/DISABLE COMMANDS SECTION ===
	SMART Enabled.

	=== START OF READ SMART DATA SECTION ===
	SMART overall-health self-assessment test result: PASSED

	General SMART Values:
	Offline data collection status:  (0x00)	Offline data collection activity
						was never started.
						Auto Offline Data Collection: Disabled.
	Self-test execution status:      (   0)	The previous self-test routine completed
						without error or no self-test has ever 
						been run.
	Total time to complete Offline 
	data collection: 		(    5) seconds.
	Offline data collection
	capabilities: 			 (0x71) SMART execute Offline immediate.
						No Auto Offline data collection support.
						Suspend Offline collection upon new
						command.
						No Offline surface scan supported.
						Self-test supported.
						Conveyance Self-test supported.
						Selective Self-test supported.
	SMART capabilities:            (0x0003)	Saves SMART data before entering
						power-saving mode.
						Supports SMART auto save timer.
	Error logging capability:        (0x01)	Error logging supported.
						General Purpose Logging supported.
	Short self-test routine 
	recommended polling time: 	 (   2) minutes.
	Extended self-test routine
	recommended polling time: 	 (   5) minutes.
	Conveyance self-test routine
	recommended polling time: 	 (   0) minutes.
	SCT capabilities: 	       (0x003d)	SCT Status supported.
						SCT Error Recovery Control supported.
						SCT Feature Control supported.
						SCT Data Table supported.

	SMART Attributes Data Structure revision number: 48
	Vendor Specific SMART Attributes with Thresholds:
	ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
	  1 Raw_Read_Error_Rate     0x002f   100   100   000    Pre-fail  Always       -       0
	  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
	  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       12831
	 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       1206
	100 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       14762368
	101 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       1489344
	170 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0
	171 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0
	172 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0
	174 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       161
	175 Program_Fail_Count_Chip 0x0032   100   100   000    Old_age   Always       -       0
	176 Erase_Fail_Count_Chip   0x0032   100   100   000    Old_age   Always       -       0
	177 Wear_Leveling_Count     0x0032   092   092   000    Old_age   Always       -       2534
	178 Used_Rsvd_Blk_Cnt_Chip  0x0002   100   100   000    Old_age   Always       -       0
	180 Unused_Rsvd_Blk_Cnt_Tot 0x0002   100   100   000    Old_age   Always       -       2426
	183 Runtime_Bad_Block       0x0032   099   099   000    Old_age   Always       -       17
	187 Reported_Uncorrect      0x0033   100   100   000    Pre-fail  Always       -       0
	194 Temperature_Celsius     0x0022   029   100   000    Old_age   Always       -       29 (Min/Max 16/38)
	195 Hardware_ECC_Recovered  0x0032   100   100   000    Old_age   Always       -       0
	196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       0
	197 Current_Pending_Sector  0x0032   100   100   000    Old_age   Always       -       0
	199 UDMA_CRC_Error_Count    0x0012   100   100   000    Old_age   Always       -       0
	201 Unknown_SSD_Attribute   0x0032   100   100   000    Old_age   Always       -       0
	204 Soft_ECC_Correction     0x0032   100   100   000    Old_age   Always       -       0
	231 Temperature_Celsius     0x0032   093   093   000    Old_age   Always       -       7
	233 Media_Wearout_Indicator 0x0032   100   100   000    Old_age   Always       -       25714
	234 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       8059
	241 Total_LBAs_Written      0x0032   100   100   000    Old_age   Always       -       16888
	242 Total_LBAs_Read         0x0032   100   100   000    Old_age   Always       -       20478
	250 Read_Error_Retry_Rate   0x0032   100   100   000    Old_age   Always       -       0

	SMART Error Log Version: 0
	No Errors Logged

	SMART Self-test log structure revision number 0
	Warning: ATA Specification requires self-test log structure revision number = 1
	No self-tests have been logged.  [To run self-tests, use: smartctl -t]

	SMART Selective self-test log data structure revision number 0
	Note: revision number not 1 implies that no selective self-test has ever been run
	 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
	    1        0        0  Not_testing
	    2        0        0  Not_testing
	    3        0        0  Not_testing
	    4        0        0  Not_testing
	    5        0        0  Not_testing
	Selective self-test flags (0x0):
	  After scanning selected spans, do NOT read-scan remainder of disk.
	If Selective self-test is pending on power-up, resume after 0 minute delay.
~$ sudo smartctl -s on -a /dev/sdf
	smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-21-generic] (local build)
	Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

	=== START OF INFORMATION SECTION ===
	Model Family:     Western Digital Blue
	Device Model:     WDC WD60EZRZ-00GZ5B1
	Serial Number:    WD-WX61D48RY5PV
	LU WWN Device Id: 5 0014ee 2102bec39
	Firmware Version: 80.00A80
	User Capacity:    6001175126016 bytes [6,00 TB]
	Sector Sizes:     512 bytes logical, 4096 bytes physical
	Rotation Rate:    5700 rpm
	Device is:        In smartctl database [for details use: -P show]
	ATA Version is:   ACS-2, ACS-3 T13/2161-D revision 3b
	SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
	Local Time is:    Mon Jun 17 23:18:25 2019 CEST
	SMART support is: Available - device has SMART capability.
	SMART support is: Enabled

	=== START OF ENABLE/DISABLE COMMANDS SECTION ===
	SMART Enabled.

	=== START OF READ SMART DATA SECTION ===
	SMART overall-health self-assessment test result: PASSED

	General SMART Values:
	Offline data collection status:  (0x82)	Offline data collection activity
						was completed without error.
						Auto Offline Data Collection: Enabled.
	Self-test execution status:      (   0)	The previous self-test routine completed
						without error or no self-test has ever 
						been run.
	Total time to complete Offline 
	data collection: 		( 3824) seconds.
	Offline data collection
	capabilities: 			 (0x7b) SMART execute Offline immediate.
						Auto Offline data collection on/off support.
						Suspend Offline collection upon new
						command.
						Offline surface scan supported.
						Self-test supported.
						Conveyance Self-test supported.
						Selective Self-test supported.
	SMART capabilities:            (0x0003)	Saves SMART data before entering
						power-saving mode.
						Supports SMART auto save timer.
	Error logging capability:        (0x01)	Error logging supported.
						General Purpose Logging supported.
	Short self-test routine 
	recommended polling time: 	 (   2) minutes.
	Extended self-test routine
	recommended polling time: 	 ( 692) minutes.
	Conveyance self-test routine
	recommended polling time: 	 (   5) minutes.
	SCT capabilities: 	       (0x3035)	SCT Status supported.
						SCT Feature Control supported.
						SCT Data Table supported.

	SMART Attributes Data Structure revision number: 16
	Vendor Specific SMART Attributes with Thresholds:
	ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
	  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
	  3 Spin_Up_Time            0x0027   198   197   021    Pre-fail  Always       -       9100
	  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       486
	  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
	  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
	  9 Power_On_Hours          0x0032   099   099   000    Old_age   Always       -       770
	 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
	 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
	 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       124
	192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       18
	193 Load_Cycle_Count        0x0032   196   196   000    Old_age   Always       -       13137
	194 Temperature_Celsius     0x0022   122   117   000    Old_age   Always       -       30
	196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
	197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
	198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
	199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
	200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

	SMART Error Log Version: 1
	No Errors Logged

	SMART Self-test log structure revision number 1
	No self-tests have been logged.  [To run self-tests, use: smartctl -t]

	SMART Selective self-test log data structure revision number 1
	 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
	    1        0        0  Not_testing
	    2        0        0  Not_testing
	    3        0        0  Not_testing
	    4        0        0  Not_testing
	    5        0        0  Not_testing
	Selective self-test flags (0x0):
	  After scanning selected spans, do NOT read-scan remainder of disk.
	If Selective self-test is pending on power-up, resume after 0 minute delay.

En espèrant que cela peut t'aider à comprendre le problème.

Merci,
Claude

Hors ligne

#6 Le 17/06/2019, à 23:43

geole

Re : Recherche de l'aide pour récupérer les données d'un NAS

Bonsoir
J'ai demandé de l'aide.   J'ai constaté que les partitions SDA6 et SDE6 sont récupérées par md3

$ sudo mdadm --detail /dev/md3
	    Number   Major   Minor   RaidDevice State
	       0       8       70        0      active sync   /dev/sde6
	       1       8        6        1      active sync   /dev/sda6

Si j'élimine ce qui n'est pas raids (ainsi que sdb et sdf) , il reste à jongler avec cela

~$ sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
	  SIZE NAME    FSTYPE           LABEL              MOUNTPOINT
	  5,5T sda                                         
	  2,4G ├─sda1  linux_raid_membe                    
	    2G ├─sda2  linux_raid_membe                    
	  2,7T ├─sda5  linux_raid_membe Impa:2                     
	                               
	  2,7T sdc                                         
	  2,4G ├─sdc1  linux_raid_membe                    
	    2G ├─sdc2  linux_raid_membe                    
	  2,7T └─sdc5  linux_raid_membe Impa:2    
         
	  2,7T sdd                                         
	  2,4G ├─sdd1  linux_raid_membe                    
	    2G ├─sdd2  linux_raid_membe                    
	  2,7T └─sdd5  linux_raid_membe Impa:2  
           
	  3,7T sde                                         
	  2,4G ├─sde1  linux_raid_membe                    
	    2G ├─sde2  linux_raid_membe                    
	  2,7T ├─sde5  linux_raid_membe Impa:2   

                 
A mon avis c'est une structure en RAID-5     de 4 disques de 3 Go  qu'il faut rebâtir sachant que  l'un des disques qui était deffectueux a été remplacé par un neuf.
Si tu avais une idée   de qui est le nouveau  (au moins sa taille) Comme à priori le SDA6 et SDE6 sont  repartis . Bien qu'il   y aurait pu y avoir remise en état
Il  resterait SDC et SDD comme choix ???? .

$ sudo smartctl -s on -a /dev/sdc
	=== START OF INFORMATION SECTION ===
	Model Family:     Western Digital Red
	Device Model:     WDC WD30EFRX-68AX9N0
	Serial Number:    WD-WCC1T1479436
       	  9 Power_On_Hours          0x0032   088   088   000    Old_age   Always       -       9024

$ sudo smartctl -s on -a /dev/sdd
	=== START OF INFORMATION SECTION ===
	Model Family:     Western Digital Red
	Device Model:     WDC WD30EFRX-68AX9N0
       	Serial Number:    WD-WCC1T0656443
       	  9 Power_On_Hours          0x0032   088   088   000    Old_age   Always       -       9265

Sachant que le SDA de 6 To
     

 9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       548

Sachant que le SDE de 4 To
         

 9 Power_On_Hours          0x0032   098   098   000    Old_age   Always       -       1808

Dernière modification par geole (Le 17/06/2019, à 23:53)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#7 Le 18/06/2019, à 00:54

jamesbad000

Re : Recherche de l'aide pour récupérer les données d'un NAS

Bonsoir,

Je compte potentiellement 4 volumes raid distinct constitué de partitions (et non de disques entiers).
Ca va prendre un peu de temps d'y voir clair la dedans. Et je n'aurais probablement pas de temps de m'y pencher avant qq jours...


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#8 Le 18/06/2019, à 07:38

cqfd93

Re : Recherche de l'aide pour récupérer les données d'un NAS

Bonjour,

ClaudeVernier2 a écrit :

Merci geole pour ta réponse, j'ai dû me créer un second identifiant (ClaudeVernier2) pour me connecter et te répondre ! 
Le premier ne fonctionnait plus, j'ai contacté les administrateurs :-)

Bizarre, je n'ai vu aucune demande de ta part sur la liste de diffusion des admins.

Essaye déjà de récupérer un nouveau mot de passe avec le lien « Mot de passe oublié ? », tu devrais le recevoir sur ton adresse hotmail (celle que tu as utilisée pour ton compte ClaudeVernier) − Cherche aussi dans les spams / indésirables si tu ne le vois pas dans ta corbeille d'arrivée.


cqfd93

Hors ligne

#9 Le 18/06/2019, à 10:07

geole

Re : Recherche de l'aide pour récupérer les données d'un NAS

jamesbad000 a écrit :

Bonsoir,

Je compte potentiellement 4 volumes raid distinct constitué de partitions (et non de disques entiers).
Ca va prendre un peu de temps d'y voir clair la dedans. Et je n'aurais probablement pas de temps de m'y pencher avant qq jours...

Merci de ta présence.

Pour Claudevernier
  Après avoir regardé des discussions anciennes, il serait bon que tu donnes les retours de ces commandes

sudo mdadm --misc  -E /dev/sda1 /dev/sdc1 /dev/sdd1 /dev/sde1
sudo mdadm --misc  -E /dev/sda2 /dev/sdc2 /dev/sdd2 /dev/sde2
sudo mdadm --misc  -E /dev/sda5 /dev/sdc5 /dev/sdd5 /dev/sde5

Ces commandes examinent individuellement les métadonnées raid de chaque partition.

Dernière modification par geole (Le 18/06/2019, à 10:11)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#10 Le 19/06/2019, à 22:08

ClaudeVernier

Re : Recherche de l'aide pour récupérer les données d'un NAS

cqfd93 a écrit :

Bonjour,

ClaudeVernier2 a écrit :

Merci geole pour ta réponse, j'ai dû me créer un second identifiant (ClaudeVernier2) pour me connecter et te répondre ! 
Le premier ne fonctionnait plus, j'ai contacté les administrateurs :-)

Bizarre, je n'ai vu aucune demande de ta part sur la liste de diffusion des admins.

Essaye déjà de récupérer un nouveau mot de passe avec le lien « Mot de passe oublié ? », tu devrais le recevoir sur ton adresse hotmail (celle que tu as utilisée pour ton compte ClaudeVernier) − Cherche aussi dans les spams / indésirables si tu ne le vois pas dans ta corbeille d'arrivée.

Bonjour,
Merci !  En fait, c'est de ma faute...  Je n'avais pas compris qu'il fallait d'abord cliquer sur le lien pour activer le nouveau mot de passe...  pourtant c'était évident et standard...  désolé..  :-)

Hors ligne

#11 Le 19/06/2019, à 22:16

ClaudeVernier

Re : Recherche de l'aide pour récupérer les données d'un NAS

geole a écrit :
jamesbad000 a écrit :

Bonsoir,

Je compte potentiellement 4 volumes raid distinct constitué de partitions (et non de disques entiers).
Ca va prendre un peu de temps d'y voir clair la dedans. Et je n'aurais probablement pas de temps de m'y pencher avant qq jours...

Merci de ta présence.

Pour Claudevernier
  Après avoir regardé des discussions anciennes, il serait bon que tu donnes les retours de ces commandes

sudo mdadm --misc  -E /dev/sda1 /dev/sdc1 /dev/sdd1 /dev/sde1
sudo mdadm --misc  -E /dev/sda2 /dev/sdc2 /dev/sdd2 /dev/sde2
sudo mdadm --misc  -E /dev/sda5 /dev/sdc5 /dev/sdd5 /dev/sde5

Ces commandes examinent individuellement les métadonnées raid de chaque partition.

Merci de vos messages, j'ai préparé une réponse aux différents points:

il faut rebâtir sachant que  l'un des disques qui était défectueux a été remplacé par un neuf

Effectivement mon NAS était constitué au départ de 2 disques
- 2.73 To
- 2.73 To

Lorsqu'un des deux est tombé en panne, j'ai remplacé un 2.73 To par 3.64 To

Plus tard, j'ai ajouté :
- 6 To

J'avais laissé le 2.73 To défectueux dans le NAS sans l'inclure dans la grappe, du moins autant que je me souvienne et sans être certains du sens de "grappe"...

Il faudrait donc que je sache quel 2.73 To est le plus ancien.
J'ai comparé les informations entre les deux et j'ai trouvé ces différences:

   

/dev/sdc5: device 0 in 2 device inactive raid1 array.
		Raid Level : raid1
		Raid Devices : 2
		Array Size : 2925531648 (2790.00 GiB 2995.74 GB)
		Device Role : Active device 0
		Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

   

/dev/sdd5: device 1 in 3 device inactive raid5 array.
		Raid Level : raid5
		Raid Devices : 3
		Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
		Layout : left-symmetric
		Chunk Size : 64K
		Device Role : Active device 1
		Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)

Les deux array state me donne l'impression que le sdc est le plus ancien.

Je lance maintenant les commandes demandées:

~$ sudo mdadm --misc  -E /dev/sda1 /dev/sdc1 /dev/sdd1 /dev/sde1
[sudo] Mot de passe de lordofhyrule : 
mdadm: No md superblock detected on /dev/sda1.
mdadm: No md superblock detected on /dev/sdc1.
mdadm: No md superblock detected on /dev/sdd1.
mdadm: No md superblock detected on /dev/sde1.
~$ sudo mdadm --misc  -E /dev/sda2 /dev/sdc2 /dev/sdd2 /dev/sde2
mdadm: No md superblock detected on /dev/sda2.
mdadm: No md superblock detected on /dev/sdc2.
mdadm: No md superblock detected on /dev/sdd2.
mdadm: No md superblock detected on /dev/sde2.
~$ sudo mdadm --misc  -E /dev/sda5 /dev/sdc5 /dev/sdd5 /dev/sde5
/dev/sda5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
           Name : Impa:2
  Creation Time : Fri Sep 27 08:36:12 2013
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5851063680 (2790.00 GiB 2995.74 GB)
     Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
  Used Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=384 sectors
          State : clean
    Device UUID : e0eb2eb1:f05dc775:6ee46cef:e38893c2

    Update Time : Sun Apr  7 21:13:34 2019
       Checksum : 2fc59dc5 - correct
         Events : 814581

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 2
   Array State : ..A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
           Name : Impa:2
  Creation Time : Fri Sep 27 08:36:12 2013
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
     Array Size : 2925531648 (2790.00 GiB 2995.74 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=384 sectors
          State : clean
    Device UUID : aba910b9:c8a5c6ad:551bee87:2fa688b8

    Update Time : Sun Apr  7 21:10:56 2019
       Checksum : 449f2cb5 - correct
         Events : 700479


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
           Name : Impa:2
  Creation Time : Fri Sep 27 08:36:12 2013
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
     Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=384 sectors
          State : clean
    Device UUID : 328033b9:27927c97:690b30f2:ea6e1466

    Update Time : Sun Apr  7 21:27:00 2019
       Checksum : ffc576f0 - correct
         Events : 815089

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sde5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
           Name : Impa:2
  Creation Time : Fri Sep 27 08:36:12 2013
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5851063680 (2790.00 GiB 2995.74 GB)
     Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
  Used Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=384 sectors
          State : clean
    Device UUID : 4d27b71d:25bb1ff1:071f3044:1a487bbb

    Update Time : Sun Apr  7 21:21:50 2019
       Checksum : 65503423 - correct
         Events : 815089

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 0
   Array State : A.A ('A' == active, '.' == missing, 'R' == replacing)

Encore merci,
Claude

Hors ligne

#12 Le 19/06/2019, à 23:53

jamesbad000

Re : Recherche de l'aide pour récupérer les données d'un NAS

Donc les partions 1 et 2 ne sont pas identifiées en tant que raid par mdadm, alors qu'elles le sont par lsblk. Etrange, mais laissons ça de coté pour le moment

Sur le lot de partitions sd[acde]5 il y a sdc qui est un intrus en raid1 (mais avec le même array UUID que les 3 autres...)
reste donc sd[ade]5 qui pourraient aller ensemble sachant que sd[de]5 sont synchronisés (même nombre d'évènements) mais pas sda5.

Le tiercé gagnant devrait être e, d, a (cf device role) mais je sens que ça ne vas pas se passer tout seul. La suite demain avec un peu de chance...

Dernière modification par jamesbad000 (Le 22/06/2019, à 12:27)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#13 Le 22/06/2019, à 12:48

jamesbad000

Re : Recherche de l'aide pour récupérer les données d'un NAS

Bon. Tentons pour commencer un assemblage "en douceur" avec

sudo mdadm --stop /dev/md0
sudo mdadm --assemble -v /dev/md0 /dev/sd[ade]5

Dernière modification par jamesbad000 (Le 22/06/2019, à 12:51)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#14 Le 22/06/2019, à 15:16

ClaudeVernier

Re : Recherche de l'aide pour récupérer les données d'un NAS

Bonjour !

Merci !!!  Est-ce que je devrais arrêter le md3 aussi ?

Voici le résultat :

~$ sudo mdadm --stop /dev/md0
mdadm: error opening /dev/md0: No such file or directory
~$ sudo mdadm --assemble -v /dev/md0 /dev/sd[ade]5
mdadm: looking for devices for /dev/md0
mdadm: /dev/sda5 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdd5 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sde5 is identified as a member of /dev/md0, slot 0.
mdadm: ignoring /dev/sde5 as it reports /dev/sdd5 as failed
mdadm: ignoring /dev/sda5 as it reports /dev/sdd5 as failed
mdadm: no uptodate device for slot 0 of /dev/md0
mdadm: no uptodate device for slot 2 of /dev/md0
mdadm: added /dev/sdd5 to /dev/md0 as 1
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.

Claude

Hors ligne

#15 Le 22/06/2019, à 15:54

jamesbad000

Re : Recherche de l'aide pour récupérer les données d'un NAS

ClaudeVernier a écrit :

Est-ce que je devrais arrêter le md3 aussi ?

Non. On arrête md0 uniquement pour s'assurer qu'il est disponible.

Au reste, la réponse de mdadm est cohérente avec les statuts de chaque partitions. donc il va falloir forcer

sudo mdadm --stop /dev/md0
sudo mdadm --assemble -v --force /dev/md0 /dev/sd[ade]5

L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#16 Le 22/06/2019, à 15:58

ClaudeVernier

Re : Recherche de l'aide pour récupérer les données d'un NAS

Super !  Ca avance !!  smile

~$ sudo mdadm --stop /dev/md0
mdadm: error opening /dev/md0: No such file or directory
~$ sudo mdadm --assemble -v --force /dev/md0 /dev/sd[ade]5
mdadm: looking for devices for /dev/md0
mdadm: /dev/sda5 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdd5 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sde5 is identified as a member of /dev/md0, slot 0.
mdadm: clearing FAULTY flag for device 1 in /dev/md0 for /dev/sdd5
mdadm: Marking array /dev/md0 as 'clean'
mdadm: added /dev/sdd5 to /dev/md0 as 1
mdadm: added /dev/sda5 to /dev/md0 as 2 (possibly out of date)
mdadm: added /dev/sde5 to /dev/md0 as 0
mdadm: /dev/md0 has been started with 2 drives (out of 3).

:-)

Hors ligne

#17 Le 22/06/2019, à 16:18

jamesbad000

Re : Recherche de l'aide pour récupérer les données d'un NAS

J'aimerais voir le statut a ce stade

sudo mdadm -D /dev/md0

puis on refait une tentative avec resynchro

sudo mdadm --stop /dev/md0
sudo mdadm --assemble -v  --update=resync /dev/md0 /dev/sd[ade]5
sudo mdadm -D /dev/md0

L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#18 Le 22/06/2019, à 16:24

ClaudeVernier

Re : Recherche de l'aide pour récupérer les données d'un NAS

Voilà le statut :

/dev/md0:
           Version : 1.2
     Creation Time : Fri Sep 27 08:36:12 2013
        Raid Level : raid5
        Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
     Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
      Raid Devices : 3
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Apr  7 21:21:50 2019
             State : clean, degraded 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : resync

              Name : Impa:2
              UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
            Events : 815089

    Number   Major   Minor   RaidDevice State
       2       8       69        0      active sync   /dev/sde5
       1       8       53        1      active sync   /dev/sdd5
       -       0        0        2      removed

Ensuite j'ai lancé la première commande:

~$ sudo mdadm --stop /dev/md0
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?

Je n'ai pas tenté la seconde car le message n'a pas l'air très bon..

smile

Dernière modification par ClaudeVernier (Le 22/06/2019, à 16:25)

Hors ligne

#19 Le 22/06/2019, à 16:32

jamesbad000

Re : Recherche de l'aide pour récupérer les données d'un NAS

Comme il y a assez de composant pour utiliser le raid, le système de fichier a vraisemblablement été monté...
Pas grave, plutôt que s'embêter à tout défaire, comme le 3ème disque est marqué comme "retiré" on va l'ajouter directement avec

sudo mdadm -v /dev/md0 --add /dev/sda5

L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#20 Le 22/06/2019, à 16:38

ClaudeVernier

Re : Recherche de l'aide pour récupérer les données d'un NAS

Voilà :

~$ sudo mdadm -v /dev/md0 --add /dev/sda5
mdadm: added /dev/sda5

Du coup, je ne fais pas ?

sudo mdadm --assemble -v  --update=resync /dev/md0 /dev/sd[ade]5
sudo mdadm -D /dev/md0

Effectivement, /dev/dm-0 est monté !
Il reste autre chose ?

Merci !

Hors ligne

#21 Le 22/06/2019, à 16:43

jamesbad000

Re : Recherche de l'aide pour récupérer les données d'un NAS

Non en principe l'affaire est réglé. Il est probable qu'il est en train de resynchroniser le disque ajouté. Tu peux toujours vérifier le statut avec

sudo mdadm -D /dev/md0

L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#22 Le 22/06/2019, à 16:48

ClaudeVernier

Re : Recherche de l'aide pour récupérer les données d'un NAS

Génial !!  smile

/dev/md0:
           Version : 1.2
     Creation Time : Fri Sep 27 08:36:12 2013
        Raid Level : raid5
        Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
     Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Sat Jun 22 17:42:11 2019
             State : clean, degraded, recovering 
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : resync

    Rebuild Status : 2% complete

              Name : Impa:2
              UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
            Events : 815160

    Number   Major   Minor   RaidDevice State
       2       8       69        0      active sync   /dev/sde5
       1       8       53        1      active sync   /dev/sdd5
       3       8        5        2      spare rebuilding   /dev/sda5

J'avais prévu un 6To sur la partie Windows 10, en NTFS, pour copier tout ce que je pouvais récupérer faire le ménage, formater les disques et les remettre dans le NAS.
Il est préférable que j'attende que le Rebuild Status = 100%

Ensuite, je peux monter le disque de 6To et voir son contenu mais je ne peux pas y écrire pour ensuite tout retrouver sous Windows...  Tu peux m'aider ?

Encore merci,
Claude

Hors ligne

#23 Le 22/06/2019, à 16:59

jamesbad000

Re : Recherche de l'aide pour récupérer les données d'un NAS

Il est préférable que j'attende que le Rebuild Status = 100%

Rien n'empêche de travailler pendant qu'il reconstruit :
Le raid est entre autre une solution de haute disponibilité => Pas d'interruption de service pour un seul disque en panne
En revanche et contrairement à ce que beaucoup pensent, ce n'est PAS une solution de sauvegarde !

Ensuite, je peux monter le disque de 6To et voir son contenu mais je ne peux pas y écrire pour ensuite tout retrouver sous Windows...  Tu peux m'aider ?

Tu ne peux pas écrire. Mais encore ? Il y une erreur de type "non autorisé..."

Dernière modification par jamesbad000 (Le 22/06/2019, à 17:02)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#24 Le 22/06/2019, à 17:14

ClaudeVernier

Re : Recherche de l'aide pour récupérer les données d'un NAS

Je pensais au départ effectivement que c'était pour de la sauvegarde et c'est ma seconde panne, mais je vais tout de même continuer de l'utiliser, il me sert aussi à accéder à mes vidéos et la musique...

Lorsque je copie un fichier de dev/dm-0, j’essaie de le coller sur le disque NTFS et l'option "coller" est grisé.
J'ai tenté le drag & drop mais le fichier revient vers la source
J'ai tenté "copier vers" et j'ai ce message: "la destination est en lecture seule"

Merci,
Claude

Je comprends bien le message mais je ne sais pas quoi faire, j'avais tenté d'accorder full control à everyone depuis Windows mais il me semble que ça n'avait pas aidé.

Hors ligne

#25 Le 22/06/2019, à 17:41

jamesbad000

Re : Recherche de l'aide pour récupérer les données d'un NAS

j'avais tenté d'accorder full control à everyone depuis Windows mais il me semble que ça n'avait pas aidé.

Effectivement c'est sans effet, car linux ne connait rien à la gestion de droit  NTFS. linux attribut des droits d'accès globalement à tous les fichiers dans une partition NTFS donnée

Mais "la destination est en lecture seule" c'est un autre problème.
que donnes

sudo mount -v /dev/sdf1 /mnt

Dernière modification par jamesbad000 (Le 22/06/2019, à 17:41)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne