Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#26 Le 25/01/2017, à 21:16

jmvau54

Re : Récupération données Raid 5 provenant d'un NAS

J'abandonne la commande badblocks du coup?
et c'est sur le disque sdc que tu veux que je fasse toutes ces commandes et non le sdd comme c'est dans tes commandes ?
est ce que copier l'intégralité du disque sur un autre ?

Dernière modification par jmvau54 (Le 25/01/2017, à 21:30)

Hors ligne

#27 Le 25/01/2017, à 23:18

jmvau54

Re : Récupération données Raid 5 provenant d'un NAS

Please help

jm@jm-P35C-DS3R:~$ sudo debugfs   -f sdc2.testb.in  /dev/sdc2 > sdc2.testb.out
[sudo] Mot de passe de jm : 
debugfs 1.42.13 (17-May-2015)
/dev/sdc2: Bad magic number in super-block while opening filesystem
testb: Filesystem not open
testb: Filesystem not open
testb: Filesystem not open
testb: Filesystem not open
...

La seconde commande

root@jm-P35C-DS3R:~# MAX=5; i=1;for block in $(cat ~/SDC2.badblocks); do
> if [ $i -le $MAX ]
> then
> sudo hdparm --read-sector $(($block*1)) /dev/sdc2 | grep 'reading sector'
> let $[ i+=1 ]
> fi
> done
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1080960640 from /dev/sdc2 should be 1084108416
Aborting.
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1080960641 from /dev/sdc2 should be 1084108417
Aborting.
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1080960642 from /dev/sdc2 should be 1084108418
Aborting.
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1080960643 from /dev/sdc2 should be 1084108419
Aborting.
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1081253000 from /dev/sdc2 should be 1084400776
Aborting.
root@jm-P35C-DS3R:~# 

Dernière modification par jmvau54 (Le 25/01/2017, à 23:22)

Hors ligne

#28 Le 25/01/2017, à 23:22

Bougron

Re : Récupération données Raid 5 provenant d'un NAS

Laisses  tourner sur SDC.
Ce qu'il va sortir sera la surprise.    Mais il sera bon pour un formatage usine. (Je te donnerais les indications) car  la mécanique reste bonne.
Mais tu es bon pour commander un nouveau disque d'au moins 2 To pour le remplacer dans le raids.
Je te propose donc maintenant de monter le RAIDS avec les partitions SDA2 SDB2 SDD2
                                                                    La commande de montage va venir.
et de commencer à dupliquer logiquement les répertoires et les fichiers pour se prémunir d'un ennui. En espérant que tes disques actuels seront suffisamment "vastes" pour accueillir ce que tu vas sauvegarder.
La suite sera d'acheter un disque d'au moins 2 To , de le synchroniser. puis d'éliminer SDD afin de pouvoir traiter tranquillement les secteurs badblocks car leur nombre est très important et risque de dépasser la limite des secteurs de réserve (valeur top secrète des fabricants).
Nota   Le chiffre de 1367   concerne les secteurs des fichiers qui ont voulu être lus et dont la bonne lecture a été assurée par le RAIDS.
le chiffre de 6954  concerne la totalité des secteurs de la partition y compris ceux qui ne sont pas utilisés pour stocker des données d'un fichier.
Ce sont des valeurs importantes. Je ne suis pas certain que la quantité des secteurs de réserve soit suffisante pour réparer  sans risque.

Dernière modification par Bougron (Le 25/01/2017, à 23:40)

Hors ligne

#29 Le 25/01/2017, à 23:28

Bougron

Re : Récupération données Raid 5 provenant d'un NAS

jmvau54 a écrit :

Please help

jm@jm-P35C-DS3R:~$ sudo debugfs   -f sdc2.testb.in  /dev/sdc2 > sdc2.testb.out
[sudo] Mot de passe de jm : 
debugfs 1.42.13 (17-May-2015)
/dev/sdc2: Bad magic number in super-block while opening filesystem
testb: Filesystem not open
testb: Filesystem not open
testb: Filesystem not open
testb: Filesystem not open
...

La seconde commande

root@jm-P35C-DS3R:~# MAX=5; i=1;for block in $(cat ~/SDC2.badblocks); do
> if [ $i -le $MAX ]
> then
> sudo hdparm --read-sector $(($block*1)) /dev/sdc2 | grep 'reading sector'
> let $[ i+=1 ]
> fi
> done
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1080960640 from /dev/sdc2 should be 1084108416
Aborting.
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1080960641 from /dev/sdc2 should be 1084108417
Aborting.
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1080960642 from /dev/sdc2 should be 1084108418
Aborting.
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1080960643 from /dev/sdc2 should be 1084108419
Aborting.
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1081253000 from /dev/sdc2 should be 1084400776
Aborting.
root@jm-P35C-DS3R:~# 

Pour SDC2    C'est fini, il est mort. Il faut prendre SDD2.
Mes tests n'ont pas été faits en RAIDS. Mais je vais me fabriquer  un environnement RAIDS5!

Hors ligne

#30 Le 25/01/2017, à 23:57

Bougron

Re : Récupération données Raid 5 provenant d'un NAS

On va maintenant monter ce qu'il est possible de faire avec les partitions SDA2 SDB2 SDD2 , Je prends exemple  sur https://forum.ubuntu-fr.org/viewtopic.p … #p21619183
1) Arrêt du raid  au cas où mais je ne crois pas qu'il soit monté

sudo mdadm -S /dev/md2

2)  Vérif que tout le monde est là ou on l'attend. Très important car tu as débranché pas mal de disques.

sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT

3) Assemblage du raid avec resynchronisation forcée.

sudo mdadm -A -v -U resync -f /dev/md2 /dev/sd[abd]2

4) Voir l'état d'avancement de la reconstruction.

sudo mdadm -D /dev/md2 | egrep -i 'state :|Resync Status'

5) Bien attendre que cela soit fini.
"Resync status" va donner un % de progression, puis quand state est revenu à "clean" disparaître.
6) Vérif de l'état du système de fichier.

sudo fsck -fn /dev/md2 

7) Si je ne me suis pas trompé, accéder au raids.

sudo mkdir /mnt/RAIDS
sudo mount  /dev/md2  /mnt/RAIDS
ls  -rtl  /mnt/RAIDS

8) Ne restera plus plus qu'a dupliquer ce qui semble plus important avant de réactiver le remplaçant de SDC.
9) Puis penser à rectifier  SDD avec ses 6954 secteurs illisibles!

Dernière modification par Bougron (Le 26/01/2017, à 00:04)

Hors ligne

#31 Le 26/01/2017, à 00:22

jmvau54

Re : Récupération données Raid 5 provenant d'un NAS

les autres disques n'étaient pas branchés sur cet ordi

jm@jm-P35C-DS3R:~$ sudo mdadm -S /dev/md0
mdadm: stopped /dev/md0
jm@jm-P35C-DS3R:~$ sudo mdadm -S /dev/md1
mdadm: stopped /dev/md1
jm@jm-P35C-DS3R:~$ sudo mdadm -A -v -U resync -f /dev/md2 /dev/sd[abd]2
mdadm: looking for devices for /dev/md2
mdadm: /dev/sda2 is identified as a member of /dev/md2, slot 0.
mdadm: /dev/sdb2 is identified as a member of /dev/md2, slot 1.
mdadm: /dev/sdd2 is identified as a member of /dev/md2, slot 3.
mdadm: Marking array /dev/md2 as 'clean'
mdadm: added /dev/sdb2 to /dev/md2 as 1
mdadm: no uptodate device for slot 4 of /dev/md2
mdadm: added /dev/sdd2 to /dev/md2 as 3 (possibly out of date)
mdadm: added /dev/sda2 to /dev/md2 as 0
mdadm: /dev/md2 assembled from 2 drives - not enough to start the array.
jm@jm-P35C-DS3R:~$ 

J'ai cherché un peu sur le net, mais je n'ai rien trouvé de particulier

Dernière modification par jmvau54 (Le 26/01/2017, à 01:00)

Hors ligne

#32 Le 26/01/2017, à 01:14

Bougron

Re : Récupération données Raid 5 provenant d'un NAS

Bonsoir.
1+1+1=2.   Cela me dépasse. J'espère avoir un renfort de poids.

Tu as dis "J'ai cherché un peu sur le net, mais je n'ai rien trouvé de particulier"
Tu aurais pu trouver cela.   https://forum.ubuntu-fr.org/viewtopic.p … #p20340511 Mais je ne suis pas sur du tout des conséquences.
Pour le moment, je te conseille d'attendre l'arrivée de jamesbad000.

Hors ligne

#33 Le 26/01/2017, à 01:28

jamesbad000

Re : Récupération données Raid 5 provenant d'un NAS

Bonsoir.

Bougron a écrit :

Tu aurais pu trouver cela.   https://forum.ubuntu-fr.org/viewtopic.p … #p20340511 Mais je ne suis pas sur du tout des conséquences.

Moi non plus je suis pas sur des conséquence. Mais à priori --create est a éviter pour remonter un raid existant
Je reviendrais voir ce sujet demain soir...


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#34 Le 26/01/2017, à 01:40

jmvau54

Re : Récupération données Raid 5 provenant d'un NAS

ok.
Merci pour votre aide en tout cas.

2 autres qui ont fait la même chose

http://askubuntu.com/questions/621824/r … date-raid5

https://ubuntuforums.org/showthread.php … 765&page=2

Dernière modification par jmvau54 (Le 26/01/2017, à 01:46)

Hors ligne

#35 Le 26/01/2017, à 12:50

Bougron

Re : Récupération données Raid 5 provenant d'un NAS

Bonjour.
Merci de ta recherche de nouveaux  cas. J'ai lu ce commentaire.
"There were two devices with bad sectors and I knew that the raid will crash again while resyncing when it wants to read or write to bad sectors.
So I decided to build up a degraded raid that is not syncing. I cleared all superblocks and created the raid leaving out one damaged device with"

Attendons l'avis de Jamesbad000

A mon avis, 6954 blocs défectueux à réparer, cela m'inquiète, je suis fortement tenté de te proposer de dupliquer par "ddrescue" le disque SDD
sur un disque tout neuf avant de tenter l'opération de réparation des secteurs défectueux.

Suite pour le disque SDC  qui va certainement devenir FAILED.
Un extrait de ton post#4

sudo smartctl -s on -a /dev/sdc
=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Caviar Green (AF)
Device Model:     WDC WD20EARS-00MVWB0
Serial Number:    WD-WMAZA0775988
LU WWN Device Id: 5 0014ee 6006d7948
Firmware Version: 51.0AB51
User Capacity:    2 000 398 934 016 bytes [2,00 TB]
Sector Size:      512 bytes logical/physical
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 2.6, 3.0 Gb/s
Local Time is:    Mon Jan 23 23:14:18 2017 CET
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   175   175   051    Pre-fail  Always       -       2075
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       533
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   097   097   000    Old_age   Always       -       2826
197 Current_Pending_Sector  0x0032   196   196   000    Old_age   Always       -       1331
200 Multi_Zone_Error_Rate   0x0008   088   088   000    Old_age   Offline      -       29929
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed: read failure       10%      2824         1195731968
# 2  Short offline       Completed: read failure       10%      2824         1195726792
# 3  Short offline       Completed: read failure       10%      2823         1195732176
# 4  Short offline       Completed: read failure       90%      1040         1079687313

Rien ne laissait penser que le compteur 1 allait exploser en 48 heures.

http://www.01net.com/tests/test-un-disq … -2074.html
A lire http://poloastucien.free.fr/format_bas_niveau_h.html

Un document à lire qui explique un formatage usine d'un disque dur.  Il va être a décliner pour ton modèle de disque https://forum.ubuntu-fr.org/viewtopic.p … #p21571533

Un autre à lire aussi http://univers.du.pc.free.fr/pages/th_l … .php?id=30 qui fait pointer sur http://www.commentcamarche.net/download … te-boot-cd   qui contient
c. Des outils de Gestion des Disques Durs.=
Menu 2 page 4. Ces outils permettent de faire un formatage de bas niveau d'un disque dur. Je ne recommande pas l'utilisation de ces outils à  toutes les personnes. Le formatage de bas niveau est un procédé long qu'il ne faut utiliser que si votre disque dur est défectueux et ne peut pas être réparé autrement.

Mais il n'y a pas de raison de ne pas trouver sur le site du constructeur https://support.wdc.com/product.aspx?ID=608
ici,? https://support.wdc.com/knowledgebase/a … spx?ID=940
"ERASE - Erase will low-level format the drive with options of Full Erase and Quick Erase. File system and partition table will be permanently erased.
IMPORTANT "   

==> J'ai peut-être trouvé le logiciel , Il suffit d'en faire une clé USB bootable   https://support.wdc.com/knowledgebase/a … 211#dlgdos

Dernière modification par Bougron (Le 26/01/2017, à 14:25)

Hors ligne

#36 Le 26/01/2017, à 14:52

jmvau54

Re : Récupération données Raid 5 provenant d'un NAS

Ca a l'air d'être le bon logiciel. Je le ferai sous windows le moment venu.
J'ai parcouru tes liens.
Tu voulais que je lise quelque chose de particulier sur l'article de 01net ?

Pour la duplication du disque, y a t il un point négatif à le faire ?
Si c'est juste une question de temps, je le laisse tourner cette nuit.

Dernière modification par jmvau54 (Le 26/01/2017, à 15:06)

Hors ligne

#37 Le 26/01/2017, à 15:35

Bougron

Re : Récupération données Raid 5 provenant d'un NAS

Il n'y a rien à lire de particulier. C'est juste pour savoir  ce  qu'il pensait de ce disque.

Pour la duplication, il te faut un disque libre de 2 To ( Mais cela ne sera pas le SDC actuel) pour que cela soit simple à dupliquer car cela sera en physique avec ddrescue.

Au fait, cela donne quoi pour le SDC?   Le BADBLOCK et un nouveau smartctl

Dernière modification par Bougron (Le 27/01/2017, à 10:19)

Hors ligne

#38 Le 26/01/2017, à 16:06

jmvau54

Re : Récupération données Raid 5 provenant d'un NAS

J'ai 2 seagate de 2to chacun qui sont vides. Je ferai un petit smartctrl avant pour vérifier qu'ils n'ont pas de soucis. C'est les derniers que j'ai acheté, ils n'ont pas beaucoup tourné, donc ils ne devraient pas avoir de soucis.

Pour SDC, le nombre d'erreur, de mémoire était au alentour de 8000.
Je te mets les valeurs ce soir.

Hors ligne

#39 Le 26/01/2017, à 18:17

Bougron

Re : Récupération données Raid 5 provenant d'un NAS

La doc pour DDRESCUE https://doc.ubuntu-fr.org/ddrescue
Tu installes uniquement ddrescue. Il possède un suivi rudimentaire.
La taille physique du secteur de sdd est de 512

sudo smartctl -s on -a /dev/sdd
User Capacity:    2 000 398 934 016 bytes [2,00 TB]
Sector Size:      512 bytes logical/physical

Puis tu vérifies bien pour ne pas te tromper dans les disques

sudo fdisk -l 

Le disque réception sera celui qui n'a rien. Inutile de lui créer des partitions, on va tout écraser dans la manip.
Donc une première copie.   Il faut  que tu remplaces X   par la bonne lettre.

sudo      ddrescue    -f    -N   -n     -b512     /dev/sdd           /dev/sdX     ~/suivi
sudo      ddrescue    -f    -c1         -b512     /dev/sdd           /dev/sdX     ~/suivi

Puis on ne s'embête pas à récupérer les secteurs défectueux.
   C'est une opération longue qui peut se terminer par la mort du disque  alors qu'on ne va peut-être pas avoir besoin de la duplication s'il n'y a pas de fausse manip.
Mais on va quand même regarder combien il y en a.

touch      ~/badblocs
ddrescuelog     -l-        -b512  ~suivi >~/badblocs
wc ~/badblocs

Dernière modification par Bougron (Le 26/01/2017, à 18:25)

Hors ligne

#40 Le 26/01/2017, à 23:05

jamesbad000

Re : Récupération données Raid 5 provenant d'un NAS

Bonsoir,

peux-tu essayer

sudo mdadm -S /dev/md2
sudo mdadm -A -v -f /dev/md2 /dev/sd[abd]2

Et si ça fonctionne, ne tente surtout pas d'utiliser le volume raid pour le moment.

Edit: j'ai ajouté l'arrêt préalable du raid au cas ou...

Dernière modification par jamesbad000 (Le 26/01/2017, à 23:16)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#41 Le 26/01/2017, à 23:18

jmvau54

Re : Récupération données Raid 5 provenant d'un NAS

Je mets à jour au fur et à mesure
La nouvelle config (avec les 2 disques en plus). Les disques du raid n'ont pas changé de lettre

jm@jm-P35C-DS3R:~$ sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
[sudo] Mot de passe de jm : 
Désolé, essayez de nouveau.
[sudo] Mot de passe de jm : 
  SIZE NAME      FSTYPE            LABEL MOUNTPOINT
  1,8T sda                               
  512M ├─sda1    linux_raid_member       
  512M │ └─md0   swap                    
  1,8T ├─sda2    linux_raid_member 1     
    1G ├─sda3                            
    1G └─sda4    ext4                    
  1,8T sdb                               
  512M ├─sdb1    linux_raid_member       
  512M │ └─md0   swap                    
  1,8T ├─sdb2    linux_raid_member 1     
    1G ├─sdb3                            
    1G └─sdb4    ext4                    
  1,8T sdc                               
  512M ├─sdc1    linux_raid_member       
  512M │ └─md0   swap                    
  1,8T ├─sdc2    linux_raid_member 1     
    1G ├─sdc3                            
    1G └─sdc4    ext4                    
  1,8T sdd                               
  512M ├─sdd1    linux_raid_member       
  1,8T ├─sdd2    linux_raid_member 1     
    1G ├─sdd3                            
    1G └─sdd4    ext4                    
  1,8T sde                               
517,7M ├─sde1    linux_raid_member 9     
517,6M │ └─md127 ext3                    
517,7M ├─sde2    linux_raid_member 256   
517,7M │ └─md126 swap                    
  1,8T ├─sde3    linux_raid_member 1     
  1,8T │ └─md123 LVM2_member             
517,7M ├─sde4    linux_raid_member 13    
448,1M │ └─md124 ext3                    
    8G └─sde5    linux_raid_member 321   
  6,9G   └─md125 swap                    
  1,8T sdf                               
517,7M ├─sdf1    linux_raid_member 9     
517,6M │ └─md127 ext3                    
517,7M ├─sdf2    linux_raid_member 256   
517,7M │ └─md126 swap                    
  1,8T ├─sdf3    linux_raid_member 1     
  1,8T │ └─md123 LVM2_member             
517,7M ├─sdf4    linux_raid_member 13    
448,1M │ └─md124 ext3                    
    8G └─sdf5    linux_raid_member 321   
  6,9G   └─md125 swap                    
111,8G sdg                               
107,8G ├─sdg1    ext4                    /
    1K ├─sdg2                            
    4G └─sdg5    swap                    [SWAP]
jm@jm-P35C-DS3R:~$ 

Le smartctl des 2 nouveaux disques

jm@jm-P35C-DS3R:~$  sudo smartctl -a /dev/sde
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.4.0-59-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Hitachi Ultrastar A7K2000
Device Model:     Hitachi HUA722020ALA330
Serial Number:    JK11B1B9KZGETF
LU WWN Device Id: 5 000cca 222f81fde
Firmware Version: JKAOA3EA
User Capacity:    2 000 398 934 016 bytes [2,00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 2.6, 3.0 Gb/s
Local Time is:    Thu Jan 26 22:24:13 2017 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x85)	Offline data collection activity
					was aborted by an interrupting command from host.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(22330) seconds.
Offline data collection
capabilities: 			 (0x5b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					No Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   1) minutes.
Extended self-test routine
recommended polling time: 	 ( 372) minutes.
SCT capabilities: 	       (0x003d)	SCT Status supported.
					SCT Error Recovery Control supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   100   100   016    Pre-fail  Always       -       0
  2 Throughput_Performance  0x0005   132   132   054    Pre-fail  Offline      -       105
  3 Spin_Up_Time            0x0007   120   120   024    Pre-fail  Always       -       599 (Average 609)
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       119
  5 Reallocated_Sector_Ct   0x0033   100   100   005    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000b   100   100   067    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0005   121   121   020    Pre-fail  Offline      -       35
  9 Power_On_Hours          0x0012   100   100   000    Old_age   Always       -       358
 10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       116
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       129
193 Load_Cycle_Count        0x0012   100   100   000    Old_age   Always       -       129
194 Temperature_Celsius     0x0002   214   214   000    Old_age   Always       -       28 (Min/Max 9/59)
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       0

SMART Error Log Version: 0
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%       358         -
# 2  Extended offline    Completed without error       00%       316         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

jm@jm-P35C-DS3R:~$ 
jm@jm-P35C-DS3R:~$  sudo smartctl -a /dev/sdf
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.4.0-59-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Hitachi Ultrastar A7K2000
Device Model:     Hitachi HUA722020ALA330
Serial Number:    JK11A8B9GK7NHF
LU WWN Device Id: 5 000cca 222c7d711
Firmware Version: JKAOA3EA
User Capacity:    2 000 397 852 160 bytes [2,00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 2.6, 3.0 Gb/s
Local Time is:    Thu Jan 26 22:26:18 2017 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x80)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(22035) seconds.
Offline data collection
capabilities: 			 (0x5b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					No Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   1) minutes.
Extended self-test routine
recommended polling time: 	 ( 367) minutes.
SCT capabilities: 	       (0x003d)	SCT Status supported.
					SCT Error Recovery Control supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   100   100   016    Pre-fail  Always       -       0
  2 Throughput_Performance  0x0005   133   133   054    Pre-fail  Offline      -       101
  3 Spin_Up_Time            0x0007   120   120   024    Pre-fail  Always       -       599 (Average 602)
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       124
  5 Reallocated_Sector_Ct   0x0033   100   100   005    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000b   100   100   067    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0005   119   119   020    Pre-fail  Offline      -       36
  9 Power_On_Hours          0x0012   100   100   000    Old_age   Always       -       346
 10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       120
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       126
193 Load_Cycle_Count        0x0012   100   100   000    Old_age   Always       -       126
194 Temperature_Celsius     0x0002   200   200   000    Old_age   Always       -       30 (Min/Max 9/57)
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       0

SMART Error Log Version: 0
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%       346         -
# 2  Short offline       Completed without error       00%       346         -
# 3  Extended offline    Completed without error       00%       304         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Le disque sdc

m@jm-P35C-DS3R:~$ sudo smartctl -a /dev/sdc
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.4.0-59-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Caviar Green (AF)
Device Model:     WDC WD20EARS-00MVWB0
Serial Number:    WD-WMAZA0775988
LU WWN Device Id: 5 0014ee 6006d7948
Firmware Version: 51.0AB51
User Capacity:    2 000 398 934 016 bytes [2,00 TB]
Sector Size:      512 bytes logical/physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 2.6, 3.0 Gb/s
Local Time is:    Thu Jan 26 22:28:49 2017 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
See vendor-specific Attribute list for failed Attributes.

General SMART Values:
Offline data collection status:  (0x84)	Offline data collection activity
					was suspended by an interrupting command from host.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(36960) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 357) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x3035)	SCT Status supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   001   001   051    Pre-fail  Always   FAILING_NOW 59742
  3 Spin_Up_Time            0x0027   166   162   021    Pre-fail  Always       -       6658
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       536
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   097   097   000    Old_age   Always       -       2863
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       446
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       53
193 Load_Cycle_Count        0x0032   199   199   000    Old_age   Always       -       5811
194 Temperature_Celsius     0x0022   128   104   000    Old_age   Always       -       22
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   196   196   000    Old_age   Always       -       1335
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       63
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       6
200 Multi_Zone_Error_Rate   0x0008   152   088   000    Old_age   Offline      -       12940

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed: read failure       70%      2828         1077400968
# 2  Short offline       Completed: read failure       10%      2826         1195727008
# 3  Short offline       Completed: read failure       10%      2824         1195731968
# 4  Short offline       Completed: read failure       10%      2824         1195726792
# 5  Short offline       Completed: read failure       10%      2823         1195732176
# 6  Short offline       Completed: read failure       90%      1040         1079687313
# 7  Short offline       Completed without error       00%       836         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

jm@jm-P35C-DS3R:~$ 

Dernière modification par jmvau54 (Le 26/01/2017, à 23:31)

Hors ligne

#42 Le 26/01/2017, à 23:42

jmvau54

Re : Récupération données Raid 5 provenant d'un NAS

jamesbad000 a écrit :

Bonsoir,

peux-tu essayer

sudo mdadm -S /dev/md2
sudo mdadm -A -v -f /dev/md2 /dev/sd[abd]2

Et si ça fonctionne, ne tente surtout pas d'utiliser le volume raid pour le moment.

Edit: j'ai ajouté l'arrêt préalable du raid au cas ou...

jm@jm-P35C-DS3R:~$ sudo mdadm -S /dev/md2
mdadm: error opening /dev/md2: No such file or directory
jm@jm-P35C-DS3R:~$ sudo mdadm -S /dev/md1
mdadm: stopped /dev/md1
jm@jm-P35C-DS3R:~$ sudo mdadm -S /dev/md0
mdadm: stopped /dev/md0
jm@jm-P35C-DS3R:~$ sudo mdadm -A -v -f /dev/md2 /dev/sd[abd]2
mdadm: looking for devices for /dev/md2
mdadm: /dev/sda2 is identified as a member of /dev/md2, slot 0.
mdadm: /dev/sdb2 is identified as a member of /dev/md2, slot 1.
mdadm: /dev/sdd2 is identified as a member of /dev/md2, slot 3.
mdadm: added /dev/sdb2 to /dev/md2 as 1
mdadm: no uptodate device for slot 4 of /dev/md2
mdadm: added /dev/sdd2 to /dev/md2 as 3 (possibly out of date)
mdadm: added /dev/sda2 to /dev/md2 as 0
mdadm: /dev/md2 assembled from 2 drives - not enough to start the array.
jm@jm-P35C-DS3R:~$ 

Hors ligne

#43 Le 27/01/2017, à 00:16

jamesbad000

Re : Récupération données Raid 5 provenant d'un NAS

Ok, il faudra que je fasse des simulations pour voir comment faire au mieux. Peut-être qu'on finira par être obligé de faire un create, mais avant d'en arriver là je vais tenter de simuler une situation identique et mieux comprendre ce qu'il se passe...

En attendant, le mieux serait de copier le disque sdd avec gddrescue. Et surtout cesser de torturer ce disque inutilement avec des badblocs, hdparm et même smartctl.


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#44 Le 27/01/2017, à 00:27

jmvau54

Re : Récupération données Raid 5 provenant d'un NAS

je sui s en train de faire la copie de sdd
il a copié 137go
3mo d'erreurs
64 erreurs

Edit :
quand je suis parti ce matin, il en était à 1800go
moins de 5mo d'erreur et 104 erreurs

Dernière modification par jmvau54 (Le 27/01/2017, à 10:11)

Hors ligne

#45 Le 27/01/2017, à 12:00

Bougron

Re : Récupération données Raid 5 provenant d'un NAS

Bonjour
C'est un peu hors sujet.....    Je fais quelques tests. Les 4 partitions de mon RAIDS5 sont en bon état et pourtant , dans certains  cas (2 fois).
il arrive un autre problème lorsque je veux démarrer le RAIDS. Il m'a semblé que ce problème survenait suite au démarrage de ubuntu. Car après je peux jongler comme je veux.
Monter le raid avec seulement 3 partitions

sudo mdadm -A -v -U resync -f /dev/md127  /dev/sda19 /dev/sda20 /dev/sda22
mdadm: looking for devices for /dev/md127
mdadm: /dev/sda19 is identified as a member of /dev/md127, slot 0.
mdadm: /dev/sda20 is identified as a member of /dev/md127, slot 1.
mdadm: /dev/sda22 is identified as a member of /dev/md127, slot 3.
mdadm: added /dev/sda20 to /dev/md127 as 1
mdadm: no uptodate device for slot 4 of /dev/md127
mdadm: added /dev/sda22 to /dev/md127 as 3
mdadm: added /dev/sda19 to /dev/md127 as 0
mdadm: failed to RUN_ARRAY /dev/md127: Input/output error

et dans la foulée

sudo mdadm -A -v -U resync -f /dev/md127  /dev/sda19 /dev/sda20 /dev/sda21 /dev/sda22
mdadm: looking for devices for /dev/md127
mdadm: /dev/sda19 is identified as a member of /dev/md127, slot 0.
mdadm: /dev/sda20 is identified as a member of /dev/md127, slot 1.
mdadm: /dev/sda21 is identified as a member of /dev/md127, slot 2.
mdadm: /dev/sda22 is identified as a member of /dev/md127, slot 3.
mdadm: added /dev/sda20 to /dev/md127 as 1
mdadm: added /dev/sda21 to /dev/md127 as 2
mdadm: added /dev/sda22 to /dev/md127 as 3
mdadm: added /dev/sda19 to /dev/md127 as 0
mdadm: /dev/md127 has been started with 4 drives.

Hors ligne

#46 Le 27/01/2017, à 14:49

jmvau54

Re : Récupération données Raid 5 provenant d'un NAS

Pour ma part, j’arrête le raid 5, c'est trop le bazar quand on a un problème.
Je remonterai tout en raid 1 même si je perds de la place.
En tout cas, merci pour votre aide.

Hors ligne

#47 Le 27/01/2017, à 18:06

jmvau54

Re : Récupération données Raid 5 provenant d'un NAS

jamesbad000 a écrit :

Ok, il faudra que je fasse des simulations pour voir comment faire au mieux. Peut-être qu'on finira par être obligé de faire un create, mais avant d'en arriver là je vais tenter de simuler une situation identique et mieux comprendre ce qu'il se passe...

En attendant, le mieux serait de copier le disque sdd avec gddrescue. Et surtout cesser de torturer ce disque inutilement avec des badblocs, hdparm et même smartctl.


Tu me diras vers quoi on se dirige.
Je pense que la copie sera finie ce soir.

Hors ligne

#48 Le 27/01/2017, à 19:37

Bougron

Re : Récupération données Raid 5 provenant d'un NAS

jmvau54 a écrit :

Pour ma part, j’arrête le raid 5, c'est trop le bazar quand on a un problème.
Je remonterais tout en raid 1 même si je perds de la place.
En tout cas, merci pour votre aide.

Bonjour.
Prends ta décision à tête reposée.
Pour ma part, je crois que le bordel survient lorsque l'utilisateur oublie de regarder si un disque est en panne.
Le problème me semble identique en RAIDS1 https://forum.ubuntu-fr.org/viewtopic.p … #p21600923

Hors ligne

#49 Le 27/01/2017, à 20:43

jmvau54

Re : Récupération données Raid 5 provenant d'un NAS

Salut,
c'est sur que j'ai ma part de responsabilité.

On en reparlera.

Sinon voila le resultat de la premiere commande

 sudo ddrescue -f -N -n -b512 /dev/sdd /dev/sde ~/suivi
GNU ddrescue 1.19
Press Ctrl-C to interrupt
rescued:     2000 GB,  errsize:   8994 kB,  current rate:        0 B/s
   ipos:   137848 MB,   errors:     128,    average rate:   53474 kB/s
   opos:   137848 MB, run time:   10.39 h,  successful read:       3 s ago
Finished                                      [[A^[[A

La seconde tourne. elle met autant de temps?

Hors ligne

#50 Le 27/01/2017, à 20:54

Bougron

Re : Récupération données Raid 5 provenant d'un NAS

Normalement  , elle va plus vite , il y a 8,994 Mo à copier  mais cette fois-ci avec une taille de 512 octets au lieu de 65536
Mais elle va rencontrer tous les secteurs fichus. il en en pas mal      .... Je crois que c'est une seconde par secteur

Hors ligne