Pages : 1
#1 Le 19/04/2020, à 08:04
- nikomiko
Syno : Volume planté... 1 segment manquant ,
Bonjour,
Je suis un peu perdu et pour tout dire désespéré car j'ai l'impression d'avoir perdu 20 ans de souvenirs. Merci à tout ceux qui prendront le temps de me lire et de me conseiller.
Situation : hier matin, reboot quasi normal de mon DS214play et de ses 2 disques de 3To. Un message me disant "opération en cours sur un package" (arrêt de Download Station) ; je force le redémarrage. Au reboot, volume planté. Les 2 disques durs HS !?!
Premières analyse (résumé) : la structure logique de mon RAID 1 semble être la suivante (héritage, j'imagine, d'un accroissement de taille d'1GO il y a un an qui s'était déroulé sans encombres.
lv (logical volume)
|--- |vg1000 (volume group)
|--- |--- md2 (RAID volume / LVM physical volume) => 900 Go
|--- |--- |--- /dev/sda5
|--- |--- |--- /dev/sdb5
|--- |--- md3 (RAID volume / LVM physical volume) => 1,8 To
|--- |--- |--- /dev/sda6
|--- |--- |--- /dev/sdb6
=> md3 est présent, mais md2 n'est plus disponible sur le disque et les partitions sous jacentes ne sont pas reconnues par mdadm.
root@martinico:/etc/lvm/archive# mdadm -D /dev/md2
mdadm: cannot open /dev/md2: No such file or directory
root@martinico:/etc/lvm/archive# mdadm --examine /dev/sda5
mdadm: No md superblock detected on /dev/sda5.
root@martinico:/etc/lvm/archive# mdadm --examine /dev/sdb5
mdadm: No md superblock detected on /dev/sdb5.
pvdisplay me confirme cela :
lvm> pvscan
Couldn't find device with uuid GkeCSM-c6wp-l0F4-m1UY-a2NA-lgjN-wyW090.
PV unknown device VG vg1000 lvm2 [927.00 GiB / 0 free]
PV /dev/md3 VG vg1000 lvm2 [1.82 TiB / 0 free]
Total: 2 [2.72 TiB] / in use: 2 [2.72 TiB] / in no VG: 0 [0 ]
lvm> pvdisplay
Couldn't find device with uuid GkeCSM-c6wp-l0F4-m1UY-a2NA-lgjN-wyW090.
--- Physical volume ---
PV Name unknown device
VG Name vg1000
PV Size 927.00 GiB / not usable 1.75 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 237311
Free PE 0
Allocated PE 237311
PV UUID GkeCSM-c6wp-l0F4-m1UY-a2NA-lgjN-wyW090
--- Physical volume ---
PV Name /dev/md3
VG Name vg1000
PV Size 1.82 TiB / not usable 3.75 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 476903
Free PE 0
Allocated PE 476903
PV UUID m3XCmK-awti-QEdc-vF3V-T3qp-CU9f-8UVMvj
J'ai fait tourner les commandes classiques de LVM dont je met le log en PJ.
A ce stade, je ne sais pas comment faire pour idéalement remonter le volume, mais au pire, en effectuer une sauvegarde avant upgrade du syno.
Tout conseil est bon à prendre... j'ai plus de 20 ans de souvenirs familiaux qui s'envolent.
Nicolas
Log :
Ci-dessous les commandes effectuées :
Physical Disks
==============
root@martinico:/etc/lvm/archive# fdisk -l
Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 53874F8D-19C2-4C04-910F-FB9493122998
Device Start End Sectors Size Type
/dev/sda1 2048 4982527 4980480 2.4G Linux RAID
/dev/sda2 4982528 9176831 4194304 2G Linux RAID
/dev/sda5 9453280 1953511007 1944057728 927G Linux RAID
/dev/sda6 1953527104 5860326207 3906799104 1.8T Linux RAID
Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 1F586C49-BCBC-411B-AF19-78C86FAA7F42
Device Start End Sectors Size Type
/dev/sdb1 2048 4982527 4980480 2.4G Linux RAID
/dev/sdb2 4982528 9176831 4194304 2G Linux RAID
/dev/sdb5 9453280 1953511007 1944057728 927G Linux RAID
/dev/sdb6 1953527104 5860326207 3906799104 1.8T Linux RAID
Disk /dev/md3: 1.8 TiB, 2000280092672 bytes, 3906797056 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
RAID Volumes : (/dev/md2 0,9To, /dev/md3 1,8To)
===============================================
--- /dev/md3 1,8To
root@martinico:/etc/lvm/archive# mdadm -D /dev/md3
/dev/md3:
Version : 1.2
Creation Time : Thu Nov 17 09:55:41 2016
Raid Level : raid1
Array Size : 1953398528 (1862.91 GiB 2000.28 GB)
Used Dev Size : 1953398528 (1862.91 GiB 2000.28 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sat Apr 18 15:13:51 2020
State : clean, degraded, recovering
Active Devices : 1
Working Devices : 2
Failed Devices : 0
Spare Devices : 1
Rebuild Status : 11% complete
Name : martinico:3 (local to host martinico)
UUID : 49cd335c:ce96d494:5fd783b1:b3d89550
Events : 5293
Number Major Minor RaidDevice State
2 8 22 0 active sync /dev/sdb6
3 8 6 1 spare rebuilding /dev/sda6
root@martinico:/etc/lvm/archive# mdadm --examine /dev/sda6
/dev/sda6:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x2
Array UUID : 49cd335c:ce96d494:5fd783b1:b3d89550
Name : martinico:3 (local to host martinico)
Creation Time : Thu Nov 17 09:55:41 2016
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 3906797056 (1862.91 GiB 2000.28 GB)
Array Size : 1953398528 (1862.91 GiB 2000.28 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Recovery Offset : 732524544 sectors
Unused Space : before=1968 sectors, after=0 sectors
State : clean
Device UUID : 8709cce3:7ffada5f:12259a55:cdfa6493
Update Time : Sat Apr 18 16:00:26 2020
Checksum : 54709361 - correct
Events : 5297
Device Role : Active device 1
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
root@martinico:/etc/lvm/archive# mdadm --examine /dev/sdb6
/dev/sdb6:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 49cd335c:ce96d494:5fd783b1:b3d89550
Name : martinico:3 (local to host martinico)
Creation Time : Thu Nov 17 09:55:41 2016
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 3906797056 (1862.91 GiB 2000.28 GB)
Array Size : 1953398528 (1862.91 GiB 2000.28 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=0 sectors
State : clean
Device UUID : 1f0a5e30:6201e68d:4a3067ce:72321e51
Update Time : Sat Apr 18 16:00:26 2020
Checksum : d9ea6db5 - correct
Events : 5297
Device Role : Active device 0
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
--- /dev/md2
root@martinico:/etc/lvm/archive# mdadm -D /dev/md2
mdadm: cannot open /dev/md2: No such file or directory
root@martinico:/etc/lvm/archive# mdadm --examine /dev/sda5
mdadm: No md superblock detected on /dev/sda5.
root@martinico:/etc/lvm/archive# mdadm --examine /dev/sdb5
mdadm: No md superblock detected on /dev/sdb5.
Physical Volumes (LVM)
======================
lvm> pvscan
Couldn't find device with uuid GkeCSM-c6wp-l0F4-m1UY-a2NA-lgjN-wyW090.
PV unknown device VG vg1000 lvm2 [927.00 GiB / 0 free]
PV /dev/md3 VG vg1000 lvm2 [1.82 TiB / 0 free]
Total: 2 [2.72 TiB] / in use: 2 [2.72 TiB] / in no VG: 0 [0 ]
lvm> pvdisplay
Couldn't find device with uuid GkeCSM-c6wp-l0F4-m1UY-a2NA-lgjN-wyW090.
--- Physical volume ---
PV Name unknown device
VG Name vg1000
PV Size 927.00 GiB / not usable 1.75 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 237311
Free PE 0
Allocated PE 237311
PV UUID GkeCSM-c6wp-l0F4-m1UY-a2NA-lgjN-wyW090
--- Physical volume ---
PV Name /dev/md3
VG Name vg1000
PV Size 1.82 TiB / not usable 3.75 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 476903
Free PE 0
Allocated PE 476903
PV UUID m3XCmK-awti-QEdc-vF3V-T3qp-CU9f-8UVMvj
Volume Groups
=============
=> seems like /dev/md2 is missing
lvm> vgscan
Reading all physical volumes. This may take a while...
Couldn't find device with uuid GkeCSM-c6wp-l0F4-m1UY-a2NA-lgjN-w
Found volume group "vg1000" using metadata type lvm2
lvm> vgdisplay
Couldn't find device with uuid GkeCSM-c6wp-l0F4-m1UY-a2NA-lgjN-wyW090.
--- Volume group ---
VG Name vg1000
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 4
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 0
Max PV 0
Cur PV 2
Act PV 1
VG Size 2.72 TiB
PE Size 4.00 MiB
Total PE 714214
Alloc PE / Size 714214 / 2.72 TiB
Free PE / Size 0 / 0
VG UUID tZwyog-WYy2-QgGm-2Oo8-Mq9O-HKy8-zaMunU
Logical Volume
==============
lvm> lvmdiskscan
/dev/md3 [ 1.82 TiB] LVM physical volume
0 disks
0 partitions
0 LVM physical volume whole disks
1 LVM physical volume
lvm> lvscan
Couldn't find device with uuid GkeCSM-c6wp-l0F4-m1UY-a2NA-lgjN-wyW090.
ACTIVE '/dev/vg1000/lv' [2.72 TiB] inherit
lvm> lvdisplay
Couldn't find device with uuid GkeCSM-c6wp-l0F4-m1UY-a2NA-lgjN-wyW090.
--- Logical volume ---
LV Path /dev/vg1000/lv
LV Name lv
VG Name vg1000
LV UUID 2AAy9u-DkbD-16t6-60x7-rWj5-wOop-zyzqYe
LV Write Access read/write
LV Creation host, time ,
LV Status available
# open 0
LV Size 2.72 TiB
Current LE 714214
Segments 2
Allocation inherit
Read ahead sectors auto
- currently set to 384
Block device 253:1
---
Put the disk in my linux box :
sdb became sdg
nicolas@NEMO:~$ lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT
sda
├─sda1 ntfs Réservé au système 56BE8843BE881E1D
├─sda2 ntfs 54FE96B0FE968A3E
├─sda3 ntfs 8234E6AF34E6A57F
├─sda4
├─sda5 ext4 385ac62a-663a-40c7-9a1d-f7ffa09148ee /
├─sda6 vfat 33C8-6B92
└─sda7 ext2 b958b637-05e9-4434-9215-a1f1eddaeddb /home
sdc isw_raid_member
sdd
└─sdd1 ntfs LOCAL 50AA5B34AA5B15B6 /media/nicolas/LOCAL
sdg
├─sdg1 linux_raid_member 8d2ef375-1841-b1e0-3017-a5a8c86610be
├─sdg2 linux_raid_member 83d32001-3854-b841-9014-80e16410cbf3
├─sdg5
└─sdg6 linux_raid_member martinico:3 49cd335c-ce96-d494-5fd7-83b1b3d89550
nicolas@NEMO:~$ sudo mke2fs -n /dev/sdg5
mke2fs 1.44.1 (24-Mar-2018)
En train de créer un système de fichiers avec 243007216 4k blocs et 60751872 i-noeuds.
UUID de système de fichiers=c292cee7-51b1-4d2b-9204-b36dff033b5a
Superblocs de secours stockés sur les blocs :
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848
Testdisk
========
TestDisk 7.0, Data Recovery Utility, April 2015
Christophe GRENIER <grenier@cgsecurity.org>
http://www.cgsecurity.org
Disk /dev/sdb - 3000 GB / 2794 GiB - CHS 364801 255 63
Current partition structure:
Partition Start End Size in sectors
1 P Linux Raid 2048 4982527 4980480 [md0]
2 P Linux Raid 4982528 9176831 4194304 [md1]
Invalid RAID superblock
5 P Linux Raid 9453280 1953511007 1944057728
5 P Linux Raid 9453280 1953511007 1944057728
6 P Linux Raid 1953527104 5860326207 3906799104 [martinico:3]
==> crashed
root@martinico:~# fdisk -l /dev/sdb
Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 1F586C49-BCBC-411B-AF19-78C86FAA7F42
Device Start End Sectors Size Type
/dev/sdb1 2048 4982527 4980480 2.4G Linux RAID
/dev/sdb2 4982528 9176831 4194304 2G Linux RAID
/dev/sdb5 9453280 1953511007 1944057728 927G Linux RAID
/dev/sdb6 1953527104 5860326207 3906799104 1.8T Linux RAID
root@martinico:~# fdisk -l /dev/sda
Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: E35AFB2A-080C-A049-B253-1B8F9E8E6655
Device Start End Sectors Size Type
/dev/sda1 2048 4982527 4980480 2.4G Linux RAID
/dev/sda2 4982528 9176831 4194304 2G Linux RAID
/dev/sda3 9455328 1953510623 1944055296 927G Linux RAID
/dev/sda4 1953527104 5860324167 3906797064 1.8T Linux RAID
Hors ligne
#2 Le 19/04/2020, à 12:04
- Compte supprimé
Re : Syno : Volume planté... 1 segment manquant ,
Bonjour.
Je ne peux pas t'aider pour ton problème actuel mais je ne peux que te conseiller pour plus tard.
Étant possesseur d'un Synology DS212j, j'ai un disque dur USB externe qui me permet de faire les sauvegardes en cas de plantage du NAS.
#3 Le 19/04/2020, à 12:08
- Compte supprimé
Re : Syno : Volume planté... 1 segment manquant ,
Toutefois j'ai un conseil. Il peut-être intéressant de relire le disque du Synology sur une machine Ubuntu.
C'est le moment d'acheter un disque dur externe qui va te servir pour récupérer tes données car le but n'est pas d'écrire sur le disque du synology mais uniquement de t'en servir en lecture.
Il y a des sujets sur Internet qui expliquent comment monter le disque du Synology en lecture pour récupérer les données.
Cordialement.
#4 Le 19/04/2020, à 12:12
- Compte supprimé
Re : Syno : Volume planté... 1 segment manquant ,
#5 Le 20/04/2020, à 08:21
- nikomiko
Re : Syno : Volume planté... 1 segment manquant ,
Merci de ta réponse. J'y ai déjà passé deux nuits... sans trop de succès.
Par contre j'ai trouvé un vieux disque de la même unité raid, que j'avais remisé après un doute sur son état de santé. Comme le partitionnement n'a pas changé, peut être qu'il est posisble de le réutiliser pour retrouver la partie intéressante du superblock.
=> De ce que je comprends, un superblock est composé d'une partie fixe et d'une partie de "table des matières des inodes".
=> Peut on recopier uniquement d'un disque à l'autre le superblock, hors inodes ?
Hors ligne
#6 Le 20/04/2020, à 11:24
- Compte supprimé
Re : Syno : Volume planté... 1 segment manquant ,
Bonjour.
Oui tout à fait. Tu peux recopier uniquement d'un disque à l'autre le super bloc si c'est bien la table des partitions que tu veux copier. Regarde la commande sfdisk.
Ceci est un vieux message donc tu remplaces HDA par SDA, etc...
Pages : 1