#1 Le 01/05/2020, à 19:00
- FreeLinux
[Résolu] Recupération disques NAS synlogie RAID SHR
Bonjour,
Mon NAS SYNOLOGY 412 + a planté est je souhaite récupérer mes données qui se trouvent sur les 4 disques SATA (2 disques en 3T, 1 Disque 2T et Disque 1T) en les connectant sur mon ordinateur qui a une configuration Ubuntu 19.4
A ce stade j'obtiens ça :
J'ai mes 4 Hard Disk vus, 3 ont été vus également en Raid, et j'ai bien mes deux volumes logiques 1 et 2 du Raid SHR
Mais je n'arrive pas à faire monter les Volumes logiques 1 et 2 pour que je puisse les lires.
J'ai essayé avec le logiciel et avec les commandes manuels.
J'ai bien créé un point de montage au préalable avec la commande
Mkdir /Données1
mais après ma commande suivante
mount /dev/vg1/volume_1 /Données1
j'obtiens l'erreur suivante :
mount: /Données: wrong fs type, bad option, bad superblock on /de/mapper/vg1-volume_1, missing codepage or helper program, or other error.
avez vous une idée pour résoudre cette erreur ?
merci
Dernière modification par Ayral (Le 29/06/2021, à 12:49)
Hors ligne
#2 Le 01/05/2020, à 23:11
- geole
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
Bonsoir
Tu dis que le nas a planté. Il y a certainement une raison. Probablement des disques défectueux.
Installe smartmontools smarmontools chapitre 1
puis donne les 4 retours de la commande prévue au paragraphe 3.1
puis plus tard, j'espère qu'un expert en raid passera, sinon je regarderais demain mon aide-mémoire.
Je suis presque certain qu'il n'y a rien pour des disques de tailles différentes.
As-tu installé mdadm dans ton ordinateur ? https://doc.ubuntu-fr.org/raid_logiciel
Dernière modification par geole (Le 01/05/2020, à 23:16)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#3 Le 02/05/2020, à 08:00
- FreeLinux
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
bonjour,
e nas a planté parcequ'il s’arrêtait toutes les cinq minutes et se relancait automatiquement
j'ai du faire un reset et deslors il me demande de formater les disques
- soit le nas me permet de retrouver ma configuration nas anterieur mais je ne connais pas les fonctions pour
- soit je sauvegarde d'abord les données des disques sur mon ordinateur et je remets les diques dans le nas pour tout reconfigurer
j'ai bien installé mdadm et lvm2
Hors ligne
#4 Le 02/05/2020, à 09:17
- geole
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
Bonjour
Tu commences en priorité à regarder l'état des disques et à fournir le rapport demandé. https://doc.ubuntu-fr.org/smartmontools
Tant que tu ne fourniras, je ne pourrais trouver quels disques sont à remplacer avant de remettre en état le ou les raids ou ou copier le contenu
.
Pour avoir un aperçu général avec les quatre disques branchés en même temps si cela est possible, donne le retour de cette commande
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
Pour connaître les vrais noms des disques, cela sera cette commande
ls -ls /dev/disk/by-id
Je vais bientôt ajouter quelques commandes pour fournir la structure RAID. Je ne connais pas avec certitude l'ordre des commandes à faire.
Pour avoir la liste détaillée on va regarder ce que celle-ci va donner
sudo mdadm --detail /dev/md[0-9]
Dernière modification par geole (Le 02/05/2020, à 09:40)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#5 Le 02/05/2020, à 09:35
- FreeLinux
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
Bonjour
Physiquement il y a six disques
1 pour de 120 GO pour le systeme
1 de 500 GO pour les fichiers de l'ordinateur /home
et 4 HARD DISK du serveur que j'ai connecté sur l'ordinateur pour pouvoir recupérer les données
après avoir utiliser lvm2 , j'ai deux volume logique qui sont remontés de la configuration initiale qui était sur le serveur. Ce sont les deux volumes que je n'arrive pas à faire "monter" pour les lires
Voici l'état des disques avec la commande fdisk -l
Disque /dev/loop0 : 149,93 MiB, 157192192 octets, 307016 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop1 : 62,9 MiB, 65105920 octets, 127160 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop2 : 956 KiB, 978944 octets, 1912 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop3 : 54,97 MiB, 57614336 octets, 112528 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop4 : 2,42 MiB, 2531328 octets, 4944 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop5 : 68,78 MiB, 72101888 octets, 140824 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop6 : 202,92 MiB, 212758528 octets, 415544 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop7 : 14,77 MiB, 15466496 octets, 30208 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/sda : 111,81 GiB, 120034123776 octets, 234441648 secteurs
Disk model: Verbatim Vi500 S
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : gpt
Identifiant de disque : D938EA79-4C88-405E-A9F6-15022623D8E7
Périphérique Début Fin Secteurs Taille Type
/dev/sda1 2048 117189547 117187500 55,9G Système de fichiers Linux
Disque /dev/sdb : 465,78 GiB, 500107862016 octets, 976773168 secteurs
Disk model: CT500MX500SSD1
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x76ec2ec1
Périphérique Amorçage Début Fin Secteurs Taille Id Type
/dev/sdb1 2048 976771579 976769532 465,8G 83 Linux
Disque /dev/sdc : 2,75 TiB, 3000592982016 octets, 5860533168 secteurs
Disk model: WDC WD30EFRX-68N
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : D4955BAB-39EC-4CB6-83C0-074701EF90E4
Périphérique Début Fin Secteurs Taille Type
/dev/sdc1 256 4980735 4980480 2,4G RAID Linux
/dev/sdc2 4980736 9175039 4194304 2G RAID Linux
/dev/sdc5 9453280 1953511007 1944057728 927G RAID Linux
/dev/sdc6 1953527104 3907015007 1953487904 931,5G RAID Linux
/dev/sdc7 3907031104 5860519007 1953487904 931,5G RAID Linux
Disque /dev/sdd : 931,53 GiB, 1000204886016 octets, 1953525168 secteurs
Disk model: WDC WD10EFRX-68J
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x0005237a
Périphérique Amorçage Début Fin Secteurs Taille Id Type
/dev/sdd1 256 4980735 4980480 2,4G fd RAID Linux autodét
/dev/sdd2 4980736 9175039 4194304 2G fd RAID Linux autodét
/dev/sdd3 9437184 1953511007 1944073824 927G f Étendue W95 (LBA)
/dev/sdd5 9453280 1953511007 1944057728 927G fd RAID Linux autodét
Disque /dev/sde : 1,84 TiB, 2000398934016 octets, 3907029168 secteurs
Disk model: WDC WD20EFRX-68E
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x000e5f3d
Périphérique Amorçage Début Fin Secteurs Taille Id Type
/dev/sde1 256 4980735 4980480 2,4G fd RAID Linux auto
/dev/sde2 4980736 9175039 4194304 2G fd RAID Linux auto
/dev/sde3 9437184 3907015007 3897577824 1,8T f Étendue W95 (LB
/dev/sde5 9453280 1953511007 1944057728 927G fd RAID Linux auto
/dev/sde6 1953527104 3907015007 1953487904 931,5G fd RAID Linux auto
Disque /dev/sdf : 2,75 TiB, 3000592982016 octets, 5860533168 secteurs
Disk model: WDC WD30EFRX-68A
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : CC80DF75-E20F-48C4-825A-82C4A933BCFA
Périphérique Début Fin Secteurs Taille Type
/dev/sdf1 256 4980735 4980480 2,4G RAID Linux
/dev/sdf2 4980736 9175039 4194304 2G RAID Linux
/dev/sdf5 9453280 1953511007 1944057728 927G RAID Linux
/dev/sdf6 1953527104 3907015007 1953487904 931,5G RAID Linux
/dev/sdf7 3907031104 5860519007 1953487904 931,5G RAID Linux
Disque /dev/md2 : 2,73 TiB, 2986068934656 octets, 5832165888 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 196608 octets
Disque /dev/md3 : 1,84 TiB, 2000369221632 octets, 3906971136 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 131072 octets
Disque /dev/md4 : 931,51 GiB, 1000184610816 octets, 1953485568 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Disque /dev/mapper/vg1-syno_vg_reserved_area : 12 MiB, 12582912 octets, 24576 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 196608 octets
Disque /dev/mapper/vg1-volume_1 : 1,18 TiB, 1288490188800 octets, 2516582400 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 393216 octets
Disque /dev/mapper/vg1-volume_2 : 750 GiB, 805306368000 octets, 1572864000 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 196608 octets
Disque /dev/loop8 : 956 KiB, 978944 octets, 1912 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop9 : 54,97 MiB, 57618432 octets, 112536 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop10 : 54,84 MiB, 57479168 octets, 112264 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop11 : 290,98 MiB, 305086464 octets, 595872 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop12 : 242,43 MiB, 254193664 octets, 496472 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop13 : 93,8 MiB, 98336768 octets, 192064 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop14 : 93,94 MiB, 98484224 octets, 192352 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop15 : 14,76 MiB, 15462400 octets, 30200 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop16 : 160,16 MiB, 167931904 octets, 327992 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Disque /dev/loop17 : 4,26 MiB, 4464640 octets, 8720 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Dernière modification par FreeLinux (Le 02/05/2020, à 10:17)
Hors ligne
#6 Le 02/05/2020, à 09:38
- FreeLinux
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
resultat avec la commande
root@souillard-bequiet:~# lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
SIZE NAME FSTYPE LABEL MOUNTPOINT
149,9M loop0 squashfs /snap/gnome-3-28-1804/71
62,1M loop1 squashfs /snap/gtk-common-themes/1506
956K loop2 squashfs /snap/gnome-logs/81
55M loop3 squashfs /snap/core18/1705
2,4M loop4 squashfs /snap/gnome-calculator/730
68,8M loop5 squashfs /snap/entropypianotuner/2
202,9M loop6 squashfs /snap/vlc/1397
14,8M loop7 squashfs /snap/gnome-characters/495
956K loop8 squashfs /snap/gnome-logs/93
55M loop9 squashfs /snap/core18/1754
54,8M loop10 squashfs /snap/gtk-common-themes/1502
291M loop11 squashfs /snap/vlc/1620
242,4M loop12 squashfs /snap/gnome-3-34-1804/27
93,8M loop13 squashfs /snap/core/8935
93,9M loop14 squashfs /snap/core/9066
14,8M loop15 squashfs /snap/gnome-characters/399
160,2M loop16 squashfs /snap/gnome-3-28-1804/116
4,3M loop17 squashfs /snap/gnome-calculator/704
111,8G sda
55,9G └─sda1 ext4 /
465,8G sdb
465,8G └─sdb1 ext4 /home
2,7T sdc
2,4G ├─sdc1 linux_raid_member
2G ├─sdc2 linux_raid_member
927G ├─sdc5 linux_raid_member sl_diskstation:2
2,7T │ └─md2 LVM2_member
12M │ ├─vg1-syno_vg_reserved_area
1,2T │ ├─vg1-volume_1 ext4 1.41.10-2660
750G │ └─vg1-volume_2 ext4 1.41.10-2660
931,5G ├─sdc6 linux_raid_member sl_diskstation:3
1,8T │ └─md3 LVM2_member
1,2T │ └─vg1-volume_1 ext4 1.41.10-2660
931,5G └─sdc7 linux_raid_member sl_diskstation:4
931,5G └─md4 LVM2_member
931,5G sdd
2,4G ├─sdd1 linux_raid_member
2G ├─sdd2 linux_raid_member
1K ├─sdd3
927G └─sdd5 linux_raid_member sl_diskstation:2
2,7T └─md2 LVM2_member
12M ├─vg1-syno_vg_reserved_area
1,2T ├─vg1-volume_1 ext4 1.41.10-2660
750G └─vg1-volume_2 ext4 1.41.10-2660
1,8T sde
2,4G ├─sde1 linux_raid_member
2G ├─sde2 linux_raid_member
1K ├─sde3
927G ├─sde5 linux_raid_member sl_diskstation:2
2,7T │ └─md2 LVM2_member
12M │ ├─vg1-syno_vg_reserved_area
1,2T │ ├─vg1-volume_1 ext4 1.41.10-2660
750G │ └─vg1-volume_2 ext4 1.41.10-2660
931,5G └─sde6 linux_raid_member sl_diskstation:3
1,8T └─md3 LVM2_member
1,2T └─vg1-volume_1 ext4 1.41.10-2660
2,7T sdf
2,4G ├─sdf1 linux_raid_member
2G ├─sdf2 linux_raid_member
927G ├─sdf5 linux_raid_member sl_diskstation:2
2,7T │ └─md2 LVM2_member
12M │ ├─vg1-syno_vg_reserved_area
1,2T │ ├─vg1-volume_1 ext4 1.41.10-2660
750G │ └─vg1-volume_2 ext4 1.41.10-2660
931,5G ├─sdf6 linux_raid_member sl_diskstation:3
1,8T │ └─md3 LVM2_member
1,2T │ └─vg1-volume_1 ext4 1.41.10-2660
931,5G └─sdf7 linux_raid_member sl_diskstation:4
931,5G └─md4 LVM2_member
Dernière modification par FreeLinux (Le 02/05/2020, à 10:17)
Hors ligne
#7 Le 02/05/2020, à 09:40
- FreeLinux
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
resultat avec la commande
ls -ls /dev/disk/by-id
total 0
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 ata-CT500MX500SSD1_1947E2298CF6 -> ../../sdb
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-CT500MX500SSD1_1947E2298CF6-part1 -> ../../sdb1
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 ata-Verbatim_Vi500_S3_120GB_SSD_I49331R000803 -> ../../sda
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-Verbatim_Vi500_S3_120GB_SSD_I49331R000803-part1 -> ../../sda1
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 ata-WDC_WD10EFRX-68JCSN0_WD-WCC1U1203323 -> ../../sdd
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD10EFRX-68JCSN0_WD-WCC1U1203323-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD10EFRX-68JCSN0_WD-WCC1U1203323-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD10EFRX-68JCSN0_WD-WCC1U1203323-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD10EFRX-68JCSN0_WD-WCC1U1203323-part5 -> ../../sdd5
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348 -> ../../sde
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348-part1 -> ../../sde1
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348-part2 -> ../../sde2
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348-part3 -> ../../sde3
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348-part5 -> ../../sde5
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348-part6 -> ../../sde6
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130 -> ../../sdf
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130-part1 -> ../../sdf1
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130-part2 -> ../../sdf2
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130-part5 -> ../../sdf5
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130-part6 -> ../../sdf6
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130-part7 -> ../../sdf7
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY -> ../../sdc
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY-part5 -> ../../sdc5
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY-part6 -> ../../sdc6
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY-part7 -> ../../sdc7
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 dm-name-vg1-syno_vg_reserved_area -> ../../dm-0
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 dm-name-vg1-volume_1 -> ../../dm-1
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 dm-name-vg1-volume_2 -> ../../dm-2
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 dm-uuid-LVM-ySD0a0KsbohqwIYa2NGlu59lmWfeVISbeHA2CzKNqmC0O0Kbr3dVwdO0YX0RHBhZ -> ../../dm-1
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 dm-uuid-LVM-ySD0a0KsbohqwIYa2NGlu59lmWfeVISbIwAu2umcqstxfsx4YzSYzN6I704OEZ38 -> ../../dm-0
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 dm-uuid-LVM-ySD0a0KsbohqwIYa2NGlu59lmWfeVISbo2YXSMFpeiBtj7aPcSl3Kt0md5ki5xxX -> ../../dm-2
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 lvm-pv-uuid-AJ6RkF-AVm9-7RyQ-UMax-hd6L-rS3I-Sd91po -> ../../md2
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 lvm-pv-uuid-UCMRTu-d3zh-1l9l-AUqm-JhMW-1uXQ-yIJh5S -> ../../md3
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 lvm-pv-uuid-X0pLWk-KlaT-0M2N-ZBid-PTew-SZ4P-JnEHCf -> ../../md4
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 md-name-sl_diskstation:2 -> ../../md2
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 md-name-sl_diskstation:3 -> ../../md3
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 md-name-sl_diskstation:4 -> ../../md4
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 md-uuid-01e802e2:1d2f3792:9debc8f4:055109f2 -> ../../md2
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 md-uuid-62ed7ceb:542dbbe2:b58f390b:23c6e104 -> ../../md3
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 md-uuid-827b0577:5a2bfe22:fb3cc233:0894fba0 -> ../../md4
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 wwn-0x50014ee058fc38d5 -> ../../sde
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee058fc38d5-part1 -> ../../sde1
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee058fc38d5-part2 -> ../../sde2
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee058fc38d5-part3 -> ../../sde3
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee058fc38d5-part5 -> ../../sde5
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee058fc38d5-part6 -> ../../sde6
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 wwn-0x50014ee20fbf7eed -> ../../sdc
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee20fbf7eed-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee20fbf7eed-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee20fbf7eed-part5 -> ../../sdc5
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee20fbf7eed-part6 -> ../../sdc6
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee20fbf7eed-part7 -> ../../sdc7
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 wwn-0x50014ee25d66671b -> ../../sdd
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee25d66671b-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee25d66671b-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee25d66671b-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee25d66671b-part5 -> ../../sdd5
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 wwn-0x50014ee658c3f87a -> ../../sdf
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee658c3f87a-part1 -> ../../sdf1
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee658c3f87a-part2 -> ../../sdf2
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee658c3f87a-part5 -> ../../sdf5
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee658c3f87a-part6 -> ../../sdf6
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x50014ee658c3f87a-part7 -> ../../sdf7
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 wwn-0x500a0751e2298cf6 -> ../../sdb
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x500a0751e2298cf6-part1 -> ../../sdb1
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 wwn-0x502b2a201d1c1b1a -> ../../sda
0 lrwxrwxrwx 1 root root 10 mai 2 08:50 wwn-0x502b2a201d1c1b1a-part1 -> ../../sda1
Dernière modification par FreeLinux (Le 02/05/2020, à 10:16)
Hors ligne
#8 Le 02/05/2020, à 09:43
- FreeLinux
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
resultat avec la commande :
mdadm --detail /dev/md[0-9]
/dev/md2:
Version : 1.2
Creation Time : Sat Jul 27 23:00:58 2013
Raid Level : raid5
Array Size : 2916082944 (2780.99 GiB 2986.07 GB)
Used Dev Size : 972027648 (927.00 GiB 995.36 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Fri May 1 10:35:11 2020
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Consistency Policy : resync
Name : sl_diskstation:2
UUID : 01e802e2:1d2f3792:9debc8f4:055109f2
Events : 5239
Number Major Minor RaidDevice State
4 8 37 0 active sync /dev/sdc5
1 8 53 1 active sync /dev/sdd5
2 8 85 2 active sync /dev/sdf5
3 8 69 3 active sync /dev/sde5
/dev/md3:
Version : 1.2
Creation Time : Wed Jun 22 22:38:02 2016
Raid Level : raid5
Array Size : 1953485568 (1862.99 GiB 2000.37 GB)
Used Dev Size : 976742784 (931.49 GiB 1000.18 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Thu Apr 30 23:29:09 2020
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Consistency Policy : resync
Name : sl_diskstation:3
UUID : 62ed7ceb:542dbbe2:b58f390b:23c6e104
Events : 3069
Number Major Minor RaidDevice State
0 8 70 0 active sync /dev/sde6
1 8 86 1 active sync /dev/sdf6
2 8 38 2 active sync /dev/sdc6
/dev/md4:
Version : 1.2
Creation Time : Sat Oct 20 15:24:12 2018
Raid Level : raid1
Array Size : 976742784 (931.49 GiB 1000.18 GB)
Used Dev Size : 976742784 (931.49 GiB 1000.18 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Thu Apr 30 23:29:09 2020
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : sl_diskstation:4
UUID : 827b0577:5a2bfe22:fb3cc233:0894fba0
Events : 19
Number Major Minor RaidDevice State
0 8 87 0 active sync /dev/sdf7
1 8 39 1 active sync /dev/sdc7
Dernière modification par FreeLinux (Le 02/05/2020, à 10:19)
Hors ligne
#9 Le 02/05/2020, à 09:43
- geole
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
Peux-tu mettre en forme s'il te plaît en modifiant tes messages, puis sélectionner les réponses et enfin cliquer sur le onzième icone au-dessus de la zone de saisie qui ressemble à cela <>
Je te rappelle que l'urgence est le rapport smartclt.
Ce que je retiens de tes raids
/dev/md2: Raid Level : raid5 Raid Devices : 4 Total Devices : 4 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0
Number Major Minor RaidDevice State
4 8 37 0 active sync /dev/sdc5
1 8 53 1 active sync /dev/sdd5
2 8 85 2 active sync /dev/sdf5
3 8 69 3 active sync /dev/sde5
Array Size : 2916082944 (2780.99 GiB 2986.07 GB)
/dev/md3: Raid Level : raid5 Raid Devices : 3 Total Devices : 3 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0
Number Major Minor RaidDevice State
0 8 70 0 active sync /dev/sde6
1 8 86 1 active sync /dev/sdf6
2 8 38 2 active sync /dev/sdc6
Array Size : 1953485568 (1862.99 GiB 2000.37 GB)
dev/md4: Raid Level : raid1 Raid Devices : 2 Total Devices : 2 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0
Number Major Minor RaidDevice State
0 8 87 0 active sync /dev/sdf7
1 8 39 1 active sync /dev/sdc7
Array Size : 976742784 (931.49 GiB 1000.18 GB)
Il ne devrait donc pas y avoir de problème de récupération pour cette partie si on ne commet pas d'erreur
Le problème semble se situer dans les partitions 1 et 2 des 4 disques. Mais pour une taille de 2,4 go et 2 Go. Je pense que tu n'as pas de données personnelles dans cet endroit. C'est peut-être du logiciel de gestion du RAIDS????
/dev/sdX1 256 4980735 4980480 2,4G RAID Linux
/dev/sdX2 4980736 9175039 4194304 2G RAID Linux
Je note les noms des disques
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY -> ../../sdc
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 ata-WDC_WD10EFRX-68JCSN0_WD-WCC1U1203323 -> ../../sdd
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348 -> ../../sde
0 lrwxrwxrwx 1 root root 9 mai 2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130 -> ../../sdf
Dernière modification par geole (Le 02/05/2020, à 10:24)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#11 Le 02/05/2020, à 10:12
- FreeLinux
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
Désolé pour la forme mais c'est la première fois que j'utilise un forum pour avoir de l'aide en 30 ans
A quoi sert cette commande ? et comment je l'utilise pour la mise en forme
Merci au modérateur OK j'ai compris
En effet pour les raids c'est bien la configuration que m'a été remontée suite à l'utilisation de LVM2
et il m'a remonté aussi deux volumes logiques qui pour moi s'appuient sur les raids
En effet les premières partitions de mes Raids (qui ne sont pas très lourdes ) n'apparaissent pas . Cela doit être une partition dédiée au serveur et non à mes données.
Si çà peut aider
disque
Dernière modification par FreeLinux (Le 02/05/2020, à 10:41)
Hors ligne
#12 Le 02/05/2020, à 10:23
- geole
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
sudo apt-get install --no-install-recommends smartmontools
sudo smartctl -s on -a /dev/sdc
sudo smartctl -s on -a /dev/sdd
sudo smartctl -s on -a /dev/sde
sudo smartctl -s on -a /dev/sdf
en 4 retours mis en forme dans le même messages ou dans 4 messages. Je m'absente une heure
Dernière modification par geole (Le 02/05/2020, à 10:25)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#13 Le 02/05/2020, à 10:59
- FreeLinux
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
Merci pour le temps passé
A tout à l'heure je pars me restaurer
Résultat sur disque sdc
root@souillard-bequiet:~# sudo smartctl -s on -a /dev/sdc
smartctl 7.0 2018-12-30 r4883 [x86_64-linux-5.3.0-51-generic] (local build)
Copyright (C) 2002-18, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red
Device Model: WDC WD30EFRX-68N32N0
Serial Number: WD-WCC7K2JR4DAY
LU WWN Device Id: 5 0014ee 20fbf7eed
Firmware Version: 82.00A82
User Capacity: 3000592982016 bytes [3,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5400 rpm
Form Factor: 3.5 inches
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-3 T13/2161-D revision 5
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Sat May 2 11:49:58 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (32520) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 346) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x303d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 167 166 021 Pre-fail Always - 6608
4 Start_Stop_Count 0x0032 098 098 000 Old_age Always - 2637
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 100 253 000 Old_age Always - 0
9 Power_On_Hours 0x0032 099 099 000 Old_age Always - 1016
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 098 098 000 Old_age Always - 2288
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 55
193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 2614
194 Temperature_Celsius 0x0022 117 115 000 Old_age Always - 33
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Résultat sur disque sdd
root@souillard-bequiet:~# sudo smartctl -s on -a /dev/sdd
smartctl 7.0 2018-12-30 r4883 [x86_64-linux-5.3.0-51-generic] (local build)
Copyright (C) 2002-18, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red
Device Model: WDC WD10EFRX-68JCSN0
Serial Number: WD-WCC1U1203323
LU WWN Device Id: 5 0014ee 25d66671b
Firmware Version: 01.01A01
User Capacity: 1000204886016 bytes [1,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Sat May 2 11:52:42 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (13800) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 157) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x30bd) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 139 133 021 Pre-fail Always - 4041
4 Start_Stop_Count 0x0032 077 077 000 Old_age Always - 23355
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 090 090 000 Old_age Always - 7668
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 078 078 000 Old_age Always - 22018
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 69
193 Load_Cycle_Count 0x0032 193 193 000 Old_age Always - 23285
194 Temperature_Celsius 0x0022 112 103 000 Old_age Always - 31
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Résultat sur disque sde
root@souillard-bequiet:~# sudo smartctl -s on -a /dev/sde
smartctl 7.0 2018-12-30 r4883 [x86_64-linux-5.3.0-51-generic] (local build)
Copyright (C) 2002-18, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red
Device Model: WDC WD20EFRX-68EUZN0
Serial Number: WD-WMC4M1158348
LU WWN Device Id: 5 0014ee 058fc38d5
Firmware Version: 80.00A80
User Capacity: 2000398934016 bytes [2,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5400 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Sat May 2 11:54:41 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (26280) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 266) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x703d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 3
3 Spin_Up_Time 0x0027 171 169 021 Pre-fail Always - 4441
4 Start_Stop_Count 0x0032 082 082 000 Old_age Always - 18763
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 100 253 000 Old_age Always - 0
9 Power_On_Hours 0x0032 092 092 000 Old_age Always - 6421
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 083 083 000 Old_age Always - 17490
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 43
193 Load_Cycle_Count 0x0032 194 194 000 Old_age Always - 18719
194 Temperature_Celsius 0x0022 115 106 000 Old_age Always - 32
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
résultat sur le dernier disque sdf
root@souillard-bequiet:~# sudo smartctl -s on -a /dev/sdf
smartctl 7.0 2018-12-30 r4883 [x86_64-linux-5.3.0-51-generic] (local build)
Copyright (C) 2002-18, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red
Device Model: WDC WD30EFRX-68AX9N0
Serial Number: WD-WMC1T3779130
LU WWN Device Id: 5 0014ee 658c3f87a
Firmware Version: 80.00A80
User Capacity: 3000592982016 bytes [3,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Sat May 2 11:56:01 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (40380) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 405) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x70bd) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 41
3 Spin_Up_Time 0x0027 181 177 021 Pre-fail Always - 5908
4 Start_Stop_Count 0x0032 077 077 000 Old_age Always - 23342
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 100 253 000 Old_age Always - 0
9 Power_On_Hours 0x0032 090 090 000 Old_age Always - 7656
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 078 078 000 Old_age Always - 22005
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 57
193 Load_Cycle_Count 0x0032 193 193 000 Old_age Always - 23284
194 Temperature_Celsius 0x0022 115 109 000 Old_age Always - 35
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Dernière modification par FreeLinux (Le 02/05/2020, à 11:01)
Hors ligne
#14 Le 02/05/2020, à 13:08
- geole
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
Voila mon diagnostic sur l'état des disques. Les quatre disques sont en excellant état. Il n'y en a aucun à remplacer.
Voici ma proposition de montage pour tes raids. Dans l'ancien temps, on montait tout cela dans /media/$USER. J'ai constaté qu'avec l'arrivée des nouveaux systèmes de partition en ZFS, le logiciel n'a pas hésité à faire du montage directement sur la racine. Donc c'est ce que je propose.
Bien entendu, tu peux choisir d'autres endroits ou d'autres noms comme point de montage
1) Création de trois points de montage avec approppriation
sudo mkdir -v /Raid3To
sudo chown -v $USER:$USER /Raid3To
sudo mkdir -v /Raid2To
sudo chown -v $USER:$USER /Raid2To
sudo mkdir -v /Raid1To
sudo chown -v $USER:$USER /Raid1To
2) Montage des RAIDS pour utilisation. Tu peux noter qu'on peut automatiser cette commande en mettant à jour le fichier /etc/stab
sudo mount -v /dev/md2 /Raid3To
sudo mount -v /dev/md3 /Raid2To
sudo mount -v /dev/md4 /Raid1To
3) Vérification et utilisation du contenu
ls -ls /Raid3To
ls -ls /Raid2To
ls -ls /Raid1To
4) Tu peux utiliser ces disques le temps que tu voudras avec ton ordinateur en ne remplaçant pas le NAS.
Voici un avis sur ton problème du nas. Je ne le connais pas du tout. Alors je peux dire des erreurs
- Il est complètement fichu et à remplacer
- Il a voulu faire une mise à jour de son logiciel mais cette mise à jour n'est pas de bonne qualité.
- Tu lui as demandé de faire une commande pas habituelle avec un mauvais paramétrage.
- Autre cause.
Voici un avis au cas où tu voudrais le remettre en route.
- Commander trois nouveaux disques de 3 To. Les mettre dans le nas en raids5 ( un ou deux) en disant qu'il manque un disque si c'est possible.
- Monter le nas en réseau (cela devrait être possible assez facilement)
- Transférer les répertoires via le réseau
- Lorsque c'est fini, récupérer un de deux disques de 3 To (SDC est le plus récent) et l'ajouter au NAS.
D'autres variantes, Acheter un disque de plus et faire le transfert des répertoires . Un ou plusieurs à la fois suivant la taille du disque.
Acheter encore un disque de plus, et mettre directement en route avec 4 disques dans le nas.
Une autre variante possible, comme tes 4 disques sont en bon état, tu peux en déclarer un de 3 To (SDC est le plus récent) FAULTY, le démonter et l'utiliser comme un futur disque du nas.
Il y a donc pas mal de possibilités.
Dernière modification par geole (Le 02/05/2020, à 13:12)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#15 Le 02/05/2020, à 13:57
- FreeLinux
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
J'ai essayé avec le Raid1
Mais a priori je n'arrive pas à changer de propriétaire : où je trouve les noms où comment je force ?
root@souillard-bequiet:~# sudo mkdir -v /Raid1To
mkdir: création du répertoire '/Raid1To'
root@souillard-bequiet:~# sudo chown -v $souillard:$souillard /Raid1To
l'appartenance de '/Raid1To' a été maintenue
root@souillard-bequiet:~# sudo mount -v /dev/md4 /Raid1To
mount: /Raid1To: type de système de fichiers « LVM2_member » inconnu.
Désolé j'ai fait une erreur de saisie pour le changement de propriétaire
Maintenant ca bloque sur la dernière commande
root@souillard-bequiet:~# sudo chown -v souillard:souillard /Raid1To
appartenance de '/Raid1To' modifiée de root:root en souillard:souillard
root@souillard-bequiet:~# sudo mount -v /dev/md4 /Raid1To
mount: /Raid1To: type de système de fichiers « LVM2_member » inconnu.
Les raids ont un type de fichier "LVm2"
Alors que mes deux volumes /dev/vg1/volume_1 et /dev/vg1/volume_2 ont des types de fichier Ext 4
J'ai essayé de monter un des volumes et je n'y arrive pas également ci-dessous l'erreur
root@souillard-bequiet:~# mount /dev/vg1/volume_1 /Données1
mount: /Données1: wrong fs type, bad option, bad superblock on /dev/mapper/vg1-volume_1, missing codepage or helper program, or other error.
root@souillard-bequiet:~# chown -v souillard:souillard /Données1
appartenance de '/Données1' modifiée de root:root en souillard:souillard
root@souillard-bequiet:~# mount -v /dev/vg1/volume_1 /Données1
mount: /Données1: wrong fs type, bad option, bad superblock on /dev/mapper/vg1-volume_1, missing codepage or helper program, or other error.
Dernière modification par FreeLinux (Le 02/05/2020, à 14:29)
Hors ligne
#16 Le 02/05/2020, à 17:25
- geole
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
Je crois qu'on va s'amuser un peu.
Pour le premier point
root@souillard-bequiet:~# sudo mkdir -v /Raid1To
mkdir: création du répertoire '/Raid1To'
[b]root[/b]@souillard-bequiet:~# sudo chown -v $souillard:$souillard /Raid1To
l'appartenance de '/Raid1To' a été maintenue
Tu travaillais en mode root et pas avec ton nom d'utilisateur Mais tu as rectifié correctement
Mais " « LVM2_member » inconnu" est plus embêtant
Fais quand même les tentatives de montages pour les deux autres raids Si on a le même type d'erreur, on saura qu'en trouvant pour le premier , on trouvera pour des deux autres.
Dans le forum, il y a d'autres personnes qui vont peut-être voir le problème nouveau.
Pour ma part, je vais commencer à lire la documentation de ton NAS afin de voir si on trouve quelque chose qui peut aider. Je ne vais certainement rien trouver d'ici demain matin
===> Une documentation https://www.ip-sa.com.pl/doc/documentat … er_enu.pdf
Je viens de comprendre que ce n'est probablement pas du raids5, mais du synology Hybrid Raid
Habituellement on travaille sous son nom d'utilisateur exemple
a@a-usb:~$ ls
Bureau Documents Modèles Public Vidéos
chroot Images Musique Téléchargements
a@a-usb:~$ echo $USER
a
a@a-usb:~$
pour passer en root on fait souvent la commande
a@a-usb:~$ sudo -i
[sudo] Mot de passe de a :
root@a-usb:~#
Dans ce cas, toutes les commandes changent
root@a-usb:~# ls
root@a-usb:~#
Pour quitter ce mode, il suffit de frapper la commande exit et on se retrouve dans son propre environnement
root@a-usb:~# exit
déconnexion
a@a-usb:~$ ls
Bureau Documents Modèles Public Vidéos
chroot Images Musique Téléchargements
a@a-usb:~$
Dernière modification par geole (Le 02/05/2020, à 21:23)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#17 Le 02/05/2020, à 22:16
- FreeLinux
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
Bonsoir,
C'est la même chose avec les deux autres RAID
souillard@souillard-bequiet:~$ sudo mkdir -v /Raid3To
[sudo] Mot de passe de souillard :
mkdir: création du répertoire '/Raid3To'
souillard@souillard-bequiet:~$ sudo mkdir -v /Raid2To
mkdir: création du répertoire '/Raid2To'
souillard@souillard-bequiet:~$ sudo chown -v souillard:souillard /Raid3To
appartenance de '/Raid3To' modifiée de root:root en souillard:souillard
souillard@souillard-bequiet:~$ sudo chown -v souillard:souillard /Raid2To
appartenance de '/Raid2To' modifiée de root:root en souillard:souillard
souillard@souillard-bequiet:~$ sudo mount -v /dev/md2 /Raid3To
mount: /Raid3To: type de système de fichiers « LVM2_member » inconnu.
souillard@souillard-bequiet:~$ sudo mount -v /dev/md3 /Raid2To
mount: /Raid2To: type de système de fichiers « LVM2_member » inconnu.
souillard@souillard-bequiet:~$
pour information pour faire apparaître les Raids et les Volumes logiques j'avais tapé des commandes ce type
mdadm -Asf && vgchange -ay
mais je n'ai pas procédé à de l'assemblage
vu que les volumes logiques sont apparus je me suis dis qu'il suffisait de les faire monter pour les lire et là erreur
j'ai utilisé le tuto suivant
page synlogy
je peux attendre Il faut juste que j'arrive à récupérer les données (photos et films perso)
Dernière modification par FreeLinux (Le 02/05/2020, à 22:59)
Hors ligne
#18 Le 02/05/2020, à 22:32
- geole
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
j'ai commencé à lire la documentation.
Ce nas aurait la possibilité de faire du raids avec des disques de tailles différantes d'où l'obligation de mettre la couche LVM . A ma connaissance MDADM ne gère pas.
Je crains que tu n'ais pas d'autre choix que de remettre tes 4 disques dans ce nas et de trouver le problème en évitant le formatage. Peut-être que par sécurité, dupliquer les 4 disques pourrait être envisagé.
Si tu peux attendre quelques jours. Je vais essayer d'avoir de l'aide.
Dernière modification par geole (Le 02/05/2020, à 22:52)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#19 Le 02/05/2020, à 23:12
- geole
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
j'ai trouvé cette discussion qui évoque ce qu'il faut faire en plus.
Mais je ne sais pas la décortiquer.
https://debian-facile.org/viewtopic.php?id=20060
Des commandes comme pvs, vgs et lvs permettent d'afficher les différents niveaux de LVM
Si je comprends bien, il faut faire la commande
vgchange -ay
avant de proceder aux montages.
Dernière modification par geole (Le 02/05/2020, à 23:21)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#20 Le 03/05/2020, à 10:24
- geole
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
pour information pour faire apparaître les Raids et les Volumes logiques j'avais tapé des commandes ce type
mdadm -Asf && vgchange -ay
mais je n'ai pas procédé à de l'assemblage
vu que les volumes logiques sont apparus je me suis dis qu'il suffisait de les faire monter pour les lire et là erreur
j'ai utilisé le tuto suivant
page synlogy
Bonjour
Pour le moment, je pense comme toi,
Il n'y aurait pas lieu de faire l'assemblage cependant d'après la documentation il y aurait malgré tout lieu de faire la commande
vgchange -ay
Je n'arrive pas à savoir si tu l'as faite.
C'est peut-être suffisant pour procéder ensuite au montage.
Dernière modification par geole (Le 03/05/2020, à 10:25)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#21 Le 03/05/2020, à 12:19
- FreeLinux
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
Bonjour
J'avais déjà appliqué la commande que je viens de refaire
sudo vgchange -ay
pour activer le groupe de volume (ici vg1)
je viens également d'activer les volumes logique 1 et 2 avec la commande
lvchange -ay /dev/vg1/volume_1
et j'ai essayé à nouveau de faire le montage suivant et j'ai toujours la même erreur
sudo mount /dev/vg1/volume_1 /Données1
mount: /Données1: wrong fs type, bad option, bad superblock on /dev/mapper/vg1-volume_1, missing codepage or helper program, or other error.
je vais encore creuser le sujet mais en parallèle je cherche le plan "b" a savoir :
si je n'arrive pas à remonter le serveur sur l'ordinateur, n' y a t il pas une manipulation pour lire les disques un par un et je ferai une copie des fichiers avant de les remettre dans le serveur pour tout reconfigurer ?
Hors ligne
#22 Le 03/05/2020, à 12:57
- geole
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
On va donc continuer à creuser pour trouver..
En RAID5, le fichier est éclaté sur plusieurs disques. Je ne connais pas comment faire sauf à récupérer des morceaux de fichiers sans aucun nom.
En RAID1, le fichier est en double exemplaire: Un par disque. On peut donc récupérer plus facilement tout le fichier
Ce sont des procédures que je connais un peu et utilisées lorsque les disques sont en mauvais état. Mais dans ton contexte, ce n'est pas le cas.
Peux-tu donner le retour de cette commande qui pourrait contenir des remarques supplémentaires sur la cause du refus
dmesg | tail -100
Peut-être une version du logiciel LVM ou un paramétrage supplémentaire
On va essayer de le faire parler en mode debbuging
lvchange -dayv /dev/vg1/volume_1
Il y aurait aussi cette option (pas certain de la codification)
lvchange --syncaction check /dev/vg1/volume_1
Dernière modification par geole (Le 03/05/2020, à 13:10)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#23 Le 03/05/2020, à 14:21
- FreeLinux
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
Résultat de la première commande
souillard@souillard-bequiet:~$ sudo dmesg | tail -100
[sudo] Mot de passe de souillard :
[ 4.396747] checking generic (a1000000 130000) vs hw (90000000 10000000)
[ 4.396748] checking generic (a1000000 130000) vs hw (a0000000 2000000)
[ 4.396748] fb0: switching to nouveaufb from VESA VGA
[ 4.396792] Console: switching to colour dummy device 80x25
[ 4.396855] nouveau 0000:01:00.0: NVIDIA TU106 (166000a1)
[ 4.403064] snd_hda_intel 0000:01:00.1: Disabling MSI
[ 4.403067] snd_hda_intel 0000:01:00.1: Handle vga_switcheroo audio client
[ 4.468385] snd_hda_codec_realtek hdaudioC0D0: autoconfig for ALC892: line_outs=4 (0x14/0x15/0x16/0x17/0x0) type:line
[ 4.468387] snd_hda_codec_realtek hdaudioC0D0: speaker_outs=0 (0x0/0x0/0x0/0x0/0x0)
[ 4.468387] snd_hda_codec_realtek hdaudioC0D0: hp_outs=1 (0x1b/0x0/0x0/0x0/0x0)
[ 4.468388] snd_hda_codec_realtek hdaudioC0D0: mono: mono_out=0x0
[ 4.468388] snd_hda_codec_realtek hdaudioC0D0: inputs:
[ 4.468389] snd_hda_codec_realtek hdaudioC0D0: Front Mic=0x19
[ 4.468390] snd_hda_codec_realtek hdaudioC0D0: Rear Mic=0x18
[ 4.468390] snd_hda_codec_realtek hdaudioC0D0: Line=0x1a
[ 4.473363] nouveau 0000:01:00.0: bios: version 90.06.2e.40.37
[ 4.475287] nouveau 0000:01:00.0: fb: 6144 MiB GDDR6
[ 4.486359] input: HDA Intel PCH Front Mic as /devices/pci0000:00/0000:00:1f.3/sound/card0/input8
[ 4.486390] input: HDA Intel PCH Rear Mic as /devices/pci0000:00/0000:00:1f.3/sound/card0/input9
[ 4.486418] input: HDA Intel PCH Line as /devices/pci0000:00/0000:00:1f.3/sound/card0/input10
[ 4.486448] input: HDA Intel PCH Line Out Front as /devices/pci0000:00/0000:00:1f.3/sound/card0/input11
[ 4.486469] input: HDA Intel PCH Line Out Surround as /devices/pci0000:00/0000:00:1f.3/sound/card0/input12
[ 4.486491] input: HDA Intel PCH Line Out CLFE as /devices/pci0000:00/0000:00:1f.3/sound/card0/input13
[ 4.486510] input: HDA Intel PCH Line Out Side as /devices/pci0000:00/0000:00:1f.3/sound/card0/input14
[ 4.486534] input: HDA Intel PCH Front Headphone as /devices/pci0000:00/0000:00:1f.3/sound/card0/input15
[ 4.513726] [TTM] Zone kernel: Available graphics memory: 8166050 KiB
[ 4.513727] [TTM] Zone dma32: Available graphics memory: 2097152 KiB
[ 4.513727] [TTM] Initializing pool allocator
[ 4.513729] [TTM] Initializing DMA pool allocator
[ 4.513743] nouveau 0000:01:00.0: DRM: VRAM: 6144 MiB
[ 4.513744] nouveau 0000:01:00.0: DRM: GART: 536870912 MiB
[ 4.513745] nouveau 0000:01:00.0: DRM: BIT table 'A' not found
[ 4.513746] nouveau 0000:01:00.0: DRM: BIT table 'L' not found
[ 4.513747] nouveau 0000:01:00.0: DRM: TMDS table version 2.0
[ 4.513747] nouveau 0000:01:00.0: DRM: DCB version 4.1
[ 4.513748] nouveau 0000:01:00.0: DRM: DCB outp 00: 02800f66 04600020
[ 4.513749] nouveau 0000:01:00.0: DRM: DCB outp 01: 02000f62 04620020
[ 4.513750] nouveau 0000:01:00.0: DRM: DCB outp 03: 02011f52 00020010
[ 4.513750] nouveau 0000:01:00.0: DRM: DCB outp 07: 01044f32 04620030
[ 4.513751] nouveau 0000:01:00.0: DRM: DCB conn 00: 00020046
[ 4.513752] nouveau 0000:01:00.0: DRM: DCB conn 01: 00010161
[ 4.513752] nouveau 0000:01:00.0: DRM: DCB conn 04: 00001431
[ 4.513937] nouveau 0000:01:00.0: DRM: failed to create kernel channel, -22
[ 4.514056] nouveau 0000:01:00.0: DRM: MM: using COPY for buffer copies
[ 4.523963] iwlwifi 0000:03:00.0: base HW address: 04:ed:33:4d:73:62
[ 4.528414] intel_rapl_common: Found RAPL domain package
[ 4.528415] intel_rapl_common: Found RAPL domain core
[ 4.528416] intel_rapl_common: Found RAPL domain dram
[ 4.534589] [drm] Supports vblank timestamp caching Rev 2 (21.10.2013).
[ 4.534590] [drm] Driver supports precise vblank timestamp query.
[ 4.536955] thermal thermal_zone3: failed to read out thermal zone (-61)
[ 4.537552] iwlwifi 0000:03:00.0 wlp3s0: renamed from wlan0
[ 4.714477] nouveau 0000:01:00.0: DRM: allocated 1280x1024 fb: 0x200000, bo 00000000db502b28
[ 4.714521] fbcon: nouveaudrmfb (fb0) is primary device
[ 4.714557] Console: switching to colour frame buffer device 160x64
[ 4.714587] nouveau 0000:01:00.0: fb0: nouveaudrmfb frame buffer device
[ 4.753742] [drm] Initialized nouveau 1.3.1 20120801 for 0000:01:00.0 on minor 0
[ 5.194097] input: HDA NVidia HDMI/DP,pcm=3 as /devices/pci0000:00/0000:00:01.0/0000:01:00.1/sound/card1/input16
[ 5.194123] input: HDA NVidia HDMI/DP,pcm=7 as /devices/pci0000:00/0000:00:01.0/0000:01:00.1/sound/card1/input17
[ 5.194146] input: HDA NVidia HDMI/DP,pcm=8 as /devices/pci0000:00/0000:00:01.0/0000:01:00.1/sound/card1/input18
[ 5.286617] nvidia-gpu 0000:01:00.3: i2c timeout error e0000000
[ 5.286653] ucsi_ccg 0-0008: i2c_transfer failed -110
[ 5.286668] ucsi_ccg 0-0008: ucsi_ccg_init failed - -110
[ 5.286685] ucsi_ccg: probe of 0-0008 failed with error -110
[ 5.369189] EXT4-fs (sdb1): mounted filesystem with ordered data mode. Opts: (null)
[ 5.396037] audit: type=1400 audit(1588510775.422:2): apparmor="STATUS" operation="profile_load" profile="unconfined" name="libreoffice-oopslash" pid=1577 comm="apparmor_parser"
[ 5.396389] audit: type=1400 audit(1588510775.422:3): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/bin/man" pid=1578 comm="apparmor_parser"
[ 5.396390] audit: type=1400 audit(1588510775.422:4): apparmor="STATUS" operation="profile_load" profile="unconfined" name="man_filter" pid=1578 comm="apparmor_parser"
[ 5.396391] audit: type=1400 audit(1588510775.422:5): apparmor="STATUS" operation="profile_load" profile="unconfined" name="man_groff" pid=1578 comm="apparmor_parser"
[ 5.399309] audit: type=1400 audit(1588510775.426:6): apparmor="STATUS" operation="profile_load" profile="unconfined" name="lsb_release" pid=1583 comm="apparmor_parser"
[ 5.399927] audit: type=1400 audit(1588510775.426:7): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/sbin/tcpdump" pid=1579 comm="apparmor_parser"
[ 5.400444] audit: type=1400 audit(1588510775.426:8): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/sbin/cups-browsed" pid=1576 comm="apparmor_parser"
[ 5.401998] audit: type=1400 audit(1588510775.430:9): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/sbin/dhclient" pid=1574 comm="apparmor_parser"
[ 5.401999] audit: type=1400 audit(1588510775.430:10): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/lib/NetworkManager/nm-dhcp-client.action" pid=1574 comm="apparmor_parser"
[ 5.402000] audit: type=1400 audit(1588510775.430:11): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/lib/NetworkManager/nm-dhcp-helper" pid=1574 comm="apparmor_parser"
[ 5.829635] Bluetooth: hci0: Waiting for firmware download to complete
[ 5.830033] Bluetooth: hci0: Firmware loaded in 1496521 usecs
[ 5.830051] Bluetooth: hci0: Waiting for device to boot
[ 5.843037] Bluetooth: hci0: Device booted in 12689 usecs
[ 5.851006] Bluetooth: hci0: Found Intel DDC parameters: intel/ibt-20-1-3.ddc
[ 5.866038] Bluetooth: hci0: Applying Intel DDC parameters completed
[ 6.173216] Bluetooth: BNEP (Ethernet Emulation) ver 1.3
[ 6.173216] Bluetooth: BNEP filters: protocol multicast
[ 6.173218] Bluetooth: BNEP socket layer initialized
[ 6.630665] iwlwifi 0000:03:00.0: Applying debug destination EXTERNAL_DRAM
[ 6.779107] iwlwifi 0000:03:00.0: FW already configured (0) - re-configuring
[ 6.782472] iwlwifi 0000:03:00.0: BIOS contains WGDS but no WRDS
[ 8.777399] rfkill: input handler disabled
[ 9.537810] wlp3s0: authenticate with 34:27:92:88:5b:05
[ 9.541476] wlp3s0: send auth to 34:27:92:88:5b:05 (try 1/3)
[ 9.566214] wlp3s0: authenticated
[ 9.569616] wlp3s0: associate with 34:27:92:88:5b:05 (try 1/3)
[ 9.571438] wlp3s0: RX AssocResp from 34:27:92:88:5b:05 (capab=0x11 status=0 aid=2)
[ 9.573991] wlp3s0: associated
[ 9.604738] IPv6: ADDRCONF(NETDEV_CHANGE): wlp3s0: link becomes ready
[ 22.560969] Bluetooth: RFCOMM TTY layer initialized
[ 22.560972] Bluetooth: RFCOMM socket layer initialized
[ 22.560974] Bluetooth: RFCOMM ver 1.11
[ 22.650829] rfkill: input handler enabled
[ 24.892544] rfkill: input handler disabled
pour la deuxième commande ci-joint le résultat il y a une erreur
souillard@souillard-bequiet:~$ sudo lvchange -dayv /dev/vg1/volume_1
Invalid argument for --activate: yv
Error during parsing of command line.
et pour la troisième ce n'est pas autorisée
souillard@souillard-bequiet:~$ sudo lvchange --syncaction check /dev/vg1/volume_1
[sudo] Mot de passe de souillard :
Command on LV vg1/volume_1 does not accept LV type linear.
Command not permitted on LV vg1/volume_1.
Dernière modification par FreeLinux (Le 03/05/2020, à 14:41)
Hors ligne
#24 Le 03/05/2020, à 17:28
- geole
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
Pour la première commande
Il n'y a rien du tout dans la trace c'est un peu surprenant. Mais il est possible que le RAIDS soit monté très tôt au moment du boot
J'ai tenté de proposer à partir de ce que propose la commande en essayant de voir ce qui pouvait convenir et je ne peux pas essayer: Je n'ai pas de LVM dans un RAID.
man lvchange
Peut-être que cette syntaxe sera meilleure.
sudo lvchange --debug --verbose --activate y /dev/vg1/volume_1
ou celle-ci
sudo lvchange -d -v -ay /dev/vg1/volume_1
Dernière modification par geole (Le 03/05/2020, à 17:31)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#25 Le 03/05/2020, à 17:41
- FreeLinux
Re : [Résolu] Recupération disques NAS synlogie RAID SHR
ci dessous le résultat des commandes
souillard@souillard-bequiet:~$ sudo lvchange --debug --verbose --activate y /dev/vg1/volume_1
[sudo] Mot de passe de souillard :
Activating logical volume vg1/volume_1.
activation/volume_list configuration setting not defined: Checking only host tags for vg1/volume_1.
souillard@souillard-bequiet:~$ sudo lvchange -d -v -ay /dev/vg1/volume_1
Activating logical volume vg1/volume_1.
activation/volume_list configuration setting not defined: Checking only host tags for vg1/volume_1.
Dernière modification par FreeLinux (Le 03/05/2020, à 17:49)
Hors ligne