Pages : 1
#1 Le 04/12/2014, à 08:54
- Heavydrinker
[Resolu]Restauration RAID1 [MDADM] & LVM
Bonjour,
Configuration :
Server : ubuntu X64 14.04 LTS
Raid 1 : software MDADM + LVM
Depuis un moment mon serveur ne fonctionne plus ou très mal, le boot n'arrive plus au prompt pour se logger et je ne peux travailler dessus que par SSH.
j'ai sauvegardé l'ensemble de /ETC
je souhaiterai faire une installation fraiche de ubuntu server 14.04 mais j'ai des gros doutes sur la restauration du raid1 MDADM & LVM.
Sur les différents forums je trouve des contradictions sur la restauration du raid !
1- Si j'effectue une nouvelle installation fraiche d'Ubuntu server 14.04 ?
2- Si j'effectue l'installation des packages MDADM & LVM ?
3- Si je remplace les fichiers de conf de MDADM + LVM + FSTAB ?
Pourriez vous me confirmer que la restauration de mon raid 1 sera correcte et fonctionnelle ?
Cartographie de mon raid et de mes partitions sur ce raid.[doc]mRaidSave.log[/doc]
/dev/md0:
Version : 1.2
Creation Time : Fri Dec 14 23:17:41 2012
Raid Level : raid1
Array Size : 2930134272 (2794.39 GiB 3000.46 GB)
Used Dev Size : 2930134272 (2794.39 GiB 3000.46 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Wed Dec 3 21:33:18 2014
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : ubuntuX64:0 (local to host ubuntuX64)
UUID : 46327096:e94abfca:e8313d70:98cbce8d
Events : 365
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdb1[0] sdc1[1]
2930134272 blocks super 1.2 [2/2] [UU]
unused devices: <none>
Scanning for physical volume names
PV VG Fmt Attr PSize PFree DevSize PV UUID
/dev/md0 vg1 lvm2 a-- 2,73t 1,50t 2,73t hykNWm-RPOc-TTDG-SHc0-8g9q-PMiF-RJqNeU
Finding all logical volumes
LV VG #Seg Attr LSize Maj Min KMaj KMin Pool Origin Data% Meta% Move Copy% Log Convert LV UUID
Herve.T.Store vg1 1 -wi-ao--- 150,00g -1 -1 252 2 v0Ef10-Dg1u-uyKA-wLy3-GjMo-bb22-hMsHaV
MacBookDump vg1 1 -wi-ao--- 200,00g -1 -1 252 1 ORb3jW-dLaO-vjWv-3v4n-aldE-eYEV-e8rcm1
MediaStore vg1 1 -wi-ao--- 200,00g -1 -1 252 3 pfb7Qc-8NW4-AmxM-cgtL-y8q4-2viM-mCKLzA
PersonalVideos vg1 1 -wi-ao--- 200,00g -1 -1 252 5 IAS5yn-SGsE-44sJ-85ot-uVDY-HKnl-d6GnSN
TimeCapsule vg1 1 -wi-ao--- 500,00g -1 -1 252 0 1pNaQI-Jp6F-01q5-tJB2-cMJT-oMGM-9wJnuk
UbuntuX64Store vg1 1 -wi-ao--- 10,00g -1 -1 252 4 OW61Gu-a1lr-LfVl-Qr1X-uNG0-O2WS-uJecUR
Finding all volume groups
Finding volume group "vg1"
--- Volume group ---
VG Name vg1
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 7
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 6
Open LV 6
Max PV 0
Cur PV 1
Act PV 1
VG Size 2,73 TiB
PE Size 4,00 MiB
Total PE 715364
Alloc PE / Size 322560 / 1,23 TiB
Free PE / Size 392804 / 1,50 TiB
VG UUID XFNRhQ-vGrX-439h-vQ1h-LIfn-dWSP-ZAN61u
--- Logical volume ---
LV Path /dev/vg1/TimeCapsule
LV Name TimeCapsule
VG Name vg1
LV UUID 1pNaQI-Jp6F-01q5-tJB2-cMJT-oMGM-9wJnuk
LV Write Access read/write
LV Creation host, time ubuntuX64, 2012-12-15 14:25:43 +0100
LV Status available
# open 1
LV Size 500,00 GiB
Current LE 128000
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:0
--- Logical volume ---
LV Path /dev/vg1/MacBookDump
LV Name MacBookDump
VG Name vg1
LV UUID ORb3jW-dLaO-vjWv-3v4n-aldE-eYEV-e8rcm1
LV Write Access read/write
LV Creation host, time ubuntuX64, 2012-12-15 14:26:22 +0100
LV Status available
# open 1
LV Size 200,00 GiB
Current LE 51200
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:1
--- Logical volume ---
LV Path /dev/vg1/Herve.T.Store
LV Name Herve.T.Store
VG Name vg1
LV UUID v0Ef10-Dg1u-uyKA-wLy3-GjMo-bb22-hMsHaV
LV Write Access read/write
LV Creation host, time ubuntuX64, 2012-12-15 14:27:35 +0100
LV Status available
# open 1
LV Size 150,00 GiB
Current LE 38400
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:2
--- Logical volume ---
LV Path /dev/vg1/MediaStore
LV Name MediaStore
VG Name vg1
LV UUID pfb7Qc-8NW4-AmxM-cgtL-y8q4-2viM-mCKLzA
LV Write Access read/write
LV Creation host, time ubuntuX64, 2012-12-15 14:30:38 +0100
LV Status available
# open 1
LV Size 200,00 GiB
Current LE 51200
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:3
--- Logical volume ---
LV Path /dev/vg1/UbuntuX64Store
LV Name UbuntuX64Store
VG Name vg1
LV UUID OW61Gu-a1lr-LfVl-Qr1X-uNG0-O2WS-uJecUR
LV Write Access read/write
LV Creation host, time ubuntuX64, 2012-12-16 22:37:03 +0100
LV Status available
# open 1
LV Size 10,00 GiB
Current LE 2560
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:4
--- Logical volume ---
LV Path /dev/vg1/PersonalVideos
LV Name PersonalVideos
VG Name vg1
LV UUID IAS5yn-SGsE-44sJ-85ot-uVDY-HKnl-d6GnSN
LV Write Access read/write
LV Creation host, time ubuntuX64, 2013-02-24 21:03:40 +0100
LV Status available
# open 1
LV Size 200,00 GiB
Current LE 51200
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:5
--- Physical volumes ---
PV Name /dev/md0
PV UUID hykNWm-RPOc-TTDG-SHc0-8g9q-PMiF-RJqNeU
PV Status allocatable
Total PE / Free PE 715364 / 392804
Dernière modification par Heavydrinker (Le 11/12/2014, à 09:50)
Hors ligne
#2 Le 05/12/2014, à 11:42
- Andromalius
Re : [Resolu]Restauration RAID1 [MDADM] & LVM
Bonjour,
Avant toutes choses, as tu vérifier l'état des données SMART de tes disques
udisks --show-info /dev/sdX
Hors ligne
#3 Le 05/12/2014, à 12:00
- Andromalius
Re : [Resolu]Restauration RAID1 [MDADM] & LVM
Tu peux aussi forcer un check du RAID
echo check > /sys/block/md0/md/sync_action
Et suivre l'évolution :
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdb1[0] sda1[1]
235197376 blocks [2/2] [UU]
[=>...................] check = 9.2% (21832000/235197376) finish=33.3min speed=106743K/sec
unused devices: <none>
Hors ligne
#4 Le 07/12/2014, à 23:52
- Heavydrinker
Re : [Resolu]Restauration RAID1 [MDADM] & LVM
Bonjour,
Merci pour l'information, effectivement je viens de comprendre comment relancer le check d'un raid.
Cependant je n'ai pas de problème avec mon raid, c'est mon install linux sur mon disque système qui est presque Off.
Ma question était comment restaurer mon raid sans perdre les données si je decide de reinstaller mon système.
Merci d'avance
Hors ligne
#5 Le 08/12/2014, à 11:54
- Andromalius
Re : [Resolu]Restauration RAID1 [MDADM] & LVM
En relisant je viens de comprendre que ton disque système (/dev/sda) est indépendant de ton RAID (/dev/sdb + /dev/sdc) c'est bien ca ?
Et tu veux réinstaller le disque système sur /dev/sda, puis pouvoir remonté ton RAID ensuite.
Je ne vois pas de contre indication pour cette opération, voici quelques conseils :
Pour plus de sécurité je te conseil de faire un backup avant, as tu l'a possibilité de faire un clone de ton /dev/sda ?
Tu peux déjà tester en bootant sur un live USB, normalement tu devrait voir ton RAID et tes partitions LVM
Lors de la réinstallation, débranche les disques /dev/sdb et /dev/sdc pour évité toute confusion, erreur de manipulation
Garde une sauvegarde des fichiers de configuration de MDADM et FSTAB (rien pour LVM ce sont des partitions directement écrites sur le disque)
Ne remplace pas le FSTAB mais copie seulement les lignes qui t’intéresse.
Pour le MDADM j'ai un doute, il y a une commande pour détecter et reconstruire le fichier de conf. Le système devrait le remonté dés qu'il le détecte, mais ça risque d’être une autre valeur que /dev/md0
Dernière modification par Andromalius (Le 08/12/2014, à 17:03)
Hors ligne
#6 Le 08/12/2014, à 14:03
- Heavydrinker
Re : [Resolu]Restauration RAID1 [MDADM] & LVM
Merci pour ta réponse !
je vais effectivement essayer avec les manips suivantes :
Dans un premier test !
Debrancher le disque sdb du raid
Boot depuis un live usb
Installer MDADM
Lancer les commande MDADM pour reconstruire le raid sans perdre les données !
mdadm --examine /dev/sdb /dev/sdc
mdadm --assemble /dev/md0 /dev/sdb /dev/sdc
Dans un second test ! [Trouver sur le web aujourd'hui]
panne du disque système, la grappe RAID est OK
Voici un cas un peu particulier mais qui m'est arrivé donc je tenais à en parler ici. Nous sommes donc dans le cas donné pour exemple dans cet article à savoir ; une Debian installée sur un seul disque et une grappe RAID1 pour les données construite avec mdadm. Imaginons que votre disque système tombe en rade mais que votre grappe reste OK. Il vous faut donc réinstaller votre Linux avec mdadm et lui faire comprendre qu'une array existe déjà.
Dans l'ordre de préférence faisons ceci :
Choix 1 - Si tout va bien, lors de la nouvelle installation de mdadm, il va détecter les "md superblock" et en déduire donc qu'une grappe RAID1 existe entre les partitions /dev/sdb1 et /dev/sdc1. Surveillez donc votre /proc/mdstat et attendez que la synchro soit terminée avant de redémarrer votre machine.
Choix 2 - Si vous aviez sauvegardé le fichier /etc/mdadm/mdadm.conf, vous pouvez le restaurer et taper la commande suivante :
# mdadm --assemble --scan
Ceci à pour effet de scanner le mdadm.conf et d'assembler toutes les arrays y figurant. En sachant qu'un simple redémarrage de la machine avec le mdadm.conf fraîchement restauré suffit à offrir le même résultat.
Choix 3 - S'il ne se passe rien et que vous n'avez plus votre mdadm.conf alors il vous faut connaître le nom de votre array et les partitions qui la composent. Dans notre cas c'est pas bien dur ; nos deux partitions /dev/sdb1 et /dev/sdc1 sont en RAID1 dans l'array /dev/md0. On tape donc :
# mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1
Choix 4 - Si l'architecture est plus complexe et que vous pataugez dans la semoule, il est judicieux de vous aider des commandes # fdisk -l et # mdadm –-examine /dev/<partition> pour identifier le bouzin.
Exemple :
# fdisk -l
...
...
Device Boot Start End Blocks Id System
/dev/sdb1 1 121601 976760001 fd Linux raid autodetect
...
...
Je vois ici que /dev/sdb1 fait certainement partie d'un ensemble RAID. Alors j'enquête....
# mdadm --examine /dev/sdb1
mdadm: metadata format 00.90 unknown, ignored.
/dev/sdb1:
Magic : a92b4efc
Version : 00.90.00
UUID : 3b2be7cf:1eca6c08:a962df05:773a6f64
Creation Time : Sun Dec 14 20:41:21 2008
Raid Level : raid1
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 976759936 (931.51 GiB 1000.20 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
.
Update Time : Fri May 7 17:06:49 2010
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Checksum : f320b0b5 - correct
Events : 556
.
.
Number Major Minor RaidDevice State
this 1 8 17 1 active sync /dev/sdb1
.
0 0 8 1 0 active sync /dev/sdc1
1 1 8 17 1 active sync /dev/sdb1
Grâce à ces infos, je sais donc que la partition /dev/sdb1 fait partie d'un ensemble RAID1 et que sa compagne est la partition /dev/sdc1 (voir à la fin)
On tape donc :
# mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1
Une fois que tout est en ordre et bien synchro, tapez ceci :
# mdadm --detail --scan --verbose > /etc/mdadm/mdadm.conf
A plus tard pour les résultats !!!
Merci
Dernière modification par Heavydrinker (Le 08/12/2014, à 14:10)
Hors ligne
#7 Le 11/12/2014, à 09:47
- Heavydrinker
Re : [Resolu]Restauration RAID1 [MDADM] & LVM
Bonjour,
Voici donc les résultats suite à l'installation fraiche de ubuntu 14.04.01 LTS :
Le MD0 est reconnu je vois cela dans les traces du boot :
dmesg
j'ai donc restaurer le fichier : /etc/madm/mdadm.conf
et lancer la commande :
mdadm --assemble --scan
Pour les partitions LVM qui sont sur le raid :
VGSCAN vg1
LVSCAN
Initialisation du FSTAB manuellement !
et tout est disponible comme avant !
Merci
Hors ligne
Pages : 1