Pages : 1
#1 Le 27/10/2020, à 11:22
- RidingAround
SOS formatage - [RESOLU]
Bonjour à tous,
par inadvertance, j'ai installé un système sur un SSD en M2 dont j'avais oublié la présence sur ma carte mère, au lieu d'envoyer les donnés sur un autre en sata.
Mon / est donc vide. heureusement, mon /home est ailleurs, c'est ce que je fais toujours.
MAIS, il est sur un RAID 5 de 4 HDD, et je ne sais pas comment remonter ceci à présent.
blkid donne ça:
/dev/sda1: UUID="b506715a-4f8a-49d5-a27b-7d254bf6dd45" TYPE="ext4" PARTUUID="a4c6fa58-01"
/dev/loop0: TYPE="squashfs"
/dev/loop1: TYPE="squashfs"
/dev/loop2: TYPE="squashfs"
/dev/loop3: TYPE="squashfs"
/dev/loop4: TYPE="squashfs"
/dev/sdd: TYPE="isw_raid_member"
/dev/sdb: TYPE="isw_raid_member"
/dev/sde: TYPE="isw_raid_member"
/dev/sdc: TYPE="isw_raid_member"
m@RAID:~$ sudo apt updat
Il s'agit d'un RAID établi dans une fonction de la carte mère. Ce RAID est chiffré, un mdp est donc demandé au démarrage.
Il avait été installé en 18.04 il y a plus d'un an, mais je ne me souviens plus comment (LVM, manuel, luks, ????)
fdisk donne ça :
Disk /dev/loop0: 29,9 MiB, 31334400 bytes, 61200 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/loop1: 54,98 MiB, 57626624 bytes, 112552 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/loop2: 255,58 MiB, 267980800 bytes, 523400 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/loop3: 62,9 MiB, 65105920 bytes, 127160 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/loop4: 49,8 MiB, 52203520 bytes, 101960 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/sdd: 931,53 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: WDC WD10EZEX-08W
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdb: 931,53 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: WDC WD10SPZX-00Z
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x00000000
Device Boot Start End Sectors Size Id Type
/dev/sdb1 1 4294967295 4294967295 2T ee GPT
Partition 1 does not start on physical sector boundary.
Disk /dev/sde: 931,53 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: WDC WD10SPZX-80Z
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sda: 111,82 GiB, 120040980480 bytes, 234455040 sectors
Disk model: WDC WDS120G2G0B-
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xa4c6fa58
Device Boot Start End Sectors Size Id Type
/dev/sda1 * 2048 234452991 234450944 111,8G 83 Linux
Disk /dev/sdc: 931,53 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: WDC WD10SPZX-80Z
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Je suis en panique, et je n'arrive plus à penser.
Merci
Modération
merci de respecter les règles du forum dont voici un extrait :
« Les contributions au forum sont bénévoles, sans aucune obligation de résultat : l'aide apportée sur ce forum n'est pas un dû et l'urgence de la situation du point de vue de la personne demandeuse ne lui apporte aucune priorité. Les tags tels que « [Urgent] » sont interdits, hors cas d'avertissement sérieux touchant l'ensemble de la communauté (faille de sécurité critique) ».
Dernière modification par RidingAround (Le 01/11/2020, à 20:08)
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#2 Le 27/10/2020, à 11:56
- geole
Re : SOS formatage - [RESOLU]
Bonjour
Est-ce cette machine https://forum.ubuntu-fr.org/viewtopic.p … #p20922031
Cependant le montage sur /home/
Dernière modification par geole (Le 28/10/2020, à 16:23)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#3 Le 27/10/2020, à 14:07
- RidingAround
Re : SOS formatage - [RESOLU]
non,
je dois dire que depuis ce fil, j'ai pas mal évolué; le pc a un peu changé.
Il s'agit d'un SSD de 120 avec / et 4 x HDD en sata avec /home.
C'est une 20.04
J'avais utilisé l'utilitaire post-bios pour monter le rais5, puis installé une 18.04 directement chiffrée en mode manuel, sur le volume ainsi créé pour /home.
Je me rappelle que j'avais pas mal galéré parce que l'utilitaire de formatage ne donnait pas les résultats attendus, et j'avais fini par trouver un passage, mais aucun souvenir.
Donc il s'agit d'un volume BIOS pseudo raid et d'un chiffrement natif.
Le reste du matos : MSI Z170A-PCMATE, 4x4 DDR4, un celeron, et une RX480msi
merci
Dernière modification par RidingAround (Le 27/10/2020, à 14:14)
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#4 Le 27/10/2020, à 14:42
- geole
Re : SOS formatage - [RESOLU]
Je n'ai pas tout compris. Je ne sais pas du tout ce que tu veux dire avec la phrase "Mon / est donc vide"
Je pense que tu veux dire qu'il ne contient pas tes données mais qu'il fonctionne bien.
Afin de faire un point
Peux-tu donner le retour de ces commandes
sudo lsblk -fe7 -o +size
sudo mdadm --examine /dev/sdb
sudo mdadm --examine /dev/sdc
sudo mdadm --examine /dev/sdd
sudo mdadm --examine /dev/sde
NOTA, C'est probablement une commande comme cela à faire mais je n'en suis pas du tout certain
sudo mdadm --assemble /dev/md0 --run /dev/sdb /dev/sdc /dev/sdd /dev/sde
===> le problème est de trouver dans quel ordre mettre les 4 disques (24 possibilités)
Après tests, il semble que l'ordre peut être n'importe lequel.
et que lorsque le RAIDS est en bon état, il est automatiquement monté au démarrage sur /dev/md127
## Il faut démonter le raids pour faire l'essai
sudo mdadm --stop /dev/md127
cat /proc/mdstat
### séquence de détection
DSK[0]=/dev/sdc11
DSK[1]=/dev/sdc12
DSK[2]=/dev/sdc13
DSK[3]=/dev/sdc14
M=0
for ((i=0; i<4 ; i++));do
for ((j=0; j<4 ; j++));do
if [ $j -ne $i ]
then
for ((k=0; k<4 ; k++));do
if [ $k -ne $i ]
then
if [ $k -ne $j ]
then
for ((l=0; l<4 ; l++));do
if [ $l -ne $i ]
then
if [ $l -ne $j ]
then
if [ $l -ne $k ]
then
# echo " $i $j $k $l";
echo mdadm --assemble /dev/md$M --run ${DSK[$i]} ${DSK[$j]} ${DSK[$k]} ${DSK[$l]}
sudo mdadm --assemble /dev/md$M --run ${DSK[$i]} ${DSK[$j]} ${DSK[$k]} ${DSK[$l]}
sleep 2
sudo mount /dev/md$M /media/RAID
sudo ls -Rlas /media/RAID|wc -l
sleep 3
sudo umount /dev/md$M
sudo mdadm --stop /dev/md$M
sleep 2
M=$(($M+1))
fi
fi
fi
done;
fi
fi
done;
fi
done;
done;
echo $M
echo FINI
mdadm --assemble /dev/md0 --run /dev/sdc11 /dev/sdc12 /dev/sdc13 /dev/sdc14
mdadm: /dev/md0 has been started with 4 drives.
12782
mdadm: stopped /dev/md0
mdadm --assemble /dev/md1 --run /dev/sdc11 /dev/sdc12 /dev/sdc14 /dev/sdc13
mdadm: /dev/md1 has been started with 4 drives.
12782
mdadm: stopped /dev/md1
mdadm --assemble /dev/md2 --run /dev/sdc11 /dev/sdc13 /dev/sdc12 /dev/sdc14
mdadm: /dev/md2 has been started with 4 drives.
12782
mdadm: stopped /dev/md2
mdadm --assemble /dev/md3 --run /dev/sdc11 /dev/sdc13 /dev/sdc14 /dev/sdc12
mdadm: /dev/md3 has been started with 4 drives.
12782
mdadm: stopped /dev/md3
mdadm --assemble /dev/md4 --run /dev/sdc11 /dev/sdc14 /dev/sdc12 /dev/sdc13
mdadm: /dev/md4 has been started with 4 drives.
12782
mdadm: stopped /dev/md4
mdadm --assemble /dev/md5 --run /dev/sdc11 /dev/sdc14 /dev/sdc13 /dev/sdc12
mdadm: /dev/md5 has been started with 4 drives.
12782
mdadm: stopped /dev/md5
mdadm --assemble /dev/md6 --run /dev/sdc12 /dev/sdc11 /dev/sdc13 /dev/sdc14
mdadm: /dev/md6 has been started with 4 drives.
12782
mdadm: stopped /dev/md6
mdadm --assemble /dev/md7 --run /dev/sdc12 /dev/sdc11 /dev/sdc14 /dev/sdc13
mdadm: /dev/md7 has been started with 4 drives.
12782
mdadm: stopped /dev/md7
mdadm --assemble /dev/md8 --run /dev/sdc12 /dev/sdc13 /dev/sdc11 /dev/sdc14
mdadm: /dev/md8 has been started with 4 drives.
12782
mdadm: stopped /dev/md8
mdadm --assemble /dev/md9 --run /dev/sdc12 /dev/sdc13 /dev/sdc14 /dev/sdc11
mdadm: /dev/md9 has been started with 4 drives.
12782
mdadm: stopped /dev/md9
mdadm --assemble /dev/md10 --run /dev/sdc12 /dev/sdc14 /dev/sdc11 /dev/sdc13
mdadm: /dev/md10 has been started with 4 drives.
12782
mdadm: stopped /dev/md10
mdadm --assemble /dev/md11 --run /dev/sdc12 /dev/sdc14 /dev/sdc13 /dev/sdc11
mdadm: /dev/md11 has been started with 4 drives.
12782
mdadm: stopped /dev/md11
mdadm --assemble /dev/md12 --run /dev/sdc13 /dev/sdc11 /dev/sdc12 /dev/sdc14
mdadm: /dev/md12 has been started with 4 drives.
12782
mdadm: stopped /dev/md12
mdadm --assemble /dev/md13 --run /dev/sdc13 /dev/sdc11 /dev/sdc14 /dev/sdc12
mdadm: /dev/md13 has been started with 4 drives.
12782
mdadm: stopped /dev/md13
mdadm --assemble /dev/md14 --run /dev/sdc13 /dev/sdc12 /dev/sdc11 /dev/sdc14
mdadm: /dev/md14 has been started with 4 drives.
12782
mdadm: stopped /dev/md14
mdadm --assemble /dev/md15 --run /dev/sdc13 /dev/sdc12 /dev/sdc14 /dev/sdc11
mdadm: /dev/md15 has been started with 4 drives.
12782
mdadm: stopped /dev/md15
mdadm --assemble /dev/md16 --run /dev/sdc13 /dev/sdc14 /dev/sdc11 /dev/sdc12
mdadm: /dev/md16 has been started with 4 drives.
12782
mdadm: stopped /dev/md16
mdadm --assemble /dev/md17 --run /dev/sdc13 /dev/sdc14 /dev/sdc12 /dev/sdc11
mdadm: /dev/md17 has been started with 4 drives.
12782
mdadm: stopped /dev/md17
mdadm --assemble /dev/md18 --run /dev/sdc14 /dev/sdc11 /dev/sdc12 /dev/sdc13
mdadm: /dev/md18 has been started with 4 drives.
12782
mdadm: stopped /dev/md18
mdadm --assemble /dev/md19 --run /dev/sdc14 /dev/sdc11 /dev/sdc13 /dev/sdc12
mdadm: /dev/md19 has been started with 4 drives.
12782
mdadm: stopped /dev/md19
mdadm --assemble /dev/md20 --run /dev/sdc14 /dev/sdc12 /dev/sdc11 /dev/sdc13
mdadm: /dev/md20 has been started with 4 drives.
12782
mdadm: stopped /dev/md20
mdadm --assemble /dev/md21 --run /dev/sdc14 /dev/sdc12 /dev/sdc13 /dev/sdc11
mdadm: /dev/md21 has been started with 4 drives.
12782
mdadm: stopped /dev/md21
mdadm --assemble /dev/md22 --run /dev/sdc14 /dev/sdc13 /dev/sdc11 /dev/sdc12
mdadm: /dev/md22 has been started with 4 drives.
12782
mdadm: stopped /dev/md22
mdadm --assemble /dev/md23 --run /dev/sdc14 /dev/sdc13 /dev/sdc12 /dev/sdc11
mdadm: /dev/md23 has been started with 4 drives.
12782
mdadm: stopped /dev/md23
a@b:~$ echo $M
24
a@b:~$ echo
NOTA: Je suis heureux de savoir que cette fois-ci, le répertoire home est resté dans le SSD car c'est sa place.
Les quatre disques seront uniquement dédiées à tes données et pas à cacher une partie de logiciel
Afin de ne prendre aucun risque, on va s'assurer de l'état des disques
sudo apt-get install --no-install-recommends smartmontools
et tu donneras le retour de ces commandes
sudo smartctl -s on -a /dev/sdb
sudo smartctl -s on -a /dev/sdc
sudo smartctl -s on -a /dev/sdd
sudo smartctl -s on -a /dev/sde
Dernière modification par geole (Le 28/10/2020, à 16:12)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#5 Le 27/10/2020, à 14:54
- RidingAround
Re : SOS formatage - [RESOLU]
Euh pardon, que mon / est maintenant une superbe 20.04 neuve.
Voici lsblk:
NAME FSTYPE LABEL UUID FSAVAIL FSUSE% MOUNTPOINT SIZE
sda 111,8G
└─sda1 ext4 b506715a-4f8a-49d5-a27b-7d254bf6dd45 95,8G 7% / 111,8G
sdb isw_raid_member 931,5G
sdc isw_raid_member 931,5G
sdd isw_raid_member 931,5G
sde isw_raid_member 931,5G
root@RAID:/home/m#
/dev/sdb:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.3.00
Orig Family : 7daa467a
Family : 7daa467a
Generation : 00000079
Attributes : All supported
UUID : e3a152ae:4a4a7ffa:a1d48969:f4fb6420
Checksum : 1bc80ccf correct
MPB Sectors : 2
Disks : 4
RAID Devices : 1
Disk00 Serial : WD-WX11A78PKAK5
State : active
Id : 00000002
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
[0909]:
UUID : 91f28abe:567488e2:e4cb44f2:ad9647d1
RAID Level : 5
Members : 4
Slots : [UUUU]
Failed disk : none
This Slot : 0
Sector Size : 512
Array Size : 5860560896 (2794.53 GiB 3000.61 GB)
Per Dev Size : 1953520648 (931.51 GiB 1000.20 GB)
Sector Offset : 0
Num Stripes : 7630939
Chunk Size : 128 KiB
Reserved : 0
Migrate State : idle
Map State : uninitialized
Dirty State : clean
RWH Policy : off
Disk01 Serial : WD-WXL1A49RX47X
State : active
Id : 00000003
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
Disk02 Serial : WD-WCC6Y5ZS2N87
State : active
Id : 00000004
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
Disk03 Serial : WD-WXL1A49RXRL6
State : active
Id : 00000005
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
/dev/sdc:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.3.00
Orig Family : 7daa467a
Family : 7daa467a
Generation : 00000079
Attributes : All supported
UUID : e3a152ae:4a4a7ffa:a1d48969:f4fb6420
Checksum : 1bc80ccf correct
MPB Sectors : 2
Disks : 4
RAID Devices : 1
Disk01 Serial : WD-WXL1A49RX47X
State : active
Id : 00000003
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
[0909]:
UUID : 91f28abe:567488e2:e4cb44f2:ad9647d1
RAID Level : 5
Members : 4
Slots : [UUUU]
Failed disk : none
This Slot : 1
Sector Size : 512
Array Size : 5860560896 (2794.53 GiB 3000.61 GB)
Per Dev Size : 1953520648 (931.51 GiB 1000.20 GB)
Sector Offset : 0
Num Stripes : 7630939
Chunk Size : 128 KiB
Reserved : 0
Migrate State : idle
Map State : uninitialized
Dirty State : clean
RWH Policy : off
Disk00 Serial : WD-WX11A78PKAK5
State : active
Id : 00000002
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
Disk02 Serial : WD-WCC6Y5ZS2N87
State : active
Id : 00000004
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
Disk03 Serial : WD-WXL1A49RXRL6
State : active
Id : 00000005
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
/dev/sdd:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.3.00
Orig Family : 7daa467a
Family : 7daa467a
Generation : 00000079
Attributes : All supported
UUID : e3a152ae:4a4a7ffa:a1d48969:f4fb6420
Checksum : 1bc80ccf correct
MPB Sectors : 2
Disks : 4
RAID Devices : 1
Disk02 Serial : WD-WCC6Y5ZS2N87
State : active
Id : 00000004
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
[0909]:
UUID : 91f28abe:567488e2:e4cb44f2:ad9647d1
RAID Level : 5
Members : 4
Slots : [UUUU]
Failed disk : none
This Slot : 2
Sector Size : 512
Array Size : 5860560896 (2794.53 GiB 3000.61 GB)
Per Dev Size : 1953520648 (931.51 GiB 1000.20 GB)
Sector Offset : 0
Num Stripes : 7630939
Chunk Size : 128 KiB
Reserved : 0
Migrate State : idle
Map State : uninitialized
Dirty State : clean
RWH Policy : off
Disk00 Serial : WD-WX11A78PKAK5
State : active
Id : 00000002
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
Disk01 Serial : WD-WXL1A49RX47X
State : active
Id : 00000003
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
Disk03 Serial : WD-WXL1A49RXRL6
State : active
Id : 00000005
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
/dev/sde:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.3.00
Orig Family : 7daa467a
Family : 7daa467a
Generation : 00000079
Attributes : All supported
UUID : e3a152ae:4a4a7ffa:a1d48969:f4fb6420
Checksum : 1bc80ccf correct
MPB Sectors : 2
Disks : 4
RAID Devices : 1
Disk03 Serial : WD-WXL1A49RXRL6
State : active
Id : 00000005
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
[0909]:
UUID : 91f28abe:567488e2:e4cb44f2:ad9647d1
RAID Level : 5
Members : 4
Slots : [UUUU]
Failed disk : none
This Slot : 3
Sector Size : 512
Array Size : 5860560896 (2794.53 GiB 3000.61 GB)
Per Dev Size : 1953520648 (931.51 GiB 1000.20 GB)
Sector Offset : 0
Num Stripes : 7630939
Chunk Size : 128 KiB
Reserved : 0
Migrate State : idle
Map State : uninitialized
Dirty State : clean
RWH Policy : off
Disk00 Serial : WD-WX11A78PKAK5
State : active
Id : 00000002
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
Disk01 Serial : WD-WXL1A49RX47X
State : active
Id : 00000003
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
Disk02 Serial : WD-WCC6Y5ZS2N87
State : active
Id : 00000004
Usable Size : 1953520384 (931.51 GiB 1000.20 GB)
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#6 Le 27/10/2020, à 14:56
- RidingAround
Re : SOS formatage - [RESOLU]
et notamment fdisk -l donne ceci :
Device Boot Start End Sectors Size Id Type
/dev/sdb1 1 4294967295 4294967295 2T ee GPT
Partition 1 does not start on physical sector boundary.
mais un mount dessus ne donne rien:
root@RAID:/home/m# mount /dev/sdb1 /mnt
mount: /mnt: special device /dev/sdb1 does not exist.
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#7 Le 27/10/2020, à 15:12
- geole
Re : SOS formatage - [RESOLU]
J'ai un peu complété pour te demander l'état des disques
Pour les commandes, je ne vais pas te répondre tout de suite. Je suis en train de faire un cas de test.
Mon cas de test est net: si on se trompe, ce n'est pas catastrophique.
Le problème est que je ne suis pas certain de l'ordre des disques à mettre alors j'ai fait un cas de test que j'ai populé, et j'ai décidé de monter ailleurs que dans son nom
La création se passe bien
sudo mdadm --create /dev/md2 --level=5 --raid-devices=4 /dev/sdc11 /dev/sdc12 /dev/sdc13 /dev/sdc14
mdadm: /dev/sdc11 appears to contain an ext2fs file system
size=1048576K mtime=Thu Jan 1 01:00:00 1970
mdadm: /dev/sdc11 appears to be part of a raid array:
level=raid5 devices=4 ctime=Tue Oct 27 16:15:40 2020
mdadm: /dev/sdc12 appears to contain an ext2fs file system
size=1048576K mtime=Thu Jan 1 01:00:00 1970
mdadm: /dev/sdc12 appears to be part of a raid array:
level=raid5 devices=4 ctime=Tue Oct 27 16:15:40 2020
mdadm: /dev/sdc13 appears to contain an ext2fs file system
size=1048576K mtime=Thu Jan 1 01:00:00 1970
mdadm: /dev/sdc13 appears to be part of a raid array:
level=raid5 devices=4 ctime=Tue Oct 27 16:15:40 2020
mdadm: /dev/sdc14 appears to contain an ext2fs file system
size=1048576K mtime=Thu Jan 1 01:00:00 1970
mdadm: /dev/sdc14 appears to be part of a raid array:
level=raid5 devices=4 ctime=Tue Oct 27 16:15:40 2020
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md2 started.
Mais le montage se passe mal
sudo mount /dev/md2 /media/RAID
mount: /media/RAID: échec de l’appel système mount(2) : La structure a besoin d'un nettoyage.
Comme j'avais une bonne idée de la cause, je démonte et monte encore ailleurs en mettant dans l'ordre de création immédiatement
sudo mdadm --stop /dev/md2
mdadm: stopped /dev/md2
sudo mdadm --create /dev/md3 --level=5 --raid-devices=4 /dev/sdc14 /dev/sdc13 /dev/sdc12 /dev/sdc11
mdadm: /dev/sdc14 appears to contain an ext2fs file system
size=1048576K mtime=Thu Jan 1 01:00:00 1970
mdadm: /dev/sdc14 appears to be part of a raid array:
level=raid5 devices=4 ctime=Tue Oct 27 16:18:59 2020
mdadm: /dev/sdc13 appears to contain an ext2fs file system
size=1048576K mtime=Thu Jan 1 01:00:00 1970
mdadm: /dev/sdc13 appears to be part of a raid array:
level=raid5 devices=4 ctime=Tue Oct 27 16:18:59 2020
mdadm: /dev/sdc12 appears to contain an ext2fs file system
size=1048576K mtime=Thu Jan 1 01:00:00 1970
mdadm: /dev/sdc12 appears to be part of a raid array:
level=raid5 devices=4 ctime=Tue Oct 27 16:18:59 2020
mdadm: /dev/sdc11 appears to contain an ext2fs file system
size=1048576K mtime=Thu Jan 1 01:00:00 1970
mdadm: /dev/sdc11 appears to be part of a raid array:
level=raid5 devices=4 ctime=Tue Oct 27 16:18:59 2020
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md3 started.
et le montage se passe bien. Les données sont bien présentes
sudo mount /dev/md3 /media/RAID
cd /media/RAID
a@b:/media/RAID$ ls -als
total 28
4 drwxr-xr-x 4 root root 4096 oct. 27 15:43 .
4 drwxr-xr-x 17 root root 4096 oct. 27 15:40 ..
16 drwx------ 2 root root 16384 oct. 27 15:39 lost+found
4 drwxr-xr-x 3 root root 4096 oct. 27 15:43 var
df -h | egrep -v "loop|tmpfs|sd"
Sys. de fichiers Taille Utilisé Dispo Uti% Monté sur
udev 1,9G 0 1,9G 0% /dev
/dev/md3 2,9G 636M 2,1G 23% /media/RAID
Dernière modification par geole (Le 27/10/2020, à 16:39)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#8 Le 27/10/2020, à 15:21
- RidingAround
Re : SOS formatage - [RESOLU]
Oh man, i'm so grateful.
Le nom de ce raid array est [0909] je ne sais plus où je l'ai vu en dehors de ces réponses.
Je t'ai expliqué que l'installation avait été galère; c'est pas vraiment ça: en mode logiciel avec le menu d'installation 18.04 de l'époque c'était hyper hard core, aucun tuto et des résultats successivement nazes.
Mais j'avais ensuite opté pour le pseudo raid du bios, et lors de cette installation, le volume du RAID était alors parfaitement identifié et l'installation était tout simplement
/ sur SSD 120 Go
/home sur [0909] ou un nom du genre
Je tente un truc avec ma live 18.04, sans modif, je te dirai.
Dernière modification par RidingAround (Le 27/10/2020, à 15:22)
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#9 Le 27/10/2020, à 15:58
- moko138
Re : SOS formatage - [RESOLU]
Attention, pour lancer smartctl sur un disque membre d'un raid, il y a des désignations spécifiques (que je ne maîtrise pas). Cf.
man smartctl
%NOINDEX%
Un utilitaire précieux : ncdu
Photo, mini-tutoriel : À la découverte de dcraw
Hors ligne
#10 Le 27/10/2020, à 16:16
- RidingAround
Re : SOS formatage - [RESOLU]
OK, alors comme blkid et consorts ne me donnent pas tout en dur, j'ai lancé une live.
blkid
/dev/sda1: UUID="b506715a-4f8a-49d5-a27b-7d254bf6dd45" TYPE="ext4" PARTUUID="a4c6fa58-01"
/dev/sdb: TYPE="isw_raid_member"
/dev/sdc: TYPE="isw_raid_member"
/dev/sdd: TYPE="isw_raid_member"
/dev/sde: TYPE="isw_raid_member"
/dev/sdf1: UUID="2020-07-31-16-51-12-00" LABEL="Ubuntu 20.04.1 LTS amd64" TYPE="iso9660" PTUUID="56f48570" PTTYPE="dos" PARTUUID="56f48570-01"
/dev/loop0: TYPE="squashfs"
/dev/loop1: TYPE="squashfs"
/dev/loop2: TYPE="squashfs"
/dev/loop3: TYPE="squashfs"
/dev/loop4: TYPE="squashfs"
/dev/loop5: TYPE="squashfs"
/dev/mapper/isw_cbaidbbbgc_0909p1: UUID="035c7a40-e30c-4c2d-9603-0f283e522a4c" TYPE="crypto_LUKS" PARTUUID="fbb32022-86a1-4f9a-bd84-7e3c0181e5d5"
/dev/mapper/isw_cbaidbbbgc_0909: PTUUID="57fa2ac8-8c3f-4342-85cb-655dd68a7b6e" PTTYPE="gpt"
/dev/sdf2: SEC_TYPE="msdos" UUID="C26E-047E" TYPE="vfat" PARTUUID="56f48570-02"
/dev/sdf3: LABEL="writable" UUID="1ac94bb8-439e-4983-8956-51dd3cd26a59" TYPE="ext4" PARTUUID="56f48570-03"
donc je me dis que je vais ouvrir mon volume crypto_LUKS de suite pour voir
et ensuite mettre en place mon crypttab et fstab
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#11 Le 27/10/2020, à 16:35
- RidingAround
Re : SOS formatage - [RESOLU]
bon déjà, ouf, je lis bien mon volume chiffré avec ma live
je l'ai ouvert en mode graphique, et suis en train de copier les choses vers un usb en attendant de finir mes lectures de tutos interminables
on a tout ce qu'on veut pour ce qui est de monter un volume luks, mais quand c'est aussi un raid, je trouve que du blabla sans résolution
Dernière modification par RidingAround (Le 27/10/2020, à 16:35)
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#12 Le 27/10/2020, à 21:25
- RidingAround
Re : SOS formatage - [RESOLU]
Délirant, je peux voir et traiter mon raid dans la clé live, mais impossible avec ma distro installée !
lsblk, blkid et fdisk -l ne donnent rien avec elle
J'ai bien installé cryptsetup et tous les outils. Rien non plus dans Nautilus. Incroyable. Pression de ouf.
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#13 Le 28/10/2020, à 09:35
- RidingAround
Re : SOS formatage - [RESOLU]
Quand je dis rien, c'est en ce qui concerne le raid.
Par contre, au démarrage, j'ai une resync du raid; je ne comprends pas, car c'est un raid du bios, et je n'ai rien changé dans les disques.
J'ignore même si c'est déjà arrivé dans le passé. Rien dans /etc/cron.d/
Comme j'ai fini une sauvegarde cette nuit, je laisse faire.
Actuellement, j'ai bien 4 disques à fond, et un volume md0909 occupé.
J'imagine avoir compris pourquoi il n'apparaît pas dans mon système installé en dur mais seulment dans la live.
Je pense pouvoir réinstaller mes logiciels, et je me remets sur internet grâce à Firefox Sync.
La documentation continue pendant ce temps, mes yeux brûlent.
Je verrai à la fin de ce processus, si un redémarrage permettra de retrouver ce volume raid.
La question de crypttab et fstab se posera alors quand même.
Dernière modification par RidingAround (Le 28/10/2020, à 09:52)
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#14 Le 28/10/2020, à 14:38
- RidingAround
Re : SOS formatage - [RESOLU]
Ok, la surprenante resynchronisation du RAID est terminée. J'ai toujours pas compris pourquoi un RAID BIOS avait besoin de ça après un rebranchement à l'identique (donc un redémarrage quoi).
J'ai toujours pas mon volume RAID dans lsblk:
sda 8:0 0 111,8G 0 disk
└─sda1 8:1 0 111,8G 0 part /
sdb 8:16 0 931,5G 0 disk
└─md909 9:909 0 2,7T 0 raid5
sdc 8:32 0 931,5G 0 disk
└─md909 9:909 0 2,7T 0 raid5
sdd 8:48 0 931,5G 0 disk
└─md909 9:909 0 2,7T 0 raid5
sde 8:64 0 931,5G 0 disk
└─md909 9:909 0 2,7T 0 raid5
Toutefois, j'ai ça dans fdisk -l :
Disque /dev/md909 : 2,75 TiB, 3000607178752 octets, 5860560896 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 131072 octets / 393216 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x00000000
Périphérique Amorçage Début Fin Secteurs Taille Id Type
/dev/md909p1 1 4294967295 4294967295 2T ee GPT
La partition 1 ne commence pas sur une frontière de cylindre physique.
Disque /dev/sdf : 2,75 TiB, 3000592979968 octets, 5860533164 secteurs
Disk model: External USB 3.0
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : B1FC6811-D132-4C65-89E6-1CFD5740691F
Périphérique Début Fin Secteurs Taille Type
/dev/sdf1 34 262177 262144 128M Réservé Microsoft
/dev/sdf2 264192 5860532223 5860268032 2,7T Données de base Microsoft
La partition 1 ne commence pas sur une frontière de cylindre physique.
Alors je me suis dit que j'allais faire un crypttab du genre :
# <target name> <source device> <key file> <options>
#raid /dev/disk/by-uuid/035c7a40-e30c-4c2d-9603-0f283e522a4c none luks
Et un fstab du genre :
#/dev/mapper/raid /mnt/raid ext4 defaults 0 2
Donc pour un premier pas vers le montage ultérieur en /home, ce serait réaliste ?
Dernière modification par RidingAround (Le 28/10/2020, à 14:43)
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#15 Le 28/10/2020, à 14:58
- RidingAround
Re : SOS formatage - [RESOLU]
J'ai vu en redémarrant que le système essayaitde monter un /dev/md127
j'ai fait :
mount /dev/md127 /mnt/raid
mount: /mnt/raid: impossible de lire le superbloc à l’adresse /dev/md127
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#16 Le 28/10/2020, à 15:12
- RidingAround
Re : SOS formatage - [RESOLU]
Avec une live, j'ai pas du tout pareil :
sda 8:0 0 111,8G 0 disk
└─sda1 8:1 0 111,8G 0 part
sdb 8:16 0 931,5G 0 disk
└─isw_cbaidbbbgc_0909 253:0 0 2,7T 0 dmraid
└─isw_cbaidbbbgc_0909p1 253:1 0 2,7T 0 part
sdc 8:32 0 931,5G 0 disk
└─isw_cbaidbbbgc_0909 253:0 0 2,7T 0 dmraid
└─isw_cbaidbbbgc_0909p1 253:1 0 2,7T 0 part
sdd 8:48 0 931,5G 0 disk
└─isw_cbaidbbbgc_0909 253:0 0 2,7T 0 dmraid
└─isw_cbaidbbbgc_0909p1 253:1 0 2,7T 0 part
sde 8:64 0 931,5G 0 disk
└─isw_cbaidbbbgc_0909 253:0 0 2,7T 0 dmraid
└─isw_cbaidbbbgc_0909p1 253:1 0 2,7T 0 part
Et si j'ouvre Nautilus, ben j'ai bien mon RAID ici, en tant que volume chiffré, et en cliquant dessus, on me demande le mot de passe, puis j'accède aux données.
Je comprends pas ça.
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#17 Le 28/10/2020, à 15:46
- geole
Re : SOS formatage - [RESOLU]
J'ai vu en redémarrant que le système essayaitde monter un /dev/md127
j'ai fait :mount /dev/md127 /mnt/raid mount: /mnt/raid: impossible de lire le superbloc à l’adresse /dev/md127
Bonjour
je n'ai pas d'expérience pour un raids chiffré, Cependant je pense qu'il faut monter avec fscrypt
sudo cryptsetup open /dev/md127 /mnt/raid
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#18 Le 28/10/2020, à 16:21
- geole
Re : SOS formatage - [RESOLU]
Alors je me suis dit que j'allais faire un
..........Et un fstab du genre :#/dev/mapper/raid /mnt/raid ext4 defaults 0 2
Donc pour un premier pas vers le montage ultérieur en /home, ce serait réaliste ?
Personnellement, je ne le monterais pas sur home Mais sur /media/Raid
Puis je mettrais des liens symboliques
mv Documents Images Musique Public Téléchargements Vidéos /media/Raid
ln -s /media/Raid/Documents && ln -s /media/Raid/Images && ln -s /media/Raid/Musique && ln -s /media/Raid/Public && ln -s /media/Raid/Téléchargements && ln -s /media/Raid/Vidéos
Cependant le montage sur /home/LeNomUtilisateur est possible mais tu perds la vitesse du ssd pour tous les accès logiciels du home
Dernière modification par geole (Le 28/10/2020, à 16:26)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#19 Le 28/10/2020, à 19:34
- RidingAround
Re : SOS formatage - [RESOLU]
Oui, le but c'est du direct sur /home, comme avant le problème.
La vitesse du raid est pas mal quand même, et avec l'argument de la quantité et de la sécurité, c'est une solution valable à mes yeux.
Merci je vais tenter des choses.
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#20 Le 01/11/2020, à 11:38
- RidingAround
Re : SOS formatage - [RESOLU]
Le modo a fermé le fil
https://forum.ubuntu-fr.org/viewtopic.php?id=2058028
mais son lien vers ici ne fonctionne pas.
Pour moi c'était un nouveau topic car j'ai passé l'étape de vouloir reconnecter l'ancien raid, ayant choisi d'en refaire un sur des disques neufs (conservant l'ancien) dans un autre mode (logiciel), rencontrant une nouvelle difficulté.
Suite :
La panne : pour rendre service à quelqu'un j'ai fait un dd d'un live linux sur son SSD à partir de mon pc. J'avais débranché mon raid, mais mon ssd était dissimulé sur son port M2... j'ai envoyé sur mon SSD au lieu du sien.
J'avais un raid monté par le bios de la carte mère.
Après avoir réinstallé mon SSD, le raid ne montait plus.
J'ai réinstallé une 18.04 (la 20 j'en pouvais plus) et j'ai refait le raid, cette fois avec les outils logiciels :
mdadm --create /dev/md0 --level=5 --raid-devices=4 /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm --monitor --daemonise /dev/md0
mdadm --detail /dev/md0
mkfs.ext4 /dev/md0
cryptsetup luksFormat /dev/md0
cryptsetup lukOpen /dev/md0 home
mkfs.ext4 /dev/mapper/home
mount /dev/mapper/home /mnt/
umount /mnt
et je n'ai eu aucun problème.
parted -l donne :
Modèle: ATA WDC WDS120G2G0B- (scsi)
Disque /dev/sda : 120GB
Taille des secteurs (logiques/physiques): 512B/512B
Table de partitions : msdos
Drapeaux de disque :
Numéro Début Fin Taille Type Système de fichiers Fanions
1 1049kB 100GB 100GB primary ext4 démarrage
Modèle: ATA WDC WD10EZEX-08W (scsi)
Disque /dev/sdb : 1000GB
Taille des secteurs (logiques/physiques): 512B/4096B
Table de partitions : gpt
Drapeaux de disque :
Numéro Début Fin Taille Système de fichiers Nom Fanions
1 1049kB 1000GB 1000GB
Modèle: ATA WDC WD10EZEX-08W (scsi)
Disque /dev/sdc : 1000GB
Taille des secteurs (logiques/physiques): 512B/4096B
Table de partitions : gpt
Drapeaux de disque :
Numéro Début Fin Taille Système de fichiers Nom Fanions
1 1049kB 1000GB 1000GB
Modèle: ATA WDC WD10EZEX-08W (scsi)
Disque /dev/sdd : 1000GB
Taille des secteurs (logiques/physiques): 512B/4096B
Table de partitions : gpt
Drapeaux de disque :
Numéro Début Fin Taille Système de fichiers Nom Fanions
1 1049kB 1000GB 1000GB
Modèle: ATA WDC WD10EZEX-08W (scsi)
Disque /dev/sde : 1000GB
Taille des secteurs (logiques/physiques): 512B/4096B
Table de partitions : gpt
Drapeaux de disque :
Numéro Début Fin Taille Système de fichiers Nom Fanions
1 1049kB 1000GB 1000GB
Modèle: Mappeur de périphériques Linux (crypt) (dm)
Disque /dev/mapper/home : 3000GB
Taille des secteurs (logiques/physiques): 512B/4096B
Table de partitions : loop
Drapeaux de disque :
Numéro Début Fin Taille Système de fichiers Fanions
1 0,00B 3000GB 3000GB ext4
Erreur: Impossible d'ouvrir /dev/md0 - étiquette de disque non reconnue.
Modèle: Grappe RAID logiciel Linux (md)
Disque /dev/md0 : 3000GB
Taille des secteurs (logiques/physiques): 512B/4096B
Table de partitions : unknown
Drapeaux de disque :
Modèle: TOSHIBA External USB 3.0 (scsi)
Disque /dev/sdg : 3001GB
Taille des secteurs (logiques/physiques): 512B/4096B
Table de partitions : gpt
Drapeaux de disque :
Numéro Début Fin Taille Système de fichiers Nom Fanions
1 17,4kB 134MB 134MB Microsoft reserved partition msftres
2 135MB 3001GB 3000GB ntfs Basic data partition msftdata
mdadm --detail /dev/md0 donne :
/dev/md0:
Version : 1.2
Creation Time : Sat Oct 31 22:03:20 2020
Raid Level : raid5
Array Size : 2929887744 (2794.16 GiB 3000.21 GB)
Used Dev Size : 976629248 (931.39 GiB 1000.07 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sun Nov 1 11:42:28 2020
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : bitmap
Name : m-MS-7971:0 (local to host m-MS-7971)
UUID : 798d9b54:b4608670:90a7768a:3f9c9f81
Events : 6735
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
4 8 65 3 active sync /dev/sde1
Dernière modification par RidingAround (Le 01/11/2020, à 11:49)
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#21 Le 01/11/2020, à 20:07
- RidingAround
Re : SOS formatage - [RESOLU]
Le déplacement de mon deuxième fil ici a mis fin aux participations
mais c'est pas grave parce que j'ai trouvé:
dans crypttab, il fallait pas mettre /dev/mapper/md0 mais /dev/mdo
Et je peux vous assurer que / sur SSD et /home sur raid5 ça marche très bien.
Dernière modification par RidingAround (Le 01/11/2020, à 20:08)
RAID 5 luks 4x1To - SSD M2 120 - RX 480 - 4x4 DDR4 - Xeon
24 ans de Linux ! Ubuntu aux particuliers -> puis aux entreprises -> monter des serveurs -> sécuriser les entreprises -> des armoires -> des clusters -> des conteneurs ... que du bonheur :}
Hors ligne
#22 Le 01/11/2020, à 21:34
- geole
Re : SOS formatage - [RESOLU]
Bonsoir.
J'espère pour toi que le RAID5 fonctionnera en permanence parfaitement bien car un ubuntu sans /home ne sait pas mettre en route.
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#23 Le 01/11/2020, à 22:31
- moko138
Re : SOS formatage - [RESOLU]
geole,
Le forum a connu un cas. C'est /home/user qui avait été accidentellement supprimé.
Apparemment, /home (tout court) n'avait pas été supprimé, ou bien il avait été recréé automatiquement.
Mais il ne contenait pas de sous-répertoire user/
... Voici le fil :
./viewtopic.php?id=2015814 du 07/10/2017, dont, en #27, la photo
https://pix.tdct.org/upload/original/1507464059.png
qui montre :
(...)
No directory, logging in with HOME=/
(...)
ehouman@ehouman:/$ ls -la /home/ehouman
ls: impossible d'accéder à '/home/ehouman': Aucun fichier ou dossier de ce type
ehouman@ehouman:/$ ls -la /home
total 48
drwxr-xr-x 2 root root 4096 oct. 7 16:07 .
drwxr-xr-x 26 root root 4096 oct. 7 19:49 ..
-rw-r--r-- 1 root root 40960 oct. 7 16:07 photorec.ses
ehouman@ehouman:/$
.
Donc, ça vaudrait sans doute le coup de
laisser /home/user sur le RAID, mais de
mettre /home sur le ssd.
%NOINDEX%
Un utilitaire précieux : ncdu
Photo, mini-tutoriel : À la découverte de dcraw
Hors ligne
Pages : 1