Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 08/06/2017, à 21:57

bobregman

Raid 5 Inactive

Bonsoir,

J'auraos besoin de votre aide.
J'ai voulu réinstaller mon NAS sous ubuntu server propre comme je le fais de temps en temps sans soucis particulier mais la forcement il y a un problème 1 seul Raid et reconnu sur mes deux Raid habituel.

J'ai /dev/md0 qui est un raid 1 sur deux disques de 1To qui lui marche bien et un Raid 5 sur 3 Disques de 3To et s'est ce raid /dev/md127 qui est affiché comme inactif.

J'ai lu plusieurs post a se sujet sur le forum ou sur d'autre forum mais rien ne resoud le problème et j'ai pas trop envie de perdre mes données.

Je vous mets la liste des différentes commande que j'ai essayé ci dessous.

Merci d'avance

pour infos
Ubuntu server 16.04 LTS tout a jour avec dernier noyaux
J'ai supprimer le mdadm.conf désinstallé mdadm via apt-get autoremove et redémarré puis réinstallé mais rien.
J'ai recréé une image de Ubuntu server au cas ou rien donné non plus
J'ai essayé de stopper et de re assemblé mais rien non plus

Je reste a votre disposition pour essayé d'autre commande

Merci encore

fdisk -l

Disque /dev/sdb : 2,7 TiB, 3000592982016 octets, 5860533168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x52096da7

Périphérique Amorçage Start        Fin   Secteurs Size Id Type
/dev/sdb1              2048 4294967294 4294965247   2T 83 Linux




Disque /dev/sda : 465,8 GiB, 500107862016 octets, 976773168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x42f3f920

Périphérique Amorçage     Start       Fin  Secteurs   Size Id Type
/dev/sda1    *             2048 968456191 968454144 461,8G 83 Linux
/dev/sda2             968458238 976771071   8312834     4G  5 Étendue
/dev/sda5             968458240 976771071   8312832     4G 82 partition d'échange Linux / Solaris

Partition 2 does not start on physical sector boundary.




Disque /dev/sde : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xc0cc70bd

Périphérique Amorçage Start        Fin   Secteurs   Size Id Type
/dev/sde1              2048 1953525167 1953523120 931,5G 83 Linux


Disque /dev/sdf : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xc7c59ebe

Périphérique Amorçage Start        Fin   Secteurs   Size Id Type
/dev/sdf1              2048 1953525167 1953523120 931,5G 83 Linux


Disque /dev/md0 : 931,4 GiB, 1000069595136 octets, 1953260928 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

mdadm --detail /dev/md127

mdadm: Unknown keyword INACTIVE-ARRAY
/dev/md127:
        Version : 
     Raid Level : raid0
  Total Devices : 0

          State : inactive

    Number   Major   Minor   RaidDevice

mdadm --detail /dev/sdb ou sdc ou sdd

mdadm: Unknown keyword INACTIVE-ARRAY
mdadm: /dev/sdb does not appear to be an md device

mdadm --examine /dev/sdb

mdadm: Unknown keyword INACTIVE-ARRAY
/dev/sdb:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : adca0e63:cab31818:88897fe9:efa339fd
           Name : NASPerso:Partages
  Creation Time : Sat Oct 11 18:04:24 2014
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5860271024 (2794.40 GiB 3000.46 GB)
     Array Size : 5860270080 (5588.79 GiB 6000.92 GB)
  Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=944 sectors
          State : clean
    Device UUID : 8950b10e:cbebb1c8:5cef3495:f01a0380

    Update Time : Wed Apr  5 23:47:48 2017
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : f6c0441c - correct
         Events : 235868

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : A.. ('A' == active, '.' == missing, 'R' == replacing)

mdadm --examine /dev/sdc

mdadm: Unknown keyword INACTIVE-ARRAY
mdadm: No md superblock detected on /dev/sdc.

mdadm --examine /dev/sdd

mdadm: Unknown keyword INACTIVE-ARRAY
mdadm: No md superblock detected on /dev/sdd.

Dernière modification par bobregman (Le 09/06/2017, à 08:40)

Hors ligne

#2 Le 08/06/2017, à 23:07

Bougron

Re : Raid 5 Inactive

Bonsoir
Dans un premier temps, peux-tu regarder l'état physique de ces trois disques

sudo smartctl   -s on -a /dev/sdb
sudo smartctl   -s on -a /dev/sdc
sudo smartctl   -s on -a /dev/sdd

Donnes aussi le retour de

sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT

Dernière modification par Bougron (Le 08/06/2017, à 23:10)

Hors ligne

#3 Le 09/06/2017, à 09:31

bobregman

Re : Raid 5 Inactive

Merci d'avance de ton aide

Voici ce que renvoie les commandes

sudo smartctl   -s on -a /dev/sdb

smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.4.0-62-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Seagate NAS HDD
Device Model:     ST3000VN000-1HJ166
Serial Number:    W730A1HP
LU WWN Device Id: 5 000c50 09aca3f16
Firmware Version: SC60
User Capacity:    3 000 592 982 016 bytes [3,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5900 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Fri Jun  9 10:27:25 2017 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(  107) seconds.
Offline data collection
capabilities: 			 (0x73) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					No Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   1) minutes.
Extended self-test routine
recommended polling time: 	 ( 390) minutes.
Conveyance self-test routine
recommended polling time: 	 (   2) minutes.
SCT capabilities: 	       (0x10bd)	SCT Status supported.
					SCT Error Recovery Control supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   117   100   006    Pre-fail  Always       -       149363424
  3 Spin_Up_Time            0x0003   097   097   000    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   100   100   020    Old_age   Always       -       4
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   100   253   030    Pre-fail  Always       -       8357
  9 Power_On_Hours          0x0032   094   094   000    Old_age   Always       -       5323
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   020    Old_age   Always       -       35
184 End-to-End_Error        0x0032   100   100   099    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0
189 High_Fly_Writes         0x003a   082   082   000    Old_age   Always       -       18
190 Airflow_Temperature_Cel 0x0022   072   068   045    Old_age   Always       -       28 (Min/Max 28/28)
191 G-Sense_Error_Rate      0x0032   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       9
193 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -       47
194 Temperature_Celsius     0x0022   028   040   000    Old_age   Always       -       28 (0 24 0 0 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   200   200   000    Old_age   Always       -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

sudo smartctl   -s on -a /dev/sdc

smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.4.0-62-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     SAMSUNG SpinPoint F1 DT
Device Model:     SAMSUNG HD103UJ
Serial Number:    S13PJDWQC36360
LU WWN Device Id: 5 0000f0 000c9f981
Firmware Version: 1AA01113
User Capacity:    1 000 204 886 016 bytes [1,00 TB]
Sector Size:      512 bytes logical/physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA/ATAPI-7, ATA8-ACS T13/1699-D revision 3b
Local Time is:    Fri Jun  9 10:28:57 2017 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(11962) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 200) minutes.
Conveyance self-test routine
recommended polling time: 	 (  21) minutes.
SCT capabilities: 	       (0x003f)	SCT Status supported.
					SCT Error Recovery Control supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   100   100   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0007   077   077   011    Pre-fail  Always       -       7870
  4 Start_Stop_Count        0x0032   090   090   000    Old_age   Always       -       10152
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   100   100   051    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0025   100   100   015    Pre-fail  Offline      -       0
  9 Power_On_Hours          0x0032   097   097   000    Old_age   Always       -       15787
 10 Spin_Retry_Count        0x0033   100   100   051    Pre-fail  Always       -       2
 11 Calibration_Retry_Count 0x0012   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   099   099   000    Old_age   Always       -       765
 13 Read_Soft_Error_Rate    0x000e   100   100   000    Old_age   Always       -       0
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       51
184 End-to-End_Error        0x0033   100   100   000    Pre-fail  Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   070   044   000    Old_age   Always       -       30 (Min/Max 29/30)
194 Temperature_Celsius     0x0022   067   042   000    Old_age   Always       -       33 (0 24 33 29 0)
195 Hardware_ECC_Recovered  0x001a   100   100   000    Old_age   Always       -       14802758
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   100   100   000    Old_age   Always       -       59
200 Multi_Zone_Error_Rate   0x000a   100   100   000    Old_age   Always       -       0
201 Soft_Read_Error_Rate    0x000a   100   100   000    Old_age   Always       -       0

SMART Error Log Version: 1
ATA Error Count: 9 (device log contains only the most recent five errors)
	CR = Command Register [HEX]
	FR = Features Register [HEX]
	SC = Sector Count Register [HEX]
	SN = Sector Number Register [HEX]
	CL = Cylinder Low Register [HEX]
	CH = Cylinder High Register [HEX]
	DH = Device/Head Register [HEX]
	DC = Device Command Register [HEX]
	ER = Error register [HEX]
	ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 9 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  00 d0 01 01 00 00 00   at LBA = 0x00000001 = 1

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  40 00 01 01 00 00 00 00      22:10:05.730  READ VERIFY SECTOR(S)
  e0 00 00 00 00 00 00 00      22:10:04.850  STANDBY IMMEDIATE
  e7 00 00 00 00 00 00 00      22:10:04.850  FLUSH CACHE
  ea 00 00 00 00 00 00 00      22:10:04.850  FLUSH CACHE EXT
  ec 00 00 00 00 00 00 00      21:48:53.370  IDENTIFY DEVICE

Error 8 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  00 d0 01 01 00 00 00   at LBA = 0x00000001 = 1

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  40 00 01 01 00 00 00 00      03:34:28.730  READ VERIFY SECTOR(S)
  e0 00 00 00 00 00 00 00      03:34:27.860  STANDBY IMMEDIATE
  e7 00 00 00 00 00 00 00      03:34:27.860  FLUSH CACHE
  ea 00 00 00 00 00 00 00      03:34:27.860  FLUSH CACHE EXT
  ec 00 00 00 00 00 00 00      03:14:22.350  IDENTIFY DEVICE

Error 7 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  00 d0 01 01 00 00 00   at LBA = 0x00000001 = 1

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  40 00 01 01 00 00 00 00      02:14:21.950  READ VERIFY SECTOR(S)
  e0 00 00 00 00 00 00 00      02:14:21.060  STANDBY IMMEDIATE
  e7 00 00 00 00 00 00 00      02:14:21.060  FLUSH CACHE
  ea 00 00 00 00 00 00 00      02:14:21.060  FLUSH CACHE EXT
  b0 d0 00 00 4f c2 63 00      02:01:16.390  SMART READ DATA

Error 6 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  00 d0 01 01 00 00 00   at LBA = 0x00000001 = 1

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  40 00 01 01 00 00 00 00      01:46:09.700  READ VERIFY SECTOR(S)
  e0 00 00 00 00 00 00 00      01:46:08.820  STANDBY IMMEDIATE
  e7 00 00 00 00 00 00 00      01:46:08.820  FLUSH CACHE
  ea 00 00 00 00 00 00 00      01:46:08.820  FLUSH CACHE EXT
  ec 00 00 00 00 00 00 00      01:11:13.090  IDENTIFY DEVICE

Error 5 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  00 d0 01 01 00 00 00   at LBA = 0x00000001 = 1

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  40 00 01 01 00 00 00 00      01:50:42.960  READ VERIFY SECTOR(S)
  e0 00 00 00 00 00 00 00      01:50:42.090  STANDBY IMMEDIATE
  e7 00 00 00 00 00 00 00      01:50:42.090  FLUSH CACHE
  ea 00 00 00 00 00 00 00      01:50:42.090  FLUSH CACHE EXT
  ec 00 00 00 00 00 00 00      01:29:23.490  IDENTIFY DEVICE

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

sudo smartctl   -s on -a /dev/sdd

smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.4.0-62-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     SAMSUNG SpinPoint F1 DT
Device Model:     SAMSUNG HD103UJ
Serial Number:    S13PJ1CQ711990
LU WWN Device Id: 5 0000f0 008179109
Firmware Version: 1AA01112
User Capacity:    1 000 204 886 016 bytes [1,00 TB]
Sector Size:      512 bytes logical/physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA/ATAPI-7, ATA8-ACS T13/1699-D revision 3b
Local Time is:    Fri Jun  9 10:29:51 2017 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(11736) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 196) minutes.
Conveyance self-test routine
recommended polling time: 	 (  21) minutes.
SCT capabilities: 	       (0x003f)	SCT Status supported.
					SCT Error Recovery Control supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   100   100   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0007   075   075   011    Pre-fail  Always       -       8280
  4 Start_Stop_Count        0x0032   091   091   000    Old_age   Always       -       8749
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   100   100   051    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0025   100   100   015    Pre-fail  Offline      -       0
  9 Power_On_Hours          0x0032   096   096   000    Old_age   Always       -       22357
 10 Spin_Retry_Count        0x0033   100   100   051    Pre-fail  Always       -       0
 11 Calibration_Retry_Count 0x0012   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   099   099   000    Old_age   Always       -       929
 13 Read_Soft_Error_Rate    0x000e   100   100   000    Old_age   Always       -       0
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       0
184 End-to-End_Error        0x0033   100   100   099    Pre-fail  Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   070   050   000    Old_age   Always       -       30 (Min/Max 29/30)
194 Temperature_Celsius     0x0022   067   047   000    Old_age   Always       -       33 (0 27 33 29 0)
195 Hardware_ECC_Recovered  0x001a   100   100   000    Old_age   Always       -       30790
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   100   100   000    Old_age   Always       -       1
200 Multi_Zone_Error_Rate   0x000a   100   100   000    Old_age   Always       -       0
201 Soft_Read_Error_Rate    0x000a   253   253   000    Old_age   Always       -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 0
Warning: ATA Specification requires self-test log structure revision number = 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 0
Note: revision number not 1 implies that no selective self-test has ever been run
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Resultat j'ai l'impression qu'il y a un probleme sur /dev/sdc lol

sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT

  SIZE NAME    FSTYPE            LABEL             MOUNTPOINT
465,8G sda                                         
461,8G ├─sda1  ext4                                /
    1K ├─sda2                                      
    4G └─sda5  swap                                [SWAP]
  2,7T sdb     linux_raid_member NASPerso:Partages 
931,5G sdc                                         
931,5G └─sdc1  linux_raid_member NASPerso:0        
931,4G   └─md0 ext4                                
931,5G sdd                                         
931,5G └─sdd1  linux_raid_member NASPerso:0        
931,4G   └─md0 ext4 

Voila merci d'avance si tu arrive a m'eclairer un peu plus

Hors ligne

#4 Le 09/06/2017, à 11:56

Bougron

Re : Raid 5 Inactive

Bonjour
Je ne connais pas trop le raids
Tes trois disques sont en très bon état

Pour avoir une vue d'ensemble, peux-tu donner le résultat des  commandes

mdadm --detail /dev/sdb
mdadm --detail /dev/sdc1
mdadm --detail /dev/sdd1
mdadm --detail /dev/sd[bcd]1

Dernière modification par Bougron (Le 12/06/2017, à 22:02)

Hors ligne

#5 Le 09/06/2017, à 12:58

MicP

Re : Raid 5 Inactive

Bonjour

Je trouve bizarre

Disque /dev/sdb : 2,7 TiB, 3000592982016 octets, 5860533168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x52096da7

Périphérique Amorçage Start        Fin   Secteurs Size Id Type
/dev/sdb1              2048 4294967294 4294965247   2T 83 Linux

qu'un disque de plus de 2.2To utilise une table des partitions de type msdos
Il aurait fallu utiliser un MBR de type GPT

d'autant que, plus loin, la commande lsblk

  SIZE NAME    FSTYPE            LABEL             MOUNTPOINT
465,8G sda                                         
461,8G ├─sda1  ext4                                /
    1K ├─sda2                                      
    4G └─sda5  swap                                [SWAP]
  2,7T sdb     linux_raid_member NASPerso:Partages 
931,5G sdc                                         
931,5G └─sdc1  linux_raid_member NASPerso:0        
931,4G   └─md0 ext4                                
931,5G sdd                                         
931,5G └─sdd1  linux_raid_member NASPerso:0        
931,4G   └─md0 ext4 

semble indiquer que ce serait le disque entier qui est utilisé pour le RAID

=======

mdadm: /dev/sdb does not appear to be an md device

Il aurait peut-être fallu indiquer à la commande mdadm d'utiliser /dev/sdb1 plutôt que /dev/sdb

mdadm --detail /dev/sdb1

Dernière modification par MicP (Le 09/06/2017, à 13:08)

Hors ligne

#6 Le 12/06/2017, à 21:56

bobregman

Re : Raid 5 Inactive

Bonsoir,

Déjà je comence par vous remercier pour votre aides

Voici les résultats des commandes

mdadm --detail /dev/sdb1
mdadm --detail /dev/sd[bc]1

mdadm: cannot open /dev/sdb1: No such file or directory

mdadm --detail /dev/sdb c d

mdadm: /dev/sdb does not appear to be an md device

Voilà merci et désolé pour le temps de réponse

Encore merci

Hors ligne

#7 Le 12/06/2017, à 22:03

Bougron

Re : Raid 5 Inactive

et pour mes commandes

mdadm --detail /dev/sdc1
mdadm --detail /dev/sdd1

!!!!

Hors ligne

#8 Le 12/06/2017, à 22:08

bobregman

Re : Raid 5 Inactive

Bonsoir

Idem que pour sdb1 mais j'ai crée le Raid avec sdd sdc sdb et non avec sdb1 etc

Merci beaucoup

Hors ligne

#9 Le 14/06/2017, à 08:24

Bougron

Re : Raid 5 Inactive

Bonjour.
Je suis trop néophyte sur le sujet.
Certainement du boulot pour Jamesbad000.

Dernière modification par Bougron (Le 14/06/2017, à 08:29)

Hors ligne

#10 Le 14/06/2017, à 20:44

jamesbad000

Re : Raid 5 Inactive

Bonsoir

bobregman a écrit :

j'ai crée le Raid avec sdd sdc sdb et non avec sdb1 etc

Ca ne colle pas bien avec le résultat du lsblk, qui est par ailleurs tronqué.
sdd1 et sdc1 sont associées sur un même volume qui est actif. En revanche sdb est bien un morceau d'un volume raid distinct...

Peux-tu fournir le retour complet de la commande lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT avec tous les disques... (et d'une façon générale, pour la suite, retourner le contenu du terminal d'un bloc, comprenant les commandes indiquées et le résultat complet)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#11 Le 14/06/2017, à 22:14

jamesbad000

Re : Raid 5 Inactive

En fait 2 disques de 2,7 To manquent systématiquement à l'appel.
Dans le 1er post il y a :
Disque /dev/sdb : 2,7 TiB
Disque /dev/sda : 465,8 GiB
Disque /dev/sde : 931,5 GiB
Disque /dev/sdf : 931,5 GiB

et ensuite dans le lsblk sde et f sont devenus sdc et d...

Donc soit ils ont été éliminés à tort des résultats, soit ils ne sont pas connectés (cable USB, SATA, IDE ?) ou pas sous tension, soit ils ne sont pas reconnus.

MicP a écrit :

Je trouve bizarre
(...)
qu'un disque de plus de 2.2To utilise une table des partitions de type msdos

Cette table de partition est un leurre.

Elle a probablement été créée après le raid (avant je pense qu'elle aurait été effacée lors de la construction du raid) et est sans effet => On voit dans le résultat de mdadm --examine /dev/sdb qu'il s'agit d'un raid version 1.2. Dans ce cas, les métadonnées raid commencent à 4 K du début du volume et peuvent  cohabiter avec une table de partition.

Mais vu qu'il n'y a aucun système de fichier reconnu dans cette partition, le kernel donne priorité à la reconnaissance du raid. Comme on le voit dans le résultat du lsblk.


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#12 Le 15/06/2017, à 20:34

bobregman

Re : Raid 5 Inactive

Bonsoir JamesBad000

Merci beaucoup pour ton aide

voici le retour de la ligne de commande demandée

sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT

  SIZE NAME    FSTYPE            LABEL             MOUNTPOINT
465,8G sda                                         
461,8G ├─sda1  ext4                                /
    1K ├─sda2                                      
    4G └─sda5  swap                                [SWAP]
  2,7T sdb     linux_raid_member NASPerso:Partages 
  2,7T sdc     linux_raid_member NASPerso:Partages 
  2,7T sdd     linux_raid_member NASPerso:Partages 
931,5G sde                                         
931,5G └─sde1  linux_raid_member NASPerso:0        
931,4G   └─md0 ext4                                
931,5G sdf                                         
931,5G └─sdf1  linux_raid_member NASPerso:0        
931,4G   └─md0 ext4

sudo lsblk /dev/sda

NAME   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda      8:0    0 465,8G  0 disk 
├─sda1   8:1    0 461,8G  0 part /
├─sda2   8:2    0     1K  0 part 
└─sda5   8:5    0     4G  0 part [SWAP]

sudo lsblk /dev/sdb

NAME MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sdb    8:16   0  2,7T  0 disk 

sudo lsblk /dev/sdc

NAME MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sdc    8:32   0  2,7T  0 disk 

sudo lsblk /dev/sdd

NAME MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sdd    8:48   0  2,7T  0 disk 

sudo lsblk /dev/sde

NAME    MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sde       8:64   0 931,5G  0 disk  
└─sde1    8:65   0 931,5G  0 part  
  └─md0   9:0    0 931,4G  0 raid1

sudo lsblk /dev/sdf

NAME    MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sdf       8:80   0 931,5G  0 disk  
└─sdf1    8:81   0 931,5G  0 part  
  └─md0   9:0    0 931,4G  0 raid1 

sudo lsblk /dev/md0

NAME MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
md0    9:0    0 931,4G  0 raid1 

sudo lsblk /dev/md127
ne renvoie rien

Merci d'avance pour votre aides

Hors ligne

#13 Le 15/06/2017, à 21:40

jamesbad000

Re : Raid 5 Inactive

Bon les 3 disques qui constituent le second raid sont bien là. Mais non assemblés.
Reste à savoir pourquoi.

ls -l /dev/disk/by-id/
sudo mdadm -E /dev/sd[bcd]
sudo mdadm -A -v /dev/md1 /dev/sd[bcd] 

L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#14 Le 18/06/2017, à 14:07

bobregman

Re : Raid 5 Inactive

Bonjour désolé du temps de réponse mais en ce moment je suis en plein bricolage

Juste pour peut être aider.

Quand je démarre mon PC il reste longtemps bloquer sur une de deux images que je vous joints.
En gros il galère a trouver les disque il y en a toujours un qu'il trouve pas dans les disque en esclaves (donc un des 3To) les deux de 1To sont sur un port Sata en PCie

mini_909830IMG20170618144422.jpg

mini_688869IMG20170618145137.jpg
Attention ! Images très volumineuses, total supérieur à 8 Mo.

Voici les réponses a tes commandes JamesBad000

ls -l /dev/disk/by-id/

total 0
lrwxrwxrwx 1 root root  9 juin  18 14:56 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP -> ../../sda
lrwxrwxrwx 1 root root 10 juin  18 14:56 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 juin  18 14:56 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP-part2 -> ../../sda2
lrwxrwxrwx 1 root root 10 juin  18 14:56 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP-part5 -> ../../sda5
lrwxrwxrwx 1 root root  9 juin  18 14:56 ata-SAMSUNG_HD103UJ_S13PJ1CQ711990 -> ../../sdd
lrwxrwxrwx 1 root root 10 juin  18 14:56 ata-SAMSUNG_HD103UJ_S13PJ1CQ711990-part1 -> ../../sdd1
lrwxrwxrwx 1 root root  9 juin  18 14:56 ata-SAMSUNG_HD103UJ_S13PJDWQC36360 -> ../../sdc
lrwxrwxrwx 1 root root 10 juin  18 14:56 ata-SAMSUNG_HD103UJ_S13PJDWQC36360-part1 -> ../../sdc1
lrwxrwxrwx 1 root root  9 juin  18 14:56 ata-ST3000VN000-1HJ166_W730A1HP -> ../../sdb
lrwxrwxrwx 1 root root  9 juin  18 14:56 md-name-NASPerso:0 -> ../../md0
lrwxrwxrwx 1 root root  9 juin  18 14:56 md-uuid-996ffe8b:2bfa3038:abe1706a:a8b1e684 -> ../../md0
lrwxrwxrwx 1 root root  9 juin  18 14:56 wwn-0x50000f0000c9f981 -> ../../sdc
lrwxrwxrwx 1 root root 10 juin  18 14:56 wwn-0x50000f0000c9f981-part1 -> ../../sdc1
lrwxrwxrwx 1 root root  9 juin  18 14:56 wwn-0x50000f0008179109 -> ../../sdd
lrwxrwxrwx 1 root root 10 juin  18 14:56 wwn-0x50000f0008179109-part1 -> ../../sdd1
lrwxrwxrwx 1 root root  9 juin  18 14:56 wwn-0x5000c5009aca3f16 -> ../../sdb
lrwxrwxrwx 1 root root  9 juin  18 14:56 wwn-0x5000cca654e7cc8f -> ../../sda
lrwxrwxrwx 1 root root 10 juin  18 14:56 wwn-0x5000cca654e7cc8f-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 juin  18 14:56 wwn-0x5000cca654e7cc8f-part2 -> ../../sda2
lrwxrwxrwx 1 root root 10 juin  18 14:56 wwn-0x5000cca654e7cc8f-part5 -> ../../sda5

sudo mdadm -E /dev/sd[bcd]

/dev/sdb:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : adca0e63:cab31818:88897fe9:efa339fd
           Name : NASPerso:Partages
  Creation Time : Sat Oct 11 18:04:24 2014
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5860271024 (2794.40 GiB 3000.46 GB)
     Array Size : 5860270080 (5588.79 GiB 6000.92 GB)
  Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=944 sectors
          State : clean
    Device UUID : 8950b10e:cbebb1c8:5cef3495:f01a0380

    Update Time : Wed Apr  5 23:47:48 2017
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : f6c0441c - correct
         Events : 235868

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : A.. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc:
   MBR Magic : aa55
Partition[0] :   1953523120 sectors at         2048 (type 83)
/dev/sdd:
   MBR Magic : aa55
Partition[0] :   1953523120 sectors at         2048 (type 83)

sudo mdadm -A -v /dev/md1 /dev/sd[bcd]

mdadm: looking for devices for /dev/md1
mdadm: /dev/sdb is busy - skipping
mdadm: Cannot assemble mbr metadata on /dev/sdc
mdadm: /dev/sdc has no superblock - assembly aborted

Voici une autre commande essauyé
sudo mdadm -A -v /dev/md127 /dev/sdb /dev/sdc1 /dev/sdd1

mdadm: looking for devices for /dev/md127
mdadm: /dev/sdb is busy - skipping
mdadm: /dev/sdc1 is busy - skipping
mdadm: /dev/sdd1 is busy - skipping

Merci d'avance pour votre aides
Modération : merci d'utiliser des images de petite taille (300x300) ou des miniatures pointant sur ces images (Des hébergeurs comme Toile Libre, TDCT'Pix et hostingpics le permettent).

Dernière modification par bobregman (Le 18/06/2017, à 16:44)

Hors ligne

#15 Le 18/06/2017, à 22:11

jamesbad000

Re : Raid 5 Inactive

bobregman a écrit :

En gros il galère a trouver les disque il y en a toujours un qu'il trouve pas dans les disque en esclaves (donc un des 3To)

Il aurait fallu commencer par là.
C'est peine perdu d'essayer de remonter ce raid si les disques disparaissent régulièrement.
(La il manque encore 2 disques sur 3)

Ces disques sont habituellement connectés sur ce PC ?
Quelle est la puissance et la marque de l'alimentation électrique ?


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#16 Le 18/06/2017, à 23:04

bobregman

Re : Raid 5 Inactive

Encore merci de suivre le sujet

Je n'ai rien changer sur le PC et avant que je réinstalle tout ca marchait.

Je vais changer les nappes sata.

Mon alim et une 750w antec.

Je ferais ca demain soir merci

Hors ligne

#17 Le 19/06/2017, à 10:52

jamesbad000

Re : Raid 5 Inactive

En tout cas, ce n'est pas la réinstallation qui est la cause de ce défaut de détection des disques par le bios.

Par ailleurs avant de faire quelque manip que ce soit sur tes disques, prend la peine de vérifier qu'il sont là avec

sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT

il doivent apparaitre comme ceci.

  2,7T sdb     linux_raid_member NASPerso:Partages 
  2,7T sdc     linux_raid_member NASPerso:Partages 
  2,7T sdd     linux_raid_member NASPerso:Partages 

éventuellement les device (sdb,sdc,sdd) peuvent être différents mais les bon disques sont clairement identifiables par le nom du volume raid "NASPerso:Partages"

Et inutile d'insister à assembler des partitions (sdc1 sdd1). Ce volume raid n'utilise pas des disques partitionnés comme le montre clairement le résultat du lsblk. C'est l'autre volume raid "NASPerso:0" qui utilise des partitions

931,5G sde                                         
931,5G └─sde1  linux_raid_member NASPerso:0        
931,4G   └─md0 ext4                                
931,5G sdf                                         
931,5G └─sdf1  linux_raid_member NASPerso:0        
931,4G   └─md0 ext4

L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#18 Le 19/06/2017, à 14:41

bobregman

Re : Raid 5 Inactive

Bonjour,
encore merci vraiment de suivre se sujet et de continue a prendre du temps a le resoudre.

voici les résultats des commandes demandée

sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT

  SIZE NAME    FSTYPE            LABEL             MOUNTPOINT
465,8G sda                                         
461,8G ├─sda1  ext4                                /
    1K ├─sda2                                      
    4G └─sda5  swap                                [SWAP]
  2,7T sdb     linux_raid_member NASPerso:Partages 
931,5G sdc                                         
931,5G └─sdc1  linux_raid_member NASPerso:0        
931,4G   └─md0 ext4                                
931,5G sdd                                         
931,5G └─sdd1  linux_raid_member NASPerso:0        
931,4G   └─md0 ext4  

il en voit bien que un.

Je vais fermer tout et vérifier en débranchant tous sauf les 3 disque et le disque système voir.

Edit :

Après avoir tout débrancher rebrancher seulement les trois disque du raid 5 + le disque système, lecteur CD débranché et idem pour les deux disque en raid 1 etc.

au démarrage seulement 2 disques sont reconnu sur les 3 du raid5 et le disque systeme.
La commande ci dessus donne

  SIZE NAME   FSTYPE            LABEL             MOUNTPOINT
465,8G sda                                        
461,8G ├─sda1 ext4                                /
    1K ├─sda2                                     
    4G └─sda5 swap                                [SWAP]
  2,7T sdb    linux_raid_member NASPerso:Partages 

Je dois partir mais je vais essayé de changer les nappes sata se soir.

2 Nappe Sata changer sur 3 et toujours le même résultat qu'au dessus

Merci d'avance encore

Dernière modification par bobregman (Le 19/06/2017, à 15:29)

Hors ligne

#19 Le 19/06/2017, à 21:34

jamesbad000

Re : Raid 5 Inactive

bobregman a écrit :

2 Nappe Sata changer sur 3 et toujours le même résultat qu'au dessus

Juste pour éclaircir un peu les choses : Ca fait 2 fois que tu parles de changer les nappes sata
Alors que plus haut (et en conformité avec ce qui apparait dans les captures d'écran lors du démarrage du bios)
il est question de disques esclaves ==> Il s'agit donc d'IDE et non de sata.

Du coup, je ne vois pas  comment il pourrait y avoir 3 Nappes à changer, vu que sur l'ide il y 2 disques par nappes.

J'ajoute qu'il me semble que c'est plus le second port IDE qui est en cause que les disques esclaves sur chacun des 2 ports
Car dans le résultat de ls /dev/disk/by-id  :

ata-ST3000VN000-1HJ166_W730A1HP -> ../../sdb 

on voit que le n° de série du disque sdb correspond à celui du disque esclave sur le 1er port dans la photo d'écran !

Dernière modification par jamesbad000 (Le 19/06/2017, à 21:35)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#20 Le 19/06/2017, à 22:19

bobregman

Re : Raid 5 Inactive

Re bonsoir,

Je confirme mes disques sont bien tous en Sata la seul chose qui est en IDE dans ce PC est le Lecteur de CD

Pour éclaircir les chose :
dans ce PC
j'ai une carte mer GM41 Combo de Gigabyte avec 4 port sata intégré a la carte mère (1 DD 500Gopour le système et 3 DD 3To pour raid 5) et une carte Sata en PCi avec 2port sata et 2port sata externe sur laquelle 2DD 1To en Raid1.

J'ai donc changer mes nappes Sata voir si elle étaient défectueuses et en faisant des manip j'ai brancher les 2DD 3To sur la carte Sata PCi et cette fois deux disque sont reconnus. Donc je commence plancher sur une carte mère défectueuse a voir j'essaie plusieurs branchement.

Edit 23h30
Je pense que un disque crotte car quand j'en enlève 1 le PC démarre sans soucis détecte les 3 disque brancher (1DDsysteme + 2DD 3To)

sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT

  SIZE NAME   FSTYPE            LABEL             MOUNTPOINT
465,8G sda                                        
461,8G ├─sda1 ext4                                /
    1K ├─sda2                                     
    4G └─sda5 swap                                [SWAP]
  2,7T sdb    linux_raid_member NASPerso:Partages 
  2,7T sdc    linux_raid_member NASPerso:Partages

sudo mdadm --detail /dev/md127

/dev/md127:
        Version : 1.2
     Raid Level : raid0
  Total Devices : 2
    Persistence : Superblock is persistent

          State : inactive

           Name : NASPerso:Partages
           UUID : adca0e63:cab31818:88897fe9:efa339fd
         Events : 235868

    Number   Major   Minor   RaidDevice

       -       8       16        -        /dev/sdb
       -       8       32        -        /dev/sdc

Je débranche un disque et le remplace par le dernier disque et Hop le PC démarre très lentement et recherche de l'IDE de plus il détecte qu'un seul disque 3To sur 2.

Je viens aussi de changer la prise alim avec une prise alim qui marche de sur. et idem PC lent et un seul disque  détecter sur les 2 3To.

est ce qu'il est possible d'activer mon raid 5 avec 2 disques seulement (je crois avoir déjà vu ça quelques part, je vais rechercher ici https://wiki.debian-fr.xyz/Raid_logiciel_(mdadm)) ensuite sortir le disque défaillant ou surement dans un mauvais format (j’espère lol), le formater et le réintégrer ?? Normalement tous ca devrais pouvoir se faire sans perdre de données ?

encore merci vraiment car ca avance hihihi

Dernière modification par bobregman (Le 19/06/2017, à 22:53)

Hors ligne

#21 Le 19/06/2017, à 23:15

jamesbad000

Re : Raid 5 Inactive

bobregman a écrit :

est ce qu'il est possible d'activer mon raid 5 avec 2 disques seulement

Oui. Heureusement, sinon ça ne servirait à rien d'avoir 3 disques avec la capacité de seulement 2.

bobregman a écrit :

ensuite sortir le disque défaillant ou surement dans un mauvais format (j’espère lol), le formater

Ca part contre tu peux oublier. Le bios ignore tout du formatage, et il n'y a aucune chance qu'un tel problème est un effet sur la détection du disque.

Bon on reprend dans l'ordre (en supposant que les disques sont toujours bien en sdb/sdc, autrement tu adaptes en fonction de ce que dit lsblk, et tu peux t'abstenir de faire des tentatives avec des n° de partitions.

sudo ls -l /dev/disk/by-id
sudo mdadm -E /dev/sd[bc]
sudo mdadm -A -v -R /dev/md1 /dev/sd[bc] 

PS: et oublie un peu ton md127...

Edit : Ajout du paramètre -R sur mdadm, pour que puisse démarrer avec un disque de moins

Dernière modification par jamesbad000 (Le 19/06/2017, à 23:22)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#22 Le 19/06/2017, à 23:27

bobregman

Re : Raid 5 Inactive

Voici le retour des commandes

sudo ls -l /dev/disk/by-id
[sudo] Mot de passe de mcfly :
total 0
lrwxrwxrwx 1 root root  9 juin  19 23:45 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP -> ../../sda
lrwxrwxrwx 1 root root 10 juin  19 23:45 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 juin  19 23:45 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP-part2 -> ../../sda2
lrwxrwxrwx 1 root root 10 juin  19 23:45 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP-part5 -> ../../sda5
lrwxrwxrwx 1 root root  9 juin  19 23:45 ata-ST3000DM001-1E6166_W1F4ACSB -> ../../sdc
lrwxrwxrwx 1 root root  9 juin  19 23:45 ata-ST3000VN000-1HJ166_W730A1HP -> ../../sdb
lrwxrwxrwx 1 root root  9 juin  19 23:45 wwn-0x5000c5006e5f13a9 -> ../../sdc
lrwxrwxrwx 1 root root  9 juin  19 23:45 wwn-0x5000c5009aca3f16 -> ../../sdb
lrwxrwxrwx 1 root root  9 juin  19 23:45 wwn-0x5000cca654e7cc8f -> ../../sda
lrwxrwxrwx 1 root root 10 juin  19 23:45 wwn-0x5000cca654e7cc8f-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 juin  19 23:45 wwn-0x5000cca654e7cc8f-part2 -> ../../sda2
lrwxrwxrwx 1 root root 10 juin  19 23:45 wwn-0x5000cca654e7cc8f-part5 -> ../../sda5
mcfly@mcflyperso:~$ sudo mdadm -E /dev/sd[bc]
/dev/sdb:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : adca0e63:cab31818:88897fe9:efa339fd
           Name : NASPerso:Partages
  Creation Time : Sat Oct 11 18:04:24 2014
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5860271024 (2794.40 GiB 3000.46 GB)
     Array Size : 5860270080 (5588.79 GiB 6000.92 GB)
  Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=944 sectors
          State : clean
    Device UUID : 8950b10e:cbebb1c8:5cef3495:f01a0380

    Update Time : Wed Apr  5 23:47:48 2017
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : f6c0441c - correct
         Events : 235868

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : A.. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : adca0e63:cab31818:88897fe9:efa339fd
           Name : NASPerso:Partages
  Creation Time : Sat Oct 11 18:04:24 2014
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5860271024 (2794.40 GiB 3000.46 GB)
     Array Size : 5860270080 (5588.79 GiB 6000.92 GB)
  Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=944 sectors
          State : active
    Device UUID : 31cfb02e:91aae56f:54736238:6e5ff90e

    Update Time : Fri Sep 23 12:49:59 2016
       Checksum : ef0f40bf - correct
         Events : 126351

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
mcfly@mcflyperso:~$ sudo mdadm -A -v /dev/md1 /dev/sd[bc]
mdadm: looking for devices for /dev/md1
mdadm: /dev/sdb is busy - skipping
mdadm: /dev/sdc is busy - skipping
mcfly@mcflyperso:~$

sudo mdadm -A -v -R /dev/md1 /dev/sd[bc]
Idem avec le -R

Hors ligne

#23 Le 19/06/2017, à 23:35

jamesbad000

Re : Raid 5 Inactive

Busy... Hum oui il y a une tentative d'assemblage sur md127, il faut stopper ça d'abord

sudo mdadm -S /dev/md127
sudo mdadm -A -v -R /dev/md1 /dev/sd[bc]

L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#24 Le 19/06/2017, à 23:40

bobregman

Re : Raid 5 Inactive

Voici le retour

sudo mdadm -S /dev/md127
mdadm: stopped /dev/md127
sudo mdadm -A -v -R /dev/md1 /dev/sd[bc]
mdadm: looking for devices for /dev/md1
mdadm: /dev/sdb is identified as a member of /dev/md1, slot 0.
mdadm: /dev/sdc is identified as a member of /dev/md1, slot 2.
mdadm: no uptodate device for slot 2 of /dev/md1
mdadm: added /dev/sdc to /dev/md1 as 2 (possibly out of date)
mdadm: added /dev/sdb to /dev/md1 as 0
mdadm: failed to RUN_ARRAY /dev/md1: Input/output error
mdadm: Not enough devices to start the array.

Merci

Hors ligne

#25 Le 19/06/2017, à 23:47

jamesbad000

Re : Raid 5 Inactive

C'est ce que je craignais. Ton disque sdc est sortie du raid depuis des mois...

 /dev/sdc:
(...)
    Update Time : Fri Sep 23 12:49:59 2016
         Events : 126351

Celui là ne sert à rien. Il est totalement désynchronisé, et ne peut en aucun cas être assemblé avec sdb...
Il faut l'autre disque


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne