Ne pas cliquer
Parrain-Linux
recycle de vieilles machines
Écrire un nouveau message
Page : 1
RAID mdadm et le hot spare
Avatar
H2L29
modérateur
Parrain
Inscrit le : 11/03/2015
Messages : 383
Point(s) : 10434
Distribution : Debian
Localisation :
Brest, Finistère, France
Posté le 19/04/2017 à 21:57:26
Citer

salut :)
bon je me suis monté des grappes raid à des fins de tests donc les "j'aurai pas fait comme ça" je souhaite des réponses constructives, si vous n'en avez pas dirigez vous vers la sortie tire-langue

voici les informations:

cat /proc/mdstat
Citation:
Personalities : [raid10] [raid6] [raid5] [raid4] [raid0] [linear]
md0 : active raid5 sdc1[3](S) sdf1[2] sde1[1] sdd1[0]
      976488448 blocks super 1.2 level 5, 512k chunk, algorithm 4 [3/3] [UUU]
      bitmap: 0/4 pages [0KB], 65536KB chunk

md1 : active raid5 sdf2[2] sde2[1] sdd2[0]
      976492544 blocks super 1.2 level 5, 512k chunk, algorithm 4 [3/3] [UUU]
      bitmap: 0/4 pages [0KB], 65536KB chunk

md2 : active raid0 md1[1] md0[0]
      1952718848 blocks super 1.2 512k chunks

unused devices: <none>

mdadm -D /dev/md0
Citation:
/dev/md0:
        Version : 1.2
  Creation Time : Wed Apr 19 07:41:46 2017
     Raid Level : raid5
     Array Size : 976488448 (931.25 GiB 999.92 GB)
  Used Dev Size : 488244224 (465.63 GiB 499.96 GB)
   Raid Devices : 3
  Total Devices : 4
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Wed Apr 19 21:26:57 2017
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1

         Layout : parity-first
     Chunk Size : 512K

           Name : debian-nas:0  (local to host debian-nas)
           UUID : 6487007f:850aba30:162234b5:d8f01b37
         Events : 3523

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1
       2       8       81        2      active sync   /dev/sdf1

       3       8       33        -      spare   /dev/sdc1

mdadm -D /dev/md1
Citation:
/dev/md1:
        Version : 1.2
  Creation Time : Wed Apr 19 07:42:42 2017
     Raid Level : raid5
     Array Size : 976492544 (931.26 GiB 999.93 GB)
  Used Dev Size : 488246272 (465.63 GiB 499.96 GB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Wed Apr 19 17:27:39 2017
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : parity-first
     Chunk Size : 512K

           Name : debian-nas:1  (local to host debian-nas)
           UUID : c8cf17f3:06d85303:242a5a8d:af180452
         Events : 1676

    Number   Major   Minor   RaidDevice State
       0       8       50        0      active sync   /dev/sdd2
       1       8       66        1      active sync   /dev/sde2
       2       8       82        2      active sync   /dev/sdf2

mdadm -D /dev/md2
Citation:
/dev/md2:
        Version : 1.2
  Creation Time : Wed Apr 19 16:26:07 2017
     Raid Level : raid0
     Array Size : 1952718848 (1862.26 GiB 1999.58 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Wed Apr 19 16:26:07 2017
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 512K

           Name : debian-nas:2  (local to host debian-nas)
           UUID : bd68554d:dfb5c20a:072aaf9c:58bea7bf
         Events : 0

    Number   Major   Minor   RaidDevice State
       0       9        0        0      active sync   /dev/md0
       1       9        1        1      active sync   /dev/md1

cat /etc/mdadm/mdadm.conf
Citation:
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR h2l29@localhost

# definitions of existing MD arrays

# This configuration was auto-generated on Tue, 11 Apr 2017 11:05:52 +0200 by mkconf

ARRAY /dev/md0 uuid=6487007f:850aba30:162234b5:d8f01b37 spare-group=spare
ARRAY /dev/md1 uuid=c8cf17f3:06d85303:242a5a8d:af180452 spare-group=spare
ARRAY /dev/md2 uuid=bd68554d:dfb5c20a:072aaf9c:58bea7bf spare-group=spare


mon besoin:
créer un hot spare qui s'intègre automatiquement dans l'un ou l'autre des 2 raid5 si l'une des partitions venait à faillir

mon problème:
l'ordre des partitions semble jouer sur la priorité là le spare /dev/sdc1[3] n'intègre pas automatiquement un raid par contre si je vire une partition active, que je rebuild avec le spare, puis que j'ajoute de nouveau la partition et met sdc1 en fail la partition nouvellement ajoutée intègre automatiquement la grappe

ma question:
comment définir la priorité sur les éléments d'un raid?

_________________
http://www.parrain-linux.com/promotion.php?image=PL-user.png&membre=H2L29
http://h2l29.pagesperso-orange.fr/images/GIF001.GIF
pas d'aide par MP utilisez le forum c'est fait pour ça http://www.parrain-linux.com/images/emoticones/kopete020.gif
Remonter Descendre Permalien du message
Avatar
Antonin
utilisateur
Mixte
Inscrit le : 18/06/2014
Messages : 267
Point(s) : 1431
Localisation :
La Roche sur Yon, Vendée, France
Posté le 03/05/2017 à 07:44:11
Citer

Au besoin je m'étais fait un pense bête il y a une paire d'année : http://totone.fr/wiki/doku.php?id=raid_software
Il n'y a pas grand chose dessus mais au cas ou tu vois un ou deux trucs intéressant sait-on jamais.

Sinon pour l'ajouter et lui définir une priorité "forcée" à ma connaissance mdadm ne fait pas ça ou alors pas que je sache.
Car il prend de dispo le premier quand une partoche passe en failed mais par contre pour ça il faut le lancer en daemon mdam; dans /etc/default/mdadm je crois tu passe le machin à true et hop. et en cas de non lancement un dpkg-reconfigure mdadm réglera ton soucis enfin normalement.
Mais par contre j'en profite pour signaler que c'est bien tu est passé par des partoches et pas sur des hdd directement et ça c'est cool pour des histoires de gestion de superblock.

Dernière édition le 03/05/2017 à 07:52:05
Remonter Descendre Permalien du message
Écrire un nouveau message
Page : 1
Page générée en 0.0583 seconde(s).