Метаданные рейда в сборе несовместимы с метаданными отдельных дисков?

368
user910763

У нас есть рейд 10 с двумя отказавшими дисками, с одним диском от каждого набора, все еще работающего.

При загрузке в систему спасения метаданные кажутся в порядке и соответствуют ожидаемому состоянию.

Метаданные из mdadm --detailmd следующие:

 Version : 1.1 Creation Time : Mon Mar 16 15:53:57 2015 Raid Level : raid10 Used Dev Size : 975581184 (930.39 GiB 999.00 GB) Raid Devices : 4 Total Devices : 2 Persistence : Superblock is persistent  Update Time : Mon May 28 08:52:58 2018 State : active, FAILED, Not Started  Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0  Layout : near=2 Chunk Size : 512K  Name : 2 UUID : 34f4a5fa:4b8e03fa:3119b353:f45188a0 Events : 8618632  Number Major Minor RaidDevice State 0 8 1 0 active sync set-A /dev/sda1 1 8 17 1 active sync set-B /dev/sdb1 4 0 0 4 removed 6 0 0 6 removed 

Система init не может собрать raid, а ядро ​​утверждает, что зеркал недостаточно.

(...) md/raid10:md2: not enough operational mirrors. md: pers->run() failed ... dracut: mdadm: failed to start array /dev/md2: Input/output error (...) 

Попытка собрать рейд вручную ( mdadm --assemble --readonly --force /dev/md2 /dev/sd[ab]1) дает следующее:

/dev/md2: Version : 1.1 Raid Level : raid0 Total Devices : 1 Persistence : Superblock is persistent  State : inactive  Name : 2 UUID : 34f4a5fa:4b8e03fa:3119b353:f45188a0 Events : 8618632  Number Major Minor RaidDevice  - 8 1 - /dev/sda1 

Проверка с --examineпомощью метаданных участвующих дисков дает нам согласованный вывод с ожидаемым состоянием (до ручной сборки и после):

/dev/sda1: Magic : a92b4efc Version : 1.1 Feature Map : 0x1 Array UUID : 34f4a5fa:4b8e03fa:3119b353:f45188a0 Name : 2 Creation Time : Mon Mar 16 15:53:57 2015 Raid Level : raid10 Raid Devices : 4  Avail Dev Size : 1951162368 (930.39 GiB 999.00 GB) Array Size : 1951162368 (1860.77 GiB 1997.99 GB) Data Offset : 262144 sectors Super Offset : 0 sectors Unused Space : before=262064 sectors, after=0 sectors State : clean Device UUID : 89288c87:2cf8f6cd:483328b4:fffb3db6  Internal Bitmap : 8 sectors from superblock Update Time : Mon May 28 08:52:58 2018 Bad Block Log : 512 entries available at offset 72 sectors Checksum : eaf59503 - correct Events : 8618632  Layout : near=2 Chunk Size : 512K  Device Role : Active device 0 Array State : AAA. ('A' == active, '.' == missing, 'R' == replacing) 

Мы знаем, что третий активный диск удален, но это не должно быть причиной проблемы.

Итак, два наших главных вопроса:

  1. Почему состояние массива несовместимо с отдельными дисками?
  2. Как это можно решить?

Для справки: CentOS 6 с ядром версии 2.6.32-696.30.1.el6.x86_64

3
@ Grawity: Не то, что мы знаем, мы проверим это в следующий раз, когда мы пойдем в систему. user910763 6 лет назад 0

0 ответов на вопрос

Похожие вопросы