Является ли программный RAID5 или zraid1 аппаратно жестким диском в CentOS 7 Linux?

365
J Collins

У меня были постоянные проблемы с использованием внешних массивов жестких дисков под CentOS 7, независимо от того, были ли они подключены через соединение USB3 или eSATA, где в формате данных использовалась единая избыточность в массиве из 5 дисков. У одинаковых накопителей и внешнего корпуса никогда не возникало проблем в конфигурации с полосой или зеркалом.

Пояснение к @Attie: Под этим я подразумеваю, что у меня постоянно работает полоса raid0 на 5 одинаковых дисках в одинаковом корпусе, подключенном к идентичной интерфейсной карте на сервере. Это составило пул хранения объемом 5 ГБ, в котором на сегодняшний день нет событий офлайн или повреждения. Резервный массив 4 ГБ с четностью 1 ГБ. Зеркало состояло из двух дисков с горячим резервом, использующих сначала RAID1, а затем зеркало zfs.

Я могу работать с полосой на полной скорости без проблем. Я могу экспортировать пул zfs из избыточного массива и запустить, скажем, badblocksна каждом диске в этом массиве одновременно и не видеть никаких признаков проблемы.

Симптом, по-видимому, заключается в том, что все диски выпадают одновременно, и контроллер массива (md или zfs) думает, что произошел катастрофический сбой диска, и он не справился.

Общим знаменателем является формат данных, но симптом, похоже, не соответствует износу диска. Симптом вместо этого предлагает прерывания соединения между коробкой диска на сервер.

Я видел некоторые предположения о дисках с ограничением RAID, однако я не знаю, как диск знает, что он находится в RAID, и что это меняет в отношении его предела. Я также видел некоторые упоминания на форумах «Ах, я вижу, что вы используете WD Reds», однако я не смог найти его снова в качестве ссылки здесь.

Есть ли что-то интенсивное в том, как RAID5 и zraid1 работают с жесткими дисками, до такой степени, что однокабельное межсоединение могло бы выполнить жесткий сброс или мгновенное отключение? Есть ли обходной путь для этого условия?

  • Технические характеристики накопителя: 1 ТБ WD Red WD10EFRX SATA 3.5
  • Чип мультиплексора коробки привода eSATA: SiI 3726
  • Чип сервера eSATA: SiI 3132
  • USB3 накопитель: ICY BOX IB-3810U3
    • Чип мультиплексора: ASMedia ASM1074L
  • Серверная материнская плата USB3 хоста: Gigabyte GA-B85-HD3 SKT 1150

Вопросы, связанные с данной: Внешне подключенный пул ZFS зависает, никаких признаков ошибок на дисках

0

1 ответ на вопрос

0
Attie

Я видел ваши другие вопросы об этом приложении ... это может быть не совсем стандарт "ответа", но это слишком много для комментария.

Пожалуйста, вы можете уточнить ваши комментарии:

  • Вы использовали 5x полоску диска? (какой был размер полосы?)
  • Сколько дисков было задействовано в зеркале?
  • Вы пробовали установку типа RAID10?

Если вы просто вставите 5x диски в корпус и попытаетесь получить к ним доступ одновременно, вы видите похожие проблемы?

Например, попробуйте следующее (корректируя соответствующим образом):

for disk in /dev/sd; do dd if=$ of=/dev/null bs=512 count=4G iflag=count_bytes & done wait 

Это позволит одновременно получить доступ ко всем 5x дискам с блоками по 512 байт, читая первые 4 ГБ.

Как насчет записи на отдельные диски?

Обновили информацию согласно вашему запросу, любые дополнительные запросы информации приветствуются. J Collins 6 лет назад 0