Наконец-то некоторый прогресс!
dmraid
действительно был виновником, как и предполагалось в статье Википедии от mdadm . Я попытался удалить пакеты dmraid (и работает, update-initramfs
хотя я не уверен, что это актуально).
После этого и перезагрузки устройства /dev/mapper
перестали работать (это нормально - мне не нужен доступ к разделам Windows NTFS в Linux):
$ ls /dev/mapper/ control
И, главное, mdadm --create
работает!
$ sudo mdadm -Cv -l1 -n2 /dev/md0 /dev/sda4 /dev/sdb4 mdadm: size set to 241095104K mdadm: array /dev/md0 started.
Я проверил, /proc/mdstat
и mdadm --detail /dev/md0
оба показывают, что все в порядке с вновь созданным массивом.
$ cat /proc/mdstat [..] md0 : active raid1 sdb4[1] sda4[0] 241095104 blocks [2/2] [UU] [==========>..........] resync = 53.1% (128205632/241095104) finish=251.2min speed=7488K/sec
Затем я создал файловую систему на новом разделе:
$ sudo mkfs.ext4 /dev/md0
И, наконец, просто смонтировал эту вещь под /opt
(и обновил /etc/fstab
). (Конечно, я мог бы и здесь использовать LVM, но, честно говоря, в этом случае я не видел в этом никакого смысла, и я уже потратил достаточно времени, пытаясь заставить это работать ...)
Итак, теперь раздел RAID готов к использованию, и у меня достаточно места на диске. :-)
$ df -h Filesystem Size Used Avail Use% Mounted on /dev/sdc5 70G 52G 15G 79% / /dev/md0 227G 188M 215G 1% /opt
Обновление : все еще есть некоторые проблемы с этим моим устройством RAID. После перезагрузки его не удается смонтировать, хотя он у меня есть в fstab, и иногда (после перезагрузки) он оказывается в неактивном состоянии и не может быть смонтирован даже вручную. Смотрите следующий вопрос, который я разместил.