Смонтируйте кэшированный том lvm2 из спасательной системы

356
K.A.B.

У меня есть следующие настройки:

root@system:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 30G 0 disk  ├─sda1 8:1 0 1M 0 part  ├─sda2 8:2 0 977M 0 part  │ └─md0 9:0 0 976,4M 0 raid1 /boot └─sda3 8:3 0 29G 0 part  └─md1 9:1 0 29G 0 raid1  └─vg00-root_corig 253:3 0 29G 0 lvm  └─vg00-root 253:0 0 29G 0 lvm / sdb 8:16 0 8G 0 disk  ├─vg00-cache_cdata 253:1 0 8G 0 lvm  │ └─vg00-root 253:0 0 29G 0 lvm / └─vg00-cache_cmeta 253:2 0 32M 0 lvm  └─vg00-root 253:0 0 29G 0 lvm / sr0 11:0 1 1024M 0 rom  root@system:~# lvs -a LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert [cache] vg00 Cwi---C--- 7,93g 0,51 3,22 0,00  [cache_cdata] vg00 Cwi-ao---- 7,93g  [cache_cmeta] vg00 ewi-ao---- 32,00m  [lvol0_pmspare] vg00 ewi------- 32,00m  root vg00 Cwi-aoC--- 29,02g [cache] [root_corig] 0,51 3,22 0,00  [root_corig] vg00 owi-aoC--- 29,02g  

Как видите, у меня есть группа томов, vg00которая охватывает 2 физических устройства sda(sda3)и sdb. Лв rootпомещают на raid1 md1. Это рейдовое устройство имеет только один диск. Это не имеет большого смысла для производственного использования. Пожалуйста, игнорируйте это на данный момент. Это происходит в других настройках и здесь не актуально.

Лв rootиспользует кэш writethrough с помощью DM-кэша.

Моя проблема: например, в случае, если система не загружается по какой-либо причине, мне нужно иметь возможность смонтировать мой lv, rootкоторый содержит root fs для восстановления файлов или исправления сбойной установки. Для этого я загружаюсь в спасательную среду и собираю raid1:

root@rescue:/# mdadm --assemble md1 /dev/sda3 mdadm: /dev/md/md1 has been started with 1 drive. 

Однако я не могу активировать lv root:

root@rescue:/# lvchange -a y vg00/root WARNING: Failed to connect to lvmetad. Falling back to device scanning. /dev/mapper/vg00-cache_cmeta: open failed: No such file or directory 

vgchange -a y vg00 дает тот же результат.

При попытке достаточно часто требуются lvs, cache_cmetaа cache_cdataиногда становятся активными ( lvs -a). В таком случае я могу создавать файлы сопоставления устройств с помощью vgmknodesи запускать lvchange -a y vg00/rootили vgchange -a yактивировать rootи монтировать устройство как обычно. Однако это не надежно.

Я не могу активировать кеш lvs вручную:

root@rescue:/# lvchange -a y vg00/cache_cmeta WARNING: Failed to connect to lvmetad. Falling back to device scanning. Unable to change internal LV vg00/cache_cmeta directly. 

Вопрос: Как правильно активировать кэшированный lv?

Я могу распаковать lv используя lvconcert --uncache vg00/rootнадежно, но я ищу надежный способ смонтировать rootlv без предварительного кеширования.

0
Из [этого] (https://askubuntu.com/a/752282) (и аналогичных данных, которые мне удалось найти с помощью [search] (https://www.google.com/search?q=Failed+to+connect + to + lvmetad)), из этого следует либо запустить `lvmedad`, который является демоном, прежде чем пытаться выполнять другие операции LVM, либо отключить его в конфигурации LVM и обновить initramfs: некоторые операции управления LVM станут медленнее, но они не будут зависеть от активности этого демона. kostix 5 лет назад 0
lvmetad недоступен для спасения. Это не должно влиять на работу. В любом случае я могу попробовать отключить его через config и посмотреть, что произойдет, но я сомневаюсь, что это что-то изменит. Я не могу обновить мои initramfs без доступа к моим rootfs. K.A.B. 5 лет назад 0

0 ответов на вопрос

Похожие вопросы