ZFS волшебным образом исчезает из доступного места для хранения

331
Christopher Glenn Schlägel

ОК, это сводит меня с ума. Запуск zfs в системе, и мой корневой раздел сокращался, казалось бы, без объяснения причин. Теперь у меня закончилось пространство и я не могу найти, куда все это пошло.

Простое dfпоказывает следующее:

[root@SV02 /]# df -h Filesystem Size Used Available Capacity Mounted on rpool/ROOT/opus-2457409-2017-11-07-release 90G 6.6G 35G 16% / swap 11G 404K 11G 1% /etc/svc/volatile ... /usr/lib/libc/libc_hwcap1.so.1 41G 6.6G 35G 16% /lib/libc.so.1 ... swap 11G 4K 11G 1% /tmp swap 11G 60K 11G 1% /var/run rpool/export 90G 32K 35G 1% /export rpool/export/home 90G 86K 35G 1% /export/home rpool/export/home/open 90G 404M 35G 2% /export/home/open rpool 90G 43K 35G 1% /rpool 

Используется / доступно не соответствует ... Попытка отследить:

[root@SV02 /]# du -sh * | sort -h | tail -10 10M root 48M lib 58M etc 141M kernel 174M platform 405M export 1.5G opt 1.5G usr 3.1G var 3.6G proc 

Хорошо, там всего несколько гигабайт данных ... подумал, может быть, снимок, но это не так:

[root@SV02 /]# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT rpool 55.5G 34.6G 43.5K /rpool rpool/ROOT 38.6G 34.6G 31K legacy rpool/ROOT/C_Backup1 1.24M 34.6G 5.61G / rpool/ROOT/C_backup2 1.33M 34.6G 5.61G / rpool/ROOT/napp-it-0.8l3 3.00M 34.6G 2.10G / rpool/ROOT/napp-it-0.9e1 1.66M 34.6G 5.61G / rpool/ROOT/nfsv4 54K 34.6G 2.11G / rpool/ROOT/openindiana 18.3M 34.6G 2.02G / rpool/ROOT/opus-2457044-2015-01-31-install 65.4M 34.6G 31.6G /a rpool/ROOT/opus-2457044-2015-01-31-preinstall 1K 34.6G 5.61G / rpool/ROOT/opus-2457044-2015-05-19-pre15 45K 34.6G 6.32G / rpool/ROOT/opus-2457044-2016-10-03-backup 52K 34.6G 31.3G / rpool/ROOT/opus-2457409-2016-10-04-install 15.5M 34.6G 31.7G /a rpool/ROOT/opus-2457409-2016-10-04-preinstall 52K 34.6G 31.5G / rpool/ROOT/opus-2457409-2017-11-07-release 38.5G 34.6G 6.57G / rpool/ROOT/opus-2457409-2017-11-07-release@install 4.40M - 1.56G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-02-25-22:01:25 6.64M - 1.58G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-02-25-22:05:33 84.6M - 2.02G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-03-19-23:25:59 58.0M - 2.11G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-04-12-17:55:40 0 - 2.10G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-04-12-17:55:48 0 - 2.10G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-04-12-18:13:10 1.44M - 2.10G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-04-12-18:14:31 2.17M - 2.12G - rpool/ROOT/opus-2457409-2017-11-07-release@2015-01-31-21:55:47 15.3M - 5.61G - rpool/ROOT/opus-2457409-2017-11-07-release@2015-01-31-22:34:52 9.18M - 5.61G - rpool/ROOT/opus-2457409-2017-11-07-release@2015-01-31-22:43:54 362K - 5.61G - rpool/ROOT/opus-2457409-2017-11-07-release@2015-01-31-22:44:05 362K - 5.61G - rpool/ROOT/opus-2457409-2017-11-07-release@2015-05-19-21:49:36 227M - 6.32G - rpool/ROOT/opus-2457409-2017-11-07-release@2016-10-04-16:11:30 3.15M - 31.3G - rpool/ROOT/opus-2457409-2017-11-07-release@2016-10-04-16:34:30 936K - 31.5G - rpool/ROOT/opus-2457409-2017-11-07-release@2016-10-04-16:34:42 986K - 31.5G - rpool/ROOT/opus-2457409-2017-11-07-release@2016-10-04-16:53:00 112M - 31.8G - rpool/ROOT/pre_napp-it-0.8l3 35K 34.6G 1.58G / rpool/ROOT/pre_napp-it-0.9e1 71K 34.6G 2.10G / rpool/ROOT/sv02-4-10-14 70K 34.6G 2.10G / rpool/ROOT/sv02-4-10-14-v2 4.17M 34.6G 2.12G / rpool/dump 8.00G 34.6G 8.00G - rpool/export 404M 34.6G 32K /export rpool/export/home 404M 34.6G 86.5K /export/home rpool/export/home/open 404M 34.6G 404M /export/home/open rpool/swap 8.50G 43.0G 132M - 

34 гигабайта доступно, но где, я не знаю? В недоумении и, к сожалению, я не совсем хорошо понимаю zfs для правильного устранения неполадок. Он сохраняется после перезагрузки, и я не удалял ни одного большого файла или чего-либо еще в последнее время, так что не думайте, что это процесс, удерживающий что-либо ... Любое направление будет оценено.

Сложение:

[root@SV02 /]# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT rpool 23.5G 66.6G 43.5K /rpool rpool/ROOT 6.58G 66.6G 31K legacy rpool/ROOT/opus-2457409-2017-11-07-release 6.58G 66.6G 6.58G / rpool/dump 8.00G 66.6G 8.00G - rpool/export 404M 66.6G 32K /export rpool/export/home 404M 66.6G 86.5K /export/home rpool/export/home/open 404M 66.6G 404M /export/home/open rpool/swap 8.50G 75.0G 132M - 
1

1 ответ на вопрос

1
Dan

Похоже, есть несколько наборов данных «конечных узлов» (без под-наборов данных), которые составляют большую часть вашего использования диска rpool:

rpool/ROOT/opus-2457409-2017-11-07-release 38.5G rpool/dump 8.00G rpool/swap 8.50G 

Это подводит итог к 55G, что довольно близко к сообщаемой 55.5G для rpool«с USED. Предположительно, вы хотите сохранить rpool/dumpи rpool/swapопределить, какие они есть сейчас, так что это просто означает, rpool/ROOT/opus-...-11-07-releaseчто вы можете потенциально удалить вещи, чтобы освободить место.

По какой-то причине я не понимаю, в ваших выходных данных точка монтирования для этого набора данных указана как /, но она одинакова для всех других наборов данных. Вы не можете монтировать несколько файловых систем в один и тот же каталог, так что явно что-то там запутано. Попробуйте создать новый каталог, zfs mountдобавив туда набор данных, определив материал, из которого нужно удалить из него du, а затем удалив некоторые файлы.

К сожалению, когда вы удалите что-то там, вы быстро поймете, что это не освобождает пространство, и это потому, что у вас есть куча снимков этого набора данных:

rpool/ROOT/opus-2457409-2017-11-07-release 38.5G 34.6G 6.57G / rpool/ROOT/opus-2457409-2017-11-07-release@install 4.40M - 1.56G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-02-25-22:01:25 6.64M - 1.58G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-02-25-22:05:33 84.6M - 2.02G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-03-19-23:25:59 58.0M - 2.11G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-04-12-17:55:40 0 - 2.10G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-04-12-17:55:48 0 - 2.10G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-04-12-18:13:10 1.44M - 2.10G - rpool/ROOT/opus-2457409-2017-11-07-release@2014-04-12-18:14:31 2.17M - 2.12G - rpool/ROOT/opus-2457409-2017-11-07-release@2015-01-31-21:55:47 15.3M - 5.61G - rpool/ROOT/opus-2457409-2017-11-07-release@2015-01-31-22:34:52 9.18M - 5.61G - rpool/ROOT/opus-2457409-2017-11-07-release@2015-01-31-22:43:54 362K - 5.61G - rpool/ROOT/opus-2457409-2017-11-07-release@2015-01-31-22:44:05 362K - 5.61G - rpool/ROOT/opus-2457409-2017-11-07-release@2015-05-19-21:49:36 227M - 6.32G - rpool/ROOT/opus-2457409-2017-11-07-release@2016-10-04-16:11:30 3.15M - 31.3G - rpool/ROOT/opus-2457409-2017-11-07-release@2016-10-04-16:34:30 936K - 31.5G - rpool/ROOT/opus-2457409-2017-11-07-release@2016-10-04-16:34:42 986K - 31.5G - rpool/ROOT/opus-2457409-2017-11-07-release@2016-10-04-16:53:00 112M - 31.8G - 

В частности, проверьте последний, @2016-10-04-16:53:00- 31,8G из общего числа 38,5G будет сохранено этим снимком. Похоже, что большая часть использования восходит по крайней мере @2016-10-04-16:11:30, так что вы хотите удалить (по крайней мере) эти снимки, а также восстановить большую часть ваших данных:

rpool/ROOT/opus-2457409-2017-11-07-release@2016-10-04-16:11:30 3.15M - 31.3G - rpool/ROOT/opus-2457409-2017-11-07-release@2016-10-04-16:34:30 936K - 31.5G - rpool/ROOT/opus-2457409-2017-11-07-release@2016-10-04-16:34:42 986K - 31.5G - rpool/ROOT/opus-2457409-2017-11-07-release@2016-10-04-16:53:00 112M - 31.8G - 

Если вам не нужны даже более старые снимки, вы также можете их удалить. Как общая рекомендация, обычно лучше хранить снимки только столько, сколько вам нужно, а не на неопределенный срок, потому что вы в конечном итоге случайно сделаете что-то большое в одном из них и попадете в такую ​​ситуацию.

ОК удалил ВСЕ снимки. Ненужные. Я ожидал, что это освободит место, но это не так? Хотя это и туманно ... rpool / ROOT / opus-2457409-2017-11-07-release смонтирован на /, но это говорит о том, что доступно 34.6G. тогда как df говорит, что он полон. Du демонстрирует минимальное использование, поэтому мне нечего удалять. Что занимает 38.5G Я думаю, это то, что мне нужно выяснить, но как? Christopher Glenn Schlägel 6 лет назад 0
@ ChristopherGlennSchlägel это не просто снимки - точка монтирования не кажется мне правильной, как я упоминал выше. Вы пытались установить эту ФС где-нибудь еще и смотреть в нее? Если так, что вы нашли? Dan 6 лет назад 0
Попробуем сейчас ... если я смонтирую это в другой каталог, это не прервет текущее монтирование? Если это активная корневая файловая система, не нужно рисковать, потому что это рабочий сервер ... Christopher Glenn Schlägel 6 лет назад 0
@ ChristopherGlennSchlägel Вы также можете сначала создать клон и смонтировать его где-нибудь, чтобы сравнить его содержимое с /. Если они одинаковые, я думаю, вам придется обновить ваш вопрос новым выводом из списка zfs -t все. Dan 6 лет назад 0
только что добавил вывод для этого к оригинальному сообщению Christopher Glenn Schlägel 6 лет назад 0
@ ChristopherGlennSchlägel: Вы все еще видите проблемы? Похоже, теперь у вас есть больше свободного места на `rpool` - с 34,6 ГБ, доступных ранее, до 66,6 ГБ, доступных сейчас. Dan 6 лет назад 0
* точка монтирования для этого набора данных указана как /, но она одинакова для всех других наборов данных * Не имеет значения. Точка монтирования - это просто свойство ZFS. Это не означает, что набор данных фактически смонтирован - это именно то, где он * будет * смонтирован, если ZFS попытается его смонтировать. Похоже, в системе ОП настроено несколько различных [загрузочных сред] (https://docs.oracle.com/cd/E23824_01/html/821-2726/gkwcz.html). Andrew Henle 6 лет назад 0

Похожие вопросы