Это возможно с помощью ceph_conf_overrides
параметра ( http://docs.ceph.com/ceph-ansible/master/#ceph-conf-configuration ).
ceph_conf_overrides: osd: osd map cache size: 40 osd map max advance: 32 osd map message max: 32
В настоящее время я развертываю кластер ceph на нескольких компьютерах на базе ARM, а именно HC2 от ODROID, оснащенного 4- дисковыми накопителями WD Red Drive. Я также нашел статью из лабораторий WD, которая выполняет ту же задачу в больших масштабах (504 OSD), предлагая настроить параметры OSD с помощью
osd map cache size = 40 osd map max advance = 32 osd map message max = 32
Теперь мне интересно (не только для одних только этих опций), как поместить их в ansible group_vars или host vars, чтобы приспособить относительно низкие ресурсы на HC2s.
В настоящее время я считаю, что это невозможно с текущими ceph-ansible playbooks.
Буду очень признателен, если кто-нибудь подскажет мне об этом. Кажется, что ceph-ansible действительно не использует файлы шаблонов для конфигурации (только в качестве заполнителей), так как же это можно расширить или настроить, чтобы сделать эти настройки возможными?
Это возможно с помощью ceph_conf_overrides
параметра ( http://docs.ceph.com/ceph-ansible/master/#ceph-conf-configuration ).
ceph_conf_overrides: osd: osd map cache size: 40 osd map max advance: 32 osd map message max: 32