крутящий момент в кластере

1038
Tim

Я учусь и у меня есть несколько вопросов об использовании PBS для отправки работ в кластере.

(1) Если задание распараллеливается MPI и запускается mpirun без использования qsub, оно может выполняться на разных узлах. Так какой смысл использовать qsub?

Задание не отправлено в очередь qsub или нет?

(2) В сценарии pbs, который представлен qsub, все команды выполняются одна за другой?

Если я хочу запустить несколько исполняемых файлов одновременно, стоит ли сделать эти вызовы фоновыми, добавив в конце «&»?

(3) В сценарии pbs, если несколько вызовов для запуска исполняемых файлов выполняются в одно и то же время при запуске в фоновом режиме, определяется ли количество узлов и процессоров на узлы как общее количество, необходимое для всех этих вызовов?

Если да, и число узлов и процессоров на указанные узлы не полностью доступно, но достаточно для выполнения некоторых вызовов, будут ли некоторые из этих вызовов выполняться первыми или с задержкой, пока запрошенные общие ресурсы не станут полностью доступными?

Спасибо!


ОБНОВИТЬ:

Чтобы вы лучше поняли мои вопросы выше, наш кластер представляет собой кластер Linux с Torque и Maui. Я читаю учебники в Интернете и нахожу, что компиляция происходит только на головном узле, и после отправки задания qsub другие узлы запускают исполняемый файл, скомпилированный на головном узле. Вот почему у меня возникают вопросы.

0
Ваш пост содержит слишком много отдельных вопросов. Это не очень подходит для нашего формата вопросов и ответов, поэтому, пожалуйста, создайте отдельные сообщения для каждой отдельной проблемы, которая у вас есть. Смотрите также: [Одно сообщение с несколькими вопросами или несколькими сообщениями?] (Http://meta.stackexchange.com/q/39223) bwDraco 9 лет назад 0

2 ответа на вопрос

0
Troggy

Чтобы ответить на ваш первый вопрос. MPI должен быть настроен с доступными узлами и количеством доступных процессорных ядер, а MPI должен обрабатывать все распределение, если оно закодировано правильно. По крайней мере, так я помню, как работал MPI, когда я его использовал. Я использовал дистрибутив LAM-MPI, поэтому, возможно, некоторые вещи были другими.

Что касается PBS, я еще не использовал это, но я нашел эту университетскую страницу, объясняющую некоторые основы прогонов и спецификации:

http://euler.phys.cmu.edu/cluster/pbs.html

0
Jimmy Hedman

Некоторое время я не использовал PBS, только SGE, поэтому эти ответы могут быть несколько ориентированы на SGE.

Причина использования системы очередей состоит в том, чтобы лучше использовать ваши ресурсы. Если у вас кластер из 1000 узлов и 100 пользователей, вы не хотите, чтобы все они входили в систему и пытались запустить mpirun, чтобы использовать все 1000 узлов. Вместо этого вы позволяете им отправлять задания с запросом ресурсов (например, 10–20 процессоров, 4 ГБ памяти и т. Д.), А система очередей заботится о распределении заданий на доступных машинах. Кроме того, если у вас не так много пользователей и такого большого кластера, у вас может быть 100 рабочих мест, которые вам нужно выполнить. Просто отправьте все из них в систему очередей, пусть она будет работать в фоновом режиме, ночью и в выходные дни, и все ваши ресурсы будут использованы эффективно. Одна крутая вещь, которую вы можете сделать, это позволить системе очередей запускаться и останавливать ваши машины в зависимости от спроса, чтобы, если у вас не было заданий, он отключал ваши узлы, а при отправке заданий запускал правильное количество машин. Потенциально может сэкономить много энергии!

Сценарий выполняется так же, как если бы вы запускали его вручную, он просто имеет среду, которая знает, какие узлы использовать, какой каталог запускать и тому подобное. Если вы действительно хотите, чтобы задания выполнялись в фоновом режиме, вы можете начать их с символа & в конце, но не забудьте дождаться запуска заданий в конце, иначе вы можете получить несоответствие между ресурсами, о которых знает ваша система очереди, и реальными ресурсами. имеется в наличии.

Похожие вопросы