Правила работы

На кластере установлена система управления заданиями Slurm. ( https://support.ceci-hpc.be/doc/_contents/QuickStart/SubmittingJobs/SlurmTutorial.html )

Так-же, на кластере установлена оснастка Lmod https://lmod.readthedocs.io/en/latest/

Доступные очереди заданий:

common — узлы общего назначения (11 узлов х 128 потоков х 256Гб ОЗУ)

brain1 — узлы с большой памятью (4 узла х 256 потоков х 1Тб ОЗУ)

operation — узел с экста-большой памятью (1 узел х 256 потоков х 2Тб ОЗУ)

gpunode — узел с GPU (1 узел х 96 потоков х 512Гб ОЗУ, 2 x Nvidia Tesla T4)

Запуск задач на управляющем узле — категорически запрещен

Прежде чем начинать работать на кластере!

для биоинформатиков: установить Miniconda (скрипт установки находится в /home/prog/ ) в вашу домашнюю директорию, подключить bioconda, создать environments под задачу, установить туда ПО.
Необходимо запросить временный раздел для данных ws_allocate -m <your e-mail>  <label> <nday>   (памятка по командам:  https://www.mankier.com/package/workspace)
    Example: ws_allocate -m user@example.com work 10
эта команда вернет путь к разделу на который необходимо будет переместить данные для работы.
    <nday>  - количество дней  после которых система автоматически удалит раздел
Далее, перейти во временный раздел куда были перемещены данные.
Написать скрипт для sbatch
запустить.
После окончания всех работ, поместить результаты на NFS. (создать каталог /sf/nfs/${username} )