From 4a5a68a3c984d8b188b212f77df847aafbce92df Mon Sep 17 00:00:00 2001 From: Guillaume-Duret <guillaume.duret@ec-lyon.fr> Date: Wed, 8 Mar 2023 17:07:57 +0100 Subject: [PATCH] slurm script to post proccess after rearange --- slurm/process_dataset.slurm | 35 +++++++++++++++++++++++++++++++++++ 1 file changed, 35 insertions(+) create mode 100644 slurm/process_dataset.slurm diff --git a/slurm/process_dataset.slurm b/slurm/process_dataset.slurm new file mode 100644 index 0000000..3be8940 --- /dev/null +++ b/slurm/process_dataset.slurm @@ -0,0 +1,35 @@ +#!/bin/bash +#SBATCH --job-name=Software # nom du job +#SBATCH -A uli@cpu +#SBATCH --ntasks=1 # Nombre total de processus MPI +#SBATCH --ntasks-per-node=1 # Nombre de processus MPI par noeud +#SBATCH --cpus-per-task=2 +#SBATCH --partition=cpu_p1 +#SBATCH --qos=qos_cpu-t4 +# /!\ Attention, la ligne suivante est trompeuse mais dans le vocabulaire +# de Slurm "multithread" fait bien référence à l'hyperthreading. +#SBATCH --hint=nomultithread # 1 processus MPI par coeur physique (pas d'hyperthreading) +#SBATCH --time=35:00:00 # Temps d’exécution maximum demande (HH:MM:SS) +#SBATCH --output=Output/postprocess%j.out # Nom du fichier de sortie +#SBATCH --error=Output/postprocess%j.out # Nom du fichier d'erreur (ici commun avec la sortie) + +# on se place dans le répertoire de soumission +cd ${SLURM_SUBMIT_DIR} + +# nettoyage des modules charges en interactif et herites par defaut +module purge + +# chargement des modules + +# echo des commandes lancées +set -x + +# exécution du code depuis l'espace d’exécution autorisé. +# Selon l’implémentation de MPI installée dans le conteneur, on positionnera l'option --mpi=pmix_v2 ou --mpi=pmix_v3 + +id_begin=$1 +Nb=$2 + +time(python3.6 main.py --World_begin="$id_begin" --Nb_world="$Nb") + + -- GitLab