diff --git a/slurm/process_dataset.slurm b/slurm/process_dataset.slurm
new file mode 100644
index 0000000000000000000000000000000000000000..3be8940e55fb4f2e11066ef016ca4cf5a164ab2b
--- /dev/null
+++ b/slurm/process_dataset.slurm
@@ -0,0 +1,35 @@
+#!/bin/bash
+#SBATCH --job-name=Software      # nom du job
+#SBATCH -A uli@cpu
+#SBATCH --ntasks=1                    # Nombre total de processus MPI
+#SBATCH --ntasks-per-node=1           # Nombre de processus MPI par noeud
+#SBATCH --cpus-per-task=2
+#SBATCH --partition=cpu_p1
+#SBATCH --qos=qos_cpu-t4
+# /!\ Attention, la ligne suivante est trompeuse mais dans le vocabulaire
+# de Slurm "multithread" fait bien référence à l'hyperthreading.
+#SBATCH --hint=nomultithread           # 1 processus MPI par coeur physique (pas d'hyperthreading)
+#SBATCH --time=35:00:00                # Temps d’exécution maximum demande (HH:MM:SS)
+#SBATCH --output=Output/postprocess%j.out  # Nom du fichier de sortie
+#SBATCH --error=Output/postprocess%j.out   # Nom du fichier d'erreur (ici commun avec la sortie)
+ 
+# on se place dans le répertoire de soumission
+cd ${SLURM_SUBMIT_DIR}
+ 
+# nettoyage des modules charges en interactif et herites par defaut
+module purge
+ 
+# chargement des modules
+ 
+# echo des commandes lancées
+set -x
+ 
+# exécution du code depuis l'espace d’exécution autorisé.
+# Selon l’implémentation de MPI installée dans le conteneur, on positionnera l'option --mpi=pmix_v2 ou --mpi=pmix_v3
+
+id_begin=$1
+Nb=$2
+
+time(python3.6 main.py --World_begin="$id_begin" --Nb_world="$Nb")
+
+