diff --git a/slurm/compute_predict_pose.slurm b/slurm/compute_predict_pose.slurm
new file mode 100644
index 0000000000000000000000000000000000000000..debcb8f3902d3c6750600af01f782ddea6e82d32
--- /dev/null
+++ b/slurm/compute_predict_pose.slurm
@@ -0,0 +1,31 @@
+#!/bin/bash
+#SBATCH --job-name=Pvnet # nom du job
+#SBATCH -A uli@gpu
+#SBATCH --ntasks=1 # Nombre de processus MPI
+#SBATCH --cpus-per-task=10 # nombre de threads OpenMP
+#SBATCH --hint=nomultithread # pas d'hyperthreading
+#SBATCH --qos=qos_gpu-t4
+#SBATCH --gres=gpu:1
+#SBATCH --time=100:00:00 # Temps d’exécution max
+#SBATCH --output=Output/Compute%j.out # fichier de sortie
+#SBATCH --error=Output/Compute%j.out # fichier d'erreur
+
+# on se place dans le répertoire de soumission
+cd ${SLURM_SUBMIT_DIR}
+
+module purge
+# chargement des modules
+
+module load python/3.7.10
+
+# echo des commandes lancées
+set -x
+
+
+cat_target=$1
+echo $cat_target
+
+conda activate yolo
+python predict_pose.py -cls_name $cat_target
+
+
diff --git a/slurm/pvnet.slurm b/slurm/pvnet.slurm
new file mode 100644
index 0000000000000000000000000000000000000000..5886b8202f3cbb7676b3581c793b3eeba2506498
--- /dev/null
+++ b/slurm/pvnet.slurm
@@ -0,0 +1,32 @@
+#!/bin/bash
+#SBATCH --job-name=Pvnet # nom du job
+#SBATCH -A uli@gpu
+#SBATCH --ntasks=1 # Nombre de processus MPI
+#SBATCH --cpus-per-task=10 # nombre de threads OpenMP
+#SBATCH --hint=nomultithread # pas d'hyperthreading
+#SBATCH --qos=qos_gpu-t4
+#SBATCH --gres=gpu:1
+#SBATCH --time=100:00:00 # Temps d’exécution max
+#SBATCH --output=Output/Pvnet%j.out # fichier de sortie
+#SBATCH --error=Output/Pvnet%j.out # fichier d'erreur
+
+# on se place dans le répertoire de soumission
+cd ${SLURM_SUBMIT_DIR}
+
+module purge
+# chargement des modules
+
+module load python/3.7.10
+
+# echo des commandes lancées
+set -x
+
+
+cat_target=$1
+echo $cat_target
+
+
+conda activate tf
+python models.py -cls_name $cat_target
+
+