diff --git a/slurm/compute_predict_pose.slurm b/slurm/compute_predict_pose.slurm new file mode 100644 index 0000000000000000000000000000000000000000..debcb8f3902d3c6750600af01f782ddea6e82d32 --- /dev/null +++ b/slurm/compute_predict_pose.slurm @@ -0,0 +1,31 @@ +#!/bin/bash +#SBATCH --job-name=Pvnet # nom du job +#SBATCH -A uli@gpu +#SBATCH --ntasks=1 # Nombre de processus MPI +#SBATCH --cpus-per-task=10 # nombre de threads OpenMP +#SBATCH --hint=nomultithread # pas d'hyperthreading +#SBATCH --qos=qos_gpu-t4 +#SBATCH --gres=gpu:1 +#SBATCH --time=100:00:00 # Temps d’exécution max +#SBATCH --output=Output/Compute%j.out # fichier de sortie +#SBATCH --error=Output/Compute%j.out # fichier d'erreur + +# on se place dans le répertoire de soumission +cd ${SLURM_SUBMIT_DIR} + +module purge +# chargement des modules + +module load python/3.7.10 + +# echo des commandes lancées +set -x + + +cat_target=$1 +echo $cat_target + +conda activate yolo +python predict_pose.py -cls_name $cat_target + + diff --git a/slurm/pvnet.slurm b/slurm/pvnet.slurm new file mode 100644 index 0000000000000000000000000000000000000000..5886b8202f3cbb7676b3581c793b3eeba2506498 --- /dev/null +++ b/slurm/pvnet.slurm @@ -0,0 +1,32 @@ +#!/bin/bash +#SBATCH --job-name=Pvnet # nom du job +#SBATCH -A uli@gpu +#SBATCH --ntasks=1 # Nombre de processus MPI +#SBATCH --cpus-per-task=10 # nombre de threads OpenMP +#SBATCH --hint=nomultithread # pas d'hyperthreading +#SBATCH --qos=qos_gpu-t4 +#SBATCH --gres=gpu:1 +#SBATCH --time=100:00:00 # Temps d’exécution max +#SBATCH --output=Output/Pvnet%j.out # fichier de sortie +#SBATCH --error=Output/Pvnet%j.out # fichier d'erreur + +# on se place dans le répertoire de soumission +cd ${SLURM_SUBMIT_DIR} + +module purge +# chargement des modules + +module load python/3.7.10 + +# echo des commandes lancées +set -x + + +cat_target=$1 +echo $cat_target + + +conda activate tf +python models.py -cls_name $cat_target + +