Skip to content
Snippets Groups Projects
run_train_bert.slurm 1.1 KiB
Newer Older
#!/bin/bash
#SBATCH --job-name="train_bert"              # nom du job
#SBATCH --ntasks=1                      # nombre de taches a reserver (=nombre de GPU ici)
#SBATCH --gres=gpu:1                    # nombre de GPU a reserver
#SBATCH --cpus-per-task=10              # nombre de coeurs CPU par tache (un quart du noeud ici)
##SBATCH --qos=qos_gpu-t4
#SBATCH -C v100-32g
#SBATCH --hint=nomultithread             # hyperthreading desactive
#SBATCH --time=20:00:00              	  # temps maximum d'execution demande (HH:MM:SS)
#SBATCH --output=train_bert%j.out         # nom du fichier de sortie
#SBATCH --error=train_bert%j.out          # nom du fichier d'erreur (ici commun avec la sortie)
 
# nettoyage des modules charges en interactif et herites par defaut
module purge
 
# chargement des modules
module load pytorch-gpu/py3/1.7.1
 
# echo des commandes lancees
set -x
 
# execution du code
Ludovic Moncla's avatar
Ludovic Moncla committed
python training_bertFineTuning.py /gpfswork/rech/mqs/ugy94pd/EDdA-Classification/data/train_dataframe.tsv /gpfswork/rech/mqs/ugy94pd/EDdA-Classification/bert_settings.conf /gpfswork/rech/mqs/ugy94pd/EDdA-Classification/models/bert/