#!/bin/bash #SBATCH --job-name="train_bert" # nom du job #SBATCH --ntasks=1 # nombre de taches a reserver (=nombre de GPU ici) #SBATCH --gres=gpu:1 # nombre de GPU a reserver #SBATCH --cpus-per-task=10 # nombre de coeurs CPU par tache (un quart du noeud ici) ##SBATCH --qos=qos_gpu-t4 #SBATCH -C v100-32g #SBATCH --hint=nomultithread # hyperthreading desactive #SBATCH --time=20:00:00 # temps maximum d'execution demande (HH:MM:SS) #SBATCH --output=train_bert%j.out # nom du fichier de sortie #SBATCH --error=train_bert%j.out # nom du fichier d'erreur (ici commun avec la sortie) # nettoyage des modules charges en interactif et herites par defaut module purge # chargement des modules module load pytorch-gpu/py3/1.7.1 # echo des commandes lancees set -x # execution du code python training_bertFineTuning.py /gpfswork/rech/mqs/ugy94pd/EDdA-Classification/data/train_dataframe.tsv /gpfswork/rech/mqs/ugy94pd/EDdA-Classification/bert_settings.conf /gpfswork/rech/mqs/ugy94pd/EDdA-Classification/models/bert/