diff --git a/Classification/Models.md b/Classification/Models.md
index a8f2f300845bd5d1883f63da95cf930bba3d2c8b..6291ad0f005e10e98238ab45ab93c9777029a5fe 100644
--- a/Classification/Models.md
+++ b/Classification/Models.md
@@ -2,12 +2,14 @@
 
 Cette première section présente l'étude comparative menée pour choisir un modèle
 de classification, en commençant par exposer la démarche suivie avant de décrire
-son implémentation (sous-section \ref{sec:comparison_preparation}). La dernière
+son implémentation (sous-section \ref{sec:comparison_preparation}). La
 sous-section (\ref{sec:classifier_benchmark}) présente les résultats obtenus et
 discute leur signification tout en gardant à l'esprit le fait que les
 performances obtenues par les différentes méthodes présentées ne rejoignent pas
 nécessairement les raisons pour lesquelles les éditeurs d'encyclopédies
-assignent une classification aux articles.
+assignent une classification aux articles. La sous-section
+(\ref{sec:classifiers_unsupervised}) présente pour finir une brève expérience
+conduite sur des méthodes de classification non supervisées.
 
 ### Démarche
 
@@ -93,7 +95,7 @@ of Words* ou *TF-IDF* mais empêche l'usage de plongements de mots. De plus,
 puisque les modèles de la famille de *BERT* intègrent à la fois la
 représentation vectorielle de leurs entrées et les couches de classification,
 permettant de travailler directement à partir du texte, ils n'ont pas pu être
-combinées à d'autres méthodes de vectorisation. En tenant compte de ces
+combinés à d'autres méthodes de vectorisation. En tenant compte de ces
 remarques, les combinaisons testées sont les suivantes:
 
 1. Une vectorisation *BoW* et des algorithmes traditionnels d'AA (*Naive Bayes*,
@@ -107,7 +109,7 @@ remarques, les combinaisons testées sont les suivantes:
    et des algorithmes d'AP (*CNN* et *BiLSTM*);
 
 4. Une approche tout-en-un utilisant des modèles de langue contextuels
-   pré-entraînés (*BERT*, *CamemBERT*) dont les poids sont réajustés à la tâche
+   préentraînés (*BERT*, *CamemBERT*) dont les poids sont réajustés à la tâche
    dont il est question (*fine-tuning*).
 
 Pour les algorithmes d'[@=AA], la librairie Scikit-learn[^scikit-learn] et plus
@@ -119,7 +121,7 @@ préentraînés qui a été utilisée pour vectoriser les entrées et les
 implémentations des *CNN*s et des *BiLSTM*s proviennent de la librairie Keras.
 Le modèle de *CNN* testé emploie une architecture classique avec une couche de
 plongement pour des vecteurs de dimension 300 (la taille des vecteurs de mots
-pré-entraînés par *FastText*), une couche de convolution avec la fonction
+préentraînés par *FastText*), une couche de convolution avec la fonction
 d'activation ReLu, une couche de max-pooling et une couche softmax pour la
 sortie. Pour le modèle *BiLSTM*, plusieurs architectures ont été testées et
 celle retenue utilise une taille de vecteurs de 300 également, une couche
@@ -175,7 +177,7 @@ et le reste devient le jeu d'entraînement (*train*).
   train (max 500)               14 058
   test                          11 702
 
-  : Détail du nombre d'articles dans le corpus entier, le corpus pré-traité et
+  : Détail du nombre d'articles dans le corpus entier, le corpus prétraité et
   les jeux d'entraînement et de test.
   \label{tab:nb_articles_seuil} 
 
@@ -426,10 +428,10 @@ confondues avec *Commerce*, *Histoire naturelle*, *Médecine - Chirurgie* et
 classes illustrent les difficultés que rencontre un modèle pour choisir la
 classe qui convient le mieux à un article donné. Les résultats confirment que là
 où il y une forte proximité sémantique le modèle tend à choisir la classe la
-mieux représentée dans le jeu de donnée, privilégiant ainsi les domaines
+mieux représentée dans le jeu de données, privilégiant ainsi les domaines
 regroupés qui contiennent le plus d'articles.
 
-### Classification non supervisée
+### Classification non supervisée {#sec:classifiers_unsupervised}
 
 En complément des méthodes de classification supervisées, des tentatives ont été
 faites pour utiliser de l'apprentissage non supervisé, permettant d'étudier
diff --git a/Classification/Relations.md b/Classification/Relations.md
index 7a0f8bf461aff77d7692c11947dbc01e25f5e699..4c88f627b4272439c49979756feee995fdd65283 100644
--- a/Classification/Relations.md
+++ b/Classification/Relations.md
@@ -19,7 +19,7 @@ qui a été retenu pour cette étude et sera utilisé tout au long de cette sect
 Ce modèle parvient à classer correctement 9 630 des 11 702 articles, soit 82%.
 Ce sont les 2 072 autres, les erreurs, qui intéressent cette étude.
 
-### Des erreurs éloquentes {#sec:model_errors}
+### Observations préliminaires des erreurs {#sec:model_errors}
 
 Pour comprendre les facteurs amenant à ces erreurs il faut identifier clairement
 les paramètres en jeu, représentés schématiquement par la figure
@@ -88,7 +88,7 @@ plusieurs niveaux qui contribuent à la riche texture dialogique de l'*EDdA*»
 
 En un sens, cette étude conduite sur la seule *EDdA* s'inscrit entièrement dans
 la perspective de d'Alembert citée à la section \ref{sec:domains_build_classes}
-en considérant la classification automatique comme une projection utile pour
+en considérant la classification automatique comme une «projection» utile pour
 visualiser les articles: ceux dont la classe prédite correspond à la classe qui
 leur avait été assignée par les éditeurs et ceux pour lesquels elle ne
 correspond pas qui sont tout aussi intéressants. Mais il y a une tension
@@ -217,8 +217,7 @@ vraisemblablement le modèle vers la *Géographie* comme classification la plus
 probable. Ici encore dans le contexte des faux positifs, le modèle révèle son
 utilité pour mettre en lumière des contenus thématiques qui resteraient cachés
 en s'en tenant à la seule classification des auteurs, ici du vocabulaire
-disciplinaire qui pourrait relever de la géographie (voir section
-\ref{sec:contrasts_objects} p.\pageref{sec:contrasts_objects}). En général, les
+disciplinaire qui pourrait relever de la géographie. En général, les
 probabilités de prédiction pour un article donné décroissent très vite pour
 atteindre 0 après quelques classes (ce qui traduit la certitude d'après le
 modèle que l'article ne relève pas des classes suivantes) : il est remarquable