diff --git a/README.md b/README.md
index ca428de94e3467d7b6c9253dd8398eb2a77e0e46..c85b5959da6de3b6687471ca26d0433a700605f1 100644
--- a/README.md
+++ b/README.md
@@ -3,19 +3,19 @@
 
 ## Prochain séminaire :
 
-**Date :** <!--A venir--> Vendredi 20 décembre 2024 à 10h
+**Date :** <!--A venir--> Mardi 25 mars 2025 à 16h
 
 **Lieu (mode hybride) :** 
 
-- Salle : Szulkin, bâtiment E6, 1er étage, Ecully
-- Visio : https://ec-lyon-fr.zoom.us/j/97959739701
+- Salle : Amphi 202, bâtiment W1, 2ème étage, Ecully
+- Visio : https://ec-lyon-fr.zoom.us/j/91276652056
 
 
 **Ordre du jour :**  <!--A venir--> 
 
 
-- Exposé par Di Huang : "Multi-modal Visual Perception" 
-- Questions diverses
+- Exposé par Mathis Baubriaud : "Mesure automatique de l'avancement d'un chantier de construction à l'aide de la réalité mixte" 
+<!-- - Questions diverses -->
 
 <!--
 - Exposé 1 : "Latent object-centric representation for robotic manipulation" par Alexandre Chapin
@@ -26,11 +26,13 @@
 
 _Résumé :_ 
 
-With the rapid development of the internet and sensing technology, different modalities of data are emerging at an unprecedented speed. Multimodal data convey more comprehensive clues, but due to significant differences in their underlying mechanisms and forms of expression, and the complexity of the coupling relation-ships between modalities, how to utilize and mine the complementary information of multi-modal data has become an important research direction in the field. This talk focuses on visual perception based on multimodal data and introduces the recent research work of the team of the presenter in this direction. The key discussion point is mainly on the fusion of texture and geometric information, involving data collected from various types of devices such as image sensors, depth sensors, LIDAR, for diverse tasks, including, facial analysis, robotic grasping, object detection, with the applications in industry, transportation, and other related areas.
+L’inspection automatique de chantier de construction dans le bâtiment est une problématique ardue, mais aux bénéfices importants pour les constructeurs. Le travail présenté dans cette thèse porte sur le développement et l’évaluation d’une solution de Réalité Augmentée (RA) pour le suivi automatisé de l’avancement des travaux de construction intérieurs. Face aux limites des méthodes d’inspection manuelles, chronophages et sujettes à erreurs, ce travail présente une approche novatrice exploitant la superposition du modèle BIM (Building Information Modeling) à l’environnement réel via un casque de RA. L’objectif principal est la détection et l’identification automatiques des équipements du génie climatique et électrique, dont la forme hétéroclite pose des problèmes significatifs. En vue d’une analyse complète, deux méthodes complémentaires sont étudiées : l’une, géométrique, s’appuie sur un algorithme de lancer de rayons et la reconstruction 3D de nuages de points acquis par des capteurs de profondeur ; l’autre, basée sur l’analyse d’images 2D, utilise un réseau de neurones profonds. Pour pallier le manque de données réelles d’entraînement, un processus automatisé de génération de données synthétiques à partir de modèles BIM est proposé et évalué. Les expérimentations menées sur des chantiers de construction réels démontrent le potentiel de l’approche pour une inspection plus efficace et fiable, et justifient sa plus-value dans les pratiques actuelles des équipes de chantier.
 
+<!--
 _Biographie :_ 
 
 Di Huang received the B.S. and M.S. degrees in computer science from Beihang University, Beijing, China, in 2005 and 2008, respectively, and the Ph.D. degree in computer science from the École Centrale de Lyon, Lyon, France, in 2011. He joined the Laboratory of Intelligent Recognition and Image Processing, School of Computer Science and Engineering, Beihang University, as a Faculty Member, where he is cur-rently a Professor. His research interests include computer vision, representation learning, robotics, etc. He has published 100+ papers in the major academic journals and conferences such as IEEE-TPAMI, IJCV, CVPR, ICCV, ECCV, with 12,000+ ci-tations and H-index 50. He has been among the top 2% world-wide AI scientist list since released in 2019 (by Stanford University and Elsevier). He was awarded the Best Paper at CCBR 2016 and AMFG 2017, the Best Student Paper at CCBR 2017, the Best Poster Paper at ICB 2016, and the Honorable Mention for Best Student Paper at FG 2024. He was the winner of the Affect Recognition Challenge of AVEC at MM 2013 and the OCRTOC track in Robotic Grasping and Manipulation Competitions at ICRA 2022.He served as a Guest Editor for ACM-TOMM, an Area Chair/Senior PC Member for CVPR 2022/2024-2025, ECCV 2022, MM 2019-2023, IJCAI 2021/2025, WACV 2024-2025, ICPR 2020/2024, IJCB 2021/2023-2024, ICMI 2021, ACII 2019-2023, and a Publicity Chair for FG 2019, IJCB 2020, and FG 2023.
+-->
 
 <!-- A venir -->