News - Thesis announce

Date : Jan. 12, 2024, 1:30 p.m. - Benoit ALBERT - Amphi 3 - Pôle commun

Méthodes d’optimisation avancées pour la classification automatique

Méthodes d’optimisation avancées pour la classification automatique

En partitionnement de données, l'objectif consiste à regrouper des objets en fonction de leur similarité. K-means est un des modèles les plus utilisés, chaque classe est représentée par son centroïde. Les objets sont assignés à la classe la plus proche selon une distance. Le choix de cette distance revêt une grande importance pour prendre en compte la similarité entre les données. En optant pour la distance de Mahalanobis au lieu de la distance euclidienne, le modèle est capable de détecter des classes de forme ellipsoïdale et non plus seulement sphérique. L'utilisation de cette distance offre de nombreuses opportunités, mais elle soulève également de nouveaux défis explorés dans ma thèse.

 

L'objectif central concerne l’optimisation des modèles, en particulier FCM-GK (variante floue de k-means) qui est un problème non convexe. L'idée est d’obtenir un partitionnement de meilleure qualité, sans créer un nouveau modèle en appliquant des méthodes d'optimisation plus robustes. Nous en proposons deux : ADMM (Alternating Direction Method of Multipliers) et la méthode du gradient accéléré de Nesterov. La création d’une mesure pour évaluer les partitions basées sur cette distance et la gestion des sous-ensembles comme dans ECM (variante évidentielle) sont deux autres travaux abordés. Les différents résultats obtenus sont prometteurs.

 

 

Directeurs de thèse : Violaine Antoine et Jonas Koko

Membre du jury : Vincent Barra (président),

Thierry Denoeux (rapporteur - Université de Technologie de Compiègne), David Mercier (rapporteur - Université d’Artois),

Stéphanie Jehan-Besson (examinatrice - CNRS Lyon) et Marie-Jeanne Lesot (examinatrice - Sorbonne Université)