2 prix : meilleur article académique et meilleur article applicatif à la conférence EGC 2022

Les articles : "Qu’est-ce que mon GNN capture vraiment ? Exploration des représentations internes d’un GNN" présenté par Luca Veyrin-Forrer (LIRIS, DM2L) et "Classification automatique d'articles encyclopédiques" présenté par Alice Brenon (LIRIS, DM2L/TWEAK & ICAR), ont respectivement reçu les prix du meilleur article académique et du meilleur article applicatif lors de la conférence EGC 2022.

Prix du meilleur article académique :

Qu’est-ce que mon GNN capture vraiment ? Exploration des représentations internes d’un GNN
Luca Veyrin-Forrer, Ataollah Kamal, Stefan Duffner, Marc Plantevit and Celine Robardet

Résumé :
Nous considérons l’explication de GNN. Alors que les travaux exis- tants expliquent la décision du modèle en s’appuyant sur la couche de sor- tie, nous cherchons à analyser les couches cachées pour identifier les attributs construits par le GNN. Nous extrayons d’abord des règles d’activation qui iden- tifient des ensembles de neurones co-activés pour une classe. Ces règles défi- nissent des représentations internes ayant un impact fort sur la classification. Ensuite, nous associons à celles-ci un graphe dont le plongement produit par le GNN est très proche de celui identifié par la règle. Des expériences sur 6 jeux de données et 3 baselines démontrent que notre méthode génère des graphes réalistes de haute qualité.

Artticle : https://editions-rnti.fr/?inprocid=1002725

--

Prix du meilleur article applicatif :

Classification automatique d'articles encyclopédiques
Ludovic Moncla, Khaled Chabane, Alice Brenon
 
Résumé :
Cet article propose une étude comparative de différentes approches de classification supervisée appliquées à la classification automatique d'articles encyclopédiques. Notre corpus d'apprentissage est constitué des 17 volumes de texte de l'Encyclopédie de Diderot et d'Alembert (1751-1772) représentant un total d'environ 70 000 articles. Nous avons expérimenté différentes approches de vectorisation de textes (sac de mots et plongement de mots) combinées à des méthodes d'apprentissage automatique classiques, d'apprentissage profond et des architectures BERT. En plus de la comparaison de ces différentes approches, notre objectif est d'identifier de manière automatique les domaines des articles non classés de l'Encyclopédie (environ 2 400 articles). Le meilleur modèle permet d'obtenir 83% de f-mesure moyenne pour l'ensemble des 38 classes. Par ailleurs, notre étude met en avant la difficulté à distinguer certaines classes proches sémantiquement. L'ensemble du code développé ainsi que les résultats obtenus dans le cadre de ce projet sont disponibles en open-source.

Article : https://editions-rnti.fr/?inprocid=1002717

--

Site Web de la conférence: https://egc2022.univ-tours.fr