Thèse de Qinjie Ju


Sujet :
Utilisation de l’Eye-tracking pour l’Interaction Mobile dans un Environnement Réel Augmenté

Date de soutenance : 09/04/2019

Encadrant : Stéphane Derrode
Co-encadrant : René Chalon

Résumé :

Les dispositifs d’eye-tracking ont un très fort potentiel en tant que modalité d’entrée en IHM (Interaction Homme Machine) en particulier en situation de mobilité. Dans cette thèse, nous nous concentrons sur la mise en oeuvre de cette potentialité en mettant en évidence les scénarios dans lesquels l’eye-tracking possède des avantages évidents par rapport à toutes les autres modalités d’interaction. Au cours de nos recherches, nous avons constaté que cette technologie manque de méthodes pratiques pour le déclenchement des commandes, qui réduit l’usage de tels dispositifs. Dans ce cas-là, nous étudions la combinaison d’un eye-tracking et des mouvements volontaires de la tête lorsque le regard est fixe, ce qui nous permet de déclencher des commandes diverses sans utiliser nos mains ni changer la direction du regard. Nous avons ainsi proposé un nouvel algorithme pour la détection des mouvements volontaires de la tête à regard fixe en utilisant uniquement les images capturées par la caméra de scène qui équipe les eye-trackers portés sur la tête, afin de réduire le temps de calcul. Afin de tester la performance de notre algorithme de détection des mouvements de la tête à regard fixe et l’acceptation par l’utilisateur du déclenchement des commandes par ces mouvements lorsque ses deux mains sont occupées par une autre activité, nous avons effectué des expériences systématiques grâce à l’application EyeMusic que nous avons conçue et développée. Ce système EyeMusic est un système pour l’apprentissage de la musique capable de jouer les notes d’une mesure d’une partition que l’utilisateur ne comprend pas. En effectuant un mouvement volontaire de la tête qui fixe de son regard une mesure particulière d’une partition, l’utilisateur obtient un retour audio. La conception, le développement et les tests d’utilisabilité du premier prototype de cette application sont présentés dans cette thèse. L’utilisabilité de notre application EyeMusic est confirmée par les résultats expérimentaux : 85% des participants ont été en mesure d’utiliser tous les mouvements volontaires de la tête à regard fixe que nous avons implémentés dans le prototype. Le taux de réussite moyen de cette application est de 70%, ce qui est partiellement influencé par la performance intrinsèque de l’eye-tracker que nous utilisons. La performance de notre algorithme de détection des mouvements de la tête à regard fixe est 85%, et il n’y a pas de différence significative entre la performance de chaque mouvement de la tête testé. Également, nous avons exploré deux scénarios d’applications qui reposent sur les mêmes principes de commande. Ces deux applications s’appellent respectivement EyeRecipe et EyePay, les détails de ces deux applications sont également présentés dans cette thèse.


Jury :
Christophe KolskiProfesseur(e)Université Polytechnique Hauts-de-FranceRapporteur(e)
Jean VanderdoncktProfesseur(e)Université Catholique de LouvainRapporteur(e)
Patrick GirardProfesseur(e)Université de PoitiersExaminateur​(trice)
Francis JambonMaître de conférenceUniversité Grenoble AlpesExaminateur​(trice)
Christine MichelMaître de conférenceINSA de LyonExaminateur​(trice)
René ChalonMaître de conférenceÉ́cole Centrale de LyonCo-directeur (trice)
Stéphane DerrodeProfesseur(e)É́cole Centrale de LyonDirecteur(trice) de thèse