Atelier EAEI
Évaluation des Apprentissages et Environnements Informatiques
|
|
Objectifs de l’atelier :
Évaluer les
apprentissages consiste à mesurer les acquis d’un apprenant
relativement à des objectifs d’apprentissages définis au préalable.
C’est un « outil essentiel pour la conception, la mise en œuvre et la
régulation d’une situation d’enseignement-apprentissage », [Musial et
al. 2012] et le plus souvent cette tâche permet même à l’apprenant de
renforcer son apprentissage. De plus, « l’essentiel, dans l'activité
pédagogique, n'est jamais le produit, le résultat directement
observable [...] L’essentiel, c'est le progrès effectué par chacun,
[...] Quand le maître se fixe sur la tâche et sur elle seule, quand il
n'évalue qu'elle, il induit chez ses élèves des phénomènes de
divination, de fraude ou de contournement ; il ne favorise pas
l'apprentissage. Le rapport entre la tâche et l’objectif différencie
situation de formation et situation de production : en formation,
l’objectif est premier, dans la production, c’est la tâche.» [Meirieu,
2005].
On distingue de
nombreuses formes d’évaluation. Celle-ci peut en particulier être :
sommative, et vérifier les acquis d’un apprenant à l’issue de sa
formation ; ou formative et contribuer, en cours de formation, à
améliorer l’apprentissage, en permettant d’en adapter le parcours. Pour
Jean Cardinet [Cardinet 1989], l'évaluation ne peut se concevoir qu'à
la première personne : « l'évaluation est l'apport d'information en
retour sur le résultat des actions passées, qui permet au sujet
d'adapter la suite de ses actions par rapport à son but ». L’auteur
définit certains critères que doit respecter une évaluation : non
comparative, sans gabarit préétabli, descriptive et sans jugement de
valeur. [De Ketele 1993] explicite, quant à lui, un cadre conceptuel
permettant de comprendre la mise en œuvre de l'évaluation des
apprentissages des apprenants.
Ainsi, concevoir
et mettre en œuvre l’évaluation des apprentissages constitue une tâche
complexe dans la mesure où elle devrait impliquer autant l'enseignant
que l'apprenant. La mener à bien nécessite d’expliciter entre ces deux
acteurs les objectifs d’apprentissages visés ainsi que leurs atteintes,
et donc de collecter des « preuves », et enfin de prévoir les méthodes
d’analyse et d’interprétation. D’autres questions sous-jacentes se
posent, parmi lesquelles : Pourquoi évaluer et pour qui évaluer ? Quand
évaluer ? Quels autres acteurs sont à impliquer dans l’évaluation ? Sur
quels outils (parmi lesquels les environnements informatiques)
s’appuyer pour mettre en œuvre cette évaluation ? En quoi l'usage de
ces outils influe sur cette évaluation.
Cet atelier vise
à réunir des contributions scientifiques, et à échanger des points de
vue et retours d’expériences, sur le thème de l’évaluation des
apprentissages impliquant les environnements informatiques. Cette
implication peut se situer à différents niveaux :
- Lorsque
l’essentiel de la situation d’enseignement-apprentissage se déroule via
un environnement informatique, se pose assez naturellement la question
d’instrumenter l’étape d’évaluation. En effet, ces environnements
permettent la production de traces d’activités pouvant aider à la
caractérisation de preuves de l’apprentissage. Ils peuvent permettre
également la capitalisation de productions d’apprenants, ou
l’instrumentation de tests ou d’exercices à correction automatique.
Pour autant, la mise en place de l’évaluation des apprentissages dans
des environnements informatiques impliquant des pédagogies actives
et/ou collaboratives (comme les Jeux Sérieux ou les Communautés
Virtuelles d’Apprentissages), soulève de nombreuses questions. De même,
dans un contexte de e-learning, a fortiori dans le cas des Massive Open
Online Courses (MOOC), automatiser ou instrumenter partiellement
l’évaluation des apprentissages devient une question incontournable.
- Lorsque la
situation d’enseignement-apprentissage n’est pas construite autour d’un
environnement informatique, ces derniers peuvent néanmoins être
utilisés pour instrumenter tout ou partie du processus d’évaluation des
apprentissages et apporter de l’aide à l’enseignant pour : la
conception de l’évaluation ; la collecte des preuves d’apprentissage ;
l’analyse du feed-back ; ou encore la restitution des résultats. Aussi,
des enseignants s’appuient sur des environnements informatiques pour
contribuer à l’automatisation de leurs tâches, et des chercheurs
conçoivent et développent dans une approche pluridisciplinaire des EIAH
contribuant à assister ces enseignants.
Dans les deux
situations précédentes, instrumenter par un EIAH le dispositif
d'évaluation, permet d'en partager et d'en sédimenter les usages, deux
propriétés qui concourent à la dimension méta-réflexive que les acteurs
peuvent porter sur l'évaluation menée.
Dans cet
atelier, une attention particulière sera apportée à la complémentarité
des contributions. En effet, il s’agit de mettre en perspective des
approches de conception d’environnements informatiques et/ou
d’expérimentation dans différents contextes, et de favoriser les
échanges et les « retours d’expériences » d'enseignants sur leurs
pratiques d’évaluation. L’objectif, à l’issue de cet atelier, est alors
d’avoir une cartographie des travaux francophones en EIAH qui
s’intéressent à la question de l’évaluation des apprentissages,
d’affiner ou de préciser les thématiques de recherche en EIAH qui s’y
rattachent actuellement ou encore d’identifier de nouveaux verrous
scientifiques.
Thèmes de l’atelier :
- Évaluation dans les MOOC
- Évaluation dans les Communautés Virtuelles d’Apprentissage
- Évaluation dans les Jeux Sérieux
- Auto-évaluation
- Evaluation par les pairs
- Techniques d’IA pour l’évaluation des apprentissages
- Traces et évaluation des apprentissages
- Retours d’expériences et usages d’environnements informatiques dans l’évaluation des apprentissages
Comité Scientifique
- Julien Broisin – IRIT – Toulouse
- Pierre-André Caron – TRIGONE – CIREL – Lille
- Nathalie Guin – LIRIS – Lyon
- Jean Heutte – TRIGONE - CIREL – Lille
- Céline Joiron – MIS – Amiens
- Marie Lefevre – LIRIS – Lyon
- Eddie Soulier – Tech-CICO – Troyes
Consignes aux auteurs :
Les articles
soumis seront d’une longueur de maximum 4 à 10 pages, rédigées selon le
modèle de la conférence EIAH2015 (disponible à l’adresse :
http://eiah2015.uiz.ac.ma/web/soumissions.html ). Ils seront évalués
par le comité scientifique ci-dessus .
Les articles devront être soumis via easychair : https://easychair.org/conferences/?conf=eaei2015
Dates importantes :
-
Date limite de soumission : 27 mars 2015 pour la soumission des résumés, 3 avril pour les articles complets
-
Réponse aux auteurs : 24 avril 2015
-
Versions définitives des articles : 13 mai 2015
- Programme détaillé de l’atelier : 20 mai 2015
- Déroulement de l’atelier : 2 juin après-midi
Contacts :
Céline Joiron (MIS – Amiens) – celine.joiron@u-picardie.fr
Pierre-André Caron (TRIGONE – CIREL – Lille) - pierre-andre.caron@univ-lille1.fr
Nathalie Guin (LIRIS – Lyon) - Nathalie.Guin@univ-lyon1.fr
Programme de l'atelier :
Cliquez sur le titre pour accéder directement aux versions pdf des articles.
Les supports des présentations sont également disponibles.
14h - 14h15
|
Ouverture - Introduction Support rappelant les cadres théoriques (Pierre-André Caron)
|
14h15 - 14h45
|
Sonia Mandin and Nathalie Guin. Évaluation de savoir-faire au sein d’un environnement éducatif fondé sur un référentiel. Support
|
14h45 - 15h15
|
Jill-Jênn Vie, Fabrice Popineau, Jean-Bastien Grill, Éric Bruillard and Yolaine Bourda. Prédiction de performance sur des questions dichotomiques : comparaison de modèles pour des tests adaptatifs à grande échelle. Support
|
15h15 - 15h30
|
Samia Ait Adda and Nabila Bousbia. Evaluation de la désorientation de l’apprenant dans un système d’apprentissage
|
15h30 - 15h45
|
Benedicte Le Grand, Gwen Le Cor, Alice Albano and Fatima Harrak. Restitution aux enseignants de l’évaluation des apprentissages dans des EIAH. Support
|
15h45 - 16h15
|
Pause
|
16h15 - 16h45
|
Naïma El-Kechaï, Mathieu Muratet, Amel Yessad and Jean-Marc Labat. Le
suivi de l'apprenant : une approche fondée sur le cadre méthodologique
Evidence Centered Design. Application aux Serious Games. Support
|
16h45 - 17h15
|
Marie Lefevre, Nathalie Guin, Baptiste Cablé and Brice Buffa. ASKER : un outil auteur pour la création d’exercices d’auto-évaluation. Support
|
17h15 - 17h30
|
Richardson Ciguene, Celine Joiron and Gilles Dequen. Vers la génération automatique de tests d’évaluations différenciés et équitables en contexte universitaire. Support
|
17h30 - 18h
|
Discussion et Cloture
|
Références
Cardinet J., « Evaluer sans juger », Revue française de pédagogie, Volume 88, 1989, pp41-52.
De Ketele JM., « L’évaluation conjuguée en paradigmes », Revue française de pédagogie, Volume 103, 1993, pp. 59-80.
Meirieu P., « Si
la compétence n’existait pas il faudrait l’inventer », [en ligne]
disponible sur
http://www.meirieu.com/ARTICLES/SUR%20LES%20COMPETENCES.pdf 2005.
Musial M., Pradère F.,' Tricot A. « Comment concevoir un enseignement ? » Bruxelles : De Boeck. 2012.