Newsletter No 21 février 2015 – Usages innovants en e-éducation

Newsletter du sous-projet IDEFI uTOP INRIA Valorisation de la recherche par la formation

No. 21 – février 2015
Toutes les newsletters

Quelques chiffres

  • 26 millions : c’est le nombre d’apprenants inscrits au site Codecademy (article, 24/01/2015).
  • 20 % : c’est le pourcentage de MOOCs francophones ayant pour thématique l’informatique ou la programmation. Il s’agit de la thématique majoritaire parmi ces cours (infographie, 12/12/2014).
  • Plus d’1 million : c’est le nombre d’apprenants inscrits sur la plateforme FutureLearn. Parmi eux, 60% sont des femmes (article, 17/02/2015).

Quoi de neuf en e-éducation ?

En France

  • L’Agence Française de Développement (AFD) et l’Agence universitaire de la Francophonie (AUF) lancent un appel à projets pour « favoriser l’introduction des technologies de l’information et de la communication en éducation (TICE) dans les systèmes éducatifs africains » (annonce, vue le 02/02/2015).
  • Le FFFOD publie le guide « LMS : comment choisir sa plateforme ? » (article, vu le 02/02/2015).
  • OpenClassrooms et LiveMentor lancent l’initiative « En 2015, je code !« , une formation en ligne certifiante de 3 mois permettant d’acquérir les compétences clés pour devenir Intégrateur Web (article, 02/02/2015).
  • L’AUF lance un appel à collaborations pour la production des ressources pédagogiques du MOOC CERTICE (certification des compétences TICE des enseignants), de niveau enseignement supérieur (article, vu le 10/02/2015).
  • Une agence du numérique a été créée au sein du gouvernement (article, 09/02/2015).
  • Le CESE (Conseil Économique Social et Environnemental) a rendu ses préconisations sur la pédagogie numérique (article, 25/02/2015).

Dans le Monde

  • Open Education Europa a enrichi sa carte de suivi des MOOCs en Europe : en plus de la distribution des MOOCs européen par pays, de nouvelles options sont disponibles, comme un tri par thématique ou encore un tri par plateforme, université, institution (article, 13/01/2015).
  • Microsoft vient d’acquérir Revolution Analytics, une société qui développe des solutions d’analytics en R pour des plateformes de big data open-sources et privées (article, 23/01/2015).
  • Coursera s’intéresse lui aussi de plus en plus aux possibilités du blended learning et aux MOOCs à la demande (article, 02/02/2015).
  • Korea Center for Digital Humanities a lancé Global MOOC Campus, un cluster pour le partage de MOOCs, prévoyant notamment du tutorat et des groupes d’études (site, vu le 02/02/2015).
  • Springer collabore désormais avec des fournisseurs de MOOCs dans le monde entier pour donner accès à ses contenus (article, 05/02/2015).
  • Duke University rapatrie certains de ses cours disponibles sur Coursera sur son propre LMS (article, vu le 09/02/2015).
  • Harvard et le MIT sont actuellement poursuivis en justice pour le manque de sous-titrage pour sourds et malentendants disponibles dans leurs cours en ligne (article, 12/02/2015).
  • La startup Spark Open Research « envisage de créer l’équivalent des Mooc, mais pour la recherche » (article, 17/02/2015).
  • Stanford University a développé un outil afin de proposer une simulation de toucher lors d’un MOOC sur l’haptique (article, 17/02/2015).
  • Instructure (qui a développé la plateforme Canvas) vient de lever 40 millions de dollars (article, 20/02/2015).

Technologies

  • EM Lyon Business School s’est allié avec IBM pour développer une Smart Business School basée sur les technologies IBM dans le cloud (article, 27/01/2015; article, 03/02/2015).

Partenariats

  • Dans le cadre de ses « Specializations », Coursera a tissé de multiples partenariats avec, notamment, Google, Instagram, Shazam, ou encore l’incubateur 500 startups (article, 11/02/2015; article, 11/02/2015).

Bilans, critiques

  • Un rapport paru début février a montré que l’augmentation du pourcentage d’étudiants en ligne a été moins importante en 2014 que les années précédentes (article, 05/02/2015).
  • Un article d’Educause s’intéresse à la part des enseignants chez les apprenants des MOOCs du MIT (article, 09/02/2015).
  • Un rapport sur le marché des MOOCs pour 2015-2020 est paru récemment (article, 17/02/2015).

Nouveaux cours

Mars

  • Pour le 31/03/2015 : un MOOC sur la programmation récursive, organisé par Paracamplus, sera enseigné par Christian Queinnec, UPMC.

Avril

  • Pour le 13/04/2015 : Queensland University of Technology lance un MOOC Robotic Vision sur sa propre plateforme.
  • Pour le 20/04/2015 : Stanford University lance un MOOC sur la cryptographie sur Coursera.

Dossier : « Robots et évaluation des exercices : faut-il tout automatiser ? »

On les appelle « robo-readers » ou encore « robo-graders ». Développés par des universités prestigieuses telles que Harvard, MIT, Berkeley ou par de nombreuses sociétés spécialisées telles que Educational Testing Service ou Pearson Education, ces robots correcteurs de devoirs ne laissent pas indifférents : comment fonctionnent-ils ? Sont-ils aussi efficaces que ce qu’en disent leurs créateurs ? Quelles conséquences peuvent-ils avoir sur la qualité de l’évaluation ? Et surtout, quelles conséquences peuvent-ils avoir sur l’apprentissage lui-même ?

Les robo-graders utilisent l’intelligence artificielle pour « apprendre » comment corriger une dissertation. Le principe est le suivant : des centaines d’essais sont corrigés par un professeur et insérés dans le système, qui se sert ensuite de cette base pour identifier quels critères font un bon devoir et évaluer l’apprenant. Si les technologies permettant d’automatiser l’évaluation trouvent leurs origines dans les ordinateurs centraux des années 60, ce n’est que récemment que les machines correctrices ont pris leur essor, aux Etats-Unis notamment: depuis un peu plus de cinq ans, la Louisiane, le Dakota du Nord, l’Utah, et la Virginie-Occidentale utilisent tous ces technologies dans leurs établissements secondaires, en 2014, le PARCC (consortium d’états qui développent des évaluations pour le Common Core Curriculum ou tronc commun) a fait appel à l’outil développé par Pearson. Le robot correcteur peut en effet s’avérer très utile car il assure une seconde lecture en plus de celle de l’enseignant : en cas de désaccord, un autre enseignant apporte son éclairage. Le but n’est aucunement de remplacer le professeur mais plutôt de l’épauler.

Côté apprenant, la correction automatisée est plutôt appréciée : pour certains exercices, il s’agirait d’un excellent moyen de s’entraîner et d’améliorer ses réponses en vue des évaluations finales. Les apprenants aiment en effet refaire de nombreuses fois les exercices et recevoir des feedbacks simples, sans avoir à se confronter au professeur dont le retour est perçu comme punitif. On le voit, l’outil peut s’avérer particulièrement efficace dans un contexte de MOOC, et Daphne Koller (Coursera) ou encore Anant Agarwal (edX) ne s’y sont pas trompés : tous deux ne tarissent pas d’éloges sur cette correction, qui contribuerait à la gamification de l’apprentissage et dont la qualité égalerait l’évaluation du professeur.

edX s’est tout particulièrement investi dans le domaine avec des outils tels que Discern, ou encore EASE (Enhanced AI Scoring Engine), qui sont open-source. Leur objectif est de rendre l’évaluation par les machines plus « humaine » et de parvenir à « imiter » le style d’évaluation d’un professeur. Cependant, pour Piotr Mitros, chef de l’équipe scientifique du consortium, chaque système d’évaluation a ses faiblesses : « les machines ne peuvent faire de feedback qualitatif, les étudiants ne sont pas qualifiés pour s’évaluer sur tous les sujets, les professeurs sont sujets à la fatigue et peuvent faire des erreurs quand ils ont a corriger un grand nombre de devoirs ».

Les robo-graders attirent de nombreuses critiques : un robot ne peux pas « connaître » les étudiants et ajuster sa notation, il ne peut pas récompenser la créativité ou l’innovation. Basé sur des standards prédéfinis, son feedback est pragmatique, impersonnel. La question de la qualité des évaluations est centrale et pour l’heure, les résultats sont très variables. Si pour Mark D. Shermis, doyen du College of Education de l’Université d’Akron, les machines évaluent aussi bien que les humains, d’autres chercheurs sont plus mesurés : Ann Marcus Quinn, de l’Université de Limerick, qui s’intéresse aux évaluations en ligne, ne croit pas que l’on peut étendre leur usage à tous les exercices : les dissertations et les analyses notamment seraient à éviter. On déplore également les manœuvres de certains éditeurs qui vont parfois trop loin pour collecter des données étudiantes afin d’affiner la précision de leurs correcteurs.

Le plus grand détracteur est sans nul doute le professeur Les Perelman. Cet ancien directeur de littérature pour les premiers cycles du MIT a voulu montrer l’incapacité des machines à faire la différence entre du charabia et un vrai texte. Il a développé l’outil Babel Generator, qui crée à partir de trois mots clés un texte ayant l’apparence d’une dissertation mais dont le sens est inintelligible. Les robo-graders les plus connus, comme IntelliMetric ou encore MYAccess!, ont été dupés par Babel et ont donné à ses dissertations une excellente note : la longueur et la complexité des mots générés auraient fortement influencé l’évaluation. Convaincu des dangers de ce type de correction, Les Perelman a lancé la pétition « Professionals Against Machine Scoring Of Student Essays In High-Stakes Assessment« , qui a recueilli plus de 4000 signatures dont celle du linguiste Noam Chomsky. Outre les faiblesses des machines, que nous avons évoquées plus haut, une crainte est tout particulièrement présente : cela ne va-t-il pas affecter à terme la façon d’écrire des étudiants, qui chercheront à s’adapter à la correction des machines plutôt qu’à communiquer avec leur professeur ?

La correction automatisée doit encore considérablement évoluer pour devenir digne de confiance : Piotr Mitros, qui souhaiterait à terme pouvoir adapter l’évaluation des machines à chaque apprenant, voit trois grands axes d’amélioration : réduire les coûts de production, minimiser les erreurs faites par les machine, collecter plus de données pour rendre leurs évaluations plus précises. La standardisation de l’utilisation du langage dans les évaluations est également un challenge important. Pour que l’usage se pérennise, les humains doivent garder le contrôle de ces machines et avoir le dernier mot dans les évaluations les plus importantes.

Sources

Voir aussi

Quelques publications

  • Horizon Report 2015 Higher Education (New Media Consortium, février 2015) : les technologies citées cette année : « Bring Your Own Device, flipped classroom, makerspaces, wearable technology, adaptative learning technologies, Internet of Things ».

Évènements récents et à venir

  • 02/03/2015-04/03/2015 – INTED 2015 – Valence, Espagne
  • 09/03/2015-12/03/2015 – SXSWedu – Austin, Texas
  • 16/03/2015 -20/03/2015 – LAK 2015 – Poughkeepsie, NY
  • 19/03/2015-20/03/2015 – ICEIT 2015 – Florence, Italie

Mots clés : « e-éducation », « MOOC », « TICE », « plateforme e-learning », « université en ligne », « sciences du numérique », « FUN », « France Université Numérique », « robo-reader », « robo-grader », « automated grading », « correction automatisée », « Les Perelman », « Piotr Mitros », « edX », « EASE », « Discern »

Voir toutes les newsletters