Audrey Watters pour O’Reilly Radar interviewait récemment le théoricien de l’éducation George Siemens (auteur de plusieurs blogs comme elearnspace et Connectivism) de l’Institut de recherche des technologies augmentées pour la connaissance de l’université d’Athabasca sur les applications et les défis des données pour l’éducation.
Les écoles ont depuis longtemps amassé des données sur leurs élèves : notes, fréquentation, résultats aux examens… Mais peu de choses ont réellement été faites de ces informations pour améliorer l’apprentissage des élèves. Or, du fait d’une plus large adoption de la technologie et de la poussée de l’ouverture des données publiques (permettant de développer des comparaisons), s’ouvre manifestement la possibilité de mieux collecter ces données et de mieux les analyser. Reste à savoir comment.
Les écoles et les universités disposent d’un large éventail de données sur les élèves, explique le chercheur : provenant des formulaires d’inscription (localisation, santé, cursus, assiduité, données socio-économiques…) et bien sûr des résultats des élèves eux-mêmes… Des données que les universités stockent et agrègent dans le cadre de statistiques institutionnelles. Mais la plupart des écoles et universités ne font pas grand-chose de cette profusion de données, au-delà d’un rapport institutionnel annuel. Pourtant, une simple analyse des données existantes pourrait révéler avec plus de précision les élèves qui ont des difficultés avec certains enseignements, l’évolution du public.
De nouveaux types de données éducatives peuvent désormais être également exploités, notamment celles issues de l’externalisation croissante des activités d’apprentissage provenant du matériel d’apprentissage en ligne que les étudiants utilisent comme Moodle ou Desire2Learn, qui captent notamment le temps passé sur une ressource, la fréquence d’affichage, le nombre de connexions [un peu sur le modèle de celles présentées par la Khan Academy que nous évoquions récemment, NDR]… Ces données sont assez semblables à celles que Google Analytics ou Piwik (son concurrent open source) recueillent sur le trafic d’un site, mais adapté aux progrès de chaque élèves. Une nouvelle génération d’outils, tels que SNAPP, utilise ces données pour analyser les réseaux sociaux, les degrés de connectivité entre les apprenants. Des outils d’analyse du discours, tels que ceux élaborés au Knowledge Media Institute à l’Open University au Royaume-Uni, sont également efficaces pour évaluer les attributs qualitatifs du discours, des discussions et le taux de contribution de chaque apprenant, explique encore le chercheur.
« Une autre zone de collecte de données possible porte sur les interactions sociales distribuées dans lesquelles s’engagent quotidiennement les étudiants par le biais de Facebook, des blogs, de Twitter et d’autres outils similaires. Bien sûr, les questions de confidentialité sont importantes ici. Cependant, comme nous l’étudions à l’Université Athabasca, les réseaux sociaux peuvent fournir de précieuses informations sur la façon dont les apprenants sont connectés les uns aux autres et à l’université. Des modèles potentiels sont déjà en cours de développement sur le web qui pourraient voir une traduction adaptée au milieu scolaire, comme c’est le cas avec Klout pour mesurer l’influence au sein d’un réseau ou Radian6 pour évaluer les discussions dans les réseaux distribués. »
Image : George Siemens sur la scène de Tedx NewYork Education en 2010, photographié par WayneKLinn.
« La collecte des données existantes dans les écoles et les universités fait pourtant pâle figure en comparaison de la valeur de la fouille et de l’analyse de données provenant des réseaux sociaux auxquels nous participons tous quotidiennement. C’est ici, je pense, que la plupart des idées nouvelles sur l’apprentissage et la croissance des connaissances va se produire. Lorsque nous interagissons dans un système de gestion de l’apprentissage, nous le faisons volontairement – pour apprendre ou pour accomplir une mission. Notre interaction dans les systèmes distribués est plus « authentique » et peut produire de nouvelles connaissances sur la manière dont nous sommes connectés, nos sentiments et nos besoins par rapport à l’apprentissage lui-même. Le défi, bien sûr, est de savoir comment concilier les préoccupations de l’effet Hawthorne avec la vie privée [l’effet Hawthorne décrit la situation dans laquelle les résultats d’une expérience ne sont pas dus aux facteurs expérimentaux mais au fait que les sujets ont conscience de participer à une expérience dans laquelle ils sont testés, ce qui se traduit généralement par une plus grande motivation, NDR].
Les discussions sur la propriété des données et leur confidentialité sont à la traîne en ce qui concerne l’analyse de l’apprentissage. Qui possède les données produites sur l’apprenant ? Qui est propriétaire de l’analyse de ces données ? Qui arrive à voir les résultats de l’analyse ? Quel degré de connaissance les apprenants doivent-ils avoir des données recueillies et analysées ? …
Je crois que les apprenants devraient avoir accès au même tableau de bord d’analyse que les éducateurs et les institutions. L’analyse des données peut être un outil puissant dans leur motivation » : elle permet de se comparer à d’autres, de mesurer ses progrès par rapport à ses efforts ou ses objectifs. « Si les données et les analyses sont utilisées pour la prise de décision liée à l’enseignement et l’apprentissage, alors nous avons besoin de discuter de qui voit quoi, qu’elles sont les règles qui dictent la collecte et leur analyse. »
Comment peut-on mesurer l’éducation elle-même ?, interroge Audrey Watters. « L’éducation, est, aujourd’hui au moins, une boîte noire, répond George Siemens. La société investit de manière significative dans l’enseignement primaire, secondaire et supérieur, mais nous ne savons pas précisément, quelles pratiques d’enseignement doivent être freinées et quelles pratiques doivent être encouragées. Nous avons besoin d’outils, de moyens sur lesquels fonder les réformes éducatives incessantes… Les outils de mesure et d’analyse de l’apprentissage doivent avoir ce rôle. Une fois que nous comprendrons mieux le processus d’apprentissage, alors nous pourrons prendre des décisions éclairées étayées par des preuves. »
Cependant, nous devons être prudents dans l’utilisation des mesures, estime George Siemens. D’une part, l’analyse peut fournir des informations précieuses sur les facteurs qui influencent le succès des apprenants (temps passé sur les tâches, assiduité, fréquence des connexions, position au sein du réseau social, fréquence des contacts avec des membres du corps professoral…), mais d’autre part, l’analyse des données ne saura pas saisir certains éléments de l’apprentissage comme l’encouragement de l’enseignant, la valeur des interactions sociales informelles… « Dans tout système d’évaluation, il y a un réel danger que la cible devienne l’objet de l’apprentissage, plutôt que de l’évaluation de l’apprentissage. »
Aujourd’hui, nos contenus d’apprentissage sont créés à l’avance par les cours, les programmes et les manuels. C’est un processus terriblement inefficace, souligne encore George Siemens, car chaque apprenant a différents niveaux de connaissance quand il commence un cours. « Un programme intelligent devrait s’ajuster et s’adapter aux besoins de chaque apprenant. Nous n’avons pas besoin d’un cours pour 30 élèves. Chacun doit suivre son propre parcours, basé sur ses expériences de vies, le rythme de son apprentissage, sa familiarité avec le sujet… Le contenu du cours doit s’adapter, être flexible et continuellement mis à jour. » L’évaluation doit être inscrite dans le cours du processus, et non pas le conclure sous forme d’examen ou de test.
Une grande partie de l’effort d’analyse actuel porte sur l’abandon, explique encore le spécialiste. Les outils d’analyses permettent de fournir des indications précoces quand les élèves sont en phase de décrochage ce qui permet d’avoir des interventions plus réactives permettant de considérablement réduire le taux d’échec des élèves.
La combinaison des innovations techniques et sociales dans l’éducation porte en lui le potentiel d’un meilleur et plus efficace modèle éducatif.(…) Des outils comme Open Study ont une approche similaire : un apprentissage décentralisé et des outils d’analyses centralisés. Des sociétés comme Grockit et Knewton créent des plates-formes d’apprentissages adaptatives personnalisées. Les éditeurs traditionnels comme Pearson et McGraw-Hill investissent massivement dans ces nouveaux types de contenus et commencent à collaborer avec les universités et les écoles pour offrir le contenu et évaluer les performances des apprenants. Les fournisseurs de systèmes de gestion d’apprentissage comme Desire2Learn ou Blackboard proposent des options d’analyses dans leurs offres.
Reste que l’éducation par les données n’est pas sans défis. En dépit de l’énorme potentiel qu’ils proposent pour améliorer l’éducation, ces outils ne s’imposent pas sans générer de nouvelles inquiétudes. La confidentialité des données est un problème critique, rappelle le chercheur. « Alors que je vois comme un moyen d’analyse pour améliorer succès des apprenants, des opportunités existent pour utiliser ces outils de mesure pour évaluer et critiquer la performance des enseignants. L’accès aux données et la propriété sont des questions tout aussi importantes : qui doit être capable de voir les analyses que les écoles effectuent sur les apprenants ? » D’autres préoccupations ont trait à la correction d’erreur dans l’analyse. Si les éducateurs s’appuient fortement sur les analyses, les efforts devraient être consacrés à l’évaluation des modèles d’analyse et à la compréhension des contextes dans lesquels ces analyses ne sont pas valides. Mais conclut George Siemens, assurément, « les défis complexes auxquels sont confrontés les écoles et les universités peuvent être, au moins partiellement, éclairées par des applications d’analyses de données ».
0 commentaires
Tout cela est très bien, le professeur devient un peu plus gestionnaire, mais il faudrait peut être penser également à un système décentralisé. En tant qu’autorité, il reste celui qui observe et surveille, mais l’apprentissage survient aussi lorsqu’il n’est plus là… Après, je fais confiance aux enfants pour ça. L’effet Hawthorne peut être positif comme négatif, c’est à double tranchant. Ca accentue une pression pas forcément bienvenue chez tout le monde.
Je suis pour le moins perplexe de lire qu’encore une fois, une perfectibilité des outils va permettre d’améliorer l’apprentissage..
même si c’est une pratique courante dans les sociétés occidentales, permettre que les enseignés aient des indicateurs pour se comparer les uns aux autres est un pur non-sens humain.
De la même façon, identifier des indicateurs, les utiliser au jour le jour, fait perdre la notion de la base sur laquelle il sont construits et rend les individus plus dociles, leur enlevant la possibilité de se référer à d’autres notions. Celui induit une vision du monde étriquée et normative
A chacun ses possibilités, son potentiel et il devrait être du ressort de l’éducation de développer les potentiels uniques et individuels de chacun et non pas de construire une grande machine à clones.
Je ne suis pas sûre que toute cette dépense d’énergie pour concevoir ces outils et les mettre en œuvre fasse avancer l’humain..ce qui est dommage au regard des nombreuses possibilités d’adaptation que l’on pourrait en faire.
Alors, oui, à ce qui permet à l’enseigné de prendre confiance en lui, non à ce qui lui indiquerait une seule voie possible, établie par ses ainés..
Mon commentaire est un peu long. Je l’ai publié ici: http://www.voixhaute.net/2011/09/du-plaisir-dapprendreensemble.html
Bonsoir,
nous devrions fabriquer les agents numériques experts afin d’analyser les traces numériques de nos élèves
un autre regard sur l’erreur comme outil de diagnostic…
débat à ouvrir sur les technologie d’analyse des traces…