Catégories
Thèses

Modélisation de la coarticulation multimodale : vers l’animation d’une tête parlante intelligible

Théo BIASUTTO-LERVAT

Niveaux

Tous niveaux

 

 

 

Public

Professeur·e·s de langues étrangères

 

 

 

Contact

Action/Projet associé(e)

Ressource(s) associée(s)

Non renseigné pour le moment

À quelles questions cette étude tente-t-elle de répondre ?

Dans ces travaux, nous cherchons à simuler par un algorithme l’influence d’un phonème sur la production des phonèmes voisins, phénomène connu sous le nom de coarticulation, dans le but de prédire les mouvements articulatoires nécessaires à la production d’une séquence phonétique. Il faut en effet savoir que nous ne pouvons considérer l’articulation comme une simple concaténation de mouvements articulatoires correspondant aux phonèmes. Dans le domaine d’étude de la production de la parole, il est bien établis que la production d’un phonème est largement influencé par son contexte. Par exemple, la forme des lèvres est très différentes pendant la production du /k/ de « qui » et « quoi, car ce phonème subis une influence de la voyelle suivante. In fine, notre modèle permet de contrôler une tête parlante virtuelle, afin de synchroniser son animation à un segment de parole prononcé par un adulte.

Nous cherchons ici à proposer un nouveau modèle de coarticulation basé sur les techniques récentes d’intelligence artificielle (deep learning) avec pour principal objectif une modélisation indépendante de la langue et de la modalité. Par modalité, nous entendons l’aspect visuelle et articulatoire de la parole, c’est-à-dire les mouvements du visage induits par l’articulation d’un locuteur (modalité visuelle), mais aussi les mouvements des principaux articulateurs internes comme la langue, la mâchoire ou le vélum (la modalité articulatoire). Finalement, nous souhaitons appliquer ce modèle de coarticulation à la langue Allemande afin de proposer un système de synchronisation labiale automatique pour cette langue, capable d’animer un visage virtuelle depuis la voix de l’enseignant.

Pourquoi ces questions sont-elles pertinentes ?

De nombreuses études ont démontré l’importance de l’information visuelle pour la perception de la parole. En plus de permettre la communication d’informations de haut niveau comme les émotions ou la métacognition (Granström et House, 2005 ; Swerts et Krahmer, 2005), il a été établi que lorsque le signal acoustique est dégradé, la modalité visuelle apportée par le visage peut rétablir jusqu’à deux tiers de l’intelligibilité apportée par l’audio (Le Goff et al., 1994 ; Sumby et Pollack, 1954). Pour de nombreuses applications exploitant actuellement des technologies de synthèse de la parole, l’ajout de la modalité visuelle par le biais d’une tête parlante virtuelle permettrait donc d’augmenter l’intelligibilité de la parole synthétique, et ce, même en l’absence de modélisation interne telle que les mouvements de la langue (Ouni et al., 2007). L’ajout de la modalité visuelle est cependant une tâche critique, car animer un visage virtuel peut se faire au détriment de l’intelligibilité si le signal visuel n’est pas parfaitement congru au signal acoustique. En effet, lorsque nous observons un locuteur, nous utilisons un système neurologique de décodage multimodal, où la modalité visuelle influence notre compréhension de la modalité acoustique, et inversement (Benoit et al., 2010 ; Skipper et al., 2007). Ce mécanisme entraine une plus grande robustesse de la parole aux perturbations extérieures de par la redondance des informations au niveau visuel et acoustique, mais engendre néanmoins une grande sensibilité de l’humain à la moindre incohérence entre les deux modalités de la parole. Que ces incohérences soient dues à une mauvaise synchronisation entre le flux audio et visuel (Dixon et Spitz, 1980), ou à une distorsion phonétique (Green et Kuhl, 1989 ; Green et Kuhl, 1991 ; Jiang et al., 2002), celles-ci peuvent aboutir à d’importants effets sur la perception. L’exemple le plus notable est certainement l’effet McGurk (McGurk et MacDonald,1976) : quand le stimulus audio ’ba’ est couplé à un stimulus visuel ’ga’, l’auditeur rapporte entendre prononcer ’da’.

Malgré ces difficultés, le développement de technologies de synthèse audiovisuelle de la parole pourrait être crucial pour la communauté malentendante qui exploitent bien plus le signal visuel qu’une vaste majorité de la population (Campbell et al., 1998 ; MacSweeney et al., 2002), mais il pourrait également être d’une utilité plus générale, adapté à des lieux bruyants, comme les gares ou aéroports. De plus, l’intégration d’avatar virtuel doué de parole peut améliorer l’expérience de l’utilisateur dans de nombreux cadres, comme les assistants virtuels, les sites internet ou les médias sociaux (Cosatto et al., 2003 ; Gibbs et al., 1993). Dans le secteur du divertissement, la synthèse audiovisuelle de la parole pourrait considérablement accélérer la réalisation de film d’animation en automatisant la production d’animation liée à la parole, et il en va de même pour l’industrie vidéoludique.

Enfin, la synthèse audiovisuelle de la parole peut également être utilisée à des fins pédagogiques pour aider à capter l’attention de l’apprenant (Johnson et al., 2000), ou à l’apprentissage de la prononciation des langues étrangères (Hazan et al., 2005 ; Massaro, 2003). Cette utilisation de la synthèse audiovisuelle pour l’apprentissage des langues étrangères peut également être étendue au domaine médical, principalement comme outil de démonstration et de visualisation en orthophonie. En plus d’améliorer la capacité à transmettre des informations, qui est sans conteste l’objectif premier de la parole, l’utilisation d’un visage virtuel capable de parler rend l’interaction avec la machine plus naturelle (Pandzic et al., 1999 ; Sproull et al., 1996), ce qui renforce le confort de l’utilisateur (Dehn et Van Mulken, 2000) et sa confiance dans le système (Ostermann et Millen, 2000). Les utilisateurs interagissant avec un système informatique par le biais d’une tête parlante réagissent donc plus positivement (Pandzic et al., 1999) et sont plus engagés (Sproull et al., 1996 ; Walker et al., 1994).

Quelle méthodologie de recherche a-t-on utilisée ?

Deux grandes étapes ont été au cœur de notre modélisation de la coarticulation.

Dans un premier temps, nous avons procédé à la phase de récolte de données, à l’aide d’outils de capture de mouvement (caméra OptiTrack et articulographie électromagnétique). Ces outils permettent d’obtenir de très fine mesure de la dynamique articulatoire d’un locuteur, mais on cependant quelques contraintes techniques nous empêchant l’acquisition de nombreuses heures de parole. Afin de s’assurer une bonne qualité des données ainsi qu’une bonne couverture des différents effets de coarticulation, nous avons donc préparé en amont un corpus textuel nous assurant une excellente richesse phonétique tout en minimisant la quantité de phrases à enregistrer.

Dans un second temps, nous avons procédé à la phase de conception et de validation de notre modèle de coarticulation. Cette phase est elle-même divisée en deux sous-étapes : une étape dite exploratoire consistant en l’élaboration d’un réseau de neurones artificiels capable d’apprendre la dynamique des articulateurs en fonction d’une séquence phonétique, et une étape dite d’évaluation subjective servant à valider notre modèle une fois appliqués à un système d’animation facial.

L’étape exploratoire fut guidée par l’utilisation de métrique usuelle du domaine (calculs de l’Erreur Quadratique Moyenne et de corrélations) servant à mesurer l’erreur commise par notre modèle sur sa prédiction de la dynamique des articulateurs par rapport aux données précédemment acquises (c’est-à-dire, au cours de la phase de récolte de données), ainsi que par une analyse fine de cette dynamique, afin de mesurer la qualité de nos prédictions vis-à-vis des cibles articulatoires critiques pour l’intelligibilité de la parole. Par exemple, cette analyse a été appliquée aux consommes bilabiales /b/, /p/ et /m/, pour lesquelles il est indispensable d’obtenir une fermeture totale des lèvres durant la production, faute de quoi le phonème perçu sera différent (voir effet McGurck à la section précédente).

L’étape d’évaluation subjective a été réalisée via une plateforme web, afin de mesurer la différence de préférence entre un visage 3D animé depuis les données de capture de mouvement (issues de notre acquisition de données), et un visage 3D animé par notre modèle de coarticulation. Dans ces deux cas de figures, la voix utilisé est celle enregistré pendant la capture de données. Afin d’évaluer la pertinence de notre modèle, nous avons proposés 50 paires de vidéos à 10 natifs Allemands adultes, ces vidéos couvrant un très grand ensemble des phonèmes de la langue Allemande. Pour chaque paires de vidéos, les participants ont le choix entre 6 niveaux afin de préciser leurs préférences pour l’un ou l’autre des échantillons (préférence pour : « A », « plutôt A », « un peu A », « un peu B », « plutôt B », « B »). Bien entendu, l’ordre d’apparition des vidéos est entièrement aléatoires.

Quels résultats a-t-on obtenus ?

Dans cette étude, nous avons validé l’utilisation d’un modèle particulier de réseaux de neurones pour la modélisation de la coarticulation, les réseaux de neurones récurrents bidirectionels. Ces derniers sont capables de prendre en compte l’information passée et future pour générer de la dynamique des articulateurs, capacité permettant de prendre en compte les phénomènes de coarticulation rétentive (l’influence des phonèmes passés sur la production du phonème courant) et de coarticulation anticipatoire (l’influence des phonèmes futures sur la production du phonème courant).

En termes de mesures objectives (erreur moyenne et corrélation), nos résultats atteignent l’état de l’art du domaine, avec cependant l’avantage majeur de pouvoir être appliqué à n’importe quelle langue et articulateur. Par exemple, nous avons utilisé ce modèle dans cette étude pour prédire la modalité visuelle (les déformations du visage) mais aussi la modalité articulatoire (la dynamique des principaux articulateurs internes comme la langue ou le palais mou), et ce dans différentes langues (Anglais, Allemand et Français). En comparant nos résultats sur un corpus articulatoire ouvert avec ceux issues de l’inversion acoustique, tâche consistant en la prédiction des trajectoires articulatoires depuis le signal acoustique, nous avons également validé que l’utilisation d’informations phonétiques seules (phonème et durée respective) est suffisante pour prédire la modalité articulatoire avec une grande précision.

Concernant l’évaluation subjective, il peut sembler très difficile de comparer nos prédictions aux données issues de la capture de mouvement. En effet, il semble impossible de prédire des trajectoires articulatoires « meilleures » que les données originales. L’objectif de notre évaluation est donc de montrer qu’il est très difficile pour les participants de différencier les deux animations. Nous avons pour cela développé un simple taux d’appréciation basé sur le choix catégorique de préférence des participants. Une valeur de 50 % de ce taux représente donc une appréciation égale entre nos prédictions et la capture de mouvement. Nous avons obtenu un honorable score de 41 %, signifiant donc une légère préférence pour les trajectoires articulatoires originales. Une analyse fine de ces résultats révèle que certaines prédictions sont très nettement rejetées par l’utilisateur (c’est-à-dire, nos 10 participants), ouvrant ainsi des pistes de réflexion intéressantes pour l’amélioration de ce modèle.

Que dois-je retenir de cette étude pour ma pratique ?

  • La parole ne se limite pas à une onde sonore, et les informations visuelles apportées par le visages ont utilisées par l’interlocuteur pour décoder le message.
  • L’information visuelle augmente l’intelligibilité du discours, particulièrement lorsque le signal acoustique est dégradé.
  • Cette intelligibilité supplémentaire peut-être restaurée à l’aide d’outils numériques.
  • L’utilisation d’une tête parlante virtuelle aide à capter l’attention et augmenter la compréhension des apprenants.

Références

Benoit, M. M., Raij, T., Lin, F.-H., Jääskeläinen, I. P. et Stufflebeam, S. (2010). Primary and multisensory cortical activity is correlated with audiovisual percepts. Human Brain Mapping, 31(4), 526-538.

Campbell, R., Burnham, D., Dodd, B., Campbell, R., Away, G. et Burnham, D. K. (1998). Hearing by eye II: Advances in the psychology of speechreading and auditory-visual speech (vol. 2). Psychology Press.

Cosatto, E., Ostermann, J., Graf, H. P. et Schroeter, J. (2003). Lifelike talking faces for interactive services. Proceedings of the IEEE, 91(9), 1406-1429.

Dehn, D. M. et Van Mulken, S. (2000). The impact of animated interface agents: a review of empirical research. International Journal of Human-Computer Studies, 52(1), 1-22.

Dixon, N. F. et Spitz, L. (1980). The detection of audiovisual desynchrony. Perception, 9, 719-721.

Gibbs, S., Breiteneder, C., De Mey, V. et Papathomas, M. (1993). Video widgets and video actors. Dans Proceedings of the 6th annual ACM symposium on User interface software and technology (p. 179-185).

Granström, B. et House, D. (2005). Audiovisual representation of prosody in expressive speech communication. Speech Communication, 46(3-4), 473-484.

Green, K. P. et Kuhl, P. K. (1989). The role of visual information in the processing of place and manner features in speech perception. Perception and Psychophysics, 45, 34-42.

Green, K. P. et Kuhl, P. K. (1991). Integral processing of visual place and auditory voicing information during phonetic perception. Journal of Experimental Psychology: Human Perception and Performance, 17, 278-288.

Hazan, V., Sennema, A., Iba, M. et Faulkner, A. (2005). Effect of audiovisual perceptual training on the perception and production of consonants by Japanese learners of English. Speech Communication, 47(3), 360-378.

Jiang, J., Alwan, A., Keating, P. A., Auer, E. T. et Bernstein, L. E. (2002). On the importance of audiovisual coherence for the perceived quality of synthesized visual speech. EURASIP Journal on Applied Signal Processing, 11, 1174-1188.

Johnson, W. L., Rickel, J. W., Lester, J. C.et al., (2000). Animated pedagogical agents: Face-to-face interaction in interactive learning environments. International Journal of Artificial Intelligence in Education, 11(1), 47-78.

Le Goff, Guiard-marigny, T., Cohen, M. et Benoit, C. (1994). Real-Time Analysis-Synthesis and Intelligibility of Talking Faces. Dans 2nd International conference on Speech Synthesis (p. 53-56).

MacSweeney, M., Calvert, G. A., Campbell, R., McGuire, P. K., David, A. S., Williams, S. C., Woll, B.et Brammer, M. J. (2002). Speech reading circuits in people born deaf. Neuropsychologia, 40(7), 801-807.

Massaro, D. W. (2003). A computer-animated tutor for spoken and written language learning. Dans Proceedingsof the 5th international conference on Multimodal interfaces (p. 172-175).

McGurk, H. et MacDonald, J. (1976). Hearing lips and seeing voices. Nature, 264, 746-748.

Ostermann, J. et Millen, D. (2000). Talking heads and synthetic speech: An architecture for supporting electronic commerce. Dans 2000 IEEE International Conference on Multimedia and Expo. ICME2000. Proceedings. Latest Advances in the Fast Changing World of Multimedia (Cat. No. 00TH8532) (vol. 1, p. 71-74). IEEE.

Ouni, S., Cohen, M. M., Ishak, H. et Massaro, D. W. (2007). Visual contribution to speech perception: measuring the intelligibility of animated talking heads. EURASIP Journal on Audio, Speech, and Music Processing, 2007(1), 3-3. https://doi.org/10.1155/2007/47891

Pandzic, I. S., Ostermann, J. et Millen, D. (1999). User evaluation: Synthetic talking faces for interactive services. The Visual Computer, 15(7), 330-340. https://doi.org/10.1007/s003710050182

Skipper, J. I., Van Wassenhove, V., Nusbaum, H. C. et Small, S. L. (2007). Hearing lips and seeing voices: how cortical areas supporting speech production mediate audiovisual speech perception. Cerebral Cortex, 17(10), 2387-2399.

Sproull, L., Subramani, M., Kiesler, S., Walker, J. H. et Waters, K. (1996). When the interface is a face. Human-Computer Interaction, 11(2), 97-124.

Sumby, W. et Pollack, I. (1954). Visual contribution to speech intelligibility in noise. Journal of the Acoustical Society of America, 26, 212.

Swerts, M. et Krahmer, E. (2005). Audiovisual prosody and feeling of knowing. Journal of Memory and Language, 53(1), 81-94.

Walker, J. H., Sproull, L. et Subramani, R. (1994). Using a human face in an interface. Dans Proceedings of the SIGCHI conference on human factors in computing systems (p. 85-91).

Catégories
Thèses

Adapter automatiquement les plannings de révisions aux besoins des élèves

Benoît CHOFFIN

Niveaux

Tous niveaux

 

 

Public

Tous enseignants (toutes matières et tous niveaux confondus)

 

Contact

Action/Projet associé(e)

Ressource(s) associée(s)

Non renseigné pour le moment

À quelles questions cette étude tente-t-elle de répondre ?

Par rapport à un apprentissage « massé », espacer son apprentissage (c’est-à-dire, le découper en plus petites sessions espacées dans le temps) améliore la mémorisation de connaissances à long terme chez l’apprenant (Cepeda et al., 2008 ; Kang, 2016). Des algorithmes d’espacement adaptatif qui personnalisent automatiquement l’espacement entre plusieurs révisions en fonction des besoins de chaque apprenant ont été développés par le passé (Hunziker et al., 2019 ; Lindsey et al., 2014 ; Tabibian et al., 2019). Néanmoins, ces algorithmes fonctionnent seulement pour la mémorisation pure de connaissances simples, comme des flashcards. Au cours de ce travail de recherche, nous avons cherché à étendre les algorithmes d’espacement adaptatif pour qu’ils permettent de réviser un ensemble de composantes de connaissance1 (CC, Knowledge Components en anglais).

Plus précisément, nous nous sommes intéressés à deux questions de recherche principales :

  1. Comment modéliser statistiquement l’évolution temporelle de la maîtrise d’un apprenant sur un ensemble de CC à partir de ses réponses passées sur un ensemble d’items2 ?
  2. Sachant que l’on dispose pour un apprenant d’un nombre fixe d’items de révision et que les périodes de révision sont déterminées par un agent extérieur3, comment choisir automatiquement la séquence d’items qui maximisera la maîtrise à long terme de l’apprenant sur les CC ?

Pourquoi ces questions sont-elles pertinentes ?

Question 1 :
Une part importante des algorithmes d’espacement adaptatif de l’apprentissage existants reposent sur l’utilisation d’un modèle statistique de l’apprenant (Hunziker et al., 2019 ; Lindsey et al., 2014 ; Pavlik et Anderson, 2008). Ces modèles peuvent servir à estimer la probabilité de rappel immédiat d’une connaissance pour choisir un item qui est sur le point d’être oublié ou bien à anticiper les conséquences en termes de mémorisation à long terme d’un choix d’item à l’instant t.

Question 2 :
La révision périodique de connaissances est plus connue en psychologie cognitive sous le nom de répétition espacée (Cepeda et al., 2008 ; Kang, 2016). Plus formellement, la stratégie de répétition espacée consiste à découper l’apprentissage d’un même ensemble d’informations (par exemple, des mots de vocabulaire dans une langue étrangère) en plus petites sessions d’apprentissage espacées dans le temps. La répétition espacée améliore la mémorisation à long terme de ces informations par rapport à un apprentissage dans une seule session dite « massée » : ce bénéfice de la répétition espacée est appelé effet d’espacement (ou spacing effect, en anglais). Notons ici que cette stratégie est meilleure que l’apprentissage « massé » pour la mémorisation à long terme même à durée égale d’apprentissage.

Cependant, si les bénéfices de l’espacement comparés à ceux de l’apprentissage massé sont clairement établis, il reste à savoir comment, en pratique, espacer ses révisions. Pour répondre à cette problématique, des avancées scientifiques récentes en intelligence artificielle pour l’éducation ont permis le développement de systèmes d’espacement adaptatif et personnalisé de l’apprentissage pour l’amélioration de la mémorisation à long terme de flashcards (Lindsey et al., 2014 ; Tabibian et al., 2019). À partir de l’historique d’apprentissage passé d’un apprenant, ces outils détectent ses besoins et personnalisent séquentiellement l’espacement temporel entre deux révisions d’une même connaissance.

En se concentrant sur les items qui bénéficieraient le plus d’une révision, ces outils sont capables d’améliorer de manière significative la rétention en mémoire des items étudiés à moyen et long terme, par rapport à des plannings fixes d’espacement. Comparé à un espacement identique pour tous les individus, plusieurs expériences montrent que l’espacement adaptatif maintient un plus haut degré d’ancrage en mémoire à long terme des informations apprises en ralentissant la décroissance des courbes d’oubli (Lindsey et al., 2014 ; Mettler et al., 2016). Différents algorithmes d’espacement adaptatif de l’apprentissage sont implémentés dans plusieurs systèmes de flashcards électroniques, comme Anki, SuperMemo ou bien Mnemosyne.

Toutefois, ces algorithmes ne fonctionnent actuellement que pour l’apprentissage et la mémorisation pure de connaissances simples, comme des connaissances factuelles (par exemple, des mots de vocabulaire). À notre connaissance, aucun travail de recherche n’avait jamais cherché à étendre ces algorithmes quand les connaissances à retenir consistent en un ensemble de CC. Pourtant, l’effet d’espacement ne se cantonne pas à l’apprentissage de vocabulaire ou à la mémorisation pure d’éléments (comme avec les flashcards) : il a par exemple été appliqué avec succès à l’acquisition et à la généralisation de concepts scientifiques abstraits (Vlach et Sandhofer, 2012) et à la pratique de compétences mathématiques dans un contexte éducatif réel (Barzagar Nazari et Ebersbach, 2019).

Quelle méthodologie de recherche a-t-on utilisée ?

Nous avons choisi de développer plusieurs algorithmes avec modèle4 pour notre problématique de l’espacement personnalisé des révisions de CC. Or, la plupart des modèles de l’apprenant que l’on peut trouver dans la littérature soit (1) intègrent les relations entre items et CC dans leur structure, soit (2) modélisent l’oubli, mais à notre connaissance, aucun ne faisait les deux à la fois. Il nous était alors nécessaire de développer un modèle de l’apprenant qui prenne ces deux dimensions en compte pour pouvoir l’intégrer ensuite dans un algorithme d’espacement adaptatif de l’apprentissage de CC.

Nous avons donc tout d’abord développé un nouveau modèle prédictif de l’apprenant, que nous avons baptisé DAS3H (Choffin et al., 2019). DAS3H a la particularité de modéliser l’apprentissage et l’oubli d’un apprenant sur un ensemble de CC, à partir de ses réponses passées à un ensemble d’items. DAS3H étend le modèle DASH (Lindsey et al., 2014) et s’inscrit à la fois dans la lignée des modèles de l’apprenant à facteurs additifs et dans celle des modèles cognitifs de la mémoire humaine.

Pour évaluer DAS3H (Question 1), nous avons comparé ses performances prédictives, mesurées par validation croisée, à quatre autres modèles prédictifs de l’apprenant sur cinq jeux de données éducatives. La validation croisée est un ensemble de méthodes en machine learning permettant d’évaluer le pouvoir de généralisation d’un modèle, c’est-à-dire sa capacité à prédire avec précision des données qu’il n’aurait jamais vues. Les données que nous avons utilisées consistaient en des interactions d’un ensemble d’apprenants avec un ensemble d’items sur trois systèmes d’apprentissage adaptatif différents. Quatre jeux de données concernent l’apprentissage des mathématiques et le cinquième, l’apprentissage de la programmation. Chaque interaction, c’est-à-dire chaque réponse, était juste ou fausse.

Pour répondre à notre problématique d’espacement adaptatif de l’apprentissage de CC, nous avons choisi de développer d’abord des algorithmes simples et efficaces d’espacement. Nous avons donc proposé et implémenté trois heuristiques (c’est-à-dire, des algorithmes qui approximent la solution optimale d’un problème) pour sélectionner la meilleure CC à faire réviser à un apprenant à un instant t :

  • μ-back, qui sélectionne la CC introduite μ semaines auparavant ;
  • θ-threshold, qui sélectionne la CC dont la probabilité de bonne réponse est la plus proche d’une valeur fixée en avance θ. Intuitivement, elle cherche à choisir la CC qui est sur le point d’être oubliée ;
  • Greedy, qui sélectionne la CC dont la révision rapportera le gain de mémorisation espérée à long terme le plus élevé.

θ-threshold et Greedy sont deux heuristiques d’espacement adaptatif fondées sur un modèle de l’apprenant ; μ-back est non adaptative et ne nécessite pas de modèle.

Nous avons également développé une nouvelle procédure qui permet de sélectionner, à partir d’une heuristique et son critère de choix de CC, le sous-ensemble de CC le plus prometteur au lieu de la meilleure CC à un instant t. Ensuite, l’algorithme choisit un des items de révision qui met en jeu les CC du sous-ensemble optimal déterminé. Nous avons donc proposé une version « multi-CC » pour les heuristiques θ-threshold et Greedy, μ-back n’étant pas compatible avec cette procédure.

Les stratégies que nous avons décrites ci-dessus sont des heuristiques construites a priori. Nous avons également voulu explorer une approche différente pour l’espacement adaptatif de l’apprentissage de CC : au lieu de développer en avance la politique de choix de CC, il est aussi possible de créer un algorithme qui apprendrait la politique de sélection optimale en interagissant avec des apprenants (ici, simulés). L’apprentissage par renforcement (profond) fournit des méthodes de choix pour résoudre un tel problème.

Nous avons donc enfin proposé l’algorithme AC4S (Actor-Critic 4 Spacing), un algorithme d’apprentissage par renforcement profond pour l’optimisation de l’espacement des révisions d’un ensemble de CC. Contrairement aux heuristiques présentées plus haut, cet algorithme ne s’appuie pas, au contraire de θ-threshold par exemple, sur des connaissances établies en psychologie cognitive concernant le fonctionnement de l’apprentissage humain.

Pour comparer les différents algorithmes d’espacement adaptatif pour la mémorisation à long terme de CC (Question 2), nous avons élaboré et implémenté un protocole de simulation informatique de trajectoires d’apprentissage et d’oubli synthétiques. Comme nous ne disposions pas de terrain d’expérimentation pour tester sur de vrais apprenants nos différents algorithmes, nous avons opté pour des simulations de trajectoires synthétiques, mais réalistes, d’apprenants auxquels nous avons assigné l’une ou l’autre de ces stratégies d’espacement. Plus précisément, nous avons mené ces expériences sur 100 cohortes de 500 apprenants simulés afin de nous assurer de la robustesse de nos résultats. L’objectif de ce protocole était de pouvoir malgré tout bénéficier d’une première évaluation des performances respectives de nos algorithmes, dans un environnement contrôlé et idéalisé. Ce protocole, qui reproduit la problématique d’un enseignant voulant mettre en place des séances de révision périodiques des CC qu’il introduit au fil de son cours, repose notamment sur le modèle DAS3H (Choffin et al., 2019). Les performances des différents algorithmes de sélection de CC (μ-back, θ-threshold, Greedy, AC4S) ont été comparées à l’aide de la PMRR, un score décrivant la maîtrise moyenne d’un apprenant sur un ensemble de CC et sur une période future donnée.

Quels résultats a-t-on obtenus ?

Lors de la comparaison des performances prédictives (Question 1) de notre modèle DAS3H à quatre modèles statistiques (IRT, van der Linden et Hambleton, 2013 ; AFM, Cen et al., 2006 ; PFA, Pavlik et al., 2009 ; et DASH, Lindsey et al., 2014) de l’apprenant, celui-ci s’est avéré plus prédictif que ses concurrents. Cette comparaison nous a servi à nous assurer que DAS3H est un bon modèle de l’apprentissage et l’oubli d’un ensemble de CC : cette étape préalable était nécessaire avant d’utiliser DAS3H dans un algorithme d’espacement adaptatif.

Plusieurs résultats centraux sont ressortis des expériences que nous avons menées dans le cadre de notre deuxième question de recherche :

  • La stratégie μ-back constitue une stratégie d’espacement non adaptative, mais efficace quand elle est bien paramétrée.
  • L’heuristique θ-threshold se démarque par ses performances supérieures pendant la période d’apprentissage et elle est relativement aisée à paramétrer.
  • Greedy ne surpasse que marginalement les performances de mémorisation de μ-back et θ-threshold mais a l’avantage de ne pas nécessiter d’ajustement de paramètre. Elle s’est en outre avérée plus robuste à des comportements d’apprentissage et d’oubli atypiques.
  • On peut améliorer significativement les performances de Greedy et θ-threshold par l’utilisation de la procédure de sélection de sous-ensemble de CC que nous avons proposée.

Nous avons également montré que notre algorithme d’apprentissage par renforcement AC4S parvient à apprendre une politique de sélection d’items meilleure que l’ensemble des heuristiques de sélection de CC unique mais que sa vitesse de convergence est faible (c’est-à-dire qu’il faut beaucoup d’interactions avec des apprenants avant qu’il ne devienne vraiment performant). Ces résultats suggèrent que l’apprentissage par renforcement est une piste prometteuse pour l’espacement adaptatif des révisions de CC mais qu’elle nécessiterait d’être améliorée.

Que dois-je retenir de cette étude pour ma pratique ?

  • À l’échelle d’une classe, intégrer des révisions périodiques et identiques pour tout le monde des concepts et notions abordées précédemment permet de favoriser un apprentissage durable. Nos résultats suggèrent qu’un espacement fixe d’une semaine entre l’introduction d’une nouvelle notion et la proposition d’exercices de révision sur cette notion suffit déjà à produire de bons résultats en termes de mémorisation à long terme.
  • Pour la mémorisation pure de connaissances simples, comme des définitions ou des mots de vocabulaire, les enseignants peuvent partager avec leurs élèves un deck de flashcards sur des plateformes comme Anki5. En s’entraînant à retenir ces flashcards, les élèves se verront proposer un planning de révision adapté à leurs difficultés sur telle ou telle flashcard.

Notes de bas de page :

  1. « Nous définissons une composante de connaissance (CC) comme étant une unité acquise d’une fonction cognitive ou une structure qui peut être inférée de la performance d’un apprenant sur un ensemble de tâches liées entre elles. […] En pratique, nous utilisons la notion de composante de connaissance pour généraliser des termes qui décrivent des éléments de cognition ou de connaissance […] mais également des termes de tous les jours comme concept, principe, fait ou compétence […]. » (Koedinger et al., 2012). ↩︎
  2. Un item est une activité pédagogique impliquant une récupération en mémoire de connaissances de la part de l’apprenant. La notion d’item généralise les notions d’exercice, de question, de test,… ↩︎
  3. Par exemple, un enseignant, un formateur, l’apprenant lui-même… ↩︎
  4. C’est-à-dire qu’ils utilisent un modèle statistique de l’apprenant, capable de prédire à plus ou moins long terme si un élève sera capable de résoudre correctement un item. ↩︎
  5. https://apps.ankiweb.net/ ↩︎

Références

Barzagar Nazari, K. et Ebersbach, M. (2019). Distributing mathematical practice of third and seventh graders: Applicability of the spacing effect in the classroom. Applied Cognitive Psychology, 33(2), 288-298.

Cen, H., Koedinger, K. et Junker, B. (2006). Learning factors analysis–a general method for cognitive model evaluation and improvement. Dans International Conference on Intelligent Tutoring Systems (p. 164-175). Springer.

Cepeda, N. J., Vul, E., Rohrer, D., Wixted, J. T. et Pashler, H. (2008). Spacing effects in learning: A temporal ridgeline of optimal retention. Psychological Science, 19(11), 1095-1102.

Choffin, B., Popineau, F., Bourda, Y. et Vie, J.-J. (2019). DAS3H: Modeling Student Learning and Forgetting for Optimally Scheduling Distributed Practice of Skills. Dans Proceedings of the Twelfth International Conference on Educational Data Mining (EDM 2019) (p. 29-38).

Hunziker, A., Chen, Y., Mac Aodha, O., Rodriguez, M. G., Krause, A., Perona, P., Yue, Y. et Singla, A. (2019). Teaching multiple concepts to a forgetful learner. Advances in Neural Information Processing Systems, 4050-4060.

Kang, S. H. (2016). Spaced repetition promotes efficient and effective learning : Policy implications for instruction. Policy Insights from the Behavioral and Brain Sciences, 3(1), 12-19.

Koedinger, K. R., Corbett, A. T. et Perfetti, C. (2012). The Knowledge-Learning-Instruction framework: Bridging the science-practice chasm to enhance robust student learning. Cognitive Science, 36(5),757-798.

Lindsey, R. V., Shroyer, J. D., Pashler, H. et Mozer, M. C. (2014). Improving students’ long-term knowledge retention through personalized review. Psychological Science, 25(3), 639-647.

Mettler, E., Massey, C. M. et Kellman, P. J. (2016). A comparison of adaptive and fixed schedules of practice. Journal of Experimental Psychology: General, 145(7), 897.

Pavlik, P. I. et Anderson, J. R. (2008). Using a model to compute the optimal schedule of practice. Journal of Experimental Psychology: Applied, 14(2), 101.

Pavlik, P. I., Cen, H. et Koedinger, K. R. (2009). Performance Factors Analysis – A New Alternative to Knowledge Tracing. Dans Proceedings of the 14th International Conference on Artificial Intelligence in Education, AIED 2009 (p. 531-538).

Tabibian, B., Upadhyay, U., De, A., Zarezade, A., Schölkopf, B. et Gomez-Rodriguez, M. (2019). Enhancing human learning via spaced repetition optimization. Proceedings of the National Academy of Sciences, 116(10), 3988-3993.

van der Linden, W. J. et Hambleton, R. K. (2013). Handbook of modern item response theory. Springer Science & Business Media.

Vlach, H. A. et Sandhofer, C. M. (2012). Distributing learning over time: The spacing effect in children’s acquisition and generalization of science concepts. Child Development, 83(4), 1137-1144.

Catégories
Ressources

Plateforme numérique Didask

Des parcours pédagogiques pour les enseignants du 1er degré

Niveaux

Enseignants du 1er degré

Action/Projet associé(e)

Contact

Présentation

La plateforme numérique en question a été créée par Didask, une start-up qui mise sur le numérique (digital learning) pour permettre à chacun d’apprendre et d’acquérir de nouvelles compétences.
L’ingénierie pédagogique sur Didask s’inspire des résultats de la recherche en psychologie afin de rendre la plateforme de formation plus ergonomique.
L’architecture de la plateforme Didask a été conçue selon le modèle de l’apprentissage par la récupération en mémoire (testing effect en anglais).

Au cœur des formations se trouvent :

  • l’utilisation de quiz
  • des exercices variés
  • des ressources pédagogiques aux formats variés (vidéos, articles, illustrations, textes, powerpoint…)

Pour engager activement les apprenants et consolider leur processus de mémorisation à long terme, les utilisateurs apprennent en étant testés de façon récurrente (via les quiz) avec la possibilité d’accéder à la partie théorique du cours quand ils le souhaitent. Au sein du projet Parcours Connectés, c’est la plateforme numérique Didask qui assume l’hébergement des ressources pédagogiques sur les compétences transversales et permet la personnalisation des parcours de formation.

Captures d’écran illustrant la plateforme numérique Didask  :

Capture d'écran représentant l'ensemble des modules de formation proposés. Description détaillée ci-dessous.
(a) Modules de formation proposés

Disponibilité

La plateforme numérique développée par Didask met à disposition des parcours pédagogiques sur les compétences transversales pour les enseignants du premier degré au sein du projet.

Catégories
e-FRAN Toutes les actions et projets

Projet PARCOURS CONNECTÉS

Accompagner et former les enseignants en début de carrière

L’entrée dans la profession est un défi qui pose souvent des difficultés pour les enseignants débutants.
Le projet Parcours Connectés a pour ambition d’impulser une nouvelle dynamique pour offrir un meilleur accompagnement aux futurs enseignants en début de carrière.
Afin d’atteindre cet objectif, deux piliers ont été mis en place :

  • Un accompagnement individualisé et collectif au cours des deux premières années d’entrée dans le métier. L’enseignant débutant bénéficie d’un suivi individualisé ainsi que d’un réseau de pairs (avec d’autres enseignants-stagiaires et des enseignants expérimentés). La mise en place de cette communauté de pairs vise le développement des compétences professionnelles autour de temps de réflexions et d’échanges de pratiques.
  • La formation des futurs enseignants aux compétences transversales (en particulier l’esprit critique, la coopération et la créativité) qui s’inscrit dans le cadre du master MEEF 1er degré proposé par l’INSPE de l’académie de Créteil.

Afin de favoriser la dynamique portée par ce projet, une plateforme en ligne innovante a également été créée afin de mettre la co-construction et le partage des savoirs au cœur de cette communauté éducative.

© Vidéo YouTube : PARCOURS CONNECTÉS

Responsable projet :
Florence RIZZO
Coordinateurs projet :
Franck RAMUS
Rozenn DAGORN

Quelques chiffres

Académie de Créteil

899 K€ de subventions

66 écoles
1 980 élèves

Carte de France indiquant les départements impliqués dans le projet. Description détaillée ci-dessous.

Résultats obtenus

Les résultats obtenus à l’année 2020 peuvent être présentés selon deux volets :

  • La conception de parcours en formation en ESPE :
    • Sur le site de Livry : 10 groupes (300 enseignants) ont été suivis par 5 formateurs.
    • Sur le site de Bonneuil : 3 groupes (90 enseignants) ont été suivis par 2 formateurs.
  • Concernant le suivi des enseignants durant leur première année :
    • En Seine-Saint-Denis, 43 enseignants titulaires ont participé à 5 séances de formation de 3 heures chacune.
    • Le bilan établi en dernière séance établit et réaffirme :
      1. L’importance des échanges entre pairs.
      2. Le rôle des échanges de bonnes pratiques pour progresser dans leurs classes respectives.

Préconisations

Les résultats de Parcours Connectés indiquent :

  1. L’importance de valoriser les échanges entre pairs et des partages de bonnes pratiques et de défis dans la formation des enseignants débutants. Ces communautés seront particulièrement utiles pour assurer une plus grande continuité entre les années de formation initiale et l’entrée dans la vie professionnelle.
  2. Les enseignants débutants éprouvent des besoins de formation qui vont au-delà des contenus disciplinaires. Nous recommandons le renforcement de la place des compétences transversales dans la formation initiale et continue des enseignants.
  3. Le projet a démontré l’intérêt des outils numériques et des plateformes communautaires pour animer un réseau d’échange professionnel et personnaliser les parcours de formation.
  4. Il est nécessaire de prendre appui sur les résultats de la recherche, notamment en psychologie, pour créer des environnements d’apprentissage numériques ergonomiques et performants.

Prolongements du projet

Sur le plan scientifique, les résultats de la thèse d’Alice Latimier apportent une meilleure compréhension sur la manière d’utiliser l’apprentissage par les tests. Ils suggèrent également de nouvelles pistes de recherche sur l’optimisation des apprentissages pour promouvoir la consolidation de nouvelles connaissances.

Sur le plan pratique, ces résultats sont directement exploitables dans le développement des outils numériques pour l’apprentissage. Ces résultats ont été intégrés par l’équipe de développement de la plateforme Didask qui a dépriorisé temporairement les améliorations de la fonctionnalité d’espacement des apprentissages, pour se concentrer sur l’amélioration de l’efficacité pédagogique des tests proposés sur la plateforme.

Par ailleurs, un progrès certain a été accompli dans le cadre de la planification de révisions par répétition espacée d’items possédant des compétences multiples. Les travaux menés ont permis de mieux formaliser ce problème, d’apporter des méthodes et de fournir un cadre d’évaluation. L’utilisation des méthodes d’apprentissage automatique suppose la disponibilité de données en quantité. L’étape suivante consisterait donc à déployer des expériences en grandeur nature en classe pour confronter les méthodes proposées aux données réelles et affiner avec la mise en situation.

Catégories
Thèses

Conception et évaluation d’un environnement de réalité mixte pour l’apprentissage collaboratif

Philippe GIRAUDEAU

Niveaux

Du CP au lycée

 

 

 

Public

Enseignants du 1er et du 2nd degré

 

 

 

Action/Projet associé(e)

Ressource(s) associée(s)

Non renseigné pour le moment

À quelles questions cette étude tente-t-elle de répondre ?

Le travail de recherche mené dans le cadre de ce projet avait pour objectif de concevoir puis d’évaluer un environnement physico-numérique dédié à l’apprentissage collaboratif en salle de classe. Ici, nous avons essayé d’aller au-delà des outils numériques existants disponibles en salle de classe comme par exemple, l’ordinateur personnel. En effet, ce type de solution bien que largement accessible n’a pas été initialement conçu pour des activités pédagogiques de groupes. Dans ce travail de recherche, nous proposons d’utiliser de nouveaux paradigmes d’interaction avec le numérique, basés notamment sur la réalité augmentée et les interactions tangibles, afin de créer des environnements mixtes où le monde physique sert de support au monde virtuel. Si ces paradigmes existent depuis aux moins deux décennies, ils sont encore peu répandus au sein de notre société et difficilement accessibles hors de cas d’usage très spécifiques.

L’objectif a été de concevoir puis d’évaluer des environnements physico-numériques qui mélangent des objets physiques présents en salle de classe tels que du papier, des crayons et des livres, avec des éléments numériques projetés (images, sons vidéos), au sein d’un même espace de travail. Ainsi, les élèves peuvent travailler de façon active et collective, comme ils le feraient dans un espace purement physique, tout en bénéficiant des possibilités offertes par le numérique.

Pour ce faire, nous nous sommes posés les questions suivantes : 1) Quels types de systèmes de réalité augmentée est le plus bénéfique pour des activités pédagogiques d’apprentissage collaboratif en contexte écologique ? 2) Le système sélectionné est-il utilisable en contexte de salle de classe ?

Pourquoi ces questions sont-elles pertinentes ?

Question 1 : Quels types de systèmes de réalité augmentée est le plus bénéfique pour des activités pédagogiques d’apprentissage collaboratif en contexte écologique ?

Les technologies numériques ont un rôle majeur dans l’éducation, comme l’affirme notamment la Commission européenne (European Commission, 2009 ; European Commission. Education, Audiovisualand Culture Executive Agency (EACEA), 2009), qui établit le numérique à l’école comme l’une des priorités pour l’enseignement, l’apprentissage et le développement des compétences du 21e siècle. Suivant cette tendance forte, de nombreux projets ont introduit des ordinateurs, des tablettes et des téléphones à l’école, et des centaines d’applications dédiées sont en cours de développement. Ces applications reposent généralement sur des paradigmes d’Interaction Humain-Machine (IHM) standards, à savoir le WIMP (Windows, Icons, Menus, Pointeur) et les adaptations tactiles. Ces paradigmes se sont révélés utiles pour de nombreuses tâches telles que l’édition de texte ou la collecte d’informations sur Internet. Cependant, il a été démontré que ces paradigmes sont limités pour les activités d’apprentissage où les gestes, la spatialisation d’information ou encore les activités collaboratives sont importants (Stanton et Neale, 2003).

Pour ce type d’activités, les approches ubiquitaires qui se déroulent dans un espace tridimensionnel et favorisent les interactions spatiales semblent avoir un bon potentiel (Hornecker et Buur, 2006). En particulier, les approches numériques qui reposent sur l’interaction tangible et la réalité augmentée ouvrent de nouvelles possibilités par rapport aux approches plus traditionnelles basées sur les ordinateurs de bureau et les tablettes (Fleck et Hachet, 2016).
Ainsi, nous avons basé notre travail sur la Réalité Augmentée Spatiale (RAS), qui consiste à augmenter les objets physiques en projetant des informations générées par ordinateur sur leurs surfaces via un vidéo-projecteur (Raskar et Low, 2001). Le concept de RAS a été introduit par Raskar et al. (1998), en démontrant notamment le potentiel immersif de cette technologie.

L’un des principaux avantages de la RAS est qu’elle permet une manipulation directe des données virtuelles en ancrant le contenu numérique sur des surfaces physiques. De même, les interfaces tangibles (IT) (Shaer et Hornecker, 2010) se concentrent sur l’intégration et la manipulation d’informations numériques par le biais d’artefacts physiques.

Question 2 : Le système sélectionné est-il utilisable en contexte de salle de classe ?

Bien qu’un grand nombre d’interfaces de réalité augmentée mobile, basées sur des tablettes et téléphones, aient été conçues pour l’éducation (par exemple, Akçayır et Akçayır, 2017 ; Chen et al., 2017), nous avons privilégié des approches plus ubiquitaires permettant des interactions directes (sans avoir un écran entre les mains), supportant de grands espaces de manipulations afin de faciliter la manipulation des données de manière collaborative.

Malgré leur potentiel, les mises en œuvre concrètes des approches de RAS et IT à l’école restent rares. Cela nous invite à proposer des recherches fondamentales et appliquées pour explorer comment les approches tangibles et de réalité augmentée peuvent servir l’objectif de l’éducation, notamment en favorisant le partage des connaissances, la construction de concepts et la facilitation des relations sociales. Ces recherches impliquent notamment de pouvoir tester en condition écologique de la salle de classe ces nouveaux paradigmes d’interactions en proposant une évaluation de l’outil sur des paramètres tels que l’utilisabilité du dispositif ainsi que son acceptabilité et sa désidérabilité.

Quelle méthodologie de recherche a-t-on utilisée ?

Afin de concevoir le dispositif de réalité mixte appelé CARDS (pour Collaborative Activities based on the Real and the Digital Superimposition, voir Figure 1), nous avons suivi une méthodologie de conception itérative en 3 étapes auprès de 133 élèves — principalement scolarisés dans l’académie de Nancy-Metz — âgés de 9 à 13 ans sur une durée de 6 mois. L’ensemble des évaluations de la conception itérative a été validé par le comité d’éthique de l’INRIA.

Les trois cycles itératifs ont chacun suivi un modèle de conception itératif, où à partir de retours utilisateurs et de données issues de la littérature, des fonctionnalités et interactions étaient développées, puis présentées aux élèves et professeurs pour une évaluation en contexte scolaire. Pour les cycles itératifs 2 et 3, un protocole expérimental a été défini, déterminant l’activité à réaliser, le nombre d’élèves par groupe et les données collectées, y compris les questionnaires et les enregistrements vidéo pour les évaluations futures.

Photo représentant des enfants utilisant le système de réalité mixte CARDS
Figure 1 – CARDS est un système de réalité mixte destiné à l’apprentissage collaboratif en contexte scolaire, où le contenu physique et numérique est manipulé par plusieurs utilisateurs dans un espace de travail.

Tout au long du cycle de conception participative, des évaluations quantitatives ont été proposées à tous les participants, enseignants et enfants, par le biais d’un questionnaire évaluant l’expérience utilisateur appelé Attrakdiff. Ce questionnaire est basé sur un modèle théorique utilisant deux dimensions : (i) les qualités pragmatiques du système évalué, c’est-à-dire la capacité à soutenir l’exécution de la tâche ; (ii) les qualités hédoniques, à savoir le potentiel du système à être agréable à utiliser. L’Attrakdiff présenté aux enfants est une version simplifiée de l’Attrakdiff original, dont la version française est validée, et qui a déjà prouvé son adéquation à l’usage des enfants (Fleck et al., 2017). La figure 2 compile les retours des enseignants et des enfants des différentes sessions.

Par ailleurs, nous avons également réalisé des entretiens semi-dirigés par groupe d’élèves afin d’enrichir les résultats obtenus par le questionnaire Attrakdiff. Enfin, pour étudier les interactions avec le système (par exemple, erreurs d’interaction, temps de complétion) les séances d’évaluation du dispositif étaient enregistrées.

Résultats au questionnaire Attrakdiff. Description détaillée ci-dessous.
Figure 2 – Résultats au questionnaire Attrakdiff. Portfolio des résultats : les valeurs moyennes obtenues aux échelles hédoniques sont représentées sur l’axe vertical et la valeur moyenne à l’échelle pragmatique est représentée sur l’axe horizontal. Selon les scores obtenus aux deux dimensions, le système a été noté comme désirable par l’ensemble des groupes interrogés.

Quels résultats a-t-on obtenus ?

À l’issu du développement itératif mené en contexte scolaire, nous avons pu concevoir une version finale d’un premier prototype augmentée et tangible appelé CARDS (pour Collaborative Activities based on the Real and the Digital Superimposition). La version finale de CARDS est un dispositif portable et déployable en salle de classe permettant de réaliser de manière collaborative des séances d’idéation et de création de carte mentale. Ainsi, CARDS fonctionne sur la base de cartes en papier qui agissent comme des proxies physiques sur lesquels sont projetés des éléments numériques, tels que du texte, des vidéos et des images. Ces cartes peuvent être manipulées librement dans l’environnement, ce qui permet de regrouper, d’organiser et de sélectionner des informations en fonction de la capacité inhérente du système à spatialiser les éléments. Nous avons également introduit des dossiers augmentés qui peuvent stocker des cartes et afficher des vignettes sur leur page de couverture. Les dossiers permettent aux utilisateurs de réduire la quantité d’éléments sur la table et de travailler avec un nombre d’informations plus important. Pour créer ou supprimer des liens entre les objets sur la table, nous utilisons un stylo interactif. Les liens, comme tout objet sur la table, peuvent être créés, nommés, modifiés et supprimés. Le contenu de chaque carte peut être « inspecté » au moyen d’une carte grand format, ce qui permet aux élèves de visualiser de plus près le contenu stocké dans des cartes ou des dossiers.

Nous avons également mené une expérience en laboratoire pour comparer un dispositif de réalité augmentée mobile basé sur une tablette tactile et un dispositif de réalité augmentée spatiale fonctionnant grâce à un vidéoprojecteur et une caméra. Les sujets devaient mémoriser 5 items (images ou textes) alignés sur une table qui étaient soit projetés, soit affichés sur l’écran de la tablette tactile. Les sujets avaient une durée limitée pour mémoriser ces items et répondre à une question sur ce qu’ils venaient de mémoriser. Les résultats de cette étude nous montrent que réaliser une tâche demandant un effort cognitif important serait plus simple à effectuer avec une table augmentée grâce à un vidéoprojecteur qu’avec une tablette. Ces résultats renforcent notre choix de s’orienter vers des dispositifs facilitant les manipulations physiques pour favoriser les tâches d’apprentissage.

Que dois-je retenir de cette étude pour ma pratique ?

  • Bien que les interfaces actuellement utilisées en salle de classe permettent un accès au monde numérique, son utilisation n’est pas forcément pertinente dans tous les cas d’utilisation. À travers ces recherches, nous avons montré que des dispositifs qui prennent en compte l’environnement de la salle de classe et les pratiques pédagogiques peuvent être développés pour aller au-delà des solutions existantes tel que l’ordinateur personnel.
  • Lors de la conception de séquences pédagogiques utilisant un matériel numérique, le concepteur devrait prendre en considération les qualités et limites intrinsèques de l’interface pour que les élèves tirent pleinement partie de l’activité pédagogique.
  • Les résultats obtenus à travers cette étude suggèrent un avantage des dispositifs de réalité augmentée spatiale (projection sur table) facilitant les manipulations physiques dans l’exécution de tâches d’apprentissage comparé à des applications en de réalité augmentée sur tablette tactile.

Références

Akçayır, M. et Akçayır, G. (2017). Advantages and challenges associated with augmented reality for education: A systematic review of the literature. Educational Research Review, 20, 1-11.

Chen, P., Liu, X., Cheng, W. et Huang, R. (2017). A review of using Augmented Reality in Education from 2011 to 2016. Dans Innovations in smart learning (p. 13-18). Springer.

European Commission. (2009). Europeans, Science and Technology (rapport). http://ec.europa.eu/public_opinion/archives/ebs/ebs_224_report_en.pdf

European Commission. Education, Audiovisual and Culture Executive Agency (EACEA). (2009). Education and Training in Europe 2020: response from the EU member states (rapport). Publications Office of the European Union. http://hdl.voced.edu.au/10707/293181

Fleck, S., Baraudon, C., Frey, J., Lainé, T. et Hachet, M. (2017). ”Teegi, He’s so cute”: Example of pedagogical potential testing of an interactive tangible interface for children at school. Dans AFIHM (dir.), 29ème Conférence francophone sur l’Interaction Homme-Machine (p. 12). ACM. https://doi.org/10.1145/3132129.3132143

Fleck, S. et Hachet, M. (2016). Making tangible the intangible: Hybridization of the real and the virtual to enhance learning of abstract phenomena. Frontiers in ICT, 3, 30. https://doi.org/10.3389/fict.2016.00030

Hornecker, E. et Buur, J. (2006). Getting a grip on tangible interaction: a framework on physical space and social interaction. Dans Proceedings of the SIGCHI conference on Human Factors in computing systems (p. 437-446). ACM

Raskar, R. et Low, K.-L. (2001). Interacting with spatially augmented reality. Dans Proceedings of the 1st international conference on Computer graphics, virtual reality and visualisation (p. 101-108). ACM.

Raskar, R., Welch, G. et Fuchs, H. (1998). Spatially augmented reality. Dans First IEEE Workshop on Augmented Reality (IWAR’98) (p. 11-20).

Shaer, O. et Hornecker, E. (2010). Tangible User Interfaces: Past, Present, and Future Directions. Foundations and Trends in Human–Computer Interaction, 3(1-2), 4-137. https://doi.org/10.1561/1100000026

Stanton, D. et Neale, H. 2. (2003). The effects of multiple mice on children’s talk and interaction. Journal of Computer Assisted Learning, 19(2), 229-238.

Catégories
Thèses

Généralisation de motifs séquentiels pour la fouille de données multi-sources

Julie BU DAHER

Niveaux

Collège — Lycée

 

 

Public

Élèves

 

 

Contact

Action/Projet associé(e)

Ressource(s) associée(s)

Non renseigné pour le moment

À quelles questions cette étude tente-t-elle de répondre ?

L’objectif général de ce travail de recherche est d’améliorer l’apprentissage scolaire. D’une part, il vise à aider les élèves à comprendre, évaluer leurs performances scolaires et suivre leurs progrès. D’autre part, il vise à aider les élèves à améliorer leurs acquis en fournissant à chacun des recommandations personnalisées. Afin de répondre à nos objectifs, notre travail de recherche s’intéresse à une phase amont : l’analyse et à la compréhension des données d’activité des apprenants ainsi qu’à l’extraction d’informations de comportement-type.

Notre question de recherche principale était : les sources multiples d’informations sur les apprenants, leur comportement et les ressources pédagogiques permettent-elles d’identifier des comportements-type riches, dans un contexte où la quantité de traces et d’informations est limitée ?

Pourquoi ces questions sont-elles pertinentes ?

L’objectif est d’aider les apprenants à évaluer leurs performances scolaires et à suivre leurs progrès, mais aussi aider les apprenants à améliorer leurs niveaux scolaires. Il est en effet de la plus haute importance de pouvoir fournir une information aux apprenants, a fortiori lorsqu’ils travaillent en ligne, et que l’enseignant n’est pas présent. Pour fournir cette information, il est important de comprendre les traces des activités qu’ils réalisent. Les données exploitées sont les traces numériques des activités sur leur environnement numérique de travail (ENT). L’extraction d’informations à partir des données des apprenants peut concerner l’étude de leur rythme, fréquence de travail, résultats, etc. et permet donc de leur fournir des informations compréhensibles qui leur permettent d’évaluer leurs performances scolaires et de suivre leurs progrès. Les données disponibles peuvent également concerner les apprenants eux-mêmes et les ressources pédagogiques. Les informations extraites peuvent également être utilisées pour aider les apprenants à améliorer leur niveau scolaire en leur fournissant des recommandations personnalisées.

Quelle méthodologie de recherche a-t-on utilisée ?

L’analyse de données (Data Analytics) consiste à examiner des données brutes, d’en extraire de l’information, de tirer des conclusions et de prendre des décisions. En éducation, comprendre les données des apprenants est une première étape fondamentale pour identifier leurs acquis, estimer leurs résultats possibles, recommander des ressources pédagogiques à consulter par les apprenants sur leur ENT ou encore leur recommander des ressources pédagogiques en fonction de leurs besoins et de leurs préférences.

Les données des apprenants sont multiples. Elles incluent à la fois des données sur leur comportement et sur leurs traces d’activité sur l’ENT. Par exemple, ces données représentent les séquences de ressources pédagogiques consultées associées au moment de cette consultation, des données descriptives des apprenants (données démographiques, résultats scolaires, etc.), ou encore des données descriptives sur les ressources pédagogiques consultées.

Dans ce travail de recherche, l’objectif est de permettre l’exploitation de données réelles : traces d’activité réelles d’apprenants sur leur environnement numérique de travail en conditions réelles d’activité, données d’apprenants et de ressources réelles, etc. Nous avons conçu un algorithme qui permet d’extraire des motifs récurrents d’apprentissage, à partir des données recueillies, par techniques de fouille de données (Bu Daher et Brun, 2020 ; Bu Daher et al., 2019 ; Bu Daher et al., 2020) pour mieux comprendre les apprenants. Un exemple de motif est donné ci-dessous.

Le processus de fouille de motifs ainsi que les motifs fréquents générés par ce processus sont interprétables, ce qui permet, par exemple, de proposer des recommandations. Pour permettre cette extraction de motifs, une quantité significative de traces est nécessaire, sur des apprenants d’un même niveau (5e par exemple), pouvant provenir de plusieurs classes, voire de plusieurs établissements. Cependant, sur des données réelles, les quantités de données ne sont pas infinies, et le processus de fouille fait rapidement face à un manque de données. L’algorithme conçu permet de pallier ce manque de données en tirant profit de la multitude de sources des données complémentaires mises à disposition. Ainsi, l’ensemble des données de cette étude contient différents types de données provenant d’une seule source ou de plusieurs sources de données. Malgré sa complexité et son hétérogénéité, cet ensemble de données est riche et contient une grande quantité d’informations qui pour certaines sont pertinentes et exploitables. C’est cette complexité et cette richesse qui constituent le défi scientifique de la fouille associée.

En e-éducation, les données de traces sont séquentielles et peuvent représenter les séquences de ressources pédagogiques (examens, exercices, etc.) que les apprenants consultent sur leur ENT dont voici un exemple : élève-143 : ⟨R3 R8 R13 R27 R29⟩, où élève-143 représente l’identifiant de l’élève et Rn représente l’identifiant d’une ressource pédagogique. La séquence signifie que l’étudiant a consulté les ressources R3, puis R8, puis R13, puis R27et enfin R29.

Quels résultats a-t-on obtenus ?

Nous proposons une approche qui gère les données multi-sources en un seul processus de fouille. Dans ce cadre, nous proposons de limiter la complexité du processus de fouille en considérant une source comme étant principale et les sources de données supplémentaires sont fouillées de manière sélective, c’est-à-dire uniquement lorsque cela est nécessaire pendant le processus.

Deux résultats principaux peuvent être associés à ce travail de recherche. Le premier résultat concerne l’identification de plusieurs types de relations entre sources de données, et la nature des motifs fouillés associés. Un premier type de relations existe entre la source de données séquentielles et la source de données descriptive des apprenants. La source de données descriptive des apprenants fournit des informations spécifiques à chacun. Lorsque ces données sont rapprochées de la source de données séquentielles, elles permettent d’obtenir des motifs séquentiels fréquents plus précis que ceux générés par l’exploration traditionnelle de données séquentielles uniquement. Ainsi, ce type de relations permet d’extraire des informations associant le comportement numérique des apprenants et la source de données descriptive de ceux-ci.

Un deuxième type de relations existe entre la source de données séquentielle et la source de données descriptives des ressources pédagogiques. La source de données séquentielle contient des séquences des ressources pédagogiques, et la source de données descriptives des éléments fournit des données supplémentaires sur chaque élément des séquences. Lorsque les données descriptives des ressources sont fournies aux données séquentielles, chaque ressource est décrite par des attributs descriptifs supplémentaires. Ces attributs représentent des informations plus générales que les identifiants des ressources, donnant donc plus de généralités aux motifs fouillés.

Le second résultat concerne l’algorithme de fouille qui gère les deux types de relations. L’algorithme conçu tire l’avantage de la source de données descriptives des ressources pédagogiques afin de générer des motifs séquentiels généraux. Afin de gérer le problème de la similarité des données et de générer des motifs plus fréquents, nous définissons deux mesures de similarité : la similarité de motifs qui compare différents motifs et la similarité d’éléments qui compare différents éléments dans les motifs où un élément représente une ressource pédagogique. Ensuite, nous formons des motifs généraux à partir de motifs similaires, c’est-à-dire contenant des éléments similaires. Un motif général est un motif qui contient des informations plus générales que les motifs fréquents traditionnels. Enfin, nous proposons une nouvelle méthode pour détecter des motifs généraux fréquents. Notre algorithme permet de résoudre le problème de la similarité des données et de la faible couverture des données en générant des motifs plus fréquents ; de plus, les motifs généraux fréquents sont riches car ils contiennent divers types d’informations.

Les motifs fréquents extraits de cet algorithme sont exploités pour former des règles d’association, et ces règles sont utilisées pour fournir des recommandations personnalisées aux apprenants. Les informations descriptives fréquentes des apprenants extraites par l’algorithme permettent d’identifier les apprenants ayant des profils similaires, et les informations séquentielles fréquentes associées sont utilisées 1/ pour identifier le comportement passé des apprenants, et, 2/ pour leur fournir des recommandations personnalisées basées sur leurs besoins académiques. Ces recommandations sont représentées sous la forme d’une ressource pédagogique ou d’une séquence de ressources pédagogiques à consulter parles étudiants sur leur ENT pour les aider à améliorer leur niveau académique. Les motifs généraux fréquents extraits de cet algorithme permettent d’obtenir plus de possibilités de recommandations.

Les données du projet sont encore en cours d’acquisition. L’algorithme conçu, bien que visant un contexte éducatif, est volontairement générique. La validation de cet algorithme a été effectuée sur des données de structure et caractéristiques proches. Ce sont des données musicales qui ont été exploitées. Trois sources de données sont disponibles : des données d’écoute de musique par des utilisateurs, des données descriptives des ces utilisateurs et des données de description des musiques. Le corpus de données est composé des écoutes de 2 000 utilisateurs sur 34 000 musiques, où chaque utilisateur a en moyenne 48 consultations. L’évaluation de l’algorithme a porté à la fois sur sa capacité à s’exécuter en un temps limité, avec une évaluation sur le temps d’exécution et la mémoire utilisée. L’évaluation relative aux motifs extraits a permis de valider non seulement le fait que certains motifs ne nécessitent pas de généralisation, car présents en quantité suffisante, mais également que le processus de généralisation permet effectivement d’extraire des motifs généraux, palliant ainsi au manque de données.

Que dois-je retenir de cette étude pour ma pratique ?

En l’état actuel, l’outil n’est pas utilisable par les élèves, en particulier en raison d’un souci d’accès aux données de comportement numérique. Cependant, dans le futur il est envisagé de l’intégrer dans un outil d’auto-évaluation pour les apprenants afin de suivre leurs progrès, comprendre leurs performances scolaires dès le début du processus d’apprentissage. De plus, les informations extraites des données des apprenants via l’algorithme que nous avons développé pourraient également être utilisées pour fournir des recommandations personnalisées aux apprenants afin de les aider à améliorer leur niveau scolaire, quelle que soit la discipline.

Références

Bu Daher, J. et Brun, A. (2020). Handling Item Similarity in Behavioral Patterns through General Pattern Mining. Dans The 2020 IEEE/WIC/ACM International Joint Conference on Web Intelligence and Intelligent Agent Technology (WI-IAT’20).

Bu Daher, J., Brun, A. et Boyer, A. (2019). Multi-source Relations for Contextual Data Mining in Learning Analytics. arXiv preprint arXiv:1907.04643.

Bu Daher, J., Brun, A. et Boyer, A. (2020). Multi-source data mining for e-learning. arXiv preprint arXiv: 2009.08791.

Catégories
Thèses

La reconnaissance des émotions à partir d’émoticônes graphiques : des recherches expérimentales à l’étude des usages dans une webradio

Anthony CHERBONNIER

Niveaux

Collège et lycée

 

 

 

Public

Enseignant·e·s toutes disciplines

 

 

 

Contact

Action/Projet associé(e)

Ressource(s) associée(s)

À quelles questions cette étude tente-t-elle de répondre ?

Ce travail de recherche s’intéresse à la reconnaissance émotionnelle des émoticônes graphiques, représentations graphiques de visages telles que 😀, 😮, 😱 ; ainsi qu’à leur usage sur une webradio dans un contexte scolaire. À travers ce travail de recherche, notre premier objectif était d’évaluer la qualité de la reconnaissance des émotions primaires (Ekman, 1992a ; Ekman, 1992b) à partir d’émoticônes qui sont spécifiquement conçues pour les traduire sous une forme graphique. Pour cela, la reconnaissance des émotions de ces « nouvelles » émoticônes est comparée à d’autres modes d’expressions, notamment les expressions faciales. Notre second objectif était d’implémenter ces « nouvelles » émoticônes sur un média social — une webradio — afin d’examiner comment elles sont utilisées par des élèves dans un contexte scolaire lorsqu’il s’agit de réagir à des émissions radios élaborées par des pairs.

Pourquoi ces questions sont-elles pertinentes ?

Avec les environnements numériques, les émoticônes typographiques puis graphiques (ou émojis) ont permis d’enrichir les communications en ligne. Ce nouveau mode de communication offre la possibilité aux utilisateurs de transmettre des émotions, en fonctionnant de la même manière que les indices non-verbaux présents dans les communications en face-à-face, et notamment les expressions faciales (Derks et al., 2008 ; Duan et al., 2018 ; Rezabek et Cochenour, 1998 ; Saini et al., 2018).

Objectif 1 : Alors que de nombreux travaux ont été réalisés sur la communication des émotions à partir des émoticônes, paradoxalement, rares sont ceux qui ont cherché à savoir si les individus étaient capables de reconnaitre correctement les émotions véhiculées par des émoticônes censées représenter des émotions primaires telles que la joie, la tristesse, la peur, etc. (Ekman, 1992a ; Ekman, 1992b). De plus, les bases de données, Unicode1 et emojipédia2, mettent à disposition une grande quantité d’émoticônes pouvant être utilisées dans les environnements numériques. Cependant, on ne sait que peu de choses sur la manière dont sont conçues les émoticônes graphiques et sur les émotions qu’elles sont censées transmettre.

Objectif 2 : Les études sur l’usage des émoticônes dans les environnements numériques ont montré que les femmes en font un usage plus intensif que les hommes (Chen et al., 2018 ; Fullwood et al., 2013 ; Oleszkiewicz et al., 2017 ; Prada et al., 2018 ; Tossell et al., 2012). De plus, cet usage des émoticônes et des émojis a été principalement étudié dans un contexte de communication en ligne, notamment au travers de conversations par SMS, e-mail et parfois sur les réseaux sociaux (pour des revues, voir Aldunate et González-Ibáñez, 2017 ; Chen et al., 2020 ; Derks et al., 2008 ; Tang et Hew, 2018). À notre connaissance, peu de travaux ont étudié l’impact de l’usage d’un feedback émotionnel sous forme d’émoticônes et d’émojis (Shih, 2011 ; Sun et al., 2019 ; Tung et Deng, 2007 ; Wang et al., 2014), et aucune recherche n’a été réalisée chez des collégien·ne·s dans un contexte scolaire. Mieux comprendre l’usage des émoticônes dans les environnements numériques chez des élèves, ici sur un média social — la Wikiradio® Saooti — pourrait amener des pistes de réflexion sur leur usage dans les apprentissages.

Quelle méthodologie de recherche a-t-on utilisée ?

Afin de répondre à ces deux objectifs, les différentes études réalisées dans le cadre de ce travail de recherche comprennent 1 452 participant·e·s au travers de 8 études employant ainsi diverses méthodologies de recherches. Dans un premier temps, comme nous pouvons le voir dans la Figure 1, nous avons développé une palette d’émoticônes véhiculant les six émotions primaires (joie, tristesse, surprise, colère, peur et dégoût) ainsi qu’une émoticône qui ne véhicule pas d’émotion particulière (neutre). Ces « nouvelles » émoticônes graphiques ont été construites à partir des photographies d’expressions faciales des six émotions primaires (Paul Ekman Group, s. d.). Ensuite, la reconnaissance de ces « nouvelles » émoticônes a été testée et validée à partir de 4 études (N = 291) au moyen de différentes procédures :

  • dans les études 1 et 3, les particpant·e·s ont sélectionné, pour chaque émoticône, l’émotion véhiculée à partir d’une liste de 16 émotions comprenant les six émotions primaires (colère, dégoût, joie, peur, surprise et tristesse), neuf émotions secondaires (culpabilité, curiosité, déception, embarras, envie, fierté, haine, honte, mépris) et l’émotion neutre.
  • dans l’étude 2, les participant·e·s se sont exprimé·e·s librement sur l’émotion véhiculée pour chaque émoticône.
  • dans l’étude 4, les participant·e·s ont regroupé les 117 émoticônes (dont les 6 « nouvelles ») suivant les émotions véhiculées en différentes catégories dont le nom représentait l’émotion véhiculée.
Présentation/illustration des nouvelles émoticônes. Description détaillée ci-dessous.
Figure 1 – « Nouvelles » émoticônes.

Dans un second temps, la qualité de reconnaissance de ces six « nouvelles » émoticônes a été comparée à plusieurs modes d’expressions (photographies d’expressions faciales, croquis de visages, émoticônes des réseaux sociaux) au moyen de trois études (N = 957). Pour les 3 études, les participants devaient choisir l’émotion véhiculée à partir d’une liste de 14 émotions comprenant les six émotions primaires (colère, dégoût, joie, peur, surprise et tristesse) et huit émotions secondaires (culpabilité, curiosité, déception, embarras, envie, fierté, haine, honte). Pour chaque émotion, les réponses sont codées par 1 « l’émotion est reconnue » et 0 « l’émotion n’est pas reconnue » donnant ainsi un score global de reconnaissance.

  • Dans une première étude exploratoire (étude 5), les participantes (toutes étudiantes) ont été affectés aléatoirement à l’un des 4 groupes : (1) « nouvelles » émoticônes, (2) les émoticônes tirées de Facebook, (3) les croquis de visages, (4) les expressions faciales d’un visage féminin. Au sein de chaque groupe, elles devaient indiquer par questionnaire papier/crayon les émotions véhiculées par le mode d’expression attribué — à partir de la liste de 14 émotions. Chaque participante a un score de reconnaissance sur 6.
  • La deuxième étude (étude 6), avait pour objectif double de reproduire les résultats de l’étude 5 auprès d’une population plus hétérogène (c’est-à-dire, des hommes et des femmes), et à explorer les différences de genre dans la reconnaissance des émotions. Pour cette étude, les participant·e·s ont été affecté·e·s aléatoirement à l’un des trois groupes : (1) « nouvelles » émoticônes, (2) visage féminin, (3) visage masculin. Comme pour la précédente étude, les participant·e·s devaient indiquer par le biais d’un questionnaire en ligne les émotions véhiculées par le mode d’expression attribué. Chaque participant·e a obtenu un score de reconnaissance sur 6.
  • Une dernière étude (étude 7) a été réalisée afin de confirmer les résultats des deux précédentes études. Dans cette étude, le matériel de l’étude 6 a été utilisé, auquel un second modèle féminin et masculin ont été ajoutés pour les visages tandis que pour les émoticônes, nous avons utilisés les « nouvelles » émoticônes ainsi que celles de la plate-forme iOS. À la différence des deux précédentes études, les participant·e·s devaient identifier les émotions véhiculées par l’ensemble des stimuli. En complément de l’attribution d’une émotion, les participant·e·s devaient, pour chaque stimulus, évaluer son intensité à partir d’une échelle de Likert allant de 1 « faible intensité » à 7 « forte intensité ». Chaque participant·e ont un score de reconnaissance sur 6, ainsi qu’unscore d’intensité sur 7.

Les études 1 à 7 nous ont donc permis de répondre à notre premier objectif de recherche, à savoir, évaluer la qualité de la reconnaissance des émotions primaires à partir d’émoticônes spécifiquement conçues — nos « nouvelles » émoticônes — pour les traduire sous une forme graphique.

 

Une dernière étude (étude 8) vise à examiner comment sont utilisées ces « nouvelles » émoticônes sur la Wikiradio® tout en examinant les éventuels effets du genre dans leur usage, répondant ainsi à notre deuxième objectif de recherche. Pour cela, deux cent quatre collégien·ne·s (100 filles et 104 garçons), réparti·e·s dans huit classes, selon trois niveaux scolaires différents : 5e (1 classe, n = 22), 4e (2 classes, n = 42) et 3e (5 classes, n = 140). Les élèves étaient scolarisés dans les six collèges de l’académie de Rennes participant au projet. Les collégien·ne·s étaient réuni·e·s en équipe (3 ou 4 membres) pour réaliser au cours de l’année scolaire deux épisodes à partir de la Wikiradio® afin de mieux comprendre le monde professionnel, les métiers, et les formations. Cette approche s’inscrivait dans le « Parcours Avenir » au collège. À travers plusieurs séances en classe sur la période octobre — janvier, les élèves ont conçu, enregistré et diffusé leur premier épisode. Pour cela, les groupes ont effectué des recherches, rédigé un conducteur (séquence écrite et minutée des différentes interventions) ainsi qu’un script radio (contenu rédigé de l’ensemble du discours). Suite à l’enregistrement de leur épisode, les élèves ont donné leur opinion sur les réactions que leur épisode pourrait susciter chez les auditeurs (classement des émoticônes de la plus émises à la moins émises sur leur épisode). Après diffusion de l’ensemble des épisodes sur la Wikiradio®, une séance d’écoute a été réalisée pour chaque classe sur une durée d’une heure. Lors de cette séance les élèves étaient seul·e·s, équipé·e·s d’un casque devant un poste informatique. Ils/Elles avaient tou·te·s un compte sur la Wikiradio® (suivant l’accord des parents) et avaient pour consigne de naviguer librement sur la plateforme afin d’écouter et de s’exprimer sur les épisodes diffusés dans l’ensemble des collèges participants au projet. Toutes les actions de votes sur les épisodes ont été enregistrées permettant un traçage des usages des élèves.

Quels résultats a-t-on obtenus ?

Afin de répondre au premier objectif, nous avons mis en place 3 études (études 5, 6 et 7) afin de (1) comparer la reconnaissance des émotions véhiculées par les émoticônes que nous avons conçues à d’autres modes d’expressions émotionnelles ; (2) étudier l’effet du genre dans la reconnaissance des émotions ; (3) étudier le rôle de l’intensité des émotions dans leur reconnaissance. Cette série d’études expérimentales a fait l’objet d’une publication dans une revue scientifique (Cherbonnier et Michinov, 2021). Nos résultats montrent que le score de reconnaissance des « nouvelles » émoticônes est supérieur aux autres modes d’expression que ce soient les croquis de visage (étude 5), les émoticônes Facebook (étude 5), les émoticônes iOS (étude 7), les photographies d’expressions faciales féminin (études 5, 6, 7) et masculin (études 6, 7).

Toutefois, cette supériorité des « nouvelles » émoticônes pour transmettre les émotions est principalement due à deux émotions, le dégoût (études 5, 6, 7) et la tristesse (étude 6, 7). Il est possible que la présence d’un indice visuel (la langue tirée) pour la « nouvelle » émoticône véhiculant le dégoût puisse expliquer une meilleure reconnaissance, d’autant plus que très peu d’émoticônes graphiques véhiculent l’émotion de dégoût (Franco et Fugate, 2020 ; Rodrigues et al., 2018). Cependant, la présence d’un tel indice ne peut à lui seul expliquer une meilleure reconnaissance. En effet, la présence de la couleur rouge pour l’émoticône Facebook exprimant la colère, et de la couleur bleue pour les émoticônes représentant la peur de Facebook et iOS, n’amènent pas à une meilleure reconnaissance de ces émotions. Ces résultats sont en accord avec certaines études sur les expressions faciales (Chronaki et al., 2015) qui suggèrent que certaines émotions comme la tristesse sont plus difficiles à reconnaître sur un visage, donnant ainsi un avantage aux émoticônes. Malgré une supériorité globale des « nouvelles » émoticônes, la joie a néanmoins été mieux reconnue à partir de l’émoticône Facebook (étude 5) et iOS (étude 7) que par les autres modes d’expressions y compris la « nouvelle » émoticône véhiculant la joie. Une explication possible est que non seulement ces deux émoticônes sélectionnées (Facebook et iOS) pour les études sont très familières aux participants (Jones et al., 2020), mais aussi qu’elles comptent parmi les émoticônes les plus utilisées sur les réseaux sociaux (Oleszkiewicz et al., 2017).

Des résultats contradictoires sur l’effet du genre dans la reconnaissance des émotions sont observés dans la littérature. Alors que certaines études montrent que les femmes reconnaissent mieux les émotions à partir d’expressions faciales que les hommes (Fischer, 2000 ; McClure, 2000) et notamment le dégoût (Connolly et al., 2019), l’étude de Rahman et al. (2004) ne révèle aucune différence dans les performances entre les femmes et les hommes. En accord avec cette dernière, les résultats obtenus dans les études 6 et 7 ne montrent aucun effet du genre sur la reconnaissance des émotions, et ce quel que soit le mode d’expression des émotions.

L’intensité des émotions joue également un rôle dans la reconnaissance des expressions faciales (Calvo et al., 2016 ; Wells et al., 2016). Les résultats de l’étude 7 ont révélé que les émotions sont évaluées comme étant plus intenses à partir des « nouvelles » émoticônes que des expressions faciales. Ce résultat souligne que des représentations graphiques simplifiées d’émotions, à partir d’émoticônes, vont permettre de véhiculer des émotions plus intensément que des expressions faciales.

Afin de répondre au second objectif, une étude d’usage des « nouvelles » émoticônes a été menée au sein de plusieurs collèges bretons (étude 8). Les données ont montré qu’un pourcentage non négligeable d’élèves n’ont pas exprimé leur ressenti à l’écoute des épisodes (30,2 %). De plus, les élèves s’expriment principalement avec une seule émoticône, la joie étant la plus utilisée suivie par la neutralité et la surprise. Cependant, l’usage du type d’émoticône par les auditeur·trice·s est en accord avec les concepteur·trice·s des épisodes qui ont donné leur opinion sur les réactions qu’allaient susciter leur épisode. De plus, le thème du « Parcours Avenir » ne laisse pas beaucoup de liberté aux élèves pour concevoir des épisodes chargés émotionnellement. Ces deux aspects peuvent expliquer cette faible diversité d’émoticônes utilisées par les auditeur·trice·s pour s’exprimer.

Nos résultats n’ont révélé aucun effet de genre (c’est-à-dire, de différence filles vs garçons) chez les auditeur·trice·s ni sur le nombre ni sur le type d’émoticônes utilisées suite à l’écoute des épisodes. Ces résultats contrastent avec certaines recherches révélant que les femmes utilisent plus d’émoticônes graphiques que les hommes (Chen et al., 2018 ; Fullwood et al., 2013 ; Lee, 2003 ; Oleszkiewicz et al., 2017 ; Tossell et al., 2012). Ces résultats contradictoires avec la littérature peuvent en partie s’expliquer par le contexte scolaire dans lequel s’inscrit notre étude ainsi que par le type de communication (statique) qui ont pu influencer l’usage des émoticônes sur la webradio. En effet, dans notre contexte, nous sommes sur une expression, un vote, un ressenti à l’écoute d’une émission radiophonique tandis que la littérature s’intéresse principalement à un usage d’émoticônes lors de communications en ligne. À notre connaissance, l’effet du genre n’a jamais été étudié ni dans un contexte scolaire, ni sur les usages d’émoticônes sur les médias sociaux, permettant d’ouvrir à des perspectives intéressantes à mettre en place dans le futur. L’une des perspectives serait d’élargir les contenus des épisodes à d’autres thématiques, enseignements, pouvant produire des émotions plus riches et diversifiées que le thème du « Parcours Avenir ». Il serait également intéressant d’étudier l’impact des émoticônes en tant que feedback émotionnel sur le comportement des élèves, c’est-à-dire l’impact d’un retour de nature émotionnel sur le travail réalisé en groupe (objectif initial de cette étude, qui a dû être abandonné suite à la mise en place du confinement en mars 2020).

Que dois-je retenir de cette étude pour ma pratique ?

Du point de vue de la recherche fondamentale, les études expérimentales ont permis de montrer que les « nouvelles » émoticônes, conçues à partir des travaux sur les émotions primaires (colère, dégoût, joie, peur, surprise, tristesse), sont mieux reconnues et de manière plus intense que des expressions faciales émotionnelles et que d’autres catégories d’émoticônes (ici, Facebook et iOS).

Du point de vue des applications en contexte scolaire, l’étude d’usage (étude 8) a permis de montrer que les émoticônes créées peuvent être utilisées par l’ensemble des élèves, sans générer de différence entre les filles et les garçons, pour exprimer leur ressenti sur des productions réalisées par des pairs. De plus, cet usage des émoticônes est en accord avec les concepteurs des épisodes radiophoniques.

L’un des apports de cette recherche se situe également au niveau des dispositifs mis en œuvre dans les établissements scolaires. Dans l’objectif de réaliser nos expérimentations dans les collèges, nous avons mis au point une séquence pédagogique à destination des enseignants sous la forme d’un guide consultable en ligne (https://invis.io/M9NVTUCTS8V). Elle propose un ensemble d’outils et détaille les différentes étapes à suivre pour concevoir des épisodes radiophoniques sur la Wikiradio®. Cette séquence, à l’origine conçue pour encadrer le travail des élèves sur le « Parcours Avenir » pourrait être transférable dans d’autres situations de productions radiophoniques plus chargées émotionnellement, comme par exemple celles qui s’inscrivent dans le cadre de l’éducation aux médias.

Références

Aldunate, N. et González-Ibáñez, R. (2017). An integrated review of emoticons in computer-mediated communication. Frontiers in Psychology, 7, 2061.

Calvo, M. G., Avero, P., Fernández-Martín, A. et Recio, G. (2016). Recognition thresholds for static anddynamic emotional faces. Emotion, 16(8), 1186. https://doi.org/fhk5

Chen, N.-C., Perry, D., Saegusa, H. et Aragon, C. (2020). A Cross-Cultural Survey of Emoticon Research Before 2015. http://hdl.handle.net/1773/45286

Chen, Z., Lu, X., Ai, W., Li, H., Mei, Q. et Liu, X. (2018). Through a gender lens: learning usage patterns of emojis from large-scale Android users. Dans Proceedings of the 2018 World Wide Web Conference (p. 763-772). https://doi.org/ghf9x9

Cherbonnier, A. et Michinov, N. (2021). The recognition of emotions beyond facial expressions: Comparing emoticons specifically designed to convey basic emotions with other modes of expression. Computers in Human Behavior, 118, 106689. https://doi.org/fqq5

Chronaki, G., Hadwin, J. A., Garner, M., Maurage, P. et Sonuga-Barke, E. J. (2015). The development of emotion recognition from facial expressions and non-linguistic vocalizations during childhood. British Journal of Developmental Psychology, 33(2), 218-236. https://doi.org/f7b56c

Connolly, H. L., Lefevre, C. E., Young, A. W. et Lewis, G. J. (2019). Sex differences in emotion recognition: Evidence for a small overall female superiority on facial disgust. Emotion, 19(3), 455. https://doi.org/dp35

Derks, D., Fischer, A. H. et Bos, A. E. (2008). The role of emotion in computer-mediated communication: A review. Computers in Human Behavior, 24(3), 766-785. https://doi.org/fpzzr8

Duan, J., Xia, X. et Van Swol, L. M. (2018). Emoticons’ influence on advice taking. Computers in Human Behavior, 79, 53-58. https://doi.org/gcqb24

Ekman, P. (1992a). Are there basic emotions? Psychological Review, 99(3), 550-553. https://doi.org/dvkz9z

Ekman, P. (1992b). Facial expressions of emotion: New findings, new questions. Psychological Science, 3(1), 34-38. https://doi.org/bzts9h

Fischer, A. H. (2000). Gender and emotion: Social psychological perspectives (A. H. Fischer, dir.). Cambridge University Press.

Franco, C. L. et Fugate, J. M. (2020). Emoji face renderings: Exploring the role emoji platform differences have on emotional interpretation. Journal of Nonverbal Behavior, 44(2), 301-328. https://doi.org/fhmt

Fullwood, C., Orchard, L. J. et Floyd, S. A. (2013). Emoticon convergence in Internet chat rooms. Social Semiotics, 23(5), 648-662. https://doi.org/fhmv

Jones, L. L., Wurm, L. H., Norville, G. A. et Mullins, K. L. (2020). Sex differences in emoji use, familiarity, and valence. Computers in Human Behavior, 108, 106305. https://doi.org/fhm3

Lee, C. (2003). How does instant messaging affect interaction between the genders. Stanford, CA : The Mercury Project for Instant Messaging Studies at Stanford University.

McClure, E. B. (2000). A meta-analytic review of sex differences in facial expression processing and their development in infants, children, and adolescents. Psychological Bulletin, 126(3), 424. https://doi.org/dk9gs2

Oleszkiewicz, A., Karwowski, M., Pisanski, K., Sorokowski, P., Sobrado, B. et Sorokowska, A. (2017). Who uses emoticons? Data from 86 702 Facebook users. Personality and Individual Differences, 119, 289-295. https://doi.org/gcf6bz

Paul Ekman Group. (s. d.). Photographs. https://www.paulekman.com/resources/photographs

Prada, M., Rodrigues, D. L., Garrido, M. V., Lopes, D., Cavalheiro, B. et Gaspar, R. (2018). Motives, frequency and attitudes toward emoji and emoticon use. Telematics and Informatics, 35(7), 1925-1934. https://doi.org/fhnf

Rahman, Q., Wilson, G. D. et Abrahams, S. (2004). Sex, sexual orientation, and identification of positive and negative facial affect. Brain and Cognition, 54(3), 179-185. https://doi.org/c2wm3w

Rezabek, L. et Cochenour, J. (1998). Visual cues in computer-mediated communication: Supplementing text with emoticons. Journal of Visual Literacy, 18(2), 201-215. https://doi.org/dp4j

Rodrigues, D., Prada, M., Gaspar, R., Garrido, M. V. et Lopes, D. (2018). Lisbon Emoji and Emoticon Database (LEED): Norms for emoji and emoticons in seven evaluative dimensions. Behavior Research Methods, 50(1), 392-405. https://doi.org/gc32f3

Saini, A. K., Khatri, P. et Raina, K. (2018). Towards Understanding Preference of Use of Emoticons for Effective Online Communication et Promotion: A Study of National Capital Region of Delhi, India. Dans ICT Based Innovations (p. 219-231). Springer. https://doi.org/dp4k

Shih, R.-C. (2011). Can Web 2.0 technology assist college students in learning English writing? Integrating Facebook and peer assessment with blended learning. Australasian Journal of Educational Technology, 27(5). https://doi.org/gfdckr

Sun, N., Lavoué, E., Aritajati, C., Tabard, A. et Rosson, M. B. (2019). Using and perceiving emoji in design peer feedback. Dans K. Lund, G. P. Niccolai, E. Lavoué, C. Hmelo-Silver, G. Gweon et M. Baker (dir.), A Wide Lens: Combining Embodied, Enactive, Extended, and Embedded Learning in Collaborative Settings, 13th International Conference on Computer Supported Collaborative Learning (CSCL) 2019 (p. 296-303). International Society of the Learning Sciences. https://doi.org/10.22318/cscl2019.296

Tang, Y. et Hew, K. F. (2018). Emoticon, emoji, and sticker use in computer-mediated communications: Understanding its communicative function, impact, user behavior, and motive. Dans L. Deng, W. Ma et C. Fong (dir.), New media for educational change: Educational communications and technology yearbook (p. 191-201). Springer.

Tossell, C. C., Kortum, P., Shepard, C., Barg-Walkow, L. H., Rahmati, A. et Zhong, L. (2012). A longitudinal study of emoticon use in text messaging from smartphones. Computers in Human Behavior, 28(2), 659-663. https://doi.org/bmn95c

Tung, F.-W. et Deng, Y.-S. (2007). Increasing social presence of social actors in e-learning environments: Effects of dynamic and static emoticons on children. Displays, 28(4-5), 174-180. https://doi.org/bjnbsw

Wang, W., Zhao, Y., Qiu, L. et Zhu, Y. (2014). Effects of emoticons on the acceptance of negative feedback in computer-mediated communication. Journal of the Association for Information Systems, 15(8), 3. https://doi.org/gg6dwd

Wells, L. J., Gillespie, S. M. et Rotshtein, P. (2016). Identification of emotional facial expressions: Effects of expression, intensity, and sex on eye gaze. PloS One, 11(12), e0168307. https://doi.org/f9gwfv

Catégories
Thèses

Développer les compétences argumentatives de lycéens par des débats numériques sur des Questions SocioScientifiques

Gwen PALLARÈS

Niveaux

Lycée ou fin de collège

 

 

Public

Professeur·e·s de SVT, SPC, histoire-géographie, philosophie, éventuellement de français

Contact

Action/Projet associé(e)

Ressource(s) associée(s)

Non renseigné pour le moment

À quelles questions cette étude tente-t-elle de répondre ?

Plusieurs questions aujourd’hui cruciales pour le devenir de notre société mettent en jeu les sciences et les technologies : Intelligence Artificielle, bioéthique, OGM… Former les élèves à débattre de façon réflexive et éclairée sur ces Questions SocioScientifiques (QSS) est ainsi devenu un enjeu éducatif majeur. Il s’agit donc pour les élèves de développer leurs compétences argumentatives et leur esprit critique sur ces questions. À cet égard, les outils numériques offrent de nouvelles possibilités pour mener des débats en classe. Ce travail de recherche vise à explorer précisément leurs apports. Nous explorons en particulier l’outil numérique AREN (du nom du projet AREN, ARgumentation Et Numérique), qui permet notamment de baser les débats des élèves sur un texte support, accessible durant le débat. Deux questions principales sont posées ici :

(1) Quels sont les apports d’un outil numérique de débat basé sur un texte pour développer les compétences argumentatives et l’esprit critique des élèves sur des Questions SocioScientifiques ?
(2) Quels sont les apports d’un outil numérique de débat basé sur un texte pour aider les élèves à appréhender la complexité des Questions SocioScientifiques ?

Une séquence d’enseignement centrée sur un débat numérique, menée dans neuf classes de lycée, a été mise en place. Celle-ci intègre l’usage d’une plateforme de débat dont l’une des spécificités est d’utiliser un texte, et non une question, comme point de départ du débat. La qualité argumentative des débats a été étudiée avec une grille d’analyse originale, et des cartographies des débats ont été réalisées. Nous avons effectué un travail didactique poussé sur l’argumentation et son enseignement. Nous avons ainsi pu explorer les objectifs pédagogiques possibles en vue d’un développement des compétences argumentatives sur des QSS. Ce travail a ainsi permis de mettre en lumière différents leviers et obstacles à l’enseignement/apprentissage de l’argumentation sur des QSS.

Pourquoi ces questions sont-elles pertinentes ?

Dans la perspective d’une éducation à la citoyenneté, former les élèves à prendre part de façon réflexive et éclairée aux débats qui engagent notre société est un objectif éducatif majeur. En particulier, les QSS engagent notre société et requièrent des compétences et connaissances spécifiques. En effet, les QSS, en tant que thème de débat, possèdent des caractéristiques spécifiques que les élèves doivent comprendre afin d’appréhender ces questions de façon critique (Simonneaux, 2007) : tout d’abord, les QSS sont complexes, en ce qu’elles mettent en jeu des domaines de connaissances variés (sciences naturelles, sciences sociales, politique), ainsi que des valeurs éthiques et morales. Les QSS sont également marquées par des incertitudes : en tant que questions actuelles, les savoirs les concernant sont souvent parcellaires ou peu stabilisés. Enfin, les QSS sont ainsi des questions ouvertes, en ce qu’elles offrent une multiplicité de perspectives raisonnables et de lignes d’argumentation possibles. L’argumentation sur des QSS a ainsi un double statut éducatif, ces deux dimensions éducatives étant nécessairement en interaction constante dans la pratique enseignante :

  1. L’argumentation et l’esprit critique sont en eux-mêmes des objectifs d’apprentissage, on peut chercher à les développer pour eux-mêmes (voir question 1). De nombreux travaux font état de forts liens entre pratique argumentative (évaluation et production d’arguments) et esprit critique (voir notamment Schwarz, 2009 et Kuhn, 2019), et diverses recherches ont indiqué que les QSS favorisaient des débats riches, propices au développement des compétences argumentatives et de l’esprit critique (Simonneaux, 2007).
  2. L’argumentation est également un moyen d’apprentissage (voir question 2), en ce que la production et l’examen d’arguments dans le cadre d’un débat sur les QSS est un moyen pour les élèves d’être sensibilisés à ces questions et à leurs caractéristiques spécifiques de complexité, d’incertitude et d’ouverture (Morin et al., 2017).

De nombreuses recherches sur l’argumentation et l’esprit critique ont ainsi dégagé deux axes majeurs pour développer les compétences argumentatives et l’esprit critique des élèves : d’une part, la pratique du débat (Erduran, 2007 ; Kuhn et al., 2016), et d’autre part, un travail réflexif sur l’argumentation (Garcia-Mila et Andersen, 2007 ; Zohar et Nemet, 2002). À cet égard, l’outil numérique apparaît comme un moyen nouveau et prometteur de développer l’argumentation en classe, en ce qu’il peut favoriser la participation d’un plus grand nombre d’élèves au débat (Asterhan et Eisenmann, 2011), offrir du temps et un accès enrichi à l’information (De Vries et al., 2002), mais surtout permettre de conserver la trace écrite des échanges, ce qui offre la possibilité de les analyser lors d’un travail réflexif (Schwarz et Baker, 2017).

En nous basant sur ces premiers résultats sur l’intérêt des outils numériques pour l’enseignement/apprentissage de l’argumentation, nous cherchons, dans ce travail de recherche, à explorer les possibilités que peut offrir l’outil numérique AREN (librement accessible en ligne). Cet outil est semblable à un forum de discussion, et est à ce titre simple d’utilisation : quelques clics suffisent pour mettre en place un débat avec ses élèves, et un tutoriel d’utilisation a été développé par l’équipe. L’outil dispose cependant de caractéristiques spécifiques : d’une part, le débat est basé sur un texte support, accessible durant le débat, et non sur une question donnée par l’enseignant·e ; d’autre part, la construction de la plateforme, qui fonctionne par annotation du texte ou des commentaires des pairs, permet aux élèves de déployer une structure d’argumentation en arborescence (voir Figure 1).

Quelle méthodologie de recherche a-t-on utilisée ?

En vue de tester les potentialités de l’outil AREN pour développer l’argumentation et l’esprit critique des élèves, nous avons inclus son utilisation dans une séquence didactique plus large. Cette séquence d’enseignement est construite par une méthode de Design Experiment (Sandoval, 2013). Cette méthode est collaborative : les enseignant·e·s participant à l’étude et mettant en place la séquence dans leur classe ont été partie prenante de la conception de la séquence didactique, permettant d’adapter la séquence à leurs objectifs (notamment disciplinaires) et contraintes spécifiques (classe, niveau, programme, matériel, horaires). Cette méthode est également itérative, au sens où la séquence a été mise en place plusieurs années consécutives, chaque année constituant une « boucle » itérative en vue d’améliorer la séquence de l’année suivante. La séquence d’enseignement a été mise en œuvre de façon variée parles enseignant·e·s. En particulier, les QSS débattues ont été différentes selon les disciplines, afin d’être toujours en accord avec les programmes, allant des textiles innovants aux OGM, en passant par la pratique du sport chez les adolescent·e·s.

La séquence a néanmoins suivi une structure invariante en trois phases, correspondant à environ quatre séances d’une heure en classe entière et une séance d’une heure et demie en demi-groupes. La première phase de la séquence correspond à une phase de préparation au débat, afin que les élèves acquièrent des connaissances sur le sujet de débat. Cette phase correspond au cours usuel des enseignant·e·s sur le sujet, ou à une étude de documents sur la QSS qui allait être débattue (deux à quatre séances d’une heure). La seconde phase correspond au débat numérique sur la plateforme AREN, le plus souvent en demi-groupes pour faciliter la gestion par l’enseignant·e (séance d’une heure et demie). La troisième phase correspond à une synthèse réflexive avec les élèves du contenu du débat et des arguments mobilisés (séance d’une heure). Cette synthèse est centrée sur la qualité de l’argumentation déployée, les élèves devant évaluer la qualité de leurs propres arguments et comment les améliorer selon différentes modalités (notamment justifications, domaines de la QSS).

Les expérimentations de la première année du projet ont impliqué 10 enseignant·e·s de lycée, issu·e·s de différentes disciplines : histoire-géographie, SPC, SVT, philosophie. Pour plus de détails sur les résultats obtenus lors de la première année, voir Pallarès et al. (2020). Nous allons ici nous focaliser sur la deuxième année du projet, où les séquences ont été affinées en fonction des résultats de la première année.

Les expérimentations de la deuxième année ont été mises en place avec 11 enseignant·e·s de lycée de même profil (8 ayant participé en année 1). Durant la deuxième année du projet, la séquence didactique présentée ci-dessus a été mise en place à 2 reprises (deuxième et troisième trimestres). En tout, 38 débats ont été mis en place. Nous avons analysé 24 débats, impliquant 145 élèves ayant produit un total de 1 650 interventions durant les débats sur la plateforme.

Ces débats ont été analysés selon deux approches :

  • une analyse « microscopique » des arguments produits, basée sur une grille d’évaluation de la qualité du processus argumentatif, composée de deux parties. La première partie de la grille correspond aux « mouvements argumentatifs », qui recouvrent les différentes fonctions d’un argument lors de l’argumentation (développement, concession, nuance, réfutation de la thèse ou de la justification, questionnement, nouvelle idée). Pour chaque mouvement argumentatif, nous avons également étudié les éventuelles justifications mobilisées par les élèves. La seconde partie de la grille correspond au contenu des arguments, notamment dans la prise en compte des différents domaines socioscientifiques. Nous avons distingué huit domaines : Scientifique, Technique, Économique, Social, Politique, Environnemental, Sanitaire, et Axiologique (valeurs) (Simonneaux et Simonneaux, 2011) ;
  • une analyse « macroscopique » de la structure des débats, avec constitution de « cartes des débats ». Nous avons caractérisé l’arborescence de l’argumentation en fonction du nombre et de la longueur des « branches (enchaînement d’arguments), et reporté l’item « Domaine de la QSS » sur les cartes des débats pour étudier la dynamique d’exploration des domaines de la QSS selon les branches. Un extrait d’une telle carte de débat est présenté ci-dessous.
Extrait d’une carte des débats représentant l’arborescence de l’argumentation. Description détaillée ci-dessous.
Figure 1 – Extrait d’une carte des débats représentant l’arborescence de l’argumentation.

Nous avons également fait passer aux élèves, pour chaque séquence (deuxième et troisième trimestres), des pré- et post-tests écrits où ils/elles devaient justifier leur positionnement par rapport à une même affirmation choisie, en lien avec le thème de la séquence. Les argumentaires des tests ont été étudiés à l’aide d’une version adaptée de l’analyse microscopique de l’argumentation (nombre de justifications, contenu des arguments).

Quels résultats a-t-on obtenus ?

Au niveau de l’analyse microscopique, nous observons dans l’ensemble une argumentation riche, que cela soit au niveau du nombre et de la diversité de mouvements argumentatifs, des domaines des QSS abordés, ou des sujets traités. L’évolution de la qualité de l’argumentation entre les débats de la première et de la seconde séquence didactique, ainsi que dans les tests, apparaît néanmoins ténue, et ne permet pas de mettre en évidence une amélioration nette des compétences à argumenter des élèves.

Au niveau de l’analyse macroscopique, nous observons tout d’abord que les élèves développent leur argumentation à partir de multiples idées exprimées dans le texte mis à disposition par l’outil numérique. De plus, relativement à la possibilité donnée par la plateforme de déployer une argumentation en arborescence, chaque branche présente sa propre dynamique d’exploration des multiples domaines de la QSS. En effet, les élèves peuvent mobiliser plusieurs domaines au sein d’un même argument, ou introduire de nouveaux domaines dans des branches qui ne les contenaient pas initialement (émergence d’un argument social dans une branche jusqu’alors focalisée sur les considérations sanitaires et/ou techniques, par exemple).

De façon générale, le principal résultat observé dans l’ensemble des analyses est la forte dépendance au contexte du processus argumentatif. Ainsi, la qualité de l’argumentation des élèves peut varier considérablement selon différents facteurs : la QSS débattue (proximité avec la vie des élèves, difficulté conceptuelle), et plus spécifiquement le texte support au débat (approche de la QSS, articulation avec la phase préparatoire, contenus abordés, niveau de langage, longueur du texte). Il est à noter que la discipline du cours (géographie, SPC, SVT, philosophie) semble avoir très peu d’impact par rapport au choix de la QSS débattue. En outre, le déroulement du débat, le guidage de l’enseignant·e et le moment dans l’année semblent jouer un rôle important.

Relativement à nos questions de recherche, outre les autres apports du numérique pour l’argumentation en classe, détaillés plus haut, la plateforme AREN semble permettre aux élèves, en basant les échanges sur un texte support, de saisir ou de faire émerger du texte des questions qui font sens pour elles/eux, induisant une argumentation riche, nécessaire au développement des compétences argumentatives (Question 1). La faible évolution observée est ainsi à mettre en lien avec la littérature(notamment Kuhn et al., 2016). En effet, les recherches montrant une amélioration franche et nette de la qualité de l’argumentation des élèves se focalisent le plus souvent sur des points précis de l’argumentation (comme l’emploi de données). À l’inverse, notre étude cible sur l’argumentation en général (diversité des mouvements argumentatifs, contenu des arguments). Par ailleurs, les séquences indiquant des effets marqués mobilisent des séquences parfois bien plus longues (jusqu’à 18 h, contre 6 à 8 h dans nos expérimentations). Enfin, l’analyse macroscopique indique que l’argumentation sur AREN, en fournissant un espace de débat permettant l’exploration large et approfondie des questions abordées (Baker, 2009), semble être un moyen prometteur de développer la prise en compte par les élèves de la complexité des QSS (Question 2).

Que dois-je retenir de cette étude pour ma pratique ?

  • Pour développer les compétences argumentatives et l’esprit critique des élèves de façon générale, il apparaît crucial de fournir aux élèves des occasions nombreuses et variées de débattre et d’opérer un retour critique sur leur propre pratique de l’argumentation. Cela permet de favoriser le transfert des compétences argumentatives, en particulier la pratique de la justification systématique. L’outil numérique peut en cela être un support particulièrement propice pour développer des séquences didactiques.
  • En vue de proposer des débats riches pour les élèves et plus propices au développement de leurs compétences argumentatives, il semble nécessaire de trouver un compromis entre une QSS très proche de la vie des élèves (ce qui impacte négativement l’argumentation en entravant la prise de recul) ou trop lointaine (qui aura alors peu de sens et donc d’intérêt pour les élèves). Par ailleurs, la QSS débattue doit être suffisamment ouverte pour engager un débat riche mais les contenus disciplinaires abordés doivent rester à la portée des élèves. Enfin, la possibilité offerte par AREN de conduire des débats à partir d’un texte et pas d’une question semble être un moyen intéressant de stimuler l’argumentation des élèves.
  • Plus prosaïquement, la totalité des enseignant·e·s participant ont rapporté un effet de lassitude si la séquence didactique se prolongeait trop longtemps. Il semble donc important de prêter attention aux contraintes de temps (vacances, jours fériés, etc.) pour éviter l’érosion de la motivation des élèves (qui a été particulièrement visible dans les post-tests écrits). De plus, pour stimuler l’argumentation des élèves durant les débats, le texte support doit être suffisamment court pour ne pas demander un temps de lecture trop important, et d’un niveau de langage suffisamment simple pour ne pas générer d’incompréhensions.
  • En vue de développer plus efficacement les compétences argumentatives des élèves, un focus important peut être effectué par l’enseignant·e sur l’opération de justification. Ce focus peut être effectué dans diverses disciplines, en accord avec les programmes : méthode d’analyse de documents en géographie, démarche d’investigation en SVT/SPC, méthodes de dissertation et de commentaire de texte en philosophie.
  • Du point de vue de l’évaluation, les productions argumentatives des élèves en situation de débat (oral ou numérique) semblent être un indicateur bien meilleur que leurs productions individuelles lors de tests écrits pour évaluer leurs compétences argumentatives. En particulier, la qualité générale de l’argumentation des élèves semble très dépendante de leur capacité à produire conjointement des questionnements critiques (questions visant à mettre à l’épreuve la thèse et/ou les justifications d’un·e interlocuteur·ice), des concessions et des réfutations.

Références

Asterhan, C. S. et Eisenmann, T. (2011). Introducing synchronous e-discussion tools in co-located class-rooms: A study on the experiences of ‘active’ and ‘silent’ secondary school students. Computers in Human Behavior, 27(6), 2169-2177. https://doi.org/10.1016/j.chb.2011.06.011

Baker, M. (2009). Argumentative interactions and the social construction of knowledge. Dans N. Muller-Mirza et A.-N. Perret-Clermont (dir.), Argumentation and Education (p. 127-144). Springer. https://doi.org/10.1007/978-0-387-98125-3

De Vries, E., Lund, K. et Baker, M. (2002). Computer-mediated epistemic dialogue: Explanation and argumentation as vehicles for understanding scientific notions. Journal of the Learning Sciences, 11(1), 63-103. https://doi.org/10.1207/S15327809JLS1101_3

Erduran, S. (2007). Methodological foundations in the study of argumentation in science classrooms. Dans S. Erduran et M. Jiménez-Aleixandre (dir.), Argumentation in Science Education (p. 47-69). Springer Science. https://doi.org/10.1007/978-1-4020-6670-2

Garcia-Mila, M. et Andersen, C. (2007). Cognitive foundations of learning argumentation. Dans S. Erduran et M. Jiménez-Aleixandre (dir.), Argumentation in Science Education (p. 29-45). Springer Science. https://doi.org/10.1007/978-1-4020-6670-2

Kuhn, D. (2019). Critical thinking as discourse. Human Development, 62(3), 146-164.

Kuhn, D., Hemberger, L. et Khait, V. (2016). Argue with me: Argument as a path to developing students’ thinking and writing (2e éd.). Routledge.

Morin, O., Simonneaux, L. et Tytler, R. (2017). Engaging with socially acute questions: Development and validation of an interactional reasoning framework. Journal of Research in Science Teaching, 54(7), 825-851. https://doi.org/10.1002/tea.21386

Pallares, G., Bächtold, M. et Munier, V. (2020). Des débats numériques pour développer les compétences argumentatives des élèves sur des questions socio-scientifiques ? Recherches en didactique des sciences et des technologies. https://doi.org/10.4000/rdst.3573

Sandoval, W. A. (2013). Educational design research in the 21st century. Dans R. Luckin, J. Underwood, N.Winters, P. Goodyear, B. Grabowski et S. Puntambekar (dir.), Handbook of Design in Educational Technology (p. 400-408). Routledge.

Schwarz, B. B. (2009). Argumentation and learning. Dans Argumentation and Education (p. 91-126). Springer. https://doi.org/10.1007/978-0-387-98125-3

Schwarz, B. B. et Baker, M. J. (2017). Dialogue, argumentation and education: History, theory and practice. Cambridge University Press.

Simonneaux, J. et Simonneaux, L. (2011). Argumentations d’étudiants sur des Questions Socialement Vives environnementales. Formation et pratiques d’enseignement en questions, (13), 157-178.

Simonneaux, L. (2007). Argumentation in socio-scientific contexts. Dans S. Erduran et M. Jiménez-Aleixandre (dir.), Argumentation in Science Education, 179-199. https://doi.org/10.1007/978-1-4020-6670-2

Zohar, A. et Nemet, F. (2002). Fostering students’ knowledge and argumentation skills through dilemmas in human genetics. Journal of Research in Science Teaching: The Official Journal of the National Association for Research in Science Teaching, 39(1), 35-62

Catégories
Thèses

Le numérique comme outil pédagogique pour l’apprentissage de la lecture : du laboratoire à la salle de classe

Julie LASSAULT

Niveaux

GS — CP — CE1

 

 

Public

Enseignants d’élémentaire, parents, orthophonistes, neuropsychologues

 

Contact

Julie LASSAULT — Voir ses publications

Laboratoire LPC

Action/Projet associé(e)

Ressource(s) associée(s)

À quelles questions cette étude tente-t-elle de répondre ?

Les objectifs principaux de ce travail de recherche étaient de développer et d’évaluer un outil informatisé d’aide à l’apprentissage de la lecture nommé GraphoGame. Il existe plusieurs outils d’aide, mais ils ne sont que rarement évalués scientifiquement et leur contenu est limité ou restreint. Il nous adonc semblé important de proposer aux enseignants un outil pertinent, complet, évalué et facilement accessible. Cet outil a pour vocation de permettre une réponse individualisée, différenciée et adaptative de « première intention » au sein de l’école. Les expérimentations se sont déroulées au CP et au CE1, donc bien plus tôt que les interventions habituelles. À travers ce travail de recherche nous avons souhaité intervenir dans les établissements en REP et REP+, où le pourcentage d’élèves en grande difficulté de lecture atteint 30 % (Billard et al., 2009 ; Fluss et al., 2009). Nous avons fait l’hypothèse que l’utilisation intensive de cet outil numérique devrait fortement réduire le pourcentage d’élèves en difficulté d’apprentissage de la lecture à la fin du CP, en améliorant leurs compétences en fluence, en décodage et en orthographe.

Pourquoi ces questions sont-elles pertinentes ?

Aujourd’hui en France, plus de 250 000 enfants souffrent de troubles d’apprentissage de la lecture et les conséquences de ces difficultés sont dramatiques : décrochage scolaire, détresse et avenir professionnel compromis. Plusieurs études nationales (Cycle des Évaluations Disciplinaires Réalisées sur des Échantillons, CEDRE, en 2015 ; Organisation de Coopération, et de Développement Économique, OCDE, en 2014) ont montré que la proportion des élèves en difficulté de lecture a augmenté significativement au cours des dix dernières années. Les résultats soulignent qu’à la fin de l’école primaire, un élève sur cinq a des difficultés pour comprendre un texte, proportion encore plus importante dans les établissements relevant de l’éducation prioritaire. Il a été montre qu’au sein des Réseaux d’Éducation Prioritaires (REP) la compréhension est altérée tout autant que les mécanismes de plus bas niveau, comme la reconnaissance des lettres, à la différence des écoles situées hors REP (Daussin et al., 2011). Face à l’ampleur du problème, les enseignants peuvent se sentir démunis et les solutions extra-scolaires sont souvent insuffisantes. Les faibles liens qui existent entre le terrain, la formation et la recherche sont également vecteurs de difficultés. Dans une étude conduite en 2014, l’analyse du temps scolaire a permis de mettre en évidence que le volume de temps alloué à l’apprentissage de la lecture (en moyenne, 7 minutes par jour) est largement insuffisant (Suchaut et Bougneres, 2014). Les auteurs encouragent à développer, dans les écoles, des pratiques pour optimiser au mieux les temps d’apprentissage. Il apparait ici comme primordial de proposer de nouveaux outils, notamment numériques, qui soient scientifiquement validés et puissent s’utiliser au sein même de la classe.

Parmi les logiciels d’entraînement à la lecture, GraphoGame a été largement évalué. Créé en Finlande par H. Lyytinen et son équipe de l’Université de Jyväskylä il y a plus d’une dizaine d’années, il a depuis été adapté dans de nombreuses langues à travers le monde. Désormais disponible sur ordinateur mais aussi sur tablette ou tout autre support numérique, GraphoGame est un logiciel d’entraînement audio-visuel à la lecture, basé sur la présentation simultanée d’un stimulus auditif simple (ex : syllabe) et de plusieurs propositions écrites (suites de lettres). L’enfant doit choisir la proposition écrite qui correspond à ce qu’il entend (Richardson et Lyytinen, 2014). Au cours d’un essai, l’enfant choisir la séquence orthographique qui correspond au son qu’il vient d’entendre. S’il donne la réponse exacte, il passe à l’essai suivant ; en revanche, s’il se trompe, les propositions incorrectes s’effacent, il réentend alors le son et doit choisir la bonne proposition, qui est alors la seule visible. Une présentation simultanée permet d’apprendre le lien systématique entre lettres-sons, lien qui est à la base du décodage et est indispensable pour l’apprentissage de la lecture (Ziegler et Goswami, 2005). La répétition massive permet, quant à elle, d’automatiser le décodage nécessaire pour la reconnaissance instantanée de mots. Parallèlement, GraphoGame permet de travailler également sur la discrimination phonémique, souvent déficitaire chez les enfants dyslexiques (Serniclaes et al., 2001 ; Ziegler et al., 2009).

Une première étude d’évaluation de GraphoGame a été conduite en 2010 sur 166 enfants finlandais de 7 ans (Saine et al., 2011). L’adaptation française a tenu compte des caractéristiques principales de l’orthographe de cette langue afin de proposer une progression adaptée et optimale. La progression proposée repose sur la fréquence et la consistance des correspondances graphophonologiques (CGP). Ainsi, les CGP les plus fréquentes et les plus régulières sont présentées dès le début et les marques de flexions et les supports de dérivations portés par les lettres muettes en fin de mots sont introduits plus tard dans le jeu.

Quelle méthodologie de recherche a-t-on utilisée ?

Au total, 921 élèves de CP, issus de 9 écoles (1 REP, 1 hors REP et 7 REP+) et répartis dans 37 classes, ont participé à cette étude longitudinale. Les élèves ont été suivis sur 2 années. Au cours de la première année (c’est-à-dire, leur année de CP), 451 élèves qui se sont entraînés avec le logiciel de lecture GraphoGame constituent le groupe expérimental. L’année suivante, une nouvelle cohorte de 470 élèves de CP des mêmes écoles, entraînés avec le logiciel de mathématiques Fiete Math, constituent le groupe contrôle actif.

Dans ce jeu, les enfants utilisent la cargaison du marin Fiete pour calculer, grâce à des boîtes de nombres qui peuvent être assemblées ou séparées. Les tâches sont simples : les navires qui arrivent doivent être chargés de manière appropriée. Comme des blocs de construction, les enfants peuvent assembler les caisses dans n’importe quelle forme et les diviser afin d’atteindre la quantité demandée sur le chargement (qui change à chaque essai). Afin de maintenir la motivation, les enfants peuvent débloquer de nouvelles terres et de nouveaux ports, gagner des médailles et des navires plus grands. Chaque port a une compétence arithmétique à travailler : compter (comptage, reconnaître des groupes) fractionner (fractionner les chiffres différemment, apprendre les nombres jusqu’à 20), valeur du 5 (calculer plus facilement les chiffres en base 5, passage à la dizaine, élaboration du système décimal), techniques opératoires (multiplier et diviser par 2, opérations commutatives, opérations proches, opérations additives et soustractives à termes différents), addition (suites numériques logiques, opérations simples à difficiles, inversions), soustraction (idem qu’addition) et calcul libre (s’exercer aux opérations additives et soustractives). Le jeu contient plus de 1 000 exercices et fourni un feedback immédiat à l’élève.

Pour chaque groupe, la durée des entraînements était d’une heure par semaine (15 minutes par jour, 4 séances par semaine), pendant 16 semaines, en demi-groupe. Une moitié de la classe s’entraînait avec le logiciel alors que l’autre travaillait avec l’enseignant, puis, après 15 minutes, les groupes s’intervertissaient. En novembre (pré-tests) et en juin (post-tests), chaque enfant a été testé pour évaluer ses capacités en décodage, en conscience phonologique, en compréhension orale et écrite, Ces compétences ont été évaluées — au cours du pré-test et du post-test — par différentes épreuves standardisées :

  • Décodage : test de lecture en 1 minute pour des mots isolés (Gentaz et al., 2013) et Alouette pour des mots en contexte (Deltour et Hupkens, 1965)
  • Conscience phonologique : 3 tâches de la batterie EVALEC (Sprenger-Charolles et al., 2010)
  • Compréhension orale et écrite : ECoSSe (Lecocq, 1996)
  • Identification des mots : Timé 2 (ECALLE, 2003)
  • Vocabulaire : TVAP (Deltour et Hupkens, 1980)
  • Raisonnement non verbal : Les matrices progressives de Raven (Raven, 1998)
  • Capacités mathématiques : 3 tâches de la batterie Tedi-Math (Van Nieuwenhoven et al., 2001) et une tâche de comparaison de paires de nombres que nous avons créée.

Quels résultats a-t-on obtenus ?

Les résultats des post-tests montrent que les élèves qui se sont entrainés avec GraphoGame ont significativement de meilleurs résultats que les élèves ayant suivi l’entraînement en mathématiques pour l’ensemble des tâches de lecture ainsi que pour les tâches de conscience phonologique (tailles d’effet entre 0,20 et 0,35). De façon intéressante, l’analyse des performances des élèves entraînés avec GraphoGame a mis en évidence l’impact du niveau initial des élèves sur leur progression, montrant une amélioration des performances en lecture plus importante chez les faibles lecteurs. Autrement dit, ce sont ces derniers qui bénéficient le plus d’un entraînement au décodage précoce et intensif. Les résultats ont également révélé que les élèves qui se sont le plus investis dans l’utilisation de l’outil GraphoGame étaient ceux qui ont le plus amélioré leurs compétences en conscience phonologique et en lecture.

Il est souvent supposé implicitement que les interventions efficaces doivent bénéficier à tous les enfants dans une mesure similaire (« all size fit all« ). Nos résultats suggèrent que ce n’est pas le cas et que la prise en compte des différences interindividuelles (c’est-à-dire, entre les individus) semble nécessaire pour obtenir des résultats clairs et robustes (Ziegler et al., 2019). En effet, les résultats obtenus montrent que l’intervention a profité le plus aux enfants dont les compétences étaient initialement faibles. Ce résultat est en accord avec McTigue et collaborateurs (2020) qui avancent également que les études antérieures ont mis l’accent sur la technologie elle-même au détriment d’autres paramètres pertinents, comme le niveau de l’élève mais également l’engagement et la motivation au sein du jeu. En effet, concernant ce dernier point, nos résultats montrent bien que les enfants ayant un engagement élevé dans le jeu bénéficient le plus de l’intervention, en améliorant davantage leurs compétences, notamment en ce qui concerne la fluidité en lecture. Ces résultats suggèrent donc qu’on ne peut pas supposer que tous les enfants seront engagés et motivés de la même façon dans l’utilisation de GraphoGame puisqu’il s’agit d’un outil numérique (Wouters et al., 2013).

Enfin, et bien que l’évaluation de l’efficacité de l’intervention en mathématiques n’était pas l’objectif principal de notre étude, nous avons néanmoins vérifié si l’intervention en mathématiques via l’utilisation du logiciel Fiete Math a permis une amélioration significative des compétences en mathématiques après l’entraînement. Les résultats obtenus lors des post-tests relatifs aux compétences en mathématiques confirment que les élèves ayant suivi un entraînement avec Fiete Math obtiennent de meilleures performances dans les trois tâches de la batterie Tedi-Math (opérations simples et à trous)que les élèves ayant suivi un entraînement avec GraphoGame.

Que dois-je retenir de cette étude pour ma pratique ?

  • Les outils numériques peuvent offrir aujourd’hui des solutions « de première intention » au sein de l’école bien avant que les élèves soient en échec.
  • Notre expérimentation à grande échelle sur 1 000 élèves de CP a montré qu’un entraînement en lecture avec le logiciel GraphoGame conduit à une amélioration significative des compétences des élèves dans des tâches essentielles à l’apprentissage de la lecture (décodage, conscience phonologique et reconnaissance de mots).
  • Les résultats mettent un évidence un bénéfice plus important pour les élèves avec un faible niveau de décodage en début d’année.
  • Le bénéfice est d’autant plus important que l’engagement de l’élève au sein du jeu est élevé.
  • Une version complète de GraphoGame Français est aujourd’hui gratuitement disponible sur toutes les plateformes en France.

Références

Billard, C., Fluss, J., Ducot, B., Bricout, L., Richard, G., Ecalle, J., Magnan, A., Warszawski, J. et Ziegler, J. (2009). Deficits in reading acquisition in primary school: cognitive, social and behavioral factors studied in a sample of 1062 children. Revue d’épidemiologie et de Santé Publique, 57(3), 191-203.

CEDRE. (2015). Nouvelle évaluation en de collège : compétences langagières et littératie. Évaluation des acquis des élèves. Dans Note d’information 21, juillet 2016. Direction de l’Évaluation, de la Prospective et de la Performance (DEPP).

Daussin, J.-M., Keskpaik, S. et Rocher, T. (2011). L’évolution du nombre d’élèves en difficulté face à l’écrit depuis une dizaine d’années. France, portrait social, 137-152.

Deltour, J.-J. et Hupkens, D. (1965). Manuel d’application du test de l’alouette. Éditions du Centre de psychologie appliquée. Dalex.

Deltour, J.-J. et Hupkens, D. (1980). Test de vocabulaire actif et passif, TVAP. Editions Applications des Techniques Modernes.

Écalle, J. (2003). Développement des processus d’identification de mots écrits : une étude transversaleentre 6 et 8 ans. Rééducation orthophonique, 41(213), 77-96.

Fluss, J., Ziegler, J. C., Warszawski, J., Ducot, B., Richard, G. et Billard, C. (2009). Poor reading in French elementary school: the interplay of cognitive, behavioral, and socioeconomic factors. Journal of Developmental & Behavioral Pediatrics, 30(3), 206-216.

Gentaz, E., Sprenger-Charolles, L., Colé, P., Theurel, A., Gurgand, M., Huron, C., Rocher, T. et Le Cam, M. (2013). Évaluation quantitative d’un entrainement à la lecture à grande échelle pour des enfants de CP scolarisés en réseaux d’éducation prioritaire : apports et limites. A.N.A.E, 123, 172-181.

Lecocq, P. (1996). L’ECOSSE : Une épreuve de compréhension syntaxico-sémantique. Presses Universitaires du Septentrion.

McTigue, E. M., Solheim, O. J., Zimmer, W. K. et Uppstad, P. H. (2020). Critically reviewing GraphoGame Across the world: Recommendations and cautions for research and implementation of computer-assisted instruction for word-reading acquisition. Reading Research Quarterly, 55(1), 45-73.

OCDE. (2014). PISA 2012 Results (Volume I): What Students Know and Can Do – Student Performancein Mathematics, Reading and Science (Éditions OCDE).

Raven, J. (1998). Progressive Matrices Couleurs (PM 38), Progressive Matrices Standard (PM 47), Étalonnage Français. Éditions du centre de psychologie appliquée (ECPA).

Richardson, U. et Lyytinen, H. (2014). The GraphoGame method: The theoretical and methodological background of the technology-enhanced learning environment for learning to read. Human Technology, 10(1).

Saine, N. L., Lerkkanen, M.-K., Ahonen, T., Tolvanen, A. et Lyytinen, H. (2011). Computer-assisted remedial reading intervention for school beginners at risk for reading disability. Child Development, 82(3), 1013-1028.

Serniclaes, W., Sprenger-Charolles, L., Carré, R. et Demonet, J.-F. (2001). Perceptual discrimination of speech sounds in developmental dyslexia. Journal of Speech, Language, and Hearing Research, 44(2), 384-399.

Sprenger-Charolles, L., Colé, P., Piquard-Kipffer, A. et Leloup, G. (2010). EVALEC, Batterie informatisée d’évaluation diagnostique des troubles spécifiques d’apprentissage de la lecture.

Suchaut, B. et Bougneres, A. (2014). Sept minutes pour apprendre à lire : à la recherche du temps perdu. Document de travail, École d’économie de Paris, Institut des Politiques Publiques.

Van Nieuwenhoven, C., Grégoire, J. et Noël, M.-P. (2001). Tedi-Math. Test diagnostique des compétences de base en mathématiques. ECPA.

Wouters, P., Van Nimwegen, C., Van Oostendorp, H. et Van Der Spek, E. D. (2013). A meta-analysis of the cognitive and motivational effects of serious games. Journal of Educational Psychology, 105(2), 249.

Ziegler, J., Perry, C. et Zorzi, M. (2019). Modeling the Variability of Developmental Dyslexia. Dans C. Perfeffi, K. Pugh et L. Verhoeven (dir.), Developmental dyslexia across languages and writing systems (p. 350-371). Cambridge University Press.

Ziegler, J. C. et Goswami, U. (2005). Reading acquisition, developmental dyslexia, and skilled reading across languages: a psycholinguistic grain size theory. Psychological Bulletin, 131(1), 3.

Ziegler, J. C., Pech-Georgel, C., George, F. et Lorenzi, C. (2009). Speech-perception-in-noise deficits indyslexia. Developmental Science, 12(5), 732-745.

Catégories
Ressources

Logiciel éducatif SILVA NUMERICA

Simuler l’évolution d’un écosystème forestier

Logo du projet Silva Numerica

Niveaux

Collégiens, lycéens, apprentis et stagiaires de la formation adulte, professionnels de la filière, interprofession voire membres de la société civile

Action/Projet associé(e)

Contact

Simon CAMBAY

 

 

 

© Vidéo YouTube : Logiciel éducatif SILVA NUMERICA

Présentation

Le logiciel SILVA NUMERICA vise à mieux faire connaître l’évolution d’un écosystème forestier particulier en fonction des actions décidées (plantation, abattage, implantation aire de pique-nique, etc.) et sensibiliser ainsi aux conséquences en simulant l’évolution dans le temps. Le logiciel offre la possibilité aux apprenants de visualiser leur pratique et d’en analyser les conséquences dans un écosystème forestier.

Pour agrémenter cette plateforme, différents outils ont été développés par l’institut Image de Chalon-sur-Saône, centre de recherche rattaché au Arts et Métiers de Cluny et Shine Research, start-up de développement graphique pour les jeux vidéos située à Besançon.

Outil principal pédagogique (interface utilisateur) :

  • Silva Numerica : un logiciel de visualisation 3D et d’exploitation des fichiers ressources issues de PRIMAL et l’éditeur de scénario — Développé par l’entreprise Shine Reseach.

Outils ressources associés :

  • PRIMAL : une application de création de parcelle, sur laquelle les paramètres (âges des arbres, essences présente, densité…) peuvent être définis et intégrés dans le simulateur — Développée par l’Institut Image.
  • Editeur de scénario : une interface de création de scénarios et de questions au sein de laquelle un système de notation a été intégré et où il est possible de définir et gérer les séquences dans lesquelles les questions apparaîtront — Développée par l’entreprise Shine Research.

Les trois outils ont été conçus et améliorés tout au long du projet à partir de cahier des charges issues des concertations et des sessions de test associant des enseignants, des chercheurs, des ingénieurs de formation et les développeurs.
Les orientations stratégiques et les choix techniques ont été validés dans les instances de concertations collectives en comité de pilotage et comité d’orientation pluriannuels.

Quelques images du logiciel :

Disponibilité

Actuellement, l’outil est à destination des apprenants et enseignants de l’Éducation Nationale et du Ministère de l’Agriculture et de l’Alimentation. À terme, il est envisagé que Silva Numerica soit disponible auprès des professionnels et du grand public. À ce stade du projet, le mode d’accès aux outils est gratuit mais devra évoluer sur un modèle économique de licences payantes.

Support d’utilisation nécessaire : Ordinateur de type gaming
Caractéristiques de configuration requises :

  • Processeur : Intel Core i5 -Minimum 3.2 GHZ
  • 8 Go de mémoire RAM Cadencée 3000 MHZ
  • Carte Graphique = GTx 1060
  • HP 705 G4,  8Go de RAM
  • Carte Vidéo Sapphire PULSE Radeon RX 550 2GD5
  • Système d’exploitation : Microsoft Windows