Notes de cours provisoires. - Staf16: Réalisation de logiciels éducatifs.

Comprendre les implications pédagogiques de choix techniques (DRAFT).

P. Dillenbourg, TECFA, Université de Genève

  1. Introduction

Les sciences de l'éducation sont à la fois productrices et consommatrices de technologies éducatives. Du côté production, le concepteur d'un logiciel éducatif peut se nourrir de diverses façons des sciences de l'éducation:

Les outils informatiques reflètent ces trois niveaux. Les langage.auteur standards (TenCore, Toolbook, Authorware) et les système-auteur (par exemple, les éditeurs de questionnaires) fournissent au concepteur des modalités d'interaction pédagogiques qui correspondent aux pratiques pédagogiques courantes (questions à choix multiples, textes lacunaires, ...). Certains systèmes, peu répandu il est vrai, visent à supporter le processus en amont de la réalisation en couvrant les deux autres niveaux. Au niveau 'méthodes', DISCourse (Mispelkamp & Sarti, 1994) offre des éditeurs graphiques conçus pour l'analyse du contenu d'enseignement. ID2 EXPERT (Merrill, 1993) comprend des éditeurs semblables, mais intègre en outre des connaissances pédagogiques, encodées sous forme d'un système expert, capable par exemple de faire des suggestions quant au séquencement des éléments à enseigner.

An aval de la production, les sciences de l'éducation sont consommatrices des informations résultant de l'utilisation de didacticiels. D'une part, la mesure de l'efficacité d'un didacticiel fournit un feed-back sur les apports pédagogiques décrits ci-dessus (pratiques, méthodes et connaissances). D'autre part, les logiciels produits créent de nouveaux observables, tels que les pratiques pédagogiques intégrant le didacticiel ou l'impact institutionnel de l'intégration de ces nouveaux outils. Cette double relation explique pourquoi les technologies éducatives sont devenues un outil privilégié des chercheurs en éducation. Les technologies éducatives occupent au sein des recherches en éducation, une place plus importante qu'elle n'occupent au sein des pratiques dans les classes, les amphithéâtres ou les ateliers. Ce phénomène ne peut se résumer à un effet de mode ou à la nécessité des chercheurs d'anticiper l'évolution des pratiques. Il résulte de la richesse de l'interaction entre les questions informatiques et les questions pédagogiques.

Ce chapitre espère briser une croyance simpliste mais répandue selon laquelle les pédagogues (ou psychologues) fournissent des modèles que les informaticiens traduisent ensuite en programmes. La simple juxtaposition de deux disciplines, pédagogie et informatique, ou l'application de l'une à l'autre, offrent peu d'intérêt. Le véritable enjeu des technologies éducatives, en tant qu'outil d'enrichissement des sciences de l'éducation, tient à la manière dont les questions pédagogiques rebondissent grâce à des questions techniques et vice-versa. Mon argumentation reposera sur l'analyse de concepts et de techniques mises au point par une communauté de chercheurs qui tentaient d’enrichir les logiciels éducatifs des possibilités offertes par l’intelligence artificielle. En particulier, je tente de montrer que l'apport principal des travaux en intelligence artificielle et éducation (ci après AIED) n'a pas été de produire des modèles computationnels d'enseignement-apprentissage, mais de comprendre quels enjeux pédagogiques sont enfouis dans des choix de conception dont on aurait pu penser a priori qu'ils fussent strictement techniques.

  1. Les modèles d'un EIAO
  2. Les travaux en AIED couvrent environ deux décennies (1978-1998). Je n'en fourni pas un compte rendu historique, ni ne rapporte dans le détail les attentes parfois naïves et les déceptions qui en résultent. Je tente d’expliquer les principes de base, de rapporter certaines idées originales produites, lesquelles restent pertinentes dans le paysage actuel des technologies éducatives.

    1. Du scénario au modèle
    2. Depuis les débuts de l’EAO, le squelette d’un didacticiel était généralement un scénario c'est-à-dire une séquence d'interactions pédagogiques (explications, questions, réponses, feed-back, ...). Sous l’influence des travaux en IA, l’élément central du didacticiel devient un modèle, ou plus exactement plusieurs modèles. Dans ce chapitre, il sera essentiellement question de enjeux liés à ces modèles.

      La différence entre un scénario et un modèle peut être expliquée par analogie à la situation suivante.

       

      Cette illustration va permettre de percevoir les enjeux pédagogiques liés à l'évolution des scénarios en modèles, c-à-d quelles interactions didactiques sont réalisables dans le second cas (plus facilement que dans le premier). Les différentes manières de guider mon collègue diffèrent par le degré de liberté dont il dispose pour explorer la ville. On peut le suivre pas à pas et le stopper dès qu’il s’éloigne du chemin correct. Inversement, on peut lui laisser liberté totale dans son exploration de la ville et ne pas intervenir, même s’il se perd. En matière de logiciels éducatif, le degré de liberté laissé à l'apprenant est nommé "contrôle par l'apprenant" car il détermine qui, de l'élève ou du logiciel, détermine les interactions pédagogiques. En réalité le terme anglais 'learner control' est ambigu car il peut se traduire soit par contrôle de l'apprenant par le système ou contrôle du système par l'apprenant. J'utiliserai plus volontiers les termes 'balance du contrôle', laquelle penchera soit du côté de l'apprenant, soit du côté du système, selon celui des deux qui conduit les interactions

      De façon parfois un peu caricaturale mais néanmoins fondée, on associe généralement l'EAO à un contrôle des interactions par le système (l'apprenant se contente de répondre aux questions ou de faire des exercices) et les environnements d'apprentissage (par exemple, LOGO) à un contrôle des interactions par l'apprenant. Entre ces deux modes extrêmes de contrôle, il existe un continuum de balances plus ou moins équilibrées. Lorsque la répartition est équilibrée, on parle de système initiative mixte'. Ce terme fut utilisé pour les premiers systèmes à balance de contrôle équilibrée, balance obtenue en permettant à l'élève non seulement de répondre aux questions du système, mais aussi de lui poser des questions (Carbonell, 1970). Dans l'exemple de la traversée d'une ville, un système à initiative mixte, permettrait à l'utilisateur d'explorer librement la ville, mais évaluerait continuellement son itinéraire au vu de sa destination afin de pouvoir intervenir si l'utilisateur dérive trop ou s’il demande de l’aide.

      Dans le domaine des technologies éducatives, le balance optimale est un sujet permanent de divergence entre concepteurs et fut longtemps le principal critère pour classifier les didacticiels. Les résultats de recherches montrent que les novices ne disposent souvent pas des connaissances leur permettant d'effectuer les choix optimaux: un novice ignore ce qu'il ignore, ignore ce qui est facile ou difficile, ... Ce résultat se reflète aussi dans les études sur les hypertextes qui montrent que les sujets qui bénéficient le plus de la liberté totale qu'offrent généralement les hyperdocuments sont ceux qui disposent a priori d'une bonne connaissance du domaine (Rouet & Co). En d'autres termes, on devrait facilement convaincre les concepteurs d'adopter une balance de contrôle variable, le nombre d'initiatives offertes à l'apprenant croissant au fur et à mesure que croît sa compétence. Mais en réalité, le débat sur le contrôle par l'apprenant est moins informé par des résultats de travaux expérimentaux que sous-tendu par les valeurs de concepteurs, valeurs qui relèvent de sa philosophie de l'éducation et ont conduit à créer certaines 'écoles' avec leur gourous, tel que c'était le cas pour LOGO.

      La relation entre la présence d'un modèle et la nature des interactions est la suivante. Pour guider pas à pas l'apprenant (contrôle par le système), il suffit de disposer d'un itinéraire précis (ou scénario). Pour le laisser explorer librement la ville (contrôle par l'apprenant), le système ne doit pas disposer d'une représentation de la ville puisqu'il n'intervient pas. Pour un mode initiative mixte', le système doit disposer d'un modèle (la carte) permettant de raisonner sur la position de l'utilisateur vis-à-vis de sa destination (afin de déterminer un seuil de 'dérive' à partir duquel il intervient et afin de pouvoir recommander une direction lorsqu'il intervient). Ce modèle explicite de la tâche (ou du contenu), appelé généralement modèle du domaine ou modèle de l'expert.

      En réalité, pour développer tout didacticiel (avec ou sans IA), l’auteur doit disposer d’un modèle clair de la tâche. Les techniques d’analyse de contenu représentent la clé de voûte des techniques d’ingénierie éducative. L’innovation consiste ici à introduire explicitement ce modèle dans le système, au moyen des techniques de représentation des connaissances développées en IA.

    3. La dissociation des représentations

Un scénario pédagogique se compose généralement de 'mailles' d'apprentissage telles que:

Figure 1. Exemple de scénario

Cette interaction comprend à la fois des connaissances du le contenu de l'enseignement (Berne est la capitale de la Suisse et Paris celle de la France.) et les interactions pédagogiques à réaliser (poser une question, attendre une réponse, fournir un feed-back). Les connaissances du domaine peuvent être représentées par un modèle explicite, dans ce cas par exemple une table:

Pays

Capitale

France

Paris

Suisse

Berne

Table 1: données de l'interaction

Cette table contient la connaissance à enseigner, mais non la façon de l'enseigner. Il est dès lors nécessaire de représenter séparément les interactions pédagogiques. Le scénario présenté en figure 1 correspond par exemple à la stratégie décrite en figure 2 , appliquée aux données de la Table 1.

Figure 2: Stratégie pédagogique dissociée des données

On peut appliquer une stratégie pédagogique différente (par exemple, sélectionner un item de la seconde colonne et demander son correspondant dans la première) au même jeu de données, ce qui conduirait à une interaction de type "De quelle pays Berne est-elle la capitale?". Une même représentation du contenu (ou modèle du domaine) permet de mettre en oeuvre diverses stratégies pédagogiques.

L'ensemble des connaissances permettant d'exploiter le modèle du domaine pour générer des interactions est souvent dénommé modèle pédagogique ou modèle du tuteur. Le terme 'modèle' est utilisé de deux manières, que je qualifie de 'sens faible' et un 'sens fort'.

Figure 3

Dans le premier cas, je parlerais de modèle implicite, encrypté dans une procédure, et dans le second de modèle explicite, exprimé par des règles permettant de prendre des décisions. Techniquement, la différence entre les deux types de modèles est une question de granularité dans la décomposition des actions pédagogiques. En effet, la conclusion de la seconde règle ci-dessus ("ALORS présenter (Z,W) puis (X,Y)") est en soi une procédure. Il s'agit simplement d'une fraction de la procédure (l'étape 4 de la procédure présentée en figure 2). Nous verrons dans la section ?? quels sont les avantages de cette granularité accrue en ce qui concerne le fonctionnement du système. Mais en réalité ce sont surtout des enjeux scientifiques qui ont poussé à la construction de modèles explicites. Construire un modèle dépasse les préoccupations en ingénierie éducative et devient un enjeu en soi pour les chercheurs en sciences de l’éducation. La plupart des disciplines scientifiques développent des modèles, l’intelligence artificielle offre cette possibilité aux pédagogues. Nous y reviendrons dans la section ???.

Une autre problématique fondamentale des sciences de l'éducation apparaît en filigrane de cette dissociation du modèle du domaine et du modèle pédagogique. S'agit-il simplement de dissocier les données d'un problème et leur traitement, principe de base en hygiène de programmation, qu'on applique simplement aux didacticiels? Ceci permet par exemple de ne modifier que la table [pays - capitale] (table 1) pour étendre les mêmes interactions à d'autres contenus. Ou, bien est-il fondamentalement possible de définir des principes pédagogiques indépendamment du contenu? Pourrait-on par exemple utiliser les mêmes règles ou la même procédure pour enseigner les associations de vocabulaire français-anglais. Certes, techniquement, si des contenus différents peuvent être représentés de la même manière dans le système, ils pourront être exploités par les mêmes procédures pédagogiques. Par contre, ce qui divise plus fondamentalement les chercheurs, en particulier dans la communauté francophone, c'est la pertinence de principes pédagogiques généraux, applicables à différents contenus. Certains chercheurs en didactique des disciplines (mathématiques, français, ...) remettent en cause la pertinence de préceptes pédagogiques qui ne seraient pas fondés sur l'épistémologie propre du domaine d'enseignement. A l'opposé les pédagogues généralistes ont tendance à limiter le pertinence d'une activité pédagogique non à une discipline particulière, mais à une catégorie d'activités cognitives (d'où l'utilité de taxonomies d'opérations cognitives et/ou d'objectifs d'apprentissage tels que celles de Bloom, Gagné ou D'Hainaut).

Lorsqu'on parle modèle pédagogique, il s'agit plus précisément de modéliser la prise de décision pédagogique. Les critères de décision sont soit liés au contenu (tel concepts ne doit pas s'enseigner comme telle procédure), soit aux caractéristiques de l'élève, soit, dans une moindre mesure, à des facteurs environnementaux (par exemple, le temps disponible). Les critères liées au contenu peuvent être exprimés dans les termes du modèle du domaine, préalablement décrit. Les critères liés aux caractéristiques de l'apprenant sont exprimés dans les termes du modèle de l’apprenant. L'apprenant y est décrit de diverses manières:

Comme pour les termes 'modèle pédagogique', les termes 'modèle de l'élève' sont utilisés de deux manières différentes.

Comme pour le modèle pédagogique, la conception d'un modèle au sens fort constitue un enjeu scientifique qui dépasse la simple construction d'un logiciel éducatif. La modélisation cognitive a souvent constitué une fin en soi pour les concepteurs d'EIAO, qui étaient davantage intéressés par le processus de diagnostic que par l'exploitation que le système pouvait faire du diagnostic ("Dont' diagnose what you can't treat" - Self, 1998).

    1. La trilogie apprenant-expert-tuteur

En résumé, un didacticiel repose sur trois modèles :

Cette structure en trèfle correspond à trois questions de base: QUOI enseigner?, COMMENT enseigner et à QUI enseigner ? Elle décrit, à un certain niveau d'abstraction, la structures des connaissances du système, mais elle ne décrit pas le fonctionnement réel des systèmes (Breuker, ?). Au niveau du code, l'élément central de l'architecture d'un tutoriel est généralement le modèle du domaine. Le modèle de l'élève est une sorte d'appendice au modèle du domaine, représenté par exemple en ajoutant un attribut à chaque élément de connaissance afin de préciser si l'apprenant maîtrise ou non cet élément. De même, le modèle pédagogique comporte généralement une représentation du curriculum sous forme d'attributs associés à chaque élément du contenu, précisant les liens de prérequis ou le niveau de difficulté (Wasson). L'architecture réelle d'un système comprend surtout diverses unités fonctionnelles capables d'exploiter ces modèles et de les maintenir (Vinyles & Co).

Il est particulièrement symptomatique que cette classique trilogie des tuteurs intelligents (expert- tuteur - élève) ne mentionnait pas l'existence même d'un module 'interface' lequel non seulement représente souvent une partie importante du temps de réalisation, mais infléchit en outre les processus cognitifs sollicités chez l'apprenant. Je qualifie cette remarque de 'symptomatique' car elle reflète une tendance dominante des sciences cognitives dans les années 80 de considérer la cognition humaine comme la résultante de la manipulation de connaissances symboliques, sous-estimant le rôle des interactions avec l'environnement social et physique (notamment l'interface) de l'apprenant. Cet a-priori scientifique sera remis en cause, dès la fin des années 80 par les travaux de Suchman, Brown, Virenque & Cie. Je reviendrai dans la section ?

Qu'il s'agisse de modèle du domaine, du tuteur ou de l'élève, on trouve à chaque fois trois acceptations du terme 'modèle' qui sont résumés dans le tableau ci-dessous:

 

Modèle de l'expert

Modèle du tuteur

Modèle de l'apprenant

Modèle mental

Quels choix didactiques et épistémologiques a effectué le concepteur au moment de représenter le domaine ?
Exemple: transposition didactique

Quelle théorie pédagogique sous-tend la conception des activités d'apprentissage ?

Exemple: dialogue socratique utilisé pour concevoir Collins' system

Quelle représentation possède le concepteur du rôle de l'apprenant dans son apprentissage

Exemple: Papert a une conception particulière de l'apprenant quand il conçoit LOGO

Modèle implicite

Ensemble des connaissances dont le système dispose sur le domaine à enseigner.

Exemple: transposition informatique, fidélité épistémique des représentations (Wenger, Roshelle)

Ensemble des connaissances dont le système dispose pour gérer le curriculum et les interactions

Exemple: scénario de question

Ensemble des connaissances que le système collecte sur l'apprenant

Exemple: jeu de variables décrivant les performances de l'apprenant

Modèle articulé

Modèle exécutable de la tâche produisant non seulement la solution mais permettant l'accès aux étapes intermédiaires de résolution de problème

Exemple:

Modèle exécutable des prises de décision d'un tuteur permettant de conduire une stratégie pédagogique particulière.

Exemple:

Inventaire des connaissances et misconceptions diagnostiquées chez l'apprenant. Ces éléments, intégrés à un modèle exécutable du domaine, permettent de générer les réponses fournies par l'apprenant.

Exemple:

Comme mentionné plus haut, le terme 'modèle' prend un enjeu scientifique pour les modèles articulés, c-à-d les modèles rendant compte des étapes intermédiaires d'un processus.

  1. Pourquoi modéliser l'expertise?
  2. Un apport simple mais fondamental de l’IA consiste à doter le didacticiel de la capacité de résoudre les problèmes soumis à l’apprenant. Jusque là, le concepteur devait prévoir le problème, la ou les solutions correctes ainsi que plusieurs réponses erronées auxquelles il associerait des feed-back spécifiques. Certes, lorsque la réponse peut être simplement calculée à partir de l’énoncé (par exemple, si on enseigne les tables de multiplication), il n’est pas nécessaire d’introduire les réponses à l’avance. L’intelligence artificielle étend le champ des problèmes "calculables" et évite donc de représenter chaque solution solutions. Mais cette économie est un avantage mineur face au travail que représente l'acquisition des connaissances (processus d'interview d'experts permettant de récolter les connaissances d'un système expert). L’avantage majeur est que le système accède au processus de résolution de problème. Il dispose en effet de la trace des pas réalisés par le modèle IA pour trouver la solution.

    Nous illustrons ces principes avec des exemples pris d'un système imaginaire qui formerait un employé d'agence de voyage à planifier un voyage. Imaginons que le futur employé d'une agence de voyage ait à résoudre le problème suivant.

    Dans un didacticiel classique, l'auteur fournit au système la solution du problème, mémorisée telle quelle.

    Une autre approche consiste à utiliser des techniques de l'IA pour modéliser le processus de raisonnement qui a conduit à cette solution. Les techniques de modélisation de la connaissance décomposent le processus de raisonnement en étapes intermédiaires. La connaissance nécessaire pour chaque étape est généralement décrite sous forme d'une règle 'SI ALORS'. Nous donnons ci-dessous quelque exemples de règles qui pourraient être utilisées pour résoudre le problème présenté ci-dessus.

    Chacune de ces règles code un fragment d'expertise. Le système raisonne en testant la partie 'SI' de chacune des règles. Si les conditions décrites dans la partie 'SI' sont vérifiées, le système actionne la partie 'ALORS' de la règle. Les règles sont générales: les termes 'compagnie', 'destination' ou 'client' sont instanciés par les données du problème. Certaines de ces règles peuvent être contradictoires, telles la 33 et la 122. Le système choisit les règles et les active jusqu'à ce que le problème soit résolu. Dans des systèmes réels, la syntaxe du problème est bien entendu plus formelle que les exemples ci-dessus. Les systèmes fondés sur de tels ensembles de règles sont généralement nommés systèmes à base connaissance ou systèmes de production ou encore systèmes experts. La partie du système qui sélectionne les règles, fait les déductions et met à jour le problème est appelée moteur d'inférence.

    En décomposant l'expertise en fragments, on décompose le raisonnement en étapes intermédiaires. Ces étapes constituent le 'chemin de résolution'. Le principal avantage est que le système peut interagir à propos de chacune de ces étapes.

    1. Modéliser l'expertise pour expliquer

Un premier avantage du modèle de l'expert est que le système peut générer des explications concernant la solution calculée. L'explication est la séquence de règles utilisées par l'expert pour atteindre la solution (la 'trace' de son raisonnement). Le système ne présente pas la règle elle-même, qui est généralement écrite dans un langage obscur, mais des commentaires associés à cette règle :

Cette forme d'explication n'est pas limité aux applications éducatives de l'IA, mais provient des travaux sur les système experts pour lesquels il est essentiel de convaincre l'utilisateur du bien-fondé de la solution que propose le système, notamment en fourbissant la trace du raisonnement du système expert.

La possibilité de générer une trace peut représenter un facteur d'économie, le concepteur ne devant pas rédiger manuellement chaque explication pour chaque problème. Le système peut en outre générer des explications dans le cas où l'apprenant est autorisé à spécifier lui-même le problème qu'il va résoudre. Mais, l'intérêt principal consiste à adapter l'explication à l'interlocuteur, c-à-d modifier le rendu de la trace générée par le système. Lorsqu'un humain fournit une explication, il l'adapte à celui qui l'écoute. Si la personne qui explique pense que l'apprenant connaît certaines parties de l'explication, celles-ci peuvent être présentées très brièvement ou même éludées. Au contraire, pour les parties plus nouvelles, plus difficiles, ou plus discutables, l'expert peut produire des explications plus détaillés. L'adaptation consiste à ne pas donner la trace brute, mais de sélectionner plutôt une partie seulement de cette trace, ou de varier de degré de granularité dans la présentation des différents segments de la trace. Cette adaptation prend des formes variés selon la balance du contrôle (cf. section ?):

Néanmoins, le problème de l'explication va plus loin que la production d'un simple texte. Puisque l'explication est la trace du raisonnement de l'expert, la qualité de l'explication dépend de la façon dont la base de règles est conçue. Les travaux sur l'exploitation pédagogique (système Guidon) du premier système expert en médecine (système Mycin) ont montré qu'une simple trace des règles activées n'est pas suffisante parce qu'elles ne celle-ci ne rend pas compte du processus de diagnostic lui-même (Clancey,1987). En réalité, ce processus n'était pas explicitement représenté, mais résultait de l'interaction entre les différents conditions des règles et le fonctionnement du moteur d'inférence (déterminant l'ordre d'exécution des règles). Dans notre exemple de planification d'un voyage, il n'y a pas de connaissance explicite qui détermine si il faut considérer d'abord la destination finale et travailler à rebours ou commencer de Genève et considérer les vols successivement jusqu'à Igloolik. Dans un système expert, cette décision résulte parfois simplement de l'ordre dans lequel les règles sont stockées dans le système. Pour un expert humain, une telle décision peut être cruciale. Il convient d'extraire cette connaissance stratégique 'enfouie' dans les règles et de la rendre explicite. Cette connaissance stratégique est elle-même exprimée sous forme de règles, appelées méta-règles puisqu'elles déterminent la sélection des règles de plus bas niveau (Clancey,1987).

Cette évolution indique qu'il n'y a pas de dichotomie entre des modèles de type 'boîte noire' et des modèles transparents ou articulés (black-box versus glass-box models - ref?). Au sein même des systèmes à base de règles, on trouve des modèles très différents les uns des autres. Notamment, concernant la transparence de la stratégie, on trouve des systèmes dans lequel le contrôle du processus est enfoui dans des paramètres techniques, tels qu'un facteur de priorité, et d'autres dans lequel le stratégie est explicitement modélisée par un jeu de méta-règles.

Il est intéressant de noter cet l'enjeu pédagogique, conduisant à l'explicitation des meta-règles, a eu des répercussions sur l'IA elle-même. Le constat de la nécessité d'expliciter la stratégie contribué à l'apparition des système experts de la seconde génération (Steels, ?). Il s'agit de système qui, outre un jeu de règles, disposent d'un modèle qualitatif de la tâche, sur lequel ils se 'replient' lorsque les règles ne permettent pas de trouver une solution. Réciproquement, ces enjeux techniques et, l'attention croissante portée aux processus métacognitifs en psychologies cognitive (Brown, Palincsar, Campione, ...) expliquent que de nombreux systèmes se sont préoccupés de problèmes impliquant une régulation efficace.

Le rôle des méta-règles dans l'explication n'est pas limité à l'explication de la stratégie. Puisque les méta-règles déterminent le raisonnement du système et que l'explication est la trace de celui-ci, les méta-règles déterminent également l'explication construite. Ainsi, le système AMALIA (Vivet, 1988) utilise des méta-règles pour guider le raisonnement de l'expert sur les chemins que l'apprenant peut comprendre: par exemple, si le modèle de l'apprenant comprend une liste des compétences identifiées, compétence qui peuvent être mises en correspondance avec les règles du système, une méta-règle précisera que le modèle de l'expert ne doit pas utiliser des règles qui ne seraient pas connues de l'apprenant.

Cet exemple est doublement intéressant. Primo, il montre combien la trilogie des modèles expert-tuteur-apprenant est une vue conceptuelle, car si ces méta-règles sont des connaissances pédagogiques, elle constituent techniquement un appendice du modèle de l'expert. Secundo, elles témoignent d'un affaiblissement de la distinction entre le raisonnement et l'explication. Certes, dans cet exemple, la résolution du problème et l'explication demeurent deux étapes distinctes dans le temps. Toutefois, elles ne sont plus totalement indépendantes: la fonction 'explication' influence le raisonnement en amont.

En sciences cognitives, la relation entre raisonnement et explication a été mise en évidence par les recherches empiriques sur l'effet d'auto-explication (Chi et al, Pirolli et al. ...): le fait d'expliquer à haute voix un problème déjà résolu améliore les performances du sujet parce que, pour élaborer une explication particulière, celui-ci transforme des connaissances déclaratives et générales en connaissances procédurales et contextualisées. Van Lehn (ref) a développé un modèle computationnel de ces mécanismes.

Toutefois, l'ensemble des travaux cités jusqu'à présent, il y a un temps pour construire l'explication (le raisonnement) et puis un temps pour la délivrer (et l'adapter). Cette asynchronie est remise en cause par les contribution en EIAO qui s'inspirent de modèle linguistiques (Voir aussi Baker, ce volume). L'explication est vue comme un processus mutuel par lequel deux personnes essaient de construire ensemble une compréhension commune du problème ou phénomène. (Baker, 1992; Cawsey, 1993). L'élaboration d'un compréhension commune requiert une négociation au cours de laquelle chaque élément peut être discuté, précisé, généralisé ou réfuté, de façon récursive jusqu'au moment où il est mutuellement accepté (Baker, 1993). En réalité, tout dialogue requiert un effort mutuel de chaque interlocuteur, qui vérifie comment l'autre comprend ce qu'il a dit, qui assure préventivement de la compréhension de ce qu'il va dire (exemple. "Il - je veux dire Pierre - est parti") (Clark,)

En résumé, les techniques de construction d'une explication ont biaisé la conception des explications, initialement conçues comme la simple présentation d'une trace du raisonnement. Il a fallu plus d'une décennie pour restaurer la dimension interactive de l'explication et traduire en termes de design le fait que la construction de l'explication fait partie du processus de résolution de problème. On peut penser a posteriori que c'est un erreur majeure de l'IA (quoique compréhensible face aux théories qui dominaient alors) que d'avoir voulu modéliser les processus cognitifs plutôt que les interactions, ou plus exactement d'avoir traité les interactions comme localisées au niveau de input/output des processus cognitifs au lieu de tenter de refléter le fait qu'interagir sur un problème et de résoudre un problème sont deux facettes d'un même processus. Aujourd'hui, l'explication apparaît comme un processus collaboratif, c'est-à-dire qu'il ne peut être efficace sans un effort réciproque des interlocuteurs pour s'assurer une compréhension mutuelle. Dans les sections qui suivent, je mettrai en évidence que les autres fonctions d'un tutoriel intelligent, telles que la modélisation de l'élève et le tutorat sont aussi intrinsèquement collaboratives.

    1. Modélisation l'expertise pour modéliser l'apprenant

La plupart des didacticiels représentent la compétence de l'apprenant en comptabilisant le nombre de réponses correctes fournies à différents exercices, ou la nature de ses erreurs. Un défi pour la recherche a été d'améliorer cette information: un tuteur 'intelligent' devrait être capable d'identifier ce que l'apprenant sait ou ne sait pas, a compris ou n'a pas compris. La modélisation de l'apprenant est le processus qui analyse des réponses de l'apprenant afin d'inférer ses connaissances. Ce processus est aussi appelé 'diagnostic cognitif'. Nous ne traiterons pas ici des nombreuses techniques de diagnostic qui ont été développées (Clancey, 1986; Dillenbourg & Self, 1992). Nous présentons simplement les principes qui ont été le plus souvent utilisés et qui reposent sur des modèles d'expertise à base de règles.

Reprenant notre exemple de planification d'un voyage, imaginons les règles suivantes qui déterminent le temps minimal de transfert entre deux vols :

Considérons, le cas où le système doit sélectionner un vol entre Los Angeles et San Francisco:

Si on exécute la base de règles normalement, c'est-à-dire avec les règles 100, 101 et 102 comprises, le système définira le temps de transfert minimal à 80 minutes (20 + 20 + 40) et choisira le vol à 6h30. Maintenant, imaginons ce qui arrive si on exécute une base de connaissances incomplète :

Ces trois suggestions sont fausses, mais correspondent à des erreur potentielles de l'apprenant. Le principe du diagnostic est de comparer ces réponses simulées avec la réponse effective de l'apprenant. Si l'apprenant a choisi le vol de 5h45, le système fera l'inférence que l'apprenant a oublié de prendre en compte les contrôles douaniers (règle 102 manquante). Si le choix de l'apprenant est le vol de 5h30, le système déduira qu'il a oublié le changement de terminal ainsi que les contrôles douaniers (règles 101 et 102 manquantes). D'autres erreurs potentielles peuvent être simulées en ajoutant des règles erronées, appelées mal-règles (mal-rules, en anglais) :

Si on remplace la règle 102 par la malrègle 102*, le système définira un temps de transfert de 50 minutes et choisira le vol de 6h00. Si l'apprenant choisit le vol de 6h00, on peut inférer qu'il sous-estime le temps nécessaire pour les contrôles douaniers, comme exprimé par la malrègle 102*.

Cette explication simplifiée illustre le fait que le modèle de l'expert occupe un rôle central dans la trilogie. Le modèle de l'élève est généralement un appendice du modèle de l'expert, décrit en termes de différences (règles manquantes + mal-règles) par rapport à l'expert. Ce qui constitue un module plus important, en termes de nombre de lignes de code, c'est l'ensemble des fonctions qui réalisent le diagnostic.

Les techniques de diagnostic présentées ci-dessus n'impliquent pas que le modèle de l'expert soit un modèle psychologiquement fidèle des processus cognitifs de l'apprenant. Comparer les réponses du système aux réponses de l'apprenant génère seulement des hypothèses sur la fraction de connaissances pouvant être fausses ou absentes. Les techniques de l'IA sont utilisées ici comme outil de diagnostic, c'est-à-dire comme des objets pour raisonner sur la connaissance, et non comme une simulation du processus de raisonnement réel de l'apprenant. Elles n'impliquent pas en particulier que la connaissance de l'apprenant existe sous forme de règles dans son cerveau (voir débat entre Clancey et Sandberg, JIAED 199?).

Par contre, d'autres travaux sur le diagnostic cognitif reposent sur des modèles qui ambitionnent de simuler la cognition humaine. C'est le cas par exemple des travaux d'Anderson et de ses collègues: leur technique de 'model tracing', utilisée notamment dans le Lisp tutor (ref), interprète les réponses de l'apprenant par référence à un modèle computationnel qui reflète les théories d'Anderson en matière d'apprentissage (compilation, procéduralisation ...). C'est le cas également des travaux de VanLehn sur la 'repair theory' qui tente de générer les erreurs de l'élève, non à partir d'un catalogue de règles erronées, mais par un mécanisme psychologiquement plausible, pour lequel il dispose d'un modèle computationnel: suite à des connaissances incomplètes, l'apprenant est confronté à une impasse dans son raisonnement, aucune règle n'étant plus applicable. Le mécanisme de 'repair' consiste à sur-généraliser une règle (par exemple, en ignorant une des conditions) afin de pouvoir produire une réponse malgré tout.

En dehors de toute ambition en matière de simulation cognitive, le processus de diagnostic n'échappe pas à un certain nombre de contraintes liées à la nature des connaissances de l'apprenant. En d'autres termes, le processus de diagnostic cognitif diffère sur plusieurs points par exemple d'un système de diagnostic de panne dans un dispositif technique. L'espace de diagnostics possibles est l'ensemble des jeux de règles formables à partir d'un sous-ensemble des règles de l'expert et d'un sous-ensemble des mal-règles disponibles. Dans notre exemple de planification d'un voyage, un diagnostic possible consiste à ignorer la règle 101 et utiliser la malrègle 102*, ce qui conduirait à recommander un temps de transfert de 30 minutes. Le système doit considérer toutes les combinaisons possibles de ces règles et mal-règles, ce qui constitue souvent un espace énorme. Les techniques d'IA étant réputées pour souffrir d'une certaine lenteur, cette explosion combinatoire peut représenter des temps de calcul impressionnants. Lors de conversation personnelles, certains concepteurs de système m'ont avoué des temps de réponse du système de l'ordre de une heure... On comprend dans ces cas que beaucoup de système d'EIAO soient restés au stade de prototype.

Un autre problème technique lié à de processus de diagnostic est que différentes combinaisons de règles et mal-règles peuvent conduire à la même réponse. C'est le cas dans notre exemple pour les diagnostics suivants:

Pour éviter ces problèmes, on peut soit rechercher ce qu'il y a de commun au diagnostic de plusieurs réponses successives, soit générer un nouveau problème qui permettra de trancher entre les différents diagnostics possibles, comme c'était le cas dans Idebuggy (Brown & Buron, avant la guerre). Par exemple, en présentant un itinéraire impliquant un contrôle douanier mais pas de changement de terminal, on pourra faire éliminer une des deux hypothèses, à savoir entre l'absence de la règle102 (l'apprenant ne tient pas le passage en douane en considération) ou la présence de la malrègle 102* (l'apprenant sous-estime le temps d'un passage en douane) . Cette solution pose toutefois des problèmes de cohérence longitudinale des réponses de l'apprenant. Imaginons qu'une erreur se produise au cours d'un problème P1, mais ne soit pas reproduite ensuite pour un problème P2, considéré comme équivalent à P1. Cette erreur est généralement attribuée à ce qu'on appelle une "cause non-systématique", c'est-à-dire due à des facteurs externes (fatigue, démotivation, distraction, envie de planter le système), plutôt qu'à des connaissances incomplètes ou erronées. La disparition d'une erreur peut également être liée à un mécanisme d'apprentissage, par exemple dû au feed-back fourni après le premier diagnostic (dans P1). Une autre possibilité peut être envisagée: si les problèmes P1 et P2 sont considérés comme équivalents par un expert, ils peuvent par contre paraître comme des problèmes différents aux yeux de l'apprenant. En effet, les novices ne perçoivent pas nécessairement les situations selon les mêmes critères que les experts. Il arrive que l'apprenant mette en œuvre des connaissances que nous jugeons contradictoires dans des contextes pourtant similaires, parce qu'il perçoit ces contextes comme différents. La relativité des connaissances par rapport au contexte de leur acquisition ou de leur utilisation constitue la clef de voûte des arguments défendus par les contextualistes. Certaines techniques de représentation des connaissances, appelées systèmes de croyances ("beliefs systems") permettent d'exprimer cette relativité. Dans notre exemple de voyages, l'apprenant pourrait - à tort ou à raison - penser que les temps de transfert diffèrent selon que le voyageur soit un touriste ou un businessman, et donc mobiliser différentes règles .

Mais si la modularité des règles pose des problèmes techniques, dues notamment à la combinatoire, elle pose surtout des problème cognitifs, en termes de qualité de diagnostic. La différence entre un apprenant et un expert peut-elle est décrite simplement en termes de différences ponctuelles (règles manquantes ou règles erronées)? Ce n'est pas le cas dans certains domaines d'enseignement. Le processus de diagnostic doit alors reposer sur plusieurs modèles du domaine, indépendants les uns des autres. Nous y revenons dans la section ?-

On pourrait en conclure à ce point que la modélisation de l'apprenant est une entreprise scientifique qui dépasse le cadre de la construction d'un didacticiel. C'est vrai que la diminution du nombre de recherches sur ce thème témoigne d'un double découragement lié à la complexité des problèmes techniques et à la remise en cause des bases théoriques par les théories de la cognition située. Toutefois, dès la fin des années 80, Self signalait qu'il existait des alternative aux méthodes 'lourdes' de diagnostic. Sous le slogan "Ne diagnostiquez pas ce que vous ne pouvez traiter" (Self, 1988), il rappelait aux concepteurs que la modélisation de l'apprenant n'est pas une fin en soi (sauf pour les chercheurs en modélisation cognitive), que sa fonction est de founir l'information permettant de faire un choix pédagogique. En d'autres termes, un didacticiel qui comprendrait 3 méthodes pédagogiques a besoin de discriminer trois profils d'élève. Il est inutile que le processus de diagnostic discrimine 10 profils différents. Dans cette perspective, le système PROTO-TEG (Dillenbourg, 1989) construisait les catégories d'apprenants a posteriori. Il utilise différentes méthodes pédagogiques avec un groupe de 20 étudiants, sauvegarde systématiquement les informations disponibles sur l'apprenant avant d'appliquer une stratégie et enregistre si la méthode choisie a été efficace. Ensuite, pour chaque méthode, il applique des méthodes d'apprentissage automatique afin de rechercher ce qui est commun à tous les enregistrements préalables au succès de la méthode X et diffère des cas où cette même stratégie ne fut pas efficace. Les critères ainsi élaborés ne définissent pas un profil cognitif identifiable, mais une établissent un diagnostique pédagogique: "étudiant pour qui la stratégie X est efficace".

Une autre suggestion de Self (1988) consiste à faire participer l'apprenant au diagnostic en lui demandant de formuler des représentations intermédiaires. Reprenons l'exemple de nos deux diagnostics possibles:

Une alternative consiste à fournir un interface dans lequel il l'apprenant indique certaines étapes de son raisonnement. Imaginons que dans l'interface ci-dessous, l'apprenant constitue une table en introduisant les heures dans la première colonne et les justifiant dans seconde colonne (les justifications étant choisies dans un menu).

Cette description par l'apprenant de sa propre solution permet au système de confirmer la seconde hypothèse de diagnostic:

Twidale (1989) applique ces principes au logiciel EPIC dans lequel il demande aux sujets d'exprimer leur plan au cours de la démonstration d'un théorème de logique. Confirmant les affirmations de Suchman (1989), les sujets de Twidale déclarent qu'ils n'avaient pas de plan a priori mais que, contraints à en formuler, ils ont finalement trouvé cet artefact très utile. Ce point est très important: dès que le diagnostic devient interactif il ne constitue plus un processus neutre. Au-delà même du feed-back implicite que peut contenir une question de reformulation, la perception de la façon dont une autre personne a compris nos actions modifie notre propre compréhension de nos actions (Newmann, 1989).

Une autre méthode, encore plus simple, permet de trancher entre deux ou plusieurs hypothèses de diagnostic. Il s'agit - pour reprendre notre exemple - de poser directement à l'élève les questions pertinentes:

Une méthode moins intrusive consiste à laisser l'élève consulter la représentation qu'en a construit le système. On parle de modèle inspectable de l'élève (Self, 1988). Ici aussi le diagnostic change de statut et devient un procédé pédagogique: un modèle inspectable de l'apprenant invite celui-ci à évaluer ses propres connaissances. Cette capacité réflexive constitue, au sein des théories sur la métacognition (Brown,; Campione, ?), la facette déclarative de la métacogniton (être conscient de ce qu'on sait ou ignore), faisant le pendant à la facette procédurale (régulation de l'action) dont nous avons traité précédemment.

Bull, Pain et Brna (1993) franchissent un pas de plus dans cette évolution en permettant au sujet de rectifier ce qui, a ses propres yeux, constitue une erreur de diagnostic. Nous avions constaté lors de l'expérimentation du système MEMOLAB (Dillenbourg et al, 199) que les élèves étaient capables de percevoir les erreurs de diagnostic du système ("Il pense que je pense ça mais ce n'est pas ce que je pense.") Cette évolution aboutit à une conception du diagnostic comme un processus collaboratif et mutuel. Tout comme les interventions du patient aident le médecin à founir un diagnostic correct, l'apprenant participe activement à l'élaboration d'un diagnostic par l'enseignant. Douglas (1991) a observé dans des interactions verbales enseignant-apprenant que ces derniers aidaient l'enseignant à percevoir et réparer ses erreurs de diagnostic.

Le diagnostic s'inscrit en réalité dans un processus de compréhension mutuelle pour lequel chaque interlocuteur doit maintenir une représentation, ne fut-ce que élémentaire, de la compréhension que l'autre a des ses actes ou de ses messages. Dans les études sur le dialogue, ce mécanisme est en fait connu sous le nom d'ancrage social ("social grounding")(Clark, 1991) Il désigne les mécanismes par lesquels une personne s'assure que son interlocuteur a compris ce qu'elle disait, certes probablement pas parfaitement, mais pour le moins, à un niveau permettant de continuer l'interaction. Dans les conversations entre personnes, l'émetteur dispose de nombreux indices pour surveiller la compréhension du récepteur : froncement de sourcils, interruption, perte d'attention,... Il dispose également de mécanismes pour réparer les problèmes de communication, notamment pointer physiquement vers des objets ou faire référence à des faits supposés connus par le récepteur. Malheureusement, la communication personne-machine manque encore de moyens pour percevoir et réparer les ambiguïtés de la communication (Suchman, 1987).

L'explication et le diagnostic sont deux facettes complémentaires de ce processus de compréhension mutuel, c'est pourquoi les recherches dans ces deux domaines convergent vers l'idée que expliquer ou diagnostiquer sont des processus collaboratifs. Le terme collaboratif est utilisé ici pour décrire le niveau d'interactivité d'un processus (la modélisation de l'apprenant dans ce paragraphe et l'explication dans le section précédente) et non comme méthode pédagogique: dire que le diagnostic est collaboratif ne revient pas à dire qu'il faut systématiquement appliquer des méthodes d'apprentissage collaboratif, mais que techniquement parlant, le processus de diagnostic est intrinsèquement collaboratif. La confusion est d'autant plus facile que certains chercheurs ont tenté d'utiliser l'apprentissage collaboratif comme mode de diagnostic, en vertu du principe suivant:

Cette approche s'est rapidement révélée vaine, car, comme le montrent les travaux en apprentissage automatique (Utgoff? Michalski?), le concept élaboré par un agent ne dépend pas seulement des exemples auxquels il est confronté mai aussi et surtout de ses connaissances préalables. Aussi, pour construire un diagnostic valable du concept élaboré, le système devrait établir d'abord un diagnostic des connaissances préalables de l'apprenant. Le problème de diagnostic n'est donc pas résolu, mais repoussé en amont, ce qui ne réduit en rien sa difficulté. Aussi, l'idée de collaboration personne-machine a évolué, non plus comme technique de diagnostic, mais comme méthode d'apprentissage collaboratif (Dillenbourg & Self, 1992).

Ces travaux allaient être renforcés par l'énorme intérêt récemment porté à l'apprentissage collaboratif, Cet intérêt est dû d'une part au regain des théories soulignant la dimension sociale de l'apprentissage (renouveau de théories de Vygostky, apparition des théories de la cognition située et de la cognition distribuée), et d'autre part aux progrès de la télématique et au raz-de-marée social que constitue les usages d'Internet. Inévitablement, le concept de modèle de l'apprenant a suivi cette évolution afin de s'adapter aux cas d'apprenants multiples. Il convient de distinguer modèles multiples et modèle de groupe:

    1. Modéliser l'expertise pour une représenter le curriculum
    2. Dans la plupart des didacticiels traditionnels, les séquences de buts et d'activités sont pré-définies. Ce curriculum est fondé sur une analyse détaillée du domaine, permettant de séquencer les éléments du domaine en fonction de relations de prérequis, de relation partie-tout, de relations particulier-général, etc. Cette analyse de contenu vise généralement à décomposer le domaine en unités élémentaires: concepts, lois, opérations, ... Or nous avons vu que la rédaction du modèle de l'expert, sous forme de base de règle ou sous toute autre forme (réseau sémantique, ...), exige une décomposition minutieuse du contenu. En fait, la rédaction d'une base de règle est une technique 'extrême' d'analyse de contenu, supérieure aux techniques classiques d'ingéniérie pédagogique (analyse sémantique ou mathétique, D'Hainaut 198?) car, produisant un résultat exécutable, il est possible d'en vérifier la cohérence interne et la complétude.

      La disponibilité d'un modèle exécutable peut aussi servir de mesure de la complexité des problèmes soumis à l'apprenant, mesure établie en comptant le nombre de pas d'inférence (soit le nombre de règles exécutées). Certes, une règle ne correspond pas à une unité quelconque du raisonnement de l'apprenant, le degré de granularité de la base des règles étant un choix arbitraire du concepteur. Toutefois, on peut assumer qu'un problème que le système résout en 20 pas sera, même pour l'apprenant, plus complexe qu'un problème que le système résout en 10 pas. Cette métrique permet donc d'ordonner les ner les problèmes au sein d'un curriculum, par ordrere croissant ou décroissant de difficulté.

      Une représentation détaillée du contenu autorise une planification dynamique des éléments du contenu qui feront l'objet d'une activité d'apprentissage toute. Cette représentation doit spécifier les relations entre les éléments du contenu. Il s'agit soit de relations de nature pédagogique ("X est prérequis à Y", "X est plus facile que Y", ...) ou propres à l'ontologie du domaine ("X est un exemple de Y", "X est une partie de Y", "X est une phase qui précède Y", ...) (voir par exemple Brecht, 1989). Ces relations définissent les représentations de type 'réseau sémantique'. Elles ne sont par contre pas explicitées dans les systèmes à base de règles, à l'exception des systèmes orientés-objet (ref). L'ensemble des objets permettant d'instancier les règles appartiennent alors en effet à une hiérarchie example-classe-superclasse. Celle-ci permet non seulement de représenter les relations exemple-classe, mais aussi toute autre relation (sous forme d'attributs associés à un objet ou à une classe).

      Ajouter ici Exemple dans agence de voyage

      Parler ici des Genetic graphs de Genereseth, puis de l'architecture génétique de Memolab.

      DisposerEn disposant d'une ontologie ou d'une organisation pédagogique des éléments du contenu permet de générer dynamiquement le curriculum au moyen de règles générales telles que:

      Ces règles consitutent une modèle articulé du tuteur. Ces règles sont formuléess de manière indép de manière indépendante du contenu. Elles bénéficient des nombreux travaux en IA sur la planification. On a vu par exemple apparaître des planificateurs pédagogiques exploiter la technique du 'blackboard' (MacMillan et al, 1988; Murray, 1989), technique permettant de coordonner les contributions de différents agents. Nonobstant le grand intérêt de ces travaux, ceux-ci ont eu une portée limitée, non en raison d'un maque de performance mais parce que la principale difficulté consiste à spécifier n'est pas dans l'expression des règles de planification mais dans l'élaboration d'une terminologie qui ssoit indépendante du domaine. Nous revenons dans la section ? sur la problématique de la dissociation contenu/interactions.

    3. Modéliser l'expertise pour adaptater l'enseignement à l'apprenant
    4. Pendant de nombreuses années, la pertinence de l'EAO comme outil d'enseignement reposait essentiellement sur la notion d'individualisation. Plus que sa possibilité de mettre en ouvre des méthodes pédagogique nouvelles, l'ordinateur serait surtout capable d'adapter dynamiquement les interactions au comportement de l'apprenant. L'EIAO s'incrit dans cette perspective. D'une part, les techniques de modélisation de l'apprenant devraient améliorer la prise d'information. D'autre part, les processus de prise de décision est modélisé au sein du 'modèle tuteur'. Sur ce second aspect, le degré d'individualisation d'un logiciel éducatif est direct proportionnel à la capacité du concetpteur à post-poser les décisions: si, au lieu de choisir entre la méthode X et la méthode Y, le concepteur fournit au système l’information lui permettant de choisir entre X et Y en cours d’exécution, le système pourra s’adapter plus finement à l’apprenant.

      Considérons pour cela quelques règles d'adaptation relatives à notre exemple aéronautique:

       

       

    5. Modéliser l'expertise pour l'adaptation

Pendant de nombreuses années, la pertinence de l'EAO comme outil d'enseignement reposait essentiellement sur la notion d'individualisation. Je parle au passé car actuellement les usages pédagogiques de l'ordinateur impliquent souvent des interactions entre plusieurs apprenants (Dillenbourg, Jermann & Pelgrims-Ducrey, 1997). A l'origine toutefois, l'ordinateur était perçu comme une solution pour adapter dynamiquement les interactions didactiques au comportement de l'apprenant. L'EIAO s'inscrit dans cette perspective. D'une part, les techniques de modélisation de l'apprenant devraient améliorer la prise d'information. D'autre part, les processus de prise de décision est modélisé au sein du modèle du tuteur. Sur ce second aspect, le degré d'individualisation d'un logiciel éducatif est direct proportionnel à la capacité du concepteur à postposer les décisions

Ces règles diffèrent par le mode de représentation des connaissances sur lequelles reposent. La première règle implique simplement que tout problème soit stoqué avec différents paramètres de difficulté, en particulier dans ce cas, le nombre de transits impliqués par le voyage, et que le système comptabilise simplement le nombre d'échecs. La seconde règle implique que le système analyse la solution de l'apprenant afin d'en déterminer la stratégie, et qu'il puisse sélectionner un problème selon la starégie appropriée, soit parce que cette information est stoquée, soit parce que le modèle expert est à même de déterminer la meilleure stratégie pour un problème. La troisième règle nécessite de suivre l'apprenant pas à pas, d'inférer les critères qui motivent son choix (prix, rapidité, fiabilité, sécurité, appartenance à un programme de fidélisation de la clientèle, ...), en cas d'incohérence quant à ces critères, de propser un chix plus cohérent. Certes, aucune de ces règles n'exige stricto sensu de diposer d'un modèle IA capable de résoudre le problème, toute information peut être stoquée à l'avance, mais dans le cas de problèmes relativement ouverts ou complexes, il peut s'avérer plus fastidieux de prévoir toutes les données pour tous les cas possibles que de construire un modèle qualitatif.

Aussi, plus que la nécessité d'un modèle, ce que ces exemples illustrent est la relation entre les possibilités d'adaptation à l'apprenant et le degré de granularité de la représentation de connaissances. Si l'expertise est décortiquée en particules élémentaires, ces particules pourront faire l'objet d'un diagnostic et/ou d'une interaction.Certes, dans le cas d'une base de règles, un très haut degré de granularité implique un accroissement du nombre de règles, lequel augmente exponetiellement les temps de réponse du système. Jusqu'où faut-il décomposer ces règles? Quelle est la granularité optimale? Théoriquement, on peut décomposer indéfiniment une règle en sous-règles. Dans le cas d'un logiciel pédagogique, la particule élémentaire est le plus petit élément qui doive faire l'objet d'une interaction. Si on enseigne, la soustraction écrite, il est important que certaines règles prennent explicitement en charge le mécanisme d'emprunt au rang supérieur. Par contre, si le système concerne la résolution d'équations, il n'est pas nécessaire de décomposer une simple sous-straction car il sagit d'un prérequis, sur lequel le système n'interagira pas. La modularité de la représentation de l'expertise trouve donc sa borne inférieure on dans un critère de software engneering, mais dans un critère pédagogique.

Si on enseigne, la résoltuon d'équations

 

 

 

Considérons pour cela quelques règles d'adaptation relatives à notre exemple aéronautique:

Ces règles diffèrent par le mode de représentation des connaissances sur lesquelles elles reposent:

Certes, aucune de ces règles n'exige stricto sensu de disposer d'un modèle IA capable de résoudre le problème, toute information peut être stockée à l'avance, mais dans le cas de problèmes relativement ouverts ou complexes, il peut s'avérer plus fastidieux de prévoir toutes les données pour tous les cas possibles que de construire un modèle qualitatif.

Aussi, plus que la nécessité d'un modèle, ce que ces exemples illustrent est la relation entre les possibilités d'adaptation à l'apprenant et le degré de granularité de la représentation de connaissances. Si l'expertise est décortiquée en particules élémentaires, ces particules pourront faire l'objet d'un diagnostic et/ou d'une interaction. Certes, dans le cas d'une base de règles, un très haut degré de granularité (= règles nombreuses) augmente exponentiellement les temps de réponse du système. Jusqu'où faut-il décomposer ces règles? Quelle est la granularité optimale? Théoriquement, on peut décomposer indéfiniment une règle en sous-règles. Dans le cas d'un didacticiel, nous disposons de deux critères pédagogiques;

La modularité de la représentation de l'expertise trouve donc sa borne inférieure non dans un critère de software engineering, mais dans des critères pédagogiques.

Si la granularité de bases de règles permet de fournir des micro-adaptations, certains chercheurs ont porté plus d'attention aux macro-adaptations. Celles-ci ne consistent pas à jouer sur les différentes règles au sein dune même base de règles, mais à jouer sur différentes bases de règles, soit au niveau du modèle du domaine, soit du modèle pédagogique:

    1. Modèles multiples

Les concepteurs de tutoriels ont été progressivement contraints à développer des modèles multiples et ce pour deux raisons.

De ces deux facteurs résultent l'apparition de représentations multiples du domaine (pour les 3 premiers exemples) ou du tuteur:

La leçon principale qu'on peut tirer des ces modèles multiples est que l'adaptation n'est pas un processus continu, elle comprend des sauts qualitatifs et ce pour deux raisons. D'une part, parce que l'apprentissage lui-même n'est pas continu mais comprend ces mêmes sauts qualitatifs, généralement référencés sous les termes de 'stades' dans les théories de l'apprentissage (Piaget, Case, Sharon Stone). D'autre part, parce que l'espace de conception comprend différents paramètres qui ne sont pas totalement orthogonaux: certaines configurations de choix pédagogiques s'imposent alors que d'autres paraissent artificielles....

 

    1. moèdles de dialgue voir baker

  1. Le modèle pédagogique

Il ressort de tout ce qui précède que la représentation du domaine constitue la composante principale dans un système d'EIAO. Il est vrai que, même lors de la conception d'un didacticiel classique, l'analyse du contenu demeure l'étape-clé de la conception. Il peut toutefois paraître étonnant que la représentation des connaissances pédagogiques n'ait pas fait l'objet d'une attention encore plus grande, puisqu'il s'agit de l'essence même d'un logiciel pédagogique.

Ce constat est d'autant plus net que, sur le plan épistémique, les synergies potentielles entre IA et pédagogies semblaient uniques. La possibilité de construire des modèles pédagogiques exécutables constitue un enjeu en soi pour les chercheurs en sciences de l’éducation. La plupart des disciplines scientifiques développent des modèles, l’intelligence artificielle offre cette possibilité aux pédagogues. Cet enjeu dépasse la simple amélioration des performances d’un didacticiel. Il s’agit de saisir les synergies entre les modes de représentation des connaissances développés en IA et les problématiques des sciences de l’éducation. L’intelligence artificielle se distingue des autres branches de l’informatique par sa capacité à traiter des données bruitées, des connaissances incertaines ou imprécises, ... Cette tolérance aux connaissances "molles" est intéressante car en pédagogie, la plupart des lois ou principes souffrent de nombreuses exceptions. Toute méthode, généralement efficace, peut échouer si elle est appliquée à un type particulier d’étudiant ou à un contenu particulier. Toute loi pédagogique commence par "en général" sous peine d’être réfutée facilement. En outre, ce mariage épistémique entre l’IA et les sciences de l’éducation est renforcé par le mode de représentation des connaissances. Les systèmes à base de connaissances discrétisent l’expertise en un jeu de règles indépendantes. Or, l’énoncé de principes discrets est un mode privilégié d’expression des connaissances pédagogiques.

Il faut toutefois constater que ce mariage espéré n'a pas eu lieu. Sous le terme 'modèle pédagogique', on trouve le plus souvent des procédures spécifiant des séquences d'activités d'apprentissage et/ou d'interventions du tuteur, éventuellement des règles de production permettant une sélection dynamique de ses actions. On peut être tenté d'appeler cela un modèle, surtout si celui repose sur une base de règles plutôt qu'une simple procédure, mais il faut reconnaître ces travaux n'ont pas approfondi les questions de représentation de connaissances pédagogiques avec les mêmes quêtes épistémiques que les travaux sur la représentation des connaissances du contenu. Les modèles pédagogiques sont finalement assez fidèles à l'état des connaissances en pédagogie: ils reflètent davantage des connaissances empiriques, des savoirs-faire pédagogique, que des savoirs proprement dits.

Considérons par exemple, ce que Collins et Stevens (1991) présentent sous le terme "cognitive theory of inquiry teaching". Cette théorie comprend 3 parties: des objectifs, des stratégies et des stratégies de contrôle, qui correspondent à ce que nous référions précédemment sous le terme de planification pédagogique. En réalité leur modèle est essentiellement composé de neuf stratégies d'enseignement, compilées depuis dans la littérature:

  1. Sélectionner des exemples positifs et négatifs
  2. Varier systématiquement les cas
  3. Sélectionner des contre-exemples
  4. Générer des cas hypothétiques
  5. Former des hypothèses
  6. tester des hypothèses
  7. Considérer des prédictions alternatives
  8. Piéger l'étudiant
  9. Explorer les conséquences jusqu'à la contradiction
  10. Remettre en cause l'autorité.

Dans les conclusions de leur article, les auteurs font référence à ces mêmes principes sous les termes de "techniques of inquiry teaching". La différence entre "theory" et "techniques" illustre mon propos. L'expression de principes ou de préceptes ou de lois est un mode privilégié d'expression des connaissances en pédagogie, c-à-d de l'expérience acquise par les enseignants et/ou des validations expérimentales des diverses méthodes pédagogiques. Il ne s'agit pas de modèles articulés du raisonnement pédagogique. L'essence de ce raisonnement consiste par exemple à mes yeux à penser au carré, c'est-à-dire à penser à ce que l'apprenant devrait penser, et à agencer les situations qui sollicitent cette pensée.

Pourquoi les chercheurs n'ont-ils pas ou prou produit de modèles cognitifs de l'enseignant? Probablement, en vertu du vieil adage selon lequel, si la forme de l'avion imite vaguement celle de l'oiseau, l'avion ne se propulse pas en battant des ailes. De même, il n'est pas certain qu'imiter l'enseignant humain soit la meilleure façon de construire un enseignant artificiel. La rareté des travaux de modélisation s'explique aussi simplement par le manque de connaissances sur les processus cognitifs des enseignants. C'est d'ailleurs un des effets positifs de la recherche en EIAO d'avoir activé des recherches sur ces thèmes. Ces recherches s'articulent autour des axes suivants:

En résumé, je distinguerais trois types de modèles d'enseignement:

Les logiciels d'EAO correspondent au premier type, les logiciels d'EIO au deuxième, alors la réalisation de modèles computationnels de type 'situés' reste dans l'agenda des chercheurs. Certes, les courants de la cognition située ont développé des modèles computationels, mais ils s'agit de modèles neuronaux, capables d'apprendre des comportement élémentaires (suivre un mur, trouver sa nourriture, reconnaître un objet,...) reflètant les régularités de l'environnement, d'un niveau d'élaboration très inférieur à celui qu'implique des interactions avec un apprenant.

Citons pour terminer deux voies tangentes à la modélisation de l'enseignant. La première consiste à développer des didacticiels capables de construire leurs propres connaissances pédagogiques, ou plus exactement de compléter leurs connaissances pédagogiques. Par exemple, Proto-Teg (Dillenbourg, 1989) comparait les situations dans lesquelles ses stratégies s'avéraient efficaces ou inefficaces afin de construire - par des techniques inductives d'apprentissage automatique - ses propres critères d'efficacité. Il faut toutefois constater que, à part ?, la plupart des travaux sur les "self-improving" datent du début des années 80, voire avant, et n'ont pas donné lieu à un paradigme de recherche important. L'autre tangente consiste à inverser la rapport modélisé/modellant en utilisant des modèles formels comme outil de formation des enseignants. Ces modèles sont plus valables par leur cohérence logique que par leur plausibilité cognitive. Il s'agit par exemple de donner aux enseignants un modèle formel leur permettant de raisonner sur les erreurs de l'apprenant" (Sleeman et al, 1991, De Corte et al, 1991). Cette technique ne remplace évidemment pas le contact avec de vrais élèves, mais permet, en dehors de toute charge de classe, de développer des capacités d'analyse. Je suis persuadé qu'il s'agit d'une manière intéressante, bien qu'indirecte, d'exploiter les travaux d'EIAO.

  1. L'interface, le grand absent

Il n'est pas anecdotique de noter que, dans l'architecte classique des tutoriels décrite dans la littérature, la fameuse "trinité" (ref) [modèle de l'élève, de l'expert et du tuteur], l'interface ne soit pas mentionnée. Cette absence reflète un biais des sciences cognitives qui ont exagéré le rôle des représentations mentales sur celui des représentations externes. Cette absence reflète aussi un malaise général des technologies éducatives face aux aspects les plus spectaculaires du multimédia. Il est vrai que, à chaque innovation technique on a vu apparaître des didacticiels qui abusaient des artifices visuels ("Las Vegas effect") au détriment de la qualité pédagogique. Cette tendance a créé une certaine méfiance vis-à-vis des produits trop "flashant" et un certain désintérêt des chercheurs pour les questions d'interface. Cette méfiance est aussi stupide que le préjugé qui consiste à attendre peu d'intelligence d'une belle femme. Il est clair aujourd'hui que la qualité pédagogique d'un didacticiel réside à la fois dans ses mécanismes pédagogiques internes et dans la qualité de l'interface. Toutefois, la qualité de l'interface qui ne se mesure pas par la quantité des artifices visuels ou sonores mais par leur pertinence par rapport aux activités pédagogiques. Pour prendre un exemple concret et vécu, une tâche dans laquelle un futur employé de banque doit décider d'allouer ou non un crédit n'est en rien facilitée par le fait que l'apprenant visionne au préalable une séquence vidéo de plusieurs minutes, présentant le trajet du client virtuel vers l'agence bancaire.

En réalité, certains problèmes des plus ardus de l'EIAO peuvent être partiellement résolus par des fonctionnalités d'interface. En voici 4 exemples de pertinence croissante:

Ces différents exemples peuvent être réinterprétés aujourd'hui à travers les théories de la cognition distribuée (Hutchins, 199?; Salomon, 199?, Pea, 199?) selon lesquelles les différents fonctions de l'interface sont autant de composantes d'un système cognitif distribué, comprenant en outre un ou plusieurs apprenants. Loin de la vision "EAO=QCM", le didacticiel est un élément d'un système cognitif à géométrie variable. Les représentations graphiques, susceptibles d'internalisation, en particulier constituent les outils sémiotiques à travers lesquels l'apprenant pourra progressivement conceptualiser la tâche (Salomon-old, 198?)

  1. Synthèse
  2. La contribution des travaux d'EIAO aux sciences de l'éducation concerne d'une part les connaissances élaborées et d'autre part les didacticiels construits.

    Abordons en premier lieu leur contribution en termes de connaissances. Contrairement aux attentes, le mérite principal des travaux d'EIAO n'a pas été de construire des modèles explicites de l'enseignement-apprentissage, modèles qui auraient été utiles tant sur le plan théorique, afin de formaliser les théories. L'essentiel des efforts a porté sur le modèle de l'expert et celui de l'apprenant. Toutefois, les problèmes rencontrés lors de la conception de modèles et les solutions élaborée ont permis de comprendre les enjeux pédagogiques liées à des choix qui semblaient jusque là simplement techniques. En particulier, la contribution principale de l'EIAO consiste à comprendre comment les choix sur la matière de représentation du contenu affectent en réalité l'ensemble du système. Le degré de granularité d'une base de règles affecte tant le type de diagnostic qui peut être produit que les interventions pédagogiques que le système peut mettre en oeuvre. Le thème de la granularité est important et récurrent dans les système d'EIAO, quel que soit le type des connaissances (modèle de l'expert, de l'apprenant ou du tuteur).

    Comprendre les implications pédagogiques de choix techniques est un enjeu aussi fondamental pour les sciences de l'éducation que n'est important pour la médecine le fait de comprendre les effets d'une molécule sur le corps humain. C'est une erreur de penser que concevoir un logiciel pédagogique consiste à appliquer un modèle pédagogique général à une technologie particulière. C'est donc aussi une erreur de penser qu'un enseignant qui apprend un langage de programmation devient aussitôt un concepteur de logiciels pédagogiques de qualité. Ce serait ignorer ce corpus de connaissances intermédiaires, qui n'appartiennent ni exclusivement à la pédagogie, ni exclusivement aux sciences de l'éducation. Ce corpus rassemble les connaissances permettant d'appréhender les opportunités pédagogiques et les contraintes liées à la réalisation. Ces opportunités et contraintes sont moins liées à un outil informatique particulier qu'aux choix du concepteur: par exemple. La granularité d'une base de règles est un choix technique plus important que le fait de construire cette base en Lisp ou en Prolog.

    Le champs des technologies éducatives couvre l'ensemble des connaissances permettant au concepteur de penser des décisions techniques en termes pédagogiques et vice-versa. Le concepteur doit être bilingue ou trilingue, pouvoir parler d'un même objet selon ses différentes facettes. Il s'agit par exemple de comprendre que lorsqu'on règle le délai du feed-back au moyen d'un paramètre quelconque du système, on passe d'un référentiel behavioriste à un référentiel plus cognitiviste, dans le cadre duquel le temps de réflection entre l'émission d'une réponse et le feed-back permet de solliciter des processus métacognitifs.

    Cette conception du rôle des technologies éducatives n'est pas liée à l'EIAO. Elle s'applique en particulier aujourd'hui au champs effervescent des utilisations pédagogiques d'Internet, aux campus virtuel, etc. Toute le monde peu créer des pages Web (par exemple, mettre un texte) sans réflection techno-pédagogique. Aussi, la plupart des sites pédagogiques pour l'enseignement universitaire sont essentiellement constitués de textes, maintenant l'apprenant dans un rôle passif, reproduisant en cela une pédagogie transmissive. Au contraire, le défi du spécialiste en technologies éducatives est de créer des sites (e.g. Dillenbourg & Jermann, 1998) dans lesquels les étudiants sont impliqués dans des interactions mobilisant les processus cognitifs pertinents par rapport aux objectifs d'apprentissage. La conception de ces sites requiert ce même degré de compréhension des rapports entre des choix techniques et les choix pédagogiques... le fait qu'il s'agisse de Java plutôt que de Lisp n'y change pas grand chose.

    Cette meilleure compréhension affecte aussi l'évolution des didacticiels produits. Contrairement aux attentes, le mérite principal des travaux d'EIAO n'a pas été de construire des modèles explicites de l'enseignement-apprentissage, qui pourraient être réutilisés tels quels dans différents didacticiels, ni - pour être honnête de produire des logiciels d'une qualité ou d'une efficacité largement supérieure aux autres didacticiels. Par contre, ces travaux ont clairement marqué une évolution de la conception des didacticiels. La première génération de logiciels éducatifs était orientée vers les réponses de l'apprenant, ce qui s'explique aisément par les origines behavioristes de ces travaux et sur les technologies alors disponibles. A travers les travaux en travaux en EIAO, les préoccupation des concepteurs se sont déplacées des réponses vers les processus cognitifs par lesquels les apprenants produisent ces réponses. Ce tournant reflète tant l'influence des théories cognitives que la disponilités d'outils de modélisation des processus. Cette évolution est confirmée par la nature des tâches enseignées dans ces didacticiels, passant de tâches routinières en EAO vers des tâches de résolution de problème en EIAO. Cette préoccupation n'est plus aujourd'hui liée aux techniques d'intelligence artificielle, elle affect également la manière de concevoir un didacticiel quel qu'en soit le langage de programmation.

    La conclusion des travaux de l'EIAO n'est toutefois pas que les théories cognitivistes sont adéquates pour supporter l'apprentissage. Au contraire, en appliquant relativement systématiquement les principes cognitivistes à de réelles situations d'apprentissage, l'EIAO a fortement contribué à remettre en cause les fondements cognitivistes. A ce titre, il faut remarquer que parmi les principaux initiateurs du mouvement 'situated cognition' figurent des chercheurs qui étaient au préalables connus pour leurs contributions en EIAO, y compris leur travaux techniques: William Clancey auteur du premier EIAO basé sur un système expert (ref), Alan Collins et John Seely Brown, qui ont construit les premiers EIAO (ref) et publié les premiers travaux dans ce domaine (ref), Etienne Wenger (1987) qui a publié la meilleure synthèse des travaux dans ce domaine,...

    La longue présentation des travaux d'EIAO que j'ai faite ici permet de comprendre cette remise en cause et d'anticiper ce qui pourrait suivre. Les trois principaux processus décrits, l'explication, le diagnostic et le tutorat étaient conçus au départ comme des processus unilatéraux, alors que cette évolution révèle des processus réciproques, impliquant un effort collaboratif des deux sujets, l'expliqueur et l'expliqué, ou le diagnostiqueur et le diagnostiqué, le tuteur et l'apprenant. Attention je parle ici des procédés techniques et non d'une méthode pédagogique, c'est-à-dire je n'affirme pas que tout apprentissage doit être collaboratif, mais que les fonctions d'explication, de diagnostic et de tutorat sont, techniquement parlant, intrinsèquement collaboratives.

    Cette évolution concerne en réalité la notion même de connaissance. Bien que celles-ci s'en défendent (cf. débat entre Clancey et Sandberg, 199?), les connaissances avaient acquis, au sein des sciences cognitives presque un statut de substance. La possibilité de représenter et de manipuler des connaissances explique probablement cette vision matérialiste. Cette vision s'est progressivement affaiblie, comme en témoigne l'émergence de termes tels que 'beliefs systems', permettant de représenter des connaissances relatives à un individu ou à un contexte, la notion de 'viewpoint' (Moyse, ...). Au terme de cette évolution, la connaissance apparaît davantage comme quelque chose de dynamique, comme une capacité à interagir avec un environnement. Le postulat n'est pas simplement que l'origine des connaissance est d'origine sociale, postulat promu depuis de nombreux années par les théories socio-culturelles, mais qu'elles se définissent comme différentes capacités à interagir, avec des personnes ou des objets.

    J'illustrerai ce point par un exemple concret, le concept de fidélité épistémique proposé par Wenger (1987) pour décrire la relation sémantique entre les connaissances internes du système et leur représentation à l'écran. Cette définition illustre bien le concept de connaissance-substance. Roschelle (1990) s'est inspiré de ce principe lors de la conception de l'environnement "Envisionning Machine". Il a tenté d'implémenter des représentations épistémiquement fidèles de concepts tels que la vélocité ou l'accélération. Au terme de plusieurs cycles conception-expérimentation, il a observé que ces représentations graphiques ne possédaient pas de valeur sémantique absolue, mais qu'elles jouaient néanmoins un rôle essentiel : elles servaient de ressource commune pour supporter le processus de compréhension mutuel entre deux apprenants.

    Cette vision s'écarte nettement de l'individualisme chronique des sciences cognitives. Elle bénéficie du boom de la télématique qui réintroduit en force une relation sociale dans la micro-informatique. Loin de nous avoir fourni l'ensemble des outils dont nous avons besoin, les chercheurs en technologies éducatives devraient dans les prochaines années développer des modes de représentations des connaissances qui reflètent cette dimension interactive. Alors, que le but original de l'IA était de développer des techniques qui simulent l'intelligence humaine, son challenge actuel est de construire des techniques permettant non pas de "raisonner COMME l'apprenant" mais de "raisonner AVEC l'apprenant".

  3. A-t'on besoin d'IA dans les logiciels éducatifs ?
  4. Pour terminer pas une note concrète, je préciserai dans quel cas, au-delà de la dimension recherche, il est intéressant d'utiliser de l'IA dans un didacticiel. Il n'existe pas de frontière entre des didacticiels qui seraient intelligents et d'autres qui ne le seraient pas. Les didacticiels fondés sur l'IA ne sont pas intrinsèquement meilleurs que d'autres, mais certaines techniques sont utiles pour certains types d'activités. En particulier, les systèmes à base de règles permettent d'interagir à propos d'étapes intermédiaires vers la solution, de produire des explications, de fournir des diagnostics, ainsi de suite. Ces techniques ne sont pas utiles pour tous les apprentissages. Leur pertinence peut être analysée en 3 points:

    1. La principale contribution de l'IA au logiciel d'éducation et d'entraînement est la possibilité de modéliser l'expertise. Cette expertise est la caractéristique principale des didacticiels basés sur l'IA : le système est capable de résoudre des problèmes que l'apprenant doit résoudre. Le système est compétent dans le domaine à enseigner. Bien sûr, d'autres techniques de programmation peuvent produire une solution correcte. L'apport des techniques de l'IA est moins leur capacité à produire une solution correcte que la manière dont la solution est construite.

    2. Cette expertise modélisée permet au système de conduire des interactions qui ne pourraient pas l'être si le système travaillait avec des solutions préenregistrées. En effet, les techniques de l'IA permettent les interactions apprenant-expert en cours de résolution de problème. Cependant, bien que l'IA ait été originellement conçue pour reproduire l'intelligence humaine, de la perspective des didacticiels, la qualité des techniques de l'IA n'est pas leur degré de fidélité psychologique mais la mesure dans laquelle elles permettent de mettre en oeuvre des interactions intéressantes.

    3. Les formes d'interactions prises en compte par les techniques de l'IA sont importantes lorsque le but est d'acquérir des compétences nécessaires pour résoudre des problèmes complexes. D'autres objectifs d'apprentissage peuvent être atteints avec des techniques d'interaction plus simples, les logiciels de 'drill & practice' sont efficaces pour automatiser des compétences, les logiciels d type 'question-réponse' conviennent bien aux connaissances déclaratives. Puisque le développement d'un logiciel fondé sur l'IA est plus coûteux qu'un didacticiel classique, ces techniques ne devraient être utilisées que lorsqu'elles sont vraiment nécessaires.

  5. Références (incomplètes)

BAKER M. Negotiation in Collaborative Problem-Solving Dialogues. Rapport CR-2/93. CNRS, Laboratoire IRPEACS, Equipe Coast, Ecole Normale Supérieure de Lyon. 1992

BAKER M. The collaborative construction of explanations. Paper presented at the "2èmes journées Explication du PRC-GDR-IA du CNRS, Sophia-Antipolis 17-19 juin 1992.

Brecht, B. (1989) Planning the content of instruction. Proceedings of the 4th AI & Education Conference (pp. 32-41), May 24-26. Amsterdam, The Netherlands: IOS.

Brooks R. Intelligence without representation. Artificial intelligence, 47, 139-159, 1991.

BROWN J.S. Toward a new epistemology for learning. In C. Frasson & G. Gauthier (Eds). Intelligent tutoring systems at the Crossroad of AI & Education. Norwood, NJ; Ablex. 1990

Bull S., Pain H. & Brna P. Collaboration and Reflection in the Construction of a Student Model for Intelligent Computer Assisted Language Learning. Proceedings of the Seventh International PEG Conference, Edinburgh [UK], July 1993.

Burton, R.R. & Brown, J.S. (1982) An investigation of computer coaching for informal learning activities. In D. Sleeman & J.S. Brown (Eds), Intelligent Tutoring Systems (pp. 201-225). New York: Academic Press.

CARBONELL J.R. AI in CAI: an artificial intelligence approach to computer-assiste instruction. IEEE Transactions on Man-Machine Systems, vol. 11, n°4, 1970, pp. 190-202.

Cawsey A. Planning Interactive Explanations. International Journal of Man-Machine Studies, 38, 1993, pp. 169-199.

CHI M.T.H., BASSOK M., LEWIS M.W., REIMANN P. & GLASER R. Self-Explanations: How Students Study and Use Examples in Learning to Solve Problems. Cognitive Science, 13, 1989, pp. 145-182.

Clancey W.J. Guidon-Manage Revisited: A Socio-Technical Systems Approach. Journal of Artificial Intelligence in Education, 4 [1], 1993, pp. 5-34.

Clancey W.J. Representations of Knowing: In Defense of Cognitive Apprenticeship. A response to Sandberg & Wielinga. Journal of Artificial Intelligence in Education, 3 [2], 1992, pp. 139-168.

Clancey, W.J. (1986). Qualitative student models, Annual Review of Computer Science, 1, 381-450.

Clancey, W.J. (1987) Knowledge-based tutoring: the Guidon Program. Cambridge, Massachusetts: MIT Press.

CLARK H.H. & BRENNAN S.E. Grounding in Communication. In L. Resnick, J. Levine and S. Teasley. Perspectives on Socially Shared Cognition [pp. 127-149]. Hyattsville, MD: American Psychological Association, 1991.

Del Soldato, T. (1993) Domain-based vs. Motivation-based instructional planning. In P. Brna, S. Ohlsson & H. Pain (Eds) Proceedings of the World Conference on Artificial Intelligence in Education, AI&Ed 93, Edinburgh, 23 - 27 August 1993. Published by AACE, Charlottesville, VA.

DILLENBOURG P. & SELF J.A. [1992 a] A framework for learner modelling. Interactive Learning Environments. vol. 2, nº 2, 1992, pp. 111-137.

DILLENBOURG P. Designing a self-improving tutor: PROTO-TEG. Instructional Science, 18, 1989, pp.193-216.

Dillenbourg, P. (1992) The Language Shift: a mechanism for triggering metacognitive activities. In P. Winne & M.Jones. Adaptive Learning Environments.: foundations and frontiers. Springer-Verlag. Hamburg

Dillenbourg, P., & Self, J.A. (1992) A computational approach to socially distributed cognition. European Journal of Psychology of Education, 3 (4), 353-372.

Dillenbourg, P., Mendelsohn, P., Schneider, D., & Borcic, B. (1994) Intelligent Learning Environments. In R. Bless (Ed), Proceedings of the second NRP23 Symposium on Artificial Intelligence and Robotics (pp. 57 - 74), September 29, Ecublens.

Elsom-Cook, M.T., Spensely, F., Byerly, P., Brooks, P., Mhende, M., Frederici, M. & Scaroni, C. (1988)Using multiple strategies in an ITS. Proceedings of the International Conference on Intelligent Tutoring Systems (pp. 286-298), June 1-3. Montreal, Canada.

FREDERIKSEN J.R. & WHITE B. Intelligent learning systems for science education. Porceedings of ITS-88, Montreal, pp 291-298.

Lave J. Cognition in practice. Cambridge: Cambridge University Press, 1988.

MacMillan, S.A., Emme, D. & Brkowitz, M. (988) Instructional Planners: Lessons Learned. In J. Sotka, L.D. Massey & S.A. Mutter, Intelligent Tutoring Systems, Lessons learned, pp.229-256, Lawrence Erlbaum, Hillsdale, NJ.

Merrill, M.D. & ID2 research Group (1998)ID Expert: A second generation instructional development system. Instructional Science, 26, (3-4), pp. 243-262.

Merrill, M.D. (1993) An Integrated Model for Automating Instructional Design and Delivery. In J.M. Spector, M.C. Polson & D.J. Muraida (Eds) Automating Instructional Design (pp 147-190), Englewood Cliffs, NJ: Educational Technology Publications.

Mispelkamp H. Et Sarti, L. (1994) DISCourse: Tools for the Design of Learning Material. In de Jong, T., Sarti L. (Eds) Design and Production of Multimedia and Simulation-based Learning Material, Kluwer Academic Pubishers, pp. 45-60.

Moyse R. (1989) Knowledge Negotiation Implies Multiple Viewpoints. Proceedings of the 4th AI & Education Conference (pp.140-149), May 24-26. Amsterdam, The Netherlands: IOS.

Moyse R. VIPER: The Design and Implementation of Multiple Viewpoints for Tutoring Systems. in R. Moyse and M. Elsom-Cook (Eds) Knowledge Negotiation. [pp 97-134]. London: Academic Press, 1992.

Murray, W.R. Control for Inelligent Tutoring Systems: A Blackboard-based Dynamic Instructional Planner. In D. Bierman, J. Breuker and J. Sandberg (eds.), Artificial Intelligence and Education, Amsterdam: IOS. Proceedings of the 4th International Conference on AI in Eductaion, Amsterdam.

Paiva, A. (1997) Learner modelling for Collaborative Learning Environments, in B. Du Boulay & R. Mizoguchi, Artificial Intelligence in Education (pp. 215-222), Proceedings of the AI-ED World Conference, Kobbe (Japna), IOS press: Amsterdam.

ROSCHELLE Learning by Collaborating: Convergent Conceptual Change. Journal of the Learning Sciences, 2, 1992, pp. 235-276.

ROSCHELLE, J. Designing for Conversations. Paper presented at the AAAI Symposium on Knowledge-Based Environments for Learning and Teaching, March. 1990 Stanford,CA.

ROSCHELLE, J. Sufficiency and Utility of Physics Problem Solving Processes. In Proceedings of the International Conference on Intelligent Tutoring Systems [pp 132-139]. , June 1-3 1988. Montreal, Canada.

Sandberg J. & Wielinga B. Situated Cognition: A Paradigm Shift. Journal of Artificial Intelligence in Education, 3 [2], 1992, pp.129-138.

SELF, J.A. Bypassing the intractable problem of student modelling. Proceedings of the International Conference on Intelligent Tutoring Systems [pp.18-24], June 1-3 1988. Montreal, Canada.

SLEEMAN D. & BROWN J.S (Eds), Intelligent Tutoring Systems. London: Academic Press, 1982.

SUCHMAN L.A. Plans and Situated Actions. The problem of human-machine

TWIDALE M.B. Intermediate representations for student errors diagnosis and support. Proceedings of the 4th AI & Education Conference [pp. 298-306], May 24-26 1989. Amsterdam, The Netherlands: IOS.

Vivet M., Delozanne E & CarriEre E. Presenttaion of differtent aspects of Amalia: A knowledge-Based Tutor for Mathematics. Proceedings of the Summer University on Intelligent Tutoring Systems, Le Mans [France], VYGOTSKY L.S. Mind in Society. The Development of Higher Psychological Processes. Edited by M. Cole, V. John-Steiner, S. Scribner & E. Souberman Harvard University Press. Cambridge, Massachusetts: Harvard University Press, 1978.

WENGER E. Artificial Intelligence and Tutoring Systems: Computational and Cognitive Approaches to the Communication of Knowledge. Los Altos, CA: Morgan Kaufmann, 1987.

O'MALLEY Understanding Explanation. Cognitive Science Research Report No CSRP-88, University of Sussex [UK], 1987.