LME ->Green -> interactivité Fonctionnelle vs intentionnelle

POSTFACE SUR L'INTERACTIVITE

Postface à "Le design des didacticiels, Kel Crossley, Les Green, Ed. ACL

par Eric Barchechath, Serge Pouts-Lajus

On le sait maintenant, l'informatique est un domaine d'activité qui relève autant de la communication que de l'électronique, de la logique formelle ou des mathématiques. Que les informaticiens et les concepteurs de logiciels en prennent pleinement conscience et en tiennent grand compte, l'informatique a beaucoup à y gagner. Mais puisqu'il s'agit de communication, de quelle communication parle-t-on ? De l'homme avec les machines, des machines entre elles ou des hommes entre eux ? Dans ce jeu de la communication qui se joue à plusieurs, quels liens secrets se tissent entre l'équipe des concepteurs de logiciels, les ordinateurs et la foule indistincte des multiples utilisateurs ?

Dans sa Théorie générale de l'information et de la communication 1, Robert Escarpit propose une classification des machines à communiquer, allant des machines de transmissions à effet spatial (machines relais comme le miroir et machines média comme le téléphone) aux machines biologiques à effet informationnel (machines à comportement comme les organismes vivants et machines à langage comme l'homme) en passant par les machines chronologiques à effet temporel (machines à mémoire comme le magnétophone et machines informatiques comme l'ordinateur).

Une machine à communiquer se comporte à la fois comme émetteur et comme récepteur. Entre deux machines, une voie de communication peut être établie. Pour que la communication, en tant qu'échange, puisse se réaliser, un protocole de communication, c'est-à-dire un ensemble de règles conditionnant la communication, doit être élaboré et respecté. Ce protocole dépend essentiellement des catégories et des caractéristiques des machines communicantes.

Le préalable de protocoles de communication est tout autant nécessaire à l'échange entre machines appartenant à une même catégorie qu'à l'échange entre machines de catégories différentes. Ainsi, deux ordinateurs peuvent communiquer à travers un câble de connexion et grâce à un protocole de communication technique et logique très précis ; deux personnes peuvent communiquer par la voix et un langage articulé ; mais de la même façon, un ordinateur peut piloter un magnétophone, une personne peut commander un ordinateur.

La notion d'interactivité, implicite et triviale tant qu'il s'agit de communication entre personnes (une simple conversation est par nature interactive), est devenue, dans le contexte de la communication entre les personnes et les ordinateurs, un thème de réflexion majeur.

Un ordinateur ne fait que médiatiser une communication entre personnes : le concepteur de la machine d'une part, les utilisateurs de la machine d'autre part. Comparée aux machines à bas niveau de communication (magnétophone, magnétoscope), la machine ordinateur dispose, pour cette médiatisation, de capacités exceptionnelles parmi lesquelles ses virtualités interactives semblent occuper une position centrale.

Interactivité fonctionnelle, Interactivité Intentionnelle

Classiquement l'ordinateur est présenté comme une machine intégrant une part matérielle (hardware), et une part logicielle (software). L'interactivité, permise par un ensemble de performances spécifiques du matériel, est réalisée concrètement par le logiciel. C'est par le logiciel que se produit et se consomme l'essentiel de l'interactivité. C'est donc d'abord au logiciel qu'il faut s'intéresser lorsqu'on parle d'interactivité.

Nous distinguerons dans ce texte, deux composantes constitutives de l'interactivité telle qu'elle est prise en charge par le logiciel :

En réalité, de même que les deux faces d'une même médaille, Ces deux composantes de l'interactivité ne vont jamais, dans aucune machine à communiquer, l'une sans l'autre. La distinction ne se justifie que des besoins de l'analyse. Par la suite nous nous référerons donc de l'interactivité, réservant l'emploi du explicitement à ces deux modalités mot interactivité non qualifié, à l'intégration des composantes fonctionnelle et intentionnelle.

Ouvertures sur l'intentionnalité

Pour John R. Searle, l'intentionnalité désigne la capacité biologique fondamentale de l'esprit à mettre l'organisme en rapport avec le monde. Dans ce cadre, le langage joue évidemment un rôle déterminant :

« C'est en accomplissant des actes linguistiques que les locuteurs mettent effectivement le langage en relation avec le réel. »2 Searle voit dans l'Intentionnalité une façon d'affirmer l'existence biologique réelle des phénomènes mentaux. Accessoirement, par là même, il dénie aux systèmes informatiques tout accès aux phénomènes mentaux et donc à l'intelligence, faute d'Intentionnalité.

Terry Winograd et Fernando Flores posent cette même question de l'Intentionnalité d'une autre manière : « Un ordinateur ne peut jamais prendre d'engagement (bien qu'il puisse être un intermédiaire par lequel sont transmis les engagements de ses concepteurs) et ne peut jamais participer au langage humain,2

A un bout de la chaîne, les concepteurs du logiciel comme du matériel manifestent une large part de leur engagement (au sens de Winograd et Flores) dans l'interactivité qu'autorise le produit qu'ils conçoivent. A l'autre bout, l'utilisateur signifie son engagement en mettant en oeuvre les fonctionnalités d'interaction que lui offrent le logiciel et la machine. La communication de l'utilisateur avec le système informatique s'établit donc à un double niveau : au niveau des fonctionnalités d'interaction, il communique avec la machine, mais au-delà de ces fonctionnalités, il communique avec les auteurs du logiciel à travers les engagements que ceux-ci ont pris lors de la conception du logiciel : "Un programme informatique est un support par lequel les engagements des concepteurs sont transmis à l'utilisateur."3

Il y a un danger sociologique et psychologique réel à ignorer où à mésestimer cette réalité de la communication interactive, comme le souligne Marc Guillaume : « L'interactivité se caractérise par une interposition. Entre les sujets et les machines ou entre les sujets eux-mêmes s'interposent des filtres, des écrans, des médiations. Et surtout des automates qui effectuent ou simulent à notre place et souvent à notre insu, les opérations mentales et les échanges symboliques auxquels nous sommes habitués. Y devient alors souvent impossible de discerner ce qui est réel de ce qui ne l'est pas, le sujet de l'objet, l'homme de la machine, le destinateur du destinataire. L'interactivité serait donc,... ) un repli dans les abris que nous offrent les automates qui semblent donner vie aux machines ou qui médiatisent la pensée et le langage. Qui humanisent les choses ou qui réifient les hommes. » 4

La responsabilité des concepteurs de logiciels est entière dans l'affirmation ou l'occultation de leur engagement. Lorsqu'un logiciel interactif affiche le message "Je ne comprends pas votre réponse", l'engagement des concepteurs est masqué derrière un message qui devrait être :"Nous n'avons pas prévu cette réponse et par conséquent, le logiciel n'est pas capable de la traiter". Au lieu de cela, l'utilisateur est enclin à penser que dans sa communication avec la machine, l'incompréhension s'est installée sans qu'il sache très bien si la faute en revient à une machine insuffisamment humanisée ou à un utilisateur insuffisamment automatisé. 5

Dans l'utilisation de l'ordinateur s'expriment deux engagements, deux Intentionnalités, qui révèlent de façon éclatante la communication interpersonnelle qui s'établit à travers lui. Myers et Myers ont longuement commenté et développé les formes théoriques et pratiques de la communication interpersonnelle. En particulier, ils ont très clairement avancé l'hypothèse que le processus de construction et d'élaboration du sens résidait au centre de la communication : " La signification doit être créée, et c'est peut-être ce processus de création de significations qui s'appelle communication." 6

On peut considérer que l'interactivité intentionnelle peut, au fond, être assimilée à la production de sens par les acteurs de la communication interactive médiatisée. On ne peut pas ne pas communiquer ; le concepteur d'un logiciel produit toujours du sens. Mais dans les fonctionnalités d'interaction qu'offre son logiciel, les potentialités de production de sens par l'utilisateur peuvent être plus ou moins réelles, plus ou moins étendues et la qualité de l'interactivité se mesurera strictement à travers elles.

Une problématique générale

C'est dans le domaine de l'interactivité fonctionnelle que les spécialistes de l'informatique ont le plus porté leur attention et ont réalisé ces dernières années de très importants progrès : les logiciels exploités sur les micro-ordinateurs modernes ont atteint un très haut niveau de qualité d'ergonomie.

En revanche, l'interactivité intentionnelle, parce qu'elle pose des problèmes d'une toute autre nature, n'a pas fait l'objet des mêmes attentions.

A cela, plusieurs raisons : tout d'abord, la difficulté du sujet lui-même qui oblige à se référer, comme nous l'avons dit, à la dynamique de la communication interpersonnelle. La confusion entretenue entre les faces fonctionnelle et intentionnelle de l'interactivité conduit peut-être aussi à considérer qu'un bon niveau d'interactivité est atteint dès lors que l'utilisateur peut réaliser ses requêtes d'information dans des conditions satisfaisantes de liberté et de confort. Enfin, la question de l'interactivité intentionnelle se pose peut-être avec beaucoup plus d'acuité dans le secteur de l'éducation et pour des raisons économiques évidentes, ce n'est pas dans ce secteur que l'essentiel des efforts de développement de l'informatique a porté jusqu'à présent.

Toute catégorisation des logiciels éducatifs construite sur des critères ne relevant que de l'interactivité fonctionnelle masquerait le problème central des stratégies pédagogiques qui ne peuvent être révélées que par l'analyse de l'interactivité intentionnelle.

Nous allons défendre ici l'idée que l'analyse des protocoles de communication entre les personnes et les ordinateurs ne peut pas être réduite à l'analyse de l'interactivité fonctionnelle. En particulier, nous montrerons que dans le secteur de l'éducation, l'essentiel de ces protocoles se tient justement là où la communication personne ordinateur participe d'une communication interpersonnelle ; qu'à tort cette communication interpersonnelle médiatisée n'est le plus souvent qu'un décalque de celle qui s'établit entre un maître et son élève ; qu'enfin la contribution de Kel Crossley et Les Green réside précisément dans la possibilité concrète qu'ils offrent de sortit de cette ornière.

Enseignement programmé et EAO

La jeune histoire de l'informatique éducative peut être analysée au travers des différentes incarnations de l'interactivité intentionnelle qui ont prévalu et qui prévalent encore aujourd'hui parmi les concepteurs et les théoriciens.

Distinguons ici les deux tendances maîtresses

Dans la première orientation, nous trouverons les conceptions de l'interactivité véhiculées par ce que l'on a appelé l'enseignement programmé (Skinner, Crowder). Nous ne présenterons pas ici l'enseignement programmé ; nous renvoyons aux travaux très complets de Dieudonné Leclercq qui en analyse avec scrupule les forces comme les faiblesses'. De la même manière, nous ne reprendrons pas ici la critique de l'enseignement programmé qui a été abondamment nourrie. En regard des conceptions aux noms desquelles la critique en a été faite, l'interactivité intentionnelle induite par l'enseignement programmé présente l'avantage d'être claire et explicite. Rappelons simplement que la progression de l'élève est au centre du dispositif de l'enseignement programmé et que le logiciel est conçu de telle sorte que cette progression soit rendue possible parce qu'elle a été anticipée par des auteurs armés d'une solide réflexion didactique. Il faut noter que l'enseignement programmé, dans sa version informatisée a rarement atteint le niveau de sophistication et de qualité qu'il avait connu dans sa version papier, en partie du fait des critiques extrêmement vives dont il a été l'objet dans les milieux de l'éducation. Le recul aidant, on s'aperçoit aujourd'hui que le "bébé didactique" de l'enseignement a été jeté avec "l'eau du bain comportementaliste" du programmé.

Dans la seconde orientation, nous trouverons les conceptions de l'interactivité véhiculées par ce que l'on peut appeler le courant de l'Enseignement Assisté par Ordinateur (EAO) qui reste aujourd'hui le courant dominant.

L'EAO part de la pratique éducative qui est celle de l'enseignement présentiel. La structure de ce dispositif d'enseignement, tel qu'il est perçu par les initiateurs de l'EAO, peut être schématisé de la façon suivante : le maître s'adresse à ses élèves, il leur transmet un message, Il pose des questions, il s'assure de la réception du message, il progresse dans son enseignement. Comme le fait remarquer John Goodlad : - Dans la mesure où l'expression verbale oblige à organiser la pensée et peut donc être une voie importante d'apprentissage, ce sont surtout les enseignants qui apprennent."7 Bien évidemment, l'acte éducatif ne saurait être réduit à cet échange sommaire et inégal. Pour autant, il faut bien constater que c'est cette épure qui prévaut dans l'EAO tel qu'il se présente le plus souvent aujourd'hui. Ce modèle de l'acte éducatif comme acte de transmission de connaissances, jouit d'une faveur d'autant plus grande qu'il est soutenu avec un même enthousiasme par les enseignants et les informaticiens. C'est cette solution qui a été adoptée pour répondre à l'intégration nécessaire des technologies dans l'éducation et la formation.

Le modèle de l'EAO

Suivant une méthodologie qui leur est familière, les informaticiens ont analysé l'expertise des professionnels de l'éducation. A partir de cette analyse, ils ont défini les fonctionnalités des outils généraux susceptibles de reproduire sur une machine, l'essentiel de l'acte éducatif tel qu'ils se l'étaient représenté, à savoir

Dans la plupart des circonstances où des produits ont été développés suivant ce modèle, les performances en terme d'usage n'ont pas été à la hauteur des attentes. Toutes choses égales par ailleurs (volonté des Etats et des entreprises, aspiration et formation des enseignants et des formateurs, etc.), on a crû voir la raison de ces faibles performances, dans les limites de la technologie disponible ou dans l'insuffisance des possibilités d'interaction fonctionnelle offertes par les logiciels.

Un tel diagnostic des échecs de l'EAO aboutit à faire évoluer les environnements de production vers une sophistication accrue de la gestion de l'interactivité fonctionnelle. Ces tentatives de remédiation ne résolvent pas le problème posé car elles réduisent l'interactivité à la transposition machinique de l'acte éducatif et ne reconnaissent pas, à notre sens, la place centrale qui revient à la dimension intentionnelle de l'interactivité.

Glissements progressifs vers le plaisir technologique

Multimédia, Hyper-X et Intelligence Artificielle

Trois stratégies de remédiation des échecs de l'EAO sur le terrain des usages apparaissent aujourd'hui clairement affirmées : le Multimédia, les Hyper-X, l'intelligence Artificielle.

Multimédia

Dans l'objectif de remédier à la déception liée aux usages, le Multimédia part de la constatation de la pauvreté des écrans qui sont au point de contact de l'utilisateur et de l'application éducative : écrans textuels, noirs et blancs, graphismes absents ou indigents, séquences sonores très pauvres. L'EAO suinte l'ennui. La recherche de solution dans la perspective Multimédia s'effectue directement dans l'enrichissement de l'interactivité fonctionnelle : couleurs, images fixes et animées, meilleures définitions des écrans, capacité de stockage améliorée (CD-Rom, CD-I), cartes de numérisation d'images animées en provenance d'une bande vidéo ou d'un vidéodisque, cartes sonores, trackballs, souris, etc.

Sans avoir rien changé à l'interactivité intentionnelle, et en ayant consenti des coûts de production singulièrement aggravés, au bout du compte, une fois passée la bonne surprise cosmétique du "re-looking" (lorsque le résultat est esthétiquement plus réussi), il n'y a aucune raison pour que la déception et l'échec sur le terrain des usages ne soient pas reconduits à l'identique.

Les progrès apportés à l'interactivité fonctionnelle sont loin d'être négligeables puisqu'ils permettent d'enrichir la qualité et la quantité des ressources d'informations offertes à l'utilisateur. Mais tant que la remédiation à la mode Multimédia s'en tient à cette logique où l'ordinateur se voit assigné la tâche de simuler le comportement d'un enseignant, son rôle ne fait qu'évoluer vers celui d'un enseignant à la Ray Bradbury, un enseignant illustré. Rien ne change du côté de l'utilisateur, l'efficacité pédagogique reste la même.

Hyper-X

Dans un autre secteur de l'échiquier des progrès, à l'intersection du Multimédia et du génie logiciel, apparaît une nouvelle vague de produits et de concepts qui se signalent par le préfixe Hyper (Hypercard, Hypertext, Hypermédia, etc.).

Ces systèmes fortement interactifs méritent de voir leurs performances mesurées à l'aune des deux types d'interactivité que nous avons définis.

L'interactivité fonctionnelle des Hyper repose sur le browsing (textuellement broutage ou musarderie) qui offre à l'utilisateur un très grand confort et une très grande liberté dans la circulation et dans l'accès à l'information par un système de "presse-boutons". Dans ses applications à l'éducation, l'interactivité intentionnelle des Hyper semble se fonder sur une autodidaxie déstructurée comme forme privilégiée d'apprentissage. On serait en droit de craindre que de tels systèmes conduisent à la mise en place de stratégies pédagogiques gravement régressives car, très clairement, l'accès facilité à l'information par la navigation est impuissant à résoudre les difficultés d'accès à la connaissance et au savoir.

On retrouve encore une fois ici la trace du modèle d'enseignement de l'EAO dans lequel l'auteur (l'enseignant) donne à lire, à voir et à entendre, c'est-à-dire transmet à un utilisateur en se souciant uniquement de savoir s'il lit, voit et entend ce qui lui est donné à lire, voir et entendre.

Ce qui fait la spécificité des Hyper n'est au fond que la liberté donnée à l'usager de prendre agréablement connaissance du discours (quelles qu'en soient les extensions graphiques, sonores, ... ) suivant un mode non séquentiel.

Croire que l'utilisateur en fera bon usage ne relève que du voeu pieux. Avec l'Hyper-X, à l'enseignant illustré, s'ajoute le morcellement de son corps de connaissance.

Intelligence Artificielle

Puisqu'on attribue des rôles similaires à l'enseignant et à l'ordinateur dans le passage à l'enseignement assisté par ordinateur, il est normal que les regards et les espoirs se tournent vers l'intelligence Artificielle dont on espère qu'elle donnera aux ordinateurs ce précieux attribut, l'intelligence, dont sont ordinairement dotés les enseignants.

Dans le contexte de l'EAO, le projet de l'Intelligence Artificielle connaît deux orientations principales de recherche : les systèmes-expert et le dialogue en langage naturel. Il n'est pas question pour nous de discuter l'intérêt et la fécondité des recherches entreprises dans ce domaine ; à notre sens il est hors de doute que les voies d'exploration qui sont ouvertes sont passionnantes et qu'elles apporteront des contributions aux applications éducatives.

Pour autant, il faut bien constater qu'aujourd'hui, à de rares exceptions près, l'investissement de l'intelligence Artificielle dans l'EAO ne remet guère en cause le paradigme de l'interactivité intentionnelle véhiculé par le modèle de l'EAO. On fait toujours face à un modèle de l'enseignement, de la transmission et du contrôle ; on en est toujours à simuler l'enseignant à travers le logiciel de façon à reconstituer la communication interpersonnelle de façon plus fine et plus réaliste peut-être que ne sait le faire classiquement l'EAO.

Le problème, c'est la solution8

Aujourd'hui, en continuant de considérer le dialogue entre un maître et un élève, même fortement déstructuré (cas des Hyper), comme la forme paradigmatique qui s'impose aux machines dès lors qu'on veut les utiliser dans l'éducation, on n'avance pas, on piétine. C'est la solution EAO qui fait problème.

Plus gravement pour les développements de l'informatique, cette conception n'est peut-être que l'avatar dans le champ de l'éducation de cette erreur générique : croire que la seule façon de reproduire une forme de communication interpersonnelle entre un concepteur de logiciel interactif et un utilisateur impose au concepteur de faire en sorte que le logiciel simule une personne (et, par exemple, le concepteur lui-même).

Pourtant, la simple observation des utilisateurs de logiciels et pour ce qui nous concerne l'observation des utilisateurs de logiciels éducatifs dialoguant avec des systèmes informatiques, aurait pu fournir un indice précieux quant à la validité de cette exigence de similitude : aucun de ces utilisateurs ne déclare s'attendre ni ne réclame que la machine se conduise comme une personne.

L'ordinateur est vécu par les sujets sains d'esprit pour ce qu'il est, c'est-à-dire une machine dotée d'avantages et d'imperfections perçus intuitivement comme propres aux machines. Par sujets sains d'esprit, nous entendons des sujets n'entretenant pas de rapports fusionnels avec les machines au point d'en perdre une partie de leur humanité et qui échappent à la jubilation secrète dont parle Marc Guillaume5.

En définitive, le projet d'atteindre une similitude entre les machines à enseigner électroniques et les machines à enseigner humaines ne semble plus reposer que sur des intuitions et des analyses de faisabilité technique élaborées par des informaticiens aficionados.

A supposer qu'on y parvienne, ce que nous n'excluons pas, on prend ici la mesure du problème, la somme d'efforts, la masse d'intelligence, de volontés acharnées, de moyens financiers qu'il faudra déployer pour résoudre de façon satisfaisante les ambitions qui sont attachées au paradigme de l'EAO.

Quand un problème résiste à ce point, il est toujours sain de s'interroger sur la façon dont il est posé. La contribution de Kel Crossley et Les Green consiste justement à renverser les termes initiaux de la question.

Le projet de Crossley et Green

Dans la méthode de conception de logiciels éducatifs développée par Crossley et Green, l'auteur d'un logiciel éducatif s'engage en créant un environnement d'action au travers duquel l'utilisateur produira du sens en prenant lui-même des engagements. C'est au travers de cet environnement d'action que s'établit la communication entre l'auteur et l'utilisateur.

Pour situer la méthode dans le contexte que nous avons évoqué, on peut dire que Crossley et Green reviennent au carrefour où l'enseignement programmé et l'EAO se sont séparés. Dans la mesure où ils centrent leur problématique sur la progression de l'élève, ils empruntent la voie prise par l'enseignement programmé. Mais c'est pour y opérer d'emblée un renversement complet des perspectives, des choix et des priorités.

Le premier renversement porte sur la didactique : ils substituent à la logique du fractionnement de la difficulté de la didactique skinnérienne (que l'on retrouve sous une forme moins achevée dans l'EAO), une logique globale, holiste, une didactique de la construction par l'élève de ses propres savoirs.

L'élève accède ici à la connaissance non pas à partir de la connaissance morcelée et du savoir en miettes dispensés par les répétiteurs électroniques mais à partir d'environnements d'action, de situations d'apprentissage où la transposition didactique est réduite à son minimum. C'est le second renversement : la centration sur l'expérience d'apprentissage que l'on veut voir l'élève faire, la production d'une architecture intentionnelle au sein de laquelle l'élève exprimera sa propre intentionnalité.

Enfin, troisième renversement : la conception de l'interactivité intentionnelle précède la conception de l'interactivité fonctionnelle. Crossley et Green partent des virtualités essentielles des ordinateurs qui sont réalisées dans la mise en oeuvre effective de l'interactivité.

Tout ce qui relève de l'interactivité fonctionnelle est chronologiquement repoussé au-delà du Design : fenêtres, icônes, questions et réponses, souris, taille de l'écran, couleurs, dessins, tous les éléments servant à définir les fonctions d'interaction sont bannis du vocabulaire jusqu'à la dernière phase de la conception, celle où est rédigé le cahier des charges informatique.

Ces principes sont évidemment formulés autrement chez Crossley et Green. Afin de définir un objectif pédagogique exprimé en terme de comportement (pédagogie par objectif), ils posent simultanément un ensemble de questions à l'auteur :

Toutes ces questions peuvent se ramener à celle-ci qui suffit à exprimer l'une des idées-clé de la méthode et qui pose très clairement les règles de la conception de l'interactivité intentionnelle : Qu'avez-vous l'intention que l'élève ait l'intention de faire ?

Cette double question sur lui-même et sur l'élève posée à l'auteur lui donne du même coup le cadre d'élaboration d'une réponse : l'intention de l'auteur s'exprime en terme d'objectif pédagogique (je veux qu'il sache) et celle de l'élève s'exprime en terme de comportement (je fais).

Au carrefour de ces deux intentions, le Design du logiciel assure à l'auteur que son intention se réalise, c'est-à-dire que l'objectif pédagogique qu'il a fixé est atteint, du simple fait que l'élève a exprimé son intention par son activité.

Voilà qui nous ramène au paradoxe fondamental de l'enseignement les objectifs pédagogiques s'expriment toujours en terme de connaissances mais le contrôle de l'acquisition de ces connaissances ne peut se réaliser que sur la base de comportements.

Au fond, il est impossible de s'assurer que quiconque a compris ou sait quoi que ce soit autrement que par l'observation et l'interprétation des comportements. Les enseignants n'ont accès, pour leurs élèves comme pour eux-mêmes, qu'aux signes comportementaux de la compréhension et de la connaissance. Ils savent bien comme il leur est difficile d'aller au-delà de la vérification des performances mimétiques des élèves dans leur restitution des contenus et des formes d'apprentissage qui ont fait l'objet de leur enseignement.

Toute la créativité pédagogique des auteurs s'exerce dans la scénarisation des activités possibles de l'élève qui vont dans le sens de l'objectif pédagogique fixé. Ce souci doit être mis en relation avec la règle fondamentale de la communication interpersonnelle conditionnée par la production simultanée et symétrique de signification'. Ce principe se traduit ainsi dans le contexte de l'enseignement : l'élève doit produire sa connaissance lorsqu'il apprend, exactement comme le fait l'enseignant lorsqu'il enseigne. La méthode de Crossley et Green, parce qu'elle respecte la séparation des objectifs pédagogiques exprimés par l'enseignant et des comportements de contrôle réalisés par l'élève, préserve les conditions de réalisation d'une vraie communication interpersonnelle.

Reste le problème de la faisabilité : est-il possible de concevoir un logiciel éducatif interactif qui s'accorde avec de tels principes qui placent l'interactivité intentionnelle au centre du Design ? Quels nouveaux types de relations et de stratégies pédagogiques cela induit-il ? La créativité des auteurs peut-elle être au rendez-vous ? N'est-ce pas trop difficile voire impossible ? Est-ce même accessible à l'esprit humain ?

C'est sur la réponse à ces questions que Crossley et Green apportent une autre contribution essentielle, la méthode qu'ils développent est à la fois simple et pragmatique. Elle a été pratiquée de nombreuses fois, elle a donné des résultats concrets sous forme de vrais logiciels conçus par de vrais enseignants et utilisés par de vrais élèves. La conviction que nous avons dans la validité de la méthode développée par Crossley et Green ne relève pas de la foi mais de la connaissance que nous avons des résultats obtenus par des enseignants qui ont accepté de la pratiquer.

Tant qu'on s'évertuera à considérer l'ordinateur comme une machine à enseigner on se heurtera à tous les legs de l'histoire : multiplicité des formes d'enseignement, diversité des conceptions pédagogiques des enseignants, diversités régionales et nationales, diversité des programmes d'enseignement,... Du simple fait de ces legs historiques, on s'interdit donc de produire des logiciels éducatifs à destination de publics élargis, ne serait-ce qu'aux pays francophones, sans prétendre aller jusqu'à l'Europe. Et pourtant... si tout le monde s'accorde à reconnaître l'universalité des mathématiques, des sciences, de la musique, on sait bien également que l'on n'enseigne certainement pas de la même façon les mathématiques, les sciences, la musique, au Portugal, en Irlande, au Danemark et pas davantage en Belgique, en Suisse, au Québec. Mais lorsque nous tournons nos regards vers ceux qui apprennent, et non plus vers ceux qui enseignent, que devient le poids des legs de l'histoire et de la culture ? Pourra-t-on affirmer avec autant d'assurance qu'un enfant suisse n'apprend pas les mathématiques comme les apprend un enfant danois, portugais ou québécois ?10

L'approche de Crossley et Green et ses possibles approfondissements ouvrent aux concepteurs des voies nouvelles pour la production d'applications éducatives qui dépassent les barrières culturelles et linguistiques.

Source : Crossley, K., Les, G., Barchechath, E., & Perraudin, A. (1990). Le design des didacticiels: guide pratique pour la conception de scénarios pédagogiques interactifs: ACL éd.
Bibliographie

7 Cité dans: Les nouvelles technologies de l'information, un défi pour l'éducation, CERI, OCDE Paris 1986.

Gregory BATESON, Vers une écologie de l'esprit, Seuil, 1977.

Robert ESCARPIT, Théorie générale de l'information et de la communication, Hachette Université, 1976.

Marc GUILLAUME, La contagion des passions, Plon, 1989.

5 "Le sujet doit se faire lui-même quelque peu automate pour exploiter les potentialités des robots et des automatismes de communication Il n'est pas impossible qu'une jubilation secrète surgisse au cœur de celle régression de code "alliance" entre l'objet et un noyau d'inhumanité enfoui dans le sujet".
Marc GUILLAUME, La contagion des passions, Plon, 1989.

Dieudonné LECLERCQ et al., Construire un cours programmé, Nathan, 1977 (2ème édition).

Dieudonné LECLERCQ, La conception des questions à choix multiple, Nathan, 1986.

Gail E. MYERS et Michele Tolela MYERS, Les bases de la communication interpersonnelle, Une approche théorique et pratique, Mc Graw-Hill, 1984.

Lindsay NORMAN, Traitement de l'information et comportement humain, Editions Etudes Vivantes, Montréal-Paris, 1980.

John R. SEARLE, L'intentionnalité, Essai de philosophie des états mentaux, Editions de minuit, 1985.

Lucien SFEZ, Critique de la communication, Seuil, Collection Empreintes, 1989.

8 Formule classique à l'Ecole de Palo Alto, Paul Watzlawick et al., Une logique de la communication, Seuil 1972.

Paul WATZLAWICK et al., Une logique de la communication, Seuil, 1972.

Terry WINOGRAD et Fernando FLORES, L'intelligence artificielle en question, PUF, Collection "La politique éclatée" 1989.

Eric Barchechath, Serge Pouts-Lajus