chapitre 7 Epistémologie et méthodes de la modélisation IA
Searle, dans son article, a argumenté qu'un système incapable de remplir les symboles de sens (mettre un contenu représentationel dans les représentations) peut malgré tout engendrer un comportement apparemment intelligent en répondant à des questions sur un récit "digéré" préalablement. Il s'agit d'une attaque en règle contre les prétentions de l'école du "Natural Language Understanding" de Yale (cf. par Schank 77). Plus généralement, Searle montre que le Turing Test n'est pas très convaincant et dénie surtout l'affirmation que toute intelligence s'affirme à travers un système symbolique.
Voici le "Gedankenexperiment" un peu simplifié du "Chinese Room" (Searle 81:284): Searle va simuler en personne un ordinateur qui "comprend" le chinois. Il s'enferme dans une pièce avec une liste de règles (R1) en anglais qui lui indique comment manipuler des jetons chinois uniquement basés sur leur forme (Searle ne parle pas Chinois). Cette liste lui permet de mettre en correspondance un jeu de jetons (J1) avec un deuxième jeu (J2). Maintenant, on lui donne un troisième jeu de jetons (J3) accompagné de nouvelles instructions (R2) en anglais qui lui permettent de mettre en corrélation les deux premiers jeux (J1 et J2) avec le jeu J3 afin de pouvoir rendre des jetons (jeu J4) en "réponse" à J3 à l'extérieur. Searle n'a aucune indication sur la nature et la fonction de ces jeux de jetons.
Le premier jeu (J1) correspond à un récit, le deuxième à un script (J2) et le troisième à des questions (J3) sur le récit (J1). Les instructions en anglais (R1 et R2) indiquant comment manipuler les formes correspondant à des programmes IA. Lorsqu'on donne à Searle (dans la pièce isolée) un "récit" sous forme de jetons incompréhensible pour lui (J1) il peut grâce à des mécanismes de manipulation de forme "comprendre" (mettre en correspondance avec le script J2) ce récit et donner des réponses (J4) à des questions (J4) qu'on lui pose au sujet du récit. Voici Searle qui "comprend" des récits sans rien comprendre. Il en conclut que l'intention (ou la sémantique) ne peut être que simulée ("weak AI"). Les réactions n'ont pas manqué dont une renverse l'argument. Searle en fait ne simule pas un ordinateur puisqu'il interprète des règles (R1 et R2) alors que la computation dans une machine implique des relations causales. Ce dispositif ne correspond donc pas au fonctionnement d'un ordinateur (une machine plus un programme qui exécute, l'architecture fonctionnelle de Pylyshyn). Cet argument montre que l'analogie de Searle n'est pas forcément juste, mais il ne résout pas le "emtpy symbol problem".
L'attribution de sens aux symboles dans l'IA classique s'appuie finalement sur une sémantique dénotationnelle (les représentations pointent sur des choses et ce pointage se fait par un observateur extérieur). Certaines réactions à l'égard de Searle ont tenté de montrer que le sens émerge quelque part dans la complexité du système, les symboles renvoyant à des symboles qui renvoient à des symboles, etc. On peut bien donner du sens à une expression composée de symboles en formalisant leur sémantique (c'est-à-dire en utilisant d'autres expressions symboliques pour définir le sens). Mais à un moment donné, il faut arrêter cette cascade pour ancrer le tout dans des "unités de sens". Harnad (90:9) illustre bien la futilité de cette proposition avec l'exemple "Chinese/Chinese Dictionary-Go-Round". Il note que l'on ne peut pas apprendre le chinois avec à sa seule disposition un dictionnaire Chinois/Chinois où des symboles dénués de sens renvoient à d'autres jusqu'à ce qu'on revienne au point de départ sans avoir rien appris. C'est là une des raisons pour lesquelles Wittgenstein s'est détourné du positivisme logique.
Une autre solution proposée au paradoxe de la séparation entre syntaxe et sémantique (le sens exclu du traitement des expressions) est d'ancrer les processus mentaux et leur représentations à l'extérieur. Il ne suffit pas de connecter simplement un système symbolique au monde avec des "traducteurs" sensori-moteurs (en les branchant sur des composantes d'entrée/sortie). Une mise en correspondance entre représentations et perceptions (et effecteurs) par des tables de traduction n'est pas source de sens. Selon Harnad (90: 14ff), le "symbol grounding problem" peut être résolu en dotant un système de capacités à engendrer des discriminations et des identifications d' "input". La capacité de discrimination permet de juger si deux "inputs" sont différents et à quel degré. L'identification permet d'attribuer un nom à un "input", dire s'il fait partie d'une certaine catégorie. La discrimination repose sur notre capacité à former des icônes (des transformations analogiques des objets projetés sur nos zones sensorielles). Il s'agit ici d'un processus mécanique qui n'implique aucune interprétation. L'identification consiste à extraire certains traits de l'icône qui permettent de la distinguer sans ambiguïté d'autres, qui ne font pas partie de la même catégorie. Elle nous fournit des représentations catégoriques. Certaines de ces catégories sont probablement innées, mais d'autres doivent être apprises sinon il n'y aurait pas d'évolution. Les modèles connexionnistes sont capables de ce type de performance (cf. plus bas). Les représentations iconiques et catégorielles ne sont pas symboliques, elles sont causales et ont une valeur taxonomique. Les premières sont des copies analogiques des projections sensorielles, les deuxièmes des objets filtrés préservant quelques traits essentiels. Les représentations symboliques peuvent intégrer des représentations iconiques et catégorielles dans leurs expressions. Un système peut constituer un jeu de symboles élémentaires qui associent un nom avec des représentations catégorielles et iconiques. Les autres symboles du langage naturel peuvent être créés par des combinaisons de symboles ancrés.
Le "symbol grounding problem" peut être résolu ou au moins atténué par deux stratégies: (1) celle esquissée ci-dessus: la construction de robots autonomes qui construisent eux-même leur "grounding" ou alors (2) en acceptant que l'observateur externe (le chercheur, le concepteur ou l'utilisateur) fournisse le sens des objets que l'ordinateur manipule. Dans ce dernier cas, il faut veiller à ce que le système reste transparent et qu'on puisse l'inspecter.
Le courant de la "situated action"*1 est issu de l'éthnométhodologie de Garfinkel. Révélé par le livre "Plans and Situated Actions" de Lucy Suchman (87), il a eu un impact considérable sur certains domaines de l'intelligence artificielle. Ancré dans une sociologie de "compréhension" et de "shared understanding", le courant de l'action située remet en question la notion de connaissances stables partagées. L'intelligibilité partagée est un phénomène émergent au courant d'une action située. Le "background" dans lequel l'action est engendrée et interprétée ne correspond pas à des structures mentales, mais il s'agit du monde (social et physique) lui-même. Un plan n'est qu'une ressource vague pour l'action: l'action utilise le plan comme elle "utilise" l'interaction. L'action observée dans un contexte réel, pour Suchman, n'est pas isomorphe de la pensée structurée vers la résolution de problèmes chère à l'intelligence artificielle symbolique. La "situated action" reste toutefois intentionnelle et son acteur poursuit un objectif, même si les plans ne prescrivent plus l'action.
Ainsi, le plan considéré par l'IA traditionnelle comme un objet rationnel et complet devient "produit de l'activité de rendre compte de l'action lorsque ses prémisses sont questionnées" (Visetti 89:79) et il devient "un artefact de notre raisonnement sur l'action, et non pas le mécanisme générateur de l'action" (Visetti 89:79). L'élément constituant de l'action est la situation, son interprétation, la négotiation et la construction commune de sens. Les représentations détaillées et sophistiquées sont construites uniquement en cas de besoin, par exemple lorsque le cours de l'action devient problématique. Cette position ne met pas fondamentalement en cause le cognitivisme, elle montre plutôt de façon élégante et empirique que le problème de l'IA pour représenter toutes les connaissances nécessaires pour planifier en détail une action (et ses contingences) n'a pas de raison d'être. Le flou et l'incomplet sont au coeur de l'action humaine et ils sont efficaces, puisqu'il peuvent être comblés si nécessaire. Les intentions également, gagnent leur existence surtout par attribution mutuelle dans un échange social. Voici une citation plus longue de Visetti (89:93) qui résume bien l'essentiel:
"Plans and situation actions avance finalement une thèse simple: les actions sont toujours socialement et physiquement situées, et la situation est essentielle à l'interprétation de l'action. Par situation, on doit entendre un complexe de ressources et de contraintes, qui peuvent toutes, le cas échéant, jouer un rôle signitificatif sans pour autant que ce rôle soit nécessairement réductible à un jeu de représentations mentales préalablement objectivées dans les apppareils cognitifs."
Cet "émergisme" doit être mis en corrélation avec les critiques venant du connexionisme et de l'interactionisme à la Bickhart et Terveen (94). Il partage avec le connexionisme le fait d'avoir apporté des techniques nouvelles à l'IA, mais également le flou en ce qui concerne la modélisation du raisonnement et surtout celle des activités cognitives nécessaires au fonctionnement des décideurs et des spécialistes qui pilotent le monde du travail. La conséquence directe sur les systèmes expert d'un nouveau style qui se propage depuis la Californie*2 est une double réorientation: (1) vers le "Situated Software Design" (Hofman, Pfeifer et Vinkhuyzen 94) impliquant les futurs utilisateurs dès le départ dans les travaux de conception et de développement; (2) vers l'intégration de systèmes expert avec les systèmes de gestion des connaissances (Edmonds, O'Brien and Bayley 93), des systèmes de négociation de connaissances et de support de décisions de groupe (Jacob et Pirkul 92, Jelassi, Klein et Mayon-White 92), etc. Il s'agit ici d' "interfaces" homme-machine et homme-homme-machine qui permettent à l'acteur humain de mieux gérer ses connaissances et ses interactions avec des artefacts techniques. Nous saluons vivement cette réorientation, sans toutefois perdre de vue que la "situated action" n'offre pas de solution aux problèmes connus de la modélisation des processus cognitifs . Nous en examinons quelques-uns ci-après:
"En résumé, on peut décrire l'IA symbolique comme la manipulation formelle d'un langage de représentation. Ce langage est constitué d'expressions symboliques structurées, possédant un sens intuitif qui peut être verbalisé et publiquement communiqué. Ces expressions sont nettement formalisées, sans le flou et les irrégularités du langage naturel, et les traitements sont purement syntaxiques et le plus souvent séquentiels. En d'autres termes, l'IA s'inspire d'une conception logicisée et formelle du langage naturel pour caractériser le matériau même de la pensée. C'est une forme moderne de rationalisme: la conviction que la connaissance peut se réduire à un langage intellectuel clair, à la fois intuitif et public"
L'IA symbolique partage certains avantages et inconvénients avec d'autres formes de rationalisme (comme la théorie de jeux par exemple). Il s'agit d'une approche de modélisation puissante qui a démontré ses capacités pratiques. Mais comme d'autres formalismes, elle souffre de compatibilité avec la réalité. Le manque de flexibilité est un de ses grands problèmes: un programme AI traditionnel et notamment les systèmes expert sont très fragiles. Ils montrent souvent un comportement inapproprié dans des situations qui n'ont pas été prévues à l'avance. Cela tient du fait qu'il leur manque une capacité de généralisation et d'apprentissage et qu'ils raisonnent en termes "logiques" et discrets. La manipulation formelle d'un langage de représentation implique que le système ne peut pas faire appel au sens des expressions. Malgré de nombreuses techniques comme le "pattern matching" sophistiqué (pour donner de la souplesse aux principes de raisonnement), les logiques floues et autres (pour introduire la probabilité), le métaraisonnement (pour adapter la stratégie de raisonnement) et l'apprentissage symbolique (pour générer de nouvelles "procédures"), le système s'égare ou s'arrête lorsque des données intraitables sont rencontrées (cf. Memmi 90:51, Pfeifer 92:3).
Dans le cadre de l'encodisme, l'apprentissage doit se contenter - par principe - à l'exploration de l'espace combinatoire par des variations, des combinaison et des sélections de représentations et de leurs éléments. Il est par exemple possible d'abstraire des causalités à partir de régularités de descriptions de situations, donc de reformuler par exemple des régularités dans des "cas" historiques comme des règles. Il est également possible de modifier des heuristiques en fonction de l'expérience en modifiant et/ou en sélectionnant des règles. Mais l'apprentissage de représentations ou de "fonctions" nouvelles reste en principe impossible (cf. Bickhart et Terveen 94:134). Un système traditionnel peut apprendre selon les modalités programmées et selon des critères de succès internes. Le fait que la plupart des systèmes IA symboliques ne peuvent pas agir sur un environnement aggrave le cas. L'environnement, parce que plus riche, devrait engendrer des erreurs pour permettre au système de corriger son action. Un système sans boucle de rétroaction externe est passif et plutôt statique. Toutefois, connecter un système au monde ne suffit pas: un système bâti avec des encodages dépend de ces encodages et ne peut pas savoir ce qu'ils représentent, s'ils représentent du faux et s'ils devraient représenter autre chose.
La représentation semble être un phénomène émergeant lié à un contexte d'action. L' "encodisme" inhérent au cognitivisme ne peut pas y faire face. Mais qui le peut?
Generated with WebMaker
Le problème de l'ancrage des symboles
Un modèle IA classique manipule des structures de symboles qui sont dénuées de sens pour le système. Ce dernier ne reconnaît que leur forme, tout sens est attribué par l'extérieur (le chercheur, la théorie, l'utilisateur). Est-ce que l'on peut réduire la cognition à la manipulation de symboles fondée sur leur forme? La discussion contemporaine autour du problème de l'ancrage des symboles a été déclenchée par le "Chinese Room Problem" dans l'article "Minds, Brains and Programs" (Searle 80). Non sans surprise, elle n'est pas terminée, periodiquement certains articles relancent le débat, entre autre "The symbol grounding problem" de Harnad (90). La critique phénoménologique et la "situated action"
La phénoménologie de Heidegger et certaines sociologies du "quotidien" comme l'éthnométhodologie ont fourni depuis longtemps des armes contre les modélisations rationalistes des processus mentaux. Dans la tradition phénoménologique, tout compréhension est ancrée dans des situations historiques concrètes. Toute ontologie est donc contextuelle et il n'est pas question que l'on puisse abstraire des représentations logiques, finies et indépendantes, telles que celles utilisées en intelligence artificielle. Toute interprétation (herméneutique) est une entreprise de reconstitution linguistique reproduisant le contexte historique et situationnel. La notion de contexte et d'arrière-plan (angl. "background") devant lequel le sens se forme est clairement contraire à la vision de l'IA pour qui seuls des liens "logiques" entre des représentations formelles font partie des processus mentaux. La phénoménologie a ses problèmes propres: ces "contextes" ne sont guère opérationnalisables et le chercheur est invité à se "re-placer" dans le contexte pour comprendre, il doit re-produire ce qui s'est passé en se fiant au miracle du langage naturel. Cette approche évite la difficulté en fuyant vers un idéalisme linguistique qui interdit certaines généralisations comme les heuristiques de résolution de problèmes. La phénoménologie nous semble un excellent outil de critique, mais comme outil d'analyse pour les processus mentaux, elle n'a pas fait ses preuves. La robustesse des représentations symboliques
Les représentations de l'IA symbolique ont une structure relativement proche du langage naturel. Elles sont complexes et composées de symboles plus simples. Citons un passage plus long de Daniel Memmi (90:54) qui résume bien l'IA symbolique sous cet angle: Le "frame problem"
Dès le début de l'intelligence artificielle, le (ou les) "frame problem(s)" a été mis en évidence comme un problème technique . Il s'agissait de savoir comment modéliser et tenir compte des changements dans le "monde" à la suite d'une action. Le problème qui se pose au modéliseur est de prévoir toutes les conséquences de toutes les actions dans toutes les circonstances du domaine modélisé. Cela représente un travail gigantesque et on peut même argumenter que l'implicite (les interactions causales possibles) ne peut pas être modélisé par l'explicite (Bickhart et Terveen 94:108). Typiquement, un acteur humain ne tient compte que de ce qui est nécessaire dans un contexte historique précis. Ses processus apperceptifs adaptatifs et dynamiques sont très économiques. Ils tiennent compte non seulement du contexte mais également des buts, valeurs, intérêts, etc. de l'individu en question. (Bickhart et Terveen 94:110). Cette simplicité et cette efficacité humaine en ce qui concerne la compréhension de situations modifiées est un des plus grands défis de l'IA symbolique. Elle se perd parfois dans des explosions combinatoires ou de la "non-compréhension". L'adaptation et l'apprentissage
Nous avons déjà vu que les systèmes IA symboliques sont fragiles en ce qui concerne leurs capacités d'adaptation à des situations nouvelles. Que peuvent-ils donc apprendre? Malgré le courant important du "machine learning", il convient de noter que la priorité en IA a toujours été donnée à la modélisation des représentations et des processus d'inférence nécesaires pour le "problem solving", la compréhension du langage natuel, la déduction logique, la planification, etc. ... en espérant que la modélisation de l'apprentissage sera plus simple une fois ces phénomènes compris.
THESE présentée par Daniel Schneider - 19 OCT 94