[Next] [Previous] [Up] [Top]

chapitre 7 Epistémologie et méthodes de la modélisation IA

7-1.1 Les disciplines de l'intelligence artificielle


L'intelligence artificielle n'a pas d'objet de recherche académique bien défini à part l'intérêt porté au "mental" et aux représentations de connaissances. Elle s'est divisée en de nombreuses sous-disciplines focalisant sur des problèmes bien distincts (tel que la vision, la résolution de problèmes, la compréhension du langage, l'apprentissage,...). Il n'existe pas de paradigme unifié de recherche et certaines branches de l'IA sont devenues des terrains d'échanges multidisciplinaires où se côtoient philosophes, psychologues, informaticiens et autres qui s'intéressent aux divers problématiques de l'intelligence. Ainsi les branches fondamentales de l'IA font partie des sciences cognitives. Forcément, il existe une multitude de façons de concevoir recherche fondamentale et recherche appliquée. Nous en distinguons cinq:

  1. L'intelligence artificielle "pure". Cette école que l'on peut localiser par exemple dans certains groupes de recherche au MIT vise à découvrir ce qu'est l'intelligence au plan très général. La modélisation de l'esprit humain n'est pas au premier plan. Certains s'intéressent plutôt aux mécanismes qui constituent l'intelligence chez de simples agents autonomes (Brooks)*1, d'autres cherchent à constituer des programmes capables de résoudre certaines tâches difficiles et spécialisées comme gagner aux échecs.

  • L'intelligence artificielle "dure". Une tradition que l'on retrouve par exemple autour de Newell et Simon (CUI). Il s'agit de modéliser l'esprit humain en construisant un programme qui représente, à un certain niveau d'abstraction, les mécanismes humains. C'est ici que se retrouvent les fameuses thèses controversées comme "cognition = computation" et donc "esprit = programme" que nous allons discuter en détail plus bas.

  • L'intelligence artificielle "molle" (weak AI). Le but est similaire à celui de l'IA "dure", il s'agit de modéliser l'esprit humain. Toutefois, le programme n'a qu'un rôle de modèle heuristique. L'ordinateur et son programme ne sont pas mis en relation directe avec le cerveau et l'esprit. Il existe des variantes inductives et déductives de cette approche. La première cherche à construire l'objet "compréhension de l'intelligence" en construisant des programmes capables de résoudre certaines tâches très précises et ensuite de généraliser et tester une solution empiriquement trouvée. La deuxième est plus poppérienne: programmes et modèles sont destinés à tester certaines hypothèses.

  • L'intelligence artificielle "pratique". Il s'agit surtout (mais pas uniquement) des systèmes expert, sans doute la branche de l'I.A. la plus connue du grand public. Un système expert doit automatiser certaines tâches intellectuelles humaines ou encore assister un décideur humain ("decision support" ou "advisory systems"). Les tuteurs intelligents ("intelligent tutoring systems") sont une autre branche pratique comme certaines branches de la robotique. Dans toutes ces disciplines, "pratique" ne signifie pas absence totale de réflexion épistémologique, beaucoup d'impulsions théoriques ont leur origine dans des travaux pratiques. Curieusement les limites de l'IA se sont manifestées dans les systèmes expert plus que dans d'autres secteurs.

  • L'intelligence artificielle "outil de modélisation". On fait référence à des chercheurs dans d'autres disciplines faisant usage de certains langages de représentation et d'inférence pour décrire certains phénomènes, pour constituer des modèles ou pour formaliser des théories. Notre travail se situe par exemple dans cette catégorie.

    Nécessairement, les frontières entre ces orientations fondamentales de l'IA ne sont pas hermétiques. Toute tentative d'automatiser la résolution d'une tâche intelligente doit amener à se demander ce qu'est l'intelligence ou le "mental" et si la résolution artificielle se fait vraiment de façon intelligente. Réciproquement, même l'intelligence artificielle la plus spéculative doit se poser la question de l'opérationalisation de ses concepts. Ainsi Pylyshyn (85:XIX) note que "... in cognitive science the gap between metatheory and practice is extremely narrow".

    Le rapport entre données, modèle et théorie en intelligence artificielle s'articule selon deux grands axes: la plupart des approches adopte une stratégie parfois difficile à articuler où données, modèle (programme) et théorie s'influencent mutuellement et itérativement de façon semblable aux modélisations systémiques du style "world-modelling" (Deutsch:66, Meadows:82). Face à ces orientations, on peut identifier un axe plus traditionnel s'inspirant de la psychologie expérimentale. Il peut s'agir de modélisations qui suivent le chemin: (1) articulation d'une théorie sous forme verbale, (2) formalisation d'au moins un aspect dans un programme et (3) phase de test y compris l'expérimentation avec des sujets. L'expérimentation teste la pertinence du modèle et ensuite la validité de la théorie. D'autres suivent une démarche plus mixte, le programme (modèle) se construit souvent en tenant massivement compte de données expérimentales comme les protocoles de pensée à haute voix.

    L'approche "classique" en intelligence artificielle est plus difficile à décrire. Comme tout paradigme, les "écoles" d'IA connaissent plusieurs niveaux de recherche. On retrouve souvent un but de recherche général et "asymptotique" comme "comprendre le langage naturel". A ce niveau, on observe des propos plus ou moins bien articulés sur la nature du sujet de recherche. A un niveau intermédiaire, se trouvent des théories partielles en stade de pré-modélisation. Par exemple, dans le domaine de la compréhension du langage naturel, on peut citer la théorie des scripts et la définition de leur structure et de leur usage dans les processus cognitifs. A un "niveau plus bas", on retrouve finalement des programmes (modélisations) qui implémentent plus ou moins bien une théorie partielle. En ce qui concerne notre exemple, on peut citer la série des logiciels faits à Yale permettant d'identifier des scripts dans un jeu limité de textes écrits et de répondre à des questions que l'on pose au logiciel. Quand ce genre de recherche est effectué dans un département d'informatique, on entend souvent que le programme constitue la théorie. Il s'agit du concept de théorie utilisé parfois en sciences où on tente d'exprimer l'essentiel d'une théorie en un langage formel. La création des théories computationnelles et formelles a reçu la priorité épistémologique en IA. Toutefois, en pratique, cette maxime ne se traduit pas toujours très bien: l'écart entre le programme et la théorie verbale est grand, le programme est parfois "illisible" et les parties qui représentent un intérêt théorique sont confondues avec les parties inintéressantes.

    L'IA est aussi une discipline d'ingénieur à forte vocation empirique. Il faut de longs et multiples efforts pour construire un programme qui "marche". Les sources d'inspiration sont multiples: observation de sujets, introspection, spéculation, théories et "paradigmes" psychologiques, etc.. La nature des données vaire selon le niveaux de recherche. Minsky utilise ainsi le terme d'épistémologie appliquée pour caractériser la contribution de l'IA à la philosophie. Un programme en IA n'est donc pas seulement une théorie mais également une expérience, un artefact qui peut être étudié, examiné et manipulé comme source de connaissance qu'il faut confronter en retour aux données et aux autre théories. Il est donc à la fois objet de construction et de source de réflexion (un peu comme une théorie en mathématiques). Données, modèle (théorie quasi-formelle) et théorie verbale se constituent et se reconstituent de façon circulaire. Un scénario sans doute difficile à accepter pour un Popperien. Mais cette épistémologie traditionaliste des sciences sociales n'a aucune recette à offrir pour l'étude de phénomènes complexes (à part s'abstenir). La recherche sur l'intelligence en IA est avant tout explorative, empirique et expérimentale. Ses fondations épistémologiques sont vivement discutées dans la littérature, mais pour le moment aucune solution n'à été adoptée par la communauté. La discipline est trop récente et la tâche très difficile.

    Dans les sections suivantes, nous allons discuter plus en détail quelques questions épistémologiques clés qui sont d'un intérêt théorique et/ou pratique. Malgré les variations entre les formes d'IA (s'agissant de simples programmes destinés à se comporter intelligemment face à une tâche bien précise ou d'agents autonomes dotés de capacités d'apprentissage et d'interaction avec l'environnement sensori-moteur et social), deux grandes questions restent communes: que signifie le terme "intelligent"? Et peut-on construire des artefacts intelligents? Les sciences cognitives sont néanmoins d'accord sur un point: on sait de quoi les êtres humains sont capables:

    "They can (1) discriminate, (2) manipulate, (3) identify and (4) describe the objects, events and states of affairs in the world they live in, and they can also (5) produce descriptions and (6) respond to descriptions of those objects, events and states of affairs. Cognitive theory's burden is now to explain how human beings (or any other devices) do all this." Harnad (90:13).

    L'IA et les autres sciences cognitives acceptent la difficulté de ce programme de recherche, même si elles doivent vivre avec certains difficultés ou certains paradoxes épistémologiques. Les approches comme le behaviorisme ou le rationalisme économique ne sont que des fuites en avant de problèmes qui intéressent la philosophie depuis 2000 ans. Les autres sciences systémiques sont confrontées exatement aux mêmes problèmes que l'IA.

    Représentation et computation

    L'approche dominante dans les sciences cognitives des dernières années est le cognitivisme, l' explication du comportement intelligent par des processus mentaux manipulant des représentations, c'est-à-dire des encodages (implicites ou explicites) d'informations. On peut distinguer deux grandes variantes de pensée: le symbolisme et le connexionisme. Les deux postulent l'existence de contenus "représentationels" (angl.: "representational content") manipulés par des computations. Le rôle clé des représentations dans les phénomènes mentaux est un postulat paradigmatique. L'essence même du concept de "représentation" n'est pas modélisée en termes systémiques ou fonctionnels ce qui conduit selon Bickhart (93a, 93b) à une impasse théorique vers laquelle nous allons revenir.

    Nous allons d'abord nous tourner vers l'intelligence artificielle "classique" (symbolique) qui s'ancre dans les principes de base de la psychologie d'information déjà discutée dans le chapitre 2. En intelligence artificielle classique, la plupart des modélisations caractérisent un comportement intelligent par des opérations formelles effectuées sur des structures symboliques. D'où le slogan:

    cognition = computation + représentation

    Il s'agit d'une position rationaliste (Winograd 86:15, Pfeifer 92:3) qui consiste à attribuer à l'agent intelligent le comportement suivant: (1) il définit des situations en termes d'objets identifiables ayant des propriétés données, (2) ensuite il identifie des règles générales applicables à cette situation en fonction des objets identifiés et (3) finalement il applique ces règles à la situation pour en déduire des actions à entreprendre. Ce modèle est populaire dans beaucoup de disciplines (y compris la psychologie cognitive) et il a déjà été discuté dans les chapitres précédents. Il est utile de rappeler le contraste avec schéma S-R. L'agent intelligent de l'IA classique est essentiellement un résolveur de problèmes tel qu'il est représenté dans le schéma I-R-R

    dans la figure 7-1
    .

    On peut se demander comment justifier un tel modèle du traitement d'information au plan mental et physique. Au plan mental, la réponse est évidente. L'idée que l'on se fait d'une représentation des faits dans l'environnement que l'on manipule par la suite correspond bien à l'image naïve que nous avons de nous-mêmes. Il est difficile d'imaginer que nous n'imaginons pas, que le stimulus n'est pas interprété mais directement traduit en réponse, que nous n'avons ni buts ni croyances qui nous guident. Comment modéliser maintenant l'existence de ces processus symboliques dans le cerveau?

    Une réponse souvent citée a été formulée et opérationalisée de façon précise par Newell et Simon dans leur thèse du "physical symbol system" (c.f. par ex. dans Newell 76, 81b) et du "knowledge level" (Newell 81a). Les actes à base de représentations symboliques sont expliqués par un modèle à plusieurs niveaux. Il existe un mécanisme physique capable de manipuler des symboles physiques (le cerveau). Les représentations sont physiquement instantiées comme des structures de symboles physiques. Elles ont donc une forme précise, forme qui peut être manipulée par des opérations mécaniques en quelque sorte. Voici une analogie très forte avec le fonctionnement de l'ordinateur. Un logiciel tourne sur un ordinateur puisque l'ordinateur sait manipuler sa représentation physique. Ce niveau 1 (biologique, physique ou physiologique) ne concerne - selon ces auteurs - pas l'IA. C'est du ressort de la biologie (comme les phénomènes encore "plus bas" qui sont du ressort de la chimie et de la physique). Il suffit de savoir qu'un système physique symbolique (angl. "physical symbol system") possède les moyens nécessaires pour servir de support général pour une action intelligente.

    Pour le chercheur en psychologie ou en IA, le plus bas niveau digne d'intérêt serait le niveau 2 symbolique (aussi appelé niveau syntaxique ou architecture fonctionelle). L'IA ne devait pas être concernée par la mécanique de l'ordinateur ou du cerveau, mais uniquement par le mécanisme d'interprétation des structures symboliques et la forme que peuvent avoir ces structures symboliques. L'explication de la vie mentale commence à ce niveau et se poursuit au niveau 3 suivant, celui des connaissances: le "knowledge level" de Newell (81a), encore appelé "intentional ou semantic level".

    Examinons de plus près le niveau 2 (symbolique), cette "interface" entre la description de l'esprit comme système physique et l'esprit comme système de représentation: nous donnons la parole à Pylyshyn (78, 80, 81, 84) qui appelle ce niveau également "architecture fonctionnelle". La formule "cognitition = computing over symbols" de Pylyshyn est sans doute très radicale, mais elle a le mérite d'être claire et exigeante:

    "To summarize what I have said about computing: A computational process is one whose behavior is viewed as depending on the representational or semantic content of its states. This occurs by virtue of there being another level of structure - variously called the `symbol level' or the syntax or logical form - which possesses the following two essential properties. One, the formal syntactic structure of particular occurrences (tokens) of symbolic expressions corresponds to real physical differences in the system, differences that affect the relevant features of the system's behavior. Two, the formal symbol structures mirror all relevant semantic distinctions to which the system is supposed to respond and continue to do so when certain semantically interpreted rules are applied to them, transforming them into new symbol structures. For every apparent, functionally relevant semantic distinction theres is a corresponding syntactic distinction. Thus any semantic feature that conceivably can affect behavior must be syntactically encoded at the level of a formal symbol structure. By this means we arrange for the system's behavior to be describable as responding to the content of its representations - to what is being represented - in a manner perfectly compatible with materialism." (Pylyshyn 84:74).

    Cette position cognitiviste de l'IA est fortement inspirée de la théorie de computation, ainsi Harnad (90:1) peut résumer la notion du système symbolique de l'IA par les points suivants. Un système symbolique (angl.: "symbol system") est......

    1. un jeu de jetons (angl. "tokens") physiques (comme des inscriptions sur papier, des événements dans un ordinateur digital) qui sont

    2. manipulés sur la base de règles explicites qui sont

    3. également des jetons physiques ou des chaînes de jetons.

    4. La manipulation des jetons symboliques par des règles est fondée uniquement sur la forme des jetons (et non pas sur leur sens), elle est donc purement syntaxique, et elle consiste

    5. à combiner et recombiner des jetons symboliques selon des règles symboliques.

    6. Il existe des jetons symboliques primitifs et atomiques et

    7. des chaînes composites de jetons symboliques.

    8. Le système entier et toutes ses parties - les jetons atomiques et composites, les manipulations syntaxiques (actuelles et potentielles) et les règles - sont tous interprétables sémantiquement: la syntaxe peut systématiquement attribuer un sens (attribuer un lien à des objets ou décrire un état mental(?)).

    Voici un résumé du cognitivisme: les phénomènes cognitifs peuvent être décrits sur trois niveaux: "the biological (or physical) level, the symbolic (or syntactic or sometimes the functional) level, and the semantic (or intentional) level, or as Allen Newell (82) calls it, the "knowledge level"." (Pylyshyn 84:259). Le fait qu'il y ait un niveau symbolique indépendant de sa réalisation physique et qui fonctionne selon des règles explicites (et non implicites comme les phénomènes physiques) diffère un phénomène cognitif d'un phénomène physique ordinaire. Un phénomène mental est piloté par des règles ("rule-governed") et non pas seulement décrit par des règles ("rule-described").

    Représentation et computation

    THESE présentée par Daniel Schneider - 19 OCT 94

    Generated with WebMaker