[Next] [Previous] [Up] [Top]

chapitre 2 Modèles de l'individu et de l'acteur social

2-1.3 Les plans et la structure du comportement mental


Le comportement intelligent est en grande partie une activité de résolution de problème ou de planification. Cette conception apparît déjà dans l'oeuvre pionnière de Miller, Galanter et Pribham (60) qui ont été les premiers à intégrer des concepts provenant de la théorie des systèmes et de l'information en psychologie. *1 Leur cadre théorique est inspiré des cartes cognitives de Tolman (51) et des schémas de Bartlett (46). Voyons leur conceptualisation de base de l'action: une action (qui se reflète au niveau mental) est organisée hiérarchiquement à des niveaux différents. Plus spécifiquement, des unités molaires de l'action sont composées d'unités "moléculaires", qui peuvent être décomposables à leur tour. Ainsi un comportement X pourrait être décomposé en séquences (A, B, C, ..), et A à son tour dans les éléments (a, b, c, ...), etc.. Ceci signifie tout simplement que, pour bien décrire un comportement, il faut le faire à plusieurs niveaux. Une description complète doit inclure tous les niveaux si l'on ne veut pas perdre l'ensemble de la structure générale. Il est notamment important d'inclure les niveaux supérieurs de description sans lesquels les éléments isolés n'auront pas de signification.

La préoccupation centrale de ces auteurs était le plan. Un plan est défini comme une hiérarchie d'instructions, c'est-à-dire qu'il est une description procédurale d'un comportement mettant l'accent sur l'exécution d'actions en bonne séquence. Dans les termes de Miller et al. (60:16): "A plan is a very hierarchical process in the organism that can control the order in which a sequence of operations is to be performed". Cette définition post-behavioriste a ses attraits. Le plan comme modèle concorde avec notre volonté de pouvoir décrire des processus et des capacités mentales comme des structures symboliques. Mais il est également un objet opérationnel, c'est-à-dire, exécuté, il sert à piloter et à exécuter des actes. Le "plan" de Miller et al. est un véhicule général qui sert à la fois à décrire des stratégies très abstraites de comportement ainsi que les opérations détaillées à effectuer à l'intérieur d'un plan global. Si un plan ne contient qu'une esquisse générale d'une action globale, on parle de stratégie générale de comportement. Ses composantes moléculaires sont constituées par les différentes tactiques que l'individu peut suivre. Lorsqu'un plan est en exécution, les opérations sont guidées par le plan, et quelques étapes hiérarchiques du plan seront exécutées.

Un organisme a également besoin de ce que Miller et al. appellent des images. Ce sont des représentations symboliques complexes sur l'organisme lui-même et sur son environnement. Ils contiennent par exemple les noms des plans dont il dispose. En complément, les plans peuvent à leur tour contenir des images sur les objets intervenant dans un processus de résolution de problème. Il existe aussi des plans nécessaires à la création et la maintenance de ces images. Ces "images" sont les précurseurs de concepts plus modernes tels que les "frames", les schémas et les scripts que nous discuterons par la suite.

Rappelons que chez Miller et al., les plans sont des "systèmes" hiérarchiques à plusieurs niveaux. On peut décrire leur opération avec la boucle de rétroaction bien connue en théorie des systèmes. Cette boucle devient la pierre angulaire structurelle du comportement et remplace complètement le modèle stimulus-réponse. Elle sera appelée unité "test-opération-test-exit" (TOTE) chez ces auteurs. L'unité TOTE

telle qu'elle est décrite dans la figure 2-1 fonctionne de la façon suivante: une information entre dans l'unité et elle est comparée dans une phase test à un certain objectif. S'il y a incongruence, une réaction est activée. Cette phase opérative décrit en détail ce que l'organisme effectue dans ce cas. Après chaque opération (majeure), la congruence est testée de nouveau jusqu'à ce que le problème soit résolu. Ces unités TOTE peuvent être organisées hiérarchiquement. Au lieu d'exécuter des opérations simples, la phase d'opération peut à son tour contenir des plans complexes. La notion de plan chez ces auteurs est donc très large, en effet interprété "stratégiquement", un plan peut par exemple représenter des valeurs. Les motivations trouveront leur place dans la phase test et les différentes stratégies et tactiques sont d'autres unités "TOTE" appelées dans la phase "operate".

Nous ne pensons pas que l'unité TOTE nous permettra de représenter toute la variété des phénomènes cognitifs auxquels nous devons nous intéresser pour modéliser des décideurs. Par exemple, il nous semble problématique de définir un système de valeur d'une façon aussi "procédurale". Par contre, ces unités simples (ou des constructions similaires que nous allons rencontrer plus tard) ont une valeur indéniable comme blocs de construction d'un large éventail de savoir de résolution de problèmes. Ce type d'approche est utile pour décrire un comportement conscient qui s'oriente grâce à des buts. A cause de sa simplicité, l'unité TOTE est certes dépassée aujourd'hui, mais elle illustre toujours bien le mécanisme de base de beaucoup de modèles de résolution de problème et elle a contribué à l'abandon de l'approche stimulus - réponse qui n'arrivait pas à fournir un modèle d'activité composée toute simple, comme celle d'enfoncer un clou avec un marteau. Les concepts importants à retenir sont ceux de la décomposition de buts et de l'application systématique d'opérateurs pour les poursuivre.

Ces concepts nous conduisent aux idées-clefs de la modélisation en intelligence artificielle chez Herbert Simon et Allan Newell (cf. Newell 72), des pionniers dans le domaine de la résolution de problèmes:

(1) "Intelligence is not a matter of substance - whether protoplasm or glass or wire - but of the forms that substances take and the processes it undergoes" (Simon 81:14). (2) "Intelligent systems exhibit this intelligence by achieving goals [...] in the face of different and changing environments" (Simon 81:15). (3) "The task of empirical science is to discover and verify invariants in the phenomenon under study."

Voici tout un programme de recherche. Nous avons déjà rencontré les deux premiers postulats sous une forme ou sous une autre. Ils affirment qu'il est important de déterminer quelles caractéristiques un système intelligent doit posséder afin de s'adapter, d'apprendre et d'évoluer. Au risque de nous répéter, nous reprenons quelques idées déjà rencontrées chez Simon (81:16-18): pour lui, un système intelligent est symbolique - soit biologique, soit artificiel. Cette intelligence se manifeste par la capacité de symboliser des situations et des événements internes et externes et par la capacité de les manipuler. Les êtres humains (à l'exception de leurs sous-systèmes perceptifs) semblent fonctionner de façon sérielle ou en temps partagé (angl. time-sharing), c'est-à-dire ils font une chose après l'autre. Simon prétend aussi que le taux d'interaction entre composantes (et entre processus) est très petit par rapport aux interactions intra-composantes (et propre à un processus). Ici nous retrouvons les unités TOTE généralisées. Les systèmes ayant cette propriété sont appelés quasi-décomposables (angl. "nearly-decomposable"). Comme Simon (81:18) l'indique:

"Intelligent systems will necessarily be symbol systems, their high frequency components will be serial in operation with attentional focus, and the more complex systems will be hierarchic and nearly decomposable".

Les environnements de Simon et de Newell sont des environnements à problèmes (angl. "problem-environments"). Ces environnements (contrairement à ceux de la théorie de la décision) n'offrent pas un chemin facile conduisant vers la solution. Souvent, les environnements de problèmes contiennent un grand nombre d'alternatives dont seule une fraction très réduite pourrait satisfaire les exigences des buts. Ainsi, résoudre un problème revient à effectuer une recherche (angl. "search"), plus précisement, à explorer un arbre de solutions. Le problème majeur de cette "recherche" est de savoir opérer d'une façon intelligente dans un espace de grande complexité. Pire, il est souvent impossible d'essayer - au hasard - dans cet espace toutes les opérations mentales dont on est capable. Cette recherche doit être conduite et optimisée à l'aide d'heuristiques. Ce savoir-faire heuristique permet à un système intelligent d'opérer grâce à deux mécanismes de base: " [...] by (1) using information stored in memory to choose more promising over less promising paths, and (2) extracting from the problem environment new information about regularities in its structure that can similarly guide the search" (Simon 81:19). Il est clair que cette capacité heuristique n'est pas la seule qui différencie les systèmes intelligents des autres. Les capacités d'apprentissage et d'évolution sont d'autres caractéristiques qui s'y ajoutent, bien qu'on les retrouve dans presque tout les autres systèmes.

L'image simonienne et newellienne des systèmes intelligents ne couvre évidemment qu'un aspect particulier, et il faut se méfier de toute généralisation. En outre, au niveau de la modélisation du comportement humain, cette tradition de recherche met l'accent sur la résolution de problèmes qu'on arrive facilement à formaliser, tels que des puzzles "cryptoarithmétiques". La critique que nous adressons au choix de ce type de problème est qu'ils sont peut-être assez difficiles d'un point de vue "computationnel", mais leur description peut se faire à l'aide de quelques symboles seulement. Autrement dit, un tel système de résolution de problème n'opère pas vraiment dans le type d'environnement auquel les décideurs font face dans la vie de tous les jours. Regardons l'exemple très connu d'une personne qui fréquente un restaurant. Pour pouvoir s'orienter, il lui faut moins de capacités de recherche heuristique, que "simplement" une connaissance approfondie de ce type d'institution et des activités qui s'y rattachent. Par exemple, on sait qu'on va dans un restaurant pour manger, qu'il faut choisir dans une carte ce que l'on désire manger (au moins dans un restaurant standard) et que l'on doit payer avant de sortir. Ce savoir existe dans notre mémoire en forme de schéma et il n'est pas nécessaire de le construire juste pour cette occasion. Aller manger dans un restaurant ne pose donc pas un problème au sens de Newell et Simon.

Ainsi pour étudier les activités humaines de résolution de problème, il faut s'intéresser également de près au sujet de la représentation du savoir. Il faut étudier (et modéliser) comment le savoir sur le monde est mémorisé et comment il est interconnecté. En d'autres termes, la complexité ne se définit pas uniquement en termes de complexité de la recherche (heuristique), mais aussi en termes de variété et de complexité de l'information à laquelle le décideur a accès. Voilà pourquoi nous devons nous intéresser également de près à la question de représentation, dont certains disent qu'elle est plus importante que celle du savoir heuristique de "recherche" d'une solution.

Il convient ici d'ajouter une remarque sur le statut épistémologique de la notion de plan. Dans la psychologie de l'information "classique" à la Newell et Simon, le plan est une structure cognitive qui génère l'action. Certains critiques comme Suchman (87) qui ont observé les individus dans un contexte naturel mettent en cause la prépondérance de ce type de planification. Le plan devient une structure cognitive qui est créé a posteriori pour décrire, comprendre ou réparer une action, qui elle, est engendrée par des mécanismes beaucoup plus "opportunistes". Une autre école de pensée plus analytique comprend le plan comme une propriété de l'observation permettant de dégager des invariants de l'action. Dans ce sens, le plan aura une réalité sociale (au sens du "monde 3" de Popper 84), mais pas psychologique. Nous discuterons plus en détail le statut épistémologique de ces structures cognitives dans la section 7-1 "Les bases épistémologiques de l'intelligence artificielle" [p. 274].


THESE présentée par Daniel Schneider - 19 OCT 94

Generated with WebMaker