[Next] [Previous] [Up] [Top]

chapitre 6 Le décideur, son organisation et son environnement

6-4 La mémoire du décideur et l'apprentissage


Les expériences du passé ont une influence importante sur le décideur. Tout modèle statique diminue sa portée. Ainsi, il faut tenter de modéliser les phénomènes de raisonnement avec le passé, d'adaptation et d'apprentissage. Il s'agit ici d'un problème de recherche difficile, mais nécessaire à moyen terme.

Nous suggérons d'utiliser les méthodes développées dans le cadre des recherches sur l'analyse des événements historiques en relations internationales.

La mémoire du décideur et surtout la mémoire politique collective d'une institution ont une part importante dans la décision. Nous avons déjà mentionné à plusieurs reprises le raisonnement fondé sur les cas*1. Ce type de raisonnement compare une situation actuelle avec une situation du passé et adapte la solution du passé au problème actuel. On peut argumenter que la plupart des situations (y compris les décisions) du passé ont été intégrées dans des connaissances plus synthétiques et plus abstraites. Il s'agit ici de quelques formes d'apprentissage. L'IA offre plusieurs modèles d'apprentissage symboliques et connexionistes *2 qui ont chacun leurs avantages et désavantages. Une discussion de ces approches dépasserait largement le cadre de ce texte. Nous mentionnons juste quelques principes et problèmes majeurs dans la modélisation de l'apprentissage en IA, avant de discuter quelques travaux en science politique.

Le "explanation based learning" (EBL) (De Jong 86) et ses variantes fonctionne selon le principe que les propriétés d'une situation d'action observée sont analysées et ensuite généralisées dans de nouveaux concepts. Dans certains systèmes (par ex. Farag 89), ces nouveaux concepts peuvent par la suite être raffinés et adaptés en fonction d'autres observations. D'autres approches sont plus quantitatives et tentent "simplement" de réduire l'entropie dans un grand jeu de données. On peut citer l'algorithme ID3 (Quinlan 83) par exemple.

En gros, dans un système IA traditionnel (c'est-à-dire fermé) un problème et sa solution sont exprimés selon la logique du "planning" en forme de pré-conditions, post-conditions, opérateurs d'action, etc.. La notion d'apprentissage est à la fois quantitative et qualitative. Au niveau du "knowledge level", on peut dire qu'il y a eu apprentissage quand le système possède plus de connaissances à un moment T2 au'à un moment T1 et que le système sait faire quelque chose à T2 qu'il n'aurait pas su faire en T1. Il est mieux adapté à son environnement grâce à ses capacités d'acquisition de connaissances et ses capacités à réutiliser ces acquisitions. Tout le débat en IA tourne autour de ces concepts d' "acquisition" (stockage et transformation) et d' "utilisation de connaissances". Certaines approches comme le "concept learning" à la "EBL" ou les méthodes "empiriques" du ID3 privilégient l'élément "acquisition", tandis que les approches comme le "Case-Based Reasoning/Learning" privilègent le côté "réutilisation". Pour le moment, le degré de créativité de ces algorithmes d'apprentissage, de réutilisation et d'adaptation n'est pas clair. Le problème principal de l'IA symbolique est son incapacité à modéliser les apprentissages et innovations spectaculaires dont sont capables les acteurs humains. Ces modèles fonctionnent assez bien pour "compiler" ou réutiliser ce que l'acteur a déjà fait et ce qu'il a pu observer*3. Les modèles connexionistes montrent plus de souplesse à apprendre des structures et à les réutiliser de façon souple. Mais le problème reste le même: un manque de créativité; ses algorithmes sont fondamentalement limités par le jeu d'exemples d'apprentissage ainsi que par leur manque de capacité d'abstraction et de restructuration, thèmes fondamentaux dans la psychologie d'apprentissage. Toutefois, malgré ces limitations, la modélisation de l'apprentissage et même de type très "faible" comme le raisonnement analogique sur les cas du passé peuvent apporter quelque chose à la modélisation du décideur politique. Après tout, le problème de la genèse de nouvelles structures est général en sciences politiques et toutes les approches dans ces domaines souffrent de leur incapacité de prédire quelque choses en dehors de conditions ceteris paribus très fortes.

En science politique, les algorithmes d'apprentissage ont été surtout utilisés comme méthodes d'analyses de données qualitatives (événements politiques) dans le domaine des relations internationales. Plusieurs chercheurs ont, vers la fin des années soixante, insisté sur l'importance des événements du passé *4 et c'est Alker (Alker et Christensen 72) qui a rendu populaire le terme de "precedent logics" en relations internationales. La logique des précédents intègre plusieurs facteurs interconnectés pour expliquer les décisions (cf. Mallery 88:38-39):

Il est clair que modéliser des décisions n'est pas tout à fait équivalent à modéliser des décideurs. Toutefois, au plan technique, ces méthodes d'analyse de données historiques utilisées pour prédire l'action de gouvernements et d'institutions en relations internationales sont tout à fait intéressantes pour construire des modèles du décideur et de son environnement. L'encodage des données suit essentiellement deux stratégies: (1) les "vecteurs de caractéristiques" (angl.: "feature vectors") et équivalents mathématiques et (2) les arbres de décision.

Etant donné que les conduites des Etats est la variable dépendante principale des recherches en relations internationales (RI), l'encodage des événements a toujours été une question importante dans cette discipline*5. En règle générale, une base de données d'événements en RI est composée de cas encodés sous forme de listes d'événements. Chaque événement est une liste d'attributs et de valeurs ou en d'autres termes un vecteur de caractéristiques (angl. "feature vector"). Ces listes d'événements peuvent être utilisées par des techniques d'apprentissage par ordinateur pour en abstraire de nouvelles connaissances. Une simulation de l'environnement d'un décideur ou celle d'un système d'acteurs peut produire également ce type de liste d'événements et on peut donc utiliser ces techniques dans le cadre d'une modélisation d'un acteur. Nous allons discuter ici les travaux de Mallery et collègues *6 pour illustrer cette démarche.

Mallery (94) a développé un système avec une interface graphique conviviale, le "Feature Vector Editor" pour encoder et analyser des données d'événements. Il l'a notamment utilisé avec la base de données sur les conflits internationaux et domestiques SHERFACTS (Mallery et Sherman 93). Elle contient environ 700 conflits internationaux et 1000 conflits nationax. Les événements sont encodés dans un modèle hiérarchique, inspiré plus ou moins par la structure de récit *7 d'un conflit: ainsi, on peut distinguer par exemple les phases du conflit (angl. "dispute"), de la "crise", des "hostilités" et de la "résolution" dans un conflit. Ce type de codage groupant les événements peut être utilisé pour faire des prédictions en ce qui concerne par exemple un conflit actuel qui démarre en montrant des caractéristiques similaires. Unseld et Mallery (91) ont implémenté un détecteur inductif d'interactions (angl.: "Induction Interaction Detector" ou "I2D") adapté aux types de données "SHERFACS". Ce programme apprend des arbres de décision en fonction d'une variable dépendante (par exemple "implication d'une superpuissance dans un conflit régional"). Ces arbres peuvent être décortiqués en règles*8. Ces règles feront partie d'une théorie inductive sur un domaine ou encore d'un jeu de résumés de pratiques utilisés pour valider une théorie politique. Le système maintient pour chaque règle des pointeurs aux cas qui ont permis son induction afin de procéder à des analyses plus fines (du type CBR par exemple). Les règles possèdent également un indicateur de "portée" lui donnant indirectement une valeur de probabilité au niveau "local" (cas et extraits de cas utilisés pour la prédiction) et "global" (tous les cas considérés). Une règle décrit une cause possible, c'est-à-dire une "logique d'action" pour expliquer un événement (ou une suite d'événements) par la présence d'autres événements (ou suites d'événements).

Le côté "si" d'une règle peut être interprété comme une structure de précédence précompilée (angl. "precompiled precedent cluster") qui en principe pourrait être utilisé dans une modélisation d'un décideur qui agit en fonction des expériences du passé. Il s'agirait d'une sorte de "model-based reasoning" utilisant des règles abstraites, mais qui sont liées à des cas concrets que l'on pourrait utiliser en cas de nécessité. Il est clair que ce type de modélisation est avant tout descriptif, l'algorithme I2D agrège des descriptions d'événements sous forme de règles <situations> alors <situation>. Les causes d'une action d'un décideur (collectif dans ce cas) ne s'expliquent pas forcement par la pure présence d'un type de situation. Les régularités observées signifient simplement que certains acteurs agissent selon certains critères observables, mais n'expliquent pas pourquoi. Ainsi la validité de ce type d'induction est prédictive, mais pas explicative, et elle s'exerce sur une période de temps (et de logique d'interaction) déterminée.

Toutefois, ce type de recherches est unique. Il est nécessaire pour établir un premier pont entre la science politique quantitative (généralisante, ayant un certain pouvoir de prédiction, mais de pouvoir d'explication faible) et la discipline de l'histoire (faible en capacité de généralisation, mais forte en capacité d'interprétation et d' "explication"). Dans le cadre de la modélisation du décideur et de son environnement, il n'est peut-être pas sûr qu'il faudrait utiliser le même type d'encodage d'événements ni le même algorithme inductif. Après tout, dans une modélisation du décideur on possède également des "données" sur ses activités cognitives internes. Mais le principe est là: il faudrait dans l'avenir modéliser l'expérience de l'acteur, son utilisation et sa capacité d'apprentissage dans un environnement donné. La forme et les techniques de modélisation restent à déterminer.


THESE présentée par Daniel Schneider - 19 OCT 94

Generated with WebMaker