[Next] [Previous] [Up] [Top]

chapitre 7 Epistémologie et méthodes de la modélisation IA

7-1.5 Le statut épistémologique de l' IA appliquée à la science politique


La majorité des critiques adressées à l'IA fondamentale ou encore à ses variantes pratiques sont probablement fondées. Elles mettent surtout en cause une certaine IA fondamentale, celle qui repose sur l'équation "cognition = computation". Nous ne savons pas comment l'IA peut et va ajuster ses programmes de recherche. La réponse la plus simple aux critiques formulés, est que ces critiques ne proposent aucune alternative. Une autre réponse est de réorienter les programmes de recherche pour éliminer les points faibles (comme la nouvelle robotique par exemple).

Le modéliseur en science politique s'oriente autour des IA "faibles" et pratiques. Le "knowledge level" de Newell est en principe un bon niveau d'analyse. Toutefois, au lieu d'ancrer le statut épistémologique des connaissances dans la métaphore du système symbolique physique comme chez Newell, il est préférable de l'ancrer socialement. Le "social knowledge level" fait référence aux connaissances communicables que l'on peut attribuer à un acteur social en fonction de ce que l'on sait sur lui et sur son rôle et de ce que l'on sait sur les capacités humaines, sociales et politiques à résoudre une certaine classe de problèmes. Toutefois, la critique contre les IA fondamentales touche aussi ce type de modélisation plus "prudent" et plus analytique. Le problème de la modélisation de l'apprentissage, le "frame problem", la "ungraceful degradation", etc. résultent des problèmes fondamentaux de l'IA symbolique. Il reste suffisamment d'éléments qui militent en faveur de la modélisation à l'aide des techniques de l'IA symbolique. Les autres approches souffrent de problèmes similaires (apprentissage, adaptation, etc.) et elles n'offrent pas d'alternatives intéressantes au plan épistémologique. Par contre, toutes ces critiques, nous forcent à être clairs sur le statut épistémologique des modèles IA en science politique. A cause de leur statut différent, ces modèles échappent à la plupart des critiques à l'égard de l'IA. Voici la réponse aux critiques les plus importantes discutées ci-dessus:

  1. le "symbol grounding problem": un modèle IA n'a pas besoin de sens inné puisqu'il est interprété par un humain (le chercheur ou toute autre personne intéressée). Les modèles doivent et peuvent être ancrés socialement. Le modéliseur, en coopération avec les experts et utilisateurs doit veiller à ce qu'on puisse attribuer une signification commune aux représentations syntaxiques du modèle.

  2. La faible capacité d'adaptation et d'apprentissage: Un modèle représente avant tout un code "de signification sociale", valable dans un certain contexte social. L'apprentissage est un problème intéressant, mais il n'est pas primordial dans l'état actuel de la recherche. "Représentation" implique "inférence". Donc, malgré ses limites, un modèle IA n'est pas une description statique d'un phénomène, mais l'encodage d'un système intentionnel à capacité de décision (fondé sur les observations de sa performance). Il s'agit ici d'un grand progrès par rapport aux monographies statiques ou par rapport aux modèles plus rigoureux qui étudient des phénomènes isolées.

  3. Les problèmes de robustesse: On serait peut-être tenté de se réorienter vers le connexionisme. A notre avis, un système symbolique possède un avantage majeur par rapport à un système connexioniste: Un modèle doit être symbolique et inspectable, sinon sa fonction scientifique sera limitée. Les composantes du modèle, ainsi que son fonctionnement doivent être facilement accessibles par les collègues du modéliseur. C'est le cas en ce qui concerne les modélisations symbolique des systèmes à bases de connaissances, mais pas en ce qui concerne un système connexioniste d'une certaine complexité.

Il est intéressant que Clancey (93) veuille réorienter le génie cognitif (angl.: "knowledge engineering") dans le même sens. Il utilise le terme de "social grounding" pour valider un système expert. En effet, au centre du débat ne se trouve plus le transfert des connaissances de l'expert vers un système informatique, mais une construction commune entre expert, cognicien et utilisateur d'un outil de gestion de connaissances où la signification des connaissances du système sera négociée par les participants*1. Les modèles IA en science politique peuvent s'inspirer de cette réorientation. Le modèle devient le lieu, où observations empiriques et questions théoriques se discutent et se construisent en collaboration entre les chercheurs impliqués dans le projet, d'autres chercheurs et, si possible, les sujets étudiés.


THESE présentée par Daniel Schneider - 19 OCT 94

Generated with WebMaker