[Next] [Previous] [Up] [Top] [Contents] [Index]
7-1 Les bases épistémologiques de l'intelligence artificielle
La majorité des critiques adressées à l'IA fondamentale ou encore à ses variantes pratiques sont probablement fondées. Elles mettent surtout en cause une certaine IA fondamentale, celle qui repose sur l'équation "cognition = computation". Nous ne savons pas comment l'IA peut et va ajuster ses programmes de recherche. La réponse la plus simple aux critiques formulés, est que ces critiques ne proposent aucune alternative. Une autre réponse est de réorienter les programmes de recherche pour éliminer les points faibles (comme la nouvelle robotique par exemple).
Le modéliseur en science politique s'oriente autour des IA "faibles" et pratiques. Le "knowledge level" de Newell est en principe un bon niveau d'analyse. Toutefois, au lieu d'ancrer le statut épistémologique des connaissances dans la métaphore du système symbolique physique comme chez Newell, il est préférable de l'ancrer socialement. Le "social knowledge level" fait référence aux connaissances communicables que l'on peut attribuer à un acteur social en fonction de ce que l'on sait sur lui et sur son rôle et de ce que l'on sait sur les capacités humaines, sociales et politiques à résoudre une certaine classe de problèmes. Toutefois, la critique contre les IA fondamentales touche aussi ce type de modélisation plus "prudent" et plus analytique. Le problème de la modélisation de l'apprentissage, le "frame problem", la "ungraceful degradation", etc. résultent des problèmes fondamentaux de l'IA symbolique. Il reste suffisamment d'éléments qui militent en faveur de la modélisation à l'aide des techniques de l'IA symbolique. Les autres approches souffrent de problèmes similaires (apprentissage, adaptation, etc.) et elles n'offrent pas d'alternatives intéressantes au plan épistémologique. Par contre, toutes ces critiques, nous forcent à être clairs sur le statut épistémologique des modèles IA en science politique. A cause de leur statut différent, ces modèles échappent à la plupart des critiques à l'égard de l'IA. Voici la réponse aux critiques les plus importantes discutées ci-dessus:
Il est intéressant que Clancey (93) veuille réorienter le génie cognitif (angl.: "knowledge engineering") dans le même sens. Il utilise le terme de "social grounding" pour valider un système expert. En effet, au centre du débat ne se trouve plus le transfert des connaissances de l'expert vers un système informatique, mais une construction commune entre expert, cognicien et utilisateur d'un outil de gestion de connaissances où la signification des connaissances du système sera négociée par les participants[118]. Les modèles IA en science politique peuvent s'inspirer de cette réorientation. Le modèle devient le lieu, où observations empiriques et questions théoriques se discutent et se construisent en collaboration entre les chercheurs impliqués dans le projet, d'autres chercheurs et, si possible, les sujets étudiés.
[Next] [Previous] [Up] [Top] [Contents] [Index]
Generated with Harlequin WebMaker