Il est clair que beaucoup de textes ne traitent pas de situations stéréotypées. Notre discussion du chapitre 6 l'a illustré déjà que certains textes sont en effet mieux analysés en termes de buts et plans. Schank et Abelson (77:11 ff) proposent également un formalisme pour représenter notre savoir sur les buts et plans. Il distinguent tout d'abord sept types de buts:
Outre cette liste de buts, (qui est par ailleurs est précisée en forme de listes de buts plus concrèts), les auteurs donnent aussi une onthologie des rapports entre ces types de buts. Par exemple les C-buts sont prioritaires et les E-buts ont lieu en l'absence de S-buts et P-buts.
Figure 6.1: Les processus d'explication dans PAM
Les soustypes de buts se caractérisent entre autre par les
sousbuts instrumentaux et les plans y attachés.
Un but comme D-KNOW qui veut dire "savoir quelque chose"
"sait" par exemple qu'un possible plan à son achèvement est
demander cette chose à quelqu'un.
Un but comme "aller de A à B" doit inclure le but qu'il
faut savoir comment y aller.
Souvent un plan n'est rien d'autre qu'un petit script qui
contient les actions à effectuer, parfois il contient
d'autres plans et sousbuts.
Outre buts et plans, le théorie connait aussi les thèmes.
Un thème est une structure de savoir qui nous donne
l'information "background" à la fois pour expliquer le
fait qu'un
individu poursuit un but, et pour faire des prédictions sur
la poursuite d'autres buts.
Par exemple le but de vouloir passer une loi, fait partie du
thème légifération qui, elle, contient le but
d'"implémenter" la loi.
Certaines de ces idées ont été testées avec le programme
d'ordinateur PAM (cf. Wilensky in Schank 81).
Ce programme possède comme SAM un analyseur sémantique
séparé qui lui passe les phrases du texte en forme de
DC. En premier lieu, SAM
essaye de voir si la DC confirme une prédiction.
Si non, il essaye de générer des inférences qui seront
testées à leur tour comme un nouveau input, ou encore
comme prédictions à être testées par un nouveau input.
La figure 21 ("les processus d'explication dans PAM")
contient en forme simplifiée (cf. Schank 81:147) les pas
qu'effectue le programme pour trouver une explication pour
un événement, c'est-à-dire une DC.
Comme la figure le montre implicitement, le programme a une
mémoire hierarchique sur les relations entre thèmes, buts,
plans et événements, qu'elle utilise pour tester la
signification d'une DC.
Si une prédiction est confirmée par un input ou par une
inférence, le programme intègre l'input et les inférences
en question dans une représentation du récit causale qui
est une version formalisée plus complexe de celle qu'on a
présenté dans la sectionn 7.3.
Pendant ce processus quelques inférences supplémentaires
peuvent être effectuées.
Cette petite description montre un peu mieux que le modèle
de DeBeaugrande comment il faut s'attaquer au problèmes
de résolution de problème dans un
vrai modèle AI.
Ce qui ressortait peut-être moins de la discussion est
l'importance du travail empirique qui consiste en grande
partie à définir cette structure complexe de savoir dont en
dispose pour comprendre les mécanimes de résolution de
problème dans le mode "réel".