Il est clair que beaucoup de textes ne traitent pas de situations stéréotypées. Notre discussion du chapitre 6 l'a illustré déjà que certains textes sont en effet mieux analysés en termes de buts et plans. Schank et Abelson (77:11 ff) proposent également un formalisme pour représenter notre savoir sur les buts et plans. Il distinguent tout d'abord sept types de buts:
Outre cette liste de buts, (qui est par ailleurs est précisée en forme de listes de buts plus concrèts), les auteurs donnent aussi une onthologie des rapports entre ces types de buts. Par exemple les C-buts sont prioritaires et les E-buts ont lieu en l'absence de S-buts et P-buts.
Figure 6.1: Les processus d'explication dans PAM
Les soustypes de buts se caractérisent entre autre par les sousbuts instrumentaux et les plans y attachés. Un but comme D-KNOW qui veut dire "savoir quelque chose" "sait" par exemple qu'un possible plan à son achèvement est demander cette chose à quelqu'un. Un but comme "aller de A à B" doit inclure le but qu'il faut savoir comment y aller. Souvent un plan n'est rien d'autre qu'un petit script qui contient les actions à effectuer, parfois il contient d'autres plans et sousbuts. Outre buts et plans, le théorie connait aussi les thèmes. Un thème est une structure de savoir qui nous donne l'information "background" à la fois pour expliquer le fait qu'un individu poursuit un but, et pour faire des prédictions sur la poursuite d'autres buts. Par exemple le but de vouloir passer une loi, fait partie du thème légifération qui, elle, contient le but d'"implémenter" la loi. Certaines de ces idées ont été testées avec le programme d'ordinateur PAM (cf. Wilensky in Schank 81). Ce programme possède comme SAM un analyseur sémantique séparé qui lui passe les phrases du texte en forme de DC. En premier lieu, SAM essaye de voir si la DC confirme une prédiction. Si non, il essaye de générer des inférences qui seront testées à leur tour comme un nouveau input, ou encore comme prédictions à être testées par un nouveau input. La figure 21 ("les processus d'explication dans PAM") contient en forme simplifiée (cf. Schank 81:147) les pas qu'effectue le programme pour trouver une explication pour un événement, c'est-à-dire une DC. Comme la figure le montre implicitement, le programme a une mémoire hierarchique sur les relations entre thèmes, buts, plans et événements, qu'elle utilise pour tester la signification d'une DC. Si une prédiction est confirmée par un input ou par une inférence, le programme intègre l'input et les inférences en question dans une représentation du récit causale qui est une version formalisée plus complexe de celle qu'on a présenté dans la sectionn 7.3. Pendant ce processus quelques inférences supplémentaires peuvent être effectuées. Cette petite description montre un peu mieux que le modèle de DeBeaugrande comment il faut s'attaquer au problèmes de résolution de problème dans un vrai modèle AI. Ce qui ressortait peut-être moins de la discussion est l'importance du travail empirique qui consiste en grande partie à définir cette structure complexe de savoir dont en dispose pour comprendre les mécanimes de résolution de problème dans le mode "réel".