Logical Theories for Agent Introspection

    Research output: Book/ReportPh.D. thesis

    229 Downloads (Pure)

    Abstract

    Artificial intelligence systems (agents) generally have models of the environments they inhabit which they use for representing facts, for reasoning about these facts and for planning actions. Much intelligent behaviour seems to involve an ability to model not only one's external environment but also oneself and one's own reasoning. We would therefore wish to be able to construct artificial intelligence systems having such abilities. We call these abilities introspective. In the attempt to construct agents with introspective abilities, a number of theoretical problems is encountered. In particular, problems related to self-reference make it difficult to avoid the possibility of such agents performing self-contradictory reasoning. It is the aim of this thesis to demonstrate how we can construct agents with introspective abilities, while at the same time circumventing the problems imposed by self-reference. In the standard approach taken in artificial intelligence, the model that an agent has of its environment is represented as a set of beliefs. These beliefs are expressed as logical formulas within a formal, logical theory. When the logical theory is expressive enough to allow introspective reasoning, the presence of self-reference causes the theory to be prone to inconsistency. The challenge therefore becomes to construct logical theories supporting introspective reasoning while at the same time ensuring that consistency is retained. In the thesis, we meet this challenge by devising several such logical theories which we prove to be consistent. These theories are all based on first-order predicate logic. To prove our consistency results, we develop a general mathematical framework, suitable for proving a large number of consistency results concerning logical theories involving various kinds of reflection. The principal idea of the framework is to relate self-reference and other problems involved in introspection to properties of certain kinds of graphs. These are graphs representing the semantical dependencies among the logical sentences. The framework is mainly inspired by developments within semantics for logic programming within computational logic and formal theories of truth within philosophical logic. The thesis provides a number of examples showing how the developed theories can be used as reasoning frameworks for agents with introspective abilities. In Danish: Intelligente systemer (agenter) er generelt udstyret med en model af de omgivelser de befinder sig i. De bruger denne model til at repræsentere egenskaber ved omgivelserne, til at ræssonere omkring disse egenskaber og til at planlægge handlinger. En overvejende del af det vi sædvanligvis opfatter som intelligent handlemåde synes at involvere en evne til ikke kun at modellere ens ydre omgivelser, men også at modellere sig selv og ens egen ræssonering. Vi ønsker derfor at være i stand til at konstruere intelligente systemer som har sådanne evner. Disse evner kaldes introspektive. I forsøget på at konstruere agenter med introspektive evner støder man på en del problemer af teoretisk natur. I særdeleshed støder man på problemer relateret til selvreference, som gør det vanskeligt at sikre sig mod at s adanne agenter kan foretage selvmodsigende ræssonementer. Målet med denne afhandling er at vise hvordan vi kan konstruere agenter med introspektive evner på en sådan måde at problemerne omkring selvreference omgås. Den model en agent har af sine omgivelser lader man sædvanligvis repræsentere ved en mængde af sætninger, der udtrykker de forestillinger som agenten har om verden. Disse sætninger formuleres indenfor en formel, logisk teori. Hvis denne logiske teori har tilstrækkelig udtrykskraft til at at tillade introspektiv ræssonering, vil tilstedeværelsen af selvreference i de fleste tilfælde forårsage at teorien bliver inkonsistent. Udfordringen kommer derfor til at bestå i at finde måder at konstruere logiske teorier på som understøtter introspektiv ræssonering, men hvor konsistens samtidig er sikret. I afhandlingen imødekommer vi denne udfordring ved at konstruere flere sådanne logiske teorier, som vi beviser at være konsistente. Disse teorier er alle baseret på første-ordens prædikatlogik. I forbindelse med vores konsistensresultater udvikler vi et generelt matematisk værktøj, som kan benyttes til at bevise konsistensen af en lang række logiske teorier involverende forskellige former for re eksion. Den bærende ide i dette værktøj er at relatere selvreference og andre af problemerne involveret i introspektion - til egenskaber ved bestemte typer af grafer. Dette er grafer som repræsenterer de semantiske afhængigheder imellem sætningerne i de pågældende teorier. Værktøjet er inspireret af tilsvarende værktøjer udviklet i forbindelse med semantikker for logik-programmer indenfor datalogisk logik og formelle teorier for sandhed indenfor filosofisk logik. Afhandlingen giver et antal eksempler på hvordan de udviklede teorier kan anvendes som fundament for agenter med introspektive evner.
    Original languageEnglish
    Place of PublicationKgs. Lyngby
    PublisherTechnical University of Denmark
    Number of pages141
    Publication statusPublished - Feb 2004

    Keywords

    • Artificial intelligence
    • Mathematical logic
    • AI logics
    • Knowledge representation
    • Propositional attitudes
    • Syntactical treatments of knowledge
    • Multi-agent systems
    • Introspection
    • Self-reflection
    • Self-reference
    • Paradoxes
    • Consistency
    • Theories of truth
    • Non-wellfoundedness
    • Dependency graphs
    • Logic programming
    • Programming language semantics
    • Fixed points
    • Graph theory

    Fingerprint

    Dive into the research topics of 'Logical Theories for Agent Introspection'. Together they form a unique fingerprint.

    Cite this