ebook img

Alcances y Limitaciones del Modelado de las Imperfecciones del Razonamiento de Sentido ... PDF

24 Pages·2008·0.79 MB·Spanish
by  
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview Alcances y Limitaciones del Modelado de las Imperfecciones del Razonamiento de Sentido ...

Wílmer Efrén Pereira González A L LCANCES Y IMITACIONES DEL M I ODELADO DE LAS MPERFECCIONES R S DEL AZONAMIENTO DE ENTIDO C L N S OMÚN CON ÓGICAS O TANDARD Resumen El objetivo de este artículo es mostrar el potencial que tiene la lógica para modelar el razonamiento de sentido común, enriqueciendo la lógica clásica con estrategias usadas en el área de Inteligencia Artificial. Se analizan las distintas imperfecciones del conocimiento: imprecisión, incertidumbre e incompletitud o ignorancia y cómo se modelan bajo un enfoque híbrido sobre una lógica modal extendida. La estructuración del documento es progresiva, mostrando las debilidades de la lógica clásica, cómo se palian con técnicas extraídas de subáreas de la Inteligencia Artificial (lógica difusa, lógicas no monotónicas, lógica posibilista, etc) y dejando claramente indicada las ventajas e inconvenientes del enfoque propuesto. Palabras claves: Inteligencia artificial, razonamiento de sentido común, cálculo de probabilidades, lógica modal, lógicas no monotónicas, teoría de Dempster-Shafer, lógica difusa, lógica posibilista. AbstRAct The purpose of this article is to show the potential logic has for modeling the reasoning of common sense, thus enriching classical logic with new strategies based on Artificial Intelligence. The different imperfections of knowledge are analyzed: imprecision, incertitude and ignorance and how these are modeled under the view of a modal extended logic. Key words: Artificial intelligence, reasoning of common sense, probabilities, modal logic, non monotonic logic, Dempster-Shafer’s theory, fuzzy logic,posibilistic logic. 58 Cuadernos UCAB 1. Introducción La búsqueda de mecanismos lógicos que emulen el comportamiento humano es un deseo con larga trayectoria en el desarrollo del conocimiento. Desde Aristóteles con la formalización de los silogismos, se establecieron las bases de poderosos mecanismos sintácticos para modelar el razonamiento humano. Esto generó, en cierta medida, una corriente materialista que explica el razonamiento desde un punto de vista operacional, aunque quizás nunca haya sido la ambición de Aristóteles. Sin embargo, aún durante el auge de la lógica de primer orden, a comienzos del siglo XX, muy pronto aparecieron las limitaciones para modelar el razonamiento tal como lo expresan los humanos. De hecho en la década de los años 30, se determinó el alcance de todo sistema formal con el famoso teorema de incompletitud de Gödel. En base a las múltiples objeciones sobre la amplitud de este teorema, aquí se presenta una discusión crítica de los alcances de la Inteligencia Artificial, así como algunos de sus logros y fracasos en el ámbito de la utilización de la lógica para modelar razonamiento de sentido común. En este ensayo, esperamos mostrar cómo modelar las imperfecciones del conocimiento mediante la lógica y sus extensiones fijando el camino que, a nuestro juicio, se debe seguir. Las nuevas propuestas en lógicas no estándar continúan y aún queda mucho por decir sobre las enormes posibilidades de los enfoques lógicos en la Inteligencia Artificial, a pesar de los innumerables detractores. El anhelo de automatización del razonamiento humano data de antes de la aparición de la Inteligencia Artificial como área científica. Aunque este término no es utilizado a comienzos del siglo XX, hay atisbos de esa búsqueda en los trabajos de Alain Turing con el famoso 59 Lógica argumento del test de Turing. Esta prueba permitiría, según su autor, demostrar la inteligencia de un autómata, la cual es demostrada si este es capaz de mantener una conversación con un humano sin que el mismo pueda darse cuenta de que está hablando con una máquina. Este desafío supone que la simulación de inteligencia en el autómata podría catalogarse de verdadera inteligencia. De hecho, en filosofía se enmarcan esta tesis dentro de la hipótesis de la Inteligencia Artificial Débil, la cual afirma que es posible que las máquinas actúen inteligentemente por simulación. En contraposición está la hipótesis de la Inteligencia Artificial Fuerte que cuestiona el hecho de que las máquinas piensen realmente si el mecanismo es simulado ya que no es suficiente para catalogarse de inteligencia en el más amplio sentido. Es claro que estas preguntas no son un tema central para los investigadores en Inteligencia Artificial pues el comportamiento práctico, evidentemente simulado, tiene el potencial para asegurar, desde cierto punto de vista, que hay inteligencia (1). Es evidente que el poder expresivo de la lógica simbólica para la automatización del razonamiento humano, debe ser afectado por las conclusiones de los trabajos de Gödel con su famoso teorema de incompletitud. El teorema postula una limitación para los sistemas formales que incluyen la aritmética. Es decir, la inferencia deductiva está sujeta a estas limitaciones. Sin embargo ¿Qué sucede con los razonamientos inductivos? Parecen estar fuera del ámbito del teorema de Gödel ... Bajo esta premisa se puede asegurar que tener métodos formales inductivos permite sobrepasar las limitaciones de la lógica clásica y poder acercarnos a un modelo del razonamiento del sentido común. Por tanto el paso siguiente es relajar las condiciones del razonamiento deductivo o analítico en la lógica clásica, para poder razonar inductivamente. Esto permitiría un cuerpo de conocimientos dinámico. Así el sistema formal podría modificarse continuamente, aunque no necesariamente de manera acumulativa, ya que pueden haber teoremas que se incluyen mientras que otros puedan ser excluidos. En consecuencia, podríamos tener una base de conocimientos que “aprende” adoptando lo que considera cierto y desechando lo que deja de tener validez. En este ámbito de ideas, la lógica clásica tiene la propiedad de monotonía que establece que la validez de cada teorema 1 RuSSEL S. & NoRvIg P. 2004 (2), Inteligencia Artificial: Un Enfoque Moderno, Pearson Prentice Hall. 60 Cuadernos UCAB es incuestionable, independientemente de la llegada de nuevo conocimiento. En caso de que nuevo conocimiento desvirtúe un teorema ya establecido, generando una contradicción, se supone que ese nuevo conocimiento es falso por lo que no puede ser incluido de la base de conocimiento (2). De hecho, el razonamiento deductivo se fundamenta en el hecho de que es posible deducir todo el conocimiento válido pues los teoremas, en cierta medida, condensan todo lo que es inferible. De esto se deduce que la monotonía impide tener inferencia inductiva en la lógica clásica. Así para poder emular aprendizaje en un sistema formal, este debe ser no monótono (3). La base de conocimiento debe inicialmente ser ignorante sobre algunos hechos que aprenderá a posteriori. Lo aprendido puede ser incorrecto pero al igual que el razonamiento humano cuando asume hechos falsos, estos eventualmente pueden eliminarse o modificarse para preservar la consistencia del sistema. Es así como gracias a John McCarthy, uno de los fundadores del área de Inteligencia Artificial, se presentaron en 1980 un grupo de artículos en la revista Artificial Intelligence(4), que constituyeron el punto de partida de una subárea en Inteligencia Artificial conocida como razonamiento de sentido común mediante lógicas no monotónicas. A partir de 1980, se desarrollaron varios sistemas formales como: default logic, autoepistemic logic, circumscription etc; que son lógicas no estándar para modelar el razonamiento de sentido común. Por ejemplo la lógica por defectos (default logic) modela información bajo la suposición de que todo conocimiento establecido da cabida a excepciones. Estos formalismos “aprenden” dado el dinamismo con que manejan las bases de conocimiento (5). 2 BESNARD P. 1989, Logiques Formelles et Raisonement de Bons Sens, Annales Télécommunica- tions 44, N. 5-6. 3 SomBE L. 1988, Raisonements sur des Informations Incompletes en Intelligence Artificielle, Re- vue d’Intelligence Artificielle, vol. 2, N. 3-4. 4 Estos artículos son: mccARTHy J. 1980, Circumscription: A Form of Non-Monotonic Reasoning, Artificial Intelligence, vol. 13, pp. 89-116; mcDERmoTT D. & DoyLE J. 1980, Non-Monotonic Logic I, Artificial Intelligence, vol. 13, pp. 41-72 y Reiter R. 1980, A Logic for Default Reasoning, Artificial Intelligence, vol. 13, pp. 81-132. 5 cf. TuRNER R. 1984, Logiques pour l’Intelligence Artificiel, mASSoN y PEREIRA W. 1992, Une Logique Modale pour le Raisonnement dans l’Incertain, Tesis Doctoral, Rennes, Francia, Institut de Recherche en Automatique et Systemes Aléatoires (IRISA), universidad de Rennes I. 61 Lógica 1.1. Imperfecciones del Conocimiento Por lo expuesto anteriormente la no monotonía está relacionada con la falta de conocimiento de un sistema en fase de aprendizaje. Sin embargo, es claro que las imperfecciones del razonamiento no sólo tienen que ver con la ignorancia asociada a información incompleta o simplemente inaccesible. Otra causa determinante es la imprecisión que es una imperfección intrínseca a la información (6). Supongamos un agente lógico basado en un mecanismo formal en construcción ... la imprecisión se refleja en el carácter vago propio de la información. Por ejemplo, decir que Gandhi era más o menos bajo es una imperfección intrínseca y atribuible a la propia sentencia. Es decir el grado de imperfección de la frase es independiente del grado de confianza que otorgue el agente. Así aunque el agente esté plenamente seguro de lo que dice existe un grado de imperfección en la frase (7). La lógica difusa es la herramienta formal más conocida para representar este tipo de imperfección del conocimiento. Se basa en la teoría de conjuntos difusos que permite definir una lógica multivaluada donde los valores de verdad pueden estar entre verdadero y falso (8). Como se mencionó antes, la ignorancia o incompletitud proviene de la falta de información para describir el problema. Por ejemplo, la frase la mayoría de las aves vuelan caracteriza un comportamiento que cumplen las aves hasta donde tiene conocimiento el agente que realiza la aseveración. Es decir, deja abierta la posibilidad de que efectivamente existan aves que no vuelen y que el agente aún no conoce. En realidad se permite la ignorancia sobre un tema específico la cual puede ser resuelta a largo o mediano plazo (9). La ignorancia se puede modelar de manera cualitativa o cuantitativa. Simbólicamente la ignorancia puede expresarse con lógicas no monotónicas que efectivamente permite una base de conocimiento dinámica. Pero también puede modelarse cuantitativamente, con grados de certidumbre sobre cada teorema de la base de conocimiento, la cual se expande a los hechos inferidos. El enfoque más conocido es mediante cálculo de probabilidades donde 6 HAToN J. P. et al. 1991, Le Raisonnement en Intelligence Artificielle, InterEditions. 7 PEREIRA W. 1992, Une Logique Modale pour le Raisonnement dans l’Incertain, Tesis Doctoral, Rennes, Francia, Institut de Recherche en Automatique et Systemes Aléatoires (IRISA), universidad de Rennes. 8 ZADEH L. A Theory of Approximate Reasoning, J. Hayes, D. michie and L. michalski eds, machine Intelligence 9, Wiley New york, pp. 149-194. 9 PEREIRA W. 1992, Une Logique Modale pour le Raisonnement dans l’Incertain, Tesis Doctoral, Rennes, Francia, Institut de Recherche en Automatique et Systemes Aléatoires (IRISA), universidad de Rennes. 62 Cuadernos UCAB cada valor (entre 0 y 1) asignado a los teoremas representan los grados de confianza que le asigna un agente al conocimiento. También se usa la Teoría Bayesiana con diversas variantes. Desafortunadamente el cálculo de probabilidades tiene ciertas características que impiden que la base de conocimiento evolucione adecuadamente con los grados de certidumbre (10). Es por ello que existen enfoques más flexibles que serán presentados más adelante en este mismo artículo. En consecuencia, en muchos casos la información, o bien, puede ser parcialmente conocida (no se dispone de todos los datos necesarios para tener totalmente enmarcado el problema), o bien, puede tener imprecisiones (atribuibles al propio conocimiento). Es evidente que en un problema complejo, un buen modelo debe fijar un compromiso entre evitar todo exceso de precisión (a riesgo de ser arbitrario) o de imprecisión (a riesgo de ser poco informativo). Esta aseveración va de la mano con principios básicos del método científico ya que después del descubrimiento del principio de Heisenberg, la imprecisión irreductible es un fenómeno familiar para cualquier científico. Por ello, tomar en cuenta la imprecisión asociada a las capacidades limitadas del entendimiento humano, no excluye la presencia de rigor científico. En ese caso, no resulta paradójico, considerar sistemas formales que manejen este tipo de imperfecciones sin perder la objetividad y generalidad del método científico. Este punto de vista es avalado por un comentario atribuido a Lofti Zadeh, autor de la lógica difusa, quien asegura: “a medida que la complejidad de un sistema aumenta, nuestra aptitud para formular afirmaciones precisas y significativas sobre su comportamiento disminuye, hasta un umbral donde la precisión y el sentido pasan a ser mutuamente exclusivos”. Estos argumentos también son presentados en otros libros (11), de una manera más general en donde las imperfecciones de conocimientos pueden clasificarse en tres tipos, a saber: la imprecisión, la incertidumbre y la ignorancia o incompletitud. En estos trabajos, la incertidumbre tiene que ver con el conocimiento parcial que tiene el agente sobre cierta aseveración y que se refleja en grados de confianza. Así la frase estoy casi seguro que Ghandi medía 1m60 expresa una frase precisa pero el agente no tiene suficiente información para aseverar la frase. Como se mencionó antes, hay una fuerte relación entre la incertidumbre y la 10 HAToN J. P. et al. 1991, Le Raisonnement en Intelligence Artificielle, InterEditions. 11 Projet DRumS. 1989, Defeasible Reasoning and Uncertainty Management Systems, Technical Annex for Esprit Basic Research Action 3085 y PEREIRA W. 1992, Une Logique Modale pour le Raisonnement dans l’Incertain, Tesis Doctoral, Rennes, Francia, Institut de Recherche en Automa- tique et Systemes Aléatoires (IRISA), universidad de Rennes. 63 Lógica incompletitud pues muchas veces los grados de confianza que asigna un agente a la información, son determinados por los distintos niveles de ignorancia que el agente tiene sobre el tema. Más aún se pueden tener aseveraciones que sean simultáneamente inciertas e imprecisas, por ejemplo: estoy casi seguro que Ghandi era más o menos bajo. Esta frase se podría traducir en otros términos como la probabilidad o grado de certidumbre de que Ghandi era más o menos bajo, es de 0.9. Finalmente las imperfecciones en la información se pueden presentan al momento de modelar ciertas bases de conocimiento. En particular aquellas donde tener toda la información completa y precisa requiere de tal esfuerzo que desborda las restricciones de tiempo disponible para desarrollar esa base de conocimiento. También puede ocurrir en datos que no pueden ser más precisos pues no se dispone en lo inmediato de toda la información necesaria. Esto ocurre, por ejemplo, al modelar una taxonomía de animales prehistóricos donde la clasificación de animales no es precisa dado el conocimiento actual(12). 1.2. Lógicas no Clásicas Partiendo de que las imperfecciones del conocimiento provienen básicamente de la ignorancia y la imprecisión, existen modelos formales que atacan estos problemas. Algunos sólo tratan la incertidumbre como es el caso del cálculo de probabilidades o la teoría bayesiana mientras que otros formalismos consideran ambas imperfecciones como es el caso de la lógica difusa. Por otro lado, simbólicamente, se puede considerar la ignorancia gracias a las lógicas no monotónicas. Teniendo como base la lógica clásica, están los sistemas formales que la extienden y aquellos que la modifican substancialmente. La lógica modal, por ejemplo, puede considerarse una extensión de la lógica clásica mientras que la lógica intuicionista rechaza ciertos lineamientos clásicos proponiendo un mecanismo de inferencia reducido. En efecto, desde los inicios del cálculo proposicional, existían matemáticos que cuestionaban métodos muy conocidos para pruebas de teoremas. Entre ellos la estrategia de reducción al absurdo porque demuestra la existencia sin efectivamente mostrar el elemento que cumple la propiedad. Ante ello, el intuicionismo postuló una lógica constructiva 12 PEREIRA W. 1994, A Logic for Treatment of Uncertainty and Incompleteness, caracas, Iv Ibero- american congress on Artificial Intelligence (IBERAmIA94). 64 Cuadernos UCAB que rechaza, en las demostraciones, el uso de la reducción al absurdo por ser no constructivo (13). En un primer momento abordaremos los enfoques simbólicos entre los que se encuentran la lógica modal y las lógicas no monotónicas que serán importantes en la presentación de nuestra propuesta. Seguidamente los enfoque numéricos ... 1.2.1. Enfoques Simbólicos Procesar información simbólicamente tiene, a priori, ventajas con respecto a los enfoques numéricos o cuantitativos. La asignación de grados de certidumbre a las premisas es inaccesible a partir de las conclusiones lo que genera una incapacidad de explicación. Esto proviene del hecho que los números pueden estar ligados a un contexto de reglas de inferencia y premisas de diversas maneras, con diferentes semánticas. Sin embargo, no se puede negar que los grados de certidumbre tienen una gran capacidad de síntesis y se adaptan a múltiples formalismos para procesamiento de información derivados de las probabilidades, estadística, investigación de operaciones, etc. Una vez que mostremos enfoques simbólicos y numéricos, se presentarán algunas propuestas híbridas que pretenden resolver los problemas que afectan a cada paradigma. Por un lado, se tiene a la lógica modal que es una extensión de la lógica clásica que introduce dos conceptos duales denotados como □ y ◊ donde □ a = ¬ ◊ ¬ a (1) def La sintaxis de la lógica modal proposicional expande la lógica proposicional con los operadores modales, un axioma K y la regla de inferencia de necesidad (14). A partir de allí se construyen lógicas modales con ciertas propiedades agregando axiomas como T el cual se representa así: □X → X (2) 13 TuRNER R. 1984, Logiques pour l’Intelligence Artificiel, masson. 14 cHELLAS B. 1980, Modal Logic: An Introduction, cambridge university Press, pp. 3-64. 65 Lógica La semántica sigue los lineamientos de teoría de mundos posibles construyendo subconjuntos consistentes de fórmulas que se relacionan entre ellos por la relación de accesibilidad. Ciertos axiomas bien conocidos, cuando se incluyen al sistema axiomático, determinan propiedades que cumple la relación de accesibilidad. Por ejemplo el axioma T predetermina que la relación entre los mundos es reflexiva. Por otro lado, cuando se tiene una base de conocimiento que evoluciona, la propiedad de monotonía de las lógicas clásicas debe ser suprimida o debilitada. La relación de inferencia puede continuar siendo reflexiva pero se debilita tanto la transitividad como la monotonía (15). Bajo estas condiciones, conclusiones establecidas anteriormente pueden invalidarse y más aún se pueden obtener diferentes conjuntos de conclusiones consistentes e incompatibles entre ellos. Uno de los formalismos más conocidos es la lógica de defectos (16) que define reglas de inferencia específicas que tienen la siguiente forma: a : b (3) γ donde a es el prerequisito, b la justificación y γ la consecuencia. Semánticamente un defecto se interpreta como: si a es conocido y b es coherente con lo conocido entonces inferir γ. La teoría de defectos está definida como la tupla ∇= (W,D) donde W son un conjunto de fórmulas iniciales y D el conjuntos de defectos. La utilización de defectos aumenta W para obtener extensiones que son conjuntos de teoremas derivados de modo no monótono. Así una extensión de ∇ es un conjunto de fórmulas, cerrado para la deducción, que contiene a W y cumple que: si d es un defecto de D y el prerequisito está en E sin que la negación de la justificación esté en E, entonces la consecuencia de d está en E. 1.2.2. Enfoques Numéricos El cálculo de probabilidades es el primer enfoque a considerar cuando se modela incertidumbre. Es sencillo, con sólidas bases teóricas y muy intuitivo al procesar conocimiento incierto. No obstante presenta ciertas debilidades cuando la base de conocimiento evoluciona ante la llegada de nuevo conocimiento. En particular existen tres razones 15 gARDENFoRS P. & mAkINSoN D. 1990, Relations Between the Logic of Theory Change and Non-Monotonic Logic, Albi, Workshop DRumS. 16 REITER R. 1980, A Logic for Default Reasoning, Artificial Intelligence, vol. 13, pp. 81-132. 66 Cuadernos UCAB

Description:
Key words: Artificial intelligence, reasoning of common sense, probabilities, modal logic, non monotonic logic, Dempster-Shafer's theory, fuzzy logic
See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.