DOI:

https://doi.org/10.14483/2322939X.4667

Publicado:

2013-10-16

Número:

Vol. 10 Núm. 1 (2013)

Sección:

Investigación y Desarrollo

Agente Inteligente Resolvedor de Laberintos (Airla)

Autores/as

  • Nelson Becerra Correa Universidad Distrital Francisco José de Caldas
  • Edgar Altamirano Carmona

Palabras clave:

GAIA, modelamiento, juego de estrategia, Metodologías, Agentes, Sistemas Multiagente, Tiempo Real, Agente Inteligente. (es).

Biografía del autor/a

Nelson Becerra Correa, Universidad Distrital Francisco José de Caldas

Ingeniero de sistemasm

Magíster en Ingeniería de Sistemas de la Universidad Nacional de Colombia

Doctor en Inteligencia Artificial

Docente de la Universidad Distrital Francisco José de Caldas, adscrito a la Facultad Tecnológica

Investigador del Artificial Intelligence Research Institute of Scientific Research Spanish Council (CSIC),Barcelona.

Referencias

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO. Segunda edición. Stuart J. Russell y Peter Norvig. Traducción: ,Juan Manuef Corchzrdo Rodriguez

Jennings, N. Wooldridge, M.:Applications of Intelligent Agents. Queen Mary & Westfield College. University of London

Informe metodología GAIA: “Buscador de talento amigo” Arquitectura de sistemas multi-agentes Universidad Autónoma de Manizales 2008.

Ingeniería de Software Orientada a Agentes; Universidad Pontificia de Salamanca Campus de Madrid.

Uso de la metodología GAIA para modelar el comportamiento de personajes en un juego de estrategia en tiempo real; Fac. Ing. Univ. Antioquia N° 53 pp. 214-224. Junio, 2010.

Estudio de métodos de desarrollo de sistemas multiagente; Vicente J. Julián, Vicente J. Botti Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia

Breve análisis de algunas metodologías e diseño de SMA; Departamento de Ciencia de la Computación e Inteligencia Artificial; Universidad de Alicante 2004

Cómo citar

IEEE

[1]
N. Becerra Correa y E. A. Carmona, «Agente Inteligente Resolvedor de Laberintos (Airla)», Rev. vínculos, vol. 10, n.º 1, pp. 121–129, oct. 2013.

ACM

[1]
Becerra Correa, N. y Carmona, E.A. 2013. Agente Inteligente Resolvedor de Laberintos (Airla). Revista vínculos. 10, 1 (oct. 2013), 121–129. DOI:https://doi.org/10.14483/2322939X.4667.

ACS

(1)
Becerra Correa, N.; Carmona, E. A. Agente Inteligente Resolvedor de Laberintos (Airla). Rev. vínculos 2013, 10, 121-129.

APA

Becerra Correa, N., & Carmona, E. A. (2013). Agente Inteligente Resolvedor de Laberintos (Airla). Revista vínculos, 10(1), 121–129. https://doi.org/10.14483/2322939X.4667

ABNT

BECERRA CORREA, N.; CARMONA, E. A. Agente Inteligente Resolvedor de Laberintos (Airla). Revista vínculos, [S. l.], v. 10, n. 1, p. 121–129, 2013. DOI: 10.14483/2322939X.4667. Disponível em: https://revistas.udistrital.edu.co/index.php/vinculos/article/view/4667. Acesso em: 26 oct. 2021.

Chicago

Becerra Correa, Nelson, y Edgar Altamirano Carmona. 2013. «Agente Inteligente Resolvedor de Laberintos (Airla)». Revista vínculos 10 (1):121-29. https://doi.org/10.14483/2322939X.4667.

Harvard

Becerra Correa, N. y Carmona, E. A. (2013) «Agente Inteligente Resolvedor de Laberintos (Airla)», Revista vínculos, 10(1), pp. 121–129. doi: 10.14483/2322939X.4667.

MLA

Becerra Correa, N., y E. A. Carmona. «Agente Inteligente Resolvedor de Laberintos (Airla)». Revista vínculos, vol. 10, n.º 1, octubre de 2013, pp. 121-9, doi:10.14483/2322939X.4667.

Turabian

Becerra Correa, Nelson, y Edgar Altamirano Carmona. «Agente Inteligente Resolvedor de Laberintos (Airla)». Revista vínculos 10, no. 1 (octubre 16, 2013): 121–129. Accedido octubre 26, 2021. https://revistas.udistrital.edu.co/index.php/vinculos/article/view/4667.

Vancouver

1.
Becerra Correa N, Carmona EA. Agente Inteligente Resolvedor de Laberintos (Airla). Rev. vínculos [Internet]. 16 de octubre de 2013 [citado 26 de octubre de 2021];10(1):121-9. Disponible en: https://revistas.udistrital.edu.co/index.php/vinculos/article/view/4667

Descargar cita

Visitas

690

Descargas

Los datos de descargas todavía no están disponibles.
AGENTE INTELIGENTE RESOLVEDOR DE LABERINTOS (AIRLA)

AGENTE INTELIGENTE RESOLVEDOR DE LABERINTOS (AIRLA)

AGENT INTELLIGENT SOLVER OF LABYRINTH (AIRLA)

Fecha recepción: 13 de enero 13 de 2013
Fecha aceptación: 4 de mayo de 2013

Nelson Becerra Correa

Docente Facultad Tecnológica Universidad Distrital FJC – Colombia, Investigador Fundación FABBECOR.ONG.

Edgar Altamirano Carmona

Docente Universidad Autónoma de Guerrero, México. Investigador Fundación FABBECOR.ONG.


Resumen

Dentro del campo de la Inteligencia Artificial, los Sistemas Inteligentes, se han aracterizado por ofrecer una técnica para la solución de problemas complejos con características distribuidas

A la hora de abordar el desarrollo de sistemas inteligente es indudable un notable aumento de complejidad, así como la necesidad de adaptar técnicas ya existentes o, en ocasiones, el desarrollo de técnicas y herramientas nuevas.

Para desarrollar el software utilizamos algunos y herramientas de la inteligencia artificial, que nos facilitaron la obtener una solución fiable.

En este artículo, se presentan los principales resultados de un proyecto que implementa mediante un agente inteligente el problema de resolución de laberintos.

Palabras Clave

GAIA, modelamiento, juego de estrategia, Metodologías, Agentes, Sistemas Multiagente, Tiempo Real, Agente Inteligente.


Abstract

Within the field of artificial intelligence, intelligent systems have been characterized by offering a technique for solving complex problems with distributed characteristics.

When addressing the development of intelligent systems is undoubtedly a significant increase in complexity, and the need to adapt existing techniques or, sometimes, the development of new tools and techniques

To develop the software and tools we use some artificial intelligence that facilitated us to obtain a reliable solution.

In this article, we present the main results of a project implemented by an intelligent agent problem solving mazes.

Keywords

GAIA, modeling, strategy game, Methodologies, Agents, Multi-Agent Systems, Real-Time Intelligent Agent.


1. Introducción

El paradigma conocido como agentes y sistemas multiagentes inteligentes, constituye actualmente un área de creciente interés dentro de la Inteligencia Artificial, entre otras razones, por ser aplicable a la resolución de problemas complejos no resueltos de manera satisfactoria mediante técnicas clásicas.

Numerosas aplicaciones basadas en este nuevo paradigma vienen ya siendo empleadas en infinidad de áreas [Jennings98], tales como control de procesos, procesos de producción, control de tráfico aéreo, aplicaciones comerciales, gestión de información, comercio electrónico, aplicaciones médicas, juegos, etc.. [1]

Uno de los problemas en el área de agentes es el hecho que cada vez son más necesarios métodos, técnicas y herramientas que faciliten el desarrollo de aplicaciones basadas en dicho paradigma.

La mayor dificultad, en el aprendizaje de agentes inteligentes, es lograr diferenciar claramente entre programación por objetos, estructurada, sistemas expertos y agentes inteligentes. Esto al momento de su implementación.

Muchos alumnos cuando se ven enfrentados a construir sistemas inteligentes logran aplicaciónes bonitas y funcionales pero si se observan en detalla es simple y llanamente programación tradicional, ayudados por alguna metodología de agentes. Lo cual no implica que sean agentes inteligentes.

Este proyecto pretende describir de manera sencilla, la construcción de un agente inteligente, conocido como débil con una o dos características inteligentes (reactividad, autonomía), para solucionar el problema de un laberinto.

2. El problema

  • En un ambiente abierto, hay árboles y otro tipo de obstáculos, ubicados aleatoriamente. Estos obstáculos impiden transitar libre a un agente inteligente.
  • En este parque, además, hay un río que divide el parque en dos partes. Para cruzar el rio, es necesario hacerlo por un puente construido sobre él.
  • La salida está en un extremo del parque.
  • El agente inteligente se encuentra ubicado en algún lugar del parque (ubicación aleatoria) y deberá encontrar la salida. El Agente debe recorrer el parque sin chocar con ningún árbol u obstáculo y además no debe caer al rio (moriría).

3. Desarrollo teórico

3.1 El agente

Un agente, “Es todo aquello que percibe su ambiente mediante sensores y que responde o actúa mediante efectores.” Russell and Norvig, The AIMA Agent, 1995.[1]

El modelo abstracto de una agente inteligente lo podemos describir de la siguiente manera:

El entorno: S={s1, ....,sn} , las Acciones A= {a1,...an} (capacidad de actuar del agente), la Acción: Sk ® A, la Interacción Agente-entorno (historia) h: S0 →a0 S1 .......® S0 y Observación del entorno: ver:S →P.

3.2 Diseño del agente

Para el desarrollo del proyecto se decidió utilizar un agente con memoria [6].

función AGENTE-CON-MODELO (percepción) retorna una acción

estático: reglas, conjunto de reglas condiciónacción

estado← ACTUALIZAR-ESTADO (estado, percepción)

regla ← REGLA-COINCIDENCIA (estado, reglas)

acción ← REGLA-ACCION [regla]

estado ← ACTUALIZAR-ESTADO (estado, acción)

retorne acción

Características del agente: Un agente inteligente lo podemos clasificar según sus características como agente débil y fuerte. Un agente débil tendrá como mínimo las siguientes características: Autonomía, Reactiviad, Proactividad, Habilidad social. La autonomía se refiere a que su comportamiento depende de las experiencias adquiridas. Un agente reactivo, responde a los cambios en su ambiente. La pro actividad tiene que ver con el aprovechamiento de las oportunidades que se le presentan si y solo si favorecen sus propios intereses. Si un agente se comunica con otros decimos que es social [2],[3].

Adicionalmente a estas características si una agente tiene deseos, intenciones, creencias, racionalidad, veracidad y adaptabilidad decimos que es un agente fuerte. [4]

Otra manera de clasificar a los agentes inteligentes tiene que ver con su estructura, como está organizada su información. Tenemos agentes de reflejo simple, agentes basados en metas, agentes bien informados de los que pasa (con memoria), basados en utilidad [7].

4. Desarrollo experimental

En nuestro proyecto, trabajamos con un agente bien informado de lo que pasa también conocido como agente con memoria [5]. A continuación describimos nuestro agente.

El agente con memoria además de tratar de alcanzar el objetivo en base a una tabla de percepción acción. Tiene en cuenta los siguientes elementos:

  • Estado
  • Cómo evoluciona el mundo
  • Lo que hacen mis acciones
    1. Agente está constituido por
    2. Sensores
    3. Actuadores
    4. Metas

Percepciones: el agente tendrá un sensor que identificara el estado en que se encuentra una casilla adjunta. La representación mediante una tabla es mostrada en la figura 1.

Tabla de percepción acción: La tabla 1, muestra el número de entradas, las cuales dependen de la dimensión del parque el cual es de nxm, se considera que el máximo número para el cual fue hecho el software es de 20 x 20.

Acciones: Las acciones emprendidas por el agente son:

  • Avanzar derecha
  • Avanzar izquierda
  • Avanzar arriba
  • Avanzar abajo

Y el grafico se observa en la figura 2

La representación de las acciones mediante una tabla, se muestran en la tabla 2.

Ambiente: El ambiente al que se enfrente nuestro agente es:

  • Accesible: Pues los sensores proporcionan todo lo que hay que saber sobre el estado completo del ambiente.
  • Determinístico: El estado siguiente del ambiente está determinado plenamente por el estado presente del mismo, y por la acción del agente.
  • Episódico: Es episódico ya que implica que los episodios siguientes no dependen de las acciones que ocurrían en episodios previos
  • Estático: El ambiente que no cambia mientras el agente está pensando.
  • Discreto: Discreto - con escaso número de percepciones y acciones en el ambiente.

Ver Tabla 3

Estado: Un estado está conformado por el tablero y la percepción actual, en tabla 4. El * significa que el agente puede tomar cualquier orientación.

El desempeño se toma como -1000, si el agente se cae al rio, -100 si se encuentra con un obstáculo diferente, si se cae al rio el agente muere. Para cualquier otro obstáculo, la acción puede ser reversible.

Ejemplo que ilustra como el agente se desempeña en el parque, el color corresponde al puente y el color azul corresponde al rio

5. Características del agente

Nuestro agente inteligente, tiene las siguientes características:

  • Autonomía, reactivo y proactivo.
  • La autonomía, entienda como, la capacidad del agente de tomar sus propias decisiones basado más en sus experiencias que en su conocimiento dado por el programador.
  • El agente solucionador de laberintos, almacena sus experiencias en forma de reglas e infiere sus conocimiento, utilizando el encadenamiento adelante.
  • El agente es reactivo, ya que una vez modificado el entorno cambia de posición en el parque. Este inmediatamente genera un proceso nuevo para la solución el problema.
  • El agente es proactivo, pues aprovecha cada oportunidad presentada en el ambiente para lograr sus objetivos.
  • Nuestro agente, no implementa más características por el momento.

5.1 Medida de rendimiento

Nuestro agente, utiliza como medida de rendimiento, un valor de 1 si logra avanzar un cuadro en el parque en forma segura.

Recibirá una penalización de 1000 punto si este se cae al lago, ya que en este caso el agente morirá y una penalización de 100 puntos si choca con algún objeto pues esta acción es reversible.

5.2 Implementación

El algoritmo general para la implementación del agente de reflejo simple es: (ver Tabla5 y 6)

Se implementó el agente inteligente en lenguaje C++.

5.3 Rendimiento

  • Diagrama general de la implementación
  • Basado en metas

Complejidad del agente:(ver Tabla 7)

El diagrama general del agente se aprecia en la figura 3

Bloque principal :hace n operaciones y entra en un ciclo del cual llama a un método de 1 operación

Percepción p = ambiente.Percepcion() que llamada a una función con 20 operaciones

Acción a = agenteConMemoria(ambiente. Percepcion());

este a su vez , llamada a un método: 1 operación ambiente.realizarAccion(a);

Complejidad Bloque principal: n*(1+12+1)= 10*(1+20+1)=220 operaciones

Bloque percepción: se actualiza la descripción interna del estado que mantiene el agente hace un llamado a la Acción

agenteConMemoria(ambiente.Percepcion()); este a su vez , llamada a un método: 1 operación ambiente.realizarAccion(a);

Complejidad Bloque principal: n*(1+12+1)= 10*(1+20+1)=220 operaciones

Bloque percepción: se actualiza la descripción interna del estado que mantiene el agente hace un llamado a la Acción agenteConMemoria(Percepción p) que llamada a una función con 3 operaciones, estado = actualiza_estado (estado, p) a su vez llamada a una función: 4 operaciones y regla = selecciona_regla (estado, reglas) , llamada a una función de 1 operación, la función Accion acción=aplica_regla(regla) llamada a una función que 12 operaciones, estado = actualiza_estado (estado, acción)

Complejidad Bloque percepción: 20 operaciones

Bloque actualizar estado respecto a la percepción: Estado actualiza_estado(Estado e, Percepcion p) , Solo llama a uno de las dos siguientes

Complejidad bloque : 3 operaciones

Bloque actualizar estado respecto a la acción: Llama a actualización de estado actualiza_ estado(Estado e, Acción p) , en este caso estamos considerando el peor de los casos, ya que en esta última función hay varias alternativas else if”, pero el bloque que contiene el mayor número de operaciones es el primero, es decir 12 operaciones

Complejidad Bloque actualizar estado: 12 operaciones O(1), ver Tabla 8

En este apartado medimos, el rendimiento del agente. Para ello tenemos en cuenta los siguientes parámetros:

  • Tamaño de la matriz, la cual probaremos de una dimensión de 3 a 20.
  • Numero de obstáculos iniciales
  • Cantidad de objetos con los cuales choca el agente
  • Probabilidad de objetos colocados = 0.5
  • Probabilidad de puentes = 0.4
  • Numero de iteraciones para cada corrida = 200

% Éxito = (Numero de obstáculos iniciales – Numero choques con obstáculos)/( Numero de obstáculos iniciales)

6. Conclusiones

  • La aplicación arroja mejores resultados al determinar una cantidad menor de obstáculos dentro del ambiente, como se espera que sea.
  • El uso de la memoria del agente es indispensable para evitar que el agente llegue a ciclos repetitivos infinitos.
  • El uso de Reglas de Producción como forma de Representación de Conocimiento es la más adecuada para este tipo de agente ya que el objetivo es llegar a la meta siendo indiferente el costo computacional

7. Trabajos futuros

Este trabajo de desarrollo implementar un solo agente inteligente, como trabajo futuro se puede ampliar, a la construcción de tres agentes inteligentes, que se comunican entre si. Otra trabajo futuro tendría que ver con el ambiente, el cual se puede hacer más complejo e implementado otros agentes que permitan comparar el desempeño.

8. Referencias

[1] INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO. Segunda edición. Stuart J. Russell y Peter Norvig. Traducción: ,Juan Manuef Corchzrdo Rodriguez

[2] Jennings, N. Wooldridge, M.:Applications of Intelligent Agents. Queen Mary & Westfield College. University of London

[3] Informe metodología GAIA: “Buscador de talento amigo” Arquitectura de sistemas multi-agentes Universidad Autónoma de Manizales 2008

[4] Ingeniería de Software Orientada a Agentes; Universidad Pontificia de Salamanca Campus de Madrid.

[5] Uso de la metodología GAIA para modelar el comportamiento de personajes en un juego de estrategia en tiempo real; Fac. Ing. Univ. Antioquia N° 53 pp. 214-224. Junio, 2010.

[6] Estudio de métodos de desarrollo de sistemas multiagente; Vicente J. Julián, Vicente J. Botti Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia

[7] Breve análisis de algunas metodologías e diseño de SMA; Departamento de Ciencia de la Computación e Inteligencia Artificial; Universidad de Alicante 2004

Artículos más leídos del mismo autor/a

1 2 > >>