Computational Model of Motor Planning for Virtual Creatures: a
Transcripción
Computational Model of Motor Planning for Virtual Creatures: a
10 IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 1, JAN. 2015 Computational Model of Motor Planning for Virtual Creatures: a Biologically Inspired Model S. López, J. A. Cervantes, F. A. Robles and F. Ramos Abstract— The development of computational models that emulate human cognitive functions is challenging. Nevertheless, we think that cognitive systems will allow to correct several problems of behavior like credibility, or wrong behavior that occur in some areas such as: virtual reality, artificial life, autonomous agents, humanoid robots, human-computer interaction. In this paper we propose a biological inspired computational model for motor planning applied to virtual creatures. We present the results of a case study taken from Neurosciences to validate our model. Also, the flow of information in our model emulating the flow of information of the human brain is presented.1 Keywords— Cognitive systems, motor planning, autonomous agents, virtual reality. I. INTRODUCCIÓN D ESDE hace algunos años, disciplinas como las Neurociencias, la Psicología y la Fisiología han estudiado las funciones cognitivas del ser humano con el propósito de comprender los procesos internos de las áreas cerebrales, sus funciones e interacciones [1], [2], [3]. Estos estudios han sido principalmente de tipo empírico y se han aplicado en humanos, primates y roedores [4], [5], [6]. La planeación es una de las funciones cognitivas más complejas del ser humano. Desde la perspectiva de las Neurociencias, la planeación se define como una función ejecutiva que permite la resolución de problemas a través de la programación de una serie de acciones para anticiparse a los eventos que puedan ocurrir en el tiempo y espacio [4], [6], [7]. La planeación es una función fundamental en la creación de criaturas virtuales que buscan exhibir comportamientos “creíbles”. Torres [8] define la credibilidad como el grado de certidumbre que muestra el usuario, para determinar si el comportamiento de una criatura virtual es generado por un humano o por un algoritmo. El desarrollo de modelos computacionales que emulen esta u otras funciones cognitivas del ser humano son todo un reto; debido a la complejidad de representar los procesos cognitivos y de la falta de conocimiento preciso sobre las funciones que desempeñan las áreas cerebrales. Sin embargo, creemos que los modelos computacionales cognitivos pueden tener distintas aplicaciones, desde el desarrollo de películas animadas y S. López, Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional, Jalisco, México, [email protected] J. A. Cervantes, Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional, Jalisco, México, [email protected] F. A. Robles, Centro Universitario del Norte de la Universidad de Guadalajara, Jalisco, México, [email protected] F. Ramos, Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional, Jalisco, México, [email protected] videojuegos hasta su uso en la creación de simuladores, robots humanoides, vida artificial, entre otros [9], [10], [11]. Una de las estrategias utilizadas para lograr movimientos creíbles es la captura de movimientos de personas reales, para ser utilizados en la recreación de los movimientos de las criaturas virtuales [10]; sin embargo, el mostrar movimientos físicos o motores creíbles no garantiza que el comportamiento que exhiba la criatura virtual también sea creíble. Partiendo de esta hipótesis, se observa que en las áreas: Sistemas Cognitivos, Inteligencia Artificial y Realidad Virtual, se busca la creación de nuevos algoritmos o estrategias para dotar a las criaturas virtuales con los mecanismos necesarios que les permitan exhibir comportamientos motores y conductas que se asemejen al realizado por el humano. Actualmente existen algunos modelos computacionales y arquitecturas cognitivas que intentan mejorar el comportamiento que exhiben las criaturas virtuales a través de la simulación de diversas funciones cognitivas [10], [12], [13]. De acuerdo con la evidencia biológica revisada [1], [4], y [5], el comportamiento motor puede dividirse en dos etapas, la primera denominada planeación motora de alto nivel, que consiste en la generación del plan y subplanes para alcanzar un objetivo determinado. En esta etapa, la planeación se compone de un conjunto de pasos abstractos, por ejemplo, el plan para trasladarse de un punto a otro, esquivar obstáculos, o realizar cualquier otra tarea que implique un movimiento físico de la criatura virtual. La segunda etapa denominada planeación motora de bajo nivel es la responsable de tomar la planeación abstracta para generar una planeación detallada que especifique el conjunto de comandos motores que permitirán lograr los movimientos deseados. En ambas etapas debe existir un monitoreo de la ejecución del plan. En este artículo se propone un modelo cognitivo de la planeación motora de alto nivel, que permita dotar a las criaturas virtuales con los mecanismos necesarios para la creación de planes que resuelvan problemas en ambientes dinámicos desconocidos. Un aspecto importante de nuestra propuesta es la emulación de los procesos internos del cerebro para lograr un comportamiento tanto interno como externo de forma similar a la realizada por los humanos. Para alcanzar estos objetivos, el diseño de nuestro modelo computacional se basa en los resultados reportados en las disciplinas como: Neurociencias, Psicología y Fisiología. Este documento se encuentra organizado de la siguiente manera, en la sección II se describen algunos de los trabajos más relevantes de la literatura que proponen cómo generar una planeación motora. La sección III muestra la evidencia biológica encontrada en las disciplinas de Neurociencias, Psicología, y Fisiología, de cómo el cerebro humano realiza el proceso de planeación. En la sección IV se describe el modelo propuesto, sus componentes y funciones. En la sección V se LÓPEZ et al.: COMPUTATIONAL MODEL OF MOTOR PLANNING presenta el caso de estudio desarrollado, así como los resultados obtenidos. Finalmente en la sección VI se presentan las conclusiones. II. TRABAJO RELACIONADO En esta sección se describen las características de algunos modelos computacionales de planeación encontrados en la literatura. La mayoría de estos modelos están enfocados a mejorar las capacidades de los agentes autónomos en la resolución de problemas. Estos agentes pueden ser criaturas físicas o virtuales. LIDA es un modelo conceptual y computacional, diseñado para agentes autónomos [14]. En el ciclo cognitivo de LIDA cada agente autónomo se encuentra constantemente censando su entorno, para actualizar la representación interna y externa de las características del entorno. La memoria procedural de LIDA almacena un conjunto de plantillas utilizadas para realizar tareas. Cada plantilla se compone por una acción, el contexto en el que puede ser utilizada, el resultado esperado y un valor de activación que permite determinar la probabilidad de obtener el resultado esperado si la acción de esta plantilla se ejecuta en el contexto actual del agente [14], [15]. Las plantillas cuyos contextos coincidan lo suficiente con el contenido de la situación actual son instanciadas con sus variables y enviadas al mecanismo de selección de acción, que elige una sola acción de una de estas plantillas. La acción elegida luego va a la memoria sensorial-motora, donde es ejecutada por un algoritmo apropiado [14], [16]. Reitter y Lebiere [12] proponen un modelo cognitivo basado en la arquitectura de ACT-R para la planeación de rutas espaciales que permitan la navegación de robots en escenarios con obstáculos. El modelo cuenta con dos componentes cognitivos que permiten recuperar el conocimiento acerca del entorno para apoyar a la percepción visual en la búsqueda de rutas. Para determinar la mejor ruta entre el punto inicial y el punto final, el primer módulo intenta recuperar una ruta de la memoria declarativa. Cuando no existe una ruta en la memoria, la búsqueda visual produce el siguiente paso intermedio. Posteriormente, los lugares visitados y las trayectorias recorridas son almacenados en la memoria declarativa para su uso posterior en la construcción de mapas topológicos dentro de la memoria declarativa. Lau y Kuffner [10] proponen un modelo computacional de planeación para generar de manera automática movimientos creíbles para avatares con aspecto de humanos y animales dentro de un entorno virtual. Su modelo esta basado en el uso de máquinas de estado finito (MEF) que permiten la organización y uso de movimientos pregrabados o posturas. El algoritmo de planificación propuesto en [10] considera como entrada una máquina de estado finito, información acerca del entorno, el punto de inicio del avatar y el punto al que debe llegar. El planificador utiliza el algoritmo A* para encontrar dentro de la MEF la secuencia de movimientos que debe realizar el avatar para llegar al punto destino. Cada estado del MEF contiene un conjunto de posturas o movimientos que representan comportamientos de alto nivel tales como: distintas formas de saltar, detenerse, trotar, esperar, girar, agacharse, etc. Uno de los objetivos del planificador es conseguir que el avatar llegue a su destino siguiendo el plan 11 de menor costo. Para ello, el costo de cada movimiento es calculado en base a la distancia generada desde la raíz de una estructura de tipo árbol hasta un determinado nodo, multiplicado por un peso dado por el usuario. Cada nodo del árbol almacena un estado del MEF (postura o movimiento), una posición, una orientación, un tiempo y un costo. iCub es una arquitectura cognitiva en desarrollo que busca replicar las habilidades cognitivas de un niño de dos años de edad [17], [18]. iCub cuenta con un módulo denominado locomoción, el objetivo de este módulo es controlar los motores del robot para realizar los movimientos necesarios de desplazarse de un punto a otro, dentro del entorno de acuerdo al objetivo establecido, sin embargo, antes de ejecutar los movimientos iCub realiza una navegación que consiste en determinar la estrategia o ruta para moverse de un punto a otro. La navegación permite generar un plan efectivo y eficiente contemplando los posibles obstáculos dentro del entorno y minimizando el costo del desplazamiento. El costo puede ser medido en tiempo, energía o distancia [19]. Los trabajos descritos en esta sección son algunos de los más relevantes en la literatura, existen más trabajos como los publicados por [13], [20], [21], [22], [23], y [24], sin embargo, éstos sólo se enfocan en generar un comportamiento similar al humano aún cuando su proceso interno difiera del proceso realizado por el cerebro humano. Un aspecto importante del modelo propuesto por Reitter y Lebiere [12] es la consideración de información visual y espacial, sin embargo, no contemplan la información corporal para la planeación de los movimientos. Por otra parte, el modelo de Lau y Kuffner [10] agrega el factor costo a cada acción con el objetivo de generar un plan óptimo. Consideramos que los factores utilizados para calcular el costo de cada movimiento o acción no son los más apropiados, debido a que no contemplan el esfuerzo o energía requerida para realizar un movimiento, así como experiencias previas. Otra desventaja, es que sólo buscan generar movimientos creíbles sin considerar obtener un comportamiento similar al humano, es por ello, que los avatares deben tener una visión global del escenario para desplazarse de un punto a otro. Finalmente, la arquitectura actual de iCub es una versión preliminar y limitada de lo que desean alcanzar en el futuro, por ejemplo, la función de selección de acciones es actualmente considerada una función trivial. Esto se debe a que el mayor esfuerzo ha sido dirigido al desarrollo del robot humanoide [19]. Con respecto a la planeación en iCub, se observa evidencia de una planeación de bajo nivel para generar y coordinar los movimientos [17]. Sin embargo, se aprecian algunas inconsistencias del modelo relacionadas con las funciones del cerebro humano, por ejemplo, Deallier et al. [17] muestran que su modelo se basa en una arquitectura de tres capas del cerebro humano conformadas por corteza motora, tronco encefálico, ganglios basales y cerebelo, dejando aparentemente a un lado la planeación de alto nivel desarrollada en la corteza prefrontal (PFC), no obstante en [19] se observan tareas pertenecientes a la PFC que son áreas cerebrales no contempladas dentro de la arquitectura de iCub. Consideramos que debe existir una separación entre la planeación de alto nivel y la de bajo nivel, debido a que la primera se encarga de generar un plan de manera abstracta para alcanzar el objetivo y la segunda es responsable de 12 IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 1, JAN. 2015 ejecutar los movimientos [4], [5], [25]. Para acercarnos al objetivo de generar un comportamiento similar al humano y creíble, es importante considerar los factores descritos en los trabajos revisados, sin embargo, hasta el momento no hemos encontrado un modelo computacional que trate de emular los procesos internos del cerebro humano, además que contemple el factor emocional-motivacional como un elemento que influye en la manera de ejecutar la planeación [26], [27], [28]. El modelo que proponemos esta basado en el conocimiento existente en las disciplinas biológicas. Con la intención de lograr un comportamiento creíble, uno de los objetivos de nuestro modelo es emular de manera abstracta los procesos y las funciones de las áreas cerebrales que se activan durante la generación de una planeación motora, sin considerar los procesos químicos del cerebro. Por otra parte, la información contemplada en nuestro modelo para la generación de un plan motor se puede dividir en: visual, espacial, corporal, cognitiva, emocional y motivacional. Debido a que estos conforman la información utilizada por los humanos para la generación de planes de acuerdo a los resultados publicados en las disciplinas biológicas. III. EVIDENCIA BIOLÓGICA En esta sección destacamos algunos modelos biológicos del proceso de planeación encontrados en la literatura de Neurociencia, Psicología y Fisiología. El modelo propuesto por Crescentini et al. [5] identifican una fase inicial y una fase ejecutiva en el proceso de planeación. Consideran que en la fase inicial, se identifica el objetivo, se analiza el problema, y el conocimiento de la situación general que servirán para formular un plan. Mientras que en la fase ejecutiva, se coordina la ejecución del plan y se realiza el monitoreo para identificar cambios en el entorno que afecten el plan inicial. En este trabajo se aplicó la prueba de torres de Hanoi a personas y se determinaron un conjunto de áreas cerebrales que se activan en cada una de las fases, destacando que la corteza prefrontal dorsolateral (dl-PFC) se encuentra involucrada en todo el proceso de la planeación. En el modelo propuesto por Mushiake et al. [4], proponen un mecanismo circular en el que intervienen dos procesos: uno cognitivo y otro neuronal, trabajando de manera simultánea para la resolución de problemas. A cada una de las fases del proceso cognitivo le corresponde una fase en el proceso neuronal para lograr su propósito. El ciclo inicia con el establecimiento del objetivo, le continua una planeación de las acciones a realizar, después se llevan a ejecución las acciones, y finalmente se realiza el monitoreo o evaluación para determinar si el objetivo ha sido alcanzado. Mientras que el objetivo no sea alcanzado se replantea el plan y el mecanismo vuelve a iniciar hasta lograr el cumplimiento del objetivo. Por otra parte, Wallis [29] propone un modelo general para las funciones de toma de decisiones, planeación y memoria de trabajo. El modelo se compone de los mecanismos neuronales proporcionados por las áreas cerebrales como: la corteza orbitofrontal (OFC), la corteza prefrontal medial (MPFC), y la dl-PFC. La OFC integra múltiples fuentes de información (sensorial, afectiva y motivacional) relacionados al beneficio o recompensa que se ofrecen en cada una de las opciones, para generar una señal de valor. La dl-PFC recibe la señal de valor para generar y coordinar la ejecución del plan. La MPFC se encarga de evaluar el esfuerzo requerido para la ejecución del plan, y determinar la factibilidad del plan con respecto a la recompensa esperada. La memoria de trabajo se encuentra distribuida en la PFC. De acuerdo con Wallis la OFC utiliza la memoria de trabajo cuando se realiza una estimación de la posible recompensa de cada opción, mientras que la dl-PFC utiliza la memoria de trabajo como un repositorio de corto plazo, para almacenar el plan definido por la dl-PFC, el cual será ejecutado para alcanzar el objetivo establecido por la OFC [30], [31]. Un elemento importante en la ejecución de los planes es el factor motivo-emocional que influye en la forma e intensidad para ejecutar los movimientos [26], [27], [28]. En el modelo que proponemos consideramos varios factores, entre ellos el factor motivo-emocional en la ejecución de las acciones, la información proviene principalmente de áreas cerebrales como: la amígdala (Amy), el hipocampo (Hip), y el estriado ventral (VS) [27], [28]. Esto permite establecer un objetivo cognitivo y un objetivo motivacional de acuerdo con [4]. El objetivo cognitivo esta relacionado con el estado deseado en la solución de un problema, mientras que el objetivo motivacional esta relacionado con la posible recompensa. IV. MODELO DE PLANEACIÓN En esta sección se describe nuestro modelo computacional de planeación (ver Fig. 1). Este modelo se encuentra inspirado en el conocimiento existente en las disciplinas biológicas con la intención de comprender el proceso interno que realiza el cerebro humano para la resolución de problemas. Creemos que el plasmar dicho proceso en un modelo computacional podría dotar a las criaturas virtuales de esa capacidad para resolver problemas de una manera similar a la realizada por el humano. Algunos modelos biológicos como: [5], [4], y [29] sirvieron de base en el diseño del modelo. El modelo propuesto se implementa como un ciclo operativo de tres fases principales: planeación inicial, en esta fase se integra información (visual, espacial, corporal, cognitiva, motora de la criatura virtual, y de su entorno) para la creación de los planes y el conjunto de acciones que contendrá cada uno de los planes. La segunda fase se denomina planeación ejecutiva, se encarga de la coordinación de diversas áreas cerebrales para lograr la ejecución de cada una de las acciones manteniendo el orden de prioridad en que fueron planeadas. La tercera fase, denominada monitoreo, es útil para detectar cambios en el entorno durante la ejecución que afecten el objetivo o el plan inicial. Cada una de las fases se compone de un conjunto de áreas cerebrales, algunas de ellas poseen más de una función dependiendo de la fase en la que se encuentren. LÓPEZ et al.: COMPUTATIONAL MODEL OF MOTOR PLANNING 13 Figura 1. Propuesta de un modelo computacional de la planeación. Existen diversos trabajos como los publicados por [5], [6], [32], [33], [34], y [35] que muestran evidencia de las áreas cerebrales que se activan durante el proceso cognitivo de la planeación. En el modelo algunas áreas cerebrales se representan más de una vez para facilitar el entendimiento del flujo de datos. También hemos enumerado el flujo de datos para dar una idea más clara de la secuencia de la activación entre las áreas. Debido a la complejidad del funcionamiento del cerebro, muchas de las áreas cerebrales presentan una activación concurrente, e incluso pueden mantener un flujo de datos constante. A continuación se describe el flujo de datos en el modelo propuesto. 1. El modelo requiere como entrada el establecimiento del objetivo que es proporcionado por la OFC. Cuando la OFC tiene más de una opción, debe evaluar cada una de ellas considerando la posible recompensa que pueda obtenerse [29], [30], [31]. 2. Con el objetivo establecido se inicia la fase de planeación inicial donde la dl-PFC evalúa las consecuencias de las acciones futuras para generar el plan y organizar la secuencia de acciones [36], [37]. La dl-PFC debe integrar información proveniente de la corteza temporal inferior (ITC), corteza premotora (PC), y corteza parietal posterior (PPC). La ITC ofrece información visual y espacial de la criatura virtual, la PPC ofrece información visual y espacial relacionada con la localización del objetivo y de las áreas del cuerpo a utilizar [3], [36], [38], [39], [40]. Consideramos que tanto la ITC como la PPC proveen información de manera continua hasta la fase de planeación ejecutiva. 3. La PC ofrece información relacionada al esfuerzo requerido para realizar una acción y se encarga de programar los movimientos físicos que sean requeridos en el plan [3], [41]. 4. La información recabada se coloca y se manipula en la memoria de trabajo de la dl-PFC para iniciar con la creación del plan. En este proceso la dl-PFC y la PC trabajan en conjunto para generar la secuencia de acciones del plan. 5. La MPFC recibe el plan para evaluar el costo del esfuerzo requerido para su ejecución [29]. 6. MPFC informa el resultado de la evaluación realizada a las áreas OFC y dl-PFC. 7. En esta fase, la OFC evalúa la factibilidad del plan antes de iniciar la ejecución de las acciones. Cuando la OFC considera que el plan no es factible, le solicita a la dl-PFC la generación de un nuevo plan, este proceso se realiza en la fase de planeación inicial. La dl-PFC recibe la instrucción de coordinar la ejecución del plan. La dl-PFC establece una comunicación constante con diversas áreas cerebrales como: ITC, OFC, PC, PPC, corteza motora primaria (PMC), Hip, Amy, VS y pálido ventral (VP). 8. La dl-PFC recibe información del estado fisiológico y motivacional (proveniente del Hip y de la Amy) a través de la VS y de la OFC [1], [42], que inlfuirá en la ejecución. La dlPFC prepara una conversión sensori-motora, es decir, la conversión de los planes a comandos motores [2], [43]. La dlPFC solicita a la PC que inicie la conversión de las acciones en señales motoras para la ejecución de movimientos. 9. La PMC solicita información del comando motor requerido para la ejecucióna la corteza cingulada anterior (ACC) [43]. 10. La PC integra la información relacionada con la planificación de una tarea motora y la parte del cuerpo a utilizar [44]. Esta información se envía a la PMC para ejecutar los movimientos requeridos. La PMC contiene una representación somatotópica del cuerpo, estableciendo las órdenes motoras de cómo y cuándo se deben mover los músculos [44]. La PPC informa de la ubicación del cuerpo a la PMC. La dl-PFC recibe información altamente procesada de la ACC relacionada a la ejecución. Al mismo tiempo el VS se encuentra funcionando como interface límbico-motora para generar secuencias motoras dirigidas a un fin. También apoya en la selección de un programa motor [1], [28]. El VS mantiene comunicación con el VP durante la ejecución, dado que el VP regula la intensidad y el comportamiento de la ejecución. El VP traduce las señales de motivaciones límbicas a salidas motoras [44], [45]. En esta fase la dl-PFC solicita a la ACC que inicie con el monitoreo de la ejecución [43]. La ACC entra en juego cuando las acciones programadas no son suficientes para guiar el comportamiento [2], [47]. La ACC monitorea la ejecución realizada por la PMC. Al mismo tiempo, la ACC y la OFC se encuentran monitoreando la consecución del objetivo inicial. 14 IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 1, JAN. 2015 11. Considerando el circuito de retroalimentación entre la ACC, el VP, el tálamo (Tha) y el cerebelo (Cer) [46]. El VP se comunica con el Cer a través del Tha. Se establece comunicación entre el Tha y la ACC para dirigir las instrucciones de conversión de los comandos motores a la ejecución física de los movimientos programados [45], [46]. 12. El Tha mantiene comunicación constante con el Cer para dirigir órdenes motoras al sistema motor. 13. Cuando la ejecución del conjunto de acciones llega a su término, la dl-PFC le indica a la OFC. Hemos contemplado al Cer y al VP como salidas del modelo propuesto. Consideramos que el sistema motor tomará la información necesaria del Cer para continuar con la ejecución física de los movimientos. El sistema de planeación inicia la construcción del plan (fase de planeación inicial). Posteriormente cuando el agente reconoce el parpadeo del cursor, el sistema de planeación pasa a la fase de ejecución. En esta fase el agente autónomo es capaz de mover el cursor acorde al plan generado en la fase de planeación inicial. V. CASO DE ESTUDIO El objetivo del caso de estudio es validar el modelo computacional propuesto, así como el flujo de la información en este modelo. Para esto replicamos experimentos de Neurociencias. En específico el desarrollado por Mushiake et al. [4] y [48]. En esta sección se describen dichos experimentos, los cuales son replicados en nuestro modelo para validar las fases de la planeación. Replicando este experimento, cada uno de los módulos del modelo deben emular la función de cada una de las áreas involucradas en la función cognitiva de planeación. Así mismo, se verifica que el flujo de la información coincida con el descrito en [4] y [48]. Con el objetivo de determinar la función de la PFC dentro del proceso de planeación en [4] y [48] desarrollaron una serie de pruebas con monos. El experimento consistía en alcanzar un objetivo dentro de un laberinto moviendo el cursor en la pantalla. El movimiento del cursor se vinculó al movimiento de cada una de las manos del mono, sin embargo, para evitar la asociación de los resultados de las acciones realizadas con los comandos motores. Se establecieron tres diferentes configuraciones del cursor con respecto al movimiento de la mano descritos en [4] y [48]. Para replicar los experimentos de [4] y [48] se desarrollaron tres aplicaciones: la primera aplicación consiste en un laberinto (ver Fig. 2) donde se establece el objetivo a alcanzar; la segunda aplicación denominada sistema de planeación es la implementación del modelo computacional descrito en la sección IV, es decir, el modelo basado en Neurociencias de la función cognitiva de planeación; la tercera aplicación denominada sistema de monitoreo es responsable de interpretar el registro de actividad realizado por el sistema de planeación (ver Fig. 3). Esta aplicación muestra cuales fueron los módulos activados (representación abstracta de áreas cerebrales) y la secuencia de su activación durante la ejecución de la tarea encomendada. Nuestro caso de estudio inicia cuando la aplicación del laberinto se ejecuta. Al aparecer el laberinto en la pantalla, transcurre un segundo para que aparezca el cursor. El cursor siempre aparece en el centro. Después de otro retardo de un segundo se muestra la ubicación del objetivo a alcanzar. Finalmente, el cursor parpadea en la pantalla para indicar al agente que inicie con la ejecución del plan. Al inicio, cuando el agente autónomo percibe el laberinto, así como los elementos que van apareciendo en él. Figura 2. Ejemplo del laberinto. Durante la ejecución existe una fase de monitoreo, encargada de detectar los cambios en el entorno que pueden afectar la ejecución del plan. Al considerar los cambios que pueden presentarse en el escenario, la fase de monitoreo puede indicar a la fase de planeación inicial la necesidad de crear un nuevo plan o modificar el plan existente. Por ejemplo, cuando se cambia de manera inesperada la configuración del movimiento del cursor o cuando aparecen nuevos obstáculos en el laberinto. En estos casos, la fase de monitoreo regresa el control a la fase de planeación inicial a fin de realizar los ajustes que se consideren pertinentes dentro del plan. Para llevar a cabo un análisis del comportamiento del sistema de planeación, se crea un archivo en el cual se van registrando las actividades de cada uno de los módulos del sistema, así como las tareas que se van desarrollando. Una vez concluida la ejecución del caso de estudio, se utiliza el sistema de monitoreo (ver Fig. 3) para interpretar las actividades realizadas por cada uno de los módulos del sistema de planeación fuera de linea. En la parte izquierda de la figura se muestra el modelo computacional de planeación propuesto; el sistema de monitoreo destaca las áreas que se van activando durante el proceso de planeación a través del cambio de color. En la parte derecha del sistema se incluye de forma ilustrativa una imagen del cerebro humano en la cual se colorean las áreas cerebrales que se corresponden con el modelo. Figura 3. Ejemplo del sistema de monitoreo de la función cognitiva de planeción. LÓPEZ et al.: COMPUTATIONAL MODEL OF MOTOR PLANNING 15 Figura 4. Graficación de la actividad cognitiva del sistema de planeación. Esta aplicación trata de emular la función de los sistemas de electroencefalografía (EEG) utilizados en los experimentos de Neurociencias para realizar el registro de la actividad bioeléctrica cerebral. La principal información que ofrece este sistema son: las áreas o módulos que se están activando, información con respecto a la función que esta realizando cada área, la fase en la cual se esta activando con respecto al modelo de planeación, el tiempo de inicio, y el periodo de duración. La intención de realizar este monitoreo fuera de linea es para ofrecer diversas alternativas para un análisis más completo del funcionamiento del sistema de planeación. Estas alternativas son: reproducir, pausar, y retroceder en la lectura del registro de actividades. También permite establecer diferentes estampas de tiempo para observar la activación de cada área involucrada en el proceso de planeación. En la Fig. 4 se muestra un gráfica de la lectura realizada por el sistema de monitoreo correspondiente a la fase inicial del sistema de planeación. En esta gráfica se observa el tiempo (ms) en el que inicia y termina cada proceso. Algunos procesos se ejecutan de manera paralela, por ejemplo, en el tecer ms después de aparecer el laberinto se ejecutan de manera paralela cinco procesos distintos correspondientes al área dl-PFC y PPC. Estos procesos utilizaron información corporal del agente e información visual y espacial del escenario. También se puede apreciar como los módulos desempeñaron funciones diversas durante el proceso de planeación. Por ejemplo, la OFC efectuó el reconocimiento del cursor en el 1003 ms, como consecuencia del retardo generado en el laberinto; en el 2004 ms identificó el objetivo a alcanzar. Mientras que la dl-PFC en el 2005 ms inició con la construcción del plan general, en el 3857 ms inició con la construcción de los subplanes para alcanzar el objetivo. VI. CONCLUSIONES Es este artículo se propone un modelo computacional de la función cognitiva de planeación inspirado en evidencia neurocientífica, psicológica, y fisiológica. Este modelo considera las cuatro fases temporales de la planeación definidas como: establecimiento del objetivo, planeación, ejecución del plan y monitoreo, presentadas en [4], [48] y [49]. También se diseñó una aplicación que nos permitió analizar y validar nuestro modelo con respecto a los resultados presentados en [4] y [48], respetando el proceso cognitivo y neuronal del cerebro humano dentro de la función cognitiva de planeación. Adicionalmente, nuestro modelo pone en evidencia las áreas involucradas en el proceso de planeación de acuerdo con la literatura revisada principalmente en Neurociencias y Psicología. Los resultados obtenidos hasta el momento satisfacen los objetivos que se plantearon al inicio de la investigación. En un trabajo en curso estamos considerando integrar el modelo presentado en este artículo con otras funciones cognitivas como las emociones y regulación de emociones, el aprendizaje, entre otras, para incluirlas en el cálculo de un comportamiento creíble. AGRADECIMIENTOS Los autores agradecemos al Consejo Nacional de Ciencia y Tecnología (CONACYT beca No. 441795, beca No. 441796), patrocinado por el Gobierno de México por su apoyo parcial a este trabajo. Nos gustaría también agradecer a los revisores anónimos por sus valiosos comentarios y sugerencias. REFERENCIAS [1] E. R. Kandel, J. H. Schwartz, and T. M. Jessell, Principles of Neural Science, 4th ed., E. R. Kandel, J. H. Schwartz, and T. M. Jessell, Eds. McGraw-Hill, 2000. [2] B. Y. Hayden and M. L. Platt, Encyclopedia of Neuroscience, L. R. Squire, Ed. Elsevier, 2009. [3] C. Soriano, Fundamentos de Neurociencia, U. O. D. Catalunya, Ed., 2007. [4] H. Mushiake, K. Sakamoto, N. Saito, T. Inui, K. Aihara, and J. Tanji,“Involvement of the prefrontal cortex in problem solving,” in International Review of Neurobiology, C. M. T. S. T. Bagetta, G. and S. Sakurada, Eds., vol. 85. Academic Press, 2009, pp. 1-11. [5] C. Crescentini, S. Seyed-Allaei, A. Vallesi, and T. Shallice, “Two networks involved in producing and realizing plans,” Neuropsychologia, vol. 50, no. 7, pp. 1521-1535, 2012. [6] R. H. Lazeron, S. A. Rombouts, W. C. Machielsen, P. Scheltens, M. P.Witter, H. B. Uylings, and F. Barkhof, “Visualizing brain activation during planning: The tower of London test adapted for functional MR imaging,” American Journal of Neuroradiology, vol. 21, no. 8, pp.14071414, 2000. 16 [7] T. Tsukiura, T. Fujii, T. Takahashi, R. Xiao, M. Inase, T. Iijima, A. Yamadori, and J. Okuda, “Neuroanatomical discrimination between manipulating and maintaining processes involved in verbal working memory; a functional MRI study,” Cognitive Brain Research, vol. 11,no. 1, pp. 13-21, 2001. [8] G. A. T. Blanco, “Metodología para el desarrollo de arquitecturas cognitivas basada en Neurociencias,” Tesis de doctorado, Cinvestav, UnidadGuadalajara, 2013. [9] K. Kennedy and R. E. Mercer, “Planning animation cinematography and shot structure to communicate theme and mood,” in Proceedings of the 2nd International Symposium on Smart Graphics, ser. ACM, 2002, pp. 1-8. [10] M. Lau and J. J. Kuffner, “Behavior planning for character animation,”in Proceedings of the 2005 ACM SIGGRAPH/Eurographics Symposium on Computer Animation, ser. SCA ’05. ACM, 2005, pp. 271-280. [11] D. Vernon, G. Metta, and G. Sandini, “The iCub cognitive architecture: Interactive development in a humanoid robot,” in Development and Learning, 2007. ICDL 2007. IEEE 6th International Conference on, 2007, pp. 122-127. [12] D. Reitter and C. Lebiere, “A cognitive model of spatial path-planning, ”Computational and Mathematical Organization Theory, vol. 16, pp.220245, 2010. [13] R. Hill, J. Chen, J. Gratch, P. Rosenbloom, and M. Tambe, “Soar-RWA: Planning, teamwork, and intelligent behavior for synthetic rotary wing aircraft,” in Proceedings of the 7th Conference on Computer Generated Forces & Behavioral Representation, 1998. [14] W. Wallach, S. Franklin, and C. Allen, “A conceptual and computational model of moral decision making in human and artificial agents,” Topics in Cognitive Science, vol. 2, no. 2, pp. 454-485, 2010. [15] S. Franklin, “A foundational architecture for artificial general intelligence,” Advances in Artificial General Intelligence: Concepts, Architectures and Algorithms, vol. 6, pp. 36-54, 2007. [16] U. Ramamurthy, B. J. Baars, D. S. K., and S. Franklin, LIDA: A working model of cognition,” 2006. [Online]. Available: http://cogprints.org/5852/ [17] S. Degallier, L. Righetti, L. Natale, F. Nori, G. Metta, and A. Ijspeert, “A modular bio-inspired architecture for movement generation for the infant-like robot iCub,” in Biomedical Robotics and Biomechatronics, 2008. BioRob 2008. 2nd IEEE RAS EMBS International Conference on, 2008, pp. 795-800. [18] N. G. Tsagarakis, G. S. G. Metta, D. Vernon, R. Beira, F. Becchi,L. Righetti, J. Santos-Victor, A. J. Ijspeert, M. C. Carrozza, and D. G.Caldwell, “iCub: the design and realization of an open humanoid platform for cognitive and neuroscience research,” Advanced Robotics, vol. 21, no. 10, pp. 1151-1175, 2007. [19] D. Vernon, C. Von Hofsten, and L. Fadiga, A Roadmap for Cognitive Development in Humanoid Robots, R. Dillmann, Y. Nakamura,S. Schaal, and D. Vernon, Eds. Springer, 2010. [20] M. Sadeghi, M. Andani, A. Fattah, and M. Parnianpour, “A mixture of modular structures to describe human motor planning level: A new perspective based on motor decomposition,” in Biomedical Engineering (ICBME), 2011 18th Iranian Conference of, 2011, pp. 199-204. [21] B. J. Best and C. Lebiere, Cognition and multi-agent interaction: From cognitive modeling to social simulation. Cambridge University Press,2006, ch. Cognitive agents interacting in real and virtual worlds, pp.186-218. [22] V. Chiew and Y. Wang, “Formal description of the cognitive process ofproblem solving,” in Cognitive Informatics, 2004. Proceedings of the Third IEEE International Conference on, 2004, pp. 74-83. [23] A. Pauchet, N. Chaignaud, and A. El Fallah Seghrouchni, “A computational model of human interaction and planning for heterogeneous multi-agent systems,” in Proceedings of the 6th international joint conference on Autonomous agents and multiagent systems, 2007, pp.403-405. [24] J. Funge, X. Tu, and D. Terzopoulos, “Cognitive modeling: knowledge, reasoning and planning for intelligent characters,” in Proceedings of the 26th annual conference on Computer graphics and interactive techniques, 1999, pp. 29-38. [25] E. Bizzi, M. C. Tresch, P. Saltiel, and A. d’Avella, “New perspectives on spinal motor systems,” Nature Review Neuroscience, vol. 1, pp. 101108, 2000. [26] S. N. Haber, “The primate basal ganglia: parallel and integrative networks,” Journal of Chemical Neuroanatomy, vol. 26, no. 4, pp. 317330, 2003. IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 1, JAN. 2015 [27] S. N. Haber and R. Calzavara, “The cortico-basal ganglia integrative network: The role of the thalamus,” Brain Research Bulletin, vol. 78,pp. 69-74, 2009. [28] H. J. Groenewegen, “The basal ganglia and motor control,” Neural Plasticity, vol. 10, no. 1-2, pp. 107-120, 2003. [29] J. D. Wallis, “Orbitofrontal cortex and its contribution to decision making,” Annual Review of Neuroscience, vol. 30, pp. 31-56, 2007. [30] E. T. Rolls, “The orbitofrontal cortex and reward,” Cerebral cortex, vol. 10, no. 3, pp. 284-294, 2000. [31] W. Schultz, L. Tremblay, and J. R. Hollerman, “Reward processing in primate orbitofrontal cortex and basal ganglia,” Cerebral Cortex, vol. 10, no. 3, pp. 272-283, 2000. [32] S. H. Johnson Frey, R. Newman Norlund, and S. T. Grafton, “A distributed left hemisphere network active during planning of everyday tool use skills,” Cerebral Cortex, vol. 15, no. 6, pp. 681-695, 2005. [33] S. Glover, M. B. Wall, and A. T. Smith, “Distinct cortical networks support the planning and online control of reaching-to-grasp in humans,” European Journal of Neuroscience, vol. 35, pp. 909-915, 2012. [34] S. D. Newman, P. A. Carpenter, S. Varma, and M. A. Just, “Frontal andparietal participation in problem solving in the tower of London: fMRI and computational modeling of planning and high-level perception,” Neuropsychologia, vol. 41, pp. 1668-1682, 2003. [35] J. Unterrainer, B. Rahm, C. Kaller, C. Ruff, J. Spreer, B. Krause,R. Schwarzwald, H. Hautzel, and U. Halsband, “When planning fails: Individual differences and error-related brain activity in problem solving,” Cerebral Cortex, vol. 14, no. 12, pp. 1390-1397, 2004. [36] E. Hoshi and J. Tanji, “Area selective neuronal activity in the dorsolateral prefrontal cortex for information retrieval and action planning,” Journal of neurophysiology, vol. 91, no. 6, pp. 2707-2722, 2004. [37] C. P. Kaller, B. Rahm, J. Spreer, C. Weiller, and J. M. Unterrainer, “Dissociable contributions of left and right dorsolateral prefrontal cortexin planning,” Cerebral cortex, vol. 21, no. 2, pp. 307-317, 2011. [38] R. A. Andersen, L. H. Snyder, D. C. Bradley, and J. Xing, “Multimodal representation of space in the posterior parietal cortex and its use in planning movements,” Annual review of neuroscience, vol. 20, no. 1,pp. 303-330, 1997. [39] C. A. Buneo and R. A. Andersen, “The posterior parietal cortex: Sensorimotor interface for the planning and online control of visually guided movements,” Neuropsychologia, vol. 44, no. 13, pp. 2594-2606, 2006. [40] H. Scherberger, R. Q. Quiroga, and R. A. Andersen, Principles of Neural Coding. CRC Press Taylor & Francis Group, 2013, ch. Coding of Movement Intentions, pp. 303-322. [41] E. Hoshi and J. Tanji, “Distinctions between dorsal and ventral premotor areas: anatomical connectivity and functional properties,” Current Opinion in Neurobiology, vol. 17, no. 2, pp. 234-242, 2007. [42] E. Bausela Herreras, “Implicaciones de las conexiones corticales y subcorticales del lóbulo frontal en la conducta humana,” Psicología y Psicopedagogía, vol. 6, no. 17, 2007. [43] A. W. MacDonald, J. D. Cohen, V. A. Stenger, and C. S. Carter, “Dissociating the role of the dorsolateral prefrontal and anterior cingulated cortex in cognitive control,” Science, vol. 288, pp. 18351838, 2000. [44] E. Hoshi and J. Tanji, “Integration of target and body-part information in the premotor cortex when planning action,” Nature, vol. 408, no.6811, pp. 466-470, 2000. [45] K. S. Smith, A. J. Tindell, J. W. Aldridge, and K. C. Berridge, “Ventral pallidum roles in reward and motivation,” Behavioural brain research, vol. 196, no. 2, pp. 155-167, 2009. [46] G. Mogenson, L. Swanson, and M. Wu, “Neural projections from nucleus accumbens to globus pallidus, substantia innominata, and lateral preoptic-lateral hypothalamic area: an anatomical and electrophysiological investigation in the rat,” The Journal of Neuroscience, vol. 3, no. 1,pp. 189-202, 1983. [47] L. Carretié, J. Albert, and S. López-Martín, “Papel de la corteza prefrontal ventromedial en la respuesta a eventos emocionalmente negativos,” Revista de Neurología, vol. 50, no. 4, pp. 245-252, 2010. [48] H. Mushiake, N. Saito, K. Sakamoto, Y. Itoyama, and J. Tanji, “Activity in the lateral prefrontal cortex reflects multiple steps of future events in action plans,” Neuron, vol. 50, no. 4, pp. 631-641, 2006. [49] H. Mushiake, N. Saito, K. Sakamoto, Y. Sato, and J. Tanji, “Visually based path-planning by Japanese monkeys,” Cognitive Brain Research, vol. 11, no. 1, pp. 165-169, 2001. LÓPEZ et al.: COMPUTATIONAL MODEL OF MOTOR PLANNING Sonia López Ruiz, recibió el grado de Maestra en Ciencias en Ciencias de la Computación por el Centro Nacional de Investigación y Desarrollo Tecnológico (CENIDET)y actualmente está inscrita en el programa doctoral en Ingeniería Eléctrica en el Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional (CINVESTAV) Unidad Guadalajara, México. Sus áreas de interés incluyen arquitecturas cognitivas y sistemas distribuidos. José Antonio Cervantes Alvarez, recibió el grado de Maestro en Ciencias en Ciencias de la Computación por el Centro Nacional de Investigación y Desarrollo Tecnológico (CENIDET) y actualmente está inscrito en el programa doctoral en Ingeniería Eléctrica en el Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional (CINVESTAV) Unidad Guadalajara, México. Sus áreas de interés incluyen arquitecturas cognitivas, agentes autónomos y sistemas distribuidos. Francisco Abelardo Robles Aguirre, recibió el grado de Doctor en Ciencias por el Instituto de Neurociencias de la Universidad de Guadalajara (UDG). Es profesor investigador del Centro Universitario del Norte de la UDG. Sus áreas de interés incluyen los correlatos neurológicos del procesamiento lingüístico, el registro de la actividad eléctrica cerebral durante la resolución de tareas que evalúan funciones ejecutivas y el modelado de sistemas cognitivos, en específico, de la actividad de los circuitos prefrontales. Ha publicado más de 20 artículos en conferencias, capítulos de libro y revistas indexadas. Félix Francisco Ramos Corchado, recibió el grado de doctor en ciencias por la Universidad Tecnológica Compiegne, Francia. Es profesor de Ciencias de la Computación en el Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional (CINVESTAV) campus Guadalajara, México. Sus áreas de interés incluyen sistemas distribuidos complejos, sistemas multi-agentes, sistemas distribuidos inspirados en la naturaleza y en el cerebro. Ha publicado más de 90 artículos técnicos en conferencias, capítulos de libro y revistas. 17