Versión para imprimir - Revistas Académicas
Transcripción
Versión para imprimir - Revistas Académicas
3er Congreso Internacional de Ingeniería Mecatrónica – UNAB 1 Animatrónica: Diseño mecatrónico para el entretenimiento. MIME FACE, un ejemplo de aplicación Hernández Espitia, César Augusto [email protected] Hochschule Karlsruhe - Technik und Wirtschaft (HsKA), Alemania Abstract— This article, presents the mechatronic design process by using an application example, the creation of a human face based animatronic: MIME FACE. A step by step explanation is exposed, starting from the problem statement, it shows the artistic conception and initial functions, and how it was advanced throughout the process; it is explained the most important factors for the decision taking, and those distinctive aspects for the mechatronic design. The project results are evaluated not only in a technical manner, but also by analyzing the way people interacted with it and how different media presented it, showing that the chosen path presented an adequate way for a successful design. Finally, different possibilities arise for further developments. Resumen—En este artículo se presentan los componentes necesarios en la creación de un diseño mecatrónico a partir del procedimiento que fue utilizado para la construcción del animatrónico de movimiento facial: MIME FACE. Partiendo desde el planteamiento del problema, se expone la concepción artística y funcional inicial, y como se avanzó a lo largo del proyecto; se explican los factores más importantes para la toma de decisiones, y se resaltan aquellos aspectos distintivos del diseño mecatrónico. El resultado final presentado es evaluado, no sólo desde un punto de vista técnico, sino también de una forma particular: Interacción y aparición en distintos medios de comunicación. Finalmente se plantean distintas posibilidades para desarrollos futuros. Índice de Términos—Animatrónica, Ingeniería mecatrónica, diseño mecatrónico, robótica, entretenimiento, interacción hombre-robot I. INTRODUCCIÓN El diseño mecatrónico, entendido como el desarrollo a partir de la sinergia de diferentes áreas de la ingeniería [34], y no solamente como la utilización aislada de las mismas, exige el pensar de forma transversal cada uno de los procedimientos y productos involucrados en cualquier proyecto; esto quiere decir, la concepción de un sistema mecatrónico no debe hacerse de manera secuencial, separando cada uno de los componentes tecnológicos (electrónica, mecánica, programación y control), sino pensando en la obra completa, teniendo en cuenta la integración de estos elementos para obtener como resultado un objeto no puramente mecánico, ni electrónico, sino un producto complementario en el cual no puede permitirse la separación de dichas áreas, potencializando la optimización de los resultados. A partir del caso específico de la creación del animatrónico MIME FACE [1] [32] este artículo realiza una aproximación al proceso de diseño mecatrónico, partiendo desde el planteamiento del problema y el desarrollo técnico del mismo. Los animatrónicos son máquinas diseñadas para verse y actuar como personajes de ficción, animales o humanos. Su diseño pretende generar y recrear gestos, para lograr representar emociones propias del ser humano [2] [3] [27], o bien reconocerlas [28], lo que les permite encontrar aplicaciones en áreas como el entretenimiento [25] [26], el aprendizaje [4] e incluso la terapia sicológica [5] [33]. La primera aparición de un animatrónico puede ubicarse en el año 1954, con la célebre película de Disney “20.000 Leguas de viaje submarino”, en dónde un calamar gigante aparecía en escena, mientras que detrás de cámaras, decenas de cables y algunos cilindros hidráulicos dotaban de movimiento al monstruo. Muchos esfuerzos se han centrado en lograr que la interacción de los animatrónicos con su interlocutor esté dotada de un mensaje no solo oral, sino gestual. Para este fin se han propuesto algunas soluciones con controles remotos y control de movimiento por interpretación de sonidos (i.e. [24] [25]). Hoy en día pueden encontrarse animatrónicos en parques de diversiones, museos, películas y centros de investigación, evolucionando desde muñecos manipulados por cables, controles digitales simples (sistemas on-off) hasta sistemas analógicos (o digitales de alta resolución) muy avanzados. Esto ha permitido un control más preciso, y movimientos más reales, incluso, algunos están dotados con sensores de tacto y cámaras (entre otros sistemas de retroalimentación) que permiten interactuar con ellos, a su vez que los animatrónicos cobran vida y reaccionan de forma casi natural ante distintos estímulos. II. ANÁLISIS PRELIMINAR 3er Congreso Internacional de Ingeniería Mecatrónica – UNAB 2 El éxito en el proceso de diseño depende directamente del comprender el proceso que se quiere implementar, en este caso el movimiento de un rostro humano. Para lograr este objetivo, es necesario analizar su estructura, entendiendo el origen de cada uno de los movimientos que realiza y cómo son efectuados; sólo así es posible establecer los recursos tecnológicos que serán utilizados. En esta sección se explica el procedimiento utilizado para comprender la manera en que se generan los movimientos y de cómo están distribuidos, de este modo lograr un acercamiento efectivo al problema, con lo que pueden desarrollarse las consideraciones de diseño, proceso fundamental en para el desarrollo de cualquier diseño mecatrónico. puntos principales del movimiento; estos puntos fueron relacionados con los diferentes huesos y músculos que componen la cara, entendiendo a los primeros como los encargados de dar soporte, protección y forma a la cara, y a los músculos como los responsables de los movimientos y gestores de las expresiones faciales, llevando a cabo un extenso estudio anatómico de los componentes faciales [6] [7] [8] [9] [10] [11] [12] [14]. Para este análisis de imágenes, las fotografías fueron tratadas en un programa de edición, consiguiendo un mejor contraste entre los movimientos relacionados para realizar una comparación más eficaz (Fig. 2). Los lugares en donde el movimiento fue considerado más significativo fueron resaltados y puntualizados, para posteriormente estudiar la forma más práctica de reproducirlos. A. Análisis del rostro humano y sus movimientos MIME FACE, parte de un esfuerzo por mejorar los proyectos existentes en el medio de animatrónicos e interacción entre robot y hombre a partir del estudio formal del rostro humano, sus gestos, y principalmente los movimientos involucrados en la fonación. Para este fin fueron revisados diferentes estudios sobre las proporciones de la cara humana [15] [16] [17] [18] [19], respetando lo que se consideró como estéticamente adecuado y su aceptación en ramas como la medicina estética y la representación artística de la misma. Figura 1. Modelo del rostro en arcilla. En base a dichos estudios, fue modelado un busto en arcilla (Fig. 1), con el fin de facilitar el análisis de las proporciones y crear conciencia acerca del espacio disponible, de esta manera poder realizar una selección adecuada de materiales, actuadores, sistema de control y mecanismos involucrados en el movimiento. Paralelamente a este primer acercamiento espacial del desarrollo, se realizó una identificación de los gestos principales del rostro. A partir de la recolección y análisis de una base de datos de fotografías digitales, se identificaron los Figura 2. Ejemplo de imágenes digitales para el análisis de movimientos. Fueron asignados diferentes puntos de movimiento (Fig. 3), cinco alrededor de los labios: dos en su parte superior, uno en la parte central del labio inferior y dos en los extremos laterales de los labios. Los ubicados en el labio superior y en la parte central del inferior de movimiento vertical (arriba y abajo) y transversal (adentro y afuera), los dos en los extremos laterales con desplazamiento vertical y también horizontal (derecha e izquierda), este último antagónico uno del otro (cuando el extremo derecho se mueve hacia la derecha el izquierdo se mueve hacia la izquierda y viceversa, como en movimientos relacionados con un beso o una sonrisa). También se consideraron como puntos de movimiento las pestañas (arriba y abajo), sumando cuatro (dos pestañas por ojo), los ojos (horizontal y vertical, un punto por ojo), las cejas (dos puntos de movimiento por cada ceja) y el movimiento mandibular de apertura y clausura de la boca (no se consideraron los otros movimientos de la mandíbula al no considerarse importantes), para un total de 16 puntos de movimiento con 23 direcciones diferentes. El siguiente paso fue determinar los movimientos predeterminados más importantes, tales como gestos notorios para la expresión de emociones, como la risa, la contracción de las cejas, la apertura de los ojos, y, finalmente, la vocalización en la emisión de fonemas. Para este fin, se utilizó como herramienta complementaria el estudio de los grupos de fonemas humanos [13] [29] [30]. Tras el análisis, los grupos expresivos fueron agrupados por las letras caracterizadas por movimientos de estos puntos de manera semejante y que concordaran en su clasificación fonética. Las consonantes se agruparon teniendo en cuenta dos 3er Congreso Internacional de Ingeniería Mecatrónica – UNAB 3 criterios, su punto de articulación y la semejanza existente entre los rasgos visibles de cada letra. Para el primer grupo de consonantes se tomaron aquellas con rasgos bilabiales (B, M, P). El segundo grupo se conformó con las consonantes de rasgos Interdentales, dentales y alveolares (D, N, Ñ, S, T, X, Z, C, R). El tercer grupo está compuesto por consonantes labiodentales (F, V) y como cuarto grupo están la H y el grupo las consonantes con rasgos velares (G, H, J, K, Q). Las vocales A, E, O, no fueron agrupadas, debido a los rasgos únicos en su articulación; la vocal I fue agrupada con la L e Y, mientras que la U se agrupó con la W. control requeridos para lograr movimientos fluidos y precisos, potencializados con los mecanismos indicados. El sistema de control tendría que ajustarse de acuerdo a la velocidad brindada por cada mecanismo y la ubicación de cada actuador que los acciona; a su vez, estar integrado a una interfaz de usuario sencilla, que permita un manejo rápido y práctico. Estas consideraciones de diseño, las restricciones y relaciones encontradas, son el núcleo real de la labor del diseño mecatrónico; cada una de las decisiones que fueron tomadas, a partir de este punto, y, a pesar que el desarrollo debe concentrarse en la mejor selección por áreas tecnológicas, son el resultado de la labor del ingeniero especializado en mecatrónica, en este caso, la selección de material, la selección de actuadores, sistemas de control y la selección de mecanismos. La interdisciplinariedad del trabajo realizado en este punto es evidente, y es en este proceso donde debe centrarse todo esfuerzo en el área de mecatrónica, no es suficiente con hacer una mezcla de conceptos, es necesario que el diseño tenga en cuenta cómo cada una de las decisiones afectará las áreas de ingeniería involucradas, es menester del diseñador intentar no obviar la relación existente entre ellas y así plantear las mejores soluciones, en pro de hallar la solución óptima para resolver el problema planteado. En la siguiente sección se mostrará el proceso de selección de materiales, actuadores, estructura, mecanismos, sistema de control e interfaz, explicado de manera secuencial. Cabe resaltar que esto no está en contravía de la filosofía anteriormente expuesta para el diseño mecatrónico, es tratado de esta manera para presentar la descripción del proceso de selección de forma ordenada y partiendo estrictamente de las consideraciones de diseño expuestas en esta sección. Figura 3. Representación de los puntos principales de movimiento en el rostro. B. Consideraciones de diseño A partir de las condiciones establecidas en el análisis del rostro, fueron establecidas las consideraciones técnicas para el desarrollo del animatrónico. Es en este punto cuando el trabajo de diseño mecatrónico es más exhaustivo, y en donde las decisiones tendrán más peso sobre el resultado final. Es necesario establecer límites bien definidos en cuanto a las necesidades y posibilidades del proyecto, enfrentando los requerimientos y especificaciones de diseño a una evaluación organizada e imparcial de los recursos a utilizar. Se pretende lograr un modelo compacto, ligero y además respetuoso de las medidas reales de una cabeza humana, el dispositivo debe ser portátil y fácil de transportar. La primera restricción tiene que ver entonces con el tamaño y peso, este último influenciando también en el consumo energético de los actuadores; el peso es por esta razón una prioridad en el proceso de selección. La estructura debía ser pensada de manera que requiriera la menor cantidad de material posible, rigidez y estabilidad, pero además que el proceso de maquinado resultara sencillo, asequible y fácilmente modificable. En cuanto a los actuadores, no solamente es importante su tamaño, peso, bajo consumo energético (dependiente del peso de la estructura), también se debe pensar en los sistemas de III. SELECCIÓN DE ASPECTOS TÉCNICOS A. Selección de la estructura y el material A partir de las consideraciones de diseño, se llegó a la conclusión que la estructura debería ser resistente, ligera y fácil de modificar, por estas razones fue elegida una construcción modular utilizando láminas de material, lo cual maximizaba el volumen disponible, permitiendo la fácil adaptación de distintos tipos de actuadores y mecanismos, además de minimizar costos y disminuir la dificultad en el montaje de cada una de las piezas que posteriormente compondrían el prototipo. 3er Congreso Internacional de Ingeniería Mecatrónica – UNAB 4 Figura 5. FEA de la base de la estructura. Figura 4. CAD del animatrónico MIME FACE. Era necesario buscar un material que permitiera el laminado, ó, que se encontrara de este modo en el mercado, se elaboró una tabla comparativa [1] en donde se discriminaron características como precio, utilidad, estética, facilidad de uso, flexibilidad, resistencia, peso, facilidad de montaje y facilidad de consecución, estableciendo una calificación a cada una. Fueron comparados materiales como el aluminio, el acero, el hierro, el plástico, el acrílico, la resina de nylon, maderas en general y el MDF, siendo este último uno de los más adecuados para la construcción del prototipo, desatacándose por su precio, utilidad, facilidad de uso, peso y disponibilidad en el mercado, comparado con los demás materiales. Sin embargo, el MDF presentó deficiencias en cuanto a estética y resistencia, características en las que el acrílico se destacaba, esto hizo que los dos materiales hubieran obtenido una alta puntuación final. La selección definitiva del material se hizo entonces tomando en cuenta el precio, razón por la cual el prototipo fue hecho en MDF. El diseño y construcción del animatrónico, estuvo siempre acompañado de la elaboración de un modelo virtual mediante herramientas de CAD (Fig. 4), dicho modelo fue utilizado para hacer un análisis de elementos finitos (FEA), el cual corroboró que el material y estructura seleccionados serían los indicados para soportar la estructura completa, cada pieza fue analizada de forma individual y en conjunto, encontrando el máximo esfuerzo en la pieza de soporte de la estructura, cuya forma fue hecha con el fin de dar forma a la parte posterior del cráneo (Fig. 5). B. Selección del actuador En la selección del actuador se llevó a cabo un proceso semejante al realizado en la selección del material [1], evaluando precio, utilidad, fuerza, funcionamiento, facilidad de control, tamaño, estabilidad, facilidad de montaje y peso; los actuadores evaluados fueron cilindros neumáticos, cilindros hidráulicos, alambres musculares, motores paso a paso, motores de corriente continua, motores de corriente alterna, motores con reducción y servomotores; los servomotores resultaron ser los más indicados para ser usados en el proyecto, con altos puntajes en utilidad, funcionamiento, facilidad de control y estabilidad, y sin ninguna debilidad relevante [1]. El uso de los servomotores facilita además de gran manera el diseño del sistema de control, ya que estos son sistemas realimentados, con lo cual resulta sencillo controlar su posición angular en todo momento. En cuanto al consumo, un cálculo rápido de la corriente consumida por un servo estándar sirvió de base para establecer finalmente si eran los indicados, a pesar que ya se había tomado la decisión de usarlos. Debido a que la información acerca de la corriente consumida por los motores no se encuentra en la hoja de especificaciones del servomotor [31], fue necesario calcularla a partir de los datos allí consignados. Se usaron las siguientes ecuaciones: (1) (2) (3) Se tomaron en cuenta los siguientes valores, proporcionados en la hoja de especificaciones del servomotor Futaba S3003 [31]. 3er Congreso Internacional de Ingeniería Mecatrónica – UNAB 5 Se utilizó una eficiencia estándar η=0,8. Usando (1), se encontró que: Usando (2) se calculó que Luego haciendo uso de (3) se encontró que la corriente , según la proyección encontrada de acuerdo a la cantidad de puntos de movimiento, al usar entonces 16 servomotores se requiere una fuente de 5V capaz de entregar 1,92 A. Los movimientos humanos pueden llegar a ser excesivamente variables, por tanto era necesario seleccionar un servomotor adecuado incluso para los movimientos más rápidos en el rostro, este es, la acción de parpadear. Es un hecho que un ojo del ser humano parpadea más de 15000 veces en un día (para mantener el ojo húmedo); si sumamos el tiempo de cada parpadeo, pasamos más de 30 minutos al día con los ojos cerrados. Partiendo de este dato, se deduce que cada vez que se parpadea, los párpados duran cerrados aproximadamente 0,12s. El ojo humano es capaz de captar 24 imágenes por segundo, lo que arroja una tolerancia de 0,042 s. Se parte entonces de un silogismo sencillo: 1. El parpadear tiene dos tiempos, el cerrar el ojo y el abrirlo, ahora, 2. El ojo dura cerrado 0.12 s., con una tolerancia de 0.042 s. lo que da un límite máximo de 0.162 s. con los ojos cerrados; Se asumió un tiempo igual para el acto de cerrar los ojos, al igual que para abrirlos, por tanto el parpadeo tiene que durar tres veces el tiempo predicho, esto sería 0,486 s. Ahora, el servomotor Futaba S3003, tiene una velocidad de 0.23 s/60°, esto quiere decir que para satisfacer la velocidad propuesta el movimiento del párpado tenía que ser conseguido con un recorrido del servomotor de 120°, permitiendo así alcanzar el límite establecido. Se decidió entonces utilizar dicho servomotor, pues este era no sólo el más económico en el mercado sino que también el más fácil de encontrar. C. Selección del mecanismo Teniendo en cuenta la selección del material, los actuadores y los requerimientos de espacio, se inició el proceso de diseño preliminar para los mecanismos. Figura 6. Diseños preliminares de distintos mecanismos Retomando el análisis realizado para puntos de movimiento, se hizo una simplificación de los movimientos, argumentados por la simetría de los mismos, que a pesar que en la vida real pueden ser hechos de forma independiente, podían ser tomados en su mayoría como pares, siendo necesarios solamente 10 puntos móviles. De esta forma los movimientos eran simétricos tanto para el lado derecho como el izquierdo del rostro. Sin embargo, queriéndole otorgar un poco más de expresividad al prototipo, se decidió hacer los movimientos de las cejas de forma individual, elevando a 11 estos puntos móviles. Con la optimización de puntos móviles realizada, se minimizó la cantidad de actuadores necesarios y se trató de aprovechar al máximo el espacio disponible para ubicarlos. Cada uno de los 11 servomotores sería el encargado de un punto individual de movimiento. El primer mecanismo en ser definido y construido fue el correspondiente a la mandíbula, el cual fue acoplado directamente al eje del motor, permitiendo el movimiento correspondiente su apertura. El siguiente mecanismo en ser construido fue el de los ojos, teniendo en cuenta la simetría de los movimientos, se requirió de tan solo dos motores, tal y como se había previsto con la simplificación de puntos móviles. El primero de los motores, es el encargado del movimiento horizontal de los ojos, acoplado de manera directa al ojo izquierdo del animatrónico, y luego, por medio de un mecanismo de cuatro eslabones [20] [21], en donde los eslabones 1 y 2 tienen el mismo radio, se logró que ambos ojos se movieran a la misma velocidad, idéntico sentido y coordinadamente. A continuación se incluyó el mecanismo para el movimiento vertical de los ojos; debido a las restricciones de espacio este no se podía colocar directamente sobre el eje de los ojos, correspondiente al movimiento vertical, por lo que se decidió usar un mecanismo de corredera pasador [20] [21], el cual además, brindaba la posibilidad de hacer una reducción en el ángulo barrido en todo el movimiento. Para finalizar el proceso de diseño de los puntos móviles correspondiente a los ojos, se diseñó el mecanismo de las pestañas, para el cual se usaron dos mecanismos de cuatro 3er Congreso Internacional de Ingeniería Mecatrónica – UNAB 6 eslabones [20] [21], uno encargado del par de pestañas inferiores, y el otro de las superiores. Figura 7. Diseño de las cejas. Continuando con el diseño de los mecanismos, se analizó la manera de recrear los movimientos producidos en los labios, todos ellos movimientos de traslación, para lo que se utilizaron cuatro servomotores, dos de ellos, el correspondientes a los puntos centrales del labio superior e inferior acoplados en un mecanismo de yugo escocés [20] [21], y los otros dos, acoplados en un solo mecanismo de yugo escocés compuesto, permitiendo a un solo grupo de mecanismos, montados sobre la misma plataforma, controlar el movimiento de las comisuras de los labios. El último mecanismo en ser construido, fue el del movimiento de las cejas, el cual a pesar de haber sido analizado previamente, presentó varios desafíos. Uno de los principales, fue el del poco espacio disponible, siendo crítico en este punto luego de haber ubicado todos los otros mecanismos. Finalmente se optó por un diseño bastante sencillo, compacto y capaz de imitar de forma adecuada el movimiento de las cejas, un eje con dos puntos de apoyo (Fig. 7). Teniendo ya el diseño de todos los mecanismos, fue necesario comprobar que los actuadores serían capaces de cumplir con las condiciones necesarias de fuerza. Para ello se tomó el mecanismo que iba a estar sometido al máximo esfuerzo, el de la mandíbula. A partir del torque especificado para los servomotores [31], 3,3 kg-cm, el cual fue comparado con el torque crítico de los mecanismos en la mandíbula. Se realizaron dos mediciones, la distancia horizontal entre el centro de masa y el punto de giro, y la distancia total del mismo, siendo estos 8,372cm y 10,325cm respectivamente. La masa aproximada de la mandíbula es de 0,10687 kg. Con los datos de masa, equivalentes al peso del mismo, y la distancia, se pudo calcular fácilmente el torque requerido para mover este mecanismo, que como se indicó anteriormente, es el mecanismo que por su brazo y el punto de concentración de masa requiere un mayor torque para ser movido. Teniendo esto entonces: (4) Siendo el torque hallado en este punto suficiente, se concluyó que para todos los mecanismos el servomotor Futaba S3003 cumplía ampliamente las condiciones para el desarrollo del prototipo. Con el fin de crear una base de datos de las velocidades, requeridas para el sistema de control, el cual sería implementado a partir del software de interfaz de usuario, se hizo el cálculo de velocidades instantáneas a lo largo del recorrido de cada uno de los mecanismos. Fueron usados métodos gráficos de velocidades (i.e. Fig. 8) [20] [21], sin embargo estos resultaban tediosos, pues debían ser repetidos múltiples veces para obtener una descripción apropiada del sistema, las solución para lograr un cálculo apropiado varió de acuerdo con el tipo de mecanismo utilizado. Para el mecanismo del movimiento de los ojos en dirección vertical se utilizó el método de velocidades relativas [21]; por medio de un análisis trigonométrico se desarrolló un sistema de funciones dependientes del ángulo del motor con el cual se encontró el ángulo y velocidad de salida del mecanismo [1]. El sistema de ecuaciones es: (5) √ ( ) ) (6) (7) En donde VP2 es la velocidad del punto 2, V2 es la velocidad del eslabón 2, V4 es la velocidad del punto 4 ó velocidad de salida, θ el ángulo de entrada y α el ángulo de salida como se muestra en Fig. 8. 3er Congreso Internacional de Ingeniería Mecatrónica – UNAB 7 Figura 8. Ejemplo del análisis gráfico de mecanismos- Mecanismo de movimiento vertical de los ojos. Gráfica 1. Mecanismo de movimiento vertical de los ojos: Ángulo de entrada Vs. Ángulo y velocidad de salida. Para el mecanismo de las pestañas, se utilizó el método gráfico de centros instantáneos [20] [21], el cual se confirmó mediante el método numérico de cierre de circuito, los resultados del mecanismo de las pestañas superiores, análogo al de las pestañas inferiores, se describen en las siguientes gráficas: Gráfica 3. Mecanismos de Yugo escoces (Boca): Ángulo de entrada Vs. Ángulo y velocidad de salida. Los resultados resumidos de estos cálculos se muestran en la siguiente tabla: a) b) Horizontal de los ojos Vertical de los ojos Cejas Pestañas superiores Pestañas inferiores Mandíbula Labios superiores Labios inferiores Vertical de las comisuras Horizontal de las comisuras Velocidad media 1,1211 rad/s 4,553 rad/s 4,553 rad/s 0,7871 rad/s 0,6357 rad/s 4,553 rad/s 28,8886 mm/s 28,8886 mm/s 28,8886 mm/s 28,8886 mm/s Tabla I. Velocidades medias de los mecanismos. Gráfica 2. Mecanismo de movimiento de las pestañas: Ángulo de entrada Vs. a) Ángulo de salida y b) velocidad de salida. El último cálculo realizado fue el de los mecanismos de yugo escocés, los cuales describen una función coseno respecto a su posición, y dependen del radio del eslabón trasmisor, y seno en cuanto a su velocidad [1], su movimiento está descrito en la siguiente gráfica: D. Desarrollo del sistema de control e interfaz de usuario El desarrollo del sistema de control se realizó en lazo abierto, teniendo en cuenta que los servomotores cuentan con su propio sistema de control, y permiten un desarrollo del sistema de esta manera. Se hacía necesario de todas formas controlar la forma en que cada uno de los movimientos, modularlos para evitar que estos se vieran rígidos. Para esto la plataforma desarrollada divide el movimiento del servo-motor en 50 pasos individuales, de esta manera el movimiento programado es analizado y la velocidad ajustada para que al llegar a los extremos del recorrido el movimiento se realice suavemente, atenuando la velocidad al llegar a dichos puntos, El algoritmo desarrollado se aplica a los movimientos automáticos de la boca y las cejas. Para los ojos y pestañas, la plataforma permite los movimientos repentinos, al igual que en un rostro real, los movimientos suelen ser erráticos, permitiéndole al ojo buscar rápidamente objetos de interés para el observador. Es entonces que la programación de la interfaz de usuario es a su vez la encargada de controlar el sistema, programada de 3er Congreso Internacional de Ingeniería Mecatrónica – UNAB 8 forma modular para brindarle al usuario diferentes niveles de control sobre el animatrónico. El primer módulo maneja una interfaz primitiva que permite el manejo de los motores mediante la iteración de ingreso de datos en los que define los valores para definir la posición y velocidad (tiempo de recorrido) de cada uno de los servo-motores. El algoritmo está programado para variar la velocidad en que los movimientos son realizados, dividiendo el tiempo entre paso y paso del servo-motor, a partir del tiempo definido por el usuario. En la pantalla correspondiente a este módulo se listaron cada uno de los servomotores, facilitando un ingreso de datos de forma individual. El usuario define el ángulo, la velocidad y el tiempo de retardo para iniciar el movimiento. gestionar la comunicación entre el computador y el animatrónico (RS232); en este módulo es manejada la etapa de potencia para la alimentación de los servo-motores, la comunicación con el computador, y fueron agregados 8 módulos adicionales para el manejo de los servomotores sin necesidad del programa, utilizando potenciómetros. IV. EVALUACIÓN DE RESULTADOS Figura 10. MIME FACE en expociencia Colombia 2007. Imagen de archivo EL TIEMPO. 6 de Octubre de 2007 Figura 9.Captura de pantalla de la interfaz de usuario Finalmente, se elaboró un módulo más sencillo, incluido en la misma plataforma, permitiendo una interacción directa y programación en tiempo real, apuntando hacia la automatización de movimientos. En la pantalla correspondiente, se colocaron controles individuales para los ojos, las pestañas, las cejas y un cuadro adicional, en donde se da la posibilidad de ingresar texto, el computador divide la palabra en sus respectivas letras, cargando los valores de la posición que debe tomar cada uno de los motores para que la boca imite la gesticulación de la misma. Este control permite un manejo a manera de marioneta del animatrónico. La plataforma fue desarrollada en el dialecto de Basic, Visual Basic, en su versión 6.0, entorno de Visual Studio. Se utilizó la herramienta Microsoft Direct Text-to.Speech, necesaria para hacer la reproducción de sonido en tiempo real. El software lee cada una de las palabras y la reproduce cuando el animatrónico va a comenzar con la secuencia de cada una de ellas. Cuándo el animatrónico se dispone a vocalizar la primera letra, el computador inicia la reproducción correspondiente al sonido de cada palabra, logrando así una sincronización de gestos con la voz virtual. Adicionalmente se habilitó al programa la pronunciación letra por letra, es decir, el software reproduce el sonido de la letra que está siendo gesticulada por el animatrónico en dicho instante, tratando de evitar los problemas que en algunos casos se generaban en la sincronización. Se diseñó además un módulo de hardware externo para Una evaluación técnica en términos de rendimiento, eficiencia o cualquier otra medida típica de sistemas mecatrónicos resulta complicada para este animatrónico, pues no existe un estándar para la evaluación de este tipo de desarrollos, sin embargo, puede afirmarse que este robot habla por sí mismo. A nivel técnico el animatrónico de movimiento facial MIME FACE, ha sido evaluado como una exitosa combinación entre ingenio y diseño mecatrónico. Su éxito se debe específicamente a esto, es una muestra de lo que requiere un sistema mecatrónico para ser considerado como tal. Peter H. Kahn, Jr. et al. En [35], propone un conjunto de nueve puntos de referencia psicológicos para poder medir el éxito al diseñar robots de apariencia humana: autonomía, imitación, valor moral intrínseco, responsabilidad moral, privacidad, reciprocidad, convencionalidad, creatividad y autenticidad de relación. El análisis de estos puntos se desarrolló a través de la experiencia de interacción de distintas personas a lo largo de diferentes eventos en los cuales el animatrónico fue expuesto, entre ellas: Expociencia y expotecnología 2007, Campus Party Colombia 2008, Campus Party Iberoamérica 2008 y Campus Party Valencia 2009, en donde se simulaban conversaciones, en las cuales una persona (operador) ingresaba las respuestas a preguntas que hacía la persona que se encontraba en frente del robot (espectador), a su vez que se encargaba de mover los ojos y cejas y configurar el “estado anímico” del robot. El animatrónico MIME FACE, no fue concebido con el fin de mantener una conversación autónoma con un humano, su diseño está limitado a la forma en que un operador le da instrucciones de que decir o hacer, sin embargo, Kahn hace referencia también a lo que él denomina “mímica de 3er Congreso Internacional de Ingeniería Mecatrónica – UNAB 9 autonomía”, comprobada a través de monólogos en los cuales el robot cambiaba los gestos de acuerdo al desarrollo de su presentación, generando cierta empatía en el público, un caso particular es una recopilación de bromas que fueron programadas, en donde el robot se programó para reírse de sus propias bromas, actitud que era percibida por el público (Fig. 11). La imitación de la cual habla Kahn, se puede medir con dos aspectos distintos, en primer lugar, el diseño del animatrónico está enfocado precisamente en reproducir los movimientos de un rostro real, con lo que los conceptos de imitación proyectiva y subjetiva, descritos en [35], se reflejan en el intento por apropiarse de fuentes externas para realizar sus propias actividades, al igual que lo hace un niño en sus primeros años de aprendizaje. En segundo lugar, el concepto de imitación eyectiva, que es cuando la persona que interactúa con una máquina imita lo que esta máquina hace, en este punto era curioso ver como muchas personas replicaban los movimientos que el animatrónico hacía, cumpliendo pues con las características antes mencionadas. El valor moral intrínseco es un poco más complicado de entender, puede resumirse como el interés y cuidado que despierta un robot con su observador humano, empatía; Este concepto es más notorio en los niños, en el caso de MIME FACE, preguntaban sobre la hora en que iba a dormir, o entablaban conversaciones en las que esperaban pacientemente una respuesta, e incluso, no dejaban de tener contacto con él hasta que este se despedía de ellos. en que se decidió hacer los experimentos de conversación con la gente, con quienes efectivamente entablaba una conversación, así mismo, las convenciones lingüísticas, y comportamentales, dependían en gran manera de su operador, al igual que la creatividad en su comportamiento. El último punto, la autenticidad en la relación, fue observado en la forma en que las personas que interactuaban con él, trataban siempre de establecer un contacto visual, es decir ojo a ojo con el robot, se reían con él y se interesaban en saber más de lo que él decía. A partir del artículo de Kahn [35], se puede hacer una evaluación un poco más técnica, enfocada hacia los robots con apariencia humana, en el caso de MIME FACE, éste logra apuntar bien en cuatro puntos de la lista: Imitación, valor moral intrínseco, reciprocidad y autenticidad de la relación. Por su naturaleza, es decir de ser solamente una marioneta, sin ningún lazo de control cerrado que permita a su algoritmo tener una realimentación de su entorno, MIME FACE se muestra débil en puntos como privacidad y creatividad. Los últimos dos puntos se crean a partir de una ilusión cuyo responsable es el operario, y a pesar de que son proyectados por el robot, obedecen exclusivamente a su cerebro humano: Autonomía, responsabilidad moral y convencionalidad. Figura 12. MIME FACE, presentado en Campus Party Iberoamérica. Figura 11. Interacción con personas, la niña ríe de una broma que le cuenta el animatrónico MIME FACE. Los dos siguientes puntos en la lista de Kahn, responsabilidad moral y privacidad, son los dos puntos más complicados en la evaluación de MIME FACE, debido a que este no responde de acuerdo a un algoritmo de comportamiento, luego no cuenta con ningún tipo de limitante, salvo a las que el operador mismo tenga como tales. Sin embargo, una aproximación a la responsabilidad moral era dada al advertir a los espectadores que éste podía morderles, y cuando en medio de la conversación ellos le pedían que por favor no los mordiera, pues querían tocar su piel, apelando a un sentido de moralidad atribuido, más no real. La reciprocidad se puso a prueba desde el primer momento Al ser MIME FACE un robot principalmente diseñado para el entretenimiento, otra forma de evaluar el impacto relativo del robot fue la recopilación de distintas noticias, tanto en televisión, prensa e internet acerca del robot, algunos ejemplos: “Este robot recibe órdenes de jóvenes estudiantes de ingeniería a través de un computador. La máquina, construida enteramente en Colombia, puede imitar gestos humanos” Caracol Noticias, Septiembre 29 de 2007 “… un rostro mecatrónico para crear personajes de ficción fue presentado por la universidad de San Buenaventura.” El Tiempo, Sábado 6 de Octubre de 2007 (Fig. 11). “Al verla en la Campus Party da cierto temor, debido a que tiene una apariencia un poco miedosa, es como ver una 3er Congreso Internacional de Ingeniería Mecatrónica – UNAB 10 calavera viva. Pero una vez se pone a hablar con uno, la risa sale naturalmente y uno termina como un buen amigo de esta cara” Juan David Durán, NAGAsite.com, Junio 27 de 2008. cercana a la realidad. La robótica tiene muchas formas de expresión. Sin embargo, casi siempre está alejada de un público general. El utilizar la animatrónica como medio para hacer un acercamiento de este tipo resulta ser una excelente estrategia para generar interés por esta área. En consideración a lo anterior, se puede afirmar que este es un proyecto, de visión innovadora y orientada a acercar a un público general con tecnología. “Entre los diseños se destaca el robot animatronic (Mime Face)… es el prototipo de un robot de movimiento facial, capaz de realizar movimientos casi humanos…” Periódico GNV, Julio de 2008. “Llama la atención mucho más que sus compañeros de área en El Salvador, inidentificables y vulgares amasijos de metal inerte. Quizá sean técnicamente superiores, pero Jaimito tiene gracia, chispa y encandila. Justo ésa era la intención cuando se concibió: conciliar arte e ingeniería.” ElMundo.es, España, Octubre 30 de 2008. “Jaimito, un robot en exhibición en Campus Party, simula gestos humanos. Su creador es un chico colombiano.” La prensa gráfica, El Salvador, Octubre 31 de 2008. “…le Colombien César Augusto Hernandez, 25 ans, est venu avec Mime Face, qu'il surnomme affectueusement Jaimito, un robot visage, qui parle en reproduisant les expressions d'un visage humain et ferme les yeux. (El Colombiano César Augusto Hernández, 25 años, ha venido con Mime Face, a quien apoda cariñosamente Jaimito, una cara robótica, que habla y reproduce las expresiones de un rostro humano y cierra los ojos)” AFP, Julio 31 de 2009, Francia VI. DESARROLLOS FUTUROS Actualmente se está trabajando en un nuevo modelo del animatrónico, se pretende en este nuevo proyecto reproducir lo hecho en MIME FACE, mejorando algunos aspectos técnicos que mostraron fallas luego de agregarle la “piel”. El estudio de movimientos ha sido replanteado, incluyendo nuevos puntos de movimiento, la apariencia externa se ha trabajado de una forma mucho más realista, con lo que se pretende generar en el espectador otro tipo de interacción, a su vez que hacer una documentación más seria de esta relación. Queda pues abierta la posibilidad de incluir sensores y cámaras, de este modo desarrollar un algoritmo en que estén incluidas funciones de reconocimiento visual e inteligencia artificial, para así poder superar las barreras evaluadas en cuanto a autonomía y toma de decisiones. REFERENCIAS [1] HERNÁNDEZ ESPITIA, CÉSAR AUGUSTO. MANZI BERNAL, JOSE ALEJANDRO. RUIZ RAMIREZ, DANIEL ARTURO. URICOCHEA JEPEZ, JUAN CARLOS. Diseño y construcción de un animatrónico DE MOVIMIENTO FACIAL, Mime Face Bogotá D.C., Universidad de San Buenaventura, 2007 [2] SONG, HYUNSOO. KWON, DONG-SOO, Design of a Robot Head with Arm-type Antennae for Emotional Expression. Seoul, International Conference on Control, Automation and Systems, 2007 [3] PIOGGIA, GIOVANNI. IGLIOZZI, ROBERTA. FERRO, MARCELLO. AHLUWALIA, ARTI. MURATORI, FILIPPO. DE ROSSI, DANILO. An Android for Enhancing Social Skills and Emotion. Recognition in People With Autism IEEE transactions on neural systems and rehabilitation engineering, vol. 13, No. 4, DECEMBER 2005 507 [4] SEMPERE, ANDREW. MIKHAK, BAKHTIAR. CTRL_SPACE: Using Animatronics to Introduce Children to Computation Proceedings of the IEEE International Conference on Advanced Learning Technologies (ICALT’04), 2004 [5] SHIBATA, TAKANORI. An Overview of Human Interactive Robots for Psychological Enrichment. Proceedings of the IEEE, vol. 92, No. 11, November 2004 [6] BOUCHET-COULLERET, Anatomía de la cara, cabeza y órganos de los sentidos. Madrid, Editorial Panamericana, 1979 [7] BOUCHET-COULLERET, Anatomía del cuello. Columna cervical. Madrid, Editorial Panamericana, 1979 [8] CUNNINGHAM, Tratado de anatomía humana. Estos son algunos ejemplos del impacto mediático de la presentación del robot en distintos lugares, demostrando así su impacto, una de las intenciones con las que fue construido. V. CONCLUSIONES Se muestra en este artículo como se dirigen los esfuerzos hacia una solución óptima, en búsqueda de reducir costos y tiempos de producción. Lo presentado en estas páginas brinda una guía hacia la definición de diseño mecatrónico, y da paso a paso el procedimiento seguido en su diseño. El proyecto, en este caso, habla por sí mismo, no sólo de una manera figurativa. El proyecto descrito en este artículo, despertó mucho interés en el ambiente académico y además logró mostrarse a sí mismo como una alternativa de aplicación de la robótica, poco estudiada en Colombia. La utilización de diferentes métodos de diseño no solo permitió verificar los mecanismos planteados en las etapas preliminares del mismo, sino que ayudó para el mejoramiento de los mismos, haciendo más eficiente el resultado. Los movimientos de un ser humano, al ser tan complejos, propusieron un reto interesante, a pesar que los elementos que se usaron no llegan a imitar perfectamente todos los movimientos posibles, se puede crear una ilusión bastante 3er Congreso Internacional de Ingeniería Mecatrónica – UNAB 11 Editorial Interamericana-McGraw-Hill, 1987 [33] http://www.parorobots.com/ [9] ROUVIERE y DELMAS, Anatomía humana. Editorial Masson, 1987 [10] KAHLE, LEONHARDT y PLATZER, Atlas de anatomía. Barcelona, Ediciones Omega, 1992 [11] M. LATARJET – A. RUIZ LIARD, Anatomía humana, 3 ed. Vol. I España, Editorial médica panamericana, 1998 [12] NETTER, FRANK H., Atlas de anatomía humana, M.D.2 ed. U.S.A., Novartis, 2000 [13] LE HUCHE, F., ALLALI, A., La voz. Tomo I. Editorial Masson, 2003 [14] MACKINNON y MORRIS, Anatomía funcional. Vol. III: Cabeza y cuello. Editorial Médica Panamericana, 1990 [15] MOORE, Anatomía con orientación clínica. Editorial Médica Panamericana, 1993 [16] LLOYD DUBRUL, Anatomía oral. Ediciones Doyma, S.A., 1990 [17] REVERTE JOSÉ M., Antropología Forense. Segunda Edición Madrid, España, Ministerio de Justicia. Secretaria General Técnica. Centro de publicaciones, 1999. [18] BURGUÉ CEDEÑO, DR. JESÚS, La cara, sus proporciones estéticas La Habana, Cuba, Clínica central “Cira García”, 2005 [19] ALMAGRO BASCH, M., Craneometría Gran enciclopedia Rialp, Ediciones Rialp, 1991 [20] MABIE, HAMILTON H. - REINHOLTZ, CHARLES F., Mecanismos y dinámica de maquinaria México, Ed. Limusa, 1999 [21] ERDMAN, ARTHUR G., Diseño de mecanismos, análisis y síntesis México, Ed. Prentice Hall, 1998 [22] SHIGLEY, JOSEPH – MISCHKE, CHARLES R., Diseño en ingeniería mecánica, 6ª Ed. Ed. McGraw-Hill United States Patents (Patentes de los Estados Unidos): [23] 3931679 Dental Patient simulator [24] 4107462 Electroventriloquist [25] 4177589 Three dimensional animated facial control [26] 6352464 Mechanism for animated character [27] 6991511 Expression varying device [28] http://www.ai.mit.edu/projects/humanoid-roboticsgroup/kismet/kismet.html [29] LE HUCHE, F., ALLALI, A., La voz. Tomo I. Editorial Masson, 2003 [30] LLOYD DUBRUL, Anatomía oral. Ediciones Doyma, S.A., 1990 [31] http://www.gpdealera.com/cgi-bin/wgainf100p.pgm?I=FUTM0031 [32] HERNÁNDEZ ESPITIA, CÉSAR AUGUSTO. LÓPEZ, JORGE. Diseño y construcción de un animatrónico de movimiento facial. Bogotá, Colombia, Revista INGENIUM, ISSN: 0124-7492, Julio 2008. [34] J.A. RIETDIJK. Ten propositions on mechatronics. Mechatronics in Products and Manufacturing Conference, Lancenter, Inglaterra, 1989. [35] KAHN, PETER H. JR. ISHIGURO, HIROSHI. FRIEDMAN, BATYA. KANDA, TAKAYUKI. FREIER, NATHAN G. SEVERSON, RACHEL L. MILLE, JESSICA. What is a human? - Toward psychological benchmarks in the field of human–robot interaction. Interaction Studies 8:3 (2007), 363–390. John Benjamins Publishing Company.