Libro de Actas DRT4ALL 2013
Transcripción
Libro de Actas DRT4ALL 2013
Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos © Fundación ONCE para la Cooperación e Inclusión Social de las Personas con Discapacidad. 2013. Edita: Fundación ONCE para la Cooperación e Inclusión Social de las Personas con Discapacidad. Supervisión de la Edición por el Comité Científico Jesús Hernández Galán. David Zanoletty García. Jaime López Krahe. Alejandro Rodríguez Ascaso. Daniel Guasch Murillo. Mari Satur Torre Calero. Miguel Angel Valero Duboy. Julio Abascal Gozález. Alberto Jardón Huete. Jesús González Boticario. Director de Accesibilidad Universal de Fundación ONCE. Jefe del Departamento de Tecnologías Accesibles e I+D de Fundación ONCE. Catedrático de la Facultad de Matemáticas, Informática y Tecnologías de la Universidad de París 8. Grupo de Investigación aDeNu, Departamento de Inteligencia Artificial, Escuela Técnica Superior de Ingeniería Informática, Universidad Nacional de Educación a Distancia (UNED). Director Académico de la Cátedra de Accesibilidad, Arquitectura, Diseño y Tecnología para Todos de la Universidad Politécnica de Cataluña. Manager de Innovación, Fundación Vodafone España. Departamento de Ingeniería y Arquitecturas Telemáticas (DIATEL) de la Universidad Politécnica de Madrid. Laboratorio de Interacción Persona‐Computador para Necesidades Especiales, Universidad del País Vasco / Euskal Herriko Unibertsitatea (UPV /EHU). Profesor Ayudante Doctor, Departamento de Ingeniería de Sistemas y Automática, Universidad Carlos III de Madrid. Director del Grupo de Investigación aDeNu, Departamento de Inteligencia Artificial, Escuela Técnica Superior de Ingeniería Informática, Universidad Nacional de Educación a Distancia (UNED). Comité de Revisores Alain Pruski. Avril Accolla. Catedràtico de la universidad Paul Verlaine de Metz (Francia) Vicepresidenta Design for all Italia y Vicepresidenta EIDD Design for All Europe. Toni Granollers. Grupo de Investigación en Interacción Persona‐Ordenador e Integración de Datos (GRIHO), Universidad de Lleida. Alberto Jardón Huete. Profesor Visitante, Departamento de Ingeniería de Sistemas y Automática, Universidad Carlos III de Madrid. David Zanoletty García. Jefe del Departamento de Tecnologías Accesibles e I+D de Fundación ONCE. Jaime López Krahe. Catedrático de la Facultad de Matemáticas, Informática y Tecnologías de la Universidad de París 8. Alejandro Rodríguez Ascaso Grupo de Investigación aDeNu, Departamento de Inteligencia Artificial, Escuela Técnica Superior de Ingeniería Informática, Universidad Nacional de Educación a Distancia (UNED). Daniel Guasch Murillo Director Académico de la Cátedra de Accesibilidad, Arquitectura, Diseño y Tecnología para Todos de la Universidad Politécnica de Cataluña. Mari Satur Torre Calero. Manager de Innovación, Fundación Vodafone España. Miguel Angel Valero Duboy Departamento de Ingeniería y Arquitecturas Telemáticas (DIATEL) de la Universidad Politécnica de Madrid. Julio Abascal Gozález. Laboratorio de Interacción Persona‐Computador para Necesidades Especiales, Universidad del País Vasco / Euskal Herriko Unibertsitatea (UPV /EHU). Lourdes González Perea. Gerente de Tecnologías Accesibles e Innovación de Technosite, Grupo Fundosa. 1 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Ricardo Vergaz Benito. José Ramón Hilera González. Anton Civit. Luis M. Bascones. Pere Ponsa Asensio. Jaisiel Madrid‐Sanchez. Antonio Jiménez Lara. Manuel Ortega Moral. Natalí González Villariny. Juan Bautista Montalvá Colomer. Juan González Victores. Santiago Morante Cendrero. Profesor Titular del Departamento de Tecnología Electrónica, Grupo GDAF‐UC3M, Grupo de Displays y Aplicaciones Fotónicas, de la Universidad Carlos III de Madrid. Coordinador del proyecto europeo “Educación Superior Virtual Inclusiva en América Latina” (ESVIAL), Universidad de Alcalá. Dpto. Arquitectura y Tecnología de Computadotres. ETSI Informática. Universidad de Sevilla. Consultor experto, Departamento de Estudios e Investigación Social, Unidad de Tecnologías Accesibles e I+D+i, Technosite, Grupo Fundosa. Profesor del Departamento de Ingeniería de sistemas, automática e informática industrial, Universidad Politécnica Catalunya. Emprendedor Social. Experto‐colaborador Centro de Iniciativa Emprendedora e Innovación ‐ IESE. Business School. Sociólogo. R&D Manager ‐ Technosite. Técnico proyecto Amóvil, experta en accesibilidad de dispositivos móviles. Investigador del Grupo Life Supporting Technologies del Departamento de Tecnología Fotónica y Bioingeniería de la Universidad Politécnica de Madrid. Profesor del Departamento de Ingeniería de Sistemas y Automática, Universidad Carlos III de Madrid (UC3M). Departamento de Ingeniería de Sistemas y Automática, Universidad Carlos III de Madrid (UC3M). Depósito Legal: M-24962-2013 ISBN: 978-84-88934-24-6 2 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Índice General Libro de Actas DRT4ALL 2013 “Give me the Red Can”: Assistive Robot Task Creation through Multi-Modal Interaction Juan G. Victores, Santiago Morante, Alberto Jardón and Carlos Balaguer ............................................................................................................................4 A Smart Walker to Improve the Gait of People with Disabilities and Elderlies Teodiano Bastos, Carlos Valadão, Carlos Cifuentes, Anselmo Frizera and Ricardo Carelli .................................................................................................12 Sistema de Sustitución Sensorial para Comunicación en Sordo-Ciegos Basado en Servicio Web Albano Carrera, Alonso Alonso, Ramón de la Rosa, Roberto Morago y Juan Pablo de Castro ............................................................................................21 Recommendations for ensuring a satisfactory user experience for visually impaired students in Distance Higher Education Institutions Pablo Rebaque-Rivas, Eva P. Gil-Rodríguez and Llorenç Sabaté-Jardí ................................................................................................................................29 Proyecto DEDOS. Herramientas para el diseño y uso de actividades educativas en mesas multicontacto Alberto Sánchez Alonso, David Roldán Álvarez, Estefanía Martín Barroso, Mª Luisa Berdud Murillo, Manuel García-Herranz y Pablo A. Haya ...........35 Apps Builder para Móviles Android: ¿Se pueden crear Aplicaciones Móviles de Forma Fácil y Accesible con un Lector de Pantalla? Halena Rojas Valduciel ..........................................................................................................................................................................................................40 Comunicador Táctil: Comunicación para Sordociegos Antonio Bermúdez Cabra, Juan Miguel Castellano García, Juan Ramón Jiménez García, Chelo Sacristán Aragón, Eugenio Romero Rey y Beatriz Arregui Noguer........................................................................................................................................................................................................................48 Estudio de la Eficiencia y Optimización del Subtitulado para Sordos. Método de Pequerrecho Subtitulación Pequerrecho Subtitulación ...................................................................................................................................................................................................52 Efficency and Optimization Study of the Subtitles for the Hard of Hearing. The Method of Pequerrecho Subtitulación Pequerrecho Subtitulación ......................................................................................................................................................................................................59 Desarrollo e implementación de un Proceso de evaluación de conductores con movilidad reducida en miembros superiores para el manejo de vehículos automóviles Juan C. Chicote, Manuel Romero y Juan F. Dols ...................................................................................................................................................................66 INTERAGAMES: Control accesible de videojuegos para Xbox 360, PS3, Wii y PC David Conde, Raúl Suárez, Gemma Hornero, Marcos Quílez, Sergio Domingo, Maria Rodríguez, Borja Romero y Oscar Casas ......................................69 Audesc Mobile: la audiodescripción en dispositivos móviles Alberto Delgado García, María Jesús Varela Méndez, Guillermo Abel Hermida Simil y Rafael Selma Cordero .................................................................78 Prevención de riesgos domiciliarios a través del estudio de hábitos de vida La tecnología domiciliaria, una herramienta en favor de la autonomía personal Domingo García Fernández-Caro y Lluís Sánchez Rissech ...................................................................................................................................................83 Medios de pago para todos: TPV accesible Begoña Pino, Mª Dolores Sánchez y Zaida Sancha ................................................................................................................................................................90 Means of payment for all: accessible POS Begoña Pino, Mª Dolores Sánchez and Zaida Sancha ............................................................................................................................................................93 Evaluación de una plataforma de estimulación cognitiva multiparticipante y basada en dispositivos táctiles Víctor Peláez, Sonia García, Roberto González, Luis Ángel San Martín, Vanesa Lobato, Enrique Pérez y Mieria Tofiño ..................................................96 Panorámica de la audiodescripción en los canales TDT en España Francisco José González León, Juan Manuel Carrero Leal, Mercedes de Castro Álvarez y Belén Ruiz Mezcua ....................................................................105 PaSOS: Protocolo de Comunicaciones entre los Terminales de Teleasistencia Móvil y los Centros de Atención Julián Andújar Pérez, Ana Arroyo Hernández, Estíbaliz Ochoa Mendoza y Carlos Capataz Gordillo ................................................................................112 Realidad Virtual Aplicada en Rehabilitación: la Wii™ como Herramienta de Terapia Ocupacional en Personas con Lesión Medular Marta Pérez Seco, Belén Gómez Saldaña y Almudena Redondo Sastre ..............................................................................................................................117 An Innovative Solution Based on Human-Computer Interaction to Support Cognitive Rehabilitation José M. Cogollor, Matteo Pastorino, Javier Rojo, Alessio Fioravanti, Alan Wing, Maria Teresa Arredondo, Manuel Ferre, Jose Breñosa, Joachim Hermsdörfer, Javier De Teresa, Clare Walton, Andrew Worthington and Christos Giachritsis ..........................................................................................125 Metodología de Estudio del Aprendizaje de Niños con Parálisis Cerebral en el Uso de un Ratón por Movimientos de Cabeza M. A. Velasco, R. Raya, R. Ceres, R. Sola, J. Jiménez y S. Morata ....................................................................................................................................133 Hécate: Sistema integral de gestión de accesibilidad global y de consulta e información ciudadana Z. Valero Ramón y G. Ramiro Sala .....................................................................................................................................................................................137 Accesibilidad a los servicios telemáticos para todos los ciudadanos Yolanda Hernández y Miguel Ángel Valero ........................................................................................................................................................................145 El Sistema ECCA: “un diseño para tod@s” Sonia María Jorge García .....................................................................................................................................................................................................150 Development of a P300-based Brain Computer Interface to Assist Severe Disabled People Rebeca Corralejo Palacios, Luis Fernando Nicolás Alonso, Daniel Álvarez González and Roberto Hornero Sánchez ......................................................157 DAI Virtual Lab: a Virtual Laboratory for Testing Ambient Intelligence Digital Services Francisco Javier Ferrández-Pastor, Juan Manuel García-Chamizo, Mario Nieto-Hidalgo and Francisco Flórez-Revuelta ................................................163 Architecture for Adding Context-Aware Capabilities to Preferences-Oriented User Interfaces Andrés Iglesias-Pérez, Ignacio Peinado, Jonathan Chacón, Manuel Ortega-Moral and Alberto Delgado García ...............................................................170 Comportamiento de un sistema activo de soporte y estabilización de marcha en procesos de rehabilitación Eloy Urendes, Ramón Ceres, José L. Pons y Magdo Bortole ..............................................................................................................................................177 SOFTCARE: Wearable, Unobtrusive and Plug&Play Device for Automatic Fall Detection and Activity Assessment Xavier Contijoch Culleré and Albert Rodriguez Pastor .......................................................................................................................................................183 ASSAM: Enhancing Autonomy Through Mobility Cristian Barrué, Ulises Cortés, A.B. Martínez, Sandra Millet and Lluisa Pla .....................................................................................................................192 Guía rápida de evaluación automatizada de contenidos web según WCAG 2.0 usando herramientas de software libre José R. Hilera, Teresa Díez, Mª José Domínguez, Lourdes Moreno y David Sangilbert ....................................................................................................196 Servicios de Integración Laboral para Personas con Discapacidad Mediante la TV Conectada Carlos Alberto Martín Edo, José Manuel Menéndez García y Guillermo Cisneros Pérez ..................................................................................................203 Guremintza: Una red social para la diversidad cognitiva Julio Abascal, Olatz Arbelaitz, Javier Muguerza, Antoni Heredia Sáenz y Daniel Hernández ..........................................................................................207 Diseño Preliminar de Interfaces de Realidad Aumentada para el Robot Asistencial ASIBOT F.R. Cañadillas, A. Jardón, J.G. Victores y C. Balaguer ....................................................................................................................................................213 Objetos de aprendizaje multimedia accesibles sobre Diseño para Todos para grado en Ingeniería en Tecnologías de la Información Alejandro Rodriguez-Ascaso, Jesús González Boticario, Cecile Finat, Emmanuelle Gutiérrez y Restrepo y Amparo Prior ............................................220 Shape Recognition, Image Analysis and Artificial Vision for Blind People Using Mainstream Devices Yong CHEN and Jaime LOPEZ-KRAHE ..........................................................................................................................................................................228 Referencia de Autores ........................................................................................................................................................................................................235 3 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos “Give me the Red Can”: Assistive Robot Task Creation through Multi-Modal Interaction Juan G. Victores, Santiago Morante, Alberto Jardón and Carlos Balaguer All of the authors are members of the Robotics Lab research group within the Department of Systems Engineering and Automation, Universidad Carlos III de Madrid (UC3M). [email protected] Abstract In this paper we illustrate our work focusing on bringing advanced robotics closer to everyday domestic users. It will be demonstrated that inexperienced users can be capable of programming the ASIBOT assistive robot platform to perform a specific desired task in a household environment. The process is guided through the robot's Web browsable interface Task Creator Wizard. T he robot's open architecture has been developed to enable flexible multimodal interaction, such as the used touch buttons, voice commands, and Wii Remote™ controller for intuitive robotic movement. The Wizard has been designed to provide enhanced accessibility while taking aesthetic beauty into account, to avoid distraction caused by boredom of the user. The whole concept and implementation have been released as part of the ASIBOT Open Source Code Repository, available online for download and documentation at: http://roboticslab.sourceforge.net/asibot elements that are composed by advanced embedded electronics: mobile phones, ebooks, netbooks. Inexperienced people and even young children are able to interact with touch screens or buttons, navigating through tabs, menus, and icons [1]. This fact provides the raison d'être of end-user developments (EUD) [2]. With all the possibilities for efficiency and improvement of EUD, some researchers have already begun to see the potential of web applications [3]. In addition to the provided arguments, web interfaces add powerful benefits, such as ubiquitous availability, and public access (if desired). Resumen Este artículo presenta nuestra labor enfocada en llevar la robótica avanzada hacia usuarios domésticos cotidianos. Se demostrará que usuarios sin experiencia pueden ser capaces de programar la plataforma robótica asistencial ASIBOT para realizar una tarea específica deseada en un entorno doméstico. El proceso es guiado a través del Asistente de Creación de Tareas de la a interfaz navegable vía web del robot. La arquitectura abierta del robot ha sido desarrollada para habilitar interacción flexible multimodal, tales como los botones utilizados, comandos de voz, o el mando Wii Remote™ para movimientos intuitivos del robot. El Asistente ha s ido diseñado para proporcionar accesibilidad mejorada, teniendo en cuenta aspectos estéticos para evitar distracción causada por aburrimiento por parte del usuario. El concepto entero y su implementación han sido liberado como parte del Repositorio de Código Abierto del ASIBOT, disponible para descarga y documentación en: http://roboticslab.sourceforge.net/asibot 1. Introduction Modern technologies are progressively being incorporated into our everyday lives. We find ourselves surrounded by Figure 1. A developer explaining how to use the ASIBOT multi-modal interfaces All of these advances are also progressively being incorporated in the field of robotics (perhaps at a slower pace). Robotics and automation are fields first developed for industrial environments, with non-friendly engineer-only interfaces. However, recent works such as Baxter [4] are now taking into account the user-oriented point of view to facilitate industrial manipulator programming. From this steady state of production plants, robotics and automation technology can now be found in retail stores, and ultimately, in our home environment. In its broadest scope, this includes everything from motorized shutters and vacuums to less common advanced robotic manipulators [5]. Current worldwide research focuses on how to introduce dynamic and mobile elements to carry out “housekeeping” and daily chores that require complex manipulation and advanced reasoning skills. These technologies will begin to make our life easier only with the development of human-robot interfaces that provide comfort and satisfaction to the user [6]. In this paper, the authors propose the merger of robotics with technology that everyday users can be familiar with, such as web browsing, voice command control, and video-game controllers, and 4 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos present proof of concept Open Source implementations and documentation with experimental results. These developments have taken place using the ASIBOT assistive robot platform (Fig. 1), which is currently located in our ASIBOT assistive living kitchen test environment. The robot and the assistive living environment have been developed by the Robotics Lab research group at UC3M and have been presented by the authors in recent publications [7]. The following is a review of some of the robot's most important features and characteristics. • • • • • • Full on-board robot control and communications with no need for an external control cabinet. Unlimited workspace through 24V climbing connectors. Light-weight symmetrical structure for climbing. Tool exchange system for grippers, utensils, sponge, etc. Portable and friendly interfaces adapted to different levels of user capabilities and preferences. Open architecture for flexible component integration. The first four cited features are hardware characteristics that allow the robot to overcome many of the robotics issues inherent to the fact that it is a 5 degree-of-freedom manipulator arm (non-redundant for most tasks). The last two features have been exploited by the authors in order to extend the reach of their developments to the hands of everyday home domestic users. 2. Software Infrastructure: Open SystemArchitecture We provide an Open System Architecture that enables flexible multi-modal interaction through the use of the YARP robotics platform [8]. YARP is a library written in C++ that allows the creation of a variety of communication ports that allow write-to-many and/or read-from-many connections (the publisher/subscriber paradigm). In our previous developments, we had identified this platform as lightweight enough for our robotic embedded systems, and appreciated its multi-lingual and multi-platform support combined with easiness of use for the large range of our developer profiles [9]. Our current implementation also benefits from its RFModule class (which includes a resource location helper and implements a watchdog thread) and its RateThread class (implements best-resolutionper-platform periodical threads). Within the variety of communication ports, we use its standard TCP/IP streaming and strict-write-with-acknowledgment ports (in certain cases, mapped to callback functions upon the reception of new data from sensors or other programs), along with the MJPEG carrier for optimized camera image streaming, and the new custom HTTP carrier for directly serving web contents from YARP. Finally, the YARP plugin mechanism is also used, because it allows classes to be used as local libraries or as executables that are remotely accessible through a same class API. Two collections of libraries that are implemented as YARP devices and can therefore be used through the plugin mechanism have been developed: rlPlugins and rlPlugins2. The rlPlugins library is a small library intended for PC that contains RaveBot (Fig. 2), a class that uses the OpenRAVE core libraries [10] to provide a 3D graphical and physical simulation environment. RaveBot implements position, velocity, and encoder interfaces, and additionally publishes the stream of images and measurements from every camera and sensor it finds in the environment and robot description XMLs. Figure 2. RaveBot's default configuration loads the ASIBOT assistive kitchen model The rlPlugins2 library is intended to be cross-compiled using a gnueabi tool-chain [11] for its use within the robot’s embedded processor. It contains CanBot, a low-level robot controller class that manages the ASIBOT's internal CAN communications bus for position and velocity control with the appropriate shared resource locks and releases. CanBot implements and exposes the same interfaces as RaveBot, so CanBot and RaveBot are identical to external viewers except for port naming. Both rlPlugins and rlPlugins2 additionally provide the CartesianBot plugin, which provides the geometrical closed-form solution of the ASIBOT forward and inverse kinematics. Switching to our generic solver based on recursive methods (KdlBot class) can be seamlessly achieved by changing the configuration file or passing it as an argument at instantiation. The robot controller module, cartesianServer, uses these solver classes to follow a trajectory inherited from the Traj trajectory base class. The OrderThreeTraj class inherits from Traj and generates trajectories with null initial and final velocities for moving point-to-point in differential kinematic mode. The OrderOneTraj trajectory generator class assures a constant Cartesian space velocity for moving in velocity-controlled streaming mode. OrderThreeTraj and OrderOneTraj objects are allocated on the dynamic memory heap, passing their reference to the Traj trajectory class base pointer that is used by the control thread to provide updated references to the low-level controllers. These objects are deleted from the dynamic memory once they are not in use. The default ASIBOT system setup involves two cartesianServer module instances. Each one instances a CartesianBot as a library, setting thread rates and port 5 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos name prefixes as set in the configuration files. One cartesianServer module is set to use the RaveBot as a library and show the simulation on a 2D or 3D screen, and the other instance is set to use the CanBot as a library and run on the real robot. These ASIBOT modules can be accessed through any of the following three different methods. • All of the ASIBOT module ports may be interfaced using the module specific commands of the ASIBOT online documentation through the use of the YARP port class and inherited classes. • All of the ASIBOT module ports may be interfaced through a series of other mechanisms such as telnet, web browsers, raw sockets, or ROS [12] as documented in the YARP online documentation (“YARP without YARP” and “YARP with ROS” documentation sections). • We also provide a minimalistic library for communicating remotely with cartesianServer instances, called the CartesianClient library, which has been implemented in native C++, Python, and Java (tested on MATLAB and Simulink too) languages. The ASIBOT modules are intended to a run within the Wireless Local Area Network (WLAN) of the robot, but the user is free to expose the configurable interface sockets for external assistants to collaborate, remotely interacting with the modules from a distant location. The ASIBOT system’s open architecture allows the control interfaces and devices to be used simultaneously, and all are managed coherently. 3.1. Touch Buttons The ASIBOT webInterface module provides a Web browsable interface which is intended for display on devices that support tactile interaction. The interface is composed by nine functional tabs (Fig. 4, top). A persistent Connection Manager for establishing and terminating communications with the real robot and with the simulator is set to be rendered at the bottom left corner of the browser window. The client side scripts of the webInterface served pages have been optimized to minimize the amount of client-server interactions that take place. 3. Components for Task Creation and Multi-Modal Interaction The ASIBOT Open Source Code Repository is a compendium of C++ and Python programs (named modules), libraries, and examples that can connect to each other to create applications that may be useful for users. One of the main objectives of the ASIBOT research and software development of the past years has been to provide integrated modes of Human-Robot Interaction (HRI) through devices with which users can already be previously acquainted with, therefore allowing them to immediately start discovering how to control the ASIBOT robot platform through the interface device instead of using time learning how to control the interface device. Fig. 3 depicts this multimodal interaction concept. Figure 4. The ASIBOT modules provide touch buttons for HRI Additionally, through the use of the Asynchronous JavaScript and XML (AJAX) interrelated web development techniques [13], the full page are only loaded when the user changes from one tab to another. Each tab's web content is dynamically changed from within the browser whenever it is required by the user's actions. This bandwidth consumption optimization provides a drastic improvement in performance and allows the user to benefit from page loading time reduction. 3.2. Wii Remote controller integration A Wii Remote Plus controller interface module has been developed as part of the ASIBOT open architecture components for multi-modal interaction 1. Upon initializing the wiimoteServer module and connections, the user can move the robot in what we call the Wii space: the robot tip aligns with the Wii-Remote controller pitch (Fig. 5.1), and the robot's base roll is controlled with the controller roll (Fig. 5.2). Figure 3. The ASIBOT modules provide multi-modal interfaces for HRI A and B buttons control forward and backward translation functionalities respectively, while maintaining 1 Low-resolution video link: http://youtu.be/S6SKFVUwL9A 6 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos both buttons pressed allows Wii space reorientation. This behavior implies the use of a hybrid position/velocity control scheme which is achieved through the use of a floating virtual target point. First, the orientation information is added to the virtual target point. Then, the forward, fixed, or backward translational command component determines the distance between the robot endeffector and the virtual point (positive, null, or negative). The virtual point is sent as a robot target to the cartesianServer modules through the velocity-controlled streaming mode mechanism which has been explained in Section 2. ASIBOT webInterface module stores in the User Program Repository. 4. A Walk through the Task Creator The ASIBOT Web browsable Task Creator Wizard has been developed to guide the user through the task creation process from within the ASIBOT Web browsable interface. An ASIBOT task is composed by one or several custom or predefined programs that the user may invoke through the use of one or more of the open architecture's multi-modal interfaces. The Task Creator Wizard is initialized from within the Web browsable interface Home page (Fig. 7, background: Initialize Task Creator). It is set to display useful user guide information in the form of prompts and alerts. The use of the Wizard is, however, not mandatory. The user may instead choose to browse through the tabs manually to develop ASIBOT tasks. Figure 5. The Wii Remote orientation is tracked with a fixed linear velocity 3.3. Automatic Speech Recognition ASIBOT's speech recognition has been integrated into the Web browsable interface as a selectable tab. The page served (Fig. 6) contains an automatic speech recognition input field for recording and saving commands which can later be assigned to different tasks. Figure 7. The Task Creator Wizard displays useful user guide information First, once activated, the Wizard automatically redirects the user to the Joint space movement tab (Fig. 8). The tab is invoked so that a progress bar is displayed on the bottom right corner of the page. It indicates how advanced the user is in the task creation process, and allows the user to jump to each next step throughout the entire creative process. Figure 6. The ASIBOT modules provide speech recognition for HRI The input field makes use of the x-webkit-speech attribute, which links the field to the Google Inc. implementation of the HTML5 Speech Input API (currently a W3C Editor's Draft [14]). The x-webkit-speech input field attribute is currently recognized by the Google Chrome and Google Chrome for Android web browsers. The Google Inc. implementation of the x-webkit-speech attribute uses Google's service cloud to perform the actual speech recognition, which returns a plain text string that the Figure 8. A progress bar guides the user throughout the whole creative process As has been previously mentioned in Section 3.1, the user can establish connections with the real and simulated 7 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos robot using the persistent Connection Manager situated at the bottom left of the interface. Once the connections are established, the user can move the selected robots in the Joint space using the correspondent tab buttons. Additionally, the user can press the capture button (the record icon situated at the center-right of the same Fig. 8) to open a prompt for saving the end-effector point with a custom name. The end-effector point position and orientation information that is stored is computed on the user capture button click event, which may occur even if the robot is in movement. This behavior has also been implemented in the Cartesian space movement tab (Fig. 9), which is the next step the user is guided through. create a new module, the IDE engine returns a new file with a fragment of default source code. This source code is extracted from a template.py file which is set to load the basic resources for programming the ASIBOT (libraries, initialization routine calls). Additionally, some hint lines of code are added for connecting to a remote instance of the cartesianServer module, performing a robot homing movement, waiting, and closing the module cleanly. The template.py file contents can be seen in Listing 1. complete The Program tab additionally provides a set of buttons with the captured point names, situated on the top part of its right side panel. Clicking on this type of button inserts two lines of code into the central program text area: • A Point definition. The definition of the point that was captured and given the name that the button indicates. • A Cartesian space movement command. The robot is commanded from its current position to an absolute position following a straight line trajectory with null initial and final velocities (a movl function call). from AsibotPy import * ####################################### home=[0,0,1.4,0,0] ####################################### simCart = CartesianClient() simCart.open('/ravebot') # use '/canbot' for real Figure 9. Points may be captured even when the robot is in movement The capture button of either of these two tabs, namely the Joint space movement tab and the Cartesian Space movement tab, may additionally be used to capture points when the robot is moved by using the Wii Remote Plus controller interface (see Section 3.2). On the completion of this point capturing phase of the Task Creation process, the user is guided by the Wizard to the Program tab (see Fig. 10). Here, the user can create, edit, save and delete ASIBOT modules directly from within the Web browsable interface. ####################################### print 'hello, robot!' simCart.movl(home) # defaults to 20 s simCart.wait() # wait for movement ####################################### print 'done!' simCart.close() Listing 1. The template.py file contents is copied upon creating modules Figure 10. The ASIBOT Web browsable interface Program Tab The ASIBOT Web browsable interface Program tab plays the role of an Integrated Development Environment (IDE) for developing ASIBOT user Python modules. The left side panel allows the user to create, explore and delete ASIBOT user Python modules. When the user decides to An ASIBOT Python point is defined as a native Python list of five doubles that indicate the following: x[m], y[m], z[m], rot(y')[degrees], rot(z'')[degrees] of the end-effector in absolute base coordinates. The first rotation, rot(z), is given by the atan2 function of y and x. This equation completes the Euler ZYZ notation that can be used to define the robot end-effector orientation with respect to its base. Prohibiting the explicit request for the first rotation on the z axis helps preventing the request for movements to a great number of points that are unreachable for the ASIBOT, as ASIBOT points may be manually modified or created from scratch, as plain text and the robot is a 5 degree-of-freedom manipulator arm that cannot reach all of the positions and orientations of Cartesian space. The movl member function calls may also be modified and transformed into movj function calls. Movements due to movj function calls are, generally speaking, faster but less precise (trajectory-wise) than those issued by movl 8 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos commands. This is because movl commands involve the computation of a straight linear trajectory, whereas movj commands involve trajectory interpolation at single joint level. This nomenclature is commonly found in the context of industrial robots, and the authors have particularly been inspired by the RAPID, an ABB proprietary programming language [15]. Once the user has finished programming, she or he will be prompted to save the program with a custom name by pressing the save button. The Wizard then guides the user to the Speech tab (see Section 3.3). In the Speech tab, the user records and saves words that will be assigned to programs in the Task Creator final step, the Assigner tab (seen in Fig. 11). The Assigner tab is composed by program, recorded word, and icon selectors to generate ASIBOT task files, which are minimalistic scripts that associate these three elements. ASIBOT. The reason for this double-test was to include the not-so-common opinion of developers or technology-skilled users to the common analysis of inexperienced people. The comments and suggestions of technology-skilled users can be useful to assure an easy teaching process, as at a certain point they could actually become the people in charge of training disabled people in handling high-tech adapted devices. In the first test, the ten healthy inexperienced users were invited to the ASIBOT assistive living kitchen environment and attended a five-day course of two hour sessions. At the end of the course, they were asked to use the developed system for Task Creation through Multi-modal Interaction to perform one simple task: grabbing a red can, a task which we already knew that the robot was capable of achieving, as we had previously performed it by ourselves (Fig. 12). Figure 12. The ASIBOT “Give me the Red Can” task goal achievement Figure 11. The ASIBOT Web browsable interface Assigner Tab The Task Creator Wizard leads the user to the ASIBOT Web browsable interface Launcher tab once the assignment has been performed (see Fig. 4). The Launcher parses the task files and presents the selected icons zoomed as touch buttons on screen, awaiting for user tactile interaction or voice commands to execute the tasks that the user has developed through the use of the multi-modal interfaces, with or without the use of the interface's Task Creator Wizard. To evaluate the users' experiences, we performed spoken interviews, allowing the users to express their sensations, their pros and cons about the comfortability and easiness-ofuse of the applications. The following is a review on the aspects of the implementation and experiments. • • 5. Experiments • Our experiments were performed, on the technical side, using 300 ms kinematic control cycles, due not to the kinematic calculation times (our kinematic position inversion mean duration is 33 µs), but to not saturate the robot's internal communication CAN bus. The simulator's cartesianServer module was set to directly feed the velocities computed from the trajectory generation described in Section 2 (pure uncompensated feed-forward), as the behavior of the simulated motors is that of a perfect integrator. For the real robot, we added a 0.1 gain on the position error, a classical robotics control approach [16]. On the end-user side, and in order to perform a complete system assessment, we conducted two different tests: one for people that were previously inexperienced with robotics, and one for robotics-related people who were familiar with • • 2 All of the users confirmed they found the use of the proposed multi-modal interfaces (touch buttons, voice commands, Wii Remote controller) very interesting. We found devices to fit each of the user's needs so they could all be able to use the Web browsable interface for comfortably interacting with the robot. Each of the users was capable of generating several voice patterns that could be recognized by the automatic speech recognition system. At the end of the five-day course, every user had achieved in making the robot grab her or his own red can successfully. Our experience with industrial robot courses indicates that achieving similar tasks with conventional controllers usually takes two weeks if similarly distributed in two hour sessions 2. Two users evaluated the use of the Wii Remote controller as an interface device negatively. The main drawback they emphasized on was having to sustain the implemented ``dead man'' buttons while moving the controller to the desired orientation. Sample 32 hour course: http://tinyurl.com/roboticTraining2012 9 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos In the second test, we asked ten robotics-related people to perform the same task and, in order to measure their satisfaction with the software, we provided them with SUS tests (System Usability Scale). The range of ages of the participants was between 25-35 years old. As a summary of the results: • • • The average punctuation was 70.5 ± 9.5 over 100 (where 100 is the best score). The best results were obtained in the item: I think that I would like to use this system frequently, with an average of 4 ± 0.6 over 5 (where 5 is the best score). On the other hand, the worst results were obtained in: I think that I would need the support of a technical person to be able to use this system, with an average of 2.6 ± 0.8 over 5 (where 5 is the worst score). In general, the results were positive and additional feedback was received on how automating the naming mechanism for points, programs, and tasks would be useful, as typing can become tedious and time consuming using certain Web browsing devices. 6. Conclusions The ASIBOT Open Source Code Repository has gained credibility through the demonstration of how its modules provide flexible Multi-Modal Human-Robot Interaction, and easiness of creating custom user tasks through the use of the developed Web browsable interface's Task Creator Wizard. As researchers, and as implementers, we consider these developments have proved useful in our strive to bring advanced robotics closer to everyday domestic users. The feedback received from the users has helped us understand how to focus our current and future research efforts, providing continuously improved software revisions and devices for improved user accessibility. In the line of the hardware developments, we have opened a line of research for developing a user accessible device that may be used as a substitute of the Wii Remote controller. This device, of which we already have a working prototype circuit, will be wrist or head wearable. This links this part of our developments more closely to the ASIBOT SULTAN [17] concept and to aiding disabled and elderly people, which has been the ASIBOT's main objective since its origin. 7. Acknowledgment The research leading to these results has received funding from the COMANDER project CCG10UC3M/DPI-5350 granted by the Comunidad de Madrid and UC3M and the ARCADIA project DPI2010-21047-C02-01 granted by CICYT. 8. References [1] A. Holzinger, “Finger instead of mouse: Touch screens as a means of enhancing universal access”, in Universal Access Theoretical Perspectives, Practice, and Experience, ser. Lecture Notes in Computer Science, N. Carbonell and C. Stephanidis, Eds. Springer Berlin / Heidelberg, 2003, vol. 2615, pp. 387–397. [2] M. M. Burnett and C. Scaffidi, “End-user development”, in Encyclopedia of Human-Computer Interaction, M. Soegaard and R. F. Dam, Eds. Aarhus, Denmark: The Interaction Design Foundation, 2011. [3] J. Rode, M. Rosson, and M. Qui nones, “End user development of web applications”, End User Development, pp. 161–182, 2006. [4] E. Guizzo and E. Ackerman, “The rise of the robot worker”, Spectrum, IEEE, vol. 49, no. 10, pp. 34–41, 2012. [5] L. Iocchi, J. Ruiz-del Solar, and T. van der Zant, “Domestic service robots in the real world”, Journal of Intelligent & Robotic Systems, vol. 66, pp. 183–186, 2012. [6] M. Kim, K. Oh, J. Choi, J. Jung, and Y. Kim, “User-centered hri: Hri research methodology for designers”, in Mixed Reality and Human-Robot Interaction, ser. Intelligent Systems, Control and Automation: Science and Engineering, X. Wang, Ed. Springer Netherlands, 2011, vol. 1010, pp. 13–33. [7] A. Jardón, J. Victores, S. Martínez, A. Giménez, and C. Balaguer, “Personal autonomy rehabilitation in home environments by a portable assistive robot”, IEEE Transactions on Systems, Man, and Cybernetics, Part C: Applications and Reviews, 2011. [8] P. Fitzpatrick, G. Metta, and L. Natale, “Towards long-lived robot genes”, Robotics and Autonomous Systems, vol. 56, no. 1, pp. 29–45, 2008. [9] J. Victores, “Software engineering techniques applied to assistive robotics: guidelines & tools”, Master’s thesis, Universidad Carlos III de Madrid, Dpto. Ing. Sistemas y Automatica, October 2010. [10] R. Diankov, “Automated construction of robotic manipulation programs”, Ph.D. dissertation, Carnegie Mellon University, Robotics Institute, August 2010. [11] G. Sally, “Creating a linux distribution from scratch”, in Pro Linux Embedded Systems. Apress, 2010, pp. 107–141. 12] M. Quigley, B. Gerkey, K. Conley, J. Faust, T. Foote, J. Leibs, E. Berger, R. Wheeler, and A. Ng, “Ros: an open-source robot operating system”, in ICRA Workshop on Open Source Software, 2009. [13] J. Garrett et al., “Ajax: A new approach to web applications”, Adaptive path, vol. 18, 2005. [14] S. Sampath and B. Bringert, “Speech input api specification,” W3C Editor’s Draft 18 October 2010. Available: http://www.w3.org/2005/Incubator/htmlspeech/ 2010/10/googleapi-draft.html [15] ABB, “Rapid reference manual system data types and routines on-line”, 2005, issue: For BaseWare OS 3.1, Article: 3HAC 0966-13. [16] B. Siciliano, L. Sciavicco, and L. Villani, Robotics: modelling, planning and control. Springer Verlag, 2009. 10 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos [17] C. Balaguer, A. Jardón, C. Monje, F. Bonsignorio, M. Stoelen, S. Martínez, and J. Victores, “Sultan: Simultaneous user learning and task execution, and its application in assistive robotics”, in Workshop on New and Emerging Technologies in Assistive Robotics IROS, 2011. 11 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos A Smart Walker to Improve the Gait of People with Disabilities and Elderlies Teodiano Bastos1, Carlos Valadão1, Carlos Cifuentes1, Anselmo Frizera1, Ricardo Carelli2 1 Federal University of Espirito Santo Vitoria, Brazil 2 National University of San Juan San Juan, Argentina [email protected], [email protected], [email protected], [email protected], [email protected] Abstract Damages caused by lack of mobility are numerous and compromise severely the quality of life of the affected people, since mobility is an important faculty of the humans. The aim of this work is to develop a smart walker to help people suffering from some kinds of disability to recover their strength and have a higher level of independency. The developed walker provides safety and a m ore natural human gait through the information provided by the laser sensor. Several experiments were carried out with this smart walker with a group of volunteers with arthrosis and healthy people, and results have shown the good performance of the proposed controller. Keywords: smart walkers, physiotherapy, locomotion disorder, quality of life, gait control. Resumen Son numerosos los daños provocados por la falta de movilidad y estos pueden comprometer seriamente la calidad de vida de los que sufren de algún tipo de enfermedad relacionada a l a movilidad, una importante habilidad humana. L a marcha puede resultar comprometida y la persona, como consecuencia, no tiene una forma de caminar natural, sufre de dolores y su calidad de vida se reduce a lo largo del tiempo. El objetivo de este trabajo es desarrollar un andad or inteligente para auxiliar personas que tienen problemas de movilidad, utilizando para ello las fuerzas residuales que posen, con el fin de aportarles un mayor grado de autonomía. El andador desarrollado ofrece seguridad para el usuario y una f orma más natural de caminar, utilizando información de un sensor laser. Se han desarrollado varios experimentos con un gr upo de voluntarios con artrosis y también con personas sanas, y los resultados demuestran un buen desempeño del controlador propuesto. Palabras-clave: andadores inteligentes, fisioterapias, problemas de locomoción, calidad de vida, problemas de marcha. 1. Introduction The ability of movement is a very important skill inside the humans’ abilities. People who cannot move by themselves see their lives severely compromised, since this situation affects directly or indirectly their jobs, their daily tasks, the way people lead with their problems and, finally, their quality of life. It is known that there is a huge set of diseases that can compromise the movement, in a higher or lower degree. Neurological diseases, vascular diseases, malformation and genetic diseases, among other problems, can be the cause of the loss of movement ability [1]. However, inside this group of people, there are some who still have remaining mobility, but due to the lack of strength and movement control they are not able to walk and, consequently, they may suffer from muscular loss throughout the time. Psychological-related diseases such as depression and lack of socialization may also be present as a consequence of the inability to walk. This entire scenario decreases their quality of life. Another important population is the elderlies. They may have musculoskeletal and neurological diseases as a result of their advanced age. Statistical data provided by United Nations show that, in the future, the number of people who will need external support will be higher. Caretakers will be more necessary as well as support of new technologies to help people with disabilities. Due to that situation several research groups throughout the world are trying to find solutions to improve the mobility and quality of life of that people. These researches are developing new and more comfortable devices that could be used by people with disabilities. 12 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos The support devices related to mobility can be distinguished in two major groups: alternative and augmentative devices [2]. Both groups receive their names according to the way these devices work. If the device changes the way of movement, such as a wheelchair that move using wheels and not through steps, they are classified as alternative. It means that they provide an alternative way of locomotion [2]. On the other hand, if the device is able to make usage of the residual forces that may remain in some people with disabilities, they are classified as augmentative devices [3]. They are called that way because of their feature of improving the remaining locomotion skill of the user. The second group can be used by people who still maintain some residual forces, but, at the same time, they do not have enough strength and control to walk by their own. Therefore they cannot move by themselves or it would be a hard task to perform [1], [4]. Major examples of augmentative devices are crutches, special autonomous vehicles and walkers, including Smart Walkers, the subject of this work. This paper is organized as follows: the next section is about the usage of each of these devices; the third section has an overview about walkers; the fourth being about the smart walkers. Following the article structure, the fifth section explains the development of the walker developed by the authors; the sixth section is about the control of the walker, including a discussion about the safety rules. Finally there are experimental reports about the use of the smart walker by volunteers. 2. Usage of mobility-aid devices adequate and, according to the disability or disease and the degree of lack of mobility, the device is chosen [4]. People who have total incapacity of movement or have a very limited control of their movements cannot use an alternative device, since it requires a certain amount of residual force and control. In this case people will very likely use an alternative device [2]. However, if the physician identifies that the patient is able to use their residual forces the situation is the opposite, which means that he or she will likely use augmentative devices. The augmentative devices have a very good advantage over the alternative devices related to the keeping of the residual forces. This prevents the low usage of those residual forces and eventually it leads to maintaining the muscular strength [5]. Therefore, with the use of these devices there is less probability of muscular atrophy, among other diseases related to the lack of exercising the residual forces. Also, since the person has a more active posture leading with the problem, psychological benefits also can be achieved, while using an alternative device may cause a sensation of dependency which can lead to depression related problems. Some authors make a subgroup inside the augmentative device set, called mobility-training devices [2]. These devices are used, basically, to restore the user’s ability of walking and are widely used in rehabilitation clinics. Examples of these devices are parallel bars and treadmill training machines. Table 1 explains the relationship between the degree of mobility, the usage of the device and the set in which the device is included [6]. It is very important the support of a physician to ensure that the device the user will receive support from is Table 1 - Classification of assistive devices [2]. Mobility Assistive Device Alternative Wheelchairs Autonomous vehicles Augmentative Mobility devices special training Self-ported devices External devices Examples Manual Autonomous with assistive navigation and/or bipedestation Autonomous vehicles to improve cognitive capacities Bipedestation Purpose Degree of Incapacity Transportation Transportation and improvement of cognitive capabilities Total incapacity of mobility Parallel bars Treadmill-training devices Ambulatory-training devices Feet-manipulator training device Orthoses Canes Crutches Walkers Mobility rehabilitation training Residual capacities Functional compensation Functional rehabilitation compensation mobility and 13 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Figure 1 - Mobility devices. Table 1 shows when each device is used and Fig. 1 exemplifies them. Fig. 1a [7] shows a wheelchair, widely used by people with high lack of mobility. In Fig. 1b [8], it is possible to see an electric wheelchair. Both of them are examples of alternative devices. Figs. 1c [9] and 1d [10] show mobility training devices, such as parallel bars and treadmill training device. Figure 1e [11], is an orthoses for the knee and represents a wearable support for mobility. It belongs to the group of self-ported devices, because it keeps connected to the body. Another example would be the prosthesis. Finally, Fig. 1f [12] shows a walker, which is an external devices used to help people to sustain their weight and improve their balance. 3. Walkers Walkers are a recent invention when compared with other devices for mobility, such as crutches. Before the aggregation of electronics the walkers were purely mechanical devices and use the weight compensation to help people to support their own weight as well as improving the balance [2] (Fig. 2). Figure 2 - Types of Smart Walkers [12–14]. The Zimmer-frame or Standard-frame structure has a four-legged structure with no wheels and requires certain amount of force to push up and down at each step. Nevertheless, they have a very good stability, since it has four points that support the user’s weight. Also they have a high weight bearing [1]. with the wheels that can slide freely while the rear part is suspended if the user does not control them [1]. Finally there is the rollator model [2], used in smart walkers. This model has the most natural gait among those three structures. This is a very important advantage, but it is a four-wheeled structure, with no static support which may be a problem for people who cannot control their movements properly. It is the most unstable version, but the one that offers the most natural gait, since there is no need to lift it up at each step [1]. On the other hand, considering the evolution of electronics, embedded systems and control laws, it is possible to develop walkers that can detect obstacles and measure user’s features and interfere on the walker movement providing more safety to its use. Along with the movement control there is, usually, a safety rule set to avoid falling or excessive speed. Other safety rules such as maximum distance allowed and minimum force necessary on the handlebars are important to improve the robustness of this kind of mobility support. For that reason, smart walkers have been used for a diversity of purposes. The main usage is as a daily support for mobility, but it can also be used to reinforce the remaining forces of the users, i.e., as rehabilitation tools. 4. Smart Walkers As aforementioned, smart walkers are walkers that offer some support through electronics, embedded control systems and active mechanics. They may offer not only the physical support, but can avoid obstacles, guide people using maps, among other kinds of supports [2]. Some notorious smart walkers are PAM-AID, fig. 3a [16], PAMM (Personal Assistant for Mobility and Monitoring), Fig. 3b [15] [21] [22], iWalker, Fig. 3c [19], the MARC (Medical Applied Research Center) [3] [18], Fig. 3d, SIMBIOSIS, Fig. 3e [20] e GUIDO smart walker, fig. 3f [17]. Another model of walker is the front-wheeled, which has two wheels in the front part. In this case, the user has only to lift part of the walker weight in each step, since there is no need to lift the entire walker, but only slide a little, lifting the rear part [1][2]. This model presents the advantage of a better comfort and a more natural gait compared with the previous one. However, the person has to be able to deal 14 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 5.2.1. Laser sensor Figure 3 - Examples of smart walkers. A laser sensor is located at the front part of the user’s area inside the walker. It is positioned in a way it can be able to detect the user’s legs. The laser reads a 70º range (this angle range covers the area where the user should stay) in order to search the user’s legs and determine the distance to them. The detection of the legs is based on the number of transitions inside the signal, provided by the laser sensor, and the size of each transition. Fig. 5 shows the cases where legs were detected [23]. To be considered a transition the distance value should drop or increase more than a threshold. 5. UFES’ Smart Walker The UFES’ Smart Walker has a steel structure, sensing equipment, embedded computer, acquisition boards and actuators. Each one of these elements will be commented in details in the next subsections. 5.1 Structure It is necessary that the smart walker´s structure be strong enough, since it will bear the user’s weight partially. Due to the fact some patients have overweight or put too much of his/her weight on the walker, the structure needs to be strong. The structure was made using steel, which is a very resistant material and hardly will suffer any damage while supporting the human weight on it. Regarding the shape, it has a column with handlebars that helps supporting the human and a structure where the wheels are fixed. These details can be seen in Fig. 4. The column in the middle of the walker can switch between two distinct heights and it can adjust for a two height groups of people. Figure 5 - Examples of laser scans. In the first case, there are four transitions and the legs are considered to be in the middle of each transition. Considering and as the left and right leg distance; , , , the transition points and, as the leg diameter, the following equations can be used to find the distance of each leg from the laser: (1) (2) In the second case, there are only three transitions, so the middle point cannot be used anymore for both legs. To solve this problem, the left leg is calculated as before, using the average position between the first and second transition point, while the other leg is calculated using the last point subtracted by a predetermined radius of the leg. (3) In the last case only two transitions points are detected and the legs positions are calculated by estimation using the predetermined leg’s radius. Mathematically it becomes: (4) Figure 4 - Photo of the UFES' Smart Walker. 5.2. Embedded Sensors Four kinds of sensors are responsible for capturing the user’s information and send it to the embedded computer: laser, force, inertial movement units (IMUs) and encoders located at the wheels. (5) Also, the laser can provide information about the angle between the user and the walker (i.e. the laser), because it can detect in which angular position it has detected the leg. So, with the laser, it is possible to detect angle and distance of each leg. 15 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Figure 6 - Graphical interface used to evaluate: linear velocity, angular velocity, distance to the user legs, orientation of the user legs, and angular error between user legs and walker. 5.2.2. Force Sensor The force sensor is used to provide information about the weight the user is putting on the walker. This information is very important, especially for safety rules. The walker has two of these sensors, which are responsible 5.3 to send information about the force in each axis (normal, longitudinal and transversal) into a serial connection to the computer onboard the walker. Integrated computing This walker contains a PC/104+ module to process the information that comes from the sensors and it is essential for the functioning of the whole system. Not only the sensing data is sent to the computer, but the control algorithm is processed at it. This module is responsible to collect the information of the sensors and, using the control laws and the security laws, determine which movement the walker should do. The commands the PC/104+ provides are linear and angular speed. The low-level controller and motor board are in charge of ensuring the speeds are correct. The reference speed values are sent to a low-level controller and a board that generates the adequate voltage signals to the motors. This entire structure guarantees the walker runs at the desired speed. Other electronic boards present in the walker are the data acquisition board, the network board and the DC-DC converter. They are all connected to the PC/104+. 5.4 Motors and encoders There are two motors, attached to the traction wheels, in the back part of the walker. Those motors are of 12V each one. In the front part there is a free passive wheel. There is a DC-DC conversion board that is responsible to supply the other boards with 5V using the 12V batteries. The maximum rotation of the motors is 40 rpm. Connected to each motor axis there is an encoder which provides the PC/104+ with information about each wheel rotation. 5.5 Software In order to record data of the experiments and show them graphically, a software was developed in a graphical interface. Fig. 6 shows a screen of this software showing an experiment with an eight-shaped path. The user is represented by the closed polygon and the walker is the squared structure. The paths they have made are indicated in dashed lines. 16 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos It is possible to record the experiment and then process the file offline, view graphics of angular and linear speed, angles between user and walker and control actions. 6. Controller The walker uses an inverse kinematics controller to compensate the nonlinearities of the system thus obtaining a linear closed loop system. Using this approach it is possible to control two important variables: the distance between the user and the laser, and the angle between the user speed vector and the laser-user axis. They are represented by the variables and , respectively, showed in Fig. 7. From this figure, we can express the kinematic model of the walker-human system and estimate the variables needed by the control algorithm, which are provided by the laser sensor. (8) Another equation that is useful to obtain the user linear speed is the derivative of the angle between the user and the laser (equation 9). It is represented as: (9) From (7) and (8), the kinematics for the variables of interest is defined by: (10) The control actions are represented by the vector u. Using the controller design based on inverse kinematics, the control actions can be expressed as (11) Or equivalently, (12) (13) It is easy to see that, after substituting 11 into 10, the closed loop system reduces to: (14) Figure 7 - UFES' Smart Walker diagram involving linear velocity ( ), angular velocity , and distance ( ) and orientation ( ) of the user legs. The distance error (equation 6) is calculated by the difference between the actual user distance and the desired distance to the user legs. The time evolution of the control errors are thus given by: (15) Therefore, the control errors, considering the positive control gains, will always converge to zero. (6) The derivative of the distance error (equation 7) can be calculated analyzing the contribution of each component in the diagram showed of Fig. 7. (7) The same way, the derivative of the calculated as equation 8: angle can be 6.1 Security Rules In the use of the walker, many risky situations may happen. It is then necessary to include some supervision of the control system, to give security to the user. Thus, a set of security rules was designed, which are listed in Table 2. 17 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Table 2 - Security rules set. # Sensor Occurrence No leg detection for long time 1 Laser 2 Laser Legs too far 3 Laser Legs too close 4 Laser 5 Force 6 Force 7 Force 8 Both Stopped legs One side force only Small force applied Big force applied Laser points to one side, force to the other Action Stops immediately Slows down the speed until stops Increases smoothly the speed Decreases speed and stop Stops immediately Stops immediately Slows down and stop Keeps going to the previous side, slows down the speed and stop 7. Evaluations of the UFES’ Smart Walker The control system here developed was evaluated using a circle and an eight-shaped path. In both situations the only safety rule applied was to monitor a maximum allowed speed. The results are shown in Figs. 8 and 9. In both cases was 0.001 and for was 1. These the gain used for gains are also valid for other kind of paths, as an eightshaped and circle paths are considered the most complex paths due the whole system dynamic is excited when following these kind of paths. For both paths, it is possible to see that the errors come close to zero. It is worth to comment that the controller here developed is a strict Figure 9 – Results for a circular path in order to evaluate distance and orientation errors in following this kind of path. 8. Experiments with volunteers with osteoarthritis control that takes the distance and orientation errors to zero, and with demonstration of stability, which it is not found in other works available in literature. A group of 40 volunteers (male and female, older than 55 year) were evaluated by an orthopedist and a physiotherapist to carry out experiments with the UFES’ Smart Walker in the Physical Rehabilitation Center of Espirito Santo State (Brazil). All of them were diagnosed with osteoarthritis, according analysis of radiography and clinical analysis suggested by the American Society of Rheumatology, with provides 91% of sensibility and 86% of specificity in the diagnosis. Among the group of 40 volunteers, 16 of them were selected to carry out the experiments with the smart walker, with 13 out of them diagnosed with arthrosis and considered healthy people. The exclusion criteria of volunteers were: recent traumas, previous lower limb, pelvis or hip surgeries, Figure 8 – Results for an eight-shaped path, in order to evaluate distance and orientation errors in following this kind of path. neuromuscular diseases, other pathologic arthritis or neurologic and cardiac diseases. All of selected volunteers signed the consent form approved by the Ethical Committee of Federal University of Espirito Santo (Brazil) to carry out the experiments with the smart walker, which consisted of following the path shown in Fig. 10. During the experiments (repeated three times), temporal and distance parameters were obtained from the volunteers, such as: velocity, gait length, distance between user and walker, and angle between the user legs and the walker. All these parameters can be used for gait evaluation. Fig. 11 shows one of the volunteers carrying out the experiment, and Fig. 12 shows some measurements of distance to legs, legs orientation and user knee angles obtained during the trials, for: a) a volunteer with arthrosis, and b) a healthy volunteer. Nowadays, all these measurements are being analyzed in order to make possible differentiate between a volunteer with arthrosis and a healthy volunteer. 18 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Legs Distance (LRF) 0.8 Right Leg Crossing Legs Left Leg Meters 0.7 0.6 0.5 0.4 6 8 10 12 14 Seconds 16 18 20 22 Legs Orientation (LRF) Right Leg Left Leg Degrees 10 Figure 10 - Path used during the experiments with the smart walker. 0 -10 -20 6 8 10 12 14 Seconds 16 18 20 22 16 18 20 22 16 18 20 22 16 18 20 22 XZ Knee Angle 40 30 20 10 6 8 10 12 14 XY Knee Angle 94 92 90 88 86 84 6 8 10 12 14 YZ Knee Angle 30 25 20 15 10 5 6 Figure 11 - Volunteer carrying out the experiment. Legs Distance (LRF) Right Leg Crossing Legs Left Leg 0.9 Met ers 0.8 0.7 8 10 12 14 (b) Figure 12 - Measurements of measurements of distance to legs, legs orientation and user knee angles obtained from volunteers during the trials: a) with arthrosis; b) healhy. 0.6 0.5 0.4 8 10 12 14 16 18 Seconds 20 22 24 26 28 9. Conclusions Legs Orientation (LRF) 10 Right Leg Left Leg Degrees 0 -10 -20 8 10 12 14 16 18 Seconds 20 22 24 26 28 20 22 24 26 28 20 22 24 26 28 XZ Knee Angle 35 30 25 20 15 10 5 8 10 12 14 16 18 XY Knee Angle 92 90 In this work the UFES’ Smart Walker was introduced. The main goal of this development was to allow motordisabled people to use their locomotion potential to move around. The developed walker provides safety and a more natural human gait through the information provided by the laser sensor. Several experiments were carried out with this smart walker with a group of volunteers with arthrosis and healthy people, and results have shown a good performance of the proposed controller. The next step of this work is to analyze the several parameters obtained from the volunteers in order to differentiate between healthy people and volunteers with arthrosis. 88 Acknowledgements 86 84 8 10 12 14 16 18 Authors acknowledge the support from CAPES and CNPq. YZ Knee Angle 30 25 20 15 References 10 5 8 10 12 14 16 18 (a) 20 22 24 26 28 [1] S. M. Bradley and C. R. Hernandez, “Geriatric assistive devices.,” American family physician, vol. 84, no. 4, pp. 405–11, Aug. 2011. [2] M. M. Martins, C. P. Santos, A. Frizera-Neto, and R. Ceres, “Assistive mobility devices focusing on Smart Walkers: Classification and review,” 19 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Robotics and Autonomous Systems, vol. 60, no. 4, pp. 548–562, Apr. 2012. [3] [4] A. Frizera-Neto, R. Ceres, E. Rocon, and J. L. Pons, “Empowering and Assisting Natural Human Mobility : The Simbiosis Mobility : The Simbiosis Walker,” no. 3, pp. 34–50, 2011. F. W. van Hook, D. Demonbreun, and B. D. Weiss, “Ambulatory Devices for Chronic Gait Disorders in the Elderly,” American Family Physician, vol. 67, no. 8, pp. 1717–1724, Apr. 2003. [5] M. Martins, C. Santos, and A. Frizera, “Online control of a mobility assistance Smart Walker,” 2012 IEEE 2nd Portuguese Meeting in Bioengineering (ENBENG), pp. 1–6, Feb. 2012. [6] M. Martins, A. Frizera, and C. P. Santos, “Review and Classification of Human Gait Training and Rehabilitation Devices,” no. i. [7] “Figure: Wheelchair.” [Online]. Available: http://ukmobilityscooters.com/. [Accessed: 10-Nov2012]. [8] TechOn - Tech and Industrial Analysis from Asia, “Figure: Suzuki MIO Eletric Wheelchair.” [Online]. Available: http://techon.nikkeibp.co.jp/english/NEWS_EN/200 60927/121588/. [Accessed: 19-Apr-2013]. [9] Special Needs - Webstore, “Figure: Paralell Bars.” [Online]. Available: http://www.especialneeds.com/treatment-clinicrehab-equipment-parallel-bars.html. [Accessed: 15Apr-2013]. [10] Ansima Medical, “Figure: Mobility Training Treadmill.” [Online]. Available: http://ansima.pl/product/reoambulator/. [Accessed: 10-Apr-2013]. [11] SPS, “Figure: Orthosis.” [Online]. Available: http://www.spsco.com/products/new-releases/2-2805d.asp. [Accessed: 21-Apr-2013]. [12] Medical Supplies & Equipament Company, “Figure: Front-Wheeled Walker II.” [Online]. Available: http://mobility-products.medicalsupplies-equipment-company.com/medical-rollingwheeled-walker-144.htm. [Accessed: 20-Apr-2013]. [13] Vida y Salud, “Figure: Standard Walker (ZimmerFrame).” [Online]. Available: http://vidasalud.org.es/ayudas-a-la-movilidad. [Accessed: 08-Apr-2013]. [14] SupportShop.eu Webstore, “Figure: Rollator.” [Online]. Available: http://www.supportshop.eu/producten/loophulpmid delen/rollators. [Accessed: 25-Apr-2013]. [15] G. Lacey and K. Dawson-Howe, “Evaluation of Robot Mobility Aid for the Elderly Blind,” in Proceedings of the Fifth International Symposium on Intelligent Robotic Systems, 1997. [16] A. J. Rentschler, R. A. Cooper, B. Blasch, and M. L. Boninger, “Intelligent walkers for the elderly: Performance and safety testing of VA-PAMAID robotic walker,” Journal of Rehabilitation Research and Development, vol. 40, no. 5, pp. 423–432, 2003. [17] G. Lacey and D. Rodriguez-Losada, “The evolution of guido,” IEEE Robotics & Automation Magazine, vol. 15, no. 4, pp. 75–83, 2008. [18] G. Wasson, J. Gunderson, and S. Graves, “Effective Shared Control in Cooperative Mobility Aids,” in Proceedings of the Fourteenth International Florida Artificial Intelligence Research Society Conference, 2001, vol. 1, pp. 1–5. [19] V. Kulyukin, A. Kutiyanawala, E. LoPresti, J. Matthews, and R. Simpson, “iWalker: Toward a Rollator-Mounted Wayfinding System for the Elderly,” in 2008 IEEE International Conference on RFID, 2008, pp. 303–311. [20] A. Frizera-Neto, “Interfaz multimodal para modelado, estudio y asistencia a la marcha humana mediante andadores robóticos.,” Universidad de Alcalá, 2010. [21] M. Spenko, H. Yu, and S. Dubowsky, “Robotic Personal Aids for Mobility and Monitoring for the Elderly,” IEEE Transactions On Neural Systems And Rehabilitation Engineering, vol. 14, no. 3, pp. 344–351, Oct. 2006. [22] S. Dubowsky, F. Genot, S. Godding, H. Kozono, and A. Skwersky, “PAMM - a robotic aid to the elderly for mobility assistance and monitoring: a ‘helping-hand’ for the elderly,” in Proceedings 2000 ICRA. Millennium Conference. IEEE International Conference on Robotics and Automation., 2000, no. April, pp. 570–576. [23] V. Schneider, A. Frizera-Neto, C. Valadão, A. Elias, T. Bastos, and A. Bento, “Detecção de pernas utilizando um sensor de varredura laser aplicado a um andador robótico,” Congresso Brasileiro de Automação, 2012. 20 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Sistema de Sustitución Sensorial para Comunicación en Sordo-Ciegos Basado en Servicio Web Albano Carrera Laboratorio de Electrónica y Bioingeniería Universidad de Valladolid [email protected] Alonso Alonso Laboratorio de Electrónica y Bioingeniería Universidad de Valladolid [email protected] Roberto Morago Laboratorio de Electrónica y Bioingeniería Universidad de Valladolid Resumen En este trabajo se desarrolla un dispositivo para ayuda a la comunicación de sordos y sordo-ciegos basado en un interfaz que reconoce comandos vocales, una i nterfaz estimuladora que porta el paciente y un sistema de comunicación inalámbrico para conectarlos entre sí. La interfaz encargada del reconocimiento de los comandos pronunciados se implementa a par tir de una e tapa acondicionadora de audio, un PC y un servicio web gratuito. La interfaz estimuladora consiste en un guant e equipado con 5 vibradores electromecánicos y 5 diodos led. Se han realizado pruebas sobre 18 s ujetos obteniéndose buenos resultados en el funcionamiento de ambas interfaces y del sistema completo. Abstract In this paper, a device to assist the communication of deaf and deaf-blind is developed. This device is based on an interface that recognises voice commands, an stimulating interface that carries the patient and a wireless link to connect them together. The voice recognition interface is implemented through an au dio conditioning stage, a P C and a free web service. The second interface is a stimulating glove equipped with 5 electromechanical vibrators and 5 l eds. Tests have been conducted with 18 control subjects and good results in the operation of both interfaces and the whole system have been achieved. 1. Introducción En la actualidad, la existencia de enfermedades crónicas o l esiones discapacitantes en una parte importante de la población conlleva, no s olo un perjuicio económico derivado de la menor posibilidad en el desempeño laboral de los afectados, sino también Ramón de la Rosa Laboratorio de Electrónica y Bioingeniería Universidad de Valladolid [email protected] Juan Pablo de Castro Grupo de Intersemiótica, Traducción y Nuevas Tecnologías Universidad de Valladolid [email protected] una negativa incidencia sobre la calidad de vida de dichas personas. A esta circunstancia se suma el aumento progresivo de la población anciana y de su esperanza de vida, que puede considerarse también, en las edades más avanzadas, como una causa de discapacidad. Afortunadamente, existen múltiples aplicaciones de la ingeniería destinadas a paliar muchos de los problemas funcionales que afrontan las personas discapacitadas. Estas aplicaciones se enmarcan dentro del ámbito de trabajo de las Tecnologías de Rehabilitación (TR). El grupo de investigación que conforma el Laboratorio de Electrónica y Bioingeniería de la Universidad de Valladolid trabaja fundamentalmente en este ámbito. Entre los desarrollos básicos de las TR se encuentran las interfaces humano-máquina, que pueden ser de dos tipos, según el sentido de su actuación. En primer lugar, las que captan las señales de naturaleza diversa que puede producir el organismo para acondicionarlas, de modo que puedan ser utilizadas como elementos para el diagnóstico o bien en el control de algún sistema funcional de apoyo o sustitutivo. A este tipo las denominamos interfaces aferentes. Por otro lado, se construyen también interfaces que se encargan de dirigir y adecuar señales desde elementos externos hacia el organismo, con el objeto de sustituir señales naturales o bien de generar estímulos nuevos a los que los sistemas biológicos pueden responder. A este otro tipo las denominamos interfaces eferentes. En el trabajo que aquí se presenta se han implementado una interfaz aferente, funcionando conjuntamente con otra eferente, para paliar un problema concreto de discapacidad. Una de las discapacidades más importantes es la sordera profunda o c ofosis. Por sí sola, resulta una enfermedad que dificulta severamente la realización de las actividades diarias más habituales y es un excelente 21 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos objetivo para los desarrollos en TR. Si, además, la cofosis coexiste con la ceguera en un paciente, resulta altamente incapacitante para el mismo, sobre todo en el ámbito de la comunicación. Existen algunas ayudas técnicas que intentan paliar esta discapacidad basándose en el empleo de lenguajes específicos e incluyendo, en algunos casos, la sustitución sensorial. Entre los dispositivos diseñados para personas con ceguera y basados en lenguajes muy implantados, como el Braille, pueden encontrarse equipos educativos yespeciales [1] o teléfonos móviles con interfaz táctil [2] [3]. Además, existen sistemas que permiten a los usuarios orientarse en cualquier entorno mediante planos táctiles [4], sustituyendo la información visual. Centrando la revisión en los dispositivos de sustitución sensorial, en [5] se presenta un s istema basado en un p ar de anillos que vibran al reconocer algunos sonidos de alerta y acepta también algunas frases típicas que se muestran en una pulsera con display. El sistema ha sido denominado Vibering y está actualmente en el mercado. Vibering no e s un sistema diseñado principalmente para la comunicación, sino para la alerta ante eventos. Además, obviamente, los sordo-ciegos no pueden leer la información que presenta la pulsera. En [6] se presenta un sistema de pulsera similar para ser usado en el entorno doméstico, pero éste es más limitado aún que el anterior en cuanto a prestaciones, limitándose a vibrar en presencia de sonidos de alarma en el hogar. En cuanto al desarrollo llevado a cabo en el proyecto “Interfaz Táctil para Sordo-ciegos”, proyecto TacTic, [7] se trata de un sistema muy complejo y costoso, que usa un guante con 26 elementos de vibración, solamente indicado para personas con conocimientos del lenguaje Malossi. Los mensajes transmitidos son caracteres individuales y no e stá específicamente diseñado para transformar voz en comandos completos reconocibles. En este trabajo hemos abordado también el objetivo de la ayuda a l a comunicación para sordos y sordociegos desde un e nfoque diferente para desarrollar un sistema de sustitución sensorial basado en reconocimiento automático de voz combinado con estimulación táctil de mensajes completos o c omandos sobre el paciente. Para ello ha s ido necesaria la definición del citado conjunto de comandos, ampliable en cualquier momento, de modo que sean de utilidad para los usuarios. reconocimiento de voz, se encargaría de detectar comandos hablados por un usuario y, tras su procesado, mediante una conexión inalámbrica enviarlos a l a segunda, eferente. Esta segunda interfaz se encargaría de realizar una e stimulación sensorial de otro usuario. Como interfaz de estimulación sensorial se ha desarrollado un di spositivo que permite estimular, simultáneamente, el sentido de la vista por medio de destellos luminosos de colores y del tacto mediante vibración en cada uno de los dedos de la mano. Así pues, se seleccionarán una s erie de palabras clave útiles para el sujeto discapacitado y se elegirá una codificación adecuada en la interfaz de estimulación. Así, el usuario podrá recibir y discernir entre un conjunto de órdenes lo suficientemente amplio como para mejorar aspectos de independencia personal y su calidad de vida. La interfaz debe cumplir una s erie de parámetros relativos a l a adaptabilidad al usuario, [8], correcta elección de la del sentido a e stimular, fiabilidad, capacidad, entendida ésta como la cantidad de mensajes que pueden codificarse con el dispositivo, velocidad de respuesta adecuada y coste computacional bajo, comodidad, evitando interferir con actividades realizadas simultáneamente por el sujeto y coste económico asequible para los potenciales usuarios. 3. Material y métodos Como ya se ha indicado se implementarán dos interfaces que, mediante su interconexión, formarán el sistema completo. En este apartado se explicará cada una de ellas por separado. 3.1. Reconocimiento de voz La interfaz aferente de reconocimiento de voz se implementará utilizando como elemento captador un micrófono ambiente de bajo coste colocado en el entorno controlado de una vivienda. Con este micrófono y un sistema acondicionador de la señal de audio, basado en el circuito integrado SSM2166, ésta se introduce en un ordenador personal donde se encuentra instalado un software de reconocimiento de patrones de voz. El circuito acondicionador de la señal de audio, Figura 1, utiliza el circuito integrado y una etapa previa basada en amplificador operacional. 2. Objetivos El objetivo de este trabajo es crear un s istema de sustitución sensorial para personas con cofosis o cofosis y ceguera. La función de este sistema es captar señales auditivas, concretamente de voz, generadas por un determinado sujeto, y enviarlas hacia el usuario sordo utilizando un sentido alternativo al del oído, usando la señal apropiada convenientemente codificada. Para este cometido se pretende diseñar un sistema compuesto por dos interfaces y una interconexión entre ellas. La primera de las interfaces, aferente y de Figura 1: Circuito acondicionador de la señal de audio. 22 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos La primera etapa implementada con un circuito TL084 se encarga de realizar una primera amplificación de la señal de entrada así como de alimentar el micrófono. En esta etapa se ha utilizado una configuración inversora básica de ganancia 2 con alimentación simple de 5 voltios. Tras esta preamplificación se utiliza el circuito integrado SSM2166, orientado al acondicionamiento de señales de audio. Con este dispositivo y mediante la correcta configuración de componentes pasivos externos se pueden conseguir variaciones y ajustes en distintos parámetros del audio: ganancia, punto de rotación, umbral de ruido, ratio de compresión y constante de tiempo del circuito de verdadero valor eficaz. Para conseguir un correcto funcionamiento se realizó una calibración experimental de cada uno de estos parámetros, tras el conveniente análisis teórico. Así, se ha elegido una ganancia de 10 que junto con la preamplificación de 2 conseguirá un valor adecuado de 20. El punto de rotación se ha elegido muy bajo de unas decenas de milivotios rms, con este valor y combinado con la ganancia establecida, la interfaz permite el reconocimiento de voz a una distancia de varios metros y, adicionalmente, limita las posibles señales de ruido existentes. El umbral de ruido que fija la señal de entrada mínima a la que responderá la interfaz se ha elegido en torno a los 10 milivotios rms. La relación entre el cambio que sufrirá la señal de salida en función de la de entrada, el ratio de compresión, se ha fijado a un valor de 2:1. Para la constante de tiempo de verdadero valor eficaz se ha elegido un valor pequeño para que la interfaz no tenga una respuesta demasiado lenta. Con estos valores para los parámetros se consiguen unas características adecuadas para conseguir un correcto reconocimiento empleando el software desarrollado. El software implementado, Figura 2, se ha diseñado para llevar a cabo el reconocimiento de voz de una serie concreta de patrones previamente definidos. Para este cometido se ha desarrollado la aplicación de procesado en Java y utiliza Internet junto con las funcionalidades de Google para el reconocimiento, posteriormente el procesado se realiza localmente en el ordenador personal del usuario. Figura 2: Aspecto de la aplicación software de reconocimiento desarrollada. El uso de la tecnología de Google implica la necesidad de conexión a internet para su correcto funcionamiento y, además, la necesidad de instalar un servidor local para poder obtener los comandos pronunciados. Se ha incluido la opción de configurar los patrones que van a ser detectados. De esta manera, se pueden personalizar los comandos de voz a cada usuario. 3.2. Estimulación sensorial Como se ha indicado en los objetivos el propósito de la interfaz eferente es conseguir estimular los sentidos del tacto y de la vista. Para esta estimulación se ha elegido utilizar la mano del usuario ya que es una de las zonas de mayor sensibilidad táctil. Por tanto, se ha elegido estimular con actuadores independientes de vibración cada uno de los dedos de la mano y, análogamente, en cada uno se ha colocado un diodo led luminoso que realiza el mismo patrón de estimulación. Con estos dos tipos de estimuladores un usuario puede discernir táctilmente la información de la orden y en algunos casos si surgen dudas podría comprobar visualmente el comando. Para la realización de las estimulaciones se utilizarán dos actuadores distintos. En el caso de la vibración táctil se emplearán motores vibradores, que incorporan un peso descompensado en el eje. Por otro lado, la estimulación visual se realizará por medio de cinco led de diferente color: amarillo, verde, rojo, azul y blanco. Para implementar conjuntamente estos dos actuadores en cada uno de los canales de estimulación ha sido necesario utilizar un circuito de acondicionamiento para las señales procedentes de la plataforma hardware Arduino [9], que será la encargada de procesar la información de la interfaz y activar las señales de cada canal, Figura 3. Figura 3: Circuito de estimulación de cada uno de los canales de estimulación sensorial. Con el circuito de la Figura 3 se consigue activar los dos actuadores con la misma señal de control, vcontrol, que activa el led y excita la puerta de un transistor bipolar NPN de propósito general. El diodo incluido se encarga de recoger las corrientes impulsivas generadas en el motor vibrador cuando éste se apaga súbitamente. Al utilizarse cinco canales de estimulación, como el presentado en la Figura 3, uno en cada uno de los dedos, es necesario utilizar cinco salidas digitales del Arduino para el control. Todo el sistema de actuadores se colocará en un guante convencional como los que se utilizan normalmente en la industria, Figura 4. La mecanización de los motores y los led se ha realizado en la parte exterior de los dedos, reservando la parte interna para que el usuario mantenga un total manejo de objetos con la palma de la mano y la parte interna de los dedos. La Figura 4 presenta el aspecto final del prototipo de interfaz eferente desarrollado. En cada uno de los dedos se ha instalado un encapsulado que incorpora todos los componentes necesarios y una carcasa. En la parte izquierda pueden verse en detalle dos de los actuadores. Este sistema de estimulación permite obtener una vibración discernible en cada uno de los dedos y la estimulación táctil visual 23 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos proporcionará al usuario información adicional sobre el comando de interés. Figura 4: Interfaz eferente de estimulación sensorial visual y táctil. El software incluido en la plataforma hardware Arduino se encarga de recibir la correspondiente orden de un subsistema de procesado externo y codificarla en un patrón de estimulación concreto. Se han codificado un total de 24 combinaciones diferentes en función de los actuadores activos y su frecuencia de funcionamiento, aunque la interfaz permite un mayor número de ellas. De esta manera, se han utilizado combinaciones de dedos, desde uno a cinco activos, y dos posibles frecuencias, 1 o 10 hercios. Asimismo se han combinado diferentes frecuencias en un mismo patrón de estimulación. Debido a la posibilidad de incrementar tanto el número de frecuencias de funcionamiento como de actuadores utilizados, las posibles codificaciones obtenidas pueden incrementarse notablemente. Este hecho convierte a la interfaz en un dispositivo completamente escalable en función de las necesidades y del entrenamiento de un determinado usuario. 3.3. Enlace inalámbrico Para completar el sistema de sustitución sensorial, empleando directamente la interfaz aferente de reconocimiento de voz y la interfaz eferente de estimulación sensorial, bastará con realizar un enlace inalámbrico entre ambos dispositivos de manera que el patrón de voz reconocido sea codificado a una orden de estimulación concreta; Figura 5. De esta manera, en el ordenador personal donde se realiza el procesado del reconocimiento de voz se activará una conexión inalámbrica Bluetooth, puerto serie, que enviará las pertinentes órdenes al Arduino. En el Arduino utilizado para el control de la estimulación sensorial se incorporará un módulo Bluetooth para cerrar el enlace entre las interfaces. Cuando se reciba una orden concreta se analizará y se procederá a estimular al usuario con el código correspondiente. Figura 5: Sistema de sustitución sensorial. 4. Resultados Se ha realizado pruebas del sistema de sustitución sensorial en 18 sujetos de control, Tabla 1, en el entorno controlado del laboratorio de investigación. La Tabla 1 muestra la relación de los sujetos de control indicando su edad, sexo y lado dominante para la mano (sujeto diestro o zurdo). Este último dato es relevante ya que el prototipo de interfaz eferente es de mano derecha. La muestra de sujetos de control obtenida incluye está equilibrada en lo que a sexo se refiere: 9 hombres y 9 mujeres. El rango de edades se sitúa entre los 18 y los 58 años aunque un tercio de los sujetos de ubican en el intervalo entre 25 y 30 años. Finalmente, en lo que respecta al lado dominante se ha podido contar, únicamente, con un sujeto zurdo masculino para la realización de los ensayos con el sistema. Para estas pruebas se ha elegido hacer ensayos independientes con las dos interfaces estudiando la respuesta con los sujetos de control. De esta manera, se han desarrollado, en primer lugar, los ensayos con la interfaz de reconocimiento de voz y, posteriormente, con la interfaz de estimulación visual y táctil. Este desglose de las pruebas tiene sentido para la realización del estudio porque cada una de estas interfaces funcionaran en sujetos diferentes. Por lo tanto, se han elegido aleatoriamente diez de los patrones de voz asociados a comandos sensoriales para los ensayos con cada interfaz. Tabla 1: Relación de sujetos de control junto con sus características principales. Número Edad Sexo Diestro/zurdo 1 40 Hombre Diestro 2 27 Hombre Diestro 3 22 Mujer Diestro 4 28 Hombre Diestro 5 48 Hombre Diestro 6 58 Hombre Diestro 7 44 Hombre Zurdo 8 50 Mujer Diestro 9 29 Hombre Diestro 10 41 Hombre Diestro 11 19 Mujer Diestro 24 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 12 13 14 15 16 17 18 18 25 26 37 50 29 38 Hombre Mujer Mujer Mujer Mujer Mujer Mujer Diestro Diestro Diestro Diestro Diestro Diestro Diestro 4.1. Interfaz de reconocimiento de voz El protocolo seguido para las pruebas de la interfaz de reconocimiento de voz se basa en pruebas de reconocimiento de 10 patrones definidos previamente, Tabla 2, a dos distancias distintas 50 cm y 2 m. Tabla 2: Relación de patrones de voz a reconocer en las pruebas de la interfaz aferente del sistema de sustitución sensorial. Número de orden Patrón de voz 1 habitación 2 azul 3 ayuda 4 cuidado 5 estudiar 6 comida 7 adiós 8 madre 9 rojo 10 muy bien En este caso, el protocolo consiste en la ejecución del comando de voz por parte del sujeto de control en dos ocasiones, para cada una de las dos distancias propuestas. Tras cada uno de los comandos se apuntaba si el reconocimiento del patrón había sido satisfactorio o no. Los resultados obtenidos se presentan en la Figura 6 para una distancia de 50 cm y en la Figura 7 para una distancia de 2 m. Figura 6: Aciertos y errores de la interfaz de reconocimiento de voz en las pruebas realizadas a 50 cm por los 18 sujetos de control de la Tabla 1. Figura 7: Aciertos y errores de la interfaz de reconocimiento de voz en las pruebas realizadas a 2 m por los 18 sujetos de control de la Tabla 1. Los resultados muestran un acierto promedio del 88% para una distancia de 50 centímetros, Figura 6. En este caso, se producen pocos errores a la hora de detectar el patrón de interés, salvo en un caso puntual, los errores son inferiores a cinco en todos los sujetos. Tal y como puede suponerse a priori, si se aumenta la distancia entre el sujeto y el captador de sonido aumentará la tasa de errores a la hora de detectar el patrón de la orden correspondiente. Analizando la gráfica de la Figura 7, y comparándola con la de la Figura 6, se observa que, efectivamente, el número de errores en la detección del patrón de voz aumenta. Aún así, el funcionamiento de la interfaz se considera muy adecuado a esta distancia, ya que todos los sujetos menos uno consiguen una tasa de acierto superior al 50% y, en algunos casos del 100%. Merece la pena destacar que, durante el desarrollo de estas pruebas, no se han efectuado cambios en la configuración del circuito acondicionador de la señal del micrófono, Figura 1, tomándose una configuración por defecto, pero en algunos casos si fuera necesario un ajuste del sistema a cada usuario y/o distancia, podrían modificarse diferentes parámetros como se ha explicado en el apartado 3.1. Si se centra la atención en los errores conseguidos en los diferentes patrones mostrados en la Tabla 2, éstos pueden resumirse en una gráfica, Figura 8. Se han utilizado dos colores diferentes: gris oscuro para los errores a la distancia m. de 50 cm y gris claro para los errores de reconocimiento a 2 Tras el análisis de la gráfica de la Figura 8 se observa que uno de los patrones es dominante a la hora de producir errores de reconocimiento de voz, concretamente el patrón número 8, correspondiente a la palabra “madre”. El resto de patrones presentan una tasa de error comparable entre ellos para ambas distancias. La razón de que el patrón 8 presente una tasa de errores tan elevada se debe al uso del fonema ‘r’ unido a otra consonante, es decir, el sonido ‘dr’, que puede resultar complicado de detectar si no se pronuncia claramente. En las gráficas de resultados de la Figura 6 y Figura 7 se muestran los resultados conseguidos en la pruebas como número de aciertos, gris oscuro, y número de fallos, gris claro, sobre el número total de intentos, 20, en cada una de las distancias. 25 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 1 2 3 11 12 13 Los resultados conseguidos por los sujetos de control se muestran en la Tabla 4, para los diferentes patrones de la Tabla 3. Se ha utilizado una nomenclatura simbólica para los resultados: el símbolo “” indica que no se ha acertado/decodificado el comando de estimulación, mientras que “” presenta los intentos acertados. Tal y como se ha indicado, cada sujeto tiene un máximo de tres intentos para cada orden de estimulación, por tanto en la Tabla 4 se incluirán diferentes símbolos para reflejar todos los escenarios: acierto directo (“”), fallo y acierto (“”), dos fallos y acierto (“”) y tres fallos (“”). 10 9 Tabla 3: Relación de patrones de estimulación visual y táctil diseñados para las pruebas de la interfaz eferente del sistema. Nº de Actuadores en funcionamiento y frecuencia orden Pulgar Índice Corazón Anular Meñique 1 10 Hz 10 Hz 2 1 Hz 3 1 Hz 1 Hz 10 Hz 4 10 Hz 10 Hz 10 Hz 10 Hz 10 Hz 5 1 Hz 1 Hz 1 Hz 6 10 Hz 7 10 Hz 8 1 Hz 1 Hz 9 1 Hz 10 1 Hz 1 Hz Tabla 4: Resultados de los sujetos de control con la interfaz de estimulación sensorial. Número de orden 1 2 3 4 5 6 7 8 9 10 4 En lo que respecta a la interfaz eferente de estimulación sensorial visual y táctil, se ha optado por utilizar los comandos de estimulación correspondientes a los patrones de voz de la Tabla 2, recogidos en la Tabla 3. Aunque la interfaz permite la estimulación simultánea de la vista y el tacto, en las pruebas sólo se utilizará la estimulación del tacto. Esta discriminación en el uso de la interfaz se debe a la facilidad de los sujetos para detectar patrones visuales y, asimismo, debido a la mayor posibilidad de realizar tareas simultáneas con la interfaz de estimulación táctil que permite no tener ocupada continuamente la vista. De esta forma, se instaba a los sujetos de control a utilizar la interfaz e intentar decodificar el signo enviado. Se realizaban un máximo de tres intentos para cada patrón, si el sujeto no era capaz de identificar el comando, pasando al siguiente patrón de estimulación siempre que el usuario averiguaba la codificación de la orden. 5 4.2. Interfaz de estimulación sensorial Número de sujeto 8 7 6 Figura 8: Errores para cada uno de los patrones de voz de la Tabla 2 en las pruebas realizadas a dos distancias diferentes, 50 cm y 2 m. En la Tabla 4 puede observarse que las órdenes 2, 6, 7 y 9 presentan un reconocimiento sencillo, en casi todos los casos marcadas con el símbolo “”, debido a que se trata de comandos simples en los que funciona un único estimulador. Atendiendo a las órdenes con dos actuadores simultáneos: 1, 8 y 10, puede verse que el reconocimiento del patrón de estimulación es más complicado, aunque, en la mayor parte de los casos, el sujeto lograba decodificar la orden estimulada. No obstante en estos tres casos comienzan a aparecer los primeros fallos en los tres intentos, “”. Especial atención requieren las órdenes 3, 4 y 5, éstas producen errores de decodificación, “”, en la mayor parte de los sujetos. Entres estos tres casos, la orden más fácil de decodificar es la número 5 que presenta tres estimulaciones simultáneas con la misma frecuencia, seguida de la número 4 de cinco estimulaciones. En ambas sólo 6 sujetos decodificaron el comando de interés. Finalmente, la orden 3, que combina tres estimuladores y las dos frecuencias posibles, presenta más inconvenientes en la decodificación y sólo 5 sujetos consiguieron obtener el comando de estimulación correcto. 26 Libro de actas DRT4ALL 2013 18 17 16 15 14 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Centrando el análisis en los sujetos de control, la mayoría de ellos consigue resultados similares a la media. El sujeto número 7 que, tal y como presenta la Tabla 1, es zurdo tuvo mayores dificultades en la decodificación de algunas órdenes pero presentó un comportamiento global similar al del resto de sujetos. Este usuario consiguió decodificar pese a utilizar una interfaz de mano derecha siendo su lado dominante el izquierdo todas las órdenes menos la número 3, reflejada como la de mayor dificultad. Además, lo resultados reflejan que tras un periodo de entrenamiento un sujeto puede conseguir un alto nivel de sensibilidad con la interfaz y la decodificación de las órdenes. En esta tesitura se encontraba el sujeto número 2 que consiguió realizar una decodificación directa de todas las órdenes menos una en la que tuvo un fallo. 4.3. Valoración de los usuarios Tras la realización de las pruebas se instaba a los sujetos a rellenar una encuesta valorando de 1 a 5, siendo 1 la valoración mínima y 5 la máxima, diferentes aspectos del sistema de sustitución sensorial y sus interfaces. La Tabla 5 muestra los resultados de las encuestas para la nota media y la moda de las notas. Tabla 5: Nota promedio y moda de las notas obtenidas en la encuesta de valoración del sistema de comunicación aumentativa. Nota Moda Característica media Idea de sustitución sensorial 4,89 5 Codificación de las órdenes 4 4 Comodidad de la interfaz de 4,22 5 estimulación A la vista de los resultados de la Tabla 5 se observa que los sujetos de control valoraron muy positivamente la idea de sustitución sensorial para personas con cofosis o cofosis y ceguera. En lo que respecta a la interfaz eferente de estimulación sensorial a la gran mayoría de los sujetos les pareció de una comodidad adecuada a pesar de tratarse de un guante de talla grande que no se ajustaba perfectamente en todos los casos. Más penalizada, aunque consiguiendo una nota elevada, estaba la codificación de las órdenes de estimulación propuesta, ya que muchos de los comandos no fueron correctamente decodificados por los sujetos. Si bien, la valoración alta refleja que los sujetos entendían que realizar selecciones encendido/apagado de los estimuladores y cambios en las frecuencias de funcionamiento de éstos era un método válido y muy útil de codificación. Asimismo, los sujetos que encontraban más problemas en la identificación de ciertos patrones de estimulación con un poco de entrenamiento, tras la realización del protocolo, eran capaces de diferenciar órdenes muy similares. 5. Conclusiones Se ha desarrollado un sistema de sustitución sensorial basado en la interconexión inalámbrica Bluetooth de dos interfaces. Estas interfaces, una aferente de reconocimiento de voz y otra eferente de estimulación sensorial visual y táctil, permiten traducir información auditiva en táctil. Este hecho consigue que personas con cofosis o cofosis y ceguera puedan responder adecuadamente a diferentes órdenes de voz. Además, el sistema podría utilizarse en otros ambientes diferentes, por ejemplo, entornos industriales muy ruidosos donde un encargado debe comunicarse con los operarios o cuando deben recibirse instrucciones en un idioma a priori desconocido que puede ser traducido a información táctil reconocible. Adicionalmente, habría que destacar que el dispositivo de estimulación puede tener otras funcionalidades añadidas como por ejemplo que el usuario obtenga una realimentación táctil de determinados eventos o ejercicios de rehabilitación. Mediante este tipo de técnicas los sujetos pueden experimentar un aprendizaje y una recuperación más efectiva, [10]. El sistema se ha implementado satisfactoriamente y ha sido probado en 18 sujetos de control realizando un protocolo específico e independiente para cada una de las dos interfaces que lo componen. Se observa que el funcionamiento de la interfaz de reconocimiento de voz es satisfactorio incluso para distancias de 2 metros, con una tasa de acierto del 73%, teniendo en cuenta que se ha empleado un micrófono de bajo coste con una etapa de acondicionamiento. Para el caso más favorable, a una distancia de 50 centímetros, la tasa de acierto ascendía hasta el 88%. Además, estos resultados pueden mejorarse si se realizan los debidos ajustes en diferentes parámetros adaptando el dispositivo a distintas situaciones y usuarios En lo que respecta a la interfaz de estimulación sensorial, los resultados demuestran que es un dispositivo adecuado para la función que se pretende realizar. Todos los sujetos bajo estudio son capaces de decodificar las órdenes de estimulación, aunque aparecen problemas en algunos patrones concretos que podrían desaparecer con diferentes ciclos de entrenamiento. Además, se podría adecuar la interfaz a las necesidades y capacidades del usuario, esto quiere decir que se podrían evitar combinaciones que produzcan confusión o personalizar la ubicación de los estimuladores. En cualquier caso, al combinarse estimulación táctil con información visual, ésta puede servir para discernir sin ambigüedad el comando recibido. El hecho de que prime la información táctil frente a la visual tiene como consecuencia un mayor nivel de independencia del usuario, ya que le permite evitar tener que mirar continuamente a la interfaz. Comparando la interfaz de estimulación y los resultados obtenidos con otros dispositivos encontrados en la literatura 27 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos y ya mencionados anteriormente, [7], se debe destacar la gran dificultad que tendría un usuario para detectar y entrenarse en la decodificación utilizando un alto número de motores, 26 en este caso. Además, el hecho de utilizar en el diseño presentado en este trabajo un código de patrones de estimulación frente al lenguaje Malossi que se emplea en [7], permite al paciente recibir de manera sencilla y más rápidamente la información de interés. Adicionalmente, la colocación de los actuadores en la palma de la mano inhabilita completamente la funcionalidad de la extremidad. Asimismo, la valoración de todo el sistema por parte de los sujetos de control ha sido muy elevada 4,89 puntos sobre un máximo de 5. Se ha puntuado obteniendo una nota elevada tanto la idea de sustitución sensorial como la comodidad de la interfaz de estimulación y la codificación de sus órdenes. 6. Agradecimientos Este trabajo ha sido financiado parcialmente por la Consejería de Educación de la Junta de Castilla y León (España) y por el Fondo Social Europeo. 7. Referencias [1] A. Haber-Olguin, J. Quintero-López, “Dispositivo electrónico simulador del código Braille con interfase multimedia interactiva”, Revista Mexicana de Oftalmología, Sociedad Mexicana de Oftalmología, México DF, 2005, 79 (1), pp. 32-36. [2] Seunghan Song, “Universal Phone”, 2009. Disponible en http://www.tuvie.com/universal-phone-is-especiallydesigned-for-blind-people/, última visita: 30 de abril de 2013. [4] Robert Richter “Plan.B”, 2010. Disponible en http://www.oriko.com/#industrie&003planb, última visita: 30 de abril de 2013. [5] K. S. Jeong, M. H. Kim y H. J. Kim, “Vibering Sensor”, 2013. Disponible en http://www.eloido.com/viberingsensor-un-anillo-sensor-para-sordos/, última visita: 30 de abril de 2013. [6] A.F.T. Hin, E.J. Mohamad, “The wireless notification system for the hearing impaired”, Sensors & Transducers, International Frequency Sensor Association (IFSA), 2006, 69 (7), pp. 606-614. [7] Proyecto Tactic TSI-020100-2009-639 “TacTIC Interfaz Táctil para Sordociegos”. Disponible en http://innovationlabs.com/tactic, última visita: 30 de abril de 2013. [8] A. Alonso, R. de la Rosa, A. Carrera, A. Bahillo, R. Durán, P. Fernández, “A control system for robots and wheelchairs: its application for people with severe motor disability”, Mobile Robots – Current Trends, InTech, Rijeka, 2011. [9] Arduino, “Arduino”. Disponible en: http://www.arduino.cc/es/, última visita: 30 de abril de 2013. [10] M.S. Cameirão, S. Bermúdez i Badia, E. Duarte, A. Frisoli, P.F.M.J. Verschure, “The combined impact of virtual reality neurorehabilitation and its interfaces on upper extremity functional recovery in patients with chronic stroke”, Stroke – Journal of the American Heart Association, American Heart Association, Boston, 2013, 43 (10), pp. 2720-2728. [3] Zhenwei You, “B-Touch mobile phone”, 2009. Disponible en http://www.yankodesign.com/2009/06/15/touchphone-forthe-blind/, última visita: 30 de abril de 2013. 28 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Recommendations for ensuring a satisfactory user experience for visually impaired students in Distance Higher Education Institutions Pablo Rebaque-Rivas Universitat Oberta de Catalunya (UOC) [email protected] Eva P. Gil-Rodríguez Universitat Oberta de Catalunya (UOC) [email protected] Resumen This study offers a series of recommendations for Distance Higher Education Institutions and e -learning environments to ensure a satisfactory user experience for visually impaired students. It is based on a c ase study conducted at the Universitat Oberta de Catalunya (UOC), in which 15 visually impaired students were interviewed in depth to learn more about their daily activities. Additionally, a usability test was conducted. The students encounter different difficulties in their daily activities, chief among them the fact that not all educational content are accessible. With regard to the e-learning environment, the students noted that the content was easy to access and wellorganized thanks to the use of widgets. It is essential for educational content to be provided in all possible formats, so that each student can choose the format that best suits his or her needs. It is also advisable for the online environment to allow users to decide what content to view and where to view it. Este estudio ofrece una serie de recomendaciones para las instituciones de educación superior a distancia y sus entornos de e-learning que aseguren una experiencia de usuario satisfactoria para los estudiantes con discapacidad visual. Se basa en un estudio de caso realizado en la Universitat Oberta de Catalunya (UOC), en la que 15 alumnos con discapacidad visual fueron entrevistados en profundidad para conocer más acerca de sus actividades diarias. Además, se realizo un test de usabilidad. Los estudiantes se enfrentan a diversas dificultades en sus actividades diarias, Entre ellas el hecho de que no todos los contenidos educativos sean accesibles. Con respecto al entorno de e-learning, señalaron que el contenido era de fácil acceso y bien organizado gracias a l a utilización de widgets. Es esencial que los contenidos educativos se incluyan en todos los formatos posibles, para que cada estudiante pueda elegir el formato que mejor se adapte a sus necesidades. También es aconsejable que el entorno virtual permita a los usuarios decidir qué contenidos ver y dónde verlos. Llorenç Sabaté-Jardí Universitat Oberta de Catalunya (UOC) [email protected] 1. Introduction In higher education e-learning environments, adequate accessibility and usability are critical to ensuring that visually impaired students do not have problems accessing the different parts of the virtual campus and are able to complete their training under equal conditions and w ith the same ease as students without visual impairments. However, merely complying with accessibility standards does not always guarantee a satisfactory user experience (Lazar, Allen, Kleinman, & Malarkey, 2007; Ribera, Térmens & García, 2008; Sloan, et al., 2006; Theolanos & Redish, 2003). It is thus necessary to have a m ore direct understanding of the end users in their routine contexts to ensure that their user experience is truly satisfactory (Ribera et al., 2008; Sloan, et al., 2006; Theolanos & Redish, 2003). Nevertheless, this contextual methodology is rarely used to assess the accessibility of the e-learning environments of university institutions, let alone the accessibility of exclusively distance learning institutions. As a general rule, automatic tools (Alexander & Rippons, 2007; Kane, Shulman, Shockley & Ladner, 2007; Kelly, Sloan, Phipps, Petrie & Hamilton, 2005; Ribera, Térmens, Frías, 2009; Schmetzke, 2005) or the author’s own experiences (Burgstahler, 2002; Cooper, 2006) are used to make recommendations for accessible design. Other authors, such as Porras and Ribera (2008), Lazar et al. (2007) and Theolanos and Redish (2003 and 2005), have examined users’ interactions in online environments, but not in elearning environments. It would be mistaken to limit oneself to performing only usability and accessibility tests on online environments without taking into account all the potential interactions that a visually impaired student might carry out in relation to a distance education institution. It is thus critical to expand the concept of accessibility to include not only the website but also other potential interactions, such as access to educational content or the resources and activities proposed by the faculty. 29 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Through the use of questionnaires and interviews with affected parties (Asuncion et al., 2008), use cases and the experiences of authors at their institutions (Burgstahler, 2002; Burgstahler, Corrigan & McCarter, 2004; Cooper, 2006; Edmonds, 2004), and surveys of the state of the art and the literature (Burgstahler 2006), some authors have looked beyond web accessibility, raising issues and offering recommendations for accessibility and organizational policies and addressing cultural, legal and technical issues. However, we agree with Candido (2008) regarding the lack of research with visually impaired students on their experience with and perceptions of online learning. Candido stressed in his dissertation the importance of using a qualitative approach to examine the experiences of visually impaired students in greater detail in order to understand their specific experiences and perceptions regarding elearning. The following paper offers a series of specific design recommendations for online courses and e-learning environments in which customization emerges as a key factor. These recommendations seek to ensure a satisfactory user experience for visually impaired students and are based on a case study at the Universitat Oberta de Catalunya (Open University of Catalonia, UOC), a Spanish postsecondary institution that offers its teaching and learning services exclusively on a virtual campus. Although the UOC has been implementing measures to improve accessibility for many years (e.g., conducting accessibility assessments of the virtual campus, providing more time on official exams, adapting educational content to accessible formats for some subjects, etc.), it was necessary to determine in greater detail the extent to which accessibility could be improved in the daily activities involved in students’ learning processes. To this end, the contextual inquiry method (Beyer & Holtzblatt, 1998) was used and usability tests of the e-learning environment were conducted with 15 visually impaired students in their homes, their natural context for studying. 2. Objectives Our research had 2 objectives. First, a qualitative approach was used to make ethnographic observations and conduct in-depth interviews (Beyer & Holtzblatt, 1998) in the homes of visually impaired students in order to explore their daily activities in relation to the UOC with a view to determining the main difficulties and needs they encounter and how they resolve them. This made it possible to propose recommendations for ensuring a satisfactory user experience as students in a distance higher education institution. Second, the research sought to assess the usability and accessibility of the e-learning environment, the starting point for the student’s online education. To this end, a usability test was performed with the aim of gathering a series of recommendations for designing e-learning environments that are accessible and satisfactory for visually impaired students. 3. Methodology Described below are the methodology, the characteristics of the study population, the results of the fieldwork and the resulting recommendations, as well as the final conclusions. As noted by Ribera et al. (2009), current best practices on accessibility incorporate the philosophy of user-centered design (UCD). One UCD method is contextual inquiry, a specific type of interview for gathering field data from users (Beyer & Holtzblatt, 1998). In keeping with this approach, both the in-depth interviews and the tests were conducted at the students’ homes. The aim of this participant observation was, first, to observe in detail what the participants’ everyday study context was like in order better to understand how they use the different assistive tools, technologies and devices for the visually impaired. Second, conducting the usability tests at their homes ensured that they were done in the familiarity of their natural context for studying, which made it possible, among other things, to perform the test in some cases using students’ own monitors, especially in the case of those students who use ZoomText, as they tend to use much larger monitors. The in-depth interviews aimed to determine what actions the students carried out over the course of their everyday activities as UOC students and what interactions they needed to carry out in the virtual environment and with other people or devices to complete any step within their learning activities (with university management staff, faculty, educational content, etc.). The user tests were conducted on the UOC’s e-learning environment. The environment includes a horizontal menu at the start listing different services, as well as a series of widgets offering access to relevant content for the student, such as e-mail, the agenda, classrooms (each student has one classroom per subject on which he or she is enrolled), news, etc. The e-mail widget, for example, shows the number of new messages received and provides a list thereof; the widgets for the different classrooms can be used to access different educational resources and also notify the student of any new messages received from classmates, faculty, etc. Moreover, the widgets can be customized, such that users can add, remove or reposition them or even change their color (see Figure 1). Figure 1. Screenshot of the UOC’s e-learning environment, with the e-mail widget on the left, the classrooms widgets in the middle, and the agenda widget on the right 30 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos The test consisted of different tasks representing typical actions that a student might carry out when interacting with the e-learning environment, such as checking mail, finding the next event on the calendar, determining the number of messages in the forum for a subject, etc. To perform the test, an accessibility laboratory was used. This laboratory is a laptop computer with two screen readers (Jaws 10.0 and NVDA 2009), magnifying software (ZoomText 9.1), braille translation software (Quick Braille 1.2), braille, screen recording software (Morae 2.0) and a webcam to capture the interaction between the user and the e-learning environment (it should be noted that when Morae is used on a screen with ZoomText, the resulting recording does not record the zoom effect of the magnifier), as well as any spontaneous comments or emotional reactions, respectively. 4. Sample Of all the visually impaired UOC students contacted for the study, 15 agreed to collaborate, of which 4 were men and 11 women, all between the ages of 22 and 64. Most students lived with a partner and their children or with their parents. All of the tested students were enrolled in an arts or social science degree program, with special emphasis on humanities, law and psychology. Primarily, they were studying as a hobby. As for the assistive technology used, 4 students used a screen reader (in one case, he had only been doing so for one month); 5 used a screen magnifier; 6 used the zoom function on their PC. These students tended to have less vision loss than students who used a magnifier, either because they still had vision in one eye, had a recurrent condition, or were sensitive to light. 5. Results Shown below are the results of the content analysis (Krippendorff, 2004) of the interview transcriptions, as well as the results of the tasks carried out during the user tests. 5.1. Results of the contextual interviews The in-depth interviews conducted in the visually impaired students’ routine contexts for studying yielded results concerning: a) the planning, time and features of the place of study; b) the materials and study methods used; and c) the difficulties encountered when performing the different typical tasks as students in a distance higher education institution. 5.1.1. Planning, time and place of study. Visually impaired students study like any other student without a visual impairment at the university, that is, they log onto the virtual campus every day to check their e-mail, read messages from the lecturers, forums and debates, and read or listen to the educational content. Once they have completed this reading, they engage in the learning activities (which are sent by the lecturer every 2 or 3 weeks, as assessments are continuous). They usually perform these tasks from home. However, some students also take advantage of other times and situations, such as commutes and waits, to read and listen to content, as well as of down time at work to prepare and write their responses to a debate or forum. Thus, students plan their activities based on the different situations they expect to encounter. For instance, if they have a commute or know that, at some point during the day, they will have some down time due to a wait, they prepare the material they will need to take advantage of that time: “When I have to wait for my son to finish up at the conservatory, I bring along the recordings to listen to”. Another user does the assessment activities and content summaries and accesses supplementary content at home, but listens to the content in Daisy format on his commutes. However, when making their plans, they take into account that they will need more time to complete an activity than students without visual impairments because: − They must spend time resolving accessibility issues with regard to the educational content. − The use of assistive tools for the visually impaired slows interactions with the website and reading: “The more you magnify the screen, the slower you go, because you lose your field of view”. − They have to take breaks from the computer screen to rest their eyes, due to the fatigue caused by the light of the screen. 5.1.2. Study methods, materials and formats. The study method used by visually impaired students is no different from that used by students without visual impairments. Basically, they make use of assistive tools for the visually impaired to read and study the content and take advantage of other formats, such as audio, to optimize their studying. The interviewed students used the following formats and materials: Print: Only a few students who use a magnifier or the zoom function on their PC also use the print format. When they do, it is either out of personal preference or because the content is not available in audio format. They tend to use print formats with a page-to-TV magnifier, a magnifying glass or no additional tool at all. Students who use the zoom function on their PCs as well as the print format also tended to use lecterns. Audio: Whether as an mp3 or in Daisy format, audio is used by many students, regardless of their preferred assistive tools. Some even consider it the ideal format: “It would be great if I could convert everything to audio”. Most of the audio files used by students are recordings made by the students themselves or a family member. The reasons for using audio include: reviewing, studying or getting a general idea of the content; reading long PDFs and resting one’s eyes; lack of time; and when the original material is not accessible and the student has to convert it to audio format. PDF: This format is used by the vast majority of students (it is the format in which the University provides 31 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos its educational content), whether with the help of a magnifier, a screen reader or the zoom function on their computers. However, it is also the one that gives the most problems in terms of accessibility. Word: This is the format used by students who use ZoomText or a screen reader to convert inaccessible PDFs. To do this, they scan the document with an OCR to convert it to a Word document or copy and paste from the PDF to Word. However, both methods can cause layout problems and images are lost. Some students convert the PDF to Word because it allows them to annotate and underline in the original document while also keeping another Word document open to take notes. Braille: Only 2 of the interviewed students regularly use braille to read content in order to facilitate understanding and memorization, read short documents, and read content with economic data, tables, legal arguments, slang, etc., as such content is harder to scan and listen to. 5.1.3. Main difficulties. Visually impaired students face multiple difficulties when studying. The main and most serious problem is encountering content that is not accessible in the educational content and learning activities such as inaccessible PDFs, scanned PDFs, images, videos and flash formats. As a result, the preferred format for interacting is conditioned by whether or not the specific format is accessible. While some students prefer to use multiple formats, such as Daisy and text, most students ultimately choose Word, as it gives the fewest problems to read using a screen reader or magnifier and it moreover allows editing and underlining: “I like to be able to underline because, otherwise, when you come back to a text, you have to read it all over again”. Additionally, when students do encounter educational content that is not accessible, they are required to spend time making it accessible, whether by asking the lecturer for help, adapting the content themselves (e.g., by converting a PDF to Word or by recording the content themselves to listen to it later), or by asking a family member for help: “If I have problems with a given material, the first thing I do is tell the lecturer. If he can’t solve it, I do it myself or try to get someone to help”. These setbacks due to not having the content can lead to significant distress while waiting for it to become available: “It makes you very nervous, because you can’t start”. Moreover, it affects students’ ability to participate in debates and forums about the content in question. This time investment also means that the students have less time later to complete the learning activities, with the ensuing consequences for the quality of their performance on them. Additionally, when a learning activity requires students to view images or videos in order to answer questions about them, the lecturer may not have prepared an alternative activity that does not include images or videos, and these students may thus be deprived of the chance to complete this activity on an equal basis with students without visual impairments. Another problem arises when students have to consult content for the learning activities that is not part of the official content, such as websites or other documents. This requires students to spend more time than expected in front of the computer, which is not advisable for some students due to their disability, and to consult other websites or documents the accessibility of which may not be guaranteed. As noted above, students sometimes encounter educational content and learning activities that are not accessible. When they notify the lecturer about this problem, the proposed solutions are not always adequate, no doubt because the lecturer is not entirely aware of what it means for content to be accessible or has insufficient knowledge of accessibility. One student explained, “Sometimes when I tell them that I can’t see the images, they tell me to enlarge them, but even when I enlarge them, I still can’t see them, so they tell me to read whatever, but I can’t read in print format either”. Or in the words of another student, “I bet they would never send an audio file to a deaf person”. Finally, another factor to be taken into consideration is whether or not students notify the lecturer of their visual impairment to ensure that the educational content is accessible, as even when they do so in advance, there is no guarantee that the lecturer will find the best way to offer accessible content. Indeed, not all of the interviewed students do choose to state that they are visually impaired, as it makes them feel uncomfortable and they do not want seem like nags (“If I have to keep repeating in every subject that I can’t see, I feel whiny and annoying”) or they do not want to be shown any favoritism (“People tend to show favoritism, and I don’t want that. I don’t want them to find out that I have this problem and then turn around and say, ‘Oh, you poor thing’”). 5.2. Results of the user test As a general rule, the vast majority of students successfully completed the different proposed tasks. Regardless of the adaptive tool used, the students gave positive feedback on having the content relevant to their studies (such as e-mail, classrooms, etc.) organized in widgets since all the content that they are most interested in is located on the same page. That is, the students do not need to open new windows to access to that content. In addition, the students valued positively the fact of being able to move the widgets around the page, allowing them to place the widgets according to their preferences. The possibility of customizing widget color was also well valued. Another remarkable positive comment was that the agenda widget had a list of upcoming events as an alternative to the calendar, which was easier for the students to read. And finally, students that use the zoom function valued positively the liquid layout of the e-learning environment because the content is reorganized when students apply the zoom to magnify the content. For instance, when the zoom function is used, the widgets resize, so students can still see the same content without having any of the widgets out of the screen. 32 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos The main usability and accessibility problems were the same ones commonly found in other studies involving usability tests with end users, such as the lack of alt text for pictures (Lazar et al., 2007), sentences that start with irrelevant words, the use of the same words for links and other functions (Theolanos & Redish, 2003), or lack of contrast. Other problems were related specifically to the UOC learning environment, such as finding first (reading the website up-down) different irrelevant menu sections at the top of the page before finding the most important content for the students (classroom widgets, e-mail widget and agenda widget). Another difficulty was related to the students that use the zoom function. When the zoom is applied, new horizontal and vertical scrolls came up on the widgets, which hindered navigation inside the widgets. Given the objective of this research, we will not list here the recommendations identified in previous studies for online environments in general. Instead, in the section on recommendations, we will simply highlight those recommendations specifically related to the design of elearning environments. 6. Recommendations Shown below are the recommendations drawn from the results of the contextual interviews to ensure a satisfactory user experience in a distance higher education institution. 6.1. Recommendations for ensuring a satisfactory user experience in a distance higher education institution. 1. Provide all possible formats and materials. Providing the educational content in all possible formats (Daisy, mp3, Word, PDF, webiste) and in different materials (paper, Braille, etc) would allow visually impaired students to choose one that best suits their needs. 2. Provide learning contents that are not only accessible but also usable. For instance, PDF and Word can be accessible, but the interviewed students preferred to use the Word because it is more usable as it allows editing and underlining. The user experience should be improved with regard to the use of different formats, as it would enrich and speed up students’ learning activities. 3. Faculty training in accessibility. Those lecturers responsible for preparing and providing the content and learning activities must be well trained in accessibility issues in order to ensure that they are fully aware of the difficulties that visually impaired students face. 4. Provide visually impaired students with the learning materials and assessment questions earlier, just as they are given more time on exams. 5. Offer alternative accessible learning materials in those cases in which, from an educational point of view, it is advisable to use learning materials that are not accessible, such as videos or images. 6. Ensure access to accessible materials so that visually impaired students do not need to identify themselves as such. 6.2. Design recommendations for e learning environments Listed below are a series of useful recommendations obtained from the user test for the design of e-learning environments: 1. Place the main or important content at the start. This way, users can access the relevant content for their studies directly without having to go through other less important content first, such as a menu. 2. Allow users to customize what content they see. In addition to enabling customizable shortcuts, allow users to organize the widgets as best suits their needs and to choose which widgets they would like to have in their online environment. 3. Show all important content at once. If all the content that students are most interested in is located on the same page (e.g., they can see whether they have mail, check forums, etc.), they will not have to open new windows or tabs to access specific content. 4. Allow users to customize where content is shown. By positioning widgets, students can choose where to locate the content they are most interested in, for example, in a column (Theolanos & Redish, 2005). This would allow students who use magnifiers not to have to scroll across the page horizontally. 5. Allow color customization. Allowing users to customize the colors of the elements that frame content or links would make it easier for students with sufficient remaining vision to identify them without having to read. 6. Accessible colors and contrast. In addition to being fundamental to accessibility, this would allow students to determine at a glance whether there have been any new notifications in the classrooms or any new e-mails. 7. A list of upcoming events as an alternative to the calendar. An agenda or calendar is useful for students without visual impairments, but it is impractical for students using Jaws or ZoomText. It is thus advisable to offer an alternative to the agenda, such as a list of upcoming events. 8. Liquid layout. This type of layout makes it possible to enlarge the font by X% without causing information to disappear or generating new horizontal and vertical scroll bars in the widgets. It also allows the page to be reorganized when the zoom function is used. 7. Conclusions This research has gathered the requirements and needs of visually impaired students participating in online courses and used them to formulate a series of recommendations aimed at facilitating the everyday activities of such students. The fundamentally visual nature of our consciousness and thinking causes people without visual impairments to communicate based on visual references. As a result, it can be difficult to realize that these visual references are invisible and/or relatively useless for the visually impaired. Thus, our recommendations suggest that training in accessibility issues for the people responsible for providing and preparing materials would address the main problems encountered by visually impaired students, namely, educational content and learning activities that are not accessible. 33 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos These recommendations also underscore the importance of providing customization options to visually impaired students. Because these students are a very heterogeneous group (with different types of impairments, different tools, different preferred contexts and formats, different preferences for studying, etc.), distance education institutions must strive to accommodate their heterogeneity, for example, by providing educational content in all possible formats (as noted in Burgstahler et al., 2004), which is also beneficial for the rest of the students (Burgstahler, 2002; Edmonds, 2004). Enabling customization is also important in the design of a virtual environment (Cooper, 2006), such as by allowing users to decide what content is shown and where, which can be achieved, for example, by using widgets that can be custom placed and colored. These conclusions follow in the same vein as those of Theolanos and Redish (2005) in that they aim to provide a website that can be adapted and customized by users in keeping with their preferences or needs, and irrespective of their disability. In the context of e-learning environments, environments that are flexible, customizable and accessible at all levels will facilitate the everyday activities of visually impaired students and help them to optimize the time they spend interacting with the website. 8. References [1] Alexander, D. & Rippon, S. (2007). University website accessibility revisited. Ausweb. Retrieved 2 January 2012, from: http://ausweb.scu.edu.au/aw07/papers/refereed/alexander/paper.ht ml. 1-10. [2] Asuncion J. V., Fichten C. S., Barile M., Nguyen M. N., Martiniello N., Budd J., Ferraro V., Wolforth J., Malik R. (2008). eLearning and Postsecondary Students with Visual Impairments. Proceedings of the 9th International Conference on Low Vision, Vision 2008, Montreal, Quebec, Canada, 7–11 July. [3] Beyer, H. & Holtzblatt, K. (1998). Contextual Design: Defining Customer-Centered Systems. San Francisco: Morgan Kaufmann. ISBN: 1-55860-411-1. [4] Burgstahler, S. (2002). Distance learning: Universal design, universal access. Educational Technology Review 10(1), 32-61. [5] Burgstahler, S. (2006). The development of accessibility indicators for distance learning programs. ALT-J, Research in Learning Technology 14(1), 79–102. [6] Burgstahler, S., Corrigan, B. & McCarter, J. (2004). Making distance learning courses accessible to students and instructors with disabilities: a case study. Internet and Higher Education 7, 233–246. [7] Candido, J. (2008). Visual impairment in a visual medium: Perspectives of online learners with visual impairments. PhD dissertation, Drexel University, Pennsylvania, United States. Retrieved 30 August 2010, from Dissertations & Theses: Full Text. (Publication No. AAT 3338731). [8] Cooper, M. (2006). Making online learning accessible to disabled students: an institutional case study. ALT-J, 14(1), 103– 115. Concerns for Higher Education. American Journal of Distance Education, 18(1), 51 - 62. [Retrieved 29 April 2011.] DOI: 10.1207/s15389286ajde1801_5 URL: http://dx.doi.org/10.1207/s15389286ajde1801_5 [10] Kane, S. K., Shulman, J. A., Shockley, T. J. & Ladner, R. E. (2007). A web accessibility report card for top international university web sites. In: W4A ‘07: Proceedings of the 2007 international cross-disciplinary conference on Web accessibility (W4A), 148 - 156, New York, NY, USA, ACM. [11] Kelly, B., Sloan, D., Phipps, L., Petrie, H. & Hamilton, F. (2005). Forcing standardization or accommodating diversity? A framework for applying the WCAG in the Real World. International Cross-Disciplinary Workshop on Web Accessibility (W4A). ACM International Conference Proceeding Series, Vol. 88, New York, ACM, 46-54. [12] Krippendorff, K. (2004). Content Analysis: An Introduction to Its Methodology (2nd ed.), Thousand Oaks, CA: Sage. [13] Lazar, J., Allen, A., Kleinman, J. & Malarkey, C. (2007). What frustrates screen readers users on the web: a study of 100 blind users. In: International Journal of Human–Computer Interaction, 22(3), 247–269. Copyright © 2007, Lawrence Erlbaum Associates, Inc. [14] Porras, M. & Ribera, M. (2008). Estudio de caso: Una Evaluación de la Accesibilidad Web Mediante WCAG y Observación de Usuarios Ciegos y con Restos de Visión. IX Congreso Internacional de Interacción Persona-Ordenador, (Albacete, Spain, 9–11 June), 119-126. ISBN: 978-84-691-3871-7 [15] Ribera, M., Térmens, M. & Frías, A. (2009). La accesibilidad de las webs de las universidades españolas. Balance 2001-2006. Revista Española de Documentación Científica, 32(3), JulySeptember, 66-88, 2009 ISSN: 0210-0614. DOI: 10.3989/redc.2009.3.683 [16] Ribera, M., Térmens, M. & García, M. (2008). Cómo realizar tests de usabilidad con personas ciegas. El profesional de la información 17(1), 99-105. [17] Schmetzke, A. (2005). Web page accessibility on University of Wisconsin campuses: 2005 survey data and seven-year trend data. Retrieved 2 January 2012, from: http://library.uwsp.edu/aschmetz/Accessible/UWCampuses/Survey2005/contents2005.htm [18] Sloan, D., Kelly, B., Heath, A., Petrie, H., Fraser, H. & Phipps, L. (2006). Contextual Web Accessibility - Maximizing the Benefit of Accessibility Guidelines. In: W4A: Proceedings of the 2006 international cross-disciplinary workshop on Web / accessibility (W4A). New York: ACM Press, 121-131. Retrieved from: http://www.ukoln.ac.uk/web-focus/papers/w4a-2006 [19] Theofanos, M. F., Redish, J. C. (2003). Guidelines for accessible and usable web sites: Observing users who work with screen readers. Interactions, 10(6), 38-51 [20] Theofanos, M. F. ; Redish, J. C. (2005). Helping Low-vision and Other Users with Web Sites That Meet Their Needs: Is One Site for All Feasible?. Technical Communication, 52(1), 9-20. [9] Edmonds, C. D. (2004). Providing Access to Students with Disabilities in Online Distance Education: Legal and Technical 34 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Proyecto DEDOS. Herramientas para el diseño y uso de actividades educativas en mesas multicontacto Alberto Sánchez Alonso Down Madrid [email protected] David Roldán Álvarez Universidad Rey Juan Carlos de Madrid [email protected] Estefanía Martín Barroso Universidad Rey Juan Carlos de Madrid [email protected] Mª Luisa Berdud Murillo Down Madrid [email protected] Manuel García-Herranz Universidad Autónoma de Madrid [email protected] Resumen La Fundación Síndrome de Down de Madrid y el laboratorio AmILab, de la Universidad Autónoma de Madrid y el laboratorio LITE, de la Universidad Rey Juan Carlos de Madrid, han c reado una herramienta para que los docentes puedan diseñar materiales didácticos adaptados a l as necesidades de sus alumnos y que las personas con discapacidad intelectual puedan beneficiarse de una nueva tecnología, las mesas multicontacto. Dicha tecnología consiste en una pa ntalla táctil que reconoce simultáneamente múltiples puntos de contacto, así como el software asociado a ésta, encargado de interpretar dichas interacciones. La tecnología multitáctil permite la interacción y participación simultánea de varios alumnos, favoreciendo el aprendizaje cooperativo y haciéndola una tecnología, si cabe, más accesible e intuitiva, adaptándose perfectamente a las necesidades de las personas con discapacidad intelectual. Se ha llevado a cabo un estudio acerca de cómo influye esta herramienta tecnológica en el aprendizaje de las personas con discapacidad intelectual. Abstract A tool for teachers to produce adapted education material for the needs of their students and i ntellectually disabled people to benefit of a new Pablo A. Haya Universidad Autónoma de Madrid Pablo A. Haya Universidad Autónoma de Madrid [email protected] technology has been designed by Down Madrid, Universidad Autónoma de Madrid AmILab laboratories, and Universidad Rey Juan Carlos LITE laboratories: a multi-touch desk. Multi-touch desks are made up of a t ouch screen to recognize several simultaneous points of contact, as well as of the appropriate software designed to decode these interactions. Multi-touch technology allows simultaneous and interactive involvement of several students, improving cooperative learning, and becomes an e ven more intuitive and accessible tool, perfectly adapted to people with special education needs. A study has been done to determine the influence of this technology tool in the learning process of intellectually disabled people. 1. Introducción Actualmente, el desarrollo de la tecnología ha permitido la generación de nuevas experiencias educativas en plataformas y herramientas como las PDA, telefonía móvil, Tablet-PC, o las PDI (Pizarras Digitales Interactivas) cuya inserción en las aulas está despertando mucho interés y aceptación. Por otro lado, el diseño de herramientas que ayudan al profesorado no informático a generar materiales multimedia con excelentes resultados: comprensibles, fáciles de aprender, simples de aplicar y estimuladores de la creatividad; contribuirá sin duda, a un elemento esencial en relación con la aplicación de la tecnología al ámbito de la discapacidad [1]. El auge de la tecnología táctil y su implementación en las aulas en los últimos años puede explicarse por la forma en que este tipo de dispositivos favorece que la interacción sea más natural y fácil utilizando los dedos de la misma manera que lo hacen en la vida cotidiana [2]. Una de las muchas utilidades de las superficies multicontacto será en el ámbito educativo, y a pesar de que 35 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos esta inclusión está siendo muy lenta, su uso está incrementando recientemente en nuestra sociedad. Las mesas multicontacto aúnan el poder de las tecnologías así como la posibilidad de poder desarrollar actividades en modo colaborativo. El aprendizaje colaborativo, ha sido utilizado habitualmente en las clases tradicionales desde los años 70. Gracias al aprendizaje colaborativo además de adquirir contenidos curriculares, se ponen en marcha otras habilidades que incrementan la motivación y participación del alumno en su propio proceso de aprendizaje. Las superficies multicontacto horizontales, ofrecen ventajas tales como [3]: Estimulación de la creatividad. Las mesas pueden ser utilizadas como mesas de trabajo en las que se pueden adaptar además de la interfaz a las características del problema y del usuario los procesos de interacción. Impresión y manipulación. El estudiante interactúa con un entorno amigable e intuitivo, con aplicaciones desconocidas para él. No son precisos periféricos de salida como el ratón, teclado, etc. Aprendizaje colaborativo. En la mesa el conocimiento se comparte y emerge de la interacción entre los grupos de trabajo. Este tipo de superficies permiten que diversos estudiantes visualicen la información y que la compartan con sus compañeros para así conseguir objetivos comunes. Aprendizaje basado en tareas. La superficie multicontacto permite simular muchas tareas a la vez que los usuarios realizan habitualmente de forma real sobre escritorios y superficies convencionales. Interacción en tiempo real. La posibilidad de mostrar información con la que interactuar en tiempo real convierte a la enseñanza en una actividad activa. Las mesas multicontacto permiten que la interacción persona-máquina se realice de una forma intuitiva utilizando los gestos naturales de la mano tales como seleccionar elementos, rotarlos, ampliar su tamaño o cambiarlos de posición. De este modo, se facilita la interacción de los alumnos con la máquina sin que exista un dispositivo periférico intermedio. 2. Herramienta DEDOS Desde la Fundación Síndrome de Down de Madrid (en adelante Down Madrid) y los laboratorios AmILab y LITE se diseñaron y programaron dos herramientas tecnológicas pensadas para que personas con discapacidad intelectual puedan beneficiarse del uso de las mesas multicontacto. Dichas herramientas son DEDOS-Editor, una herramienta de autor que permite diseñar actividades educativas a profesores y profesionales de la educación y DEDOS-Player, una aplicación pensada para su funcionamiento en mesas multicontacto. La información detallada del proyecto se puede consultar en la página Web: http://hada.ii.uam.es/dedos. 2.1. DEDOS-Editor DEDOS-Editor es una aplicación con la que los profesionales de la educación pueden diseñar desde su ordenador sus propias actividades educativas, adaptadas a las necesidades específicas de sus alumnos. Para manejar esta herramienta no es necesario tener conocimientos informáticos previos gracias a su sencillez e intuitividad. Los profesores deben diseñar sus actividades mediante la metáfora del juego de cartas. Así, en el proceso de diseño, el profesional crea sus actividades mediante el arrastre y colocación de piezas sobre un área de edición que simula ser una mesa física de trabajo. La elección de esta metáfora se debe a tres cuestiones: Es fácil de entender y conocida por todo el mundo. Se puede trabajar sobre las propias cartas. Permiten crear diferentes actividades cambiando los contenidos pero manteniendo las mismas normas del juego. A su vez, la herramienta se ha diseñado con una combinación entre la metáfora de interacción física (drag and drop) caracterizada por la ausencia de menús o interacciones secuenciales, y los paradigmas más intuitivos de las aplicaciones informáticas del mercado más comunes (OS X y PowerPoint). En la herramienta de autor se visualizan 4 elementos: Zonas de trabajo. Pueden ser tanto individuales como grupales. Tarjetas. Pueden contener texto o imágenes. Objetivos. Las actividades a realizar son seleccionar, emparejar, trazar, y conteo. Tiempo. Se incluye la posibilidad de determinar el tiempo máximo en el que se debe realizar la tarea. En la imagen 1 se puede ver la pantalla principal de DEDOS Editor. Imagen 1. DEDOS-Editor 2.2. DEDOS-Player El desarrollo informático de la herramienta DEDOSPlayer se ha realizado haciendo uso de la librería FLING (Flash Library for Interpreting Nature Gestures) [4] desarrollada en el laboratorio de Inteligencia Ambiental (AmILab) de la Universidad Autónoma de Madrid (UAM). Esta biblioteca facilita a los programadores de ActionScript abstraerse de los dispositivos de entrada específicos y trabajar con eventos unificados de alto nivel. Su objetivo es servir como punto de partida al programador para la creación de aplicaciones sobre mesas multicontacto sin que tenga la necesidad de conocer los detalles de cómo se convierten las acciones de los dedos sobre la superficie en gestos. Entre los dispositivos de entrada soportados, además de mesas multicontacto, están los tradicionales ratón y teclado [5]. 36 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos FLING es un framework creado para el desarrollo de aplicaciones multicontacto usando Adobe Flash, Adobe Air o Adobe Flex (HREF2). Proporciona eventos singulares de puntos de luz sobre la mesa, así como eventos de gestos generados mediante una capa de interpretación. Su estructura modular está enfocada a la inclusión de múltiples métodos de interacción para que las aplicaciones resultantes puedan ser manipuladas independientemente del contexto. Implementa el reconocimiento de gestos con múltiples dedos, un tapete virtual para la coexistencia de varias aplicaciones usadas por varios usuarios simultáneamente, y reconoce objetos tangibles mediante el uso de etiquetas fiduciales. Existen otros frameworks para desarrollar aplicaciones multicontacto como reacTIVision [6], Libavg [7] o TouchLib [8]. Se decidió utilizar FLING debido a la funcionalidad que ofrece, sobre todo a la interfaz para el reconocimiento de gestos naturales del usuario (seleccionar un objeto, redimensionarlo, girarlo, etc.), y a que es software libre que se puede actualizar en el caso que se desee añadir más funcionalidad. DEDOS-Player permite a los alumnos realizar las actividades en la mesa multicontacto diseñadas con anterioridad con DEDOS-Editor en el ordenador. Para poner a disposición de los alumnos las actividades creadas con DEDOS-Editor, el primer paso que tendrá que hacer el profesor será configurar diferentes opciones: Opciones básicas (véase la imagen 2): o Número de jugadores. Se puede elegir de 1 a 4 jugadores. El reproductor multiplicará las zonas individuales en la mesa, en función del número elegido. o Control de respuesta. Puede elegirse respuesta instantánea si el profesor quiere que la primera opción que pulse el alumno compute como respuesta definitiva o, respuesta demorada si queremos que el jugador tenga que pulsar en la respuesta y luego otro botón de confirmación, de esta forma, dejamos más tiempo al jugador para decidir cuál es la respuesta correcta y no hay opción a posibles confusiones. o Dinámica de respuesta. Se puede establecer si los jugadores pueden responder todos a la vez o si deben hacerlo por turnos. Imagen 2. Opciones básicas DEDOS-Player - Opciones avanzadas (véase la imagen 3): Número de jugadores que responden. Con esta opción el profesor puede elegir si es suficiente con que uno de los jugadores responda para pasar a la siguiente actividad o si tienen que contestar todos los alumnos que estén alrededor de la mesa. o Acierto en la respuesta. Si quiere que necesariamente los alumnos tengan que responder correctamente o se permite que se pueda pasar a la siguiente actividad aunque la respuesta no sea correcta. o Modo de puntuación. Puede elegirse que los jugadores jueguen de forma colaborativa, sumando la puntuación de cada uno a un marcador común para todos, o que por el contrario, jueguen de manera competitiva, sumando cada jugador los puntos a un marcador individual. o Consenso en la respuesta. Con esta opción se puede decidir si es necesario o no que todos los jugadores marquen la misma respuesta necesariamente para avanzar a la siguiente actividad. o Imagen 3. Opciones avanzadas DEDOS Player Se han considerado como opciones básicas aquellas que cambian de una manera significativa el modo de interaccionar con la mesa multicontacto (si tienen que validar su respuesta, los turnos de los participantes, etc.) mientras que en las opciones avanzadas se han incluido aquellas que afectan sobre todo al modo de puntuación y al resultado final de las actividades. Por defecto, al abrir DEDOS Player, aparecen configuradas las opciones siguiendo el criterio que desde el equipo psicopedagógico de Down Madrid se ha creído conveniente para no dificultar la tarea a los educadores que usan la herramienta por primera vez. Éstas pueden ser fácilmente configurables de tal forma que el profesional pueda utilizar una misma actividad con objetivos distintos en función de las opciones elegidas. De esta forma, una misma actividad puede variar por ejemplo en función de si los jugadores pueden responder todos a la vez o tienen que responder siguiendo un turno, favoreciendo de esta forma la comunicación entre los jugadores o que haya aprendizaje por imitación. A la hora de diseñar el reproductor se han contemplado opciones de accesibilidad para los alumnos con discapacidad intelectual. Así, el alumno puede redimensionar su zona de juego para adaptarla a sus necesidades visuales o colocar su zona de trabajo en un espacio que le sea más adecuado. 37 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 3. Caso de estudio Una vez diseñadas y desarrolladas las herramientas DEDOS-Editor y DEDOS-Player, se llevó a cabo un estudio con 52 personas con síndrome de Down y otras discapacidades intelectuales, 19 de ellos hombres y 33 mujeres, de entre 18 y 34 años, todos ellos asistentes a los distintos servicios de Down Madrid. Los objetivos del estudio eran por un lado comprobar si las personas con discapacidad intelectual eran capaces de acceder a una tecnología tan novedosa como son las mesas multicontacto y por otro lado si en el caso de poder manejar dicha tecnología, pueden beneficiarse de su utilización en las aulas, comprobando si hay aprendizaje significativo tras su uso. Con la intención de dividir a los sujetos en grupos heterogéneos, éstos fueron evaluados mediante la escala de inteligencia de Reynolds (RIAS). De esta forma se formaron 16 grupos de entre 3 y 4 participantes por cada grupo en función de su puntuación directa en el índice de inteligencia general (IG) obtenida en dicha prueba. La media aritmética obtenida por los sujetos en dicho índice fue de 65,69. A partir de esta medida se hizo coincidir en el mismo grupo a sujetos con puntuaciones altas, medias y bajas para formar los grupos heterogéneos. Para medir el aprendizaje, se diseñaron una serie de actividades que sirvieran como pretest y postest y poder obtener así una puntuación cuantitativa (ver anexo). El tema elegido para dichas actividades fue el de instrumentos musicales, elegido debido al escaso conocimiento previo por parte de los protagonistas del estudio de dicho tema. Tanto pretest como postest fueron realizados en soporte papel, con un total de 16 preguntas con tres posibles respuestas y sólo una verdadera, que los participantes debían responder, obteniendo un punto por cada pregunta acertada. Entre pretest y postest, los sujetos realizaron una serie de actividades sobre instrumentos musicales con la mesa multicontacto. Se diseñaron 24 actividades con DEDOSEditor para poder ser utilizadas en la mesa multicontacto gracias a DEDOS-Player. Se decidió que todas las preguntas fueran de selección, evitando así posibles dificultades de interacción a la hora de arrastrar elementos. Las actividades se diseñaron de la misma forma que el pre y postest, con la diferencia de que en este caso el soporte no fue en papel si no sobre la mesa multicontacto, y en lugar de marcar con un lápiz la respuesta correcta, en este los sujetos debían seleccionarlas con sus propias manos. Las instrucciones que se le dieron a los sujetos, previas a las actividades con el pretest, mesa multicontacto y postest fueron las mismas para comprobar así uno de los objetivos del estudio, de qué manera son capaces de acceder a esta nueva tecnología las personas con discapacidad intelectual. En los 3 casos las instrucciones fueron las siguientes: “A continuación vais a ver una serie de preguntas con tres posibles respuestas. Tenéis que leer una por una y elegir la respuesta correcta. Sólo una de las respuestas es la correcta.” Al tratarse de grupos de 3 o 4 participantes, los sujetos se dispusieron alrededor de la mesa multicontacto de tal forma que cada uno tuviera su “zona de juego”, donde aparecía la pregunta y las alternativas de respuesta. No hubo límite de tiempo para completar las actividades, la forma de pasar de una pregunta a otra fue controlada por los investigadores y no se avanzaba hasta que todos los sujetos del grupo hubieran respondido a la pregunta. Las sesiones con la mesa multicontacto se llevaron a cabo en dos sesiones de trabajo con un día de descanso entre medias para observar el posible aprendizaje entre una y otra. Además fueron grabadas con dos videocámaras para poder observar posibles interacciones entre los participantes, pudiendo dar lugar a futuros estudios sobre aprendizaje colaborativo. Las imágenes 3 y 4 muestran los resultados obtenidos por los alumnos tanto en el pre-test como en el post-test. En el eje horizontal de ambas gráficas se representa la puntuación obtenida, mostrando el número de respuestas acertadas. Por otro lado, en el eje vertical se representa la frecuencia o el número de usuarios que obtuvieron una determinada puntuación. Comparando las dos imágenes, se puede observar que el número de aciertos en el post-test es más elevado en el pretest. La mediana extraída del pre-test es de 13 frente a la mediana del post-test que es 14. Analizando los datos del pre-test y del post-test mediante el test de Shapiro-Wilk, se obtiene que las muestras no se ajustan a una distribución normal (p <0.05). Por tanto, se utiliza la prueba de los < rangos con signo de Wilcoxon para analizar si hubo aprendizaje significativo. Al aplicar esta prueba se obtiene p 0.05 por lo que se concluye que sí hubo aprendizaje significativo por parte de los alumnos de Down Madrid en las actividades realizadas sobre instrumentos musicales en este estudio. Imagen 3. Distribución de puntuaciones del pre-test Imagen 4. Distribución de puntuaciones del post-test Además, salvo algunas dificultades puntuales debido a la luminosidad de la habitación donde se realizaron las actividades con la mesa multicontacto, todos los participantes fueron capaces de manejar de forma fluida 38 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos dicha tecnología, mostrándose además muy motivados por aprender su funcionamiento. 4. Conclusiones Esta experiencia novedosa muestra que las tecnologías ofrecen nuevas posibilidades al ámbito educativo que hacen que la motivación de los estudiantes se incremente mientras interactúan con distintos dispositivos tecnológicos. En el caso concreto del estudio presentado en este trabajo, los 52 alumnos de Down Madrid interactuaron de forma fluida realizando actividades de tipo de selección con la mesa multicontacto. Además, como se ha visto en el apartado anterior, los resultados obtenidos en el pre-test y post-test son significativos y por tanto, demuestran que los participantes aprendieron mientras realizaban actividades educativas con la mesa multicontacto. El uso de esta tecnología en el aula, no sólo añade un valor motivacional para los alumnos, si no que permite un tipo de trabajo que no permiten otras tecnologías, el trabajo colaborativo. El hecho de que varias personas puedan interactuar en una misma superficie horizontal, donde todos los jugadores pueden ver los gestos y movimientos de los demás, puede ser utilizado para un sinfín de objetivos curriculares que hasta ahora la tecnología no permitía. Además, el hecho de que sea el propio profesional de la educación el que pueda diseñar las actividades en función de las necesidades específicas de sus alumnos sin necesidad de tener conocimientos informáticos previos, dotan a las herramientas DEDOS de un gran potencial para el sector educativo. [1] Soto Pérez, F. J. “Tecnología y diversidad educativa: oportunidades, riesgos y perspectivas de futuro”. Dirección General de Ordenación Académica. Servicio de Atención a la Diversidad. Consejería de Educación, Formación y Empleo. Región de Murcia, España. 2006, p. 22. [2] Cantón, P., González, Á. L., Mariscal, G., & Ruiz, C. (2012). Applying new interaction paradigms to the education of children with special educational needs. In Computers Helping People with Special Needs, LNCS 7382 (pp. 65-72). Springer Berlin Heidelberg. [3] García-Herranz, M., Haya, P.A., Llinás, P., Martín, E., Montoro, G. & Mora, M.Á. (2010) Superficies multitáctiles horizontales como soporte educativo. En Actas del XI Simposio Nacional de Tecnologías de la Información y las Comunicaciones en la Educación (ADIE) SINTICE 2010, 197-204. [4] FLING: http://amilab.ii.uam.es/doku.php?id=fling [5] Pablo Llinás, Manuel García-Herranz, Pablo A. Haya, and Germán Montoro. 2011. Unifying events from multiple devices for interpreting user intentions through natural gestures. In Proceedings of the 13th IFIP TC 13 international conference on Human-computer interaction - Volume Part I(INTERACT'11), Pedro Campos, Nuno Nunes, Nicholas Graham, Joaquim Jorge, and Philippe Palanque (Eds.), Vol. Part I. Springer-Verlag, Berlin, Heidelberg, 576-590. [6] ReacTIVision: http://reactivision.sourceforge.net/ [7] Libavg: http://www.libavg.de/ [8] TouchLib: http://nuigroup.com/touchlib/ 39 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Apps Builder para Móviles Android: ¿Se pueden crear Aplicaciones Móviles de Forma Fácil y Accesible con un Lector de Pantalla? Halena Rojas Valduciel [email protected] Resumen El avance vertiginoso en el desarrollo de dispositivos móviles ha pot enciado la creación de gran cantidad de aplicaciones. Por ello, cada vez es más frecuente encontrar herramientas que facilitan el desarrollo de e stas aplicaciones a todo tipo de usuarios, sin que se requieran conocimientos en programación. Puesto que ha aumentado considerablemente la oferta y demanda de dispositivos con sistema Android, incluso entre personas con discapacidad visual, esta investigación pretende realizar una exploración entre las herramientas de desarrollo de aplicaciones Android más conocidas, para evaluar hasta qué punto se pueden desarrollar c on ellas aplicaciones de forma accesible utilizando un lector de pantalla. Abstract The vertiginous advance in the development of mobile devices has potentialized the creation of great quantity of applications. F or it, every time is more frequent to find tools that facilitate the development from these applications to user's type, without knowledge are required in programming. Since it has increased the offer and demand of devices considerably with system Android, even among people with visual disability , this investigation seeks to carry out an exploration among the tools of develop of applications good known Android, to evaluate to what extent they can be developed with them applications in an accessible way using a screen reader. 1. Introducción El avance vertiginoso de la tecnología, específicamente de dispositivos móviles, pone al alcance de la mano del usuario gran cantidad de información. Con los nuevos smartphones táctiles que brindan acceso a internet de forma fácil y continua, el acceso y la inclusión dentro de la llamada sociedad de la información está solo a un toque de distancia incluso para personas con discapacidad, quienes antiguamente se veían excluidos por no tener acceso al uso de este tipo de dispositivos. En este sentido, empresas como Apple y Google Inc. han venido incluyendo en los sistemas operativos para móviles que desarrollan funciones y productos de apoyo que brindan accesibilidad y mejoran la experiencia del usuario en general. No obstante, el cambio que viene teniendo el desarrollo de dispositivos móviles no solo se limita a la inclusión de productos de apoyo o funciones que mejoren la experiencia del usuario, ni tampoco se refieren únicamente al cambio en los diseños o el uso de hardware especializado. Hoy en día, mejorar la experiencia del usuario pasa también por poner a su alcance la facilidad de desarrollar aplicaciones móviles de forma sencilla, incluso sin necesidad de tener conocimientos en programación. Y es que el desarrollo de estos nuevos dispositivos táctiles ha revolucionado el mercado, potenciando ampliamente nuevas tendencias en el desarrollo de software para este tipo de dispositivos [1]. Lo anterior se traduce en la creación de herramientas de desarrollo de aplicaciones móviles, orientadas a todo tipo de usuarios que facilitan el proceso de creación de aplicaciones, abriendo así las posibilidades de obtener aplicaciones variadas y de forma sencilla. Esto se hace más evidente en el caso de el sistema operativo Android, desarrollado por Google Inc. ya que con tener una cuenta de correo de Google se puede acceder de forma fácil y gratuita al Android Market, actual Google Play (tienda de aplicaciones para móviles equivalente a la App Store de Apple) [1], para poner al alcance de todos la aplicación que se desee. Es así que en 2012, para el lanzamiento de la versión 4.1 de Android, denominada Jelly Bean, Google anunció que contaba con unas 600.000 aplicaciones en Google Play, con más de 20 billones de descargas y unos 400 millones de dispositivos vendidos [2]. Es evidente entonces el auge que ha tenido la demanda de dispositivos Android (incluso entre personas con discapacidad) y por tanto, la oferta de aplicaciones para estos dispositivos. Con este incremento tan importante, cabe preguntarse hasta qué punto pueden desarrollarse aplicaciones de forma accesible a través de herramientas de desarrollo en línea, si aún es frecuente encontrar aplicaciones web cuyo grado de accesibilidad es cuestionable. Es en tal sentido, que surge la necesidad de realizar una revisión de las herramientas de desarrollo de aplicaciones móviles orientadas al sistema operativo Android que pueden encontrarse actualmente, para explorar si es posible desarrollar con ellas aplicaciones de forma accesible utilizando un lector de pantalla. Para ello, se investigó brevemente qué son las herramientas de desarrollo on line de aplicaciones móviles, se elaboró una lista de las más recomendadas y se seleccionaron dos para evaluar el grado de accesibilidad que proveen en su uso, intentando desarrollar una aplicación sencilla con el soporte de un producto de apoyo (lector de pantalla). La evaluación se llevó a cabo utilizando: 40 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 1. Un ordenador con sistema operativo Windows en su versión 6.1.7601.17514. 2. Tres agentes de usuario (navegadores): 3. • Mozilla Firefox versión 17.0.5. • Internet Explorer versión 9.0.8112.16421. • Google Chrome versión 26.0.1410.64. Los productos de apoyo utilizados fueron: • lector de pantalla JAWS versión 14. • NVDA versión 2012.3.1. En los siguientes apartados se mostrarán los resultados obtenidos de la revisión y la evaluación, así como las conclusiones y algunas recomendaciones extraídas luego de toda la investigación. 2. Herramientas para Desarrollar aplicaciones móviles en Android Las herramientas para desarrollar aplicaciones móviles mejor conocidas como “App Builder” (por su nombre en inglés), son entornos de desarrollo que resultan amigables al usuario y por lo general, se acceden en línea. Estos entornos están orientados a usuarios que no poseen conocimientos de programación, aunque sí deberían tener conocimientos mínimos en multimedia. Las herramientas de este estilo están basadas en el concepto “hazlo tú mismo” o “Do it yourself (DiY), con el fin de que usuarios con conocimientos mínimos puedan desarrollar por sí solos sus aplicaciones [3]. Las herramientas para desarrollar aplicaciones móviles mejor conocidas como “App Builder” (por su nombre en inglés), son entornos de desarrollo que resultan amigables al usuario y por lo general, se acceden en línea. Estos entornos están orientados a usuarios que no poseen conocimientos de programación, aunque sí deberían tener conocimientos mínimos en multimedia. Las herramientas de este estilo están basadas en el concepto “hazlo tú mismo” o “Do it yourself (DiY), con el fin de que usuarios con conocimientos mínimos puedan desarrollar por sí solos sus aplicaciones [3]. Este tipo de herramientas se caracteriza por presentar interfaces gráficas que mejoran la experiencia del usuario y reducen la curva de aprendizaje del entorno y por ende se consideran fáciles de utilizar. Además de esto, en algunos casos se ofrecen plantillas pre elaboradas según el tipo de aplicación que se desee crear, simplificando enormemente el tiempo requerido para desarrollar cualquier aplicación. En tal sentido, son muchas las herramientas de este estilo que pueden encontrarse actualmente. Algunas permiten desarrollar aplicaciones nativas (aplicaciones implementadas en el propio lenguaje del dispositivo e integradas en él), otras están orientadas al desarrollo de aplicaciones híbridas (aplicaciones desarrolladas en parte con el entorno de desarrollo nativo y en parte en lenguaje WEB [HTML 5]) y otras son denominadas web apps (aplicaciones optimizadas para la pantalla del dispositivo móvil sin estar integradas en él [4]), para plataformas específicas o para el desarrollo de aplicaciones multiplataforma. No obstante, el objetivo de esta investigación se enfocó en aquellas más recomendadas o populares para desarrollar aplicaciones móviles para dispositivos con sistema operativo Android, destacándose las siguientes: • • • • • Ibuildapp.com. Andromo.com. Appyet.com. Freeandroidappmaker.com. Appsgeyser.com. A continuación, se resume la información de las características generales de cada una de ellas, a través de una tabla comparativa. Tabla Nº 1. Características de las apps builder para android más conocidas Nombre Desarrollador Plataforma Costo Registro Idioma Tipo Plantillas App. ibuildapp.com iBuildApp Inc. Android/iOS Gratis(*) Si Inglés Web Si App Nativas Gratis Si Inglés Nativas Si andromo.com Indigo Rose Android (*) Software appyet.com AppYet.com Android Gratis Si Inglés Nativas No freeandroidappmaker.com IntroWizard Android Gratis No Inglés Web Si LLC App appsgeyser.com Besttoolbars Gratis Android Si Inglés Web/App Si (*) La primera aplicación puede ser gratuita, pero luego se requiere la suscripción a una tarifa específica. 41 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 3. Herramientas de desarrollo seleccionadas Las herramientas de desarrollo seleccionadas para realizar la evaluación fueron andromo.com y freeandroidmaker.com. Los criterios utilizados para dicha selección, se basaron en los principios propuestos y adoptados en las Web Content Accessibility Guidelines 2.0 (WCAG 2.0) “perceptible, operable, comprensible y robusto” [5]. Adicionalmente, se realizó una revisión automática con la herramienta “Examinator”, que arroja además del informe de la revisión, un puntaje cuantitativo (ranking) el cuál es utilizado en Sistemas como walidator.net (Web Accessibility Framework) que permite conocer el estado y la evolución de la accesibilidad de sitios y portales web tomando en cuenta como referencia las pautas de accesibilidad al contenido web (WCAG) 2.0 [6]. Puesto que el objetivo de esta investigación no se orientó hacia la evaluación del grado de conformidad alcanzado por dichas herramientas de desarrollo en relación a las WCAG 2.0, se omiten en este artículo los resultados obtenidos en la revisión automática de las herramientas. Sin embargo, se consideró oportuno tomar dichas pautas como referencia para la selección de las posibles herramientas de desarrollo (App Builder) a utilizar en la investigación, dado que los usuarios acceden a ellas desde agentes de usuario (navegadores) con conexión a internet, es decir, son herramientas en línea. De igual forma, aunque esta investigación no se centró en medir el grado de usabilidad de las herramientas de desarrollo en su totalidad, se consideró importante tomar en cuenta para la selección los criterios básicos que debe tener en cuenta cualquier diseño de interfaz para brindar la mejor experiencia de usuario: 1. Visibilidad del estado del sistema, 2. Adecuación entre el sistema y el mundo real, 3. Control y libertad del usuario, 4. Consistencia y uso de estándares/convenciones, 5. Prevención de errores, 6. Reconocer es mejor que recordar, 7. Flexibilidad y eficiencia de uso, 8. Estética y diseño minimalista, 9. Ayudar a los usuarios a reconocer, diagnosticar y solucionar errores y 10. Ayuda y documentación [7]. 3.1. Metodología empleada para la selección de las herramientas de desarrollo a utilizar Tal como se mencionara en el apartado anterior, el objetivo de esta investigación no se enfocó en determinar el grado de conformidad de las herramientas de desarrollo con las WCAG 2.0; no obstante, dichas pautas se han utilizado para definir unos criterios de evaluación que permitiesen seleccionar aquellas herramientas que pudieran ofrecer un uso más accesible al momento de crear una aplicación cuando se utiliza un producto de apoyo, como es el caso del lector de pantalla. Para definir los criterios, se realizó una abstracción de los principios en los que se basan las WCAG 2.0 y se elaboró con ellos una matriz con la cual se llevó a cabo parte de la evaluación. De igual forma, se tomó en cuenta el resultado arrojado por el revisor automático Examinator, el cual ofrece un puntaje cuantitativo en función de los perfiles de usuario y de las fallas encontradas durante el proceso de revisión. A continuación, se describe detalladamente paso a paso la metodología aplicada durante el proceso de selección, la cual se obtuvo realizando una adaptación de la metodología utilizada para las evaluaciones de páginas web, logrando al final una metodología simplificada que contempla dos fases de revisión (automática y manual) con un número inferior de páginas examinadas. A. Fase de revisión automática: Para la fase de revisión automática se ha utilizado Examinator en las páginas “Index” de cada herramienta de desarrollo; y en aquellas que incluyen registro, en la página del formulario de registro. En el caso de las herramientas de desarrollo que no incluyen registro, se seleccionó la primera página que ofreciera un formulario durante el proceso de creación de la aplicación. B. Fase de revisión manual: Para la fase de revisión manual se ha utilizado una matriz de evaluación, la cual emplea los criterios definidos a partir de la abstracción de los principios de las WCAG 2.0, cuyo formato se muestra a continuación. 42 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Tabla Nº 2. Formato de la matriz de evaluación elaborada con los criterios definidos en base a los principios de las WCAG 2.0. Criterio La información y la interfaz de la herramienta pueden percibirse en su totalidad utilizando un lector de pantalla. La herramienta proporciona una o varias alternativas al CAPTCHA visual presente en formularios de registro. La herramienta proporciona una o más alternativas al contenido o documentación (instrucciones de uso, video tutoriales). La herramienta no incluye salidas de audio que interfieran con la síntesis de voz del lector de pantalla. La herramienta proporciona acceso a sus funciones a través del teclado. Si la herramienta ofrece atajos de teclas (shortcuts) estos no interfieren con los atajos propios del lector de pantalla. La herramienta proporciona el tiempo necesario para realizar las funciones y leer o usar el contenido. La herramienta no hace uso de métodos como el refrescamiento para actualizar los contenidos. La herramienta proporciona sistemas de navegación (salto de bloques, búsqueda y migas de pan) que pueden operarse de forma sencilla con lector de pantalla. La herramienta ofrece una organización jerárquica (uso de encabezados de sección) sencilla de operar con lectores de pantalla. La herramienta ofrece contenido textual fácil de leer y comprender utilizando un lector de pantalla. La herramienta se comporta de forma predecible cuando se accede a ella con lector de pantalla. La herramienta ofrece métodos de entrada de datos, accesible cuando se utiliza un lector de pantalla. La herramienta provee suficiente información para realizar distintas funciones evitando errores. La herramienta ofrece métodos de corrección de errores. La herramienta puede utilizarse con lectores de pantalla diferentes. La herramienta puede utilizarse con agentes de usuario diferentes. Total criterios Porcentaje de cumplimiento Se Cumple No el Criterio Cumple Criterio se No Aplica el El Criterio 43 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos La matriz se elaboró en Microsoft Excel 2007 para facilitar el análisis posterior. Se utilizaron fórmulas como “CONTAR.SI” y fórmulas para calcular el porcentaje, para así obtener un resultado porcentual de cumplimiento de los criterios. Finalmente, se ha hecho una comparativa entre las evaluaciones de cada herramienta de desarrollo, en la que se pudo observar que las herramientas de desarrollo Andromo.com y freeandroidmaker.com obtuvieron mejores resultados en la revisión automática con Examinator (7.2 y 6.7, respectivamente) y en la revisión manual con la matriz elaborada (70.58% y 64.70%) mientras las otras tres herramientas obtuvieron resultados menos favorecedores tanto en la revisión automática (ibuildapp.com 4.1, appyet.com 5.6 y appsgeyser.com 6.0), como en la revisión manual (39.58%, 54. 72% y 58.67%, respectivamente) y por esa razón se han descartado. En el apartado correspondiente a los resultados obtenidos se presentarán los hallazgos observados en las herramientas de desarrollo seleccionadas respecto a los principios de usabilidad mencionados en apartados anteriores. 4. Selección de aplicación a desarrollar Luego de una revisión sobre el uso que dan los usuarios a sus smartphones, en la que se pudo conocer que alrededor del 14% de la población mundial posee un dispositivo inteligente y que a estos se les da diversos usos, entre los que se pueden mencionar el acceso a internet y redes sociales, alcanzando en algunos países hasta el 97%[8]; se consideró oportuno seleccionar el desarrollo de una aplicación que facilitase el acceso a la información publicada en bitácoras o blogs, dado el auge que esta herramienta ha venido teniendo en los últimos años, habiendo aumentado considerablemente la cantidad de sitios e información disponible en internet de diversos usuarios que fácilmente desearían promocionar sus contenidos. Tomando en cuenta además que la mayoría de blogs pueden generar un Feed y que la opción de desarrollar lectores para este tipo de contenidos está contemplada en las herramientas de desarrollo seleccionadas para llevar a cabo la investigación, la opción de crear un lector de RSS o Feeds resultó muy atractiva. En el siguiente apartado se mostrarán los resultados obtenidos al intentar crear un lector de RSS o Feeds con el apoyo de un lector de pantalla, a través de tres agentes de usuarios (navegadores) distintos. 5. Resultados obtenidos Antes de mostrar los resultados obtenidos, se hará un breve resumen del funcionamiento de cada herramienta de desarrollo a modo de información general. Es importante destacar que las pruebas realizadas con los productos de apoyo y los agentes de usuario, se realizaron de forma programada, estableciendo intervalos de tiempo entre prueba y prueba de una semana aproximadamente, de forma que no se estableciera un esquema de trabajo rutinario y poder medir así qué tan fácil de recordar es el proceso de creación de aplicaciones con cada herramienta, lo que está estrechamente relacionado con los criterios 6 y 7 de usabilidad mencionados en apartados anteriores, así como con la experiencia del usuario. 5.1. Andromo.com Andromo.com es un app builder que permite realizar una aplicación gratuita al inicio, pero que requiere de la suscripción a un plan de tarifas, tanto para disfrutar de todas las funcionalidades que ofrece (sobre todo las relacionadas con la monetización), como para una amplia distribución en Google Play o la creación de diversas aplicaciones. Para crear una aplicación, el usuario debe rellenar un formulario de registro y verificar su cuenta a través de un enlace enviado por correo electrónico antes de poder acceder a la interfaz de proyectos y sus funciones. Una vez hecho esto, el usuario deberá darle nombre a la aplicación y es entonces cuando tendrá disponible la interfaz del proyecto. Dicha interfaz está organizada en pestañas (lista desordenada tipo menú con pestañas) las cuales adquieren dinamismo a través de jQuery, permitiendo activar y desactivar contenido de la página (en este caso formularios). Entre las pestañas que se pueden encontrar están: información de la aplicación, actividades, estilos, escritorio, monetización, construcción y vitrina. Una vez se ha realizado todo el proceso, a través de la pestaña de creación se crea la aplicación, lo que puede tardar algunos minutos dependiendo de qué tan ocupado esté el servidor. Una vez creada la aplicación, se envía un correo con un link de descarga para que el usuario descargue su aplicación y la pruebe en algún dispositivo Android antes de distribuirla en Google Play, lo que puede hacerse a través de la pestaña vitrina. Es importante mencionar que esta herramienta de desarrollo está en idioma inglés y no ofrece soporte a otros idiomas. Descrito brevemente el funcionamiento de la herramienta, se procede a mostrar los hallazgos y resultados encontrados durante las pruebas con Jaws y NVDA. Para facilitar su comprensión, los resultados se presentan según cada paso a realizar: 1. Registro: En líneas generales, el proceso de registro es accesible. Para el formulario no se utilizan CAPTCHAS ni ningún otro sistema de comprobación adicional al enlace por correo electrónico. Con NVDA la interacción con el formulario de suscripción es estable en los tres agentes de usuario utilizados para la prueba. Sin embargo, con Jaws se pudo observar variabilidad en la interacción con cada agente de usuario, presentando mejor comportamiento o estabilidad con Internet Explorer 9, seguido por Google Chrome, en donde se encontró que las condiciones y acuerdos de uso parecen estar contenidas en un cuadro de edición de solo lectura e incluso la casilla de verificación solo puede accederse activando dicho control (el cuadro de edición que contiene las condiciones y términos de uso). Este comportamiento podría, probablemente, tomarse como una forma de garantizar que se han leído dichas condiciones, pero resulta extraño con lector de pantalla. Respecto a Mozilla Firefox, se encontró que la interacción con la interfaz puede generar confusión. El comportamiento del producto de apoyo es un poco errático respecto al foco. Al utilizar las teclas de acceso rápido propias del lector no logra ubicarse en el control, dejando el foco más bien en la etiqueta. Incluso se pudo observar en ocasiones que el sintetizador verbaliza el texto 44 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos de una etiqueta, pero está ubicado en otro campo del formulario. Aún así se puede realizar el registro. 2. Verificación: la verificación de la cuenta no ofrece barrera alguna con Jaws o NVDA. Se destaca que, al verificar la cuenta, se realiza el ingreso a la herramienta y se puede proceder de inmediato a iniciar el proceso de creación. 3. Creación de la aplicación: El proceso de creación de la aplicación con esta herramienta se basa en el llenado de varios formularios, los cuales se pueden manejar sin mayores inconvenientes con ambos productos de apoyo. Los formularios poseen asociación explícita del elemento label (etiqueta) con su respectivo input (control de formulario) y en cada caso se ofrece información adicional que indica qué información se debe incluir y de qué forma. La interacción de ambos productos de apoyo con el menú en pestañas no representa ninguna barrera, aunque pudiera generar algo de confusión a usuarios principiantes que no hayan tenido contacto anterior con este tipo de menús. El atajo de teclas que ofrece Jaws para este tipo de elementos funciona correctamente con Mozilla Firefox e Internet Explorer, mientras que con Google Chrome no está disponible el atajo. Las imágenes e íconos relacionados a la aplicación a crear poseen un atributo ALT del estilo “Default-app-icon”; el cuál no resulta demasiado claro y no se puede saber con exactitud cuál es el ícono por defecto. Sin embargo, la herramienta contempla que el usuario pueda agregar sus propios íconos e imágenes y da la información respecto al tamaño que requiere cada uno, con lo que puede suplirse de alguna forma lo poco apropiado del texto del atributo ALT de las imágenes. Por otra parte, en relación a la usabilidad, se observó el empleo de mensajes de error, los cuales resultaron accesibles con ambos lectores de pantalla. Además, se indica de forma concreta como corregir el error. Asimismo, previo a cada formulario, hay un breve resumen del objetivo de cada opción y se incluye un enlace que lleva a instrucciones detalladas de la opción y sus funciones. Al pulsar en el enlace, se abre una nueva pestaña en el agente de usuario, aunque no se notifica de esto de ninguna manera. También se da indicaciones explícitas de guardar los cambios realizados, antes de pasar a cualquier otra opción. Esta herramienta permite guardar los cambios del proyecto y continuar más tarde, mientras no se haya creado aún la aplicación. Para crear la aplicación, basta pulsar el enlace ubicado en la pestaña correspondiente. Los mensajes en esta etapa se pueden acceder sin problemas con ambos lectores de pantalla en los tres agentes de usuario empleados. Finalmente, al revisar el correo electrónico y descargar la aplicación a través del enlace que ofrece la herramienta, se abre un cuadro de diálogo de descargas clásico, que permite bajar al ordenador el archivo con extensión apk. En esta última fase no se observaron incidencias que representen una barrera para los usuarios con discapacidad visual con ninguno de los lectores de pantalla utilizados. 5.2. FreeAndroidAppMaker.com FreeAndroidAppMaker es una app builder que permite crear una aplicación de forma expedita. No requiere de suscripción y es totalmente gratuita. El usuario solo debe seleccionar el tipo de aplicación que desea crear, seguidamente configurarla y posteriormente puede escoger entre distribuirla directamente en Google Play o descargarla. Todo se lleva a cabo a través del llenado de formularios y no se requiere de confirmaciones por correo ni ningún otro paso adicional. La herramienta está en idioma inglés y no soporta ningún otro idioma. Tal como en el caso anterior, se mostrarán los resultados y hallazgos encontrados, según cada paso a realizar: 1. Selección de tipo de aplicación: Una vez se decide crear la aplicación hay que pulsar en los enlaces “Free on line app builder”, o “Free android app maker”, para llegar a la pantalla que ofrece las diversas categorías de aplicaciones que se pueden crear. La lista de categorías se presenta con un elemento de tipo encabezado que contiene un enlace que lleva a la siguiente pantalla. Bajo cada encabezado, hay un texto que da información breve sobre el tipo de aplicación. Con ambos lectores de pantalla en los tres agentes de usuario se puede acceder a dichos encabezados y pulsar en el enlace, que es el método de selección del tipo de aplicación. 2. Configuración: la pantalla o interfaz de configuración consta de un formulario que hay que rellenar. En el caso de la aplicación seleccionada (lector de RSS Feeds), el primer formulario solicita la dirección del Feed del blog, en conjunto con un botón que permite avanzar al siguiente paso. En este formulario no se observa el uso del elemento label (etiqueta), aunque hay un texto presentado en un elemento de encabezado que intenta explicar qué información se debe ingresar en el cuadro de texto. Si se intentan usar los atajos de teclas propios del Jaws, se alcanza el cuadro de texto y se puede acceder al valor que contiene por defecto, que representa una guía para el usuario de qué formato debe tener la dirección del feed que se ingrese. Dicha información desaparece al activar el formulario a través del evento onBlur de Javascript. Este comportamiento es igual en los tres navegadores. Sin embargo, al realizar la misma tarea con NVDA, el comportamiento no es igual en Internet Explorer y no se accede al cuadro de texto utilizando su atajo correspondiente, aunque utilizando las teclas cursor (flechas direccionales), se puede acceder al valor por defecto del cuadro de texto. En Google Chrome hay que esperar unos segundos a que se cargue completamente la página para que el foco del lector de pantalla (NVDA) se estabilice y se pueda acceder al formulario con los atajos de teclas propios del producto de apoyo, mientras que en Mozilla firefox el comportamiento es igual que el observado con Jaws. Seguidamente, Al pulsar en el botón “Next”, puede aparecer parte de la información del blog en los cuadros de texto correspondientes, además del resto de controles que permiten personalizar la aplicación. En este formulario los cuadros de texto sí presentan un elemento label (etiqueta) asociado, lo que permite hacer uso de los atajos propios de Jaws y NVDA sin problemas. De igual forma, los combo box y los check box se identifican sin dificultad con los atajos propios de ambos lectores de pantalla. Ahora bien, esta interfaz presenta adicionalmente controles de tipo radio, con el fin de seleccionar los íconos de la aplicación. En estos controles, si bien puede accederse usando la tecla correspondiente, no hay información correctamente asociada y el texto alternativo de las imágenes (íconos) no es claro o intuitivo para saber qué tipo de ícono se 45 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos selecciona. La forma de saber a qué opción pertenecen es utilizando las teclas cursor. Este comportamiento se observó con ambos lectores de pantalla en los tres agentes de usuario. Por otra parte, las dos casillas (checkbox) disponibles están relacionadas con la aceptación de las condiciones y términos de uso y con la opción de distribuir directamente la aplicación en Google Play. Esta última casilla está verificada por defecto y si se desverifica, al pulsar en el botón “Submit” se ofrece un enlace para descargar la aplicación ya creada, o sea el archivo con extensión “apk”. Este último procedimiento puede realizarse de igual forma con ambos lectores de pantalla en los tres agentes de usuario, a través del cuadro de diálogo clásico de descargas para plataformas Windows. En relación a la usabilidad La herramienta ofrece mensajes de error, aunque no posiciona el foco nuevamente en el campo de formulario de forma automática. La herramienta provee breve información sobre la causa probable del error, además de un enlace de información adicional a modo de ayuda. No se observaron otros mensajes que brindasen información detallada al usuario de cómo personalizar las opciones de configuración de la aplicación. 6.1. Conclusiones Aunque el objetivo central de esta investigación no era evaluar el grado de conformidad de las herramientas (App Builder) respecto a las WCAG 2.0, puesto que se utilizaron sus principios para definir una lista de criterios que facilitara la selección de las herramientas a utilizar, sí que se pudieron concluir en torno a sus principios, algunas cosas interesantes en relación al uso accesible que ofrecen dichas herramientas a personas con discapacidad visual usuarios de lectores de pantalla: A. Perceptible: ambas herramientas intentan cumplir con este principio, sin embargo presentan debilidades en cuanto a los textos alternativos de las imágenes y en el caso de Free Android App Maker también en cuanto a algunos elementos de formulario que no son correctamente perceptibles con lector de pantalla. B. Operable: Ambas herramientas cumplen este principio puesto que se pueden llevar a cabo las actividades que implican el desarrollo de una aplicación utilizando el teclado y un lector de pantalla. Ninguna de las herramientas hace uso de temporizadores o elementos que pudieran interferir en la navegación y ubicación del usuario durante el proceso de creación de la aplicación. C. Comprensible: Ambas herramientas ofrecen la información redactada de forma comprensible, aunque hay que destacar que solo se encuentran en inglés y no ofrecen cambio de idioma. En cuanto a la interfaz, Andromo presenta una interfaz que pudiera ocasionar confusión a usuarios ciegos que interactúen por primera vez con menús de tipo pestaña con interactividad proporcionada con jQuery. Sin embargo, puede decirse que la curva de aprendizaje es corta y en poco tiempo se puede utilizar la herramienta sin problemas. Asimismo, se ofrecen ayudas para evitar y corregir errores destacándose particularmente las alternativas ofrecidas por Andromo.com. Por otra parte, Free Android App Maker proporciona dos enlaces con texto distinto que dirigen al mismo destino, pero el texto (en ambos casos) no resulta demasiado intuitivo y puede provocar (por lo menos las primeras veces) que el usuario pierda tiempo en acceder a la fase de selección del tipo de aplicación. D. Robusto: En general, Ambas herramientas ofrecen el contenido de forma que puede ser interpretado por los dos lectores de pantalla utilizados en esta investigación y con tres agentes de usuario distintos. Como se mencionó anteriormente los resultados detallados de la revisión automática realizada con Examinator se omiten por no ser objeto de análisis en esta investigación, sin embargo, cabe mencionar que el validador reportó algunos problemas en ambas herramientas, pero que son perfectamente corregibles y mejorables y que en sí no tuvieron repercusión en la exploración y evaluación realizada con los productos de apoyo. En cuanto a la usabilidad de ambas herramientas se puede concluir que andromo.com, aunque de entrada pueda parecer una herramienta más compleja de manejar por un usuario principiante, contempla más a fondo los principios del diseño de interfaz de Nielsen, ya que, permite mayor control, personalización y flexibilidad sobre las funciones que ofrece y la interfaz es consistente con un diseño bastante sencillo. La ayuda y documentación está disponible y es muy detallada y una vez se conoce el funcionamiento de la herramienta el tiempo de ejecución de las actividades se reduce considerablemente. Si bien es cierto que implica muchas más actividades y procedimientos, la experiencia final del usuario puede llegar a ser más satisfactoria que con Free Android App Maker, que siendo más simple, no ofrece las mismas posibilidades y por ende el usuario tiene menos control sobre los procedimientos de configuración de la aplicación a desarrollar. Tampoco con esta herramienta se cuenta con mucha información sobre los procedimientos y actividades, en comparación con andromo.com. Como conclusión final, hay que decir que con estas dos herramientas se puede crear una aplicación móvil para Android de forma relativamente fácil y utilizando un producto de apoyo como son los lectores de pantalla en plataformas Windows. 6.2. Recomendaciones En vista del auge que están teniendo no solo los dispositivos móviles, sino también el desarrollo de aplicaciones para móviles incluso a través de estas herramientas de desarrollo (App Builder) se considera recomendable, realizar otros estudios de este estilo que permitan evaluar qué tan accesibles son estas herramientas para otras plataformas como iOS, Simbian o Windows Phone; y que finalmente pueda hacerse un estudio comparativo entre las diversas herramientas que ofrezca información al usuario con discapacidad de cuáles son las alternativas más idóneas. Asimismo, se considera oportuno realizar este estudio tomando en cuenta otras discapacidades, lo que permitiría conocer hasta qué punto estas herramientas entran dentro de las nuevas tendencias relacionadas al diseño universal. Por otra parte, es importante considerar otras líneas de investigación relacionadas a estas herramientas, como 46 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos puede ser evaluar si las aplicaciones desarrolladas bajo esta metodología son accesibles y brindan soporte a productos de apoyo para dispositivos móviles; y hasta qué grado pueden ser utilizadas por personas con discapacidad. Por último, es recomendable realizar una evaluación completa en base a las WACG 2.0 para verificar el grado de conformidad con dichas pautas. También es importante verificar hasta qué punto este tipo de herramientas cumple con la Visión General de las Pautas de Accesibilidad para Herramientas de Autor (ATAG) y con la Visión General de las Pautas de Accesibilidad para Aplicaciones de Usuario (UAAG) y posteriormente presentar un informe que pueda servir de referencia tanto para los desarrolladores de estas herramientas, como para los usuarios que se dediquen a crear aplicaciones móviles a través de las mismas. 7. Referencias 1. Blanco, P.; Camarero, J.; Fumero, A.; Werterski, A. y Rodríguez, p. (2009). Metodología de desarrollo ágil para sistemas móviles: Introducción al desarrollo con Android y el iPhone. Universidad Politécnica de Madrid. 2. Flores, J. (jun. 27, 2012). Google Play tiene 600,000 aplicaciones y más de 20 billones de aplicaciones descargadas. [En línea]. Disponible: http://es.ubergizmo.com/2012/06/google-play- tiene-600000-aplicaciones-gy-mas-de-20-billones-de-aplicacionesdescargadas/ 3. HAFO. (feb. 18, 2013). App Builders: solución para el desarrollo de aplicaciones móviles. [En línea]. Disponible: http://blog.aplicacionesmovil.cogm/aplicaciones-celular/appbuilders/ 4. Fernández, A. (feb. 20, 2013). Aplicaciones web vs. aplicaciones nativas vs. aplicaciones híbridas. [En línea]. http://blogthinkbig.com/aplicaciones-web-nativasDisponible: hibridas/ 5. SIDAR. (Dic. 15, 2009). Pautas de accesibilidad para el contenido web (WCAG) 2.0. [En línea]. Disponible: http://www.sidar.org/traducciones/wcag20/es/ 6. Carreras, O. (). Validadores de Accesibilidad y usabilidad web. [En Línea]. Disponible: http://www.usableyaccesible.com/recurso_misvalidadores.php 7. Nielsen, J. (ene. 1, 1995). 10 Heuristics for User Interface Design. [En línea]. Disponible: http://www.nngroup.com/articles/ten-usability-heuristics/g 8. Nielsen J. (2013). Mobile consumer report. [PDF]. Disponible: http://www.nielsen.com/content/dam/corporate/us/en/reportsdownloads/2013%20Reports/Mobile-Consumer-Report-2013.pdf 47 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Comunicador Táctil: Comunicación para Sordociegos Antonio Bermúdez Cabra CIDAT-ONCE [email protected] Juan Ramón Jiménez García CIDAT-ONCE [email protected] Eugenio Romero Rey Unidad técnica sordoceguera ONCE [email protected] Juan Miguel Castellano García CIDAT-ONCE [email protected] Chelo Sacristán Aragón CIDAT-ONCE [email protected] Beatriz Arregui Noguer Unidad técnica sordoceguera ONCE [email protected] Resumen Las personas sordociegas se encuentran con dificultades para la comunicación presencial debidas a la imposibilidad de compartir información con interlocutores desconocidos o semidesconocidos que, en general, no saben o no dominan las formas y sistemas alternativos de comunicación utilizados por ellas. La tecnología actual, y en particular los dispositivos móviles, ha permitido el desarrollo de este proyecto, cuya finalidad es la de ofrecer una nueva vía de comunicación en las citadas situaciones. Se han utilizado teléfonos inteligentes y tabletas (iPhone, iPad y dispositivos con Android) como canal para el proceso comunicativo que se produce entre dos personas. La aplicación desarrollada pretende recrear la comunicación entre dos personas, una de las cuales es sordociega. Para el interlocutor sordociego se han tenido en cuenta dos perfiles de usuario: personas sordociegas que son sordas pero que tienen visión que les permite leer los mensajes del teléfono aunque sea ampliando el tamaño de los mismos, y otro perfil de personas sordociegas que son igualmente sordas pero también ciegas totales y que utilizarán un revisor de pantallas para acceder a la información que muestre la aplicación. El proceso comunicativo es uno de los principales problemas a l os que se tienen que enfrentar las personas sordociegas en su vida diaria. Este proyecto desarrolla una ayuda técnica que les ofrece una vía más para comunicarse con las personas de su alrededor. La ayuda técnica tendrá dos maneras de utilizarse, que dependerá de si la persona sordociega tiene resto de visión o no. La existencia de dos versiones de la aplicación se justifica debido al diferente uso que cada grupo de usuarios sordociegos (con o s in resto de visión) hacen de la tecnología que se ha decidido utilizar como base para desarrollar la solución. La aplicación va dirigida, en todos los casos, a pe rsonas sordociegas sin resto de audición. Por ese motivo, en cuanto a la deficiencia auditiva, no se señalan diferencias respecto a los usuarios en el uso de la aplicación. Abstract Communication is one of the greatest challenges that deafblind people have to face in their daily lives. This project develops an accessibility solution that offers deaf blind people another method to communicate with others. There are two different ways to use this communication application depending on whether the deaf blind person has residual sight or is totally blind. Two versions are therefore made available for the same application as each group of deafblind users (blind or visually impaired) makes a different use of the technology that will be employed in order to form the basis to develop a s olution. As this application is targeted at deaf blind people without residual hearing, no differences are made between the users of the solution. 1. Introducción 2. Estado del arte Para plantear el escenario actual del problema, se deben tratar dos aspectos: cómo resuelven ahora mismo las personas sordociegas el problema de la comunicación y hasta qué punto utilizan la tecnología que existe en estos momentos (smartphones, etc.). 2.1. Comunicación de sordociegos Las personas sordociegas utilizan formas de comunicación que no son compartidas con el resto de la sociedad. Cuando intentan resolver situaciones cotidianas que implican una interacción comunicativa, como por ejemplo hacer compras, pedir una cita médica, preguntar por una dirección o la cantidad a pagar, tienen muchas dificultades para comprender lo que les dice su interlocutor, y para hacerse entender. 48 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Los recursos que han venido utilizando son las tablillas alfabéticas de comunicación en braille o vista, la escritura de mensajes con rotulador, la expresión de gestos naturales, la escritura de letras mayúsculas con el dedo índice sobre la palma de la mano, los comunicadores braille-vista y también, la utilización de recursos humanos como guíasintérpretes. 2.2. Tecnología para sordociegos Aprovechando el potencial de las aplicaciones para dispositivos táctiles, surge la idea de crear un recurso que les permita a las personas sordociegas comunicarse de manera presencial, emitir un mensaje y obtener la respuesta de forma escrita, posibilitando así que el intercambio comunicativo sea más fácil. Gracias a ayudas técnicas como las líneas Braille o los revisores de pantalla, las personas sordociegas tienen acceso a parte de la tecnología existente (ordenadores, smartphones, etc.) por lo que estas plataformas no les son extrañas. Con su uso, y con las adaptaciones necesarias en cada caso, las personas sordociegas cubren sobre todo sus necesidades de comunicación a distancia a través del intercambio de información textual: sms, mail, chat, etc. No existe, sin embargo, ninguna aplicación en español dirigida específicamente a cubrir esta necesidad concreta y que contemple las características y especiales necesidades derivadas de la combinación de la deficiencia visual y auditiva. 3. Tecnología utilizados y métodos Así, se desarrolla una herramienta para personas que tienen una pérdida auditiva tal, que no comprenden los mensajes hablados y una discapacidad visual en distinto grado que les permite la comunicación a través del intercambio de información escrita si ésta se les presenta de forma accesible. Los teléfonos inteligentes se han convertido en uno de los dispositivos más utilizados por cualquier persona, también entre usuarios sordociegos. Por su gran expansión, por las prestaciones que ofrecen y por contar con pantalla táctil, se han elegido los teléfonos iPhone y Android como base para el desarrollo de la aplicación. También se utilizan ayudas técnicas como teclados-líneas Braille y revisores de pantalla. Para que la comunicación sea efectiva y se pueda producir, se ofrecerán los siguientes códigos a los interlocutores dependiendo de sus posibilidades y de su rol de emisor o receptor en cada ocasión. En el papel de emisor: • Sordociego con resto de visión: Utilizará la pantalla táctil del dispositivo para, con gestos que simulan los caracteres, escribir. • Sordociego total: Utilizará su teclado-línea Braille para escribir mensajes, de la misma manera que en cualquier otra aplicación del móvil, utilizando el revisor de pantallas. • Usuario sin discapacidad: Utilizará el teclado en pantalla habitual y, si el dispositivo lo admite, el reconocimiento de voz. En el papel de receptor: • Sordociego con resto de visión: Con una ampliación de los caracteres, configurable y hecha desde la propia aplicación (es decir, sin necesidad de un magnificador de pantallas) podrá leer el mensaje que su interlocutor le acaba de escribir. • Sordociego total: Accederá a través del código Braille al mensaje escrito por su interlocutor gracias al revisor de pantallas y a su teclado-línea Braille. • Usuario sin discapacidad: Podrá leer el mensaje escrito por el interlocutor sordociego en una pantalla estándar del dispositivo móvil. 3.1. Comunicador táctil para sordociegos con resto de visión Este tipo de usuarios necesita dos funcionalidades en la aplicación: un código que pueda aplicar en el smartphone para generar sus propios mensajes; y una ampliación de los caracteres que forman los mensajes que se van intercambiando durante la comunicación. Para la primera se ha creado un reconocedor de gestos que permite escribir caracteres utilizando la pantalla táctil y que es independiente del tamaño o de la posición de la pantalla en la que se realicen los mismos. Está diseñado de forma que la realización de los gestos está apoyada en las destrezas grafomotoras y por tanto sobre un menor requerimiento visual para su realización, además de disponer de feedback táctil por vibración para la adecuada realización de los trazos, en los dispositivos que lo permitan. La segunda funcionalidad es cubierta ofreciendo al usuario la posibilidad de configurar uno de entre cuatro tamaños de letra y la posibilidad también de configurar un tema de colores con altos contrastes. Figura 1. Pantalla de inserción de texto para el usuario sordociego con resto de visión. 49 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 3.1.1. Reconocimiento de caracteres. El algoritmo intenta reconocer qué carácter ha querido dibujar el usuario analizando el trazo que éste ha realizado sobre la pantalla táctil del dispositivo. Para ello guarda las coordenadas de todos los puntos por los que pasa el trazo desde que se toca la pantalla hasta que se levanta el dedo de ésta. A continuación se calcula el cuadrado más pequeño que contenga completamente todo el trazo creado por el usuario. Además, hace que el resultado no dependa de la posición en la que se hizo el gesto en pantalla. Figura 2. Ejemplo del trazo de la letra C. Se divide el cuadrado que rodea la figura en tres filas y tres columnas iguales. Esta división convierte el cuadro en nueve casillas de un tamaño similar. Cada una de las casillas resultantes se numera de 0 a 8 (de arriba a abajo y de izquierda a derecha). tiene asociadas varias secuencias válidas. Así, pequeñas modificaciones en el trazo del usuario no afectarán al resultado de reconocer un carácter. Además, se han comprobado todas las secuencias para asegurar que ninguna combinación de letras diferentes se asemeja lo suficiente para crear falsos positivos. El proceso de creación de secuencias, las pruebas realizadas y los resultados obtenidos con usuarios reales de la aplicación permiten asegurar que ambos objetivos se han cumplido. 3.1.2. Otras funcionalidades. Todas las acciones se realizan con gestos táctiles sobre cualquier parte de la pantalla (doble toque con un dedo, toque con dos dedos, etc.). Esto ofrece a una persona sordociega un método de entrada cómodo y fácil. También dispone de mensajes pregrabados, que permiten al usuario mostrar de forma rápida en la pantalla mensajes útiles, ya sea en situaciones generales (pedir ayuda para coger un autobús) o en situaciones que se haya preparado con anterioridad (conversación con el cajero del banco del día siguiente). La aplicación permitirá tanto su creación como su gestión y clasificación. Además, permite copiar un texto al portapapeles del dispositivo para pegarlo en otra aplicación, y enviar por correo electrónico o por SMS un texto escrito. Ofrece, tanto una ayuda del funcionamiento global de la aplicación y de referencia de los gestos que se pueden utilizar en cada pantalla, como un espacio de aprendizaje en el que se muestra cómo hay que hacer el gesto que identifica a cada carácter reconocible. 3.2. Comunicador táctil para sordociegos totales Figura 3. Numeración de las casillas. El algoritmo calculará la secuencia de casillas por la que ha pasado el trazo que realizó el usuario y dará una secuencia numérica indicando el trazo realizado. Posteriormente se buscará si esa secuencia está entre las que tiene como secuencias válidas y, en caso de ser así, se determinará a qué carácter corresponde. Figura 4. División en 9 zonas del trazo realizado para la letra C. Por ejemplo, la secuencia para la imagen 4, comenzando desde la parte superior derecha del trazo, será 2, 1, 0, 3, 6, 7, 8. El algoritmo buscará entre las secuencias que tiene definidas como válidas y encontrará que esta secuencia está asignada a la letra C. Si la secuencia trazada por el usuario no corresponde a ninguna letra el algoritmo la busca en sentido contrario. De esta forma es posible empezar el trazo en cualquiera de los extremos de la letra. El principal objetivo del algoritmo es reconocer en el mayor número de casos posibles el carácter que el usuario ha querido escribir. Pero también debe reducir el número de falsos positivos, es decir, el número de veces que la aplicación escribirá un carácter distinto al que el usuario intentó dibujar. Para cumplir ambos objetivos cada carácter Para desarrollar esta versión de la aplicación se debe tener en cuenta que el usuario sordociego trabaja con el teléfono inteligente a través de ayudas técnicas. Así, utiliza un revisor de pantallas y un teclado-línea Braille conectada al dispositivo mediante Bluetooth que le sirve, tanto de interfaz de entrada como de salida con las aplicaciones instaladas en el teléfono. La parte visual de la aplicación queda en segundo plano, ya que el usuario accederá a las funcionalidades de la aplicación mediante dichas ayudas técnicas. No obstante no será olvidada ya que en los momentos en los que el usuario no sordociego utilice la aplicación, ésta deberá ser lo suficientemente clara, intuitiva y funcional para él. Esta versión mantiene todas las funcionalidades de la anterior, siendo la única diferencia la manera en la que el usuario las ejecutará. 4. Resultados En el momento actual se tienen desarrolladas, casi al completo, las primeras versiones de la aplicación, tanto para iPhone como para Android, orientadas a usuarios sordociegos con resto de visión. Los comentarios de las personas que lo han utilizado son muy positivos y parece que la aplicación va a cubrir esa necesidad de las personas sordociegas. Se tienen pensadas nuevas funcionalidades para futuras versiones de la aplicación que se unirán a las sugerencias que ofrezcan los usuarios reales que utilicen esta primera versión. Durante el desarrollo se crearon herramientas que han resultado ser de utilidad para otros escenarios (por ejemplo 50 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos para niños ciegos en la escuela). Se abre la posibilidad de afrontar el desarrollo de nuevos proyectos que reutilicen partes importantes de éste. En resumen, se presenta una aplicación cuyos aspectos más relevantes son los siguientes: • Es una aplicación que permite la comunicación utilizando un dispositivo de uso habitual. • Tanto en la definición como en las pruebas han estado implicados los usuarios finales (Unidad Técnica de Sordoceguera de la ONCE), por lo que es una aplicación basada en las necesidades reales de los mismos. • Es una aplicación flexible para el usuario final, al permitir añadir mensajes pregrabados, modificar parámetros de la configuración, etc. • Dispone de un tutorial de aprendizaje para las primeras veces que se utilice. • Ofrece una gran integración con otras funcionalidades y aplicaciones existentes ya en el dispositivo móvil, como son el uso del portapapeles, el envío de mensajes SMS o el de correo electrónico, etc. • Es una aplicación gratis. 5. Discusión Existen en el mercado dos aplicaciones que abordan la misma problemática que el Comunicador táctil. La primera de ellas se llama HIMS Chat y está desarrollada por la empresa Fingertip Communication HIMS. Es una aplicación diseñada para facilitar la comunicación entre una persona sordociega total y una persona vidente, utilizando una conexión Bluetooth entre el iPhone y un dispositivo Braille de la propia empresa HIMS. La aplicación permite guardar mensajes pregrabados y salvar la conversación que se ha mantenido para su posterior revisado. A diferencia del comunicador táctil, HIMS no permite otro método de entrada a la persona sordociega que el teclado Braille de su dispositivo, por lo que los sordociegos que tengan un resto de visión no podrán hacer uso de él de una manera eficiente con HIMS. La segunda de ellas se llama TouchTalk y está orientada a sordociegos con resto de visión. La mayor diferencia respecto al comunicador táctil es el que los gestos para los caracteres a escribir dependen de la posición de la pantalla en la que se escriban para ser reconocidos. Además, dichos gestos necesitan de un aprendizaje bastante mayor que los ofrecidos por el Comunicador táctil. Por otro lado, la aplicación TouchTalk ofrece funcionalidades importantes para el usuario final como la gestión de mensajes pregrabados o la posibilidad de guardar una conversación. 6. Bibliografía [1] Daniel Álvarez Reyes, Beatriz Arregui Noguer, Carlos Cenjor Español, Myriam García Dorado, Pilar Gómez Viñas, Elvira Martín Hernández, Ángel Martín-Blas Sánchez, M.a Teresa Martín Sastre, M.a Victoria Puig Samaniego, M.a Altagracia Reguera Muñoz, Eugenio Romero Rey, Carlos Manuel Santos Plaza, M.A Mar Zorita Díaz, La sordoceguera. Un análisis multidisciplinar, ONCE, Madrid, 2004. 51 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Estudio de la Eficiencia y Optimización del Subtitulado para Sordos. Método de Pequerrecho Subtitulación Pequerrecho Subtitulación [email protected] Resumen La oferta de subtitulado para sordos ha aumentado en los últimos años, pero la comunidad sorda demanda calidad además de cantidad. Hasta el momento, el subtitulado varía mucho entre cadenas y proveedores, pero no parece cubrir las expectativas de los usuarios finales actuales y no ha conseguido ampliar el perfil de los usuarios de este tipo de subtítulos, ya que no s e ajustan suficientemente a las necesidades específicas de la heterogénea comunidad sorda y hacen que los usuarios sigan siendo una minoría. Este estudio, realizado con una amplia muestra de usuarios, pretende fijar pautas, eliminar malas prácticas y creencias erróneas en este tipo de subtitulado y homogeneizar el servicio para ampliar su audiencia, además de proponer nuevas líneas de investigación. Abstract During the last years, the offer of subtitling for the deaf and the hard of hearing increased, but the deaf community demands quality as well as quantity. Subtitles differ significantly between TV channels and s uppliers, but these services do not seem to fulfill all the expectations of the final users and are unable to extend the profile of users of this kind of subtitles, as they do not adjust sufficiently to the specific needs of the heterogeneous deaf community, being used only by a minority. This study involved a wide sample of users. Thus, it is its intention to establish rules, as well as to avoid bad practices and erroneous ideas about this special kind of subtitling, in an effort to homogenize this service, in order to extend its audience, and to propose new lines of research on this subject. 1. Introducción El subtitulado para personas con discapacidad auditiva viene realizándose desde hace muchos años, pero es ahora cuando parece cobrar mayor protagonismo debido a las exigencias de las legislaciones vigentes en cuanto a volumen de horas de emisión accesibles. En cambio, en la práctica, parece que la calidad ha quedado excesivamente relegada con respecto a la cantidad, algo que, sin duda, demuestran las reiteradas quejas de las distintas asociaciones de sordos y como recogen las actas de los congresos AMADIS 2010 y AMADIS 2012, por ejemplo. Desde la creación de Pequerrecho Subtitulación, decidimos que nuestra máxima sería siempre la calidad y que nuestra prioridad sería no sólo el cliente, sino, también, el usuario final de los subtítulos. Por eso, decidimos llevar a cabo un estudio meramente práctico que nos permitiese, por un lado, conocer las necesidades reales de la comunidad sorda en general y analizar su grado de satisfacción con los subtítulos que se le ofertan actualmente y, por otra parte, buscar y comprobar una fórmula más adecuada que permitiese aumentar el número de usuarios de subtítulos para sordos y mejorar la calidad de esos subtítulos. Como empresa de subtitulado, en ningún momento hemos tenido interés en realizar un estudio teórico, sino un análisis y una comprobación que nos permitiesen generar normas y pautas que nuestros subtituladores y revisores, tanto lingüísticos como técnicos, pudiesen adoptar para ofrecer un mejor servicio al usuario final y homogeneizar nuestro producto con independencia de las personas que intervengan en cada proyecto. Una vez extraídas y comprobadas estas pautas, hemos trabajado durante dos años aplicándolas en todos los proyectos reales de subtitulado para sordos, por lo que hemos tenido ocasión de pulir estas técnicas al enfrentarnos a las dificultades y retos del subtitulado profesional y verificar su adaptabilidad en función de los distintos tipos de contenido. 2. Estudio práctico de la opinión de los usuarios sordos Por su naturaleza, un estudio sobre subtitulado para sordos debe considerar parámetros exclusivos de esta tipología (cf. De Linde, 1996 [1]; Arnáiz, 2012 [2]) por lo que, a pesar de que tiene aspectos en común con otros tipos de subtitulado, requiere la evaluación de las necesidades específicas de los usuarios finales, que van más allá de la inclusión del contenido sonoro. Para ello, es fundamental contrastar la efectividad de las distintas técnicas con el espectador que necesita este subtitulado para acceder a la producción audiovisual. 2.1. Los talleres y la muestra de usuarios 52 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Para la realización del estudio, nos pusimos en contacto con distintos profesionales oyentes que se comunican diariamente con personas sordas y con la FAXPG (Federación de Asociaciones Sordas de Galicia), que se mostró muy interesada en nuestro proyecto y nos proporcionó intérpretes de lengua de signos para los talleres realizados en la Asociación de Personas Sordas de Santiago de Compostela, la Asociación de Personas Sordas de Vigo, la Asociación de Personas Sordas de Ferrol y la Asociación de Personas Sordas de Ourense. Los vídeos utilizados fueron cedidos por Televisión de Galicia para este fin. En cada uno de los talleres, preguntábamos si los usuarios utilizaban habitualmente el servicio de subtitulado y si eran capaces de seguir los subtítulos. A continuación, proyectamos diferentes contenidos audiovisuales subtitulados en gallego y español con distintos grados de velocidad y complejidad de diálogo. Con esto, pretendíamos conocer la opinión de los usuarios sobre los subtítulos que podían encontrar en los distintos canales de televisión y poner a prueba nuestro método de subtitulado. Para ello, realizamos preguntas al aire para generar debates entre propios asistentes, que se sentían más cómodos para opinar y expresar sus capacidades reales al hablar entre ellos. Gracias a los distintos talleres que organizamos, reunimos una muestra de usuarios de 70 personas sordas de entre 18 y 65 años. Entre los sujetos se encontraban personas signantes y no signantes con capacidades de lectura muy heterogéneas, por lo que consideramos que este estudio supone una buena indicación de la funcionalidad de estos subtítulos para la comunidad sorda en general. 2.2. Comprobación del método de subtitulado de Pequerrecho Subtitulación La gran participación de las personas sordas que asistieron en cada una de las localizaciones nos permitió cumplir nuestros objetivos con creces, de modo que pudimos confirmar que el método de subtitulado para sordos que utilizamos desde entonces permite seguir los subtítulos de forma cómoda no sólo a aquéllos que ya usaban los subtítulos que ofrecen las distintas cadenas, sino, también, a quienes no los utilizaban porque no conseguían leerlos por completo. Además, queríamos que los usuarios nos comentasen si notaban algún tipo de diferencia entre los subtítulos para sordos que se ven habitualmente en televisión y los subtítulos que nosotros les habíamos mostrado y los resultados fueron sorprendentes: a pesar de que sí habían seguido los nuevos subtítulos perfectamente, no percibieron diferencias notables, por lo que los métodos utilizados para facilitarles la comprensión y lectura de los subtítulos les habían pasado desapercibidos. Incluso, al proyectar los vídeos sin sonido, comprobamos que ni siquiera los intérpretes de lengua de signos se habían percatado de las adaptaciones. Posteriormente, explicamos a los asistentes de todos los talleres cuáles habían sido dichas adaptaciones y ninguno de ellos se mostró incómodo con la idea de que se realizasen, ya que no suponían una omisión de información, censura o resumen del contenido y, sin embargo, les permitían un mejor acceso al mismo, incluso cuando el diálogo resultaba más rápido. 3. Comparación con la norma UNE 153010:2012 [3] El método de subtitulado de Pequerrecho Subtitulación toma como base la normativa UNE 153010 de 2003 [4], que estaba vigente en el momento del comienzo del estudio. Como veremos en apartados posteriores, este método de subtitulado difiere de la norma en los hábitos y usos que los usuarios que participaron en este estudio rechazaron durante los talleres. No obstante, dado que la normativa vigente actualmente es la de 2012 y que constituye una revisión de la anterior, en este apartado veremos los puntos comunes entre este nuevo método de subtitulado y la norma actual. 3.1. Aspectos en común La normativa española ha constituido una buena base sobre la que trabajar para encontrar las pautas que nos permitiesen optimizar el subtitulado para sordos. Así, respetamos el uso de los colores para la identificación de los personajes en función de su relevancia en la producción y estamos completamente de acuerdo en que los subtítulos con diálogo deben situarse en la parte inferior central de la pantalla, excepto en aquellos casos en que tapen información importante, en cuyo caso se desplazarán momentáneamente a la parte superior central de la pantalla. Utilizamos pautas muy similares en cuanto a la forma de dividir una frase en dos líneas y coincidimos en el uso de dos líneas como máximo, pero no en la opción de usar hasta tres líneas en casos excepcionales, ya que invade excesivamente la pantalla y resulta demasiada cantidad de texto como para poder seguir la acción de la imagen. Así mismo, deben utilizarse líneas diferentes para identificar cada personaje y, en ningún caso, se utilizarán los puntos suspensivos para indicar que la frase no empieza o no acaba en un subtítulo. De hecho, los criterios gramaticales y ortográficos de cualquier subtitulado deberán ser siempre los establecidos por la Real Academia Española para el español o por su homólogo para las distintas lenguas, ya que cualquier incorrección genera confusión en el espectador. Esto significa que el texto de los subtítulos debe puntuarse como si se tratase de cualquier documento escrito. Tal y como indica la norma, la información contextual se refleja entre paréntesis y en mayúsculas en la misma posición que el diálogo, pero siempre trataremos de evitar las redundancias. Debemos tener en cuenta que el espectador sordo está prestando atención a la imagen y, por ejemplo, si estamos viendo claramente a un personaje llorar o reír, no necesita que lo indiquemos en los subtítulos. Los subtítulos que indiquen los denominados efectos sonoros, es decir, los sonidos no producidos por uno de los personajes o realizados por un personaje no identificado, se sitúan en la parte superior derecha de la pantalla de forma sustantivada (por ejemplo: “llanto”, “timbre”, “música”). El hecho de que se encuentre en esa posición de la pantalla indica que se trata de un sonido, por lo que no utilizaremos expresiones como “suena el timbre” o “llaman a la puerta” ni los indicaremos entre paréntesis. 53 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 4. Necesidades del usuario sordo específicas Neves (2005) [5] afirma que los subtítulos deben ofrecer tanto diálogo y tanta información acústica como se pueda, de la forma más clara posible y todo en perfecta sincronía con la imagen y con un ritmo adecuado que permita la lectura. Siempre que no caigamos en el extremo de la redundancia y la saturación de texto en pantalla, esta afirmación define los principales requisitos que deben cumplir los subtítulos para sordos. Pero, ¿cómo podemos cubrir estas necesidades de un modo eficaz, homogéneo y objetivo? 4.1. Efectividad de la transcripción literal La normativa española defiende la literalidad de los subtítulos, especificando que no deben aclararse los sentidos figurados y que sólo se pueden tomar licencias de adaptación en aquellos casos en que la velocidad del diálogo sea elevada o las oraciones sean demasiado largas. Otros autores defienden que muchos usuarios pueden utilizar los subtítulos como ayuda complementaria de la lectura de labios y que, si éstos difieren, podría generarse confusión en el usuario (Kyle, 1996) [6]. Neves (2005) descarta este argumento, ya que hay muy pocos programas cuyo tratamiento visual permita una lectura de labios efectiva, algo que tampoco sería posible en programas doblados. Sin embargo, el miedo a perder información o a la censura, además de motivos de tipo político, han motivado la demanda de transcripciones literales de diálogos en el subtitulado por parte de algunos sectores de la comunidad sorda. Ante esta afirmación, debemos tener en cuenta que la propia heterogeneidad de la comunidad sorda desaconseja la transcripción literal, como aseguran Arnáiz (2012) y Neves (2005) y como queda demostrado por estudios como el de Sancho-Aldridge e IFF Research Ltd (1996) [7], ya que sólo logran comprenderla una minoría de personas sordas porque ésta no tiene en cuenta las necesidades de comprensión específicas de los usuarios. Esto ha motivado la defensa utópica de que el espectador con falta de audición debería poder elegir entre más de un tipo de subtitulado en función de sus aptitudes de lectoescritura. Claramente, esta opción no es viable debido a los costes que supondría. 4.2. Adaptación Una vez descartada la efectividad de la transcripción literal, nos corresponde aclarar en qué consiste la adaptación de los subtítulos para sordos y, para ello, es necesario establecer los aspectos que plantean una mayor dificultad para la mayoría de la población con problemas de audición. En este sentido, Neves (2005) comenta que el texto debe estar orientado al usuario final y que los subtituladores son oyentes que casi nunca tienen conocimiento real del entorno cognitivo y social de la audiencia meta, ya sea debido a la falta de formación o al hecho de que desconocen que los usuarios de este servicio no comparten su mismo idioma y/o cultura. Por eso, no es suficiente plantearse qué información necesitaría un oyente que, de repente, no pudiese oír, sino cómo procesan la información y cuáles son los problemas a los que se enfrentan las personas sordas. En este caso, el método utilizado en este estudio se centra en acelerar el proceso cognitivo de comprensión más que en acelerar el simple proceso de lectura. Es decir, no se trata sólo de que dé tiempo a leer el texto, sino que dé tiempo a comprenderlo. En palabras de Gutt (1991) [8], se trata de proporcionar la misma interpretación sin que la audiencia necesite realizar un esfuerzo innecesario para procesarla. Cabe destacar que, dado que la comunidad sorda es tan heterogénea, no todos los posibles usuarios de los subtítulos tienen la misma formación, capacidad de lectura, comprensión y uso de la lengua, por ejemplo. En este sentido, los subtítulos para sordos están siempre orientados a un perfil de usuario muy determinado: usuarios oralistas con índices de alfabetización medio-altos y destrezas lectoras elevadas (cf. Arnáiz, 2012). Esto limita enormemente el acceso de otros miembros de la comunidad sorda a los subtítulos ofrecidos actualmente. Si bien es cierto que determinados usuarios son reticentes a la reformulación del subtítulo para dotarlo de características más idóneas para signantes (cf. Lorenzo, 2010ª [9]; Pereira, 2010 [10]), el hecho de orientar los subtítulos sólo para una élite de esta comunidad discrimina al resto de miembros de la misma. En cualquier caso, la adaptación no debe incluir ningún tipo de omisión, resumen o alteración de la información ni censura o simplificación de vocabulario, por lo que los usuarios que ya tienen acceso a los servicios de subtitulado también se verán beneficiados por este método de subtitulado, ya que garantiza una mayor calidad de los subtítulos gracias a una gran atención al detalle, a las distintas medidas adoptadas para facilitar la lectura y la comprensión y a las tareas de revisión. 4.2.1. Interpretación de sentidos figurados y metáforas. Según podemos extraer de estudios como el de Quigley y Paul (1984) [11], los niños sordos carecen de una base importante de conocimientos y suelen tener problemas para comprender deducciones y lenguaje figurado, así como dificultades con otros aspectos lingüísticos que se desarrollan de forma automática en los niños oyentes. Esto no significa que los niños sordos sean menos inteligentes que los oyentes, sino que se inician en la lectura con unas destrezas de comprensión del lenguaje menos desarrolladas debido a déficits cognitivos, lingüísticos y de experiencia. Además, Myklebust [12] describe, ya en su estudio de 1964, que las personas sordas tienen problemas para comprender ideas abstractas, al igual que existe numerosa bibliografía de autores que relatan estos mismos problemas en la comprensión de metáforas (cf. Iran-Nejad, Rittenhouse y Morreau, 1981 [13]; Rittenhouse y Kenyon, 1991 [14]; Gilbertson y Kahmi, 1995 [15]; Wolgelmuth, Kahmi y Lee, 1998 [16]). De hecho, los sujetos sordos tienden a comprender las metáforas de forma literal (cf. Johnson y Myklebust, 1967 [17]; Furth, 1973 [18]; Boatner y Gates, 1975 [19]; Conrad, 1979 [20]; Takashi, 1999 [21]). Así, por ejemplo, si nos encontramos con alguien por la calle y le decimos “¡Qué bien te veo!”, podría entenderse de forma literal como “Hoy veo estupendamente” en lugar de “¡Qué guapa estás!”. Por eso, para tratar de comprender estas metáforas y sentidos figurados, el usuario debe realizar un 54 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos mayor esfuerzo y consumir tiempo del que se carece en una obra subtitulada. Por lo tanto, es preciso substituir estas expresiones por su significado y mantener los matices y el tono del original. 4.2.2. Estructuras sintácticas complejas. Schmitt (1968) [22] afirma que la mayoría de los problemas de lectura de las personas sordas se deben a que tienen interiorizadas estructuras lingüísticas que son diferentes a las utilizadas en la lengua oral y, según Thompson (1927) [23] y Brasel y Quigley (1975) [24], estos problemas se ven especialmente acentuados en el caso de personas con sordera prelocutiva. Entre los elementos que constituyen una estructura compleja, se incluyen las oraciones de relativo, la voz pasiva y los complementos (cf. Neves, 2005). Así, siempre que sea posible, trataremos de simplificar estas estructuras complejas de la forma menos traumática posible, sin resumir ni alterar la información. Además, es preciso mantener, en todo momento, la coherencia y cohesión del texto entre sí y con la imagen (cf. Mayoral, Kelly y Gallardo, 1988 [25]). Esto facilitará la lectura y comprensión de los subtítulos al evitar confusiones que despistan al espectador y le hacen perder tiempo. 4.2.3. Formas verbales flexionadas. Para todas aquellas personas que trabajan habitualmente con personas sordas, especialmente en aprendizaje lingüístico o interpretación, es conocido que la mayoría de la comunidad sorda tiene problemas para interpretar los tiempos verbales y desprender el sujeto elíptico a partir de la forma verbal flexionada. Esto queda documentado en numerosos estudios empíricos (cf. Rivera, 2008 [26]; Herrera, Puente, Alvarado y Ardilla, 2007 [27]). Stockseth (2002) [28] afirma que se podría explicar el déficit en la comprensión de las flexiones verbales demostrado por los sujetos sordos por la falta de codificación de estos morfemas funcionales, especialmente debido a que se encuentran en posición final de las palabras. De hecho, este fenómeno se produce en mayor o menor medida en otras lenguas, como demuestra el estudio de Liechtenstein (1998) [29], en el que los sujetos no codificaban el morfema “-ing”, sufijo de los gerundios, con los que se forma el tiempo presente continuo en inglés. El mismo autor afirma que algunos de los sujetos de su estudio incluso habían comentado que no pronunciaban el final de algunas palabras al hablar. Para salvar esta dificultad, trataremos de utilizar, siempre que sea posible, tiempos verbales simples y especificaremos siempre el sujeto de la oración. Recordemos que todas estas medidas están destinadas a agilizar los procesos de comprensión, por lo que, aunque esto implique el uso de más caracteres, reducirá el tiempo necesario para la lectura y comprensión del subtítulo. Esto tampoco debería resultar un problema si empezamos a aprovechar mejor la retransmisión de subtítulos a través de la TDT, que nos permite el uso de un mayor número de caracteres (hasta 42 por línea en casos excepcionales) y la omisión de la caja negra, que tapa parte de la imagen. La distinción de las letras de los subtítulos con respecto a los colores de la imagen queda garantizada gracias al contorno negro que ya utilizan muchas cadenas en sus emisiones. 4.2.4. Pronombres de tercera persona. Existen numerosos estudios que señalan los problemas de las personas sordas con las pronominalizaciones (cf. Quigley y Paul, 1984 [30]). Los pronombres de primera y segunda persona resultan más fáciles de identificar, pero, los de tercera persona de singular y plural pueden suponer un problema añadido, en parte, por la influencia de la lengua de signos. Al signar, se identifican las personas con su nombre. Si, de repente, dejamos de referirnos a “Juan” con este nombre y hablamos de “él”, puede interpretarse que hablamos de otra persona distinta, que la persona sorda aún no conoce y que, definitivamente, no es Juan. Según pudimos comprobar en nuestro estudio, el uso del nombre de la persona en lugar de los pronombres de tercera persona de singular o plural permite el seguimiento más cómodo de los subtítulos a personas que no suelen utilizarlos por la dificultad que les supone. 5. Aspectos técnicos facilitan la lectura que Además de todas estas adaptaciones centradas en agilizar la comprensión del texto de los subtítulos por parte de un mayor número de usuarios sordos, existen medidas que podemos adoptar para agilizar la lectura y localización de los subtítulos no sólo para usuarios con problemas de audición, sino, también para usuarios de subtítulos interlingüísticos. El tiempo empleado leyendo subtítulos aumenta en paralelo a la velocidad en que entran y salen y el espectador les da prioridad, por lo que deja de prestar atención a la acción de la imagen (Jensema, Skarkawy, Danturthi, Burch y Hsu, 2000 [31]). Por eso, los subtítulos deben generarse de forma que el espectador pueda seguirlos cómodamente al mismo tiempo que atiende a la imagen. 5.1. Sincronía y permanencia en pantalla Según la norma UNE 153010:2012, la entrada y salida de los subtítulos debe coincidir con el movimiento de los labios, los cambios de plano, la locución o la información sonora. Además, los estándares de ITC (1999) [32] afirman que los cambios de plano reflejan, normalmente el inicio o final de un discurso y que, por lo tanto, el subtitulador debe tratar de insertar un subtítulo en un cambio de plano cuando éste esté en sincronía con el locutor. Neves (2005) se muestra de acuerdo con esta afirmación y advierte que los subtítulos de las obras con abundantes cambios de plano tendrán un tempo más rápido y exigirán un mayor esfuerzo por parte del espectador y del subtitulador. Ahora bien, la práctica cotidiana y la experiencia con distintos tipos de producciones y, por lo tanto, con diversos métodos de planificación cinematográfica, nos han permitido comprobar que la regla de los cambios de plano va a menudo en detrimento de la legibilidad del subtítulo. En primer lugar, la voz no siempre respeta los cambios de plano y no podemos dejar de incluir información por guiarnos a pies juntillas por estas indicaciones. Además, aunque la voz desaparezca con el cambio de plano, si sacamos el subtítulo sin que dé tiempo a leerlo, es como si no existiera, porque no cumple su función y porque genera ansiedad y confusión. Por todo eso, el cambio de plano 55 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos constituye un aspecto secundario a la hora de sincronizar los subtítulos. El inicio del subtítulo debe entrar en pantalla con el inicio de la voz, pero debería permanecer en pantalla unos momentos más que la voz para asegurar su lectura. Además, debemos acostumbrar al espectador a un tempo cómodo de entrada y salida de subtítulos, por lo que es necesario establecer un tiempo mínimo entre la salida de un subtítulo y la entrada del siguiente y el tiempo mínimo de exposición de un subtítulo, por breve que sea, debería ser un segundo. Es necesario tener en cuenta que no todas las palabras se leen igual de rápido, es decir, con el mismo número de caracteres, las palabras de uso más habitual se leerán más rápidamente que, por ejemplo, tecnicismos o nombres propios. 5.2. Uso preferente de dos líneas Otros autores (D’Ydewalle, Van Rensbergen y Pollet, 1987 [33]) comentan que es preferible el uso de dos líneas, porque, al perder menos tiempo cambiando la posición de los ojos entre la imagen y los subtítulos, se deja más tiempo para la lectura de éstos. El método de subtitulado de Pequerrecho Subtitulación también da preferencia al uso de dos líneas, aunque el número total de caracteres nos permita utilizar sólo una, ya que, de este modo, el texto queda más centrado en la pantalla. Si tenemos en cuenta que la acción suele producirse en la parte central de la pantalla, los ojos tendrán que recorrer menos distancia para localizar el texto y volver a la imagen que si tienen que seguir el texto de una esquina a otra antes de volver a la imagen. Además, en el estudio hemos comprobado que esta técnica permite reducir significativamente el tiempo de lectura de los subtítulos en comparación con los subtítulos de una única línea, porque el espectador también localiza antes los subtítulos al estar siempre tan centrados como sea posible. Jensema et al. (2000) afirman en su estudio que la tendencia general es mirar siempre hacia el centro, buscar luego el inicio del subtítulo y, al acabar de leerlo, volver a echar un vistazo a la imagen hasta la aparición del siguiente subtítulo. Si conseguimos reducir la velocidad de lectura y que la información esté lo más próxima posible al centro de la acción sin taparla, conseguiremos también que el espectador lea más cómodamente y tenga tiempo de seguir, además, la imagen y disfrutar de la producción audiovisual. 5.3. Uso del guión Neves (2005) comenta que, en España, existe una incoherencia en el uso de la puntuación para identificar los cambios de locutor y parece que cada cadena utiliza su propia norma. Por su parte, sugiere que los subtítulos deberían utilizar las convenciones de puntuación que se utilizan para cualquier texto escrito, como ocurre en países como Portugal, ya que esto facilita el seguimiento del diálogo. Los asistentes a los talleres corroboran esta afirmación, ya que defienden el uso del guión como en cualquier texto escrito. Así,el método de Pequerrecho Subtitulación utiliza el guión (seguido siempre por un espacio para ayudar a identificar más rápido la primera palabra) en ambas líneas cuando hablan dos personajes dentro del mismo subtítulo, con independencia del color asignado a cada personaje. 6. Intentos ineficaces de adaptación Existen numerosos estudios y normativas que proponen distintas formas de adaptación. Aquí mencionamos algunas que hemos tenido ocasión de poner a prueba en nuestro estudio y que han sido descartadas por nuestra muestra de usuarios. 6.1. Indicación de didascalias Para indicar las características propias de la forma de hablar de un personaje o el tono, si es que se considera necesario, la normativa vigente aconseja su aclaración entre paréntesis y en mayúsculas en la misma posición que el diálogo. Por ejemplo: “(TARTAMUDEA)”, “(SUSURRA)”, “(IRÓNICO)”... Los resultados obtenidos en este estudio coinciden plenamente con lo que propone esta norma, pero incluimos aquí los casos en que sea necesario indicar que una voz está en off, ya que la lectura de la cursiva siempre es un poco más lenta que la lectura de la letra redonda. 6.1.1. Emoticonos. Esta técnica, recomendada en la anterior normativa española y por otros autores (cf. Pereira y Lorenzo, 2005 [34]), resulta demasiado subjetiva, como demuestra Neves (2005) al mostrar el uso diferente de los mismos emoticonos en distintos países. Además, requiere una interpretación de los emoticonos por parte del usuario de los subtítulos que implica más tiempo para el proceso de comprensión de los mismos. 6.1.2. Saltos de línea y representaciones literales. De Linde y Kay (1999) [35] sugieren indicar el sarcasmo o la ironía con los signos (!) y (?) al final del subtítulo. Esta opción queda descartada, al igual que otras de similares características porque su uso en la lengua escrita no es habitual y su significado es muy poco conocido por la mayoría de la población, por lo que los usuarios también tendrían que descifrar su significado. Queda excluida también la técnica de De Linde y Kay (1999) sobre el uso de un salto de línea en combinación con puntos suspensivos al final de la primera línea y al principio de la segunda para indicar pausas por duda (cf. Pereira et al., 2005) por su subjetividad, ya que los sujetos del estudio manifestaron rechazo por todos aquellos usos especiales de signos o símbolos para el subtitulado que difieran de la normativa de la Real Academia Española y que requieran una explicación previa de su interpretación para que el usuario medio de los subtítulos los comprenda. Así, quedaría excluido el uso de # para la indicación de canciones, al igual que el uso del emoticono de la nota musical, por problemas para que lo reconozcan los distintos sistemas de retransmisión de subtítulos. Esto mismo ocurre con la representación ortotipográfica del tartamudeo (por ejemplo: “T-t-t-tú no lo p-p-puedes saber”) que proponía la anterior normativa española y recogida también en otras normativas y estudios (cf. BBC, 2009 [36]; Pereira et al., 2005), ya que provoca confusión y ralentización de la lectura. 6.2. Abreviaturas 56 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos La normativa vigente recoge el uso de abreviaciones en las etiquetas identificativas. Una vez más, esto requiere una asociación deductiva para identificar la abreviación siempre que aparezca con el nombre completo del personaje, por lo que provocaría confusión y pérdida de tiempo. Además, si el espectador no ve el contenido desde el principio o, por el motivo que sea, se pierde la etiqueta que asocia el nombre a la abreviatura, el seguimiento de los subtítulos sería aún más difícil. 7. La importancia revisión de la Al margen de lo comentado anteriormente, muchos de los errores que se encuentran en la práctica profesional del subtitulado se deben a la falta de revisión. Así, es fácil encontrarse faltas de ortografía, errores gramaticales y de puntuación, erratas, incoherencias en la asignación de colores, omisión de subtítulos... Muchos de estos errores se solucionarían con una revisión exhaustiva por parte de un profesional distinto al subtitulador que haya realizado el subtitulado. En el caso de Pequerrecho Subtitulación, en todos los proyectos participa un subtitulador, un revisor lingüístico y un revisor técnico. Además de por falta de revisión, en algunos casos, las incorrecciones con respecto a la normas establecidas por la Real Academia Española son intencionadas. Éste es el caso del uso que se realiza en algunas cadenas de televisión de los puntos suspensivos para indicar que una frase no acaba o empieza en ese subtítulo o del signo de exclamación o interrogación sólo al final de la oración. Tampoco se recomienda el uso de paréntesis en el texto del diálogo: se prefiere, para estos casos, el uso de comas o la reformulación. Los errores de sincronización son muy habituales y se deben a distintas causas: en ocasiones, son descuidos del subtitulador y podrían solucionarse prestando más atención y con las revisiones; en otros casos, se deben a errores técnicos en la retransmisión de los subtítulos o a que el vídeo que maneja el subtitulador no comienza en el mismo tiempo que el vídeo que se maneja en la cadena de televisión. 8. Futuras investigación líneas de En vista de los resultados obtenidos en este estudio y de la fantástica disposición de las personas sordas que participaron en el mismo, Pequerrecho Subtitulación continuará realizando talleres para seguir evaluando el subtitulado y para buscar más fórmulas que permitan optimizar el servicio con adaptaciones como las mencionadas anteriormente. Así mismo, pretendemos llegar a cuantificar con mayor exactitud el porcentaje de miembros de la comunidad sorda que consiguen acceder a los subtítulos con el método de Pequerrecho Subtitulación y cuáles son sus características específicas, porque, sin duda, esta información también contribuirá a la ampliación del rango de posibles espectadores. En cuanto a la adaptación de los subtítulos, creemos que sería interesante estudiar en profundidad la comprensión de las metáforas y sentidos figurados y la pronominalización de los objetos directos e indirectos. Las estructuras sintácticas también plantean un reto interesante, como se puede comprobar en el estudio de Stockseth (2002), ya que deja patente que el orden de los elementos de la oración por sí solo puede constituir un impedimento importante para su correcta comprensión. En cuanto al aspecto técnico, podría ser beneficioso para el sector hacer un análisis de la adecuación del software de retransmisión de subtítulos y la sugerencia de mejoras en el mismo, por ejemplo, para que acepte el uso de ciertos símbolos o que se permita el solapamiento de dos subtítulos sin que deban entrar a la vez en pantalla, necesario en algunos casos para la indicación de diálogo y efectos sonoros. 9. Conclusiones Este estudio nos ha proporcionado información muy relevante sobre las necesidades de los usuarios finales de los subtítulos para sordos, lo que nos ha permitido ofrecerles este servicio a sujetos que, habitualmente, no pueden utilizarlo. Para esto, se realiza una adaptación que resulta mucho menos traumática de lo que puede parecer a priori; prueba de ello es la aprobación unánime de este tipo de medidas por parte de los participantes en el estudio, independientemente de si ya eran o no usuarios habituales de productos subtitulados o no. Es importante tener en cuenta que el método de subtitulado de Pequerrecho Subtitulación no incluye y no acepta simplificaciones de vocabulario, cambios de registro, omisiones de información o métodos de censura. Se trata simplemente de facilitar el acceso a la obra utilizando técnicas que contribuyan a agilizar el proceso cognitivo de comprensión y que ayuden a que la lectura sea más cómoda y rápida para que el usuario pueda disfrutar de la obra prestando también atención a la imagen. Además de comprobar la eficacia de este método, hemos conseguido generar pautas y normas internas que nos permiten homogeneizar todos los trabajos, a pesar de que estén realizados por distintos subtituladores y de que pasen una revisión lingüística y una revisión técnica realizada por profesionales distintos al subtitulador. Además de en la aceptación de nuestro método de subtitulado, también encontramos unanimidad en el rechazo a cualquier uso fuera de la normativa de la Real Academia Española de signos de puntuación o símbolos. Nos repitieron en varias ocasiones que no entendían por qué tenían que aprender una norma para leer y escribir y otra para comprender los subtítulos, por lo que lo lógico es utilizar siempre las normas oficiales de la lengua correspondiente. Esta exigencia de respeto a las normas establecidas incluye la corrección gramatical y ortográfica, la coherencia en la aplicación de colores, etc. Y ello porque cualquiera de estas infracciones provoca confusión y ralentización en el proceso de lectura y comprensión, además de desconfianza en la fiabilidad de todos los demás subtítulos. Esto nos lleva a la necesidad de implantar sistemas de trabajo que incluyan una revisión realizada por un profesional distinto al subtitulador, ya que no cabe duda de que una única persona no puede proporcionar garantías de calidad suficientes. Los resultados arrojados por este estudio plantean numerosos campos posibles de investigación que consideramos muy interesantes y creemos que pueden identificar nuevas fórmulas para la optimización del servicio. Así mismo, creemos que supone un gran avance hacia la 57 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos mejora de la calidad, la uniformidad, la regulación y la objetivización del subtitulado para sordos, así como una significativa ampliación del número de usuarios que pueden beneficiarse de este servicio. 10. Bibliografía [1] De Linde, Z. Le sous titrage intralinguistique pour les sourds et les malentendants. En Gambier, Y. (Ed.). (1996). Les transferts linguistiques dans les medias audiovisuelles. Presses Universitaires du Septentrion. París. 1996. [2] Arnáiz, V. Los parámetros que identifican el subtitulado para sordos. Análisis y clasificación. Monti: Monografías de traducción e interpretación, 4, 103-132. 2012. [3] Asociación Española de Normalización y Certificación (AENOR). Norma Española UNE 153010. Subtitulado para personas sordas y personas con discapacidad auditiva. AENOR. Madrid. 2012. [4] Asociación Española de Normalización y Certificación (AENOR). Norma Española UNE 153010. Subtitulado para personas sordas y personas con discapacidad auditiva. Subtitulado a través del teletexto. AENOR. Madrid. 2003. [5] Neves, J. Audiovisual Translation: Subtitling for the Deaf and Hard-of-Hearing. University of Surrey-Roehampton. Tesis doctoral. Londres. 2005. [6] Kyle, J. Switched On: Deaf People’s Views on Television Subtitling. Previous Reports. 1996. [7] Sancho-Aldridge, J. y IFF Research Ltd. Good News for Deaf People: Subtitling of National News Programmes. Independent Television Commission. Londres. 1996. [8] Gutt, E. Translation and Relevance: Cognition and Context. Basil Blackwell. Oxford. 1991. [9] Lorenzo, L. Subtitling for deaf and hard of hearing children in Spain. A case study. En Matamala, A. y Orero, P. (Eds.) (2010). Listening to Subtitles: Subtitles for the Deaf and Hard of Hearing. Peter Lang, 115-138. Berna. 2010a. [10] Pereira, A. M. Criteria for elaborating subtitles for deaf and hard-of-hearing adults in Spain: Description of a c ase study. En Matamala, A. y Orero, P. (Eds.) (2010). Listening to Subtitles: Subtitles for the Deaf and Hard of Hearing. Peter Lang, 87-102. Berna. 2010. [11] Quigley, S. y Paul, P. Language and Deafness. College-Hill Press. California. 1984. [12] Myklebust, H.R. The Psychology of Deafness. Grune and Stratton. Nueva York. 1964. [13] Iran-Nejad, A., Rittenhouse, R. y Morreau, L. Metaphor and conservation in deaf and hard-of-hearing children. American Annals of the Deaf, 126, 450-453. 1981. [14] Rittenhouse, R. y Kenyon, P. Conservation and metaphor acquisition in hearing-impaired children. Some relationships with communication mode, hearing acuity, schooling and age. American Annals of the Deaf, 136, 313-320. 1991. [15] Gilbertson, M. y Kamhi, A. Novel word learning in children with hearing-impairment. Journal of Speech and Hearing Research, 38, 630-641. 1995. [16] Wolgelmuth, K., Kahmi, A. y Lee, R. Metaphor performance in children with hearing impairment language. Language, Speech & Hearing Services in Schools, 29, 216-232. 1998. [17] Johnson, D. y Myklebust, H. Learning disabilities. Educational principles and practices. Grune & Stratton Inc. Nueva York. 1967. [18] Furth, H. Pensamiento sin lenguaje: Implicancias psicológicas de la sordera. 1981. Madrid. 1973. [19] Boatner, M. y Gates, J. A dictionary of American idioms. Barron's Educational Series. Nueva York. 1975. [20] Conrad, R. From gesture to language in hearing and deaf children. Gallaudet University Press. Washington, D.C. 1979. [21] Takashi, S. Metaphor interpretation by students with hearing impairements. Japanese Journal of Special Education, 37:2, 59-69. 1999. [22] Schmitt, P. Deaf Children’s Comprehension and Production of Sentence Transformations and Verb Tenses. University of Illinois. Tesis doctoral. Illinois. 1968. [23] Thompson, H. An experimental study of the beginning reading of deaf-mutes. AMS Press. 1972. [24] Brasel, K. E. y Quigley, S. The Influence of Early Language and Communication Environments on t he Development of Language in Deaf Children. University of Illinois. Urbana, Illinois. 1975. [25] Mayoral, R., Kelly, D. y Gallardo, N. Concept of constrained translation. Non-linguistic perspectives of translation. Meta: Journal des traducteurs, 33:3. 1988. [26] Rivera, Cristina. Evaluación del lenguaje en un alumno con hipoacusia. Innovación y experiencias educativas, 13. 2008. http://www.csicsif.es/andalucia/modules/mod_ense/revista/pdf/Numero_13/CRIS TINA_RIVERA_1.pdf [27] Herrera, V., Puente, A., Alvarado, J. M. y Ardilla, A. Códigos de lectura en sordos: la dactilología y otras estrategias visuales y kinestésicas. Revista Latinoamericana de Psicología, 39:2, 269286. 2007. [28] Stockseth Danzak, R. Comprensión de la sintaxis española por lectores sordos chilenos. Revista signos, 35:51-52, 271-290. 2002. [29] Lichtenstein, Edward H. The Relationships Between Reading Processes and English Skills of Deaf College Students, Journal of Deaf Studies and Deaf Education, 3 (2), 80-134. 1998. [30] Brasel, K. E. y Quigley, S. The Influence of Early Language and Communication Environments on t he Development of Language in Deaf Children. University of Illinois. Urbana, Illinois. 1975. [31] Jensema, C., Sharkawy, S., Danturthi, R. S., Burch, R. y Hsu, D. Eye movement patterns of captioned television viewers. American Annals of the Deaf, 145:3, 275-285. 2000. [32] Independent Television Commission (ITC). Guidance on Standards for Subtitling. Ofcom. 1999. http://www.ofcom.org.uk/static/archive/itc/uploads/ITC_Guidance _on_Standards_for_Subtitling.doc [33] D’Ydewalle, G., Van Rensbergen, J. y Pollet, J. Reading a message when the same message is available auditorily in another language: The case of subtitling. Eye movements: From physiology to cognition, 313-321. 1987. [34] Pereira, A. M. y Lorenzo, L. Evaluamos la norma UNE153010. Subtitulado para personas sordas y personas con discapacidad auditiva. Subtitulado a través del teletexto. 2005. [35] De Linde, Z. y Kay, N. The Semiotics of Subtitling. St. Jerome. Manchester. 1999. [36] British Broadcasting Corporation (BBC). Online Subtitling Editorial Guidelines. 2009. http://www.bbc.co.uk/guidelines/futuremedia/accessibility/subtitli ng_guides/online_sub_editorial_guidelines_vs1_1.pdf 58 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Efficency and Optimization Study of the Subtitles for the Hard of Hearing. The Method of Pequerrecho Subtitulación Pequerrecho Subtitulación [email protected] Abstract During the last years, the offer of subtitling for the deaf and the hard of hearing increased, but the deaf community demands quality as well as quantity. Subtitles differ significantly between TV channels and s uppliers, but these services do not seem to fulfill all the expectations of the final users and are unable to extend the profile of users of this kind of subtitles, as they do not adjust sufficiently to the specific needs of the heterogeneous deaf community, being used only by a minority. This study involved a wide sample of users. Thus, it is its intention to establish rules, as well as to avoid bad practices and erroneous ideas about this special kind of subtitling, in an e ffort to homogenize this service, in order to extend its audience, and to propose new lines of research on this subject. Resumen La oferta de subtitulado para sordos ha aumentado en los últimos años, pero la comunidad sorda demanda calidad además de cantidad. Hasta el momento, el subtitulado varía mucho entre cadenas y proveedores, pero no parece cubrir las expectativas de los usuarios finales actuales y no ha c onseguido ampliar el perfil de los usuarios de este tipo de subtítulos, ya que no s e ajustan suficientemente a las necesidades específicas de la heterogénea comunidad sorda y hacen que los usuarios sigan siendo una minoría. Este estudio, realizado con una amplia muestra de usuarios, pretende fijar pautas, eliminar malas prácticas y creencias erróneas en este tipo de subtitulado y homogeneizar el servicio para ampliar su audiencia, además de proponer nuevas líneas de investigación. 1. Introduction Subtitling for deaf and hard of hearing people has been offered to users for many years, but it is now when it seems to become increasingly visible due to the legal requirements for accessibility applicable to broadcasting. However, it seems quality has actually been excessively set aside, compared to quantity. This is clearly proven by the several complaints of the different Spanish associations of deaf and hard of hearing people, as included in the records of the AMADIS 2010 and AMADIS 2012 Accessibility conferences, for example. Since the foundation of Pequerrecho Subtitulación, we decided our key principle would always be quality and our priority would not only be the client, but also the final user of our subtitles. Thus, we decided to carry out a practical study that would allow us, on the one hand, to get to know the real needs of the deaf community in general, as well as to analyze their satisfaction with the subtitles currently broadcasted; and, on the other hand, to search and check a better method which would enable us to increase the number of users of this kind of subtitles and improve their quality. As a subtitling company, we never intended to make a theoretical study, but an analysis and verification that would let us create rules and guidelines for our subtitlers and linguistic and technical checkers to follow, in order to offer a better and more homogeneous service to the final user, regardless of who takes part in each project. After extracting and checking these guidelines, we worked for two years using them in all our real projects of subtitling for the deaf, so we had the chance to improve these techniques sorting out the challenges and difficulties of professional subtitling and to verify their adaptability to different kinds of audiovisual content. 2. Practical study about the opinion of the deaf and hard of hearing users Due to its nature, any study on subtitling for the deaf should consider parameters that belong exclusively to this typology (cf. De Linde [1], 1996; Arnáiz, 2012 [2]). Thus, although some of its elements are common to other kinds of subtitles, it requires the consideration of the final user specific needs, which goes beyond the inclusion of ambience sounds. Therefore, it is essential to corroborate the efficiency of the different techniques with the user who actually needs these subtitles to understand the audiovisual production. 2.1. The workshops and the sample of users To carry out this study, we contacted different hearing professionals who communicate with deaf people every day and the FAXPG (Federation of Galician Deaf Associations), 59 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos which was very interested in our project and provided us with the sign language interpreters we needed for the workshops we organized at the Associations of Deaf People in Santiago de Compostela, Vigo, Ferrol and Ourense. The videos used at the workshops were specifically provided by the Galician public television (TVG) for this purpose. In each workshop, we asked the attendees if they usually used subtitles on TV and if they were able to read them. Then, we showed them several subtitled audiovisual contents, both in Galician and Spanish, with dialogues of different levels of speed and complexity. This way, we intended to find out the attendees' opinion about the subtitles they could find on TV and test our own subtitling method. To do that, we asked them a number of questions to generate debate and we realized they seemed to feel much more comfortable expressing their opinions and real capacities talking to other members of their own community. Thanks to these workshops, we gathered a sample of 70 deaf people between 18 and 65 years old. Among the attendees, there were sign language speakers and non-sign language speakers with very different reading capabilities, so we believe this study is a good indication of the functionality of these subtitles for the deaf community in general. 2.2. Verification of the Subtitling Method created by Pequerrecho Subtitulación The great involvement of the deaf people who took part in each of our workshops allowed us to meet our objectives in an overwhelming manner, as we could confirm that the subtitling method we have been using since then lets them read the subtitles so easily that all of them could enjoy the audiovisual production, not only those individuals who already used the subtitles available on TV, but also those who could not use them until now because they could not get to read them completely. Besides, we wanted the users to tell us whether they could find or not any apparent difference between the subtitles for deaf that are currently available on TV and those we had just shown them and the results were amazing: despite being able to read these last subtitles perfectly, they could not find any evident differences, so the methods used to ease the understanding and reading of the subtitles were not perceived by them. Furthermore, when showing the videos without audio, we realized those adaptations went unnoticed even for the sign language interpreters. Subsequently, we explained the attendees all the adaptations made in those subtitles and none of them expressed any inconvenience for those changes, as without any omission, censure or summary of information, they provided them with a better access to the content of the videos, even at points with especially fast dialogues. 3. Comparison with the UNE 153010:2012 Regulation [3] The subtitling method created by Pequerrecho Subtitulación takes the UNE 153010 Regulation of 2003 [4] as a starting point, as it was applicable in Spain when this investigation started. As we will see in subsequent sections, our method differs with the Spanish regulation about some habits and uses disapproved by the users who took part in the aforementioned workshops. Nevertheless, considering that the current Spanish applicable regulation was approved in 2012 and that it is a review of the previous regulation of 2003, the following section will show the common elements between our subtitling method and the applicable Spanish regulation. 3.1. Common elements The Spanish regulation constituted a good starting point to investigate the rules that would allow us to optimize the subtitles for the deaf. Thus, we respect the use of colors to identify the different characters considering their relevance in the story and we totally agree with placing the subtitles with dialogues in the lower central part of the screen, except when they would cover important information, in which case, we would momentarily move them to the upper central part of the screen. We use similar guidelines to divide the subtitles in two lines and accept the use of a maximum of two lines per subtitle, but not the chance to use up to three lines in exceptional situations, as a three-line subtitle would invade the screen excessively and it would be difficult to read that much text and follow the action of the video at the same time. Also, the dialogue of each character should be represented in a different line, and suspension points should never be used to indicate that a sentence does not begin or finish in a given subtitle. In fact, the grammatical and orthographical criteria of any subtitle should always be that established by the Royal Academy of the Spanish Language or its equivalent for each language, as any mistake would confuse the audience. This means the text in the subtitles should be written and punctuated just as that in any other written document. Just as the Spanish regulation establishes, the context information should be represented in brackets, in capital letters and in the same position used for the dialogues, but we will always try to avoid redundancies. We must keep in mind that the deaf spectator is paying attention to the image, so, for example, if we can clearly see a character crying or laughing, there is no need for that to be specified in the subtitle. The subtitles that indicate the sound effects, meaning the ambience sounds, not produced by any of the characters or by an unidentified character, are placed on the upper right part of the screen and expressed by nouns (for example: “cry”, “bell”, “music”). The fact of the text being on that part of the screen means it represents a sound, so it is not necessary to use expressions like “the bell rings” or “somebody knocks on the door” or to write it in brackets either. 4. Specific Needs of the Deaf User Neves (2005) [5] puts forth that subtitles should offer as much speech and acoustic information as possible, in the clearest way possible and all of that in perfect synchrony with the video and with an adequate tempo that allows reading. As long as we do not take it to the extreme of redundancy and saturation of text on screen, this statement 60 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos defines the main requirements that subtitles for deaf people should accomplish. But how can we meet these needs in an efficient, homogeneous and objective way? 4.1. Effectiveness of Literal Transcription The Spanish regulation stands up for the literalness of subtitles, specifying that no figurative meanings should be explained and that the subtitler can only decide to make an adaptation in those cases when the speed of the dialogue is fast or if the sentences are too long. Other authors defend that many users can use subtitles as a complementary help to lip reading and, if they differ, the user might get confused (cf. Kyle, 1996) [6]. However, Neves (2005) dismisses this argument, as there are few programs with visual treatments that allow an effective lip reading, which is not feasible either for dubbed programs. However, the fear to loss or censure of information, apart from political issues, caused the demand of literal transcriptions of dialogues as subtitles by some sectors of the deaf community. Considering this statement, we must keep in mind that the heterogeneous nature of the deaf community makes the use of literal transcriptions unadvisable, as stated by Arnáiz (2012) and Neves (2005) and as proven by researchers like Sancho-Aldridge and IFF Research Ltd (1996) [7], because only a minority of deaf people gets to understand them and they do not take into account the specific understanding needs of the possible users. This fact led to the utopian defense of the need of more than one kind of subtitling available depending on the reading capacity of the deaf users. This is clearly not an option considering the high costs it would imply. 4.2. Adaptation Once we have dismissed the effectiveness of literal transcriptions, we should explain what “adaptation of subtitles for deaf people” means. To do that, it is necessary to establish those aspects that pose a greater difficulty for most of the hard of hearing people. In this sense, Neves (2005) explains that the text should be directed to its final user and that subtitlers are hearing people who hardly ever have any real knowledge of the cognitive and social environment of their target audience, whether it is due to the lack of specific training or to the fact that they ignore that the users of this service do not share their own language and/or culture. Thus, it is not enough to consider which information would a hearing person need in case they suddenly could not hear anymore. It is necessary to know how deaf people process information and which are the main problems that they have to face. In this case, the subtitling method used in this study focuses on accelerating the cognitive understanding process rather than just speeding up the reading process. That is, it is not just a matter of having enough time to read the subtitles, but also to understand them. As Gutt (1991) [8] puts it, it is about providing the intended interpretation without putting the audience to unnecessary processing effort. It should be noted that, given the heterogeneous nature of the deaf community, not all the possible subtitle users have the same level of education, reading, understanding and usage of language, for example. In this sense, the subtitles for deaf people are always aimed to a very specific user profile: oralist users with a medium-high level of literacy and high reading capacities (cf. Arnáiz, 2012). This fact restricts tremendously the access of other members of the deaf community to the subtitles currently offered. Although it is true that certain users are reluctant to rephrasing of subtitles to make them more available for sign language users (cf. Lorenzo, 2010a [9]; Pereira, 2010 [10]), creating subtitles just for the elite of this community discriminates against all the other members of such community. Adaptation should never include any kind of omission, summary, censure or alteration of information nor any sort of vocabulary simplification, so that the users who already have access to the current subtitling services on TV would also take advantage of this method, as it guarantees a better quality in subtitles, thanks to a greater attention to detail, to the different guidelines followed to ease reading and understanding and to a thorough checking process. 4.2.1. Interpretation of figurative meanings and metaphors. As we can draw from authors like Quigley and Paul (1984) [11], deaf children lack a base of substantial knowledge as well as inferential skills and understanding of figurative language, and they often have problems too with other linguistic skills which develop automatically in hearing children. This does not mean deaf children are less intelligent than hearing children, just that they start learning reading with less developed language understanding skills, due to cognitive, linguistic and experience deficits. In the article Myklebust wrote in 1964 [12], it is stated that deaf people have problems to understand abstract ideas and there is also an extensive bibliography about their troubles to understand metaphors (cf. Iran-Nejad, Rittenhouse and Morreau, 1981 [13]; Rittenhouse and Kenyon, 1991 [14]; Gilbertson and Kahmi, 1995 [15]; Wolgelmuth, Kahmi and Lee, 1998 [16]). ). In fact, deaf subjects tend to understand metaphors in a literal way (cf. Johnson and Myklebust, 1967 [17]; Furth, 1973 [18]; Boatner and Gates, 1975 [19]; Conrad, 1979 [20]; Takashi, 1999 [21]). Thus, for example, if our feet hurt because we have walked for a long time and we say, “My feet are killing me!”, it could be literally understood as “I’m going to die because of my feet”, instead of, “My feet hurt really bad”. Therefore, in order to try to understand these metaphors and figurative meanings, the user must make a greater effort and waste more time than available when watching a subtitled audiovisual production, so it is necessary to substitute this kind of expressions for their literal meaning, always keeping the nuances and the tone of the original script. 4.2.2. Complex syntactic structures. Schmitt (1968) [22] states that most of the reading problems of deaf people are due to the fact that their internalized linguistic structures are different to those used in the oral language and, according to Thompson (1927) [23] and Brasel and Quigley (1975) [24], these problems are particularly relevant in the case of people with prelingual deafness. Among the elements that constitute a complex structure are relative clauses, passive voices and complements (cf. Neves, 2005). Consequently, whenever possible, we will try to simplify those complex structures trying to make that adaptation in the less traumatic way, without summarizing or changing information. It is also necessary to keep, at all 61 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos times, the coherence and cohesion of the text itself and of the text with the video (cf. Mayoral, Kelly and Gallardo, 1988 [25]). This will ease the process of reading and understanding the subtitles as it avoids confusions that would make the spectator lose concentration and, therefore, waste time. 4.2.3. Conjugated verbs. For all those people who work regularly with deaf and hard of hearing people, particularly as language teachers or sign language interpreters, it is well known that most members of the deaf community have problems to understand verb tenses and deduce the elliptical subject out of the verb (a usual feature of Spanish language). This is clearly documented by several empirical studies (cf. Rivera, 2008 [26]; Herrera, Puente, Alvarado and Ardilla, 2007 [27]). Stockseth (2002) [28] affirms the deficit in understanding of verb tenses shown by deaf subjects could be explained by the lack of codification of those functional morphemes, particularly because of their position at the end of the word. In fact, this phenomenon is also present to a gr eater or lesser extent in other languages, as proven by the study of Liechtenstein (1998) [29], where subjects did not codify the gerund morpheme “-ing” of the present continuous tense in English. This author also states that some of the subjects in that study even admitted they did not pronounce the end of some words when speaking. To overcome this difficulty, we will use, whenever possible, simple verbal tenses and we will always specify the subject in the sentence (which is often omitted in Spanish). It should be remembered that all these techniques are aimed to speed up the comprehension processes and, therefore, even if they imply the use of more characters, the time needed to read and understand the subtitles will be reduced. This would not be a problem either if we start taking advantage of the possibilities the DTT offers in terms of subtitle broadcasting, which allows us to use more characters (up to 42 per line in exceptional cases) and to omit the black box that covers part of the image on the screen. The letters can be perfectly differenced from the colors on the screen thanks to a black outline which is already being used by many TV channels. 4.2.4. Third-person pronouns. There are many studies that point out the problems of deaf people with pronominalization (cf. Quigley and Paul, 1984 [30]). The first-person and second-person pronouns are easier to identify, but both singular and plural third-person pronouns can be a further difficulty, partially, because of the influence of sign language. When using sign language, people are identified by their own name. If, suddenly, instead of saying “John”, we refer to the same person as “he”, it might be understood as a reference to somebody else, somebody the deaf person does not know yet but, definitely, not John. As we could verify in our investigation, the use of the person's name instead of a singular or plural third-person pronoun allows a comfortable reading of the subtitles by deaf people who usually cannot use them. 5. Technical aspects to ease reading Besides all these adaptations focused on accelerating the comprehension of the text in the subtitles by a greater number of deaf users, there are also techniques we can adopt to speed up the process of reading and finding subtitles on screen, and this not only for deaf and hard of hearing people, but also for users of interlinguistic subtitles. Time spent reading subtitles increases proportionally with the speed of the subtitles’ ins and outs and the audience gives priority to the text, so they stop paying attention to the action in the video (Jensema, Skarkawy, Danturthi, Burch and Hsu, 2000 [31]). Thus, subtitles should be created in such a way that they can be comfortably read while paying attention to the video. 5.1. Synchrony and time on screen According to the Spanish Regulation UNE 153010:2012, the appearance and disappearance of the subtitles on screen should coincide with lip movement, time cuts and voice or audio information. Besides, the ITC standards (1999) [32] establish that the time cuts usually reflect the beginning or the end of a speech and, therefore, the subtitler should try to insert the subtitle in a time shot when it is in synchrony with the speaker. Neves (2005) agrees and observes that the subtitles of productions with several time cuts will have a faster tempo and will require a greater effort both by the spectator and the subtitler. However, quotidian practice and experience with different types of productions and, therefore, with several methods of scene treatment, allowed us to verify that this rule about the time cuts often goes against the legibility of the subtitles. First, we must consider the fact that the voice does not always respect time cuts, so we cannot follow these indications unquestioningly to the point of leaving out information. On top of that, even if the voice disappears with the time cut, if we take the subtitle out of the screen before it can be read, it is useless, as it does not accomplish its purpose, producing anxiety and confusion. Thus, the time cut is a secondary aspect in our synchronization method. The subtitle should appear on screen coinciding with the exact moment when the voice starts, but it should stay on screen a bit longer than the voice in order to guarantee reading. In addition, we must get the audience used to a comfortable rhythm of appearance and disappearance of the subtitles, so it is necessary to establish a minimum timeframe between the end of a subtitle and the beginning of the next one. Also, even if a subtitle is short, the minimum time of exposition on screen should be one second. We should also take into account that not every word requires the same time to be read: even with the same number of characters, words that are more commonly used are read faster than, for example, technical terms or proper names. 5.2. Preferential use of two lines Some authors (D’Ydewalle, Van Rensbergen and Pollet, 1987 [33]) prefer the use of two lines per subtitle because the audience wastes less time shifting their look from the subtitles to the image and viceversa and this increases the amount of time available to read. The subtitling method of Pequerrecho Subtitulación also prefers the use of two lines 62 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos per subtitle, even if the total number of characters allows the use of just one. This way, the text is more centered and, considering that the action of the audiovisual production is usually shown at the center of the screen, the eyes will have to move a shorter distance to find the text and go back to the image compared with those productions with long, one-line subtitles, which make us constantly go from one extreme of the screen to the other. In addition, in this investigation, we have confirmed that this technique allows us to significantly reduce the reading time in comparison to those subtitles with one single line, because the audience can also find the subtitles faster when they are as centered as possible. Jensema et al. (2000) prove in their study that the general tendency is to always look at the center, then to find the beginning of the subtitle and, after reading it, to look at the image again until the appearance of the next subtitle on screen. If we get to reduce the reading speed needed and place the information at the center, as close to the action as possible without overlapping it, we will also help the audience to read the subtitles more comfortably, so that they have enough time to follow the image and, therefore, enjoy the audiovisual production. 5.3. Use of hyphen Neves (2005) explains that, in Spain, there is an incoherent use of punctuation marks to identify different speakers and that each TV channel seems to apply its own rules. This author suggests that subtitles should use the same punctuation conventions used for any other kind of written text, just as it happens in countries like Portugal, as a means of easing the reading of the dialogues. The attendees to our workshops corroborated this statement, as they suggested the hyphen should be used just like in any other kind of text. Thus, the method of Pequerrecho Subtitulación uses the hyphen (always followed by a blank space, which allows a faster identification of the next word) in both lines when two characters speak in the same subtitle, regardless of the color assigned to each character. 6. Ineffective attempts adaptation There are many studies and regulations that propose different types of adaptation. Here, we mention some of those that we had the chance to check during this investigation and that were rejected by the sample of users taking part in this study. 6.1. Indication of voice nuances To indicate those features that conform the way a character speaks or the tone of their voice, if considered necessary, the current Spanish regulation suggests that this clarification should be made in capital letters and in brackets sharing the same position of the dialogue. For example: “(STUTTERS)”, “(WHISPERS)”, “(IRONIC)”... This study fully agrees with the Spanish regulation in this aspect, but here we include those cases when it is necessary to indicate that a voice comes from off screen, instead of using italics, as it always takes a little longer to read them. 6.1.1. Emoticons. This technique, recommended by the previous Spanish regulation and other authors (cf. Pereira and Lorenzo, 2005 [34]), seems to be too subjective, as Neves (2005) confirms, explaining the different uses of the same emoticons in different countries. Also, emoticons require further interpretation by the users of the subtitles and this translates into more time to understand the subtitles. 6.1.2. Line breaks and literal representations. De Linde and Kay (1999) [35] suggest that sarcasm or irony should be represented by (!) and (?) at the end of the subtitle. This option was discarded, just as other similar proposals, because its use in written language is not common and its meaning is very little known. Thus, users would also need to decipher it. We also exclude the technique of De Linde and Kay (1999) about the use of line breaks combined with suspension points at the end of the first line and the beginning of the second line to indicate hesitation pauses (cf. Pereira et al. 2005) because of its subjectivity. In fact, the users who took part in the study rejected any use of signs or symbols in subtitles that might differ from the uses specified by the Royal Academy of the Spanish Language, as this kind of special use would require a previous explanation of its interpretation so that the average user can understand the text. Thus, the use of # to represent songs and the use of an image of a musical note are excluded, as this last option is not recognized by most software used to broadcast subtitles. This is also applicable to the orthotypographical representation of stutter (for example, “B-b-b-but you don’t k-k-k-know that”), suggested by the previous Spanish regulation and also by other regulations and studies (cf. BBC, 2009 [36]; Pereira et al., 2005), as it confuses the audience and slows down the reading process. 6.2. Abbreviation The applicable Spanish regulation accepts the use of abbreviations in the characters' identification tags. Once again, a deductive process is required to identify the abbreviation with the complete name of the character every time it appears on screen. This would confuse the audience and make them waste time. Besides, if, for any reason, the spectator cannot see the beginning of the video or does not see the tag that identifies the name of the character with the abbreviation, the understanding of the subtitles would be even more difficult. 7. The relevance of checking In addition to all the above mentioned, many of the mistakes found in professional subtitling are due to a lack of checking. Therefore, it is easy to find spelling, grammatical and punctuation errors, as well as errata, lack of coherence in color assignation, subtitles omitted... Many of these mistakes can be avoided if a professional other than the subtitler exhaustively checks the work. In our case, Pequerrecho Subtitulación has three different people working in each project: a subtitler, a language checker and a technical checker. Besides the aforementioned lack of checking, some of these mistakes and inaccuracies regarding the regulations of the Royal Academy of the Spanish Language are deliberate. 63 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos This is the case of the use of suspension points by some TV channels to show that a sentence does not start or finish in a given subtitle or the use of interrogation and exclamation marks only at the end of a sentence, which is an absolutely wrong use in Spanish. We also advise against the use of brackets for the text of the dialogue; in the cases where the use of brackets would be required, it is better to use commas or even rephrase the sentence. Synchronization mistakes are very common and due to different causes. Sometimes, they are a consequence of the carelessness of the subtitler and they could be sorted out by simply paying more attention and by doing a careful checking. In some other cases, they are caused by technical problems occurred during the subtitle broadcasting or by the fact of the video used by the subtitler being different from the broadcasted video. 8. Future lines of research Considering the results of this study and the fantastic willingness of the deaf people who took part in it, Pequerrecho Subtitulación will go on organizing this kind of workshops to evaluate subtitles and search for new formulas to optimize our service with adaptations like those mentioned above. Additionally, we intend to quantify more precisely the percentage of members of the deaf community who can use subtitles with the method of Pequerrecho Subtitulación and to find out more about their specific needs, because, undoubtedly, this information will also contribute to increase the range of our possible target audience. Regarding the adaptation of subtitles, we believe it would be interesting to study in depth the understanding of metaphors and figurative language, as well as the pronominalization of direct and indirect objects. Syntactic structures may present an interesting challenge, just as the investigation of Stockseth (2002) confirms, showing that the order of the parts of a sentence itself can be a relevant obstacle to understand it correctly. As for the technical aspect, it would be beneficial for this sector to analyze the adequacy of the subtitle broadcasting software and to suggest some upgrades so that it allows the use of certain symbols or the overlapping of subtitles with no need for them to appear on screen at the same time, which is sometimes necessary to indicate dialogue and ambience sounds at the same time, for example. 9. Conclusions This study provided us with very relevant information about the needs of the final users of subtitles for deaf people, which allowed us to offer this service to subjects who cannot usually use them. To do this, we make an adaptation that is much less traumatic than it may seem a priori, which is evidenced by the unanimous approval of these measures by the attendees to the workshops, regardless of whether they already used subtitles regularly or not. It must be remembered that the subtitling method of Pequerrecho Subtitulación does not include or accept any kind of simplification of vocabulary, modification of the register, omission of information or censure. We simply ease the access to the audiovisual work using techniques that contribute to speed up the cognitive understanding process and that help to make reading more comfortable and faster so that the user can enjoy the production, while paying attention to the image at the same time. As well as confirming the efficiency of this method, we have also created internal guidelines and regulations that allow us to homogenize all our projects, despite of the fact that they are made by different subtitlers and that all the projects go through both language and technical checking processes, carried out by professionals other than the subtitler. The attendees to our workshops were not only unanimous in accepting our subtitling method, but also in rejecting any use of symbols and punctuation marks different to that established by the Royal Academy of the Spanish Language. In fact, they even told us several times that they did not understand why they had to learn a linguistic regulation to read and write and another one to understand subtitles. The logical choice, then, would be to always use the official regulations for each language. This demand of compliance with the established guidelines includes grammatical and orthographical correction, coherence in the assignment of colors, etc. That is because any infraction of these established guidelines can cause confusion, slow down the reading and understanding processes and also produce mistrust in the accuracy of all the subtitles. This requires the implantation of a working system that includes the aforementioned checking processes made by professionals other than the subtitler, as there is no doubt that a single person cannot provide enough quality guarantees. The results thrown by this study set out many interesting possible fields of future research that might identify new formulas to optimize subtitling. Besides, it would be a significant step to improve the quality, uniformity, regulation and objectivization of subtitles for deaf people, as well as to achieve an important extension of the number of users that might benefit from subtitling. Finally, we would like to thank the CESYA (Spanish Center for Subtitling and Audio Description) for their orientation and help to have this study published, as well as for their ceaseless work in favor of deaf and blind people. 10. Bibliography [1] De Linde, Z. Le sous titrage intralinguistique pour les sourds et les malentendants. In Gambier, Y. (Ed.). (1996). Les transferts linguistiques dans les medias audiovisuelles. Presses Universitaires du Septentrion. Paris. 1996. [2] Arnáiz, V. Los parámetros que identifican el subtitulado para sordos. Análisis y clasificación. Monti: Monografías de traducción e interpretación, 4, 103-132. 2012. [3] Asociación Española de Normalización y Certificación (AENOR). Norma Española UNE 153010. Subtitulado para personas sordas y personas con discapacidad auditiva. AENOR. Madrid. 2012. [4] Asociación Española de Normalización y Certificación (AENOR). Norma Española UNE 153010. Subtitulado para personas sordas y personas con discapacidad auditiva. Subtitulado a través del teletexto. AENOR. Madrid. 2003. [5] Neves, J. Audiovisual Translation: Subtitling for the Deaf and Hard-of-Hearing. University of Surrey-Roehampton. PhD Thesis. London. 2005. [6] Kyle, J. Switched On: Deaf People’s Views on Television Subtitling. Previous Reports. 1996. 64 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos [7] Sancho-Aldridge, J. and IFF Research Ltd. Good News for Deaf People: Subtitling of National News Programmes. Independent Television Commission. London. 1996. [8] Gutt, E. Translation and Relevance: Cognition and Context. Basil Blackwell. Oxford. 1991. [9] Lorenzo, L. Subtitling for deaf and hard of hearing children in Spain. A case study. In Matamala, A. and Orero, P. (Eds.) (2010). Listening to Subtitles: Subtitles for the Deaf and Hard of Hearing. Peter Lang, 115-138. Bern. 2010a. [10] Pereira, A. M. Criteria for elaborating subtitles for deaf and hard-of-hearing adults in Spain: Description of a case study. In Matamala, A. and Orero, P. (Eds.) (2010). Listening to Subtitles: Subtitles for the Deaf and Hard of Hearing. Peter Lang, 87-102. Bern. 2010. [11] Quigley, S. and Paul, P. Language and Deafness. College-Hill Press. California. 1984. [12] Myklebust, H.R. The Psychology of Deafness. Grune and Stratton. New York. 1964. [13] Iran-Nejad, A., Rittenhouse, R. and Morreau, L. Metaphor and conservation in deaf and hard-of-hearing children. American Annals of the Deaf, 126, 450-453. 1981. [14] Rittenhouse, R. and Kenyon, P. Conservation and metaphor acquisition in hearing-impaired children. Some relationships with communication mode, hearing acuity, schooling and age. American Annals of the Deaf, 136, 313-320. 1991. [15] Gilbertson, M. and Kamhi, A. Novel word learning in children with hearing-impairment. Journal of Speech and Hearing Research, 38, 630-641. 1995. [16] Wolgelmuth, K., Kahmi, A. and Lee, R. Metaphor performance in children with hearing impairment language. Language, Speech & Hearing Services in Schools, 29, 216-232. 1998. [17] Johnson, D. and Myklebust, H. Learning disabilities. Educational principles and practices. Grune & Stratton Inc. New York. 1967. [18] Furth, H. Pensamiento sin lenguaje: Implicancias psicológicas de la sordera. 1981. Madrid. 1973. [19] Boatner, M. and Gates, J. A dictionary of American idioms. Barron's Educational Series. New York. 1975. [20] Conrad, R. From gesture to language in hearing and deaf children. Gallaudet University Press. Washington, D.C. 1979. [21] Takashi, S. Metaphor interpretation by students with hearing impairments. Japanese Journal of Special Education, 37:2, 59-69. 1999. [22] Schmitt, P. Deaf Children’s Comprehension and Production of Sentence Transformations and Verb Tenses. University of Illinois. PhD Thesis. Illinois. 1968. [23] Thompson, H. An experimental study of the beginning reading of deaf-mutes. AMS Press. 1972. [24] Brasel, K. E. and Quigley, S. The Influence of Early Language and Communication Environments on the Development of Language in Deaf Children. University of Illinois. Urbana, Illinois. 1975. [25] Mayoral, R., Kelly, D. and Gallardo, N. Concept of constrained translation. Non-linguistic perspectives of translation. Meta: Journal des traducteurs, 33:3. 1988. [26] Rivera, Cristina. Evaluación del lenguaje en un alumno con hipoacusia. Innovación y experiencias educativas, 13. 2008. http://www.csicsif.es/andalucia/modules/mod_ense/revista/pdf/Numero_13/CRIS TINA_RIVERA_1.pdf [27] Herrera, V., Puente, A., Alvarado, J. M. and Ardilla, A. Códigos de lectura en sordos: la dactilología y otras estrategias visuales y kinestésicas. Revista Latinoamericana de Psicología, 39:2, 269-286. 2007. [28] Stockseth Danzak, R. Comprensión de la sintaxis española por lectores sordos chilenos. Revista signos, 35:51-52, 271-290. 2002. [29] Lichtenstein, Edward H. The Relationships Between Reading Processes and English Skills of Deaf College Students, Journal of Deaf Studies and Deaf Education, 3 (2), 80-134. 1998. [30] Brasel, K. E. and Quigley, S. The Influence of Early Language and Communication Environments on the Development of Language in Deaf Children. University of Illinois. Urbana, Illinois. 1975. [31] Jensema, C., Sharkawy, S., Danturthi, R. S., Burch, R. and Hsu, D. Eye movement patterns of captioned television viewers. American Annals of the Deaf, 145:3, 275-285. 2000. [32] Independent Television Commission (ITC). Guidance on Standards for Subtitling. Ofcom. 1999. http://www.ofcom.org.uk/static/archive/itc/uploads/ITC_Guidance _on_Standards_for_Subtitling.doc [33] D’Ydewalle, G., Van Rensbergen, J. and Pollet, J. Reading a message when the same message is available auditorily in another language: The case of subtitling. Eye movements: From physiology to cognition, 313-321. 1987. [34] Pereira, A. M. and Lorenzo, L. Evaluamos la norma UNE153010. Subtitulado para personas sordas y personas con discapacidad auditiva. Subtitulado a través del teletexto. 2005. [35] De Linde, Z. and Kay, N. The Semiotics of Subtitling. St. Jerome. Manchester. 1999. [36] British Broadcasting Corporation (BBC). Online Subtitling Editorial Guidelines. 2009. http://www.bbc.co.uk/guidelines/futuremedia/accessibility/subtitli ng_guides/online_sub_editorial_guidelines_vs1_1.pdf 65 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Desarrollo e implementación de un Proceso de evaluación de conductores con movilidad reducida en miembros superiores para el manejo de vehículos automóviles Juan C. Chicote Fundosa Accesibilidad S. A. Vía Libre jcchicote.accesibilidad@funda ciononce.es Manuel Romero Caradap S. L. mromero.caradap@fundaciono nce.e Resumen El presente artículo muestra el desarrollo e implementación de un proceso de evaluación de conductores con movilidad reducida en sus miembros superiores, dividido en dos bloques: por una parte, la medición de la capacidad funcional en un e valuador experimental, y por otra, la evaluación de la capacidad de conducción realizada en un vehículo real. El evaluador experimental desarrollado en este proyecto se denomina J4D “Joystick-for-Driving”, y consiste en una herramienta experimental, modular, transportable y adaptativa que permite realizar la valoración funcional del manejo y control de vehículos a motor por parte de usuarios que van a conducir desde su silla de ruedas. La segunda etapa del proceso consiste en la realización de una serie de pruebas prácticas de conducción con un vehículo real en un circuito cerrado, y con el vehículo en movimiento, donde se tratan de reproducir las condiciones de circulación más próximas a la realidad. Abstract This paper shows the development and implementation of a procedure for the driving assessment of people with reduced mobility in its upper members, which is divided into two major phases: on t he one hand, the fitness to drive assessment in an e xperimental tool, and by the other hand the drive ability assessment in a real vehicle. The evaluator developed in this project is known as J4D Joystick-fordriving, and consists of an experimental tool, transportable, modular and adaptive that allows the driving assessment of people who are going to drive motor vehicles without leaving their wheelchair. The second step of the procedure is based in the realization of a s eries of practical driving tests with a real vehicle in a closed circuit, where they try to reproduce conditions of car movement closer to the reality. 1. Introducción Juan F. Dols Universidad Politécnica de Valencia [email protected] El concepto de Persona con Movilidad Reducida (PMR)[1] incluye a un colectivo muy heterogéneo, en el que se incluyen las personas que se desplazan en silla de ruedas, personas con discapacidad sensorial (visión, audición), personas con enfermedades cardíacas o respiratorias, o con alguna enfermedad que le impida un desplazamiento normal (artritis, alergias, etc.), personas mayores, personas con alguna pérdida de movilidad temporal (con miembros escayolados y usando muletas, personas portadoras de carros de bebé, etc.). En el presente trabajo el concepto se circunscribe a personas con movilidad reducida en sus extremidades, por ejemplo, personas con tetraplejia. En España según la encuesta sobre discapacidad, autonomía personal y situaciones de dependencia (EDAD) [2] Hay 448.400 personas que presentan problemas en la conducción, o el 1,06% de la población. De esta forma, el presente artículo propone un modo de evaluar la capacidad de conducción de candidatos a conductor con movilidad reducida mediante una herramienta diseñada para el colectivo objeto de estudio. Igualmente, dicho artefacto ha sido diseñado con funciones de entrenamiento y rehabilitación funcional, complementando a la prueba práctica en un vehículo automóvil. 2. Estado del arte Un interfaz de control para el manejo del vehículo automóvil son los denominados joystick, los cuales presentan varias configuraciones, pudiendo con un único dispositivo manejar la dirección, aceleración y frenado, al igual que funciones auxiliares (apertura de puertas, encendido, luces, etc.) [3]. Por otro lado, el marco legal que establece los requisitos para obtener o renovar el permiso de conducir en España a los candidatos a conductor es el Reglamento General de Conductores (RGC) [4], destacando la aptitud psicofísica, los conocimientos teóricos, así como las aptitudes y 66 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos comportamientos prácticos como condiciones necesarias y suficientes para obtener dicha licencia. La obtención y renovación del permiso de conducción para personas con discapacidad física ha sido analizada en varias iniciativas[5] [6]. 3. Proceso de evaluación de candidatos a conductor con movilidad reducida El presente proceso se divide en dos bloques: Por una parte, la evaluación de la capacidad funcional en un evaluador experimental, y por otra, la evaluación de la capacidad de conducción realizada en un v ehículo real. El primer bloque utiliza el simulador de conducción, denominado “Joystick-for-driving” (J4d) para el tratamiento de la información inicial (anamnesis del conductor), seguido de una configuración a medida del usuario. Posteriormente, se realizan una batería de simulaciones de conducción. la autoescuela, realizando posteriormente su examen práctico según el procedimiento legal establecido. 4. Conclusiones En el presente artículo se muestra un proceso de evaluación de candidatos a conductor con movilidad reducida en sus extremidades superiores, que, dividido en dos grandes etapas, permite evaluar por una parte, la capacidad funcional en un evaluador experimental, y por otra, la evaluación de la capacidad de conducción realizada en un vehículo real. La herramienta experimental denominada J4D Joystickfor-Driving (Simulador para la valoración de la capacidad de conducción con Joystick en conductores con movilidad reducida), permite la valoración de la capacidad funcional, así como habilitar al candidato en el manejo de interfaces mecánicos y la coordinación visual, siendo las dimensiones de entrenamiento y rehabilitación físicas y neurológicas aspectos positivos del uso de la herramienta. De ulteriores pruebas con usuarios y técnicos en rehabilitación se derivarán futuras versiones y mejoras del proceso que permitan optimizar tanto el propio procedimiento como la prueba de concepto desarrollada. 5. Referencias Foto 1. Simulador de conducción J4D. El resultado de esta evaluación inicial permite la determinación de la tipología de productos de apoyo (Joystick, mini volante) más adecuada al tipo de conductor, así como la ubicación espacial que deben tener éstos mandos en el puesto de conducción. La segunda fase del procedimiento consiste en la realización de una serie de pruebas prácticas de conducción en un circuito cerrado. Atendiendo al diseño de la adaptación del vehículo automóvil los puntos a verificar básicos son la autonomía en la entrada y salida del vehículo, la utilización de los sistemas de retención (cinturón de seguridad y anclaje de la silla de ruedas), control de los mandos de conducción primarios: acelerador, frenos y la dirección) y mandos secundarios: indicador de la dirección, bocina, elevalunas, luces, limpia y lavaparabrisas, etc., así como garantizar la estabilidad del tronco del conductor. Esta segunda etapa de evaluación permite, ya con el vehículo en movimiento, la realización de una batería de pruebas prácticas en circuito cerrado que, atendiendo a las recomendaciones y exigencias que establece la normativa vigente sobre obtención del permiso de conducir, tratarán de reproducir condiciones de circulación lo más próximas a la realidad. Una vez superado el proceso de evaluación descrito, el candidato a conductor ya dispone del vehículo y los productos de apoyo perfectamente definidos, para poder iniciar el procedimiento de aprendizaje y entrenamiento en REGLAMENTO (CE) No 1107/2006 DEL [1] PARLAMENTO EUROPEO Y DEL CONSEJO de 5 de julio de 2006 sobre los derechos de las personas con discapacidad o movilidad reducida en el transporte aéreo. Diario Oficial de la Unión Europea. (2006). Bruselas, Bélgica. [2] INE. Encuesta sobre Discapacidad, Autonomía Personal y situaciones de Dependencia (EDAD). Metodología. Instituto Nacional de Estadística. (2008). Madrid, España. [3] Peters, B & Östlund J. “Joystick Controlled Driving for Drivers with Disabilities. A Driving Simulator Experiment. Technical Report”. Swedish National Road and Transport Research Institute. 2005. [4] Real Decreto 818/09, de 8 de Mayo de 2009, por el que se aprueba el Reglamento General de Conductores. BOE nº 138, de 8 de Junio. 5] Hekstra, A. (Coord). Quavadis project. Quality and use aspects of vehicle adaptation for disabled. Final Report. Contrat Nr: B2000 ITREN. 2003. 6] Peters, B., Falkmer, T., Bekiaris, A. & Sommer, S: CONSENSUS – Networking in the European Union for assessment of fitness to drive for drivers with disabilities. TRANSED 2004. Hamamatsu, Japan. 67 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Agradecimientos La investigación descrita en este artículo ha sido promovida y financiada por la Fundación ONCE para la cooperación e inclusión de personas con discapacidad, bajo la dirección de D. Jesús Hernández Galán Ph.D., Director de Accesibilidad Universal. (http://www.fundaciononce.es/ES/AmbitosActuacion/Acces ibilidad/Paginas/Inicio.aspx). Fundación ONCE no se responsabiliza de las opiniones expresadas por los autores en este artículo.” 68 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos INTERAGAMES: Control accesible de videojuegos para Xbox 360, PS3, Wii y PC. David Conde1, Raúl Suárez1, Gemma Hornero1, Marcos Quílez1, Sergio Domingo2, Maria Rodríguez2, Borja Romero2, Oscar Casas1 1 Grupo de Instrumentación, sensores e interfaces. EETAC. UPC 2 B&J adaptaciones [email protected], [email protected], [email protected] Resumen Este trabajo presenta una nue va plataforma de interacción de usuarios con discapacidad con los juegos de las principales videoconsolas comerciales. El sistema diseñado habilita el acceso a l as diferentes plataformas existentes en el mercado (Xbox 360, PS3, Wii y PC) y a cualquier juego, a personas que antes no podían plantearse jugar, mejorando sus perspectivas de ocio. El usuario no tiene que aprender a utilizar un nuevo dispositivo específico, sino que podrá seguir utilizando los ratones o joysticks adaptados que normalmente usa para acceder al ordenador o para controlar el entorno. Además, el sistema admite el uso añadido de mandos que puedan accionarse con diferentes partes del cuerpo, así como la selección de acciones mediante pulsación o bar rido. La adaptación de los mandos y joysticks se ve complementada con el diseño de software personalizable para cada usuario y juego. Éste permite la implementación de macros para asignar una serie de combinaciones o secuencias de teclas a los botones de los controladores de entrada, facilitando el acceso a las acciones más complicadas de los videojuegos. allows the implementation of macros to assign a combination or a fast sequence of buttons by pressing only to one button, providing the access to the more complicated videogames actions. The result is a device for people with disabilities to enjoy alone or with friends of the current videogames in the market. 1. Introducción Los videojuegos se han convertido en una parte muy importante de la cultura y de la sociedad actual, siendo una de las formas de ocio preferidas. Tradicionalmente han sido vistos como un tipo de entretenimiento exclusivo para personas jóvenes, pero esta concepción ha ido cambiando a lo largo del tiempo [1]. El resultado es un di spositivo para que las personas con discapacidad puedan disfrutar solas o c on sus amigos de los videojuegos más actuales del mercado. Según diversos estudios recopilados por Naciones Unidas en 2004, entre un 10 % y un 20 % de la población mundial son personas con algún tipo de discapacidad [2]. De éstas, un número importante agrupa a personas con problemas cognitivos o de motricidad que impiden su acceso directo a la mayoría de los videojuegos comerciales. This paper presents a ne w interface platform between users with disabilities and the major games of the main commercial videogames platforms. The designed system enables the access to the different platforms on the market (Xbox 360, PS3, Wii and P C) and to any game, to the people who previously couldn’t play, improving their entertainment prospects. The user doesn’t have to learn how to use a new specific device, because they can still use the adapted mice or joysticks they usually use to access the computer or to control the environment. In addition, the system supports the added use of controllers which can be handled with different parts of the body as well as actions selected by pressing or by sweeping. The adaptation of the controllers and joysticks are complemented with the design of customizable software for each user and game. This Jugar a videojuegos puede ser una actividad de alto valor para las personas con discapacidad y personas mayores. Más allá del puro entretenimiento, puede mejorar el rendimiento cognitivo, puede ayudar a la rehabilitación de pacientes que han sufrido un ictus, la rehabilitación de determinadas funciones en el caso de pacientes con daño cerebral adquirido [3][4][5], etc. Por ejemplo, en Canadá, la clínica de Rehabilitación Glenrose [6] está usando la consola Wii (con el juego Wii Sports) como ayuda en terapias de rehabilitación de hemiplejías; en el año 2003, IBM patentó un sistema de permitía el entrenamiento y rehabilitación física utilizando los videojuegos existentes [7], y en el año 2009 se patentó una aplicación que utilizaba los videojuegos para realizar terapia física y ocupacional, a Abstract 69 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos la vez que medía los movimientos motores y se utilizaba como elemento de rehabilitación cognitiva [8]. acceso de las personas con discapacidad a toda la oferta de juegos. El objetivo principal de este proyecto es desarrollar nuevos modelos de interacción con videojuegos comerciales de las videoconsolas Xbox360, PS3, Wii y juegos para PC a través del desarrollo de un sistema de acceso universal basado en hardware y personalizable según las necesidades del usuario, para mejorar las perspectivas de ocio de personas con diversidad funcional. 2. Desarrollo de periféricos específicos adaptados que permiten el acceso a determinadas consolas y videojuegos pero con severas limitaciones (modificación hardware). La solución planteada habilitará el acceso a los videojuegos comerciales a personas que antes no podían plantearse jugar, con una solución asequible económicamente, no invasiva, fiable y escalable. El usuario no tendrá que aprender a utilizar un nuevo dispositivo específico para jugar, sino que podrá seguir utilizando los ratones adaptados que normalmente utiliza para acceder al ordenador, o bien diferentes mandos que pueda accionar con diferentes partes del cuerpo y seleccionar acciones mediante barrido, para disfrutar solo o con sus compañeros de juego de gran parte de los videojuegos más actuales del mercado. El sistema propuesto no está planteado para habilitar el acceso a videojuegos basados en sensores de movimiento de las consolas Wii, Xbox 360 y PS3 y que no necesitan que el usuario utilice los mandos de control tradicionales. El sistema que planteamos en sí mismo es una alternativa a estos mandos, y no contempla el desarrollo de programas específicos en el campo de la visión artificial y el tratamiento de imágenes en tiempo real, como sería el caso de un proyecto que habilitase el acceso a videojuegos basados en sensores de movimiento. Gran parte del público objetivo de nuestro proyecto (sobre todo en casos de parálisis cerebral) realiza movimientos “espásticos” (movimientos bruscos incontrolados) y a cambio posee una relativamente buena motricidad fina siendo capaz de utilizar determinados tipos de ratones y conmutadores sin problemas. Por otro lado, a pesar del lanzamiento de videojuegos basados en sensores de movimiento, todavía existe una larga lista de videojuegos de las plataformas Wii, Xbox 360 y PS3 disponibles en Europa que utilizan los mandos tradicionales de control que proporcionan estas consolas. 2. Estado del arte Hasta ahora, la superación del acceso a videojuegos para personas con discapacidad ha contemplado dos posibles soluciones: 1. Desarrollo de videojuegos específicos para la rehabilitación física y/o cognitiva de personas con discapacidad (modificación software). Aunque es una solución muy atractiva y ha presentado resultados muy positivos, aumenta el coste de los desarrollos y limita el En paralelo a estos desarrollos en los últimos años han aparecido adaptaciones mecánicas de mandos de videojuegos basadas en el movimiento natural. Es el caso, entre otras, de Wii o Kinect. Estas nuevas interfaces han permitido el desarrollo, por ejemplo, de soluciones en rehabilitación o comunicación pero quedan muy limitadas en el caso de personas con discapacidad severa, debido a la propia naturaleza del control de estos juegos. Actualmente existen dos alternativas comerciales en el desarrollo de periféricos específicos adaptados: a) El acceso al ordenador como forma de acceso al videojuego. En este caso, se pueden encontrar dispositivos de acceso como joysticks, ratones de bola, sistemas de seguimiento de la cabeza o la mirada… (figura 1). Todos estos sistemas ofrecen un método eficiente de acceso a las funciones del ratón de un ordenador. Sin embargo, mayoritariamente se limita su uso a los juegos “no dependientes del tiempo”, por ejemplo juegos de ajedrez, estrategia por turnos, etc. Quedando excluidos de esta lista los juegos más complejos que necesitan el uso rápido de combinaciones de teclas. Figura 1. Solución de acceso al ordenador b) Mandos específicos para personas con discapacidad. Es posible encontrar en el mercado mandos diseñados para ser utilizados con una sola mano, con la boca, con los botones más grandes… (figura 2) Estos dispositivos tienen severas limitaciones; la mayoría son modificaciones de los mandos estándares o gamepads, con botones de mayor tamaño o entradas de conmutador, y son válidos únicamente para determinadas consolas y/o videojuegos. Además, la no adaptación de los juegos conlleva que, aunque estas plataformas permiten el acceso a los videojuegos no solventan el problema de la limitación del control avanzado, con numerosas acciones en paralelo, que requieren la mayoría de 70 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos juegos. Permiten jugar pero las posibilidades de obtener buena puntuación son prácticamente nulas. Estos dispositivos presentan severas limitaciones; en general, la mayoría son modificaciones de los gamepads estándar con los botones más grandes o bien accesibles mediante conmutadores con conectores tipo Jack, y válidos únicamente para determinadas consolas. 3. Arquitectura del sistema propuesto La arquitectura del sistema se presenta en la figura 3 y está divida en tres bloques: - Por todo ello, un acceso eficiente a los videojuegos para personas con discapacidad tiene que resolver los siguientes problemas: - - Figura 2. Solución basada en mandos alternativos a) Reducción de la cantidad de botones que los gamepads tradicionales ofrecen. Presentar 16 o más opciones de movimiento a una persona con discapacidad severa puede resultar demasiado complejo. De este modo, se debe utilizar un número menor de botones que permita redefinir las funciones asignadas a cada botón para cada juego y usuario. b) Automatización de las secuencias o combinaciones rápidas de botones. Algunas acciones de los videojuegos requieren la ejecución de una secuencia rápida de botones que con los dispositivos existentes muchas personas no pueden realizar. c) Control de los gamepads con cualquier parte del cuerpo. Para poder maximizar el número de acciones que una persona con discapacidad pueda ser capaz de llevar a cabo, es necesario que los controladores tengan un diseño modular que se puedan adaptar a cualquier parte del cuerpo, donde al usuario le resulte más cómodo. Una solución eficaz, requerirá pues de un diseño hardware, para adaptar las interfaces hombre-máquina habitualmente utilizadas por las personas con discapacidad y el diseño de un software que permita reducir tanto el número de botones de control, como la necesidad de su uso en paralelo. Entradas del sistema (Bloque 1): Se trata de un sistema HUB USB que permite la entrada y gestión de hasta cuatro dispositivos simultáneamente. De esta manera un usuario podrá conectar hasta 4 controladores diferentes simultáneamente que podrán ser accionados con distintas partes del cuerpo, aumentando así el número de acciones que podrán realizar. Por ejemplo, un joystick podrá ser controlado con una sola mano, otro joystick en forma de pedal, etc. Procesado de las acciones (Bloque 2): Este bloque corresponde a la inteligencia del sistema y se encarga de leer las macros programadas y transformar las entradas de los dispositivos HID realizadas por los usuarios con sus controladores adaptados en acciones válidas del videojuego. De esta manera, un usuario podrá controlar las acciones requeridas por los videojuegos, utilizando sus controladores adaptados a sus necesidades. Salidas del sistema (Bloque 3): Corresponde a los módulos de salida para cada una de las diferentes videoconsolas disponibles en el mercado (PS3, PC, Wii y Xbox 360). Tiene que ser capaz de comunicarse con los sistemas propietarios de cada videoconsola. A continuación se presenta el detalle del diseño hardware y software de cada uno de estos bloques. Figura 3. Arquitectura del controlador 3.1. Diseño hardware 3.1.1. Bloque 1 - Entradas. Corresponde al sistema HUB USB. En la solución propuesta se necesitan un mínimo de ocho entradas de USB para los diferentes elementos, distribuidos de la siguiente manera: 4 x USB – Joysticks HID estándar de entrada (incluyendo teclado y ratón), 1 x USB – Joystick Xbox 360 utilizado para la autenticación del sistema en las videoconsolas de Xbox 360, 1 x USB – Memoria USB donde se almacenarán las macros y 2 x USB – Puertos USB internos necesarios para el bloque 3. 71 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Debido a que la arquitectura interna del procesador utilizado, se presenta el control de únicamente dos USB, se necesita incorporar a la entrada un HUB de siete entradas como mínimo. En nuestro caso, se ha optado por utilizar la solución Belkin “7-port Powered Mobile HUB”, con 7 puertos USB disponibles que presenta una alta velocidad de transferencia de datos (hasta 480 Mbps) y es multiplataforma (MAC/PC/Linux). Como controladores de entrada el usuario podrá utilizar cualquier sistema de control con salida genérica HID. En este sentido y dentro del proyecto se tiene previsto desarrollar dos dispositivos nuevos joystick HID adaptados: el joystick por barrido y el joystick a medida. Joystick por barrido. Para las personas con discapacidad severa es fundamental la utilización de sistemas de selección indirectos como el barrido, que reducen al mínimo la necesidad de precisión por parte del usuario a expensas del tiempo. Este joystick ha de ser un dispositivo de funcionamiento HID estándar en el que la salida se escoge por barrido de manera que el usuario pueda acceder a “n” (típicamente 6 u 8) funciones diferentes, que gracias al controlador se convertirán en acciones de videojuegos combinando una única acción física (pulsar el conmutador) con el parámetro tiempo. Conectando el joystick al ordenador mediante un pequeño software, será posible configurar los parámetros más importantes del barrido como: el tiempo de secuencia, el modo, antirebotes/antirepeticiones, etc. En la figura 4 se detalla la arquitectura de la solución propuesta. Un ejemplo de este tipo de controladores es el Track-IT [9], dispositivo creado por Pretorian Technologies Ltd (Reino Unido), que permite realizar el movimiento del cursor y los clics propios de un ratón. La selección se realiza por barrido utilizando un conmutador externo, sin embargo no permite acceder a videojuegos. LED1 LED2 LED3 LED4 LED5 LED6 ASD CONMUTADOR 1 JACK JOYSTICK LED7 CONMUTADOR 1 JACK1 CONMUTADOR 2 JACK2 CONMUTADOR 3 JACK3 CONMUTADOR 4 JACK4 CONMUTADOR 5 JACK5 CONMUTADOR 6 JACK6 CONMUTADOR 7 JACK7 CONMUTADOR 8 JACK8 LED ASD JOYSTICK ASD USB CONTROLADOR Figura 5. Arquitectura del joystick a medida 3.1.2. Bloque 2 - Procesado. En este bloque se interpretan las acciones hechas por los diferentes joysticks HID conectados en el bloque de entrada, se procesan las macros y se ejecutan las acciones de salida necesarias para el bloque tres, en el menor tiempo posible. En nuestro caso se ha optado por utilizar la plataforma digital Raspberry Pi (figura 6 [10]), basada en un SoC (System-on-a-Chip, circuito integrado que incluye todos los componentes de un ordenador o de cualquier otro sistema electrónico en un solo chip) Broadcom BCM2835, que contiene un procesador central (CPU) ARM1176JZF-S a 700 MHz. Tiene unas dimensiones reducidas, similar a una tarjeta de crédito, y consigue desarrollar las funciones de un ordenador con sistema operativo GNU/Linux. De esta manera, mediante la programación de macros, se podrá procesar y convertir en tiempo real cualquier entrada del sistema efectuada con un dispositivo HID en la combinación de botones o palancas que requiera cada videojuego. LED8 ASD USB CONTROLADOR Figura 4. Arquitectura del joystick por barrido Figura 6. Arquitectura del joystick a medida Joystick a medida. Facilitará el acceso a videojuegos a personas que utilizan conmutadores y ratones para acceder al ordenador y especialmente a personas con parálisis cerebral, convirtiendo estos elementos en joysticks de tipo HID, válidos como entradas del sistema. De esta manera, se podrán conectar conmutadores externos (de 1 a 8) para realizar múltiples acciones. El caso más típico sería, por ejemplo, para un sistema de 8 conmutadores de tipo botón grande, asignar los cuatro primeros a los cuatro botones de acción de un joystick HID y los 4 siguientes a los 4 botones de dirección. A continuación se puede observar la arquitectura de la solución propuesta. 3.1.3. Bloque 3 - Salidas. Una vez tenemos procesadas las acciones realizadas por los usuarios con sus joysticks adaptados y convertidas en acciones válidas para un videojuego, es necesario comunicarle dichas acciones a las videoconsolas. Este bloque está formado por dos circuitos integrados que se encargan de establecer la comunicación con los sistemas propietarios de cada videoconsola. Para poder establecer dicha conexión, se necesita que el sistema sea capaz de comportarse como un gamepad USB-slave (PC, PS3 y Xbox 360) e I2C-slave (Wii) y entienda los protocolos propietarios de cada plataforma. Debido a la arquitectura interna de la Raspberry Pi (USB-host e I2Chost), se necesita un dispositivo adicional capaz de generar dichas salidas. En la solución propuesta se ha decidido 72 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos utilizar el microcontrolador de bajo coste Atmega32u4 (Atmel) y el conversor USB-serie FT232RL (FTDI) para implementar esta funcionalidad. START Complementando estos diseños y con el fin de informar al usuario en todo momento de la configuración del sistema y posibles incidencias, se ha diseñado una pequeña interfaz de usuario formada por seis leds, y tres botones pulsadores que podrían ser controlados externamente por pulsadores específicamente diseñados para personas que presenten problemas de movilidad severos. SETUP INTERFACE INIT HARDWARE LOAD MACROS LOAD INPUTS START CONSOLE PROTOCOL 3.2. Diseño software 3.2.1. Bloque 2 - Procesado. Como se ha mencionado anteriormente, es fundamental para el sistema interpretar las acciones hechas por los diferentes joysticks HID conectados en el bloque uno (entradas), procesar las macros y ejecutar las acciones de salida necesarias para el bloque tres (salidas), en el menor tiempo posible. Para ello, se ha desarrollado un software que se ejecuta directamente sobre Raspbian (sistema operativo de Raspberry Pi basado en Debian [11]) y que realiza las siguientes acciones: a) Gestión de la interfaz de usuario. Detecta las pulsaciones sobre los botones de la interfaz de usuario de forma periódica por polling (sondeo) conectados en los pines GPIO de la Raspberry Pi y ejecuta las acciones correspondientes (actualiza la consola seleccionada como salida y el estado de los LEDs). b) Lectura de las acciones realizadas por los joysticks HID conectados en el bloque 1. La librería Open Source SDL (Simple DirectMedia Layer [12]) es una biblioteca multimedia multiplataforma diseñada para proporcionar acceso a bajo nivel al audio, teclado, ratón, joystick, hardware 3D a través de OpenGL y framebuffer de video 2D. De esta manera, se pueden detectar y procesar cada unos de los eventos generados por los dispositivos utilizados como entradas. c) Carga de macros en memoria (almacenadas en un fichero de la memoria USB). Cada macro asociada a un juego se almacenará en una memoria USB. Cuando queramos jugar a un juego determinado, bastará con introducir la memoria USB correspondiente y el sistema cargará las macros almacenadas en su interior. d) Conversión de las acciones de los joysticks HID en acciones de videojuego. Cada evento realizado por uno de los dispositivos de entrada se tiene que convertir en acciones de videojuego válidas establecidas en las macros. A modo de ejemplo, podemos configurar una macro que simule la pulsación del gatillo R1 de la PlayStation 3 (botón utilizado comúnmente para disparar en los videojuegos de acción) cuando se detecte la pulsación sobre el botón derecho del mouse adaptado conectado. NO SUCCESSFUL? YES GET INPUT EVENTS PROCESS EVENTS SEND ACTIONS RELOAD? YES NO NO CHANGE MODE? YES UPDATE CONSOLE MODE Figura 7. Diagrama de funciones bloque 2 En el siguiente diagrama (figura 7) se muestran de forma general las diferentes funciones que realiza el software diseñado en el bloque 2. 73 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos A grandes rasgos, el sistema al arrancar inicializa la interfaz de usuario y el hardware interno. Acto seguido carga las macros desde una memoria flash USB e inicializa todos los controladores de videojuegos conectados en las entradas USB (hasta un máximo de 4). A continuación, se establece la comunicación con la videoconsola por defecto (la que se utilizó por última vez). Si el proceso ha resultado satisfactorio, se procesan periódicamente (cada 16 ms) todos los eventos realizados por los controladores de entrada y se convierten en acciones válidas del videojuego. Esta secuencia no se detiene hasta que no se pulse sobre el botón de reload, se cambie la consola seleccionada o se apague el sistema. 3.2.2. Bloque 3 - Salidas. Para que las acciones procesadas por el bloque 2 puedan ser atendidas por las videoconsolas, se necesita convertirlas al lenguaje propietario de cada sistema (Wii, PC, PS3 y Xbox 360). Este bloque se encarga, por tanto, de: a) Inicializar y mantener la conexión entre el controlador de videojuegos y las videoconsolas. b) Convertir las acciones del bloque 2 en paquetes válidos de cada videoconsola. 3.3. Macros Una de las partes fundamentales del diseño del controlador de videojuegos son las macros. Éstas permiten asignar una serie de combinaciones o secuencias de teclas a los botones de los joysticks HID de entrada, facilitando el acceso a las acciones más complicadas de los videojuegos. El uso de las macros permite además mapear las funciones de los joysticks de entrada en función del juego. Por ejemplo, si utilizamos un joystick con una palanca y dos botones en un videojuego de carreas de la plataforma PS3 la configuración típica sería, por ejemplo, controlar la dirección del vehículo (mapear la palanca del joystick adaptado a la palanca analógica izquierda del mando de PS3), acelerar (mapear el botón 1 del joystick adaptado al botón R2 del mando de PS3) y frenar (mapear el botón 2 del joystick adaptado al botón L2 del mando de PS3). Sin embargo, en un videojuego de futbol de la plataforma PS3 la configuración típica sería, por ejemplo, controlar la dirección del personaje (mapear la palanca del joystick adaptado a la palanca analógica izquierda del mando de PS3), pasar el balón (mapear el botón 1 del joystick adaptado al botón X del mando de PS3) y chutar a portería (mapear el botón 2 del joystick adaptado al botón O del mando de PS3). En general, los joysticks HID de entrada pueden ser muy diversos y estar formados por diferentes elementos. En este diseño los elementos de un joystick HID definidos que pueden generar eventos son (figura 7): a) Buttons. Botones de acción. Indican si un cierto botón se encuentra pulsado o no. b) Hats. Palancas de dirección digital. Indican la posición de la palanca en valores absolutos mediante nueve posibles estados: arriba, arriba-derecha, derecha, c) derecha-abajo, abajo, abajo-izquierda, izquierda, izquierda-arriba y centrado. Axes. Palancas de dirección analógica. Cada palanca está formada por dos ejes: movimiento horizontal y movimiento vertical. La posición se indica con valores relativos que pueden oscilar entre -32768 (izquierda o arriba), 0 (centrado) y +32768 (derecha o abajo). BUTTONS HATS AXES Figura 7. Joytick HID de entrada Los gamepads de salida que se han simulado (PC, PS3, Xbox 360 y Wii) están formados por: 10-12 botones de acción incluyendo 2 triggers (botones progresivos que indican el nivel de presión ejercido sobre el botón), 1 hat o palanca digital y 2 axes o palancas analógicas. Sobre ellos se han implementado diferentes tipos de macros, siendo las más importantes las siguientes: 1. Button macros. Combinación o secuencia de acciones que se llevarán a cabo cuando se pulse sobre un botón del joystick. 2. Hats macros. Combinación o secuencia de acciones que se llevarán a cabo cuando se mueva un hat o palanca digital de dirección en alguna dirección válida. 3. Axes macros. Combinación o secuencia de acciones que se llevarán a cabo cuando se mueva un axis o palanca analógica de dirección en alguna dirección válida. 4. Keyboard macros. Combinación o secuencia de acciones que se llevarán a cabo cuando se pulse sobre una tecla válida de teclado. 5. Mouse macros. Combinación o secuencia de acciones que se llevarán a cabo cuando se pulse sobre un botón válido del mouse. Todas estas macros pueden ser configuradas de forma directa o biestable. Este último tipo de macros se ejecutan al pulsar sobre el botón correspondiente y se desactivan al volver a pulsar de nuevo sobre el mismo botón. Son muy útiles para personas que tienen dificultades a la hora de realizar acciones prolongadas en el tiempo. Cada macro, indistintamente desde que elemento se genere (buttons, hats o axes), permite acceder a cualquier acción del gamepad comercial. De esta manera, desde cualquier elemento se puede presionar uno o varios botones del mando de forma directa o temporizada, simultáneamente o en secuencia y realizar cualquier movimiento de hats o axes. La temporización de la macros presenta una resolución de 16 ms y son suficientemente genéricas en su 74 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos definición para adaptarse a las habilidades motrices y cognitivas de cada usuario. A modo de ejemplo, se puede configurar una macro (macro biestable) que se encargue de controlar la aceleración del coche; al iniciar la carrera el usuario acciona la macro biestable y el coche comienza a acelerar hasta que se desactive la macro. De esta manera el usuario solo tiene que centrarse en girar el coche en las curvas durante la carrera. utilizando únicamente una palanca de control y dos botones. Los controles utilizados en el juego Mario Kart con los mandos comerciales son los presentados en la figura 8. Otro ejemplo es el uso de la palanca del joystick adaptado (axes macros) no solo para girar sino también para controlar la aceleración del coche; podemos configurar una macro que al mover el joystick hacia adelante acelere el coche y al moverlo hacia detrás accione la marcha atrás. De esta manera con una sola palanca (por ejemplo un joystick de mentón) podemos controlar el acelerador/freno y dirección de un coche durante una carrera. Así mismo, también sería posible configurar una macro para ejecutar una secuencia rápida de botones requerida en algún videojuego de acción con solo un botón del joystick adaptado; al pulsar sobre el botón la macro simularía la secuencia rápida de los botones X, O y Δ (plataforma PS3) sucesivamente para realizar un ataque. 4. Resultados y validación del sistema Para comprobar la funcionalidad del sistema, se han realizado, por un lado, medidas sobre el hardware y software diseñados y por otro, pruebas de validación, a nivel de laboratorio y de usuarios potenciales, sobre la usabilidad del sistema y de las macros con diferentes plataformas y videojuegos comerciales de gran aceptación. No obstante en los próximos meses se van a realizar test sobre usuarios potenciales para poder mejorar el feedback sobre el dispositivo. La compatibilidad del prototipo diseñado con todas las plataformas y juegos utilizados ha sido total. A nivel de laboratorio se ha comprobado que el retardo que añade el sistema por las acciones de sensado de las entradas, procesado de macros y ajustes del protocolo de salida es de tan sólo 16 ms, valor coincidente con la resolución de las macros, e inapreciable para el usuario en cualquier juego. El consumo total de la solución es 750 mA cuando está encendido (puede oscilar en función de la cantidad de joysticks que estemos utilizando simultáneamente) y de 60 µA cuando se encuentra en stand-by, por lo que aunque se podría plantear una solución autónoma, la duración de las baterías estaría limitada a sólo unas horas y requería una recarga diaria. Una de las pruebas de laboratorio realizadas, descrita a continuación a modo de ejemplo, ha sido la adaptación del Mario Kart [13] (famoso videojuego de carreras que permite utilizar objetos que se consiguen en la carrera para acelerar el ritmo o ralentizar a los rivales) de la Nintendo Wii. Se ha configurado una macro para poder jugar Figura 8. Controles Mario Kart Wii El mouse adaptado de entrada usado fue el BJOY StickC (figura 9 [14]), de la empresa BJ-adaptaciones, el cual consta de una palanca con dos ejes (horizontal y vertical) y cuatro botones (botón derecho de mouse, botón izquierdo de mouse y dos botones especiales). Se ha comprobado que la mejor adaptación requería que la configuración final del joystick de entrada fuera la siguiente: - Palanca azul utilizada para controlar la dirección del vehículo. El botón rojo sea utilizado como macro biestable para controlar la aceleración del vehículo. El botón amarillo sea utilizado para usar los objetos que vamos consiguiendo en la carrera. DIRECCION ACELERAR USAR OBJETOS Figura 9. Resultado del mapeo de botones de la macro de test El fichero de macros resultante es muy sencillo y quedaría de la siguiente manera (figura 10), mediante el uso de expresiones propias en pseudocódigo. Primero se configura el tipo de mouse que vamos a conectar (en nuestro caso es el denominado tipo digital e indica que la palanca es de contacto, no progresiva: o está activada hacia una dirección o no) y el mapeo de la palanca (en nuestro 75 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos caso indicamos que queremos simular la palanca analógica izquierda del mando clásico de Wii, acción de conducir en la figura 8) mediante las dos primeras líneas “CONFIG MOUSE 01” y “CONFIG MOUSE DIGITAL”. Acto seguido se configuran las acciones de las botones. En nuestro caso queremos: en primer lugar que el botón izquierdo del mouse (botón rojo) sea biestable y controle la aceleración del vehículo (simulando la pulsación del botón A del mando clásico de Wii, acelerar figura 8) mediante las siguiente cuatro líneas “BIESTABLE MBUTTONDOWN 433” (433 corresponde al identificador en pseudocódigo de la pulsación sobre el botón izquierdo del mouse) y “BIESTABLE MBUTTONUP 418” (418 corresponde al identificador en pseudocódigo de la liberación sobre el botón izquierdo del mouse), en segundo lugar que el botón derecho del mouse (botón amarillo) sea directo y sirva para usar los objetos (simulando la pulsación del botón L del mando clásico de Wii, usar objetos figura 8) mediante las últimas cuatro líneas “MACRO MBUTTONDOWN 435” (435 corresponde al identificador en pseudocódigo de la pulsación sobre el botón derecho del mouse) y “MACRO MBUTTONUP 420” (420 corresponde al identificador en pseudocódigo de la liberación sobre el botón derecho del mouse). #+----------------------------+ #| AXES CORRECTION | #+----------------------------+ CONFIG MOUSE 01 CONFIG MTYPE DIGITAL Figura 11. Test de laboratorio Mario Kart (Nintendo Wii) Además de las pruebas de laboratorio realizadas, se han realizado pruebas con diferentes joysticks comerciales y con usuarios potenciales, como por ejemplo, J.R.S. de 44 años de edad y afectado de esclerosis múltiple, con el videojuego Mario Kart de la Nintendo Wii. El mouse adaptado de entrada usado fue el BJOY Ring (figura 12 [15]) (de la empresa BJ-adaptaciones), el cual consta de una palanca con dos ejes (horizontal y vertical) que actualmente utiliza J.R.S. con destreza para mover su silla. #+---------------------------+ #| BUTTON MACROS | #+---------------------------+ BISTABLE MBUTTONDOWN 433 ACTION JBUTTONDOWN 231 BISTABLE MBUTTONUP 418 ACTION JBUTTONUP 231 MACRO MBUTTONDOWN 435 ACTION JBUTTONDOWN 236 MACRO MBUTTONUP 420 ACTION JBUTTONUP 236 Figura 10. Resultado macro para Mario Kart (Nintendo Wii) De esta manera, solo con una palanca de movimiento y dos botones tenemos acceso a un videojuego que inicialmente requería del uso de cuatro botones, una palanca analógica y una palanca digital. En la figura 11 se puede observar uno de los test de laboratorio realizados. Figura 12. Detalle del controlador BJOY Ring Motrizmente, la adaptación funcionó a la perfección permitiendo, en este caso a J.R.S, mover con su joystick de silla el vehículo del videojuego. Sin embargo, cognitivamente el juego, en algunas ocasiones, iba demasiado rápido. La versatilidad del dispositivo hizo que se pudiera continuar jugando de una manera más satisfactoria para J.R.S utilizando el “juego cooperativo”. Esta alternativa permite a dos personas distintas controlar el mismo personaje con joysticks diferentes. De esta manera J.R.S seguía controlando la dirección del vehículo con su mouse de silla adaptado y una tercera persona prestaba ayudas puntuales con un joystick genérico (conectado al sistema) en la aceleración y dirección del vehículo. 76 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 5. Conclusiones La solución diseñada ha creado una nueva forma de interacción con los videojuegos comerciales de las videoconsolas actuales del mercado, aumentando las perspectivas de ocio de usuarios con discapacidad. Para ello se ha desarrollado un sistema que permite utilizar joysticks HID u otros sistemas de control con los que ya están familiarizados los usuarios en las diferentes plataformas. A nivel de software se han diseñado un conjunto de macros genéricas, que pueden ser adaptadas para cada usuario y juego, y que permiten al usuario realizar acciones complejas o secuencias rápidas de botones que antes no podía ejecutar. De esta forma, se tiene una solución totalmente personalizable en función de las necesidades de cada usuario, no invasiva y modular, que le permite jugar a cualquier juego y plataforma de forma individual o colectiva (juego colaborativo) gracias a las múltiples entradas de dispositivos de control que presenta la solución. 6. Referencias [1] Parra, David et al. (2009), “Hábitos de uso de los videojuegos en España entre los mayores de 35 años”, Revista Latina de Comunicación Social, 64. La Laguna (Tenerife): Universidad de La Laguna, pp. 694 -707. [2] World Health Organization ed. “World report on disability 2011”. WHO Library Cataloguing-inPublication Data. Malta. 2011. [3] Golomb, Meredith R et al. (2010) “In-Home Virtual Reality Videogame Telerehabilitation in Adolescents With Hemiplegic Cerebral Palsy”. Archives of Physical Medicine and Rehabilitation, 91, Nº1, Elselvier, Germany, pp. 1-8.e1. [4] Gil-Gómez, José-Antonio et al. (2011) “Effectiveness of a Wii balance board-based system (eBaViR) for balance rehabilitation: a pilot randomized clinical trial in patients with acquired brain injury” J. Neuroeng Rehabil. Vol.8 N. 30, pp.1-9. [5] Saposnik, Gustavo et al. (2010) “Effectiveness of Virtual Reality Using Wii Gaming Technology in Stroke Rehabilitation. A Pilot Randomized Clinical Trial and Proof of Principle” Stroke. Vol.41. pp. 14771484. [6] http://www.albertahealthservices.ca/ (última visita 10/07/2013). [7] Basson Sara H et al. (2003) “Using existing videogames for physical training and rehabilitation”. Patente US2003125099. [8] Byerly; Jennifer (2009) “Device and method for employment of video games to provide physical and occupational therapy and measuring and monitoring motor movements and cognitive stimulation and rehabilitation”. Patente US 20090098519. [9] http://www.pretorianuk.com/track-it 10/07/2013) (última [10] http://www.raspberrypi.org/quick-start-guide visita 10/07/2013) [11] http://www.raspbian.org/FrontPage 10/07/2013) visita (última (última visita [12] http://www.libsdl.org/ (última visita 10/07/2013) [13] http://www.mariokart.com/wii/launch/ (última visita 26/04/2013) [14] http://www.bjadaptaciones.com/catalogo/ratones/joysticks/bjoy-stickc (última visita 26/04/2013) [15] http://www.bjadaptaciones.com/catalogo/ratones/joysticks/bjoy-ring (última visita 26/04/2013) 77 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Audesc Mobile: la audiodescripción en dispositivos móviles Alberto Delgado García Fundación Vodafone España [email protected] María Jesús Varela Méndez CIDAT-ONCE [email protected] Guillermo Abel Hermida Simil Autonomía Personal y Accesibilidad-ONCE [email protected] Rafael Selma Cordero S·dos [email protected] Resumen lo que sucede a su alrededor. Este hecho fue constatado en 1975 por un profesor universitario norteamericano, Gregory Frazier, quién al ver como la mujer de un amigo ciego le explicaba una película en el cine, tuvo la idea de hacer accesibles las producciones audiovisuales a este colectivo de personas. Frazier con la Ayuda de August Coppola (que era el hermano del famoso Director de cine Francis FordCoppola) pusieron en marcha la audiodescripción que, una vez trasladada a Europa por sus alumnos, posibilitó la accesibilidad a las producciones audiovisuales para todas las personas con discapacidad visual. Desde el punto de vista estrictamente sonoro, en España debemos remontarnos a las emisiones radiofónicas de novelas y obras de teatro que durante varias décadas del pasado siglo amenizaron las tardes y noches en buena parte de los hogares españoles. En estas producciones radiofónicas, que iban dirigidas a todos los radioyentes con independencia de que vieran o no, además de escuchar los diálogos de los actores, un narrador ponía en situación, explicando en qué circunstancias se producía la acción. La audiodescripción es el sistema adoptado por los países desarrollados para permitir el acceso de las personas con discapacidad visual a las producciones audiovisuales: películas, obras teatrales, programas de televisión y obras expuestas en museos. Añade una serie de informaciones sonoras adicionales que explican a las personas ciegas o deficientes visuales las acciones, gestos, escenarios, vestuarios y otros aspectos relevantes que ayuden a comprender mejor la trama o contenido de la obra. En España, en el año 1988 la ONCE llevó a cabo el proyecto de investigación denominado Sonocine, que permitió realizar las primeras audiodescripciones, aunque no sería hasta 1994, cuando los Servicios Culturales de la ONCE pusieran en marcha el programa AUDESC que posibilitó la creación de guiones cinematográficos y documentales, y llevó la audiodescripción a las salas teatrales. Con la llegada del siglo XXI, la accesibilidad se ha convertido en un derecho de facto exigible para todos los ámbitos de la vida diaria y, también, lógicamente para los medios audiovisuales. Por otra parte, las nuevas tecnologías y el desarrollo de internet han permitido ofrecer contenidos audiovisuales a un mayor número de personas, facilitando Las personas con discapacidad visual acceden a l as producciones audiovisuales mediante el sistema de audiodescripción. En la actualidad, los usuarios sólo pueden acceder a l as películas audiodescritas en determinados cines en los que se ha realizado un proceso previo. El presente proyecto permite extender el uso de la audiodescripción, de forma que los usuarios puedan acceder a una película audiodescrita en cualquier cine que emita dicha película y utilizando además un dispositivo de uso habitual como puede ser un Smartphone o un tablet. Esta solución supone una novedad en la forma de acceso a la audiodescripción respecto a la situación actual ya que no requiere de ninguna colaboración por parte del cine. Por otro lado, permite ampliar el acceso a l a audiodescripción de otros medios audiovisuales como TV, DVD, etc. Abstract People with visual impairment access audiovisual productions through audio description. Nowadays, these users can access audio described films just in some cinemas where the equipment has been adapted accordingly. This project makes possible spreading the use of audio description so that users can access an audi o described movie in any cinema where the movie is being shown using common devices such as Smartphones or tablets, moreover. This solution means a ne w approach in the way audio description is being accessed these days, as it does not demand any collaboration from the cinema. On the other hand, it makes it possible to broaden access to audio description to other audiovisual media such as TV, DVD, etc. 1. Introducción La audiodescripción es tan antigua como el hecho de que las personas que ven les cuenten a las personas ciegas 78 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos que éstos lleguen a lugares que hasta el momento era imposible. Fuente: “La audiodescripción en España” (autora: Patricia Sanz Cameo) [1]. 2. Estado del arte En la actualidad, el acceso de las personas con discapacidad visual a la audiodescripción, ya sea en directo (representaciones teatrales) o de forma sincronizada (exhibición en salas cinematográficas), se realiza mediante un sistema de radiofrecuencia. Al usuario se le entrega un receptor inalámbrico, provisto de un auricular, desde el que recibe la audiodescripción en su propia butaca sin perturbar al resto espectadores. Parade obtener la audiodescripción en soportes como DVD o Blue Ray se suele utilizar el programa ProTools, que permite la sincronización de la audiodescripción con la banda sonora. En salas de cine, la sincronización con la banda sonora se lleva a cabo insertando la audiodescripción en el propio DCP (Digital Cinema Package). La emisión en la sala de la señal con audiodescripción, requiere la conexión de un emisor de radiofrecuencia al proyector (bien sea digital o analógico). Esta señal es recibida por los receptores que se han entregado previamente a los usuarios. Este proceso obliga a contar con costosos equipamientos por parte del cine y a realizar configuraciones específicas en los proyectores de cine. Esta circunstancia, entre otras, hace que muchas salas de cine sean reacias a emitir películas con audiodescripción. De hecho, en España hay solo cinco salas que cuentan con emisión con audiodescripción: Madrid, Navarra o Barcelona son ejemplos de ello. 3. Fundamentos y tecnologías utilizadas Dada la situación anteriormente descrita, se afronta el desarrollo del presente proyecto con el objetivo de facilitar y extender el acceso a las audiodescripciones de los diferentes contenidos audiovisuales. La solución adoptada supone un valor añadido sobre la situación actual ya que permite el acceso, a la audiodescripción independientemente del medio audiovisual. La idea fundamental en la que se basa el proyecto consiste en disponer de la audiodescripción en un dispositivo móvil y reproducir dicha audiodescripción de forma sincronizada con un vídeo en curso. Esta sincronización se realiza basándose únicamente en el audio del título que se está reproduciendo, independientemente de la plataforma física sobre la que se emite (cine, TV, tablet, etc.). Por otro lado, desde el punto de vista del usuario final, es de especial relevancia el hecho de que el acceso a la audiodescripción se puede realizar desde un dispositivo móvil, sin necesidad de proveer al usuario de ningún otro dispositivo adicional. A continuación se describe la plataforma desarrollada así como los retos tecnológicos que se han tenido que abordar durante el desarrollo del proyecto. 3.1. Plataforma La plataforma de la solución adoptada está compuesta por: • Una capa de servicios (componente servidor) que proporciona los contenidos (títulos, audiodescripciones,…) a la aplicación móvil y también provee la funcionalidad de sincronización de la audiodescripción. • Un entorno web que permite a los administradores del sistema gestionar fácilmente toda la información almacenada sobre los títulos (detalles sobre cada título, huellas, audiodescripciones asociadas, etc.). • Una aplicación móvil que permite descargar las audiodescripciones del servidor y la reproducción sincronizada de la audiodescripción. Esta aplicación, disponible para dispositivos iOS y Android, se ha desarrollado basándose en las líneas Design for All (DfA) [2] y las guías de diseño accesible [3]. Las audiodescripciones son descargadas en el dispositivo móvil para posteriormente poder ser reproducidas cuando se desee. En este sentido, tiene especial relevancia la definición del tamaño de las audiodescripciones ya que deben ser descargadas desde internet. El formato de audio seleccionado debe tener una relación aceptable entre calidad y tamaño. Una vez elegido el formato, debido a la naturaleza de las audiodescripciones, se eliminan los silencios en el audio, quedándose únicamente con las partes útiles. Una vez troceado se empaqueta en un formato propio que debe ser entendido e interpretado por las aplicaciones móviles. 3.2. Tecnologías Desde el punto de vista tecnológico, Audesc Mobile resuelve dos retos de especial relevancia: • La creación de un algoritmo para la generación de un patrón, huella o “firma” de un archivo de audio. • La localización de una muestra de audio en el patrón anterior, para su sincronización exacta con la audiodescripción disponible en el dispositivo móvil. A continuación se describen en detalle el algoritmo de generación de huella y el proceso de sincronización. 3.2.1. Algoritmo de generación de huella. El algoritmo se basa en la generación de una Huella Digital Acústica (HDA), que es un identificador para archivos de audio basados en el contenido del archivo. La huella permite identificar un patrón o “firma” de un archivo de audio, de forma que este patrón pueda ser reconocido desde una base de datos de audio, sin necesidad de disponer de información acerca de éste. Para la generación de la HDA, el algoritmo se encarga de realizar las medidas y cálculos necesarios 79 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos para extraer la información más importante del archivo de audio. El requisito imprescindible en este proyecto era implementar un sistema rápido y fiable en recuperación e indexación de datos, así como la reducción del tamaño de los contenidos almacenados. La idea se basaba en asignar una identidad a cada señal de audio para posteriormente ser tratada. En una fase preliminar del proyecto se analizó una de las más exitosas aplicaciones de referencia que existen en el mercado, Shazam, capaz de identificar y dar información (autor, disco,…) de una pista de audio (canción). Dicha aplicación es capaz de identificar canciones a partir de una muestra de varios segundos y el sistema dispone de una base de datos con miles de canciones indexadas. En su caso, la base de datos guarda información de cada canción y su Huella Digital Acústica generada a partir de ella. En el caso de Audesc Mobile, el problema a solucionar difiere del planteado en Shazam. En Audesc Mobile, se tiene identificado el título y se necesita la localización temporal de un fragmento de audio en la pista completa del audio del título. De esta forma, se puede localizar el momento exacto que se está reproduciendo en un vídeo y se puede realizar la sincronización con la audiodescripción. Por lo tanto, se necesita un tipo de HDA que sea de igual longitud a toda la pista de audio, permitiendo la localización temporal en la misma. A modo de resumen, los pasos que describen la generación de la HDA son los siguientes: 1. Se obtiene el espectro de frecuencias de la pista de audio y se muestrea. 2. Para cada muestra se calculan las fluctuaciones entre frecuencias. 3. Se genera la huella digital acústica de toda la pista en base al algoritmo desarrollado. En cuanto al desarrollo de la HDA, éste se basa en los siguientes algoritmos: 1. Transformada rápida de Fourier. 2. Espectrograma de frecuencias. 3. Normalización de amplitudes. 3.2.2. Sincronización. El otro gran reto tecnológico del proyecto es la sincronización. La sincronización es el proceso mediante el cual se localiza el momento exacto de la película que está en reproducción y se reproduce la audiodescripción totalmente sincronizada en el dispositivo móvil. El proceso de la sincronización es el siguiente: 1. El dispositivo graba unos segundos de audio y los empaqueta. 2. El dispositivo envía al servidor el audio grabado. 3. El servidor recibe la grabación y realiza la Huella Digital Acústica. 4. El servidor localiza la Huella Digital de la grabación con la Huella Digital del título. 5. El servidor envía al móvil el segundo actual de sincronización. 6. El móvil reproduce los audios seleccionados de manera sincronizada teniendo en cuenta otros factores que puedan afectar. Una vez que se ha localizado temporalmente la reproducción de un título, se sitúa la audiodescripción en el segundo indicado y se ejecuta su reproducción. En la sincronización y reproducción, dado que es un requisito primordial que no se produzcan retrasos conforme la reproducción va avanzando, se tiene especial cuidado con todos los factores que pueden afectar al proceso: los tiempos en las comunicaciones (internet), velocidades de los procesadores de los terminales móviles, etc. 4. Resultados La plataforma obtenida como resultado del desarrollo del proyecto supone para el usuario final una nueva filosofía en la forma de acceder a las audiodescripciones. La plataforma permite a un usuario con discapacidad visual acceder a las audiodescripciones disponibles de películas, documentales, etc. de forma fácil e intuitiva, usando un dispositivo de uso habitual e independientemente de la plataforma o lugar en el que se esté emitiendo el contenido audiovisual. El usuario dispone de una aplicación móvil que le permite consultar qué contenido audiovisual (película, documental, etc.) está audiodescrito y descargarse las audiodescripciones asociadas que desee. El sistema permite que a un mismo título se le puedan asociar diferentes audiodescripciones (castellano, catalán, etc.). El usuario puede descargarse las audiodescripciones en cualquier momento y posteriormente reproducirlas o sincronizarlas cuando el contenido audiovisual se esté emitiendo (cine, TV, etc.). La aplicación móvil desarrollada es totalmente accesible para personas con deficiencia visual (utilizando un lector de pantalla) y dispone de opciones de configuración que permiten a usuarios con resto de visión adaptar la aplicación a sus necesidades (dispone de temas con diferentes combinaciones de colores). Además, entre las opciones de configuración disponibles, se ofrece al usuario la posibilidad de suscribirse a un sistema de notificaciones que le permite conocer cuándo hay nuevas audiodescripciones disponibles en el sistema. Por otro lado, desde el punto de vista del personal encargado de proporcionar contenido audiodescrito al sistema, el proceso que ofrece esta nueva plataforma es mucho más eficiente que el protocolo que se sigue en la actualidad. Los administradores del sistema pueden colgar en el servidor, a través del entorno web de gestión, todo el material audiodescrito de forma rápida y eficiente. El proceso para subir un nuevo título (película, serie, etc.) consiste en dar de alta en el sistema un nuevo título, rellenar una información genérica sobre el mismo (categoría, director, género, año, sinopsis, etc.), adjuntar la/s huella/s del audio del título (proceso que proporciona la plataforma) y adjuntar la/s audiodescripciones/s asociadas. Una vez subida toda la información necesaria al sistema, el administrador puede notificar a los usuarios la existencia 80 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos de un nuevo título en la plataforma a través del sistema de notificaciones. A partir de ese instante, los usuarios se pueden descargar, en el momento que lo deseen, el nuevo título disponible. Este nuevo sistema facilita además la posibilidad de realizar actualizaciones de las audiodescripciones cuando, por algún motivo, se produce una variación en el contenido audiovisual (circunstancia que en ocasiones se produce en el caso de los cines). 4.1. Pruebas con usuarios Las primeras pruebas realizadas con evaluadores especializados han sido muy positivas. Uno de los aspectos más conflictivos de un proyecto de este tipo es que la sincronización de la audiodescripción con el audio de la película sea correcta y, en ese sentido, los algoritmos implementados ofrecen unos resultados muy favorables. En las pruebas se ha comprobado que la localización del punto de la película en emisión es muy precisa y, por tanto, la reproducción de la audiodescripción encaja perfectamente con la película. Además, se ha conseguido que la accesibilidad de la aplicación, desde un primer momento, sea completa para que toda la funcionalidad que aporta pueda ser utilizada en igualdad de condiciones por cualquier tipo de usuario. En la fase actual de desarrollo y pruebas del proyecto, se está comenzando a trabajar con usuarios potenciales de la aplicación para determinar si ésta aporta toda la funcionalidad requerida para un sistema de acceso a la audiodescripción. 5. Conclusiones Con el desarrollo de este proyecto se consigue que las personas ciegas o con discapacidad visual dispongan de una herramienta que les permite acceder de una manera fácil y cómoda a la audiodescripción de los contenidos audiovisuales, con independencia del medio en el que éstos sean reproducidos (Cine, TV, DVD, etc.). Por tanto, hace posible que este grupo de personas puedan disponer de la información adicional que les es necesaria de una manera autónoma y sin limitaciones en cuanto a los lugares en los que poder disfrutar de esta facilidad. El sistema desarrollado aporta una serie de beneficios que se describen a continuación: • El usuario no necesita ningún dispositivo adicional para escuchar la audiodescripción, puesto que puede hacerlo mediante su dispositivo móvil habitual (Smartphone o tablet tanto de la plataforma iOS como de la plataforma Android). Tan solo es necesaria una conexión a Internet (bien a través de red móvil o bien a través de red Wi-Fi) para realizar la descarga previa de la audiodescripción con la propia aplicación y para realizar la sincronización inicial de la misma cuando ya se esté reproduciendo el contenido audiovisual. • Ofrece la posibilidad de acceder a las audiodescripciones independientemente del medio audiovisual utilizado (cine, TV, DVD, etc.). Por ejemplo, un usuario puede visualizar una película en formato DVD en su casa (DVD sin audiodescripción incluida) y para acceder a la audiodescripción sólo tiene que descargársela utilizando la aplicación móvil. En el caso del cine, permite acudir a cualquier sala en la que se proyecte la película deseada y no obliga a ir a una sala concreta. • Evita la necesidad de llevar a cabo una instalación compleja en los lugares en los que se realiza la reproducción de los contenidos audiovisuales (salas de cine, etc.) puesto que la aplicación instalada en el dispositivo móvil se encarga de todo el proceso. Con ello se eliminan los costes de instalación, las gestiones necesarias para lograr la colaboración de las salas de cine y la dedicación del tiempo necesario para preparar cada una de las películas en cada una de las salas en las que se pretenda usar la audiodescripción. • Ofrece una gestión centralizada de todas las audiodescripciones disponibles para cualquier tipo de títulos (películas, series, documentales, etc.), para cualquier tipo de formato (cine, TV, DVD, etc.) y en cualquier idioma. Esto es beneficioso para los gestores y productores, pues no necesitan distribuir sus audiodescripciones sino simplemente incluirlas en el sistema una única vez, y también para los usuarios finales, que disponen de un lugar único en el que realizar consultas y descargas de las audiodescripciones disponibles para cualquier medio. • El sistema de notificaciones permite a los usuarios tener una información directa y práctica de las novedades que se producen en los títulos disponibles para ser reproducidos con audiodescripción. 6. Trabajos futuros El enfoque utilizado en el desarrollo de Audesc Mobile posibilita el que funcionalidades similares sean aplicables a otros escenarios, y además el sistema queda abierto a que se vayan incorporando en él nuevas facilidades y posibilidades para los usuarios. En ese sentido se están analizando distintas opciones que marcarán la línea de trabajo en el futuro. Así, en cuanto a la diversificación del perfil de los usuarios del sistema, se plantea la opción de incluir el subtitulado en el móvil para personas sordas o con discapacidad auditiva, permitiendo que los subtítulos aparezcan de forma sincronizada en la pantalla del dispositivo móvil mientras se esté produciendo la reproducción de forma externa. En cuanto a nuevas funcionalidades, se está contemplando la posibilidad de usar el sistema con cualquier tipo de emisiones, como pueden ser: la televisión, las grabaciones de vídeo, los DVD, las emisiones online a través de Internet, etc. Otra línea de trabajo a iniciar será la adaptación de este sistema de audiodescripción para su uso en lugares públicos, como pueden ser museos, hospitales, centros oficiales, etc. en los que pueda obtenerse información adicional para los distintos elementos que en ellos se encuentren, y que de otra manera no estaría disponible para los usuarios potenciales del sistema. 81 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 7. Referencias [1] La audiodescripción en España: http://progresodigital.unidadprogresista.org/noticia/AUDIODESC RIPCION-ESPAÑA.aspx [2] Design for All: http://ec.europa.eu/information_society/activities/einclusion/policy /accessibility/dfa/index_en.htm [3] Guía de diseño accesible: http://www.johngilltech.com/guidelines/guidelines_list.htm 82 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Prevención de riesgos domiciliarios a través del estudio de hábitos de vida La tecnología domiciliaria, una herramienta en favor de la autonomía personal Domingo García Fernández-Caro Lluís Sánchez Rissech Director de Servicios de Proximidad de Personalia [email protected] Innovación y Desarrollo Tecnológico de Personalia [email protected] Resumen responsabilidades y mucho menos en la dependencia y en los defectos del estado sobreprotector, una buena cobertura de la autonomía personal de las personas mayores y dependientes es un prerrequisito para que las personas sean capaces de asumir un rol plenamente activo durante su vida. Pero además, el sistema que se despliegue para dar soporte a las personas en su autonomía debe ser sostenible y capaz de evolucionar en la medida en que las necesidades cambien y se diversifiquen. El uso de la tecnología domiciliaria, como herramienta de soporte a la autonomía y de ayuda en el desarrollo de las tareas cotidianas, ha sido ampliamente discutido en los últimos años, especialmente desde que este tipo de componentes tecnológicos se han conocido, divulgado y estandarizado en el mercado. Un gran número de estudios han realizado observaciones cualitativas sobre aceptación de este tipo de elementos por parte de usuarios mayores o de personas en situación de dependencia, sobre eficacia en la fiabilidad funcional de determinados dispositivos para tipos específicos de actividades de la vida diaria o sobre eficiencia en el funcionamiento en un entorno doméstico. Sin embargo hay muy pocos estudios cuantitativos que tengan como objetivo proponer un conjunto específico de componentes tecnológicos que puedan desplegar una tipología de alarmas preventivas para un colectivo concreto, en este caso el de las personas frágiles. Nuestro estudio tiene, además, la intención de proponer un esquema y metodología de uso a gran escala. El proyecto de investigación, realizado por Personalia, (empresa de servicios sociales y sanitarios de Fundación ONCE) plantea la implantación de herramientas tecnológicas domiciliarias básicas para la monitorización de las actividades cotidianas de los usuarios detectando, en modo preventivo, posibles situaciones de riesgo e incidencias a través de la alteración de las pautas de comportamiento cotidiano. El estudio se ha realizado en 40 usuarios mayores frágiles del Servicio Público de Teleasistencia de Madrid a los que se ha monitorizado durante 6 meses en régimen de 24x7 después del despliegue de 9 di spositivos tecnológicos. Como conclusión del proyecto se plantean hasta 11 al armas preventivas a implantar en los procedimientos habituales de un Centro de Atención de Teleasistencia para este tipo de usuarios. Summary This research project, conducted by Personalia, (social and health services company from Fundacion ONCE) has developed an specific model deployment of basic home technology devices to monitor lifestyle and dai ly activities of the users in order to develop preventive i ntervention procedures These are useful ways .to avoid or completely skip daily life incidents and issues when the system detects changes in those daily life activities. The study has been conducted in 40 frail elder users of the local Public Telecare Service in Madrid that have been monitored during 6 m onths in 24x 7 mode after the deployment of nine technological devices. As a conclusion of the project, we have concluded up t o 11 pr eventive common alarms for this kind of users that we propose could be integrated and used in the normal procedures of the Telecare Service. Thus, these new procedures, could be completely standardized for this user segment within the scope of a Telecare Services Center. 1. Introducción En un marco de referencia en el que los ciudadanos y los gobiernos van estableciendo progresivamente un nuevo tipo de relación, fundamentada en los derechos y 2. Objetivos Teniendo en cuenta el tipo de necesidad y actividades estimadas para personas frágiles y partiendo del estado del arte en la situación de tecnología domiciliaria (domótica, sensorización y ayudas técnicas), el proyecto ha desarrollado los siguientes tres objetivos: 1. Verificar la aceptación por parte de los usuarios, de un despliegue muy específico de tecnología domiciliaria no intrusiva, dirigido a una máxima cobertura de sus hábitos domiciliarios diarios. Se trataba que los usuarios entendieran el funcionamiento de los sensores y que éstos no debían interferir, en absoluto, en sus actividades diarias. 2. Estudiar los diversos patrones de actividad de las principales tareas diarias de cara a caracterizar aquellos 83 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos hábitos y prácticas que debieran ser considerados como normales y aquellos que debían ser tipificados como no normales. Establecer umbrales de normalidad en las actividades de la vida diaria siguientes: sueño/descanso, alimentación y actividad en la cocina, actividades fuera del domicilio, nivel de general de actividad diario y aseo/ continencia. 3. Proponer un conjunto de alarmas domiciliarias preventivas que, de acuerdo a las observaciones del estudio, sean aplicables a la mayoría de usuarios frágiles de acuerdo a un comportamiento normal. Este grupo de alarmas preventivas va ligado a un kit tecnológico domiciliario mínimo, capaz de realizar un seguimiento habitual de la mayor parte de las actividades que la persona realiza en su domicilio, cubriendo por tanto, la mayor parte de la vida diaria y sus posibles riesgos. Adicionalmente a estos objetivos, el estudio se ha planteado una observación cualitativa de características sociales y demográficas de la población participante del estudio, su actitud respecto a la tecnología y sus principales hábitos diarios que también se recogen como resultados colaterales de la observación.. 3. Infraestructura y tecnología La selección de la tecnología a implantar en los domicilios de los usuarios/as se ha realizado de acuerdo a cinco criterios principales: capacidad funcional (cobertura de más de un 80% de actividad diaria), simplicidad tecnológica, aceptación de los usuarios, coste y capacidad de integración y crecimiento. Hemos aplicado estos cinco criterios a las dos grandes opciones de arquitectura tecnológica: • Opción TIC: red local doméstica integrada a través de protocolo de sistemas de información estándar y con comunicaciones externas vía IP-ADSL. • Opción Teleasistencia avanzada: red de teleasistencia a través de un concentrador local, el terminal de Teleasistencia De la valoración de las dos posibles opciones tecnológicas, según los criterios de selección enunciados, se concluyó que la mejor opción era la de utilizar la actual red de Teleasistencia local, ampliándola con los dispositivos y sensores de actividad específicos: Criterios Capacidad funcional Simplicidad tecnológica Aceptación de los usuarios Coste Capacidad de integración Opción Teleasistencia Opción TIC avanzada +++++ ++++ ++++ ++ +++++ ++ +++ + ++ ++++ 3.1. Dispositivos Los tipos de dispositivos utilizados son los siguientes: 1. Dispositivos de detección de presencia: sensor de alta sensibilidad en la detección de movimiento gracias al uso de tecnología infrarroja (Passive Infrared o PIR), simple, económica y muy eficaz en la detección de movimiento, tras del cual envía una señal a la Central de Teleasistencia vía el terminal local. Es uno de los detectores estándares en cualquier sistema de seguridad doméstico. Se han instalado dispositivos de presencia en dormitorio, baño, cocina, salón y pasillo. 2. Dispositivos de apertura (magnéticos): el detector magnético es un sensor básico que, conectado a un Terminal de Teleasistencia, avisa de cualquier interrupción de la conexión magnética entre los dos dispositivos instalados, normalmente a ambos lados de una puerta, ventana o batiente. Se han instalado dispositivos magnéticos en la puerta del domicilio y en la puerta del frigorífico. 3. Dispositivos de contacto/presión: sensor que detecta la presión sobre un objeto a través de un peso distribuido en una cierta superficie. Conectado a un terminal de teleasistencia puede enviar una alarma a cada activación o durante un período de activación continuada. Se instalaron dispositivos de presión en el sillón o sofá principal y en la cama del usuario. 3.2 Terminal de Teleasistencia El terminal de Teleasistencia cumplía, en la infraestructura de este proyecto, una triple función: • Función de Hub de conexión de todos los dispositivos domiciliarios: Teniendo en cuenta la instalación de hasta nueve nuevos dispositivos diversos, era necesario disponer de un componente tecnológico central capaz de establecer comunicación y diálogo con todos ellos. • Función de comunicación: aunque algunos de los dispositivos tecnológicos domiciliarios son capaces de establecer comunicación remota, no era este el caso de los 9 elementos nuevos que se instalaban por domicilio en este proyecto por lo que se requería una herramienta común para transmitir a la Central de Teleasistencia todos los avisos y alarmas que generaban cada uno de sus periféricos. • Función de almacenamiento: todos los dispositivos tecnológicos registraban cada activación y desactivación que debía ser consolidado para su análisis en la Central de Teleasistencia. . El terminal domiciliario conservaba cada activación de cada dispositivo y hacía un envío diario en horario nocturno de todas las alarmas registradas. La significación de cada alarma y activación de dispositivo, en esta aproximación, era distinta de la de un dispositivo tradicional de Teleasistencia. Lo que se pretendía era el registro de las actividades diarias por lo que se almacenaban las activaciones diarias para caracterizar la actividad diaria sin que estas activaciones significaran alarmas reales del sistema. El Terminal de Teleasistencia escogido ha sido el Terminal Lifeline Connect+ R (TunstallR). Este terminal es un dispositivo de nueva generación con amplia capacidad de conexión y comunicación de dispositivos periféricos. Cumple todos los estándares europeos y nacionales 84 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos requeridos en el sector y es plenamente multi-protocolo para poder compatibilizar con otras tecnologías existentes en el mercado. 3.3 Otros componentes tecnológicos Los dispositivos tecnológicos y el terminal de Teleasistencia pertenecen a la familia AdlifeR del proveedor TunstallR, que incluye además herramientas de análisis estadísticos simples de activación de dispositivos. Además, para la interpretación de datos y períodos de actividad, se ha utilizado un algoritmo cuantitativo de interpretación de datos y estimación de períodos de activación por tipo actividad propiedad de TecnaliaR. 4. Muestra La muestra de participantes en el estudio se ha obtenido a partir de los usuarios del Servicio Público de Teleasistencia de Madrid que proporciona, entre otros proveedores, Personalia. Se ha seleccionado candidatos con valoración de 4 puntos o superior en la escala de Barber (Fragilidad), en la que se puntúa 0 en caso de no presentar ningún factor y 1 punto por cada uno de los factores definidos en la escala: • Viven solos. • Vive solo y no tiene a quién acudir si necesita ayuda inmediata. • No come caliente más de dos días por semana. • Su salud le impide salir solo a la calle. • Tiene problemas de salud con frecuencia o presenta comorbilidad. • Tiene dificultades para realizar sus actividades diarias habituales. • Ha estado ingresado o ha sufrido una caída en el último año. A cada participante se le planteó su participación voluntaria en el proyecto, se firmó un acuerdo de participación y se le realizó un cuestionario inicial sobre su propia vida diaria y su autonomía. Los datos generales de la muestra son las siguientes: • 40 personas frágiles • Valoración (Barber 4 o superior): 27 Barber 4, 10 Barber 5 y 3 Barber 6. • 36 mujeres y 4 hombres. Todos ellos eran usuarios activos del Servicio Público de Teleasistencia con un mínimo de dos años de permanencia en el servicio. Sólo en 6 de los usuarios se había instalado previamente algún tipo de dispositivo periférico al terminal de Teleasistencia aunque su funcionalidad y tecnología (detector de CO2 o dispositivo de caídas) eran distintas del enfoque funcional del presente proyecto. Se realizaron observaciones en los domicilios de los participantes durante 6 meses completos. 5. Metodología Se han monitorizado las actividades diarias de los usuarios del proyecto durante 6 meses (diciembre 2011 a mayo 2012) en régimen de 24 x 7 de cara a tipificar las actividades y hábitos diarios característicos de este segmento de usuarios. A partir de los sensores instalados en cada espacio de la vivienda se podía tener una visión hasta del 90% de las actividades diarias de los usuarios (justificado numéricamente). Cada activación de cada sensor era enviada al terminal de Teleasistencia y almacenada diariamente antes de su envío al Centro de datos. Las activaciones de los sensores eran completamente transparentes al usuario que realizaba su vida normal sin ninguna intromisión. Al mismo tiempo se recogían también todas las llamadas entrantes y salientes de los usuarios del estudio realizadas al Centro de Atención de Teleasistencia de Personalia en Madrid. Una vez los datos eran enviados cada noche al Centro de datos, éstos se consolidaban y se procesaban de la siguiente forma: • Proceso estadístico: todos los datos de usuario recibían un tratamiento estadístico ‘simple’ que registraba el número de activaciones diarias, la media de activaciones por sensor y por usuario en cada período (diario/semanal y mensual). También se registraban las desviaciones de esta media en los mismos períodos. • Proceso a través del algoritmo cuantitativo: las observaciones diarias se procesaban a través del algoritmo cuantitativo de proceso de activaciones que estimaba los períodos específicos de presencia y actividad en los diferentes espacios del domicilio monitorizados. A través del análisis de este algoritmo se obtenían estimaciones de alta precisión en las siguientes actividades cotidianas: • Sueño/descanso • Baño/aseo • Cocina/alimentación • Salida del domicilio • Actividad/Inactividad La estimación de duración de estas actividades conseguía una alto nivel de precisión (más del 75%) a partir de observaciones de un único sensor (por ejemplo: baño/aseo) mientras que otras (actividad e inactividad) requerían la combinación de diversos sensores (por ejemplo: ratio de actividad/inactividad diarios que necesitaban la acumulación de observaciones de todos los sensores). • Proceso de datos y observaciones cualitativas: de acuerdo a las actividades observadas a partir del algoritmo de análisis cuantitativo, se analizaban diariamente los períodos que caracterizaban a una situación de normalidad de cara a determinar su duración media. Los períodos de ‘normalidad’ se comparaban con otros períodos en los que había constancia fehaciente de anormalidad ya sea por los datos de las llamadas al Centro de Atención de Teleasistencia o por una desviación estadística significativa respecto a la media de activaciones. • Cotejo de datos: las observaciones que se derivaban de los tres tipos de proceso de los datos domiciliarios, se comparaban diariamente para cada usuario. A partir de toda incidencia, se observaba el volumen de activaciones de dispositivos por cada tipo de actividad durante la semana anterior y la semana posterior a la aparición de la incidencia/emergencia. Esta observación permitía detectar, de forma precoz, los primeros síntomas de esta incidencia en casos que estos síntomas se produjeran. 85 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Esta comparación de datos permitía, además, detectar una vida diaria normal e incluso de calidad con unos comportamientos en hábitos de diverso patrón. 4) Algoritmo de análisis cuantitativo: 5.1 Representaciones gráficas de las observaciones: 1) Estadística de las observaciones: 5) Llamadas entrantes/salientes a la Central de Teleasistencia 6. Resultados 2) Períodos de activación 3) Distribución gráfica de activaciones (perfil): • La primera observación respecto a los resultados obtenidos en este estudio de investigación es que la hipótesis inicial sobre impacto de incidencias en la vida diaria ha sido claramente superada y ha permitido llegar a conclusiones muy concretas y prácticas. Durante el período de observación se han producido hasta 61 incidencias de todo tipo en la vida de los usuarios que colaboraban en el proyecto. Los tipos de incidencias producidos son las siguientes: • 12 caídas • 9 enfermedades agudas • 12 intervenciones quirúrgicas • 2 cuidadores fallecidos • 3 depresiones • 1 usuaria fallecida • 22 eventos ‘no ordinarios’ • En total: 61 eventos El impacto de todos estos eventos ha sido significativo, obviamente, con posterioridad a que éstos sucedieran. Pero también hemos detectado un impacto de forma previa a su aparición en la vida de los usuarios. Hemos agrupado los resultados del proyecto en cuatro apartados: • Observaciones de tipo sociológico • Observaciones conductuales • Observaciones en umbrales de normalidad • Observaciones en impacto de las incidencias en la vida cotidiana 86 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 6.1 Sociológicos La autovaloración de los usuarios respecto a su autonomía y su calidad de vida difería claramente: mientras que en la primera, la valoración en una escala de 1 a 5 siendo 1 el valor mejor (muy buena) y 5 el valor peor (muy mala) tiene de media el valor de 3,2 (regular), en la segunda la valoración media era de 2,26 (buena). Esta diferencia en la valoración, en favor de la calidad de vida, indica una buena capacidad de adaptación de los usuarios de la muestra a sus condiciones de vida cotidiana y a sus posibles limitaciones. Todos los usuarios disponían de cuidador y/o asistente para tareas domiciliarias, con mayor o menor intensidad de dedicación, pero nunca inferior a una frecuencia asistencial de dos veces por semana. En el 80% de los casos se trataba de un cuidador profesional. A continuación incluimos las valoraciones de dependencia en actividades diarias: • Índice de Barthel (Actividades básicas de la vida diaria: comer, bañarse, vestirse, arreglarse, deposición, micción, ir al servicio, traslado entre el sillón y la cama, deambulación y subir o bajar escaleras). o Independiente (100): 13 usuarios. o Dependencia leve (60-95): 18 usuarios. o Dependencia moderada (40-55): 3 usuarios. o Dependencia grave (<40): 1 usuario. • Índice de Lawton (Actividades instrumentales de la vida diaria, AIVD: usar el teléfono, ir de compras, preparar la comida, cuidar la casa, lavar la ropa, utilizar medios de transporte, responsabilizarse de su propia medicación, utilizar dinero). o Independiente (8): 3 usuarios. o Dependencia leve (6-7): 13 usuarios. o Dependencia moderada (4-5): 15 usuarios. o Dependencia grave (0-3): 9 usuarios. La valoración específica en distintas actividades de la vida diaria (en una escala de 0 a 1) ha sido la siguiente: o Comer y beber: 0,81. o Desplazarse por la casa: 0,67. o Vestirse y desvestirse: 0,66. o Aseo personal: 0,59. o Administración del hogar: 0,59. o Seguridad y accidentes: 0,53. o Cocinar: 0,49. o Tareas domésticas: 0,40. o Salir a la calle y desplazarse por el barrio: 0,33. o Compras: 0,26 o AUTONOMÍA PERSONAL: 0,52 Aparte de estos datos se tabularon otros indicadores, como: tipo de incidencias domésticas sufridas en los últimos meses, predisposición a la tecnología, expectativa sobre aspectos en los que la tecnología podía mejorar la calidad de vida de los usuarios, predisposición (positiva o negativa) al uso de tecnología en el domicilio, experiencias previas, etc que se encuentran recogidas en el documento completo del estudio como referencia. Aparte del terminal de Teleasistencia y del terminal remoto (UCR), sólo en 6 casos de usuarios se disponía de otro tipo de dispositivos tecnológicos: sensores de CO2/fuego y detector de caídas. En todos los casos, la entrevista al inicio del proyecto demostraba un bajísimo conocimiento de las posibilidades de la tecnología domiciliaria y, al mismo tiempo, una actitud plenamente positiva a incorporar este tipo de elementos en su vida cotidiana. La ejecución del proyecto no significó ninguna incidencia ni intromisión en la vida del usuario. 6.2 Hábitos de conducta La primera conclusión significativa en este estudio respecto a la caracterización de los hábitos de conducta de los usuarios era que, incluso siendo todos ellos usuarios frágiles, había una gran diversidad de comportamientos dentro de la normalidad. De todas formas se observaron 7 parámetros de conducta communes: • Descanso nocturno diario: entre 8 y 10 horas acumuladas cada día aunque con muchas interrupciones nocturnas por diversas causas. Episodios de insomnio comunes en todos los usuarios. • Diferenciación muy clara entre actividades diurnas y nocturnas: se observan los segmentos diurnos y nocturnos con clara distinción y separación, aunque, en el 30% de los usuarios, se producen solapamientos entre actividades diurnas de noche y viceversa. • Nivel de actividad diario (medido en horas de actividad respecto al total de horas diarias): muy alto (por encima del 70%) en 31 de los 40 usuarios. • Horas de sofá y TV: promedio diario de 6 horas diarias (nivel muy alto). • Salidas fuera del domicilio: en 21 de los 40 usuarios se observa salida del domicilio diaria con un período fuera, mínimo, de 2 horas (sólo en cinco casos el usuario/a no salía nunca de du domicilio). • Aseo diario: se observa un promedio diario de 60 minutos, incrementándose hacia el fin de semana. 6.3 Umbrales de normalidad Teniendo en cuenta estas conductas comunes en los usuarios del estudio, su relación con los incidentes en la vida diaria contrastados a través de las llamadas a la Central de Teleasistencia, se pudieron establecer cinco umbrales específicos que indicaban la diferencia entre una situación normal y otra anormal: • Descanso: menos de 8 horas diarias, inicio del descanso nocturno más allá de las 2:00 AM, fragmentación (interrupción de sueño) en más de un 60% o solapamiento sostenido de actividad diurna en horario nocturno o viceversa. • Nivel de actividad diario: reducción o incremento del nivel de actividad diario por encima (o por debajo) del 25% respecto al valor promedio. • Aseo: más de 80 minutos diarios de tiempo de permanencia en el baño diariamente. • Salida del domicilio: menos de dos veces semanales en usuarios con el hábito de salida diaria o regular. • Cocina: permanencia en la cocina durante la noche o más de 60 minutos de tiempo dedicados a cada comida. 6.4 Impactos de las incidencias en los hábitos de conducta diarios 87 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Las incidencias y emergencias observadas en la vida diaria de los usuarios tenían, obviamente, efectos en el nivel y tipo de actividad diaria que el usuario/a realizaba. Sin embargo, en los casos de incidencias, se observaba también un impacto previamente a que se produjera la incidencia: • Incremento o decremento del nivel de actividad diaria por encima del 20% y del 15% respectivamente. • Cambio en el perfil de activaciones de periféricos (frecuencias y volumen de activaciones). • Fragmentación súbita del descanso nocturno. • Solapamiento de actividades diurnas y nocturnas. • Períodos de actividad desordenados para la permanencia en el aseo. • Incremento súbito en la presencia en la cocina y en el uso del frigorífico. • Decrecimiento del tiempo y frecuencia fuera del domicilio. 7. Conclusiones Teniendo en cuenta todas las características del estudio y de los resultados que acabamos de desarrollar podemos concluir en 5 grandes observaciones: 1. La tecnología básica utilizada es capaz de monitorizar de forma muy fiable hasta un 90% de las actividades que el usuario realiza en su domicilio. Sólo en algunos casos (por ejemplo, preparar alimentos) se requiere una combinación más compleja de elementos tecnológicos y sensores. 2. Los usuarios frágiles aceptan y entienden que, el uso de la tecnología, es capaz de proporcionar beneficios y ayudas a su vida diaria. 3. Cuando se produce una incidencia en la vida del usuario se observan modificaciones en un buen número de actividades previamente a que se produzca la incidencia. Las más significativas son: nivel de actividad diario, patrones generales de actividad regulares, tiempo de descanso nocturno y fragmentación de dicho descanso, solapamiento en actividades diurnas y nocturnas, mayor presencia en la cocina y nivel de actividad externa al domicilio. 4. La combinación del uso de los dispositivos tecnológicos domiciliarios permite un excelente uso preventivo de las observaciones de hábitos en la vida diaria. 5. La metodología aplicada a este estudio es potencialmente aplicable a planteamientos similares en otros segmentos de usuarios. El detalle de impacto de las incidencias en la vida diaria de los usuarios permite, además, el establecimiento de hasta 11 alarmas preventivas a implantar a partir del servicio de Teleasistencia Domiciliaria: 1. Desviación en el índice de actividad personal por encima del 20% respecto al valor promedio habitual del usuario. 2. Desvío en el perfil estadístico de activaciones por encima del 20% del valor habitual del usuario. 3. Descanso nocturno inferior a 8 horas o superior a 10 horas. 4. Permanencia en sofá o sillón más allá de 6 horas diarias. 5. Fragmentación del sueño más allá de un 20% sobre el valor personal habitual. 6. Actividad nocturna, fuera del recinto del dormitorio, más allá de 30 minutos. 7. En personas con actividad externa al domicilio, reducción de las salidas domiciliarias a menos de 2 semanales o por un período inferior a 30 minutos. 8. Más de 7 períodos de continencia diarios por más de 7 minutos cada uno o más de 50 minutos acumulados diarios. 9. Menos de 3 períodos de continencia diarios, por menos de 3 minutos cada uno de ellos, o por un período acumulado inferior a 15 minutos diarios. 10. Reducción de los períodos de aseo a uno o ninguno diario. 11. Presencia frecuente en cocina, no relacionada con la alimentación, especialmente en horario nocturno. Uno de los elementos fundamentales en este estudio era la posibilidad de proponer una fórmula específica para poder ampliar el uso de esta infraestructura a una escala mayor dentro de la aproximación de observación de hábitos a partir de un sistema de Teleasistencia Domiciliaria o, en general, a partir del despliegue de Teleservicios sociosanitarios. Los criterios a utilizar para proponer un kit tecnológico domiciliario mínimo son los siguientes: • No intrusión de los componentes tecnológicos en la vida de la persona. • Estabilidad de los componentes y mantenimiento requerido mínimo. • Cobertura de más del 80% de la actividad diaria de la persona. • Tecnología básica y estándar en el mercado (posibilidad de conexión a través de protocolos estándares de la industria). • Mínimo coste, evitando los dispositivos más caros o más complejos. De acuerdo a la experiencia de este proyecto podemos decir que el 80% de mínimo de actividad diaria monitorizable se puede conseguir a través de los siguientes periféricos: • Dispositivo de presencia en dormitorio. • Dispositivo de presencia en salón. • Dispositivo de presencia en cocina. • Dispositivo de presencia en baño. • Dispositivo de contacto en cama. • Dispositivo de contacto en sillón. • Dispositivo apertura de puerta del domicilio. Con estos 7 dispositivos podemos cubrir, según los resultados del estudio, entre el 85% y el 90% de la actividad diaria (por encima del nivel objetivo de diseño situado en el 80%). 8. Referencias [1]. Bengoa R, Nuño R. Curar y cuidar. Innovación en la gestión de enfermedades crónicas: una guía para avanzar. Elsevier, 2009. 88 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos [2]. Brownsell S. et al: “A systematic review of lifestyle monitoring technologies”. Journal of Telemedicine and Telecare 2011. [3]. Brownsell S. et al: “A review of behavioural monitoring methods and recommendations for future use”. Gerontechnology Journal 2010 [4]. Brownsell S. et al: “Developing a Systems and Informatics based approach to lifestyle monitoring within eHealth”. IEEE Int. Conf. o n Healthcare Informatics, Imaging and Systems Biology 2011 [5]. Eusko Jaurlaritza 2010: Estrategia para abordar el reto de la cronicidad en Euskadi [6]. FMC “Formación médica continuada en atención primaria: Atención a los síntomas frecuentes en el anciano (Parte 1, 2 y 3)”. Programa de actualización en Medicina de Familia y Comunitaria (2011-2012). [7]. Glascock A and Kutzik D: “The impact of behavioral monitoring technology on the provision of health care in the home”. J. Univers. Comput. Sci.,12, 2006 [8]. Helal S: “Domotics and robotics supporting for seniors”. Gerontechnology Journal 2010 [9]. Innobasque 2012: Envejecimiento y n uevos servicios de atención en domicilio [10].Kaye J. et al: “Deploying wide-scale in-home assessment technology”. Technology and Aging 2008 [11].C. Lalive d'Epinay, J.-F. Bickel, C. Maystre, N. Vollenwyder : Vieillesse au fil du temps: une révolution tranquille, Réalités sociales, Lausanne, 2000. [12].Litz L and Gross M: “Covering assisted living key areas based on home automation sensors”. IEEE Int. Conf. On Networking Systems and Control 2007. [13].Martin T et al: “Fuzzy ambient intelligence for next generation Telecare”. IEEE Int. Conf. On Fuzzy systems 2006 [14].NacionesUnidas (2002): Informe sobre la Segunda Asamblea Mundial sobre el envejecimiento [15].Sixsmith A et al.: “Monitoring the well-being of older people”, Topics in Geriatric Rehabilitation, 23, 2007 [16].Virone G and Sixsmith A: “Ambient assisted living and in-home activity monitoring”. Gerontechnology Journal 2010 [17].Weiser M et al: “The origins of ubiquitous computing research at PARC in the late 1980’s”. IBM Systems journal 1999 [18].Wild K, Boise et al:. « Unobtrusive In-Home Monitoring of Cognitive and Physical Health: Reactions and Perceptions of Older Adults”. Journal of Applied Gerontology 2008 89 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Medios de pago para todos: TPV accesible Begoña Pino, Mª Dolores Sánchez, Zaida Sancha Redsys S.L. [email protected], [email protected], [email protected] Resumen Redsys tiene la voluntad de construir un m undo más accesible a t ravés de los medios de pago. El proyecto presentado aquí es un primer paso dado en esa dirección. A través de un s istema acústico incorporado a los TPV de pago se indica al usuario que la tarjeta ha sido leída, que debe introducir el pin y si ha habido algún error. La adopción de esta solución incrementa la autonomía y la seguridad de las personas ciegas a la hora de pagar en un comercio. Abstract Redsys is aiming to build a more accessible world through payment systems. The project presented here is a first step in that direction. Through a sound system built into the POS payment tells the user that the card has been read, you must enter the PIN and if there has been an error. The adoption of this solution increases the autonomy and security of blind people when paying at retail. 1. Introducción Desde Redsys, como empresa líder en medios de pago, tenemos la voluntad de ser sensibles a las necesidades de todos los usuarios, incluyendo a aquellos con discapacidad visual, los cuales suman 285 millones de personas en el mundo [1]. Por ello hemos llevado a cabo un análisis exhaustivo de los requerimientos de uso de los TPV y hemos buscado soluciones de accesibilidad que sean viables técnicamente mientras cumplen con la normativa vigente. Más aún cuando no solamente mejoran la calidad de vida de este colectivo, sino que también los hace más accesibles para el resto de los ciudadanos, especialmente aquella parte de la población con restos de visión. Hay cerca de 75000 afiliados a la ONCE [2], todos potencialmente usuarios de tarjetas de pago y la población con visión reducida es mucho mayor, aunque no esté cuantificada. Además entre 1000 y 2000 asociados tienen negocios que requieren cobro con tarjeta [2]. Una parte de estos asociados dispone de smartphones, tendencia que sigue en aumento. Por ello, Redsys ha desarrollado, en colaboración con la ONCE, unas nuevas especificaciones que facilitarán el uso de los TPV a personas ciegas. A partir de este momento, los fabricantes incorporarán un sistema acústico en los productos finales que desarrollen y éstos cumplirán con las especificaciones funcionales del TPV de Redsys. Actualmente nuestro objetivo, es dar a conocer dichos avances y contribuir a su estandarización, incluso más allá de nuestras fronteras, mejorando la accesibilidad de los dispositivos de medios de pago que gestionamos. También estamos trabajando en la elaboración de un manual que incluya no sólo nuevos diseños adaptados a los nuevos dispositivos móviles, sino criterios de usabilidad y accesibilidad, para asegurar que los nuevos productos sean accesibles desde el principio. Es mucho menos costoso diseñar un producto accesible que adaptar uno que no lo es. Aunque intentamos dar respuesta en un primer ciclo a las necesidades de los usuarios ciegos, como pueden ser el pago en terminales no atendidos o la posibilidad de cobrar de manera autónoma, nos planteamos también atender a las necesidades de usuarios con otros perfiles en futuros ciclos. En esta línea, Redsys aspira a ser un referente de accesibilidad en el mercado de los medios de pago. 2. Dificultades en medios de pago Desde Redsys la intención de atender las necesidades de los usuarios ciegos y con visión reducida, está únicamente limitada por la viabilidad técnica y económica, además de normativa. Las dificultades más apremiantes de los usuarios con los medios de pago corresponden a los siguientes escenarios: • En las compras de títulos de transporte, aunque los terminales son ya bastante accesibles, el momento de pago es complicado. A la hora de pagar, el usuario no tiene forma de saber si la tarjeta da algún error, en qué momento pide el pin o si el pin es incorrecto. Ahora mismo, muchos usuarios utilizan un método de ensayo y error: cuando transcurre un tiempo prudencial introducen el pin, y si al final obtienen su ticket, cabe deducir que la operación ha sido correcta. Hay muchos otros productos y servicios que utilizan este tipo de terminales no atendidos, pero para los usuarios ciegos la compra de billetes de transporte es de especial importancia para la autonomía personal. • En las compras en comercios, los usuarios dependen de que el vendedor introduzca el importe correcto y entregue el TPV al usuario para introducir el pin, en el momento en que se requiere. Es posible introducir el pin correcto gracias a la identificación del número 5 mediante un punto en relieve. No es posible verificar el importe. Tampoco se puede estar seguro de que el pin no queda a la vista en 90 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos caso de ser introducido en otra fase de la operación (como la introducción del importe, por ejemplo). El caso de los TPV táctiles es aún más complejo ya que no tiene referencias táctiles. • También se da el caso de muchas personas ciegas que gestionan negocios propios y no pueden cobrar con tarjeta al no poder seguir toda la operativa. • El uso de cajeros presenta diversos desafíos: desde saber si está operativo o no; identificar la operativa deseada; identificar dónde se debe pulsar. Sucede lo mismo que en los TPV, cuando se logra introducir la tarjeta, saber el momento de introducir el pin, que todo es correcto, etc. Ahora mismo, los usuarios memorizan las secuencias de las operaciones más frecuentes, pero cuando la entidad cambia el menú, esta secuencia ya no es válida. Los Jack de audio disponibles en muchos cajeros no son utilizados por las aplicaciones de las Entidades, y la tendencia hacia lo táctil en detrimento de teclados y botones también dificulta el acceso. • Cuando la tarjeta se introduce de manera incorrecta, el terminal impide el acceso completo, pero esto también sucede cuando un cajero está fuera de servicio, por lo que se desconoce el motivo del error. Se necesita una fórmula para garantizar que la tarjeta se introduce en la dirección correcta, de tal manera que si no entra se debe a que el dispositivo está fuera de servicio. Algunas entidades resuelven este punto con una muesca en el lateral de la tarjeta que indica la dirección correcta, pero esta solución no está estandarizada ni es obligatoria. 3. TPV pago accesible En este documento se describe la solución propuesta por Redsys para facilitar una mayor autonomía y seguridad a los usuarios ciegos durante sus pagos con TPV. Dicha solución es la definición de unas especificaciones que incluyan un código de pitidos, descrito a continuación, y que se irá desplegando gradualmente en todo el parque de TPV certificado por Redsys. El proceso de pago más habitual requiere primero la introducción del importe, luego la tarjeta, y el pin a continuación. Si la operación es aprobada se emite un ticket al final. 3.1 Validación técnica Tras analizar las dificultades y la normativa actual se solicita a los principales fabricantes de TPV que realicen unas versiones demostrativas que incorporen un código de pitidos indicando la lectura correcta de la tarjeta, la petición de pin, y la ocurrencia de un error. Un equipo de técnicos de la ONCE valoró esta primera versión y recomendó que todos los pitidos de acciones realizadas correctamente, aceptadas, utilicen tonos agudos y se dejen las graves para las acciones incorrectas (operaciones denegadas,...) que parece más intuitivo de cara al usuario. Es necesario tener en cuenta que, a la hora de definir los tonos adecuados para cada punto de la transacción, existe normativa internacional vigente que debe cumplirse. Además, es necesario puntualizar que el sonido resultante en cada uno de los prototipos depende del hardware de cada equipo, así que no suenan igual los pitidos aunque la especificación sea la misma. Pero según los técnicos de la ONCE, esto no supone ninguna dificultad o problema. 3.2 Validación de usuarios Una vez incorporadas las recomendaciones de los técnicos de la ONCE, se lleva a cabo en la Delegación Territorial de ONCE en Madrid una dinámica de usuarios para evaluar la solución. De los 9 participantes convocados, dos tienen resto visual, y 7 no tienen resto. Se trata de dos personas jubiladas, un estudiante en prácticas y el resto, trabajadores en activo. Cinco son mujeres y cuatro hombres. En un primer intercambio de experiencias se identifican dos situaciones mayoritarias: • Los usuarios que rehúyen del uso de los TPV e intentan hacer estos pagos en metálico. • Usuarios que utilizan los TPV asumiendo riesgos como es el de no identificar el teclado con facilidad para teclear los números y, en la mayoría de estos casos, solicitar al dependiente que está atendiendo al afiliado, que teclee el OK para aceptar la inserción del PIN. Todos coincidían en que los TPV táctiles son imposibles de usar. Se realizaron a continuación diversas pruebas con las siguientes casuísticas: • tarjeta PIN válido y operación finalizada con éxito. • PIN no válido. • PIN válido y operación rechazada. • Operación correcta sin solicitud de PIN. 3.3 Conclusion es Tras la realización de estas pruebas los usuarios manifiestan las siguientes conclusiones: • Este sistema aportaría mayor seguridad y autonomía a los usuarios finales. • La secuencia de pitidos en la que se solicita en PIN de forma reiterada en caso de que este sea no válido es fundamental. • Los usuarios que hasta ahora son reticentes al uso de estos terminales, estarían dispuestos a utilizarlos. 91 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 4. Especificaciones: Tutorización mediante tonos del interfaz para el titular en el TPV de Redsys 4.1. Descripción de la operativa El objeto de esta sección es definir la tutorización mediante sonidos (sistema de pitidos) en el terminal para la operativa con tarjeta en el TPV. • El terminal deberá ser capaz de emitir sonidos en tonos audibles. • El volumen de los sonidos emitidos por el terminal deberá situarse en un nivel apropiado para que el titular pueda oírlos. • La cadena de sonidos emitida por el terminal es utilizada para indicar el progreso de la transacción, para indicarle al titular si el resultado de los procesos es satisfactorio o no y para indicar cuándo deben introducirse datos en el terminal (PIN). • Los sonidos definidos en la operativa deben ser claramente distinguibles entre ellos y de cualesquiera otros que utilice el terminal. Se definen a continuación los siguientes tonos que el terminal deberá incorporar en la operativa: • Tono para tarjeta leída correctamente: será un solo pitido con una frecuencia de, aproximadamente 1500 Hz, forma de onda sinusoidal y una duración de aproximadamente 500 ms. • Tono de proceso correcto: será un pitido con una frecuencia de, aproximadamente 2000 Hz, forma de onda sinusoidal y: o Para el proceso de tecleo del PIN y si el PIN tecleado ha sido correcto, un tono largo, una duración de aproximadamente 500 ms. o Si la transacción se ha aceptado, un tono corto, una duración de aproximadamente 200 ms. • Tono de entrada de datos (tecleo del PIN): el tono de entrada de PIN será un pitido triple con una frecuencia de, aproximadamente 2000 Hz, forma de onda sinusoidal y una duración de aproximadamente 200 ms. El intervalo entre los tres pitidos será de aproximadamente 200ms. • Tono de alerta: el tono de alerta será un pitido doble con una frecuencia de, aproximadamente 750 Hz, forma de onda sinusoidal y una duración de aproximadamente 200 ms. El intervalo entre los dos pitidos será de aproximadamente 200 ms. • Tono para la pulsación de teclas: no se especifica la frecuencia y duración de estos sonidos pero se tendrá en cuenta que deben ser claramente distinguibles de los otros tonos definidos en la operativa y que será igual para todas las teclas no permitiendo distinguir los diferentes dígitos que se tecleen. • Tono para aviso de tarjeta olvidada en el lector: no se especifica la frecuencia y duración de este aviso pero se tendrá en cuenta que debe ser claramente distinguible de los otros tonos definidos en este manual. Deberá tenerse en cuenta que el terminal emitirá durante la transacción únicamente estos tonos y ningún otro que no se haya especificado. 5. Próximos pasos Redsys se ha comprometido con hacer sus dispositivos más accesibles y los próximos proyectos incluyen una aplicación de TPV Móvil accesible, y garantizar la accesibilidad de sus aplicaciones para móviles mediante el uso de un manual de estilo, accesibilidad y usabilidad corporativo. Otro de los proyectos prioritarios es abordar la accesibilidad de los terminales no atendidos, para facilitar la adquisición de billetes de metro o tren. 6. Conclusiones Las especificaciones descritas aquí son una manera sencilla de incrementar la autonomía y seguridad en los pagos con tarjeta para las personas ciegas. Es necesario que se conozcan y apliquen de manera estandarizada, para lo cual deben darse a conocer más allá del entorno de operación de Redsys. 7. Agradecimientos Este trabajo ha sido posible gracias a la colaboración de CIDAT y la Dirección de Autonomía Personal de ONCE. 8. Referencias [1] Organización Mundial de la Salud (OMS). Blindness. Recuperado el 9 de Mayo de 2013, de http://www.who.int/blindness/en/ [2] Fundación ONCE. Hacemos historia. Recuperado el 9 de Mayo de 2013, de http://www.once.es/new/que-es-la-ONCE/brevehistoria/imagina-todo-lo-que-podemos-hacer-juntos 92 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Means of payment for all: accessible POS Begoña Pino, Mª Dolores Sánchez, Zaida Sancha Redsys S.L. [email protected], [email protected] Abstract Redsys aims to build a more accessible world through means of payment. The project presented here is a first step in that direction. By means of a be ep system, the payment device informs the user of those transaction steps that require his/her attention: - Card has been successfully read. - Personal Identification Number (PIN) must be entered. - Transaction successfully processed. - Transaction not completed due to an error. The adoption of this solution increases the autonomy and security of blind people when paying at retail. 1. Introduction At Redsys, a leader in means of payment in Spain, we have the will of being sensitive to the needs of all our users, including those with visual impairment, 285 million people worldwide [1]. Therefore, we have carried out a thorough analysis of the use requirements of our POS and looked for accessibility solutions that are technically viable while meeting current regulations. Moreover, it does not only improve the quality of life of this group, but it also makes them more accessible to the rest of the citizens, especially that part of the population with vision remains. There are about 75,000 ONCE’s [2] members, all potential users of payment cards, and the sighted population is much higher, although not quantified. Between 1000 and 2000 of them also own businesses that require card payment [2]. Some have smartphones, a trend that continues growing. So Redsys has developed, in collaboration with ONCE, new specifications that facilitate the use of POS to blind people. From now on, manufacturers incorporate an acoustic system in the final products that they develop and these POS will meet Redsys’s POS functional specifications. Now, our goal is to present these developments and contribute to its standardization, even beyond our borders, improving the accessibility of the payment devices that we manage. We are also working on the development of a manual that includes not only new designs adapted to the new mobile devices, but usability and accessibility criteria to ensure that every new product is accessible from the beginning. It is more efficient to design an accessible product than to adapt one that is not. Although we try to respond in a first cycle to the needs of blind users, such as unattended payment terminals or the possibility of charging independently, we have also considered to cater to the needs of users with other profiles in future cycles. In this line, Redsys aspires to be a leader in the market accessibility of means of payment. 2. Difficulties in payment methods At Redsys, our intention to meet the needs of users who are blind and visually impaired is only limited by technical and economic viability, as well as regulations. The most pressing user’s challenges with means of payment are the following scenarios: • When purchasing tickets, although terminals are already quite accessible, the moment of payment is complicated. At checkout, the user has no way of knowing whether the card communicates an error, asks for pin or the pin is incorrect. Right now, many users use a trial-error method: when a reasonable time elapses, they introduce the pin, and if at the end they get their ticket, it follows that the operation was successful. There are many other products and services using such unattended terminals, but for blind users buying transport tickets is especially important for their personal autonomy. • When purchasing in shops, users rely on the seller to enter the correct amount and give the POS to the user in order to enter the pin when required. You can enter the right pin by identifying the number 5 by a tactile dot. Verifying the amount is not possible. Neither can we be sure that the PIN is not visible if it is introduced while in another phase of the operation (such as entering the amount, for example). The case of the touch POS is even more complex because it has no tactile references. • There is also the case of many blind people who manage their own business and can not charge with 93 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos card as they can not follow the entire operation. • The use of ATM presents several challenges: from knowing whether it is operating or not; identifying the desired operation; or identifying where to press. It is the same as POS, when you manage to insert the card, find the time to enter the PIN, knowing that everything is correct, etc. Right now, users memorize sequences of the most common operations, but when the bank changes the menu of the ATM software, this sequence is no longer valid. The audio jack available in many cashiers is not used by applications, and the trend, towards touchscreens in detriment of keyboards and buttons, also makes access even more difficult. • When the card is inserted incorrectly, the terminal prevents full access, but this also happens when an ATM is out of service, thus the reason for the error is unknown. A method is needed to ensure that the card is inserted in the correct direction, so that if it does not enter it is because the device is out of service. Some entities resolve this point with a notch in the side of the card that indicates the right direction, but this solution is not standardized and is not binding. 3. POS accessible payment This paper describes the solution proposed by Redsys to facilitate greater autonomy and security for blind users with POS payments. This solution is the definition of specifications that include a beep code, described below, which will be integrated gradually throughout the certified POS park of Redsys. The most common payment process requires first entering the amount, then the card, and finally the PIN. If the transaction is approved, a ticket is issued at the end. 3.1 Technical validation After analysing the difficulties and current legislation leading manufacturers of POS were asked to perform demo versions that incorporate a beep code indicating card correctly read, pin request, and error occurrence. ONCE’s technical team evaluated this first version and recommended that all correct or accepted actions beeps use treble tones and leave bass tones for wrong actions (operations denied ...) which seems more intuitive to the user. It is necessary to note that, when defining the appropriate tones for each point of the transaction, there are international guidelines that must be met. It is also necessary to point out that the resulting sound in each of the prototypes depends on the hardware, so no beeping sound alike although the specification remains unchanged. But according to ONCE’s experts, this is not a difficulty or a problem. 3.2 User validation Once incorporated ONCE’s recommendations, a role playing to evaluate the solution was carried out at the ONCE’s Provincial Delegation in Madrid. Of the 9 participants called, two have residual vision, and 7 have no rest. These are two retirees, a trainee and the remaining are active workers. There are five women and four men. In a first exchange of experiences the most common are these two situations: • Users who avoid using of POS and try to make these payments in cash. • Users who use the POS taking risks such as not easily identifying the keyboard to type numbers and, in most of these cases, ask the sales assistant to type the OK to accept the insertion of the PIN. Everyone agreed that touch POS is impossible to use. Then some tests were performed: • Valid PIN card and operation completed successfully. • Invalid PIN. • Valid PIN and operation rejected. • Correct operation without PIN request. 1. 3.3 Conclusions After these tests users expressed the following conclusions: • This system would provide greater security and autonomy to end users. • The beep sequence requesting the PIN again in case it is not valid is a critical feature. • Users who so far are reticent to use these terminals would be willing to use them. 4. Specifications: Guiding the user during a card transaction with interface tones in the Redsys POS 4.1. Operational description The purpose of this section is to describe the beep system that allows the POS to guide the user through the different steps during a card transaction. 94 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos The POS must comply with the following previous requirements: • The POS must be capable of sounding audible tones. • The volume of the tones must be set at an appropriate level to be heard by the user. • The tones on the POS are used to show the progress of the transaction to the user. Different beeps in the terminal are used to indicate that: the result of a process is successful; there is an error in the process or data must be entered in the POS. • These three different beeps in the POS must be clearly distinguishable between them and any other sounds used in the POS. • The functionality must be compliant with all international standards and requirements previously defined by institutions and Payment Schemes for card transactions. The following terminal tones shall be incorporated during the transaction: • Card correctly read tone: it will be a single beep at a frequency of approximately 1500 Hz, sinusoidal waveform and approximately 500 ms duration. • Correct process tone: it will be a single beep at a frequency of approximately 2000 Hz, sinusoidal waveform and: o If the PIN is correctly entered in the POS, a large tone with a duration of about 500 ms. o If the transaction is accepted, a short tone with a duration of approximately 200 ms. • Tone for data requested in the POs (PIN): the PIN entry tone will be a triple beep at a frequency of approximately 2000 Hz, sinusoidal waveform and duration of approximately 200 ms. Gap between the three beeps will be about 200ms. • Alert tone: it will be a double beep at a frequency of about 750 Hz, sinusoidal waveform and a duration of approximately 200 ms. The gap between the two beeps will be approximately 200 ms. • Tone for keystrokes: frequency and duration of this sound is not described but it should be clearly distinguishable from the other tones defined here for the transaction steps and it will be the same tone for all keys not allowing to distinguish the different keys that can be pressed. • Tone to alert the user that the card has been forgotten in the reader: frequency and duration of this alert is not described but it must be clearly distinguishable from the other tones defined here for the transaction steps. • In order to make each step of the transaction complete clear to the user, the POS must use only the beeps and tones described above and avoid any background sound during the transaction. 5. Next steps Redsys is committed to make their devices more accessible and upcoming projects include a Mobile POS accessible application, and to ensure the accessibility of their mobile applications by using a manual of style, corporate accessibility and usability. Another priority project is to address the accessibility of unattended terminals, to facilitate the acquisition of Metro and train tickets. 6. Conclusions The specifications listed here are a simple way to increase the autonomy and security in card payments for blind people. They should be known and applied in a standardized manner, for which should be made known beyond Redsys operating environment. 7. Acknowledgements This work has been possible thanks to the collaboration of CIDAT and Dirección de Autonomía Personal de ONCE. 8. References [1] World Health Organization (WHO). Blindness. Retrieved on May 9, 2013, of http://www.who.int/blindness/en/ [2] ONCE Foundation. Hacemos historia. Retrieved on May 9, 2013, of http://www.once.es/new/que-es-la-ONCE/brevehistoria/imagina-todo-lo-que-podemos-hacer-juntos 95 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Evaluación de una plataforma de estimulación cognitiva multiparticipante y basada en dispositivos táctiles Víctor Peláez, Sonia García, Roberto González, Luis Ángel San Martín, Vanesa Lobato Departamento de I+D+i, CTIC Centro Tecnológico {victor.pelaez, sonia.garcia, roberto.gonzalez, luisangel.sanmartin, vanesa.lobato}@fundacionctic.org Enrique Pérez, Mieria Tofiño Centro de referencia estatal de atención a personas con enfermedad de Alzheimer y otras demencias del IMSERSO {neuropsicologocrea, mtofiñog}@imserso.es Resumen Durante los últimos años se ha puesto de manifiesto la utilidad de las terapias no f armacológicas para el tratamiento del Alzheimer y otros trastornos cognitivos. A pesar de la existencia de diversas soluciones, los principales problemas que plantean estas terapias son la motivación de los usuarios en su utilización y su adherencia. Este trabajo presenta un nue vo sistema de estimulación que combina sus beneficios con las terapias intergeneracionales y las redes sociales mediante el uso de tecnologías de la información y la comunicación. El objetivo es mejorar la motivación de las personas de avanzada edad en el uso de las terapias de estimulación cognitiva. Además de presentar el diseño tecnológico del sistema, este trabajo recoge las conclusiones de viabilidad técnica y usabilidad del prototipo implementado y evaluado con pacientes reales. Los resultados arrojan conclusiones prometedoras en cuanto al uso de este tipo de sistemas en pacientes con un grado leve de deterioro. Abstract The utility of non-pharmacological therapies for the treatment of Alzheimer's and ot her cognitive disorders has been proved in last years. Despite the existence of several solutions, the main problems posed by these therapies are the user's motivation and continuity of use. This paper presents a new stimulation system that combines its benefits with intergenerational therapies and s ocial networks through the use of information and c ommunication technologies. The main objective is to improve the motivation of the older people in the use of cognitive stimulation therapies. In addition to presenting the technical design of the system, this paper gathers the findings of technical feasibility and usability of the prototype implemented, which has also been evaluated with real patients. Results show promising conclusions about the use of these types of systems by patients suffering from mild levels of dementia. 1. Introducción En los últimos años se ha puesto de manifiesto la utilidad de las terapias no farmacológicas para el tratamiento del Alzheimer y otros trastornos cognitivos [1]. Las diferentes soluciones desarrolladas a lo largo de los años permiten a las personas con alguno de estos trastornos ejercitar diferentes funciones cognitivas empleando juegos sobre diferentes soportes: fichas en papel, pantallas táctiles, plataformas Web, aplicaciones interactivas de televisión digital, mesas multitáctiles o Tablets. A pesar de la existencia de diversos productos y servicios comerciales algunos de los principales problemas que plantean estas terapias son la motivación de los usuarios en su utilización y su adherencia. En la actualidad este tipo de terapias son empleadas de manera mayoritaria dentro de los centros de atención de este tipo de patologías. En paralelo la investigación en terapias no farmacológicas ha evolucionado también hacia los conceptos de interacción social e intergeneracional. De este modo se pretende potenciar la interacción de personas que sufren algún tipo de deterioro cognitivo con otras personas en la misma situación, terapeutas u otros agentes en el sistema de atención. El objetivo es que dicha interacción social les pueda motivar y ayudar en su proceso terapéutico. Como especialización de dicha interacción social, las intervenciones intergeneracionales persiguen el desarrollo de terapias en las que la interacción entre personas de diferentes grupos de edad es un factor clave para mejorar la calidad de vida de dichas personas [2]. Este trabajo presenta un sistema que combina los beneficios de las terapias de estimulación cognitiva basadas en juegos terapéuticos con las terapias intergeneracionales y las redes sociales mediante el uso de tecnologías de la información y la comunicación. El objetivo es que el uso de redes sociales para poner en contacto diferentes generaciones mejore no sólo la motivación de las personas de avanzada edad en el uso de los juegos de estimulación cognitiva, sino los efectos de dichos juegos. El sistema cuenta con una plataforma de juegos de estimulación cognitiva multijugador que puede ser empleada en uno de 96 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos sus extremos por jóvenes mediante algún tipo de red social y en otro por familiares de avanzada de edad mediante algún soporte de uso sencillo como un Tablet. Se presenta el diseño técnico de la plataforma, las principales consideraciones de usabilidad tenidas en cuenta durante el diseño de la interfaz de usuario y una primera evaluación del sistema con pacientes reales. Dicho sistema ha sido desarrollado en el marco del proyecto COGNIGEN (Sistema de estimulación cognitiva multiparticipante con interacción intergeneracional), financiado parcialmente por el Instituto de Mayores y Servicios Sociales (IMSERSO) dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011, referencia 222/2011. Tras este primer apartado de introducción se presenta en (2) una recopilación de herramientas y sistemas empleados para la estimulación cognitiva. En (3) se describe la propuesta de sistema de estimulación cognitiva. En (4) se describe el tipo de juego desarrollado, mientras que en (5) se muestran las consideraciones de usabilidad tenidas en cuenta a la hora de diseñar la interfaz de usuario. En (6) se especifican las funcionalidades de las que consta el sistema. A continuación, en (7) se presenta el proceso de evaluación con pacientes reales cuyos resultados son posteriormente discutidos en (8) para finalizar en (9) con las conclusiones y trabajos futuros. 2. Sistemas de estimulación cognitiva mediante tecnologías de la información Las plataformas de estimulación cognitiva más populares y usadas en la actualidad en los centros asistenciales incluyen un variado conjunto de juegos. Algunos de los más populares son: Gradior [3], Feskits [4], Brain Fitness [5], Cognifit/MindFit [6], My Brain Trainer [7], Brain Age [8], Dakim [9]. Más allá de los productos comerciales o bien establecidos en el mercado, parte de la investigación realizada en España y Europa en los últimos años se centró en desarrollar plataformas de juegos en otros soportes más sencillos de usar por las personas de avanzada edad. Entre dichos proyectos podemos destacar los siguientes: • Entrena tu mente [10], herramienta de estimulación cognitiva diseñada para ser empleada mediante un entorno Web y en televisión mediante el uso de un receptor de televisión digital interactivo. • Definición de un sistema inteligente para la estimulación cognoscitiva de enfermos de Azlheimer a través de la televisión digital terrestre [11]. Dentro de este proyecto se diseñó una plataforma de estimulación cognitiva basada en juegos terapéuticos especialmente orientados a su uso mediante una aplicación de televisión digital terrestre. • Elder Games [12]. Dentro de este proyecto europeo se desarrolló un prototipo de mesa interactiva de juegos con fines terapéuticos y especialmente diseñada para personas ancianas. El funcionamiento de dicho dispositivo es similar al del actual Surface de Microsoft. Independientemente de que los diferentes productos o resultados de los proyectos de investigación hayan obtenido una herramienta más o menos usable por los usuarios finales o en uno u otro soporte (pantalla táctil, ordenador, televisión digital, videoconsola, etc.) ninguno de estos sistemas contempla la interacción social entre los usuarios o entre personas de diferentes generaciones. Uno de los primeros trabajos exitosos en el campo de los juegos intergeneracionales empleando las tecnologías de la información y la comunicación fue el propuesto por Khoo et al [13] en 2006. En dicho juego personas de avanzada edad comparten un espacio físico con niños o jóvenes mientras juegan a un juego denominado “Age Invaders” empleando un entorno de realidad aumentada mediante el uso de un suelo especial. Aunque desde el punto de vista terapéutico el juego incidía en aspectos sociales, físicos, cognitivos y sicológicos de las personas ancianas, el tipo de juego implementado (basado en disparar entre los participantes) no fue validado desde el punto de vista terapéutico. Más recientemente el proyecto europeo Sociable [14] plantea el uso de mesas multitáctiles, como Microsoft Surface, y Tablets para el desarrollo de una plataforma de juegos de estimulación cognitiva que al mismo tiempo permita interconectar los hogares de los usuarios y los centros de atención, creando de este modo una red social entre los diferentes agentes y los usuarios. Además de en el desarrollo de juegos de estimulación cognitiva, el proyecto hace hincapié en la interacción social pero sin incidir específicamente en la interacción entre diferentes generaciones. Otro factor a tener en cuenta es que en algunos intentos de acercar a las personas de avanzada edad a las redes sociales, se han intentado desarrollar redes sociales a medida en lugar de fomentar la inserción de los usuarios en las ya existentes a nivel mundial (Facebook, Tuenti, MySpace, etc.). Los estudios realizados al respecto revelan que las personas mayores no emplean las redes sociales ya existentes no por falta de conocimientos técnicos, sino por desinterés [15]. Si además se tiene en cuenta que los últimos datos sobre el uso de redes sociales indican que el 77% de los usuarios de internet en España emplean Facebook con más de 5 horas de uso al mes [16], queda de manifiesto que cualquier intento de acercar las redes sociales a las personas de avanzada edad tiene que pasar por el acercamiento a las redes existentes en la actualidad. 3. Descripción propuesto del sistema En la Figura 1 se muestra un esquema de la arquitectura de la plataforma, con sus componentes y los distintos perfiles de usuario que intervendrán. 97 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos desarrolló siempre pensando en el grupo de los pacientes, ya que serán los que aportan las principales restricciones de diseño. A continuación se detallan los principales escenarios que contempla la plataforma de juegos y que están recogidos en el diagrama de casos de uso de la Figura 2. En estos escenarios varía el número de participantes, perfil de los participantes y el dispositivo utilizado en el juego. Figura 1: Esquema general del sistema Existen dos tipos de clientes, destinados a los dos tipos de dispositivos contemplados en el sistema. El cliente de juego para Tablet permite, además del juego en sí mismo, el resto de tareas que deban realizarse como paso previo al juego (identificación del usuario, selección de los posibles oponentes, etc.). El cliente de juego para red social es una aplicación que se ejecuta en un PC o dispositivo similar a través de un navegador web, utilizando las ventajas de alguna red social para su alojamiento e identificación de usuarios. Las funcionalidades de esta aplicación son las mismas que las de la aplicación que se ejecuta en el Tablet. La mayor diferencia existente entre ellas es el modo de uso de las mismas (táctil en el caso del Tablet y con el ratón y/o teclado en el caso del cliente de la red social). Las dos aplicaciones cliente deben comunicarse entre sí para poder utilizar la funcionalidad multijugador de la plataforma. Para ello se desarrolló una tercera aplicación que hace la función de servidor de juegos. Se trata de un servicio transparente para los usuarios finales de la plataforma de juegos, pero que está en permanente comunicación con las dos aplicaciones de tipo cliente existentes. Su principal cometido es el de servir de intermediario entre los clientes para informar del estado del juego a ambas partes, y que éste sea siempre consistente. Es además el encargado de generar y transmitir los juegos a los clientes, además de almacenar la información necesaria para que los terapeutas puedan realizar un seguimiento de los pacientes. Existen tres tipos de perfiles de usuario principales: • Pacientes con algún tipo de demencia diagnosticada: Se trata del principal grupo de usuarios al que va dirigida la aplicación. • Familiares de los pacientes: se trata de familiares u otro tipo de personas en el entorno del paciente que deseen utilizar la plataforma de juegos como parte de este proyecto para apoyar a los mismos. • Profesionales: los terapeutas pueden utilizar la plataforma de juego como parte de sus sesiones con los usuarios y como un instrumento terapéutico más. Si bien las características de estos 3 tipos de usuarios son diferentes entre sí, la plataforma de juegos no ofrece contenidos diferentes dependiendo del perfil del usuario. Es decir, si un paciente utiliza un Tablet lo hará con la misma interfaz y con las mismas opciones que si lo hace un terapeuta o un familiar. Esto es debido a que la interfaz se Figura 2: Escenarios de uso de la plataforma 4. Juego de estimulación A lo largo de todo el proyecto se contó con la colaboración de profesionales del Centro de Referencia Estatal de Alzheimer y otras demencias del IMSERSO en Salamanca (CRE-Alzheimer), siendo esta colaboración especialmente importante para las etapas de definición de requisitos y de evaluación. El equipo de terapeutas de este centro sugirió que el juego a desarrollar sirviera para potenciar las capacidades de la memoria. Dentro de los posibles juegos existentes, propusieron un juego consistente en destapar parejas de cartas con el objetivo de encontrar parejas de imágenes iguales. El motivo de esta elección es que en el centro se realiza este mismo juego con fichas o cartas físicas y se cree que sería útil disponer de este juego en formato electrónico. Se trata, además, de un juego con una dinámica simple que se adapta bien tanto al juego en solitario como al juego en parejas. Aunque el prototipo actual del sistema de estimulación sólo dispone de este tipo de juego, el diseño de la arquitectura de la plataforma soporta que en el futuro pudiera ampliarse con más tipos de juegos. 5. Interfaz de usuario Teniendo en cuenta las capacidades especiales de los usuarios finales de la plataforma de estimulación, se ha prestado especial atención al diseño de la interfaz para que sea lo más usable posible [17][18]. La etapa de diseño de la interfaz de usuario de la plataforma de juegos tuvo en consideración tanto guías de usabilidad como las opiniones de los profesionales sanitarios involucrados en el proyecto COGNIGEN. Teniendo en cuenta los usuarios potenciales de la aplicación, el principal requisito de diseño fue la simplicidad. En los siguientes párrafos se detallan algunas 98 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos de las decisiones más importantes llevadas a cabo durante esta fase de diseño. Aspecto general: La interfaz se ha simplificado al máximo para evitar las distracciones (muy comunes en este tipo de usuarios) y se fomenta que el usuario preste atención a las partes que realmente contienen la información o con las que necesita interactuar. Así, se evita el uso de efectos visuales meramente decorativos, como animaciones, elementos en movimiento, etc. Consistencia: La aplicación está formada por varias pantallas, con diferentes elementos y funcionalidades en cada una de ellas. Sin embargo, aunque sean distintas entre sí, tienen un estilo común, de modo que el usuario pueda establecer una continuidad entre ellas. Este estilo viene determinado, entre otros elementos, por el fondo, la combinación de colores de los elementos, el tipo de texto o el posicionamiento de determinados elementos comunes en las diferentes pantallas. Navegación: La navegación por las diferentes pantallas de la aplicación se realiza de manera sencilla y clara, de forma que la propia aplicación guíe al usuario. La transición entre pantallas es consistente a lo largo de toda la aplicación, es decir, que si un botón u otro elemento produce un cambio de pantalla en un momento dado, ese mismo botón debería realizar esa misma acción siempre que se pulse. Colores: La combinación de colores utilizada a lo largo de la aplicación determina en gran medida la legibilidad de la interfaz por parte de los usuarios. Ha de tenerse en cuenta que con la edad, además de las frecuentes pérdidas en la calidad de la visión, se producen cambios en la percepción de los colores. Estos cambios se traducen, generalmente, en que las personas mayores ven disminuida su capacidad de distinguir colores parecidos entre sí. Es por ello que los diferentes elementos de la aplicación tiene colores con un gran contraste entre ellos. Este contraste cobra especial relevancia entre los textos y el fondo sobre el que estén escritos, ya que para asegurar la legibilidad deberá ser el máximo posible. Fondo de pantalla: El fondo de la aplicación se mantiene uniforme a lo largo de todas las pantallas para mantener una sensación de continuidad. Se trata además de un fondo liso para no distraer la atención del usuario. Se distingue claramente el fondo de la aplicación de los elementos de la aplicación propiamente dichos. Texto: La aplicación emplea una fuente de tipo "sans serif" ya que dispone de caracteres simples, sin excesivos elementos distractorios o adornos que facilita al usuario final la comprensión del mensaje que se quiere transmitir. El texto se presenta además en un formato normal, sin cursivas y negritas. Feedback: Además de los mensajes de la aplicación que sirven para indicar al usuario las tareas a realizar, existen otro tipo de mensajes que informan del estado de la aplicación o proporcionan mensajes de ánimo durante el juego. Al primer grupo pertenecen, por ejemplo, los mensajes de espera de la aplicación. Se trata de mensajes o elementos visuales que indican que la aplicación está realizando alguna acción que se alargará a lo largo de un intervalo de tiempo. Por otro lado, es importante prestar atención al estado de ánimo del usuario mientras se encuentra jugando. Para ello se proporcionan mensajes tanto visuales como sonoros para potenciar un éxito y para evitar frustraciones ante fallos. Interacción con el Tablet: La característica principal derivada del uso de un Tablet es el modo de interacción. Los usuarios pulsarán con los dedos sobre la pantalla para interactuar con los elementos. Por ello, los elementos sobre los que se pueda pulsar deben ser lo suficientemente grandes para que el usuario tenga una zona de acción amplia. Deben tenerse en cuenta posibles problemas como la rigidez en los dedos o problemas en la coordinación de movimientos, que dificultan las pulsaciones en los lugares correctos. Los Tablets permiten varios tipos de interacciones táctiles: pulsaciones cortas, largas, arrastrar y soltar, separar o juntar los dedos para indicar un zoom, etc. La aplicación no utiliza diferentes tipos de pulsaciones, sino que se restringirse a la pulsación normal (pulsar y soltar) para todas las acciones. Se cree que introducir diferentes tipos de pulsaciones crearía confusión a los usuarios. Además la interfaz de usuario responde de igual modo ante pulsaciones prolongadas en el tiempo que ante pulsaciones cortas. 6. Funcionalidades de plataforma de juegos la En el marco del proyecto COGNIGEN se ha desarrollado un prototipo que contempla las siguientes funcionalidades: Identificación: El usuario debe identificarse en el sistema antes de empezar a jugar, ya que para poder iniciar una partida en modo multijugador, el sistema debe mostrarle sus posibles contrincantes y para ello necesitará saber de qué usuario se trata. Esta identificación se realizará utilizando las credenciales de la red social elegida. En la Figura 3 se muestra el aspecto de la aplicación tras la identificación de un usuario. Figura 3: Identificación Selección del modo de juego: El usuario puede elegir entre jugar en solitario o contra otro usuario. Selección del contrincante: Los posibles contrincantes de cada usuario serán los contactos que tenga en la red social y que estén conectados en ese momento. La aplicación mostrará al usuario las personas que cumplan estos criterios y el usuario podrá seleccionar contra quién desea jugar (Figura 4). 99 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos . del cliente de red social se accede a ellas a través de un navegador web (Figura 6) Figura 4: Selección de contrincante Envío de invitación: Cuando el usuario escoja el usuario concreto contra el que desea jugar, se enviará una invitación hacia dicho usuario. A partir de este momento el usuario quedará en un estado de espera hasta que su contrincante confirme o rechace la invitación. No obstante, el usuario podrá cancelar la invitación en cualquier momento. Recepción de invitación: Los usuarios que estén conectados en el sistema pueden recibir invitaciones de juego de otros usuarios, pudiendo aceptar o rechazar dicha invitación. Si el usuario acepta la invitación, comenzará una partida entre los dos jugadores. Proceso de juego: En el modo multijugador, a los dos usuarios se les mostrará el mismo tablero con una serie de cartas tapadas. Se establece un proceso de turnos mediante el cual en todo momento sólo puede interactuar con el tablero uno de los jugadores para destapar un par de cartas. Si el par de cartas coincide se trata de un acierto y el usuario seguirá teniendo el turno. Si el par de cartas no coincide, el turno pasará a su contrincante. El juego finalizará cuando se hayan encontrado todas las parejas de cartas y el ganador será el usuario que haya encontrado más parejas. El funcionamiento del juego en el modo de juego en solitario es muy similar, diferenciándose en que no existe el concepto de turnos. La Figura 5 muestra una captura del tablero del juego con dos parejas de cartas descubiertas y el resto de parejas ocultas, en un juego multijugador. Figura 6: Tablero de juego en cliente de red social A la hora de implementar el cliente de red social se eligió Facebook como entorno tecnológico para desarrollar el prototipo, ya que cuenta con un SDK para aplicaciones web y móviles sobre la plataforma Android. 7. Evaluación Una vez implementado el prototipo de la plataforma de estimulación cognitiva se llevó a cabo una evaluación de la usabilidad utilizando técnicas de observación y cuestionarios para los profesionales sanitarios o terapeutas a su cargo. El objetivo inicial de esta evaluación era comprobar si el sistema resultaba fácil de usar por parte de los usuarios, así como recoger las impresiones generales de los terapeutas acerca de la viabilidad del sistema para la estimulación cognitiva de los pacientes. Los objetivos concretos de la evaluación eran: • Determinar la usabilidad del Tablet en el colectivo de las personas con cierto grado de demencia. Para las pruebas se dispuso de Tablets de dos tamaños diferentes: 7 y 10 pulgadas. • Evaluar la experiencia de juego, es decir, averiguar si los usuarios comprenden la mecánica del juego, el concepto de turnos, etc. 7.1. Participantes y entorno de evaluación Figura 5: Tablero de juego Cabe resaltar que en el desarrollo del prototipo se ha tenido en cuenta la personalización de diferentes aspectos del juego que influyen directamente en la complejidad del mismo, de modo que pueda ser adaptable al grado de deterioro de cada usuario. Los parámetros personalizables son el tamaño del tablero de juego (se permite un número variable de cartas entre 8 y 16) y el tiempo de exposición del estímulo (el tiempo durante el que se muestran las cartas que no forman pareja antes de que se vuelvan a ocultar). Todas las funcionalidades mencionadas se encuentran disponibles tanto para el cliente de Tablet como para el cliente de red social. Las pantallas son muy similares entre ambos clientes, siendo la mayor diferencia que en el caso Para llevar a cabo la evaluación de la plataforma, doce personas con algún tipo de demencia fueron seleccionadas entre los pacientes del CRE-Alzheimer de Salamanca. Dos de estas doce personas sufrían deterioro cognitivo de grado leve, mientras que el nivel de deterioro de las otras diez personas podía considerarse moderado. La edad de los participantes en el estudio variaba entre los 55 y los 90 años, con una media de 79 años y una moda de 86 años. En la escala de deterioro global (GDS) los usuarios contaban con valoraciones entre 3 y 5, siendo 4 el valor más habitual. Aunque en general los pacientes seleccionados no tenían experiencia previa en el uso de ordenadores, como parte de su actividad dentro del CRE-Alzheimer sí que estaban acostumbrados a realizar actividades de estimulación en otros soportes electrónicos, como pantallas táctiles o la videoconsola Nintendo Wii. Las pruebas con los pacientes seleccionados fueron llevadas a cabo en el CRE-Alzheimer, utilizando una cámara Gesell compuesta por dos habitaciones contiguas, 100 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos con un espejo de una sola dirección entre ellas. La sala en la que estaban los usuarios estaba equipada con una mesa sobre la que los usuarios podían apoyar los Tablets. Un terapeuta del CRE-Alzheimer los acompañó durante todo el proceso para asistirlos en aquellas dudas que pudiesen tener durante el uso del sistema. El terapeuta que asistió a los experimentos no era siempre el mismo, sino que en el experimento realizado participaron en total cuatro terapeutas. La observación de los usuarios fue realizada por el propio terapeuta que acompañaba a los pacientes y por un grupo de investigadores ubicados en la habitación contigua . (Figura 7) Figura 7: Entorno de evaluación 7.2. Procedimiento de evaluación Cada uno de los pacientes que participaron en la evaluación del sistema empleó el sistema durante 15 o 20 minutos aproximadamente. El número de partidas que se jugaron en cada sesión fue variable puesto que dependía de la velocidad de manejo del dispositivo por parte del usuario. Dado que los usuarios estaban acostumbrados a jugar al mismo tipo de juegos pero en otros soportes, los terapeutas les explicaban el uso básico del Tablet al comienzo de cada sesión. Esta explicación incluía las principales características de uso del sistema y la resolución del juego. El procedimiento empleado durante las pruebas fue el siguiente: • Las pruebas las realizaron un máximo de dos usuarios de manera simultánea, y cada uno de ellos estuvo siempre acompañado por un terapeuta. • El proceso de identificación del usuario en el sistema se realizó por parte del equipo investigador antes de que el usuario tuviera acceso al dispositivo. De esta manera, la primera impresión del usuario con el dispositivo era que le daba la bienvenida a él, ya que presentaba su nombre y su foto. • Si los terapeutas observaban que el usuario no era capaz de utilizar el dispositivo manualmente, le mostraban el uso de un lápiz especial con el que podían pulsar sobre la pantalla. • Debido a las características de los usuarios, se acordó configurar el tablero con 8 cartas (es decir, se podrían formar 4 parejas diferentes). Para algún paciente concreto los terapeutas indicaron que se podía utilizar el tablero completo (16 cartas para formar 8 parejas). • • Los usuarios jugaron una serie de partidas con el modo de juego en solitario con el dispositivo de 10 pulgadas. Si el terapeuta lo consideraba oportuno, se le mostraba el de 7 pulgadas y se le permitía jugar con él. Al finalizar, el terapeuta le preguntaba al usuario por sus preferencias entre los dispositivos. Cuando los terapeutas lo consideraban oportuno, teniendo en cuenta el conocimiento que tienen de los pacientes y la habilidad que hubiesen mostrado en el modo de juego en solitario, proponían que el usuario utilizase el modo multijugador. Los usuarios podían jugar entre ellos (en la misma sala) o contra un terapeuta que no se encontraba físicamente en la sala con ellos. Durante las pruebas, el sistema recogía de manera autónoma diversos indicadores relativos a la interacción de los usuarios, como por ejemplo el tiempo necesario para completar el juego, o el número de intentos en cada juego. Al mismo tiempo, los investigadores situados en la habitación contigua registraron otros aspectos relevantes de la interacción de los usuarios. Tras finalizar la evaluación del sistema con todos los pacientes, se enviaron cuestionarios de evaluación individuales a cada uno de los terapeutas que habían estado presentes durante las pruebas. Se les preguntaba acerca de sus impresiones generales respecto al sistema, diferencias que habían observado entre niveles de deterioro leve y moderado, etc. 7.3. Resultados del experimento La Tabla 1 muestra los tiempos de juego medios recogidos para cada usuario en cada tipo de dispositivo y tamaño de juego según los experimentos realizados en modo individual. Se indica además el nivel de deterioro cognitivo asociado a cada usuario (leve o moderado). De la comparación de resultados entre los juegos desarrollados empleando el Tablet de 10” y el de 7” se deduce que no existen diferencias significativas. Aunque la media de tiempo de juego es de 2:33 minutos en el caso del Tablet de 10” y de 1:52 minutos en el de 7”, la prueba t de Student para dos muestras independientes y suponiendo varianzas desiguales indica que no existe una diferencia estadística significativa entre los tiempos de ambos Tablets (Estadístico t = 2,001 – Valor crítico de t = 2,131 – P(T ≤ t) para dos colas = 0,063). Tabla 1. Tiempos de juego por usuario, Tablet y tamaño de juego en modo individual. Usuario (Leve / Moderado) 1 (L) 2 (M) 2 (M) 3 (M) 3 (M) 4 (M) 5 (L) Nº juegos jugados Tamaño Tablet (pulgadas) Tamaño Tablero (fichas) 3 3 2 4 1 2 2 10” 10” 7” 10” 7” 10” 10” 8 8 8 8 8 8 8 Tiempo medio juego (σ) (minutos) 2:22 (1:18) 2:39 (0:52) 2:36 (0:51) 2:14 (0:26) 1:26 4:14 (0:20) 3:03 (1:30) 101 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 5 (L) 6 (M) 6 (M) 7 (M) 7 (M) 8 (M) 8 (M) 9 (M) 10 (M) 11 (M) 11 (M) 12 (M) 2 2 1 2 1 5 1 4 3 3 1 2 7” 10” 7” 10” 7” 10” 7” 10” 10” 10” 7” 10” 16 8 8 8 8 8 8 8 8 8 8 16 0:58 (0:36) 1:30 (0:31) 1:35 1:41 (1:41) 1:08 1:26 (0:32) 2:11 2:57 (0:46) 4:34 (0:22) 2:44 (0:34) 3:11 1:52 (0:06) La Tabla 2 muestra los resultados en modo multijugador cuando el usuario jugaba contra uno de los terapeutas. En todos los casos se emplearon Tablets de 10”. Los resultados muestran que los tiempos de juego aumentan significativamente en el caso de usuarios como el usuario 12. Esto es debido a que el juego en modo multijugador por turnos incrementa el tiempo necesario de memorización de las fichas del tablero y por tanto aumenta la dificultad del juego. Esto provoca que los tiempos de juego aumenten significativamente en el caso de determinados jugadores en función de su nivel de deterioro y capacidades. Tabla 2. Tiempos de juego por usuario, y tamaño de juego en modo multijugador. Usuario (Leve / Moderado) Nº juegos jugados 5 (L) 2 3 (M) 2 12 (M) 3 Tiempo medio juego (minutos) Tamaño Tablero (fichas) 03:56 02:34 05:18 03:44 05:40 06:01 03:29 16 16 8 8 16 16 16 Los resultados en los juegos realizados entre dos usuarios muestran resultados similares. 7.4. Impresiones de los terapeutas En relación a los comentarios realizados por los terapeutas y profesionales del CRE-Alzheimer destacar que todos ellos valoraron positivamente el sistema y coincidieron en que podría ser utilizado para la estimulación cognitiva, si bien puntualizaron que su uso lo recomendarían para pacientes con un grado leve de deterioro. El cuestionario fue cubierto por 4 terapeutas. En primer lugar, en cuanto a la interfaz del Tablet, los terapeutas consideran que es bastante sencilla de manejar para los usuarios. Un 75% de ellos considera que es más adecuado el uso del Tablet de 10 pulgadas, sin embargo en las pruebas realizadas con los usuarios éstos no se decantaron especialmente por ninguno. En relación a la validez de la plataforma como complemento a las terapias existentes y al interés que pueda tener para los usuarios el jugar contra otra persona, el 90% de los terapeutas está completamente de acuerdo en ambas afirmaciones. La comprensión por parte de los usuarios de los conceptos que conlleva el juego en modo multijugador no está tan clara como en el caso anterior, ya que el 90% de los terapeutas creen que los usuarios sí comprenden los conceptos, aunque no lo afirman con total seguridad. Para los pacientes con deterioro cognitivo leve, los terapeutas responden con unanimidad que podrían jugar en solitario con ayuda de un profesional. Además, el 90% de ellos están completamente seguros de que podrían jugar contra otra persona si están acompañados de un terapeuta. Si no se cuenta con ayuda de un terapeuta, se sigue considerando con bastante seguridad que los usuarios serán capaces de jugar en solitario y con algo menos de seguridad (un valor de 3,7 sobre 5) que serán capaces de hacerlo contra otra persona. En relación a los pacientes con deterioro cognitivo moderado, los terapeutas responden con menor seguridad (un valor de 4 sobre 5) al hecho de que puedan jugar en solitario o contra otra persona, con ayuda de un profesional. Por el contrario, los terapeutas consideran que el paciente no será capaz de jugar sin ayuda (el 90% de los terapeutas le asigna a esta afirmación un valor menor o igual a 2 sobre 5). 8. Discusión A la vista de los resultados del experimento de evaluación pueden extraerse una serie de conclusiones acerca de las primeras impresiones de los usuarios con el sistema. Para lograr una buena experiencia de usuario fue necesario adecuar el comportamiento de la aplicación a las diversas formas de pulsar detectadas. Tras estos cambios, los usuarios encuentran que la aplicación responde de manera más adecuada. El único problema que persiste en cuanto a la usabilidad es que a veces tienden a apoyar la mano completamente sobre la pantalla del dispositivo. Sin embargo, es de esperar que tras un uso más frecuente del Tablet se acostumbren a mantener la postura adecuada. La observación del proceso de pruebas por parte del personal investigador permitió determinar que los usuarios parecen sentirse cómodos usando el Tablet y entienden fácilmente el modo de interactuar con él. Además, utilizaron dispositivos de 2 tamaños de pantalla diferentes (10 y 7 pulgadas) y no apreciaron grandes diferencias entre ellos. Por otro lado, para obtener conclusiones acerca de la validez del juego como terapia será necesaria la realización de un estudio de validación mucho más extenso en el tiempo y que involucre a un mayor número de usuarios, principalmente con un nivel de deterioro leve. Sin embargo, de la evaluación realizada dentro del alcance del proyecto sí que se puede resaltar como resultado preliminar que la disposición de los usuarios hacia el juego es buena y que la solución técnica propuesta es viable. Además, el juego multijugador parece incentivar la motivación que el usuario tiene para jugar (por ejemplo, está más predispuesto a jugar más partidas para ver si consigue ganar al compañero, o para continuar ganando). Esto queda de manifiesto también en los cuestionarios cubiertos por los terapeutas, ya que ven adecuado el uso de la plataforma de juegos como complemento a otras terapias de estimulación cognitiva existentes, pues tiene una interfaz sencilla de manejar y puede aumentar el interés del paciente hacia el juego. Durante la fase de pruebas han utilizado la plataforma de juegos un total de 12 pacientes con deterioro cognitivo leve 102 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos y moderado. Los terapeutas establecen claras diferencias entre el posible aprovechamiento de la plataforma que podrían tener estos dos tipos de pacientes. En el caso de los pacientes con un nivel leve, afirman que serán capaces de jugar tanto en modo individual como contra otra persona aunque no dispongan de ayuda para ello. Por el contrario, en el caso de los pacientes con un nivel moderado, el factor de la ayuda es determinante. Si disponen de ayuda, los terapeutas opinan que los pacientes sí podrían jugar mientras que si no existe dicha ayuda ven muy complicado que puedan conseguirlo. De esta forma, queda de manifiesto que la plataforma de juegos desarrollada podría ser utilizada sin supervisión por los pacientes con un grado leve de demencia, lo cual les permitiría una mayor libertad ya que podrían jugar en cualquier momento. Los pacientes con un grado más avanzado de demencia podrían beneficiarse también de la plataforma, pero siempre contando con ayuda de un terapeuta. 9. Conclusiones futuros y trabajos El objetivo del proyecto COGNIGEN era la definición y estudio de una nueva terapia de estimulación cognitiva basada en los conceptos de juegos serios, interacción multiparticipante e interacción intergeneracional. Durante el proyecto se ha diseñado, construido y evaluado una plataforma tecnológica que permite a los usuarios emplear un juego de memoria, tanto de manera individual como con otros contrincantes y que hace por tanto posible la interacción intergeneracional. Además, dicho juego es empleado por los usuarios mediante dispositivos móviles de tipo Tablet con pantalla táctil, simplificando de manera considerable las dificultades de uso. Esta combinación de funcionalidades y características hacen del sistema COGNIGEN una plataforma novedosa. Dicha plataforma ha sido validada con la ayuda de los terapeutas y usuarios disponibles en el CRE-A, demostrando su viabilidad técnica y arrojando resultados positivos en cuanto a la aceptación por parte de los usuarios y las impresiones de los terapeutas. La validación realizada durante el proyecto se ha guiado según la disponibilidad de pacientes dentro del CRE-A. Las pruebas han involucrado principalmente a usuarios con un grado de deterioro moderado y unos pocos con deterioro leve, en total doce pacientes y cuatro terapeutas. Diez de los usuarios tenían un grado de deterioro moderado y dos de ellos leve. Los resultados obtenidos indican que la plataforma podría ser apta para el uso autónomo por parte de pacientes con un grado de deterioro leve, mientras que los usuarios con un grado de deterioro moderado necesitarían de ayuda y supervisión constante por parte de los terapeutas. Así mismo, se observa que la motivación y respuesta de los usuarios al modo de juego multijugador es muy positiva. Si bien en las pruebas realizadas entre los propios pacientes el nivel de concentración y la motivación a seguir empleando el juego aumentaba, en los casos en los que el juego se desarrolló entre los pacientes y un terapeuta este incremento era mucho más marcado de acuerdo a las impresiones y comentarios de los pacientes. A la vista de los resultados obtenidos parece que sería positiva una posterior validación del sistema desde el punto de vista terapéutico, a mayor escala y especialmente dirigida a usuarios con un grado de deterioro leve. 10. Agradecimientos Al Instituto de Mayores y Servicios Sociales (IMSERSO), que ha financiado parcialmente el proyecto COGNIGEN dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011, referencia 222/2011. A los profesionales del CRE-Alzheimer del IMSERSO en Salamanca, que desde el inicio del proyecto participaron en el diseño del sistema, así como en fases posteriores de validación con usuarios reales. 11. Referencias [1] M. Orrell, A. Spector, L. Thorgrimsen y B. Woods, "A pilot study examining the effectiveness of maintenance Cognitive Stimulation Therapy (MCST) for people with dementia", International journal of geriatric psychiatry. Wiley Online Library. Vol 20. No. 5, 2005, pp. 446-451. [2] Beth Johnson Foundation (2011). A Guide to Intergenerational Practice. Stoke-on-Trent: Beth Johnson Foundation. (http://www.centreforip.org.uk/res/documents/page/BJFGuidetoIP V2%20%2028%20Mar%202011.pdf) [3] Gradior (http://www.intras.es/index.php?id=456) [4] Feskits (http://www.feskits.com/demo/index_esp.html) [5] Brain Fitness (http://www.positscience.com/ourproducts/brain-fitness-program) [6] Cognifit/MindFit (http://www.cognifit.com/) [7] My Brain Trainer (http://www.mybraintrainer.com/) [8] Brain Age (http://www.brainage.com/) [9] Dakim (http://www.dakim.com/) [10] Herramienta “Entrena tu mente” (http://www.fundacioncajaduero.es/tecnologia/teleasistencia_home .aspx) [11] S. García, V. Lobato, V. Peláez, E. González-Ingelmo, F. Barrientos, S. Carretero, "Evaluación de la usabilidad de una plataforma de estimulación cognitiva basada en televisión interactiva", IV Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos (DR4ALL), 2011, pp. 220235 [12] Proyecto Europeo Elder Games (http://www.eldergames.org/) [13] E.T. Khoo, S. P. Lee, A. D. Cheok, S. Kodagoda, Y. Zhou y G.S. Toh, "Age invaders: social and physical intergenerational family entertainment", CHIʼ06 extended abstracts on Human factors in computing systems, 2006, pp. 243–246. [14] Sociable Project (http://www.sociable-project.eu/) [15] S. Sundar, "Retirees on Facebook: can online social networking enhance their health and wellness?", Extended Abstracts on Human Factors in Computing Systems , 2011, pp. 2287-2292. 103 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos [16] The Nielsen Company. Social Networks/Blogs Now Account for One in Every Four and a Half Minutes Online. (2010). (http://www.ceapat.es/InterPresent2/groups/imserso/documents/bi nario/accesvideojuegos.pdf) [17] Buenas prácticas de accesibilidad en videojuegos, IMSERSO, 2012 [18] W. Jsselsteijn, H. H. Nap y Y. de Kort, "Digital Game Design for Elderly Users", Proceedings of the 2007 conference on Future Play, 2007, pp. 17-22. 104 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Panorámica de la audiodescripción en los canales TDT en España Francisco José González León, Juan Manuel Carrero Leal, Mercedes de Castro Álvarez, Belén Ruiz Mezcua Centro Español del Subtitulado y la Audiodescripción (CESyA) [email protected], [email protected], [email protected], [email protected] Resumen En este artículo se presenta un análisis de las prácticas actuales en materia de emisión de servicios de audiodescripción en los canales televisivos de la TDT en España. Los resultados de esta investigación muestran que algunos canales emiten la audiodescripción en la modalidad conocida como ‘mezcla en el radiodifusor’ mientras que otros canales emiten en modo ‘mezcla en el receptor‘. Se analizan algunos de los problemas detectados para la activación dela audiodescripción en los receptores y televisores de los usuarios y se proponen además algunas mejoras en la señalización para que la información sobre la emisión de contenidos audiodescritos llegue correctamente a los receptores de TDT. Se presenta además desde el punto de vista del usuario la forma de acceder a l a audiodescripción en sus hogares. This paper presents an analysis of current practices of audiodescription in Spanish TV channels. The results of this research show that in some channels the audiodescription is broadcasted for ‘receiver mix audio description’ while in other channels the alternative used is ‘broadcaster mix audio description’. The problems detected for the activation of audiodescription in users’ TVs can be solved applying some enhancement to signalling information used by broadcasters in their DVB TV channels. Finally, some recommendations for the users are included to present the key aspects to audiodescription activation in their TVs. Introducción La Ley General de la Comunicación Audiovisual [1] establece los umbrales mínimos de emisión de programas audiodescritos para todos los canales de TV en España. Cuando finalice 2013, los canales públicos deberán emitir un mínimo de 10 horas semanales de audiodescripción, y los canales privados un mínimo de 7 horas semanales. La emisión de la audiodescripción en los canales de televisión está definida desde el punto de vista técnico en la norma DVB, de aplicación en España. La norma DVB define las posibles formas de emisión de la audiodescripción asociada a un programa en un canal de televisión, además de la manera de señalizar dicha emisión para que tanto los televisores como los usuarios sean capaces de seleccionar y reproducir adecuadamente dicha audiodescripción. La práctica actual en España, como se verá en este artículo, cumple sólo parcialmente con el estándar DVB [2], [3]. Por otro lado, los receptores TDT y televisores con TDT integrado, deben cumplir con lo especificado en la norma DVB para poder mostrar al usuario las opciones disponibles en la señal TDT recibida y reproducirlas correctamente. En el caso de la audiodescripción no todos los televisores son capaces de reproducir correctamente el amplio abanico de opciones definido en DVB. En los capítulos siguientes se hace un análisis de las distintas posibilidades que la norma DVB ofrece para la emisión de audiodescripción en un canal de televisión. A continuación se exponen los resultados de la investigación llevada a cabo en el Centro Español del Subtitulado y la Audiodescripción acerca de la práctica actual llevada a cabo por los radiodifusores en los distintos canales de televisión que se emiten en España. 1. Visión general de la emisión En la actualidad, los radiodifusores en España tratan el canal de audio dedicado a la audiodescripción para personas con discapacidad visual de dos formas: Canal de audio dedicado únicamente a los comentarios de discapacidad visual (audiodescripción sin mezclar/mezcla en receptor): se transmite generalmente en el tercer canal de audio de la cadena y requiere que el receptor soporte la funcionalidad necesaria para mezclar los dos flujos de audio involucrados: el flujo de audio principal y el flujo de audio que contiene la audiodescripción. Figura 1. Flujo de comentario de discapacidad visual en canal de audio independiente. 1. Canal de audio con los comentarios de discapacidad visual mezclados con el audio principal del programa (audiodescripción mezclada/mezcla en emisión): normalmente se transmite en el segundo canal de audio de la cadena. Dicho canal de audio no está dedicado únicamente a la audiodescripción, sino que se utiliza también como canal para el audio original de los 105 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos programas (versión original) u otro tipo de audio. En ausencia de audiodescripción o versión original, la práctica habitual es emitir en este flujo de audio el mismo contenido que en el audio principal del canal. Figura 2. Flujo de audiodescripción en canal de audio mezclado con audio principal. Desde el punto de vista de señalización, la práctica habitual es la siguiente: 1. En las tablas PMT de cada canal se describe el contenido de cada uno de los canales de audio emitido, de acuerdo a la opción elegida en emisión. Para ello se está utilizando el ISO language descriptor definido en [2]. 2. En las tablas EIT no se emite información alguna respecto a la existencia de contenidos audiodescritos en los canales de audio. El comportamiento de los receptores-TDT y Televisores con TDT integrado es generalmente adecuado en cuanto a la reproducción del audio en el caso de la audiodescripción mezclada con el audio principal (Caso 2). Sin embargo, algunos receptores no implementan adecuadamente la mezcla en recepción (Caso 1), por lo que en algunos receptores, la dificultad resulta elevada para seleccionar o reproducir la versión audiodescrita del programa en el caso de la emisión para mezcla local. Por otro lado, los receptores-TDT no presentan en los menús de usuario (OSD) la disponibilidad de audiodescripción en los programas. Ello es debido en gran medida a que las tablas EIT emitidas no contienen información acerca del servicio de audiodescripción de cada programa. 2. Alternativas de señalización en emisión Para analizar la forma adecuada de señalizar la audiodescripción en programas de televisión vamos a describir la parte de los estándares de televisión digital que hacen referencia a ella. Los estándares aplicables en este caso son los siguientes: ETSI EN 300 468 V 1.11.1 ISO 13818-1 ISO 639-2 TS 101 154 V1.9.1 UNE 133300:2011 La señalización de la audiodescripción en las tramas MPEG-2 Transport Stream se hace referenciando dos tablas descritas en los estándares DVB ETSI EN 300 468 y ISO/IEC 13818-1: PMT: en ella se encuentra la información de servicio relativa a cada uno de los flujos que comprenden cada uno de los canales (servicios en la terminología DVB) que viajan en un Transport Stream. EIT: contiene la información relativa a la programación de los canales. A continuación vamos a describir la parte de los estándares donde indican la forma de señalizar la audiodescripción. En el anexo J (Signalling of Receiver-Mixed and Broadcast-Mixed Supplementary Audio) de DVB ETSI EN 300 468 [2], se definen dos mecanismos para transmitir el audio suplementario (audiodescripción): Mezcla en recepción. Mezcla en emisión. La señalización correcta de los contenidos comprende, en el caso de la audiodescripción, información que debe ser emitida en dos tablas del Transport Stream: la PMT y la EIT. A continuación se describen las diferentes alternativas de señalización para cada uno de los dos casos. 2.1. Señalización de la audiodescripción en la PMT En cualquiera de los dos casos, lo primero que debemos hacer a la hora de señalizar la audiodescripción es indicar en la tabla PMT y para cada flujo de audio, el tipo de audio que transportan. Para señalizar dicho contenido, en el estándar ISO/IEC 13818 hay un descriptor que se añade a la descripción de flujos de audio de la PMT denominado ISO 639 language descriptor [3], el cual indica el idioma y el tipo de audio asociado a un flujo de audio. La estructura del descriptor se muestra a continuación: Figura 3. Estructura ISO 639 language descriptor. Descriptor_tag: "0x0A". Descriptor_length: identifica el tamaño del descriptor. ISO_639_language_code: identifica el idioma o los idiomas del flujo de audio con 3 caracteres. Para los casos en que el flujo utilice distintos tipos de idioma o de audio, dependiendo del programa que este siendo emitido, se pueden definir varios idiomas ó utilizar un language code genérico. La tabla 1 muestra las opciones posibles más frecuentes en España: Tabla 1. Valores language_code Language_code spa qaa qad mul und Descripción Español Reservado para versión original Reservado Múltiples idiomas Indefinido 106 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Audio_type: indica el tipo de audio asociado a un flujo de audio. Los posibles valores que puede tomar este campo se muestran en la tabla 2. Tabla2. Valores audio_type. Audio_type 0x00 0x01 0x02 0x03 0x04 – 0xFF Descripción Indefinido Audio para discapacitados auditivos Discapacidad auditiva Comentario discapacidad visual Reservado En las subsecciones J.2.2 y J.3.2 del anexo J del estándar DVB ETSI EN 300 468 se indican las formas de señalizar la audiodescripción en la PMT para los casos en que las mezclas se produzcan tanto en emisión como en recepción. En ambos casos hacen uso de los campos del descriptor ISO 639 language descriptor: Mezcla en recepción: ISO_639_language_code: el valor de dicho campo, teniendo en cuenta que la audiodescripción se hará en idioma español, debería ser "spa". Audio_type: para el caso en que solo se transmiten los comentarios de incapacidad visual en el flujo de audio su valor debe ser "0x03". Mezcla en emisión: ISO_639_language_code: en este caso, la codificación depende de la práctica de emisión que se quiera llevar a cabo; a grandes rasgos, existen dos posibilidades: • Un mismo flujo de audio: cuando se utiliza el mismo flujo de audio para ir emitiendo alternativamente audiodescripción y versión original en función del programa, las opciones de señalización son a su vez dos: Transmitir un único ISO_639_language_code dentro del ISO_639_language_descriptor conteniendo uno de estos dos valores: “NAR” o “qad”. Otros valores posibles definidos en ISO 639-2 son: “mul” y “und”. Alternativamente se podría transmitir un ISO_639_language_descriptor con dos ISO_639_language_code: uno con valor “qad” para la audiodescripción y otro con valor “qaa” para la versión original. • Flujos de audio dedicados: cuando se emitan distintos flujos de audio para la audiodescripción, versión original, segundo idioma, etc., se proporcionará un ISO_639_language_descriptor para cada flujo; los respectivos campos ISO_639_language_code de dichos descriptores se codificarán de acuerdo a la norma ISO 639-2, es decir: “spa” para español, “cat” para catalán, “qaa” para versión original, “qad” para la audiodescripción… Audio_type: al igual que en el campo anterior, en dicho flujo se transportan diferentes tipo de audio, por lo que se opta por asignar el valor de audio indefinido "0x00". Además de esto, el estándar ETSI EN 300 468 añade una posibilidad para describir con mayor detalle el contenido del flujo de audio en la PMT. Para ello en la subsección J.4 del anexo J indican que se puede añadir otro descriptor denominado Supplementary audio descriptor en el que se especifica el tipo de mezcla del flujo de audio, y se clasifica el contenido del flujo. Este descriptor pertenece a la familia de los descriptores Extension descriptor. La estructura del Supplementary audio descriptor es: Fig ura 4. Estructura Supplementary audio descriptor. Descriptor_tag: "0x7F". Identifica a la familia de Extension descriptor. Descriptor_tag_extension: "0x06". Identifica al Supplementary audio descriptor. Mix_type: identifica el tipo de mezcla. Los posibles valores se muestran en la tabla 2. Tabla 3. Valores mix_type. Mix_type 0x00 0x01 Descripción Flujo de audio suplementario Flujo de audio completo e independiente Editorial_classification: clasifica el contenido de los flujos de audio, los posibles valores se encuentran en la tabla 3. Tabla 4. Valores editorial_classification. Audio_type 00000 00001 00010 00011 00100 a 10111 11000 a 1111 Descripción Audio principal Comentario de incapacidad visual Audio para discapacitados auditivos Subtítulos hablados para discapacitados visuales Reservado para uso futuro Definido por el usuario Language_code_present: si este campo vale '1' indica que los 3 siguientes bytes identificaran el idioma del audio mediante el campo ISO_639_language_code. Private_data_byte: el valor de estos datos se definen de forma privada. Teniendo en cuenta que los dos descriptores descritos no son independiente, en la subsección J.4 del anexo J del estándar ETSI EN 300 468 se proporciona adicionalmente una tabla especificando las combinaciones válidas de los campos de los descriptores Supplementary audio descriptor e ISO 639 language descriptor, con el fin de señalizar de la forma más exhaustiva el contenido del flujo de audio. La tabla 4 muestra un resumen de la posible combinación de campos para señalizar la audiodescripción. El campo audio_type pertenece al ISO 639 language descriptor, y los 107 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos campos mix_type y editorial_classification pertenecen al Supplementary audio descriptor. Tabla 5. Posible combinación de descriptores de audio en la PMT. Audio Principal Audiodescripción (mezcla emisión) Audiodescripción (mezcla receptor) Audio type 0x00 0x00 o 0x03 Mix type 1 Editorial clasiffication 0 1 1 0x03 0 1 De esta forma conseguiríamos proporcionar la máxima información en relación a los flujos de audio asociados a cada canal de televisión. 2.2. Señalización de la audiodescripción en la EIT Por otro lado, en el estándar DVB ETSI EN 300 468 se indica la forma de señalizar mediante la tabla EIT que un programa en concreto de la emisión está audiodescrito. Esta información es importante para la EPG y los menús de pantalla (OSD) del receptor, que son una fuente de información primordial para los usuarios de los servicios de accesibilidad. En la tabla EIT, por cada programa se debe indicar el contenido de los flujos asociados a dicho programa. Por ejemplo, en el caso de que una película este en dos idiomas se debería indicar que el audio es multilenguaje. Otro ejemplo puede ser que esa misma película este en formato panorámico, por lo que se debería indicar que el formato del vídeo es 16:9. Esto se hace añadiendo el descriptor component descriptor de la EIT. La estructura de dicho descriptor se muestra a continuación: Figura 5. Estructura Component descriptor. Descriptor_tag: "0x50". Stream_content: especifica el tipo de flujo. Los posibles valores que puede tomar para audiodescripción se muestran en la tabla 5. Component_type: especifica el tipo de componente de video, audio o datos. Sus posibles valores en cuanto a audiodescripción se muestran en la tabla 5. Text_char: contiene una descripción textual del componente del flujo. Tabla 6. Valores campos component descriptor para audiodescripción. Stream content Component type 0x02 0x40 0x02 0x47 0x02 0x48 0x06 0x40 Descripción Audio MPEG-1, audiodescripción para personas con incapacidad visual Audio MPEG-1, mezcla en receptor de la audiodescripción Audio MPEG-1, mezcla en emisor de la audiodescripción Audio HE-AAC, 0x06 0x44 0x06 0x47 0x06 0x48 0x06 0x49 0x06 0x4A audiodescripción para personas con incapacidad visual Audio HE-AAC V2, audiodescripción para personas con incapacidad visual Audio HE-AAC, mezcla en receptor de la audiodescripción Audio HE-AAC, mezcla en emisor de la audiodescripción Audio HE-AAC, mezcla en receptor de la audiodescripción Audio HE-AAC, mezcla en emisor de la audiodescripción Igual que en el caso de la PMT, estos valores los debemos utilizar para señalizar mediante la tabla EIT si el programa que se está emitiendo esta audiodescrito o no. Atendiendo a lo especificado en la ETSI EN 300 468 (tabla 5) y con las limitaciones impuestas al caso del mercado español en la norma UNE 133300:2011, los valores admisibles para el component descriptor de la EIT en el caso de la audiodescripción serían los siguientes: Mezcla en recepción: • MPEG-1: Stream_content: "0x02" Component_type: "0x47" • HE-AAC: Stream_content: "0x06" Component_type: "0x47" Mezcla en emisión: • MPEG-1: Stream_content: "0x02" Component_type: "0x48" • HE-AAC: Stream_content: "0x06" Component_type: "0x48" Caso general: • MPEG-1: Stream_content: "0x02" Component_type: "0x40" • HE-AAC: Stream_content: "0x06" Component_type: "0x40" • HE-AAC V2: Stream_content: "0x06" Component_type: "0x44" 3. Panorama actual El panorama televisivo en España, en cuanto a señalización de audiodescripción, resulta muy variado. Todas las cadenas se decantan por alguna de las dos formas de transmitir la audiodescripción que hemos visto en las figuras 1 y 2, con excepciones como las de TV3 que añaden un cuarto canal de audio para transmitir el audio del programa en más de dos idiomas. En cuanto a la PMT, el uso que hacen los radiodifusores de las diferentes opciones que ofrece DVB para señalizar los flujos es adecuado. Señalizan de forma normalizada los flujos de audio, dependiendo si la audiodescripción se mezcla en emisión o recepción. Para ello, en todos los casos 108 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos utilizan el descriptor ISO 639 language descriptor descrito anteriormente. Por otra parte, es reseñable que en ningún caso se señaliza la audiodescripción de los programas en las tablas EIT. Actualmente ninguna cadena utiliza el descriptor component_descriptor [2] para señalizar el contenido accesible de la programación de las cadenas para personas con discapacidad visual. Sin embargo, sí utilizan este mismo descriptor para señalizar el tipo de audio o vídeo principal. Por otro lado, en la tabla EIT sí suelen señalizar mediante descriptores el nombre, el género e incluso la edad mínima necesaria para ver el programa. 3.1. RTVE Como vemos en la siguiente tabla el canal TDP tiene únicamente un canal de audio por lo que dicho canal no emite audiodescripción en ninguno de sus contenidos. Por otro lado las cadenas La 1 y La 2 tienen 3 canales de audio, donde el segundo canal lo utilizan para emitir el audio original de la programación ("qaa") y el tercer canal de audio lo utilizan para emitir únicamente el contenido audiodescrito de la emisión (mezcla en recepción). Por último tanto el canal 24h como Clan poseen un segundo canal de audio en el que describen que únicamente emiten contenido del audio original del programa. En este caso si los canales 24h y Clan emitieran audiodescripción deberían cambiar el valor de "qaa" por los valores "NAR", "qad", "und" o "mul" como hemos visto anteriormente. Tabla 7. Idioma canales audio grupo RTVE RTVE TDP La 1 La 2 24h Clan 1er canal spa spa spa spa spa 2º canal qaa qaa qaa qaa 3er canal (AD) spa spa - 3.2. ATRESMEDIA En el caso de Atresmedia todos los canales pertenecientes al grupo emiten la audiodescripción de la misma forma, a través del segundo canal de audio dando el valor de "und" al canal de audio. Esta forma de emitir la audiodescripción es adecuada ya que ese canal de audio lo utilizan tanto para emitir el idioma original del programa como para emitir la audiodescripción por lo que la señalización es adecuada. Tabla 8. Idioma canales audio grupo Atresmedia ATRESMEDIA Antena 3 Neox Nova Nitro LaSexta Xplora 1er canal spa spa spa spa spa spa 2º canal und und und und und und 3er canal (AD) - - LaSexta3 und spa - En la totalidad de los casos las audiodescripciones realizadas por Atresmedia son fluidas y adecuadas, aprovechando correctamente los silencios en las obras para audiodescribir. Se ha detectado que en el canal Nitro en ocasiones, concretamente en el programa "Impacto Total", cuando hay audiodescripción en el segundo canal de audio alternan el emitir sólo la música del programa, con dejar en silencio total ese canal de audio, con poner tanto la música como el contenido de la narración del programa. Esto evidentemente supone que aunque el programa contenga audiodescripción es imposible seguir el mismo con normalidad. 3.3. Mediaset Dentro del grupo Mediaset hay diversidad en la gestión de los canales de audio por parte de las cadenas. Telecinco, La Siete y FDF tienen 3 canales de audio que gestionan de la misma forma que La 1 y La 2 del grupo RTVE. En el caso de Energy, el segundo canal de audio toma el valor de "mul" que como hemos visto anteriormente vale tanto para indicar que puede contener audiodescripción como que puede contener el audio original del programa. Las cadenas Cuatro, Boing, Nueve y Divinity tienen dos canales de audio y el segundo de ellos toma el valor de "qaa". Como hemos mencionado anteriormente, este valor indica que en ese segundo canal se emite el audio de los programas en versión original, por lo que si emitieran audiodescripción la señalización no sería correcta y tendrían que darle a ese canal de audio alguno de los valores que hemos indicado anteriormente. Tabla 9. Idioma canales audio grupo Mediaset Mediaset Telecinco LaSiete FDF Energy Cuatro Boing Nueve Divinity 1er canal spa spa spa spa spa spa spa spa 2º canal qaa qaa qaa mul qaa qaa qaa qaa 3er canal (AD) spa spa spa - El canal FDF emite contenido audiodescrito con asiduidad por el tercer canal de audio. De otra forma los canales La Siete y Telecinco no emiten por norma general ninguno de sus contenidos audiodescritos. El canal Energy no emite habitualmente contenido audiodescrito, aunque su segundo canal de audio está bien señalizado para el caso en que comiencen a emitirlo. En los casos de Cuatro, Boing, Nueve y Divinity no se ha detectado ningún contenido audiodescrito en su programación. En el caso que audiodescribieran deberían cambiar el valor de "qaa" en su segundo canal de audio por alguno de los mencionados anteriormente. 3.4. Otros canales de televisión 109 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos En este caso vemos que hay disparidad en cuanto a la forma de gestionar los canales de audio. En los casos de Paramount Channel, MTV y Disney Channel optan por 3 canales de audio con el propósito de dejar el 3 canal para emitir únicamente el contenido audiodescrito. Además en el caso de Disney Channel es reseñable que su segundo canal de audio en vez de tomar el valor "qaa" toma el valor "eng" que indica que todos los programas de la parrilla del canal tienen como idioma original el inglés. Al hilo de esto último vemos como Discovery Max solo tienes dos canales de audio y en el segundo de ellos únicamente emiten el audio original en inglés. Por otra parte vemos como Marca TV tiene dos canales de audio y que en el segundo de ellos indica que sólo emiten el audio en versión original del programa. Por último, y como hemos visto en el caso de TDP, los canales Intereconomía y 13 TV sólo tienen un canal de audio por lo que es imposible realizar la audiodescripción. Tabla 10. Idioma canales audio de canales de diversos grupos de comunicación Varios Marca TV Paramount Channel MTV Intereconomía Discovery Max Disney Channel 13 TV 1er canal spa 2º canal qaa 3er canal(AD) - spa qaa spa spa spa qaa - spa - spa eng - spa eng spa spa - - En los casos de MTV y Disney Channel sí audiodescriben regularmente, no así en el caso de Paramount Channel que a pesar de tener un canal de audio dedicado no emite nunca audiodescripción. Por otro lado está el caso de Marca TV, el cual señaliza de forma errónea ya que sí emite audiodescripción en su parrilla televisiva y por lo tanto no debería señalizarse el segundo canal de audio como "qaa" sino como hemos mencionado en la parte de mezcla de audiodescripción en emisión. Además de eso, tras analizar los espacios con audiodescripción de este canal se ha detectado que es muy difícil de percibir ya que los comentarios audiodescritos en vez de situarse en los silencios que se producen en el contenido de la emisión, se solapan con el audio del programa y además con un volumen inferior a éste por lo que hace casi imperceptible el contenido audiodescrito. 4. Acceso de los usuarios La activación de la Audiodescripción en un canal de televisión no es siempre algo trivial, y puede conllevar una serie de pasos en función del receptor o televisor del que disponga el usuario y de la forma en que esté siendo emitida por parte del canal de televisión. Actualmente en España, la audiodescripción de un programa la realizan los radiodifusores de dos formas distintas como se ha visto en los puntos anteriores: mezclando directamente en emisión el audio original con la audiodescripción o enviando la audiodescripción para que ésta sea mezclada con el audio original en el receptor o televisor del usuario. Cada una de las maneras, tiene su forma de activación en el receptor por lo que explicaremos ambas por separado. Cuando una cadena televisiva emite la audiodescripción de un programa realizando la mezcla directamente en emisión, el usuario tiene disponible el servicio de audiodescripción en su receptor a través del segundo canal de audio de la cadena; en este segundo canal de audio está disponible por tanto el audio original del programa mezclado con la audiodescripción sin que el receptor tenga que hacer ninguna tarea adicional. Para activar la audiodescripción en esta modalidad, el usuario tan sólo tiene que cambiar al segundo canal de audio, habitualmente mediante un botón del mando llamado DUAL o I-II, que es el mismo utilizado para escuchar las versiones originales de los programas que disponen de ella. En algunos receptores, la activación del segundo canal de audio debe realizarse a través del menú, accesible por medio de una de las teclas del mando. Alternativamente, las cadenas de televisión pueden emitir en un canal independiente la audiodescripción, que será mezclada en el propio receptor del usuario con el audio original del programa cuando el usuario activa la audiodescripción en su receptor. Esta mezcla es siempre dependiente del receptor, por lo que existe la posibilidad de que el equipo receptor no disponga de la opción de mezcla y que por lo tanto no pueda realizarse. Ésta debería ser la primera condición que debería comprobar un usuario en su receptor antes de su adquisición, revisando los manuales de usuario o poniéndose en contacto con el fabricante del mismo. Una vez comprobado que el receptor sí que permite realizar la mezcla, la forma de activarla es muy diferente en función del tipo de receptor, el fabricante, la organización de los menús en el interfaz de usuario, etc. La forma más sencilla, aunque no la más frecuente, es que el mando a distancia disponga de un botón con las siglas AD; si éste es el caso del receptor o televisor, simplemente con pulsarlo se activa la mezcla en el receptor, y cada vez que un programa tenga audiodescripción, ésta será reproducida directamente junto con el audio original. En otros receptores el usuario debe activar la mezcla de la Audiodescripción mediante las opciones de configuración del receptor; para ello, deberá explorar los menús del receptor en busca de la configuración del audio, buscando una opción llamada “descripción de audio” (la traducción al castellano del término “audiodescription”) o similar. En esta opción, habrá que activar la descripción de audio junto con el volumen (de forma opcional) al que se desea que se escuche la audiodescripción con respecto al audio original. En algunos receptores, las opciones de activación de la Audiodescripción y la configuración del volumen se encuentran en diferentes menús; es importante consultar los manuales del usuario para configurar adecuadamente el equipo. En la mayoría de los equipos, una vez configurada la audiodescripción, ésta se mantiene activada de forma permanente; cuando un programa se esté emitiendo con 110 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos audiodescripción, el usuario podrá oírla en los altavoces del equipo. Como se puede comprobar, no todos los equipos están preparados para las nuevas formas de emisión de la audiodescripción, aunque los receptores más modernos sí tienen incorporada la posibilidad de realizar la mezcla en el propio receptor. Si se dispone de un receptor que lo permite, es el propio usuario el encargado de configurarlo correctamente para que la audiodescripción pueda ser recibida sin ningún tipo de problema. • • 5. Conclusiones La emisión de la audiodescripción en los canales de TV en España ha comenzado a incluir la opción, hasta hace poco no utilizada, de mezcla en recepción. Esta práctica ahorra ancho de banda y costes de producción a los radiodifusores, pero no está soportada por muchos de los equipos instalados en los hogares españoles, a pesar de ser una de las opciones previstas en el estándar DVB. Los receptores y televisores TDT que sí son capaces de reproducir un flujo de audiodescripción mezclándolo con el audio principal del programa presentan en muchos casos interfaces de usuario con baja usabilidad, lo que dificulta a muchos usuarios acceder al servicio de audiodescripción de un canal y lleva a los usuarios a la creencia de que no está disponible la audiodescripción cuando en realidad se está emitiendo. Desde el Centro Español del Subtitulado y la Audiodescripción las recomendaciones y líneas de trabajo futuras para solventar este problema se dividen en dos grandes grupos: 1. Recomendaciones a los radiodifusores: • Elegir preferentemente la opción de audiodescripción mezclada en origen en tanto en cuanto la planta de receptores y televisores TDT instalada no soporte de manera mayoritaria la mezcla en recepción. • Una vez que la planta de receptores y televisores TDT soporte mayoritariamente la mezcla en recepción, los radiodifusores deberían elegir preferentemente esta opción, de esta forma el usuario no debe preocuparse de activar el segundo canal de audio para comprobar si un programa está audiodescrito. • Señalizar correctamente la emisión de la audiodescripción en las tablas SI y PSI de acuerdo a lo establecido en DVB y AENOR. • • • Soporte completo a la funcionalidad de audiodescripción tal como se define en DVB, contemplando todos los descriptores y elementos de información definidos en el protocolo e implementado la funcionalidad correspondiente a cada uno de ellos. Inclusión de teclas para el acceso directo a la audiodescripción en los mandos de los receptores y televisores TDT, y en los futuros Smart TV y receptores HbbTV, de manera que se facilite el acceso al servicio a las personas con discapacidad visual. Mejorar la usabilidad de los menús de configuración y activación de la audiodescripción. Mostrar en los menús del OSD la disponibilidad de la audiodescripción en los programas de TV, atendiendo a la información de señalización recibida en las tablas SI y PSI. Indicar la disponibilidad de la audiodescripción cuando esté presente en los canales de TV en cualquiera de sus modalidades (mezcla en emisión, mezcla en recepción) mediante señales acústicas que se activarán en los cambios de canal y otras acciones relevantes del usuario. 6. Referencias [1] Gobierno de España. Ley General de la Comunicación Audiovisual, Ley 7/2010. BOE núm. 79 de 1/Abril/2010. http://www.boe.es/boe/dias/2010/04/01/pdfs/BOE-A-20105292.pdf (accedido 9/Mayo/2013). [2] ETSI. Digital Video Broadcasting (DVB); Specification for Service Information (SI) in DVB systems. ETSI EN 300 468 V1.9.1. 2009. [3] ISO/IEC. Information technology -- Generic coding of moving pictures and associated audio information: Systems. ISO/IEC 13818-1:2007 2. Recomendaciones a los fabricantes: 111 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos PaSOS: Protocolo de Comunicaciones entre los Terminales de Teleasistencia Móvil y los Centros de Atención Julián Andújar Pérez Fundación TECSOS [email protected] Ana Arroyo Hernández Estíbaliz Ochoa Mendoza Carlos Capataz Gordillo Fundación TECSOS Fundación Vodafone Cruz Roja [email protected] Abstract Mobile Telecare service, due to the fact that it is an innovative service, there are still barriers that limit their deployment and expansion, such as the cost of the users’s devices and t he lack of interoperability between user devices and Care Centres. Currently, each devices manufacturer uses its own communication protocol for connecting and exchange information with the Care Centre (location, alarm type, date /time, battery status, etc.). The absence of an open protocol has serious drawbacks, being an important barrier in order to reach a r eal universal Mobile Telecare service. In 2010, the project PASOS was launched in Spain in order to define an o pen communication protocol, free and interoperable. Nowadays, paSOS protocol has become a s tandard (UNE 133530), thanks to the work of the all stakeholder (Public Administration, service providers and manufactures). Resumen En el servicio de Teleasistencia Móvil, debido al hecho que es un servicio innovador, existen todavía barreras que limitan su despliegue y expansión, como son el coste de los terminales de usuario o la falta de interoperabilidad entre los terminales y los Centros de Atención. Actualmente, cada fabricante de terminales utiliza su propio protocolo de comunicaciones para conectarse con el Centro de Atención e intercambiar información (localización, tipo de alarma, fecha/hora, estado de la batería, etc.). La ausencia de un protocolo público tiene serios inconvenientes y es una gran barrera para lograr la universalización del servicio. En 20120, se lanzó el proyecto paSOS en España para acordar un protocolo de comunicaciones gratuito, libre e interoperable. Actualmente, el protocolo paSOS se ha convertido en un estándar (UNE 133530) gracias al trabajo y colaboración de todos los actores (Administraciones Públicas, prestadores de servicio y fabricantes). [email protected] [email protected] la evolución natural del conocido servicio de Teleasistencia Domiciliaria. El servicio de Teleasistencia se presta en España desde hace más de 20 años, por lo que está consolidado y es un servicio universal al que cualquier persona que lo necesita puede acceder con un coste reducido e incluso gratuito gracias al apoyo de las Administraciones Públicas, que han sido su promotores e impulsores. Actualmente España cuenta con más de 500.000 usuarios/as del servicio en la actualidad. Este servicio de Teleasistencia Domiciliaria tiene la característica que solo cubre el domicilio, y los propios usuarios de Teleasistencia Domiciliaria han demandado desde hace años un servicio que también pudiera funcionar fuera del domicilio. Esta necesidad es evidente si tenemos en cuenta que todas las políticas sociales están orientadas a que la persona tenga una vida activa fuera de su domicilio, se relacione y viaje, sin embargo solamente se les podía ofrecer un entorno de seguridad dentro de su domicilio, lo que en algunos casos puede tener un efecto contraproducente. Esta necesidad no ha sido posible cubrirla hasta hace relativamente pocos años, principalmente por limitaciones tecnológicas. Fue necesario que se desarrollaran las comunicaciones móviles, para poder hablar fuera del domicilio, y que se desarrollaran los sistemas de localización, que nos permitieran conocer de una forma precisa la localización de la persona fuera de su domicilio. Desde hace más de un lustro, la Teleasistencia Móvil ofrece a sus usuarios la tranquilidad y la seguridad de un servicio de Teleasistencia, sin renunciar a un alto grado de autonomía, ya que posibilita una atención inmediata y a distancia en cualquier momento y en cualquier lugar. Tan sólo pulsando el botón de SOS de su dispositivo, el usuario contacta con un Centro de Atención, que dispone de toda la información relativa a ese usuario (datos personales, sanitario, personas de contacto, histórico de llamadas, etc.) y además puede disponer de la información de localización en caso de emergencia. 1. Introducción Mediante la combinación de las comunicaciones móviles, los sistemas de geo-localización y las centrales de atención de alarmas, el servicio de Teleasistencia Móvil es Figura 1. Origen Teleasistencia Móvil 112 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos En el año 2002, la Fundación TECSOS llevó a cabo un proyecto pionero de referencia para validar la utilidad social de un Servicio de Teleasistencia que funcionara fuera del domicilio. Este proyecto que se llamó “Teleasistencia Móvil” y sentó las bases de los servicios actuales de Teleasistencia Móvil, que en España están en pleno desarrollo y que se prestan para personas mayores, personas dependientes, con discapacidad o personas que sufren Violencia de Género. 2. Justificación propuesta de la En el servicio de Teleasistencia Móvil, al tratarse de un servicio innovador, todavía subsisten barreras que limitan su despliegue y expansión, como son la escasa oferta de terminales, el coste elevado de los mismos, y la ausencia de interoperabilidad entre dispositivos que porta el usuario/a y las Centrales de Atención. En efecto, actualmente cada fabricante de equipos móviles de usuario/a utiliza su propio protocolo de comunicaciones propietario para conectarse y comunicarse con el Centro de Atención. Este protocolo de comunicaciones es el “lenguaje” que permite el funcionamiento conjunto de las centrales y los dispositivos móviles, para notificar alarmas, indicar la posición de un usuario, o permitir la programación remota del dispositivo móvil. Por tanto, en el momento actual es muy costoso y complejo incorporar un nuevo modelo de terminal a un servicio en funcionamiento, ya que es imprescindible llevar a cabo desarrollos y adaptaciones de software. Este coste añadido se puede eliminar mediante la definición de un protocolo común a toda la industria implicada en el desarrollo de la Teleasistencia Móvil. Figura 2. Situación actual. Protocolos propietarios no compatibles Además de los inconvenientes antes citados, la falta de un protocolo abierto obliga a la utilización de dispositivos especializados muy costosos y que no se adaptan a las necesidades de los distintos colectivos de usuarios de Teleasistencia Móvil: mayores, personas con discapacidad, enfermos crónicos, personas en situación de aislamiento, etc. Esto, junto con las ineficiencias que hemos comentado hacen que la ausencia de un protocolo abierto tenga graves inconvenientes para todos los participantes y es una barrera muy importante para la universalización de los servicios de Teleasistencia Móvil. La falta de un acuerdo sobre el protocolo de comunicación a utilizar entre dispositivos móviles y centrales de alarma de Teleasistencia, además de impedir que se pueda atender debidamente la demanda de estos servicios, no beneficia a ninguno de los agentes que intervienen en el servicio: Proveedores de tecnología, administraciones y prestadores del servicio. Resumimos seguidamente los inconvenientes para cada uno de los agentes que intervienen. 2.1. Inconvenientes para los prestadores de Servicios de Teleasistencia Los procesos de incorporación de un nuevo terminal al servicio son largos, complejos y costosos, dado que es necesario incorporar un protocolo de comunicaciones específico en la Central. Además se incurre también en costes adicionales de mantenimiento de dichos desarrollos y adaptaciones. 2.2. Inconvenientes para las Administraciones En la actualidad no existe ningún protocolo que permita cumplir con las exigencias de los servicios de Teleasistencia que se prestan en España. Además, una vez se han llevado a cabo las adaptaciones para poder funcionar con un fabricante de equipos, es muy difícil llevar a cabo el cambio de prestador de servicio tras nueva adjudicación de concurso público ya que el parque de terminales existente no suele ser compatible con la Central de Atención del nuevo prestador de servicio que ha ganado el concurso. 2.3. Inconvenientes para los proveedores de Tecnología Actualmente, un fabricante de equipos de Teleasistencia tiene dos opciones: crear su propio protocolo de comunicación o bien incorporar el protocolo que es propiedad de otro fabricante. El primer caso supone una labor de análisis y definición que se reitera por cada fabricante, y en el segundo es necesario llegar a acuerdos de licencia con las consiguientes negociaciones económicas y jurídicas. Del mismo modo, si un integrador de sistemas de atención de alarmas quiere incorporar un nuevo terminal, tendrá que programar el protocolo correspondiente, previa negociación para acceder a las especificaciones detalladas de éste. Todo esto supone una gran inercia y costes añadidos que dificultan la incorporación de terminales nuevos. Además, un fabricante o un integrador que quiere ofrecer sus productos a un prestador de servicios de Teleasistencia no tendrá la seguridad de cubrir las expectativas del servicio en tanto no se integre la solución completa y se hagan las pruebas correspondiente. Es muy probable que tengan que llevarse a cabo modificaciones de última hora. Un protocolo estándar reduce esta incertidumbre, reduciendo a los proveedores el riesgo que suponen unas especificaciones incompletas. 3. Descripción y objeto del proyecto El objetivo de paSOS es definir y mantener la evolución de un protocolo libre y abierto, y que este se establezca 113 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos como un estándar de facto entre los proveedores de equipos y de sistemas de Teleasistencia móvil y posterior publicación como norma, con el fin último de fomentar la universalización del servicio de Teleasistencia móvil. Figura 3. Situación propuesta. Protocolo paSOS interoperable Además de la definición técnica del protocolo, es fundamental promover su adopción por la industria y las administraciones. paSOS no tiene ánimo de lucro, se trata de una iniciativa abierta a la industria y Fundación TECSOS hace público todos los documentos de trabajo. El uso del protocolo en terminales móviles y en los sistemas centrales no conllevará gasto alguno de licencia ni derechos de uso. Tras el desarrollo del protocolo y su implantación por los fabricantes principales, se ha impulsado un proceso formal de estandarización y normalización a través de AENOR que ha culminado con la publicación de la norma UNE 133503 ”Protocolo de comunicaciones entre los terminales y los centros de alarma”. El objetivo es evitar los inconvenientes importantes que conllevan el uso de diferentes protocolos propietarios y promover el uso de un protocolo abierto que ayude a dinamizar e impulsar el desarrollo de los servicios de Teleasistencia Móvil. El proyecto se materializa con la creación de 4 grupos coordinados por un comité gestor constituido por la Fundación TECSOS. define y se acuerda la especificación técnica del protocolo paSOS. Este grupo está constituido por las entidades y expertos especializados que mayor conocimiento tienen de Teleasistencia, incluyendo a los principales fabricantes y distribuidores Teleasistencia que operan en España, así como certificadores y consultores. La Fundación TECSOS actúa como comité gestor para coordinar, dinamizar y velar por el cumplimiento de los objetivos del grupo, que son: • Desarrollar y actualizar el protocolo de comunicaciones paSOS para Teleasistencia Móvil. • Consensuar y aprobar las sucesivas versiones oficiales del protocolo. • Diseñar normas y procedimientos para comprobar la correcta implementación del protocolo y la interoperabilidad con las demás implementaciones. • Implantar el protocolo en los sistemas de los fabricantes. Todos los documentos finales que se elaboran por el GTT se hacen públicos a través de la Web del Proyecto y su acceso es libre y gratuito para todo el mundo. 3.2. Grupo de Interés El Grupo de Interés está formado por las Administraciones Públicas que puedan estar vinculadas con servicios de Teleasistencia. Este grupo es clave para lograr extender el uso del protocolo, ya que en España los servicios de Teleasistencia han sido, desde sus orígenes, impulsados y apoyados por las Administraciones públicas y pueden aconsejar o recomendar el uso del protocolo paSOS. La labor realizada por la Fundación TECSOS durante el proyecto ha sido la de presentar e informar a diferentes Administraciones Públicas de la existencia de esta iniciativa, para que conozcan las ventajas y beneficios que ofrece para todos y que de este modo puedan ayudar a su difusión. La colaboración por parte de todas ellas ha sido máximo, con el apoyo explicito del CEAPAT/IMERSO, la firma de convenios con Red.es y AMETIC o la incorporación del requisito de utilizar el protocolo paSOS en concursos para la prestación del servicio de Teleasistencia, como el publicado por el Gobierno Vasco en el 2011 o más recientemente el publicado por la Junta de Comunidades de Castilla la Mancha. 3.3. Otras Entidades Adheridas Este grupo de otras entidades adheridas engloban otras entidades que apoyan la iniciativa y que incorporan el protocolo en sus productos, pero que no son Administraciones Públicas y no formar parte del Grupo Técnico. 3.4. Comité de Normalización Figura 4. Organización del Proyecto 3.1. Grupo de Trabajo Técnico (GTT) El Grupo Técnico de Trabajo (GTT) constituye un elemento clave dentro del proyecto, ya que es donde se En el año 2012 AENOR, entidad de referencia certificación y normalización en España, muestra disposición para apoyar la iniciativa e iniciar un proceso normalización. En julio del 2012, se constituye el grupo paSOS normalización dentro del comité AEN/CTN 133 114 de su de de de Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Telecomunicaciones, subgrupo GT3 de Accesibilidad de AENOR. En el grupo se adhieren representantes del sector, Administraciones Públicas (IMSERSO, CEAPAT y la Delegación para la Violencia de Género, prestadores de servicio como Alares, Cruz Roja, Eulen y Servicios de Teleasistencia), los principales fabricantes (Grupo Neat, Ibernex, Novalarm, Vezklizan y Tusntall,), empresas de consultoría tecnológica (Pina Ingeniería) y universidades (Universidad Politécnica de Madrid). 4. Sector de población al que va dirigido Como se ha mencionado, el proyecto tiene por objetivo impulsar y universalizar el Servicio de Teleasistencia Móvil que atiende a colectivos vulnerables como personas mayores, personas con discapacidad, personas con Alzheimer o personas que sufren violencia de Género. No obstante, el proyecto ofrece ventajas a todos los participantes en el servicio. 4.1. Ventajas para los usuarios Un protocolo abierto facilita la incorporación de nuevos terminales al servicio, facilitando una mayor variedad de equipos móviles para adaptarse a las necesidades de cada usuario. La reducción del coste de los equipos y la posibilidad de adaptar terminales “comerciales” de telefonía móvil con un coste mucho menor permitirá extender el servicio de Teleasistencia móvil a un mayor número de usuarios. 4.2. Ventajas para los fabricantes La existencia de un protocolo abierto de Teleasistencia permite a los fabricantes centrar sus esfuerzos en el desarrollo de terminales con mejores prestaciones, sin perder recursos en la adaptación de protocolos de terceros o el desarrollo de soluciones ad-hoc y acortando el plazo de tiempo para la comercialización efectiva de los nuevos desarrollos, al tener la certeza de poder integrarlos en los servicios en funcionamiento. 4.3. Ventajas para los prestadores de servicios Los prestadores de servicios ganan en agilidad en la incorporación de terminales a su oferta de servicios e incurren en costes menores. Agiliza la contratación y facilita la integración de proveedores de tecnología (proveedores de terminales móviles y de los sistemas de gestión de las centrales de alarmas) y la diversificación de éstos. 4.4. Ventajas para las administraciones Un protocolo de comunicaciones abierto facilita la migración de usuarios entre distintos prestadores de servicio, sin que sea necesario cambiar los dispositivos de usuario. La posibilidad de contar con una mayor concurrencia de proveedores de equipos supondrá además una reducción de los costes. Finalmente, la existencia de una referencia externa facilita el aseguramiento de las prestaciones necesarias a los servicios de Teleasistencia. 5. Calendario desarrollo del proyecto El proyecto dio comienzo oficialmente en Febrero del 2010, tras la aprobación por parte del Patronato de la Fundación TECSOS de la ejecución del proyecto y la dotación presupuestaria correspondiente. El apoyo al proyecto por parte de la Fundación TECSOS es unánime, pues se considera un proyecto que encaja a la perfección con la misión, visión y plan de acción de la fundación. Durante estos años de ejecución del proyecto los logros conseguidos han sido significativos, destacando: Julio 2010: Constitución formal del Grupo Técnico de Trabajo, aprobando las normas de funcionamiento del grupo y el plan de acción del 2010 por unanimidad. Se presenta una versión inicial del protocolo, se nombran representantes de cada entidad y se adhieren formalmente. En ese mismo mes se lanza la nueva Web del proyecto: www.pasosproject.org. Un espacio fundamental para la difusión del proyecto a través del cual se informa de los avances del proyecto, se atienden consultas de información y se puede descargar de forma gratuita todos los documentos técnicos aprobados. También dispone de un espacio colaborativo interno de trabajo para el Grupo de Trabajo Técnico. Desde su lanzamiento la Web ha recibido miles de visitas de todo el mundo. Noviembre 2010: Se convoca una reunión presencial del grupo de Trabajo Técnico para el debate y aprobación de la primera versión del protocolo, y los fabricantes se comprometen a incorporar el protocolo en sus productos durante el 2011. Enero 2011: Se publica la primera versión oficial del protocolo paSOS y se lanza una nota de prensa que tiene una gran repercusión entre el sector. A partir de ese momento cualquier persona y/o entidad puede solicitar de forma gratuita la documentación técnica del protocolo desde la página Web del proyecto. Desde su publicación se han recibido múltiples solicitudes de información y descargas del protocolo tanto a nivel nacional como internacional, desde desarrolladores particulares, empresas del sector, universidades y centros de investigación. Febrero 2011: Se lanza un piloto con 20 personas víctimas de violencia de genero en Londres, en el área metropolitana del Valle del Támesis. Este piloto forma parte de una iniciativa de Fundación Vodafone Grupo entre sus Fundaciones a nivel mundial para impulsar el desarrollo del servicio de Teleasistencia Móvil en sus países. A esta iniciativa se han sumado países como Alemania, República Checa, Alemania, Italia, Hungría, Rumania y República Checa, entre otros. Esto abre la posibilidad de que estos países utilicen como referencia el protocolo paSOS en los nuevos servicios de Teleasistencia Móvil que están definiendo en cada país. Abril 2011: Fabricantes como Tunstall y Grupo Neat ya tienen incorporado el protocolo en sus Centrales de Atención. Mayo 2011: El Gobierno Vasco saca a concurso público la prestación del servicio de Teleasistencia y por primera 115 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos vez se menciona el protocolo paSOS en las bases de un Concurso público, lo que fue un impulso definitivo hacia su uso y estandarización. Octubre 2011: El Gobierno Vasco, a través de la Ertzaintza lanza un servició que utiliza el protocolo paSOS en el servicio de atención a víctimas de violencia de Género. Julio 2012: Se publica la segunda versión del protocolo y se constituye el grupo de trabajo de AENOR para iniciar el proceso de normalización dentro de comité CTN133, subgrupo de GT3 de accesibilidad. Febrero 2013: La Junta de Comunidades de Castilla la Mancha recomienda y valora la utilización del protocolo paSOS en los pliegos del Concurso de Teleasistencia Domiciliaria. Abril 2013: Es aprobado paSOS como norma UNE 133503. 6. Aportaciones sector nuevas al 8. Referencias [1] Norma UNE 133503: http://www.aenor.es/aenor/normas/normas/fichanorma.asp?tipo=N &codigo=N0051090&PDF=Si#.UZCqXKK8Ddw [2] Web paSOS Project: www.pasosproject.org [3] Web Fundación TECSOS: www.fundaciontecsos.es 9. Derechos de autor El autor o los autores de los artículos presentados como soporte documental para sus intervenciones en el Congreso, en el mismo acto de enviarlos para su aprobación, aceptan la cesión de los derechos de autor sobre los mismos para su publicación en el libro de actas del Congreso. El proyecto paSOS tiene un marcado carácter estratégico, innovador y pionero, ya que no existen iniciativas similares a nivel nacional ni a nivel europeo. Para el servicio de Teleasistencia Domiciliaria han existido iniciativas similares que no han tenido éxito ya que al tratarse de un servicio consolidado se han creado muchos vínculos e inercias que son difíciles de revertir. El servicio de Teleasistencia Móvil es pionero y no existen estas inercias, lo que ha facilitado el éxito de esta iniciativa que contribuirá a la interoperabilidad y universalización de Servicio de Teleasistencia Móvil y por tanto a mejorar la calidad de vida de las personas más vulnerables. 7. Otras iniciativas en marcha Desde la Fundación TECSOS continuamos trabajando para seguir evolucionando el servicio de Teleasistencia Móvil y mejorar aspectos como la accesibilidad para personas sordas, ya que al ser la comunicación por voz, históricamente han quedado excluidas de los servicios tradicionales de teleasistencia. La universalización de los teléfonos inteligentes, con GPS, pantalla táctil y gran capacidad de proceso, han abierto una nueva oportunidad para pasar de utilizar dispositivos especializados que se utilizan para estos servicios, a poder utilizar un smartphone al que se le carga una aplicación inteligente que incorpora todas las funcionalidades necesarias y mejoras de accesibilidad, manejo y seguridad. 116 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Realidad Virtual Aplicada en Rehabilitación: la Wii™ como Herramienta de Terapia Ocupacional en Personas con Lesión Medular Marta Pérez Seco, Belén Gómez Saldaña, Almudena Redondo Sastre Departamento de Terapia Ocupacional. Fundación del Lesionado Medular. Madrid [email protected] Resumen Introducción: La realidad virtual en rehabilitación ha aumentado en los últimos años. La consola Wii™ complementa al tratamiento convencional, trabajando habilidades motrices en un contexto motivador, factor importante en intervenciones de larga duración, como en la lesión medular. Objetivo: presentar la forma de trabajo de terapia ocupacional en la Fundación del Lesionado Medular con la Wii™ y las adaptaciones para su acceso, describiendo sus ventajas e inconvenientes. Metodología: 64 pacientes con lesión medular: 46 personas con tetraplejia, 17 con paraplejia y una persona con síndrome de Guillain Barré. Durante un año, en sesiones de 30 minutos una vez por semana. Resultados: se han observado beneficios a nivel motor y una mejora en la adherencia al tratamiento. Conclusión: Las características de la consola y las adaptaciones creadas por el departamento consiguen que Wii™ sea accesible, enriqueciendo el tratamiento y aumentando la motivación del usuario. Palabras clave: lesión medular, Wii, rehabilitación, terapia ocupacional. Abstract Introduction: the virtual reality has increased in the last years in the rehabilitation world. The Wii™ console complets the traditional treatment working the motor skills in a motivated context, which is important in long period interventions, as happens in spinal cord injury. Goal: to introduce the work with Wii™ console and the different support products used, describing its benefits and its disadvantages in the Occupational Theraphy Department at the Fundación del Lesionado Medular. Method: 64 patients with spinal cord injury: 46 people with quadriplegia, 17 w ith paraplegia and one person with Guillain-Barré Syndrome, during one year in treatments of 30 minutes, once per week. Results: motor benefits have been obtained and the patients have been more involved with the treatment. Conclusion: the features of the console and the support products made by the department let the Wii™ to be accesible and rich the treatment and increase the motivation of the patients. Key words: Spinal cord injury, Wii™, rehabilitation, Occupational Therapy. 1. Introducción Existe un reciente interés por el tema de la realidad virtual aplicada al proceso rehabilitador [1]. La consola Wii™, así como otras nuevas tecnologías, proporcionan un complemento al tratamiento convencional a través de actividades asequibles y motivadoras para el paciente, permitiendo además la práctica de movimientos funcionales [2, 3]. La Nintendo Wii™ es una consola que capta los movimientos tridimensionales de la persona que la utiliza, gracias a un mando inalámbrico con infrarrojos y una barra de sensores. Esto proporciona un manejo muy intuitivo y de fácil uso, ya que a través del mando se ejecutarán los movimientos solicitados en el juego. El departamento de terapia ocupacional de la Fundación del Lesionado Medular ha desarrollado un programa de entrenamiento en habilidades a través de la consola y sus juegos. Esta nueva herramienta permite trabajar diferentes habilidades motrices en un contexto muy motivador, factor importante en lesión medular, ya que conlleva un largo proceso de rehabilitación y mantenimiento físico que a veces se hace arduo. Entre las ventajas que nos presenta el uso de la Wii™ en rehabilitación están: - Fácil utilización. - Accesibilidad. - Elevada motivación. 117 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos - Feedback visual y auditivo. Bajo coste. Gran variedad de juegos. Necesidad de poco espacio de juego. Aunque los resultados obtenidos en el programa de entrenamiento que se presenta carecen de evidencia científica, existen diferentes estudios sobre la aplicación de la Wii™ como herramienta terapéutica. Laver (2011) [4] expone que el uso de realidad virtual y videojuegos interactivos puede ser beneficioso mejorando la función del miembro superior, así como las actividades de la vida diaria, en comparación con la terapia convencional. Mouawad (2010), Saposnik (2011), Celinder (2012) y Hurkman (2011) [5-8] hablan del beneficio potencial en la rehabilitación del paciente con accidente cerebrovascular, así como en el aumento de la motivación, a través de la incorporación del juego WiiSports® en el programa de tratamiento de terapia ocupacional. En otros estudios [8-10] se afirma que los deportes de tenis y boxeo en WiiSports® pueden ser útiles para incrementar los niveles de actividad y promover un estilo de vida saludable en personas con afectación neurológica. También existen estudios con la consola Wii™ que hablan del beneficio de estos juegos en personas mayores relativos a la fuerza, capacidad cardiovascular, equilibrio y coordinación [11]. En lo referente a los productos de apoyo, se habla de una mejora en la corrección de la posición de la cabeza en personas con gran discapacidad utilizando el mando Wii [12]. 2. Objetivos - Presentar la Wii™ como herramienta de trabajo en rehabilitación desde el departamento de terapia ocupacional de la Fundación del Lesionado Medular. - Describir los objetivos y tratamiento en lesión medular a través de la consola. - Mostrar las distintas adaptaciones de su manejo. - Exponer ventajas e inconvenientes de la intervención con la Wii™. 3. Metodología El entrenamiento de Wii™ se lleva desarrollando en el departamento de terapia ocupacional durante un año. Se ha trabajado con 64 pacientes con el siguiente diagnóstico: - 46 personas con tetraplejia, con niveles de lesión entre C4 y C7, ASIA A, B, C y D (según la American Spinal Cord Injury Association). - 17 personas con paraplejia, con niveles de lesión entre D2 y L2 ASIA A, B, C y D. - Una persona con síndrome de Guillain Barré. Todos los pacientes han pasado por una valoración de actividades de la vida diaria, mediante una versión de la escala SCIM (Spinal Cord Independence Measure); además, aquellos con afectación de miembros superiores han pasado por un balance de músculos clave y medición goniométrica de miembro superior, y una valoración funcional de la prensión. En base a esto, se establecen unos objetivos que, si coinciden con las destrezas que se entrenan a través de la consola, constituyen la base del programa de entrenamiento. Las contraindicaciones son relativas, ya que según las instrucciones del fabricante no existe riesgo para la salud derivado de su uso, pero sí se han tenido en cuenta distintos factores a la hora de incluir al paciente en el programa de tratamiento con la videoconsola: Afectación cardiorrespiratoria que impide la participación en el juego con normalidad: mareos, incapacidad para hablar durante la actividad, etc. Baja tolerancia a la frustración. Lesión aguda del sistema musculoesquelético: tendinitis, fractura, etc. Alteraciones cognitivas o conductuales que conlleven un riesgo de caída durante la actividad. Los objetivos que se pueden trabajar a través de la Wii™ son el balance articular de miembros superiores, balance muscular, coordinación, destreza, velocidad de movimiento, tolerancia al esfuerzo, equilibrio, control postural, integración visomotriz, transferencia de cargas. Dichos objetivos se conseguirán a través de la elección del juego, que en este caso han sido Wii Sports®, Wii Sports Resort®, Zumba® y Just Dance 2®, y el nivel de dificultad de éste, además de la forma de trabajar: con adaptaciones y productos de apoyo para el acceso, cambiando la postura del paciente (sedestación, bipedestación), bases inestables, pesos adicionales, etc. Las sesiones tienen una duración de 30 minutos, con una frecuencia de una vez por semana, pudiendo desarrollarse de forma individual o por parejas. En el caso de los juegos de baile se puede trabajar en grupo siendo sólo una o dos personas las que puntúan. El programa de entrenamiento se lleva a cabo con la asistencia siempre al de terapeuta 118 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos ocupacional que controla la adecuada realización de la actividad. Tabla 1. Destrezas destacadas en el entrenamiento con juegos de Wii™. Coordinación Control motriz X X X Golf X X X Boxeo X X X X X X X DESTREZA Rango de movimiento Control postural Bolos X Tolerancia al esfuerzo Velocidad de movimiento Integración visomotriz X X X X X X X X X Tenis X Béisbol X Frisbee X X Tenis mesa X X Vuelo X X Wakeboard X X Piragüismo X X X X X Ciclismo X X X X X Baloncesto X Moto acuática X X Espadas X X Otras* X X X X X X X X X X X X X X X X X X X 119 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Zumba X X X X X X X X Just Dance 2 X X X X X X X X *Otras: transferencia de cargas en bipedestación, actividad bimanual. 4. Desarrollo 4.1 Características de la consola Wii™ La Wii™ es una consola con múltiples posibilidades de utilización, dependiendo tanto de sus características propias como de la forma con la que se trabaje con el paciente. Su funcionamiento consiste en una barra de sensores que recoge los movimientos realizados con un mando, a través de rayos infrarrojos. Mando: el mando principal, Wii Remote, tiene unas características que se adecuan bastante a las capacidades de una persona con afectación de los miembros superiores: es inalámbrico, se agarra mediante una prensión palmar, no requiere constantemente el uso de botones o joystick y tiene una funda adherente. Además, su vibración en el juego da una función de estímulo propioceptivo. Posee un sensor en su interior que mide el movimiento en cualquier dirección y velocidad [3]. Existen otros mandos accesorios o secundarios, que se utilizan en juegos concretos, como el Nunchuk y la Wii Balance Board. Personaje Mii: Existe la posibilidad de crear un avatar para cada usuario, eligiendo entre una amplia variedad de características corporales. Cada paciente tiene, por lo tanto, su propio personaje con su puntuación acumulada de cada juego, lo que supone una mayor implicación en el momento de realizar el movimiento. 4.2 Juegos de la consola Wii™ En el departamento de terapia ocupacional se ha trabajado con los juegos Wii Sports®, Wii Sports Resort®, Zumba® y Just Dance2®, mediante los cuales se han entrenado distintas destrezas, recogidas en la tabla 1. Los juegos Wii Sports® y Wii Sports Resort® consisten en la simulación de diferentes deportes: bolos, tenis, golf, béisbol, boxeo, espada, wakeboard, frisbee, tiro con arco, baloncesto, tenis de mesa, moto acuática, piragüismo, ciclismo y vuelo. Existen distintos niveles de dificultad, disponibles para elegir antes de cada partida o según la acumulación de puntos que se vayan consiguiendo. El paciente tiene que realizar el movimiento de manera similar a como lo haría en la realidad, y el personaje Mii se mueve tal y como se ha ejecutado la acción, por lo que el feedback es inmediato. En la mayoría de los juegos, es posible que compitan entre dos o más personas. Las partidas no tienen una duración larga (máximo 5 minutos), y es posible hacer una pausa en cualquier momento del juego. Los juegos Zumba® y Just Dance 2® consisten en la realización de una coreografía, imitando los movimientos del personaje que aparece en la pantalla. En el caso de Zumba®, la información que se recoge es relativa al ritmo y a la energía que se gasta: a través de una barra de energía se comprueba en el momento si la persona debería moverse de manera “más enérgica”. Si el color del personaje es rojo, el ritmo no se lleva correctamente, mientras que si es verde, el ritmo es adecuado. Además, es posible competir con otros pacientes, en cuyo caso se obtiene una puntuación al final de la coreografía. También existe la opción de elegir una sola canción (unos 5 minutos) o una sucesión de canciones, con una intensidad creciente y decreciente, durante veinte minutos. En el juego Just Dance 2®, es posible observar la puntuación que se va acumulando de forma simultánea a la coreografía. El feedback es relativo a la correcta realización del movimiento recogido a través del mando, y la duración de cada canción ronda los 4 minutos. 120 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Tabla 2. Movimientos principales que se trabajan con los juegos de Wii. Movimiento Flexión, Abd y rotaciones hombro Flexoextensión codo Bolos X X Tenis X Tenis de mesa Golf X X X Rotaciones tronco Cuello X X Ciclismo Espadas Flexoextensión muñeca X Wakeboard Zumba, Just Dance 2 Pronosupinación X X X X X X X X 121 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 4.3 Modo de trabajo El método de intervención con cada paciente es individualizado. Dependiendo de sus características y de la valoración y objetivos iniciales, se determina la posición en la que se trabaja, así como la duración del entrenamiento y el nivel de dificultad. - Sedestación: El paciente puede estar sentado en su silla de ruedas, si no posee suficiente control de tronco o el único objetivo es el trabajo de los miembros superiores o del cuello. No obstante, especialmente cuando se ejercita el control postural y el equilibrio de tronco, se realiza la actividad en sedestación larga en colchoneta, en camilla sin apoyos, en silla, o bien en una sedestación más inestable, empleando utensilios como una pelota o un cojín propioceptivo. - Bipedestación: Determinados juegos, como el golf, la realización de coreografías o el frisbee, son interesantes cuando se necesita trabajar el desplazamiento de cargas sobre los miembros inferiores, las reacciones de enderezamiento y el control postural y motriz. 4.4 Adaptaciones La accesibilidad de la consola Wii™ es relativa, dependiendo también de las adaptaciones que se puedan realizar para que el mayor número de usuarios puedan aprovechar su uso como una actividad de tratamiento más dentro de la terapia ocupacional. Aquí se exponen diferentes maneras de facilitar el acceso de los pacientes a la práctica con la videoconsola. - - - Manopla o vendaje: indicado para aquellas personas con dificultad para una prensión palmar mantenida, se trata de vendar o sujetar el mando a la mano del paciente, de manera que no necesita emplear fuerza en el agarre. Casco: se utiliza en personas con una gran afectación de miembros superiores, con las que se pretende trabajar la movilidad del cuello o incluso el tronco. El mando se coloca sobre el casco, permitiendo participar en juegos como wakeboard o el vuelo. WiiWheel: mediante un volante, accesorio que ofrece Wii™, se puede trabajar la pronosupinación en aquellos pacientes que no tienen ninguna capacidad de prensión y apenas movilidad de hombro. El volante se coloca sobre una superficie (mejor si se dispone de material antideslizante), de manera que la persona sólo tiene que mantenerlo perpendicular a ella, realizando los movimientos de pronosupinación requeridos. Este movimiento no es exclusivo de los juegos de conducción: por ejemplo, se puede utilizar como adaptación en el juego de wakeboard. Bloqueo de botones: en determinados juegos, el paciente se encuentra con el obstáculo de presionar un botón para realizar una acción. En algunos casos, es posible adaptar el mando con un adhesivo elástico de manera que el botón se mantenga presionado de manera continua. 5. Resultados - - - Desde el departamento de terapia ocupacional se han encontrado resultados que sugieren un beneficio en el proceso rehabilitador del paciente: Mayor motivación a la actividad propuesta. Al tratar el objetivo marcado a través de juegos, la actividad es más entretenida. Además, el hecho de poder competir entre varios usuarios, puede llevar a una mayor tolerancia a la frustración. Mayor adherencia al tratamiento. Con el resultado en forma de puntuaciones y el paso a niveles de mayor dificultad, el paciente obtiene un refuerzo positivo y aprende nuevas estrategias para superarse. Beneficios físicos: al trabajar con movimientos funcionales y tener un feedback inmediato, es mucho más intuitivo y más fácil de integrar hacia un movimiento normal. 1. Velocidad de movimiento: en juegos como en el tenis de mesa, el contrincante mantiene una velocidad de juego según el nivel que obliga al paciente a realizar el movimiento de acuerdo a las exigencias de éste. En otras ocasiones, como en los juegos de coreografía, es necesario seguir el ritmo marcado. Esto supone un ajuste en la velocidad del movimiento, que puede verse incrementada o disminuida, con resultados secundarios, como el aumento o la disminución del tono muscular, o lo que es más importante, la regulación de éste en base a la actividad exigida. 2. Rango de movimiento y fuerza muscular de miembros superiores: como se puede observar en la tabla 2, en los juegos utilizados en el programa de entrenamiento se trabajar distintos movimientos de miembro superior, con la ventaja de que se realizan de forma global, incluyendo todos los planos del espacio, lo que es más funcional. 3. Integración visomotriz: juegos como el tenis de mesa, el tenis, el béisbol o la espada, demandan la realización del movimiento en un momento determinado por un estímulo visual. 4. Tolerancia al esfuerzo: la variedad de los juegos y la corta duración de éstos permiten ajustar la 122 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos resistencia necesaria para cada paciente, proponiendo un solo juego o bien concatenando varias partidas o coreografías. 5. Control postural: el trabajo en varias posiciones permite que el paciente entrene el equilibrio y le exige un ajuste continuo de sus reacciones de enderezamiento. 6. Control motriz: los patrones de movimiento utilizados en la consola son funcionales. Propuesta de actividad de la vida diaria en ocio: a través de la intervención, e ideando adaptaciones y productos de apoyo específicos para la consola, se ofrece una nueva posibilidad de ocio incluso a personas con niveles de lesión muy alto. La ventaja de este tipo de tecnología en realidad virtual es la posibilidad de ofrecer, mediante un producto asequible económicamente y accesible a la mayoría de la población, una nueva forma de rehabilitación y ejercicio del movimiento funcional. - 6. Discusión Debido a que la consola Wii™ está destinada al ocio y su uso no estaba previsto para personas con discapacidad física, durante el proceso de rehabilitación se han encontrado diversas dificultades. Por un lado, no existe la posibilidad de realizar una medición objetiva con el juego, solamente a través de una puntuación obtenida. Sería interesante que se pudiese registrar los datos de cada uno de los usuarios de manera más detallada, permitiendo no sólo ver los progresos sino hacer comparativas de datos. Además, no siempre existe la posibilidad de graduar la dificultad: lo ideal sería poder adaptarlos a cada tipo de lesión para ir aumentando la dificultad o bien adaptarla a las capacidades de cada persona. Lo mismo ocurre en la velocidad de los juegos: si fuese viable su regulación, se podría graduar también en base al objetivo planteado para el paciente. Otro inconveniente que se ha encontrado ha sido el refuerzo negativo que ha supuesto para algunos pacientes cuando, en algunas ocasiones, han visto su puntuación disminuir o se han comparado con otros usuarios. En cuanto a la adaptación de los juegos, sería interesante que existiesen algunos en los que sólo fuese necesario el uso de una sola articulación, y no la combinación de varias. También, que se aumentasen el tipo de juegos que no requieran el uso de botones, ya que esto ha limitado el número de personas que podían realizar determinadas actividades propuestas con Wii™. Por otro lado, las muestras con las que se han realizado este tipo de investigaciones deberían ser más amplias. Esto sugiere que es necesario llevar a cabo más estudios para poder confirmar tanto los beneficios a nivel motor como la mayor motivación y adherencia al tratamiento que se obtienen. 7. Conclusiones La Wii™ es una herramienta útil dentro del proceso de intervención en la rehabilitación de personas con afectación neurológica, en este caso, de la lesión medular. Sus características, así como las adaptaciones creadas por terapeutas ocupacionales, permiten su acceso a personas con gran afectación de miembros superiores. El valor que adquiere la Wii™ como herramienta de trabajo en rehabilitación se lo da el profesional, que sabe enfocar y plantear el juego de forma adecuada para conseguir los objetivos deseados con cada usuario. Esto supone una mayor adherencia al tratamiento por parte de los pacientes, a la vez que abre una nueva línea de intervención e investigación con este tipo de nuevas tecnologías. 8. Bibliografía [1] M. Holden, “Virtual environments for motor rehabilitation: review”, CyberpsycholBehav, 2005, pp. 187-211. [2] J.A. Gil-Gómez, R. Lloréns, M. Alcañiz, y C. Colomer, “Effectiveness of a Wii balance board-based system (eBaViR) for balance rehabilitation: a pilot randomized clinical trial in patients with acquired brain injury”, JNeuroengRehabil, published online 2011 May 23, pp. 8-30. [3] M.S. Cameirao, S. Bermúdez, y PFMJ. Verschure, “Virtual reality based upper extremity rehabilitation following stroke: a review”, Journal of CyberTherapy& Rehabilitation, 2008, pp. 6374. [4] K. E. Laver, S George, S. Thomas, J. E. Deustsch, M. Crotty, “Virtual reality for stroke rehabilitation”, C ochrane Database Syst Rev., 2011, pp. 38. [5] G. Saposnik, R. Teasell, M. Mamdami, J. HLL, W. McIlroy, D. Cheung, K. E. Thorpe, L.G. Cohen, M. Bayley, “Effectiveness of Virtual Reality Using Wii Gaming Technology in Stroke Rehabilitation, A Pilot Randomized Clinical Trial and Proof of Principle”, Stroke, 2010, pp. 1477-1484. [6]M.R. Mouawad, C.G. Doust, M.D. Max, P.A. McNulty, “Wii based movement therapy to promote improved upper extremity function post -stroke: a pilot study”, J Rehabil Med, 2011, pp. 527–533. [7] D. Celinder, H. Peoples. “Stroke patients' experiences with Wii Sports(®) during inpatient rehabilitation.”, Scand J Occup Ther, 2012, pp 7-9. [8] H.L. Hurkmans, G.M. Ribbers, M. F. Streur- Kranenburg, H.J. Stam, R.J. van den Berg- Emons, “Energy expediture in chronic stroke patients playing Wii Sports: a pilot study”, Journal of NeuroEngineering and Rehabilitation, 2011, pp. 3-8. [9] H.L. Hurkmans, R.J. Van den Berg-Emons, y H.J. Stam, “Energy expenditure in adults with cerebral palsy playing Wii Sports”, Arch Phys Med Rehabil, Oct.2010, pp. 1577-81. 126 123 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos [10] J.K. Hsu, R. Thibodeau, S.J. Wong, D. Zukiwsky, S. Cecile, y D.M. Walton, “ A "Wii" bit of fun: the effects of adding Nintendo Wii(®) Bowling to a standard exercise regimen for residents of long-term care with upper extremity dysfunction”, Physiother Theory Pract.EpubAug 10, Apr 2011, pp. 185-93. [11] M.K. Baker, E. Atlantis, y M.A. Fiatarone Singh, “Multimodal exercise programs for older adults”, Age Ageing, 2007, pp. 375-381. [12] C.H. Shih, C.J. Shih, y C.T. Shih, “Assisting people with multiple disabilities by actively keeping the head in an upright position with a Nintendo Wii Remote Controller through the control of an environmental stimulation”, Res DevDisabil, SeptOct 2011, pp. 2005-10. [13] H. Sveistrup, “Motor rehabilitation using virtual reality”, J NeuroengRehabil, 2004, pp. 1-10. [14] J.H. Crosbie, S. Lennon, J.R. Basford, y S.M. McDonough, “Virtual reality in stroke rehabilitation: still more virtual than real”, DisabilRehabil, 2007, pp. 1139-1146 124 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos An Innovative Solution Based on Human- Computer Interaction to Support Cognitive Rehabilitation José M. Cogollor1, Matteo Pastorino2, Javier Rojo1, Alessio Fioravanti2, Alan Wing3, Maria Teresa Arredondo2, Manuel Ferre1, Jose Breñosa1, Joachim Hermsdörfer4, Javier De Teresa5, Clare Walton6, Andrew Worthington7, Christos Giachritsis8 1 Centre for Automation and Robotics CAR (UPM-CSIC), José Gutiérrez Abascal 2, 28006 Madrid, Spain: [email protected], [email protected], [email protected], [email protected]. 2 Life Supporting Technologies, ETSIT-UPM, Avda. Complutense 30, Madrid, Spain: [email protected], [email protected], [email protected]. 3 School of Psychology, The University of Birmingham, Edgbaston, Birmingham B15 2TT, UK: [email protected]. 4 Institute of Movement Science, Department of Sport and Health Science, Technical University of Munich, 80992 Munich, Germany: [email protected]. 5 RGB Medical Devices S.A., Alfonso Gómez 42, 28037 Madrid, Spain: [email protected]. 6 Stroke Association House, 240 City Road, London EC1V 2PR, UK: [email protected]. 7 Headwise, Innovation Centre, Longbridge Technology Park, Birmingham B31 2TS, UK: [email protected]. 8 BMT Group Ltd, Goodrich House 1, Waldegrave Road Teddington, Middlesex, TW11 8LZ, UK: [email protected]. Resúmen Esta contribución describe el diseño e implementación de un sistema innovador para proporcionar rehabilitación cognitiva. Está orientado a personas que sufren de Apraxia y Síndrome de la Desorganización de la Acción (por sus siglas en inglés AADS) ocasionado principalmente tras infartos cerebro-vasculares. La plataforma ha s ido integrada en Universidad Politécnica de Madrid e intenta reducir el periodo de visita en el centro de rehabilitación proporcionando rehabilitación personalizada en casa. Así que, el sistema actúa como una m áquina inteligente que guía al paciente mientras ejecuta actividades de la vida cotidiana (por sus siglas en inglés ADL), tales como preparar un s imple té, informando sobre los errores cometidos y acciones posibles para corregirlos. En el documento se ofrece una pequeña introducción sobre otros trabajos relacionados, pacientes con los que tratar, cómo funciona el sistema y cómo se implementa. Finalmente, también se muestra información relevante experimento realizado para su validación técnica. sobre Abstract This contribution focuses its objective in describing the design and implementation of an i nnovative system to provide cognitive rehabilitation. People who will take advantage of this platform suffer from a post-stroke disease called Apraxia and Action Disorganisation Syndrome (AADS). The platform has been integrated at Universidad Politécnica de Madrid and tries to reduce the stay in hospital or rehabilitation center by supporting selfrehabilitation at home. So, the system acts as an intelligent machine which guides patients while executing Activities of Daily Living (ADL), such as preparing a simple tea, by informing them about the errors committed and pos sible actions to correct them. A short introduction to other works related to stroke, patients to work with, how the system 125 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos works and how it is implemented are provided in the document. Finally, some relevant information from experiment made with healthy people for technical validation is also shown. 1. Introduction Neurological patients after stroke may suffer from disrupted action due to cognitive deficits which prevent them from maintaining independent lives. As indicated by the World Health Organisation, 15 million people worldwide suffer from a stroke each year. The number of stroke sufferers will inevitably increase caused by the continuous ageing of population [1]. One third of the stroke sufferers will experience longterm physical and/or cognitive disabilities, and stroke is considered to be the most common cause for severe disability and even death. Following a stroke incident, a significant proportion of patients can suffer from Apraxia and/or Action Disorganisation Syndrome (AADS) which, among other symptoms, is demonstrated by the impairment of cognitive abilities to carry out Activities of Daily Living (ADL) [2-4]. Recent study estimates that 46% of stroke patients initially have a degree of Apraxia with 24% showing persistence of the problems at 9 months follow-up. AADS can have a dramatic impact on patients’ independence and may obviously result in the need for continuous support and care provided by caregivers or specialist cares. Thus, there is a requirement for effective rehabilitation for AADS. Most common rehabilitation systems are focused on treating physiological aspects of stroke, such as limb movement [5], and are based on robot or virtual environment platforms which are expensive and not effective for a home base environment [6-9]. Furthermore, they are space dependent, requiring the patient to function within their working space rather than adapting to patient’s natural environment. To date, most common rehabilitation systems that are based on Information and Communication Technologies (ICT) focus on treating physiological symptoms of stroke (e.g. muscle weakness) [10-13]. These systems are inappropriate for rehabilitation of the cognitive basis of AADS. Moreover, these systems tend to be expensive and so impractical for home installations. As a consequence, this affects the continuity of therapy and weakens its impact. This paper presents a different solution whose contribution is part of a European project called CogWatch [14]. The aim is to provide a rehabilitation system based on highly instrumented common objects and tools, wearable and ambient devices that are part of patients’ everyday environment and can be used to monitor behaviour and progress as well as re-train them to carry out ADL through persistent multimodal feedback at home. The document is divided into several sections. Section II presents a brief description of AADS patients and the effects of stroke. Once the main features of these patients are described, the physical description of the platform and how the system works are presented in section III and section IV in order to detail an experiment carried out to assess the solution adopted in section V. Finally, in section VI, a conclusion and brief summary of the general results are presented. 2. Apraxia and action disorganisation syndrome Apraxia is a cognitive impairment affecting the ability to make purposeful skilled actions with objects or to use communicative gestures which is not attributable to motor weakness or sensory impairment. It is commonly associated with lesions due to stroke in the left parietal region of the cerebral cortex. Action Disorganisation Syndrome is a cognitive impairment affecting the performance of sequential action. Lesions of frontal lobe of the cerebral cortex resulting from stroke can produce ADS. Successful performance of Activities of Daily Living (ADL) involves the elaboration of a high-level goal for action (e.g. make a hot drink) into a series of sub-tasks involving specific objects (e.g. fill the kettle with water, boil the water, put the teabag in the cup, add the hot water, etc.) selected from the environment. Together, Apraxia and Action Disorganisation Syndrome (AADS) can lead to marked impairment in ADL task performance [15]. For example, on request patients may be able to identify and take hold of each of the objects needed to make a cup of tea. However, when asked to perform the whole task they may make errors of omission (e.g. failing to put water in the kettle), perseveration (e.g. putting several tea bags into the cup), or substitution (e.g. using coffee instead of tea). A number of approaches to the rehabilitation of AADS have been evaluated [16]. For instance, in a single case study a 55 year old man with apraxia resulting from a stroke received daily 1 hour treatment for 2 weeks [17]. Training of gestures was based on the provision of multiple cues to help the patient demonstrate the use of a target tool including object, visual model, and feedback correction of errors. The cues were progressively withdrawn until the patient achieved 90% accuracy 3 times before moving on to next target. Improvements were seen in quality of treated and untreated gestures post treatment however, these were not maintained at follow up 2 weeks later. In another single case study a 34 year old man who suffered carbon monoxide poisoning with Action Disorganisation Syndrome resulting in impaired ability to carry out routine everyday tasks was trained with a verbalisation strategy [18]. Improvement was obtained on the trained task (making a cup of tea) but this did not transfer to other tasks (e.g. making toast). Single case studies are informative for developing approaches to rehabilitation that are closely related to the needs of specific patients. However, group studies are important to test the generalizability of findings from single case studies and they have also been used to examine whether apraxia rehabilitation is effective. For example, a study with 33 left hemisphere stroke patients as participants contrasted apraxia training with a control condition (involving language training for rehabilitation of aphasia) and showed specific effects of the apraxia training on ADL performance that was retained at follow-up [19]. 126 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Patients were randomly assigned to apraxia or control (aphasia) treatment. Apraxia training was based on progression from more to fewer cues. For instance, transitive gesture training involved progression through spoon, picture of spoon, verbal command. Intransitive gesture and meaningless gestures were also trained. Approximately 15 items in each condition were trained 3 times per week for up to 35 sessions. Before and after each treatment, patients underwent neuropsychological testing and caregiver evaluation of patient’s ADL independence in personal hygiene, feeding and dressing. Apraxia treatment specifically reduced apraxia and improved ADL function. Control (aphasia) treatment improved patients’ language and intelligence performance but had no effect on apraxia and ADL. The group study, demonstrating the benefits of apraxia training, suggests the need for further rehabilitation research to determine which cues lead to what gains in which patients so that interventions can be targeted more effectively. However, a barrier to such aim is the intensive nature of AADS therapy, requiring constant supervision by trained staff to monitor the patient’s actions for errors and to provide the cueing. Given limited therapist resources, AADS patients generally receive relatively little practice in such tasks. Figure 1 and Figure 2 show the concept idealization of the platform located in different scenarios. Figure 1. Kitchen scenario. 3. System overview As mentioned above, the goal of the system is to help the patient to perform ADL tasks independently. The first impression that this may cause to the reader is that the goal is extremely ambitious, the possible tasks that the patient can take and the ways for doing them are unlimited. For this reason, four different activities are selected to split the effort in general cases of some of the most representatives that the patient has to face daily. These chosen activities are: Preparing a hot drink. Preparing a snack. Grooming. Dressing. For each activity one task is chosen. This task is divided into component sub-tasks along the lines of Cooper and Shallice [20]. The idea of segmenting the tasks is useful for several reasons. The first reason is that it allows performing one task in different ways, defined by the different order of execution of the sub-tasks. It makes the system suitable to adapt easily to other tasks of the same activity, i.e., when every sub-task for preparing a tea is defined, most of them can be used for defining how to prepare a coffee. Finally, it can provide a diagnosis of what particular ones are difficult for each patient. Another way for classifying the ADL is by the scenarios where they take place. Some studies defense the benefits from domestic rehabilitation [21], [22]. Patients feel more comfortable in familiar places. Following these guidelines, the platform developed is based on standard electronic gadgets that can be easily installed and avoid drastic changes in the house layout. Figure 2. Bathroom scenario. The system requisites needed cover up the possible problems that the patient could find. The use of All-In-One computers and tablets asserts the processing capacity and the portability of the system. The patient will always have the possibility to get in contact with the clinician through the platform. Meanwhile, the professional will dispose in his/her house or rehabilitation centre of dedicated software. The clinician will be able to supervise and store all the rehabilitation sessions for post studies, send messages and reminders, through the corresponding devices, explained later in the document, with this professional interface. Furthermore, the clinician will be able to personalise the interface to generate statistics, organize the sessions with the patients, access to their clinic history and evaluate the progress and efficiency of the system. Privacy of the patients is guaranteed in accordance with the dataprotection laws and the access to all this information will be restricted. 4. Overall architecture Once the bases for the utilization and installation are settle down, now it is time to focus on the technical description of the platform. Figure 3 shows a general technical overview of the system architecture. The system is composed by two main 127 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos subsystems, a Client sub-system (CCS) and a Server subsystem (SS). Figure 4. Table set up for the manipulation of the objects. Figure 3. Main architecture of the system. 4.1. Client sub-system (CCS) The CCS, which will be located at the patients’ house, is used for data acquisition and patient graphical user interface, during the rehabilitation sessions. It manages the patient data and presents the related rehabilitation sessions outcomes to the healthcare personnel. Regarding the hardware components, a group of devices is used to capture and analyse the behaviour and activity performance of the patients. These devices are divided into two categories: monitoring and feedback purposes. First of all, the monitoring devices include vision-based systems and instrumented objects to be used during the tasks performance. Their main objectives are: Microsoft Kinect™: responsible for acquiring information from patient hands, wrist movement and general video of the execution of the task. Sensorized objects: equipped with accelerometers and force sensitive resistors to capture their interaction with patient and collect the related data for future movement recognition. The sensorized objects considered in this first preliminary version of the platform are related to the activity focused on hot drink preparation, such as: Kettle (to boil water). Cup (for drinking). Brick of milk. Jug of water. The objects are placed in a specific table set-up (Figure 4), with fixed positions, in order to make easy for the patient their consequent manipulation. Secondly, feedback devices are composed by a smart watch with vibration capability and a Virtual Task Execution (VTE) monitor: Smart watch. This device vibrates in case of error, in order to make the patient aware of his/her mistake. VTE monitor. It is an All-In-One computer whose main features are to provide to patients with the corresponding cues and possible risks for correction of the errors committed; it also collect the data coming from the patient rehabilitation session in a database. On the other hand, taking into account the software modules, the main sub-modules of CCS are described as follows: Information handler: it is in charge of handling the data when an event is detected, by avoiding the system to collapse through priority logics. Scheduler: it is in charge of the scheduling management. VTE repository: it is the database responsible for archiving the data coming from the scheduled rehabilitation sessions. Prediction and recognition algorithms: the system must recognize the stage patients have reached during a task, estimate the goodness of the single sub-tasks carried out and suggest the consequent cues. The means through which the system identifies the user’s motions are the sensorized objects and the video tracking tools, used by the Kinect™, as mentioned before. Communication module: responsible for the communication between the CCS and the SS. It is equipped by an encryption mechanism for guarantee a secure data access to both the submodules through a symmetric and asymmetric encryption. 4.2. Sever sub-system (SS) The SS is composed by the HealthCare sub-system (HS) and the Web Portal sub-system (WS). The HS is the module in charge of receiving and storing the data of the rehabilitation sessions. It is conceived to be installed in the 128 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos rehabilitation centre to manage data coming from external resources. The WS is in charge of showing the rehabilitation sessions’ data and statistics of patients to the healthcare personnel. The module installed in an external and unique server, based on a web based portal, is accessible only by the healthcare and the administration personnel. More in detail, the HS is composed by: Communication module: responsible for the communication with CCS side, it guarantees encryption security. Healthcare information handler: it allows handling data to be trigger to other modules when an event is detected. Healthcare repository: responsible for storing patient personal information, medical treatment and statistic of the rehabilitation sessions. Interoperability module: responsible for guaranteeing interoperability among existing and external devices in the healthcare centers. Meanwhile, the WS main sub-modules are: Account manager: responsible for managing the user accounts. Login manager: it allows security and multidevice access authorization. WebPortal handler: it is in charge of the information management exchange between different sub-modules and it encapsulates the centralized system’s logic. 4.3. Graphical interfaces The system provides to both, patient and clinician, simple and attractive interfaces, in order to let the users interacting easily with it. Considering the interface provided to the patient, this is showed in the VTE monitor and its purpose is to provide cues in sense of images, videos and messages (text and verbal) that make the patients aware of the error committed and try to tell them how to correct the action not executed or executed in a wrong way. Figure 5 shows the appearance of the first window of patient interface, used to select the task to be performed. Finally, the professional interface allows the clinician to check and control the performance of both, the system and patient, during the follow-up. It is installed in a common computer and composed of several features which make the clinician supervise the system and act when required. (Figure 6) Figure 6. Professional interface on the clinician laptop. More deeply, the interface is composed mainly by the following sub-windows: Task visualization: visualization of the task chosen by the patient in the VTE. Sub-tasks and errors: to be used during the execution of the task. The clinician selects the sub-task being executed in a specific moment to choose what error the patient has committed in case that the prediction and recognition algorithms fail. Cue preview: to display the cue to be sent to patient for previous validation. Reliability of sensors: status of the sensors and the proper functioning. Video streaming: display the video of patient in real time. 5. Experiment and validation Once the architecture and components of the system have been shown, now it is time to test them and assess the suitability for being used at home during the execution of ADL. For this purpose, the platform has been installed in the kitchen of a specific Living Lab (Figure 7) to be used, initially, by healthy people for technical validation. Figure 5. Patient interface on the VTE monitor. 129 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Taking into account the kind of errors AADS patients usually commit from ¡Error! No se encuentra el origen de la referencia. and the methods used for feedback, a relationship between the type of errors and the kind of feedback to be provided was suggested. Table 3 shows few examples of the errors committed by patients, intentionally for validation, with the corresponding cue provided. Table 3. Feedback provided for each error committed. Figure 7. Kitchen used to validate the system. A simple task was considered to be executed and simulate how a real patient would interact with the system. In this case, the task was focused on the preparation of a hot drink, in particular a tea, with four different versions: Simple tea. Tea with sugar. Tea with milk. Tea with sugar and milk. For the preparation of the tea, a task tree (Figure 8) will be considered, to collect all the necessary steps that the user must execute for the correct completion of the task. Figure 8. Task tree for tea preparation. The task tree helps to locale the steps patient has already performed in case an error occurs. The errors are classified as indicated in Table 2: Table 2. Errors classification. Error Type Definition Addition Add an extra component that is not required. Omission Forget to perform a step or subtask. Perseveration The unintentional repetition of a step or sub-task. Anticipation Perform a step or sub-task earlier in the sequence than usual. Perplexity A delay or hesitation in performing an action. Toying Repeated touching or moving of an object without actually touching it. Error Cue for feedback Add sugar into the cup when not needed. Final message to abort the system. Forget to add water to the kettle. Image>>Video>>Final message to abort the system. Add excessive water to the kettle. Vibration>>Text/verbal message>>Final message to abort the system. Drink tea without adding a tea bag. Image>>Video>>Final message to abort the system. A noticeable pause in placing the tea bag into the cup. Image>>Video>>Final message to abort the system. Touching the water jug repeatedly without using it. Final message to abort the system. As seen in the previous table, there are mainly three groups the errors were grouped into: The first group is composed by those errors whose feedback provided was only a final text or verbal message in the monitor to indicate the error and abort the system because the error could be dangerous for the user and/or the task cannot be completed. The second group is composed by those less dangerous errors which feedback is divided into three stages: Firstly, a simple image of the correct action was shown to the user. In case the patient do not execute the subtask, a more explicit cue, represented by a real video, is played. Finally, if pause in movement continued, a final message is provided, informing about the error, and abort the system, letting the user to be relax and to try to perform again the task later. The third and final group was composed by those errors which feedback was also divided into three stages, but different from the mentioned above: Firstly, a vibration from the watch is provided to the user. If the user is not aware of the error, then a simple text or verbal message from the monitor is shown. Finally, if pause in movement continued, another final message is provided informing about the error and aborting the system letting the user relax and try it again later. 130 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos As said before, the experiment was carried out by a healthy person, not involved in the project, to test the performance of the system. Personally, he found the platform quite effective, attractive and useful. In addition, ergonomics and comfort are achieved for future patients due to the fact that the wearable device is a simple and commercial watch that can be purchased on internet. The rest of the devices, such as VTE monitor or KinectTM, can be placed easily at home as a common TV or security camera, respectively. Regarding technical aspects, only few relevant issues have been observed, mainly related to: Start up of the graphical interface. Unexpected disconnection of the sensors from the sensorized objects. Punctual repetition of the same cue, due to communication issues between both interfaces (clinician and patient). However, these aspects will be early improved, as the platform is just on a first prototype version of the whole system, continuously in development. 6. Conclusion This contribution has presented an innovative and totally different platform which will provide a personalized, longterm and continuous cognitive rehabilitation for stroke patients with Apraxia and Action Disorganisation Syndrome (AADS). The system is conceived to be a Personal Healthcare System (PHS), capable of offering a domestic, intuitive and usable healthcare solution oriented on the rehabilitation of AADS. After a brief summary of the disease, the main features of the whole architecture considered have been described in terms of design, components, software and implementation. The patients interact with mainly two groups of devices: for monitoring and for feedback. Monitoring devices are in charge of monitoring the execution of the task and movements of the patient in order to be able to detect possible errors and malfunctioning. Meanwhile, feedback devices are in charge of providing the corresponding cues and feedback to make the patient aware of the errors committed and possible risks. In order to assess the implementation of the platform for its use at home, the system has been used during the execution of a simple task, such as preparing a tea. The results obtained from the performance show that it is quite easy to use, attractive and very useful for its objective. It is relevant to mention that, up to date, the system has been tested only by healthy people, due to the work plan of the project. However, during the evaluation of the prototype, both healthy people (for technical evaluation) and real patients (for medical evaluation) will have the opportunity of experiment it. As future work, the features of two of the main devices involved, watch and objects, will be extended for future versions of the platform. For instance, a new version of the watch will be analyzed to incorporate tactile interface like a touchable big button. Meanwhile, objects will be complemented by RFID tags to improve the accuracy and effectiveness in detecting errors while grasping and manipulating objects. 7. Acknowledgment This work has been supported by the European Commission under the grant FP7- ICT-2011-288912. The authors acknowledge CogWatch partners who are working in different areas of the CogWatch project, but did not directly contribute to the writing of this paper. 8. References [1] «World Stroke Organization - Home». [Online]. Available: http://www.world-stroke.org/. [Accessed: 07-may-2013]. [2] Liepmann, H., Drei Aufsätze aus dem Apraxiegebiet, Berlin: Karger, 1908. [3] Hermsdörfer, J., Blankenfeld, H. and Goldenberg, G., "The dependence of ipsilesional aiming deficits on task demands, lesioned hemisphere, and apraxia", Neuropsychologia, 2003, 41, 1628-1643. [4] G. Goldenberg and S. Hagmann, "Therapy of activities of daily living in patients with apraxia", Neuropsychological Rehabilitation, 1998, 8 (2):123-141. [5] Chris T. Freeman, Eric Rogers, Ann-Marie Hughes, Jane H. Burridge and Katie L. Meadmore, "Iterative Learning Control in Health Care, Electrical Stimulation and Robotic-Assisted UpperLimb Stroke Rehabilitation", IEEE Control Systems Magazine, February 2012. [6] Shor PC, et al., "The effect of Robotic-Aided therapy on upper extremity joint passive range of motion and pain", Integration Of Assistive Technology In The Information Age. IOS, Mokhtari M (ed), 2001, Netherlands, pp79–83. [7] Kahn LE, et al, "Comparison of robot assisted reaching to free reaching in promoting recovery from chronic stroke", Integration Of Assistive Technology In The Information Age. IOS, Mokhtari M (ed), 2001, Netherlands, pp 39–44. [8] Krebs HI, et al., "Robotic applications in neuromotor rehabilitation", Robotica, 2003, 21(1): 3–12. [9] Amirabdollahian F, et al., "Error correction movement for machine assisted stroke rehabilitation", Integration Of Assistive Technology In The Information Age. IOS, Mokhtari M (ed), 2001, Netherlands, pp 60–65. [10] Ying Mao and Sunil K. Agrawal, "Wearable Cable-driven Upper Arm Exoskeleton-Motion with Transmitted Joint Force and Moment Minimization", IEEE International Conference on Robotics and Automation, 2010. [11] J. Ueda, et al., "Individual Muscle Control Using an Exoskeleton Robot for Muscle Function Testing", IEEE Trans. On Neural Sys. And Rehab. Eng., 2010, vol, 18, n 4, pp 339-350. [12] Samuel B. Kesner, Leif Jentoft, Frank L. Hammond III, Robert D. Howe, and Marko Popovic, "Design Considerations for an Active Soft Orthotic System for Shoulder Rehabilitation", 33rd Annual International Conference of the IEEE EMBS, 2011. 131 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos [13] Galiana, I., Hammond, F. L., Howe, R. D., and Popovic, M. B., "Wearable soft robotic device for post-stroke shoulder rehabilitation: Identifying misalignments", Intelligent Robots and Systems (IROS), 2012 IEEE/RSJ International Conference on (pp. 317-322). [18] Bickerton W.L., Humphreys G.W., Riddoch M.J., "The use of memorised verbal scripts in the rehabilitation of action disorganisation syndrome", Neuropsychological Rehabilitation, 2006, 16, 155-177. Available: [19] Smania N., Aglioti S.M., Girardi F. et al., "Rehabilitation of limb apraxia improves daily life activities in patients with stroke", Neurology, 2006, 67, 2050-2052. [15] Hanna-Pladdy B., Heilman K.M., Foundas A.L., "Ecological implications of ideomotor apraxia: evidence from physical activities of daily living", Neurology, 2003, 60, 487–490. [20] Cooper, R., and Shallice, T., "Contention scheduling and the control of routine activities", Cognitive Neuropsychology, 2000 17(4), 297-338. [16] Buxbaum L.J., Haal K.Y., Hallett M. et al., "Treatment of limb apraxia: Moving forward to improved action", Am J P hys Med and Rehab, 2008, 87, 149-161. [21] L. Gamberini, G. Riva, A. Spagnolli, M. A. Raya, C. B. Zapata, and R. Baños, Psychnology Journal. [14] «CogWatch project - Home». [Online]. http://www.cogwatch.eu/. [Accessed: 14-may-2013]. [17] Maher L., Rothi L., Greenwald M., "Treatment of gesture impairment: a single case", Am Speech Hear Assoc., 1991, 33,195. [22] M. Scopelliti, M. V. Giuliani, and F. Fornara, "Robots in a domestic setting: a psychological approach", Universal Access in the Information Society, 2005, vol. 4, nº 2, pp. 146-155, July. 132 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Metodología de Estudio del Aprendizaje de Niños con Parálisis Cerebral en el Uso de un Ratón por Movimientos de Cabeza. M. A. Velasco*, R. Raya*, R. Ceres*, R. Sola**, J. Jiménez, S. Morata** *Grupo de Bioingeniería – CSIC (http://www.car.upm-csic.es/bioingenieria/) **Colegio de Educación Especial Hospital San Rafael Madrid E-mail: [email protected], [email protected] Abstract This paper presents a methodology designed to evaluate the learning process for people with cerebral palsy (CP) who are asked to control a c omputer through an inertial interface. The interface allows users to control the mouse pointer and c lick with head movements. The metric proposed in order to objectively measure the process of learning is the “throughput”. This parameter has been widely used for the evaluation of pointing devices and is now applied for the first time to people with CP. The results obtained show that the metric can be used to quantify how the user is learning and therefore to assess the usability of the inertial device. Resumen Este artículo presenta un e studio piloto que introduce una metodología para valorar el aprendizaje de una persona con parálisis cerebral (PC) en el manejo del computador con una i nterfaz inercial, que permite el control del cursor y el clic mediante movimientos de cabeza. Se propone el uso de una métrica denominada rendimiento para medir objetivamente el proceso de aprendizaje. La métrica, ampliamente utilizada para la evaluación de dispositivos apuntadores, se aplica por primera vez en usuarios con PC. Los resultados obtenidos muestran cómo la métrica propuesta permite cuantificar el proceso de aprendizaje del usuario con PC, con lo que puede ser empleada para valorar la usabilidad del dispositivo inercial. 1. Introducción Parálisis cerebral (PC) es un término muy amplio que engloba una serie de trastornos permanentes no progresivos de diversa índole como consecuencia de lesiones del cerebro inmaduro producidas por trauma-tismos e hipoxias durante el parto o infecciones ante-riores o posteriores al mismo. La PC se manifiesta principalmente en disfunciones neuromotoras con alteraciones en el control motor y postural debido a trastornos de la coordinación y del tono muscular pero también pueden afectar a la percep-ción, la memoria o el razonamiento [1]. Existe una gran variedad de cuadros y grados de afectación. Así, se distinguen por una parte la PC espástica, con origen en el córtex, caracterizada por la rigidez muscular. Por otro lado, la PC atetósica, relacionada con los ganglios basales, origina movi-mientos involuntarios en las extremidades y la cara, así como dificultades de audición y de lenguaje. La PC atáxica tiene origen en el cerebelo y afecta a la postura, equilibrio y coordinación de movimientos. General-mente suelen aparecer formas mixtas en las que se combinan los tres tipos de PC con diferentes tonos (hipertónico, hipotónico, distónico). Estas disfunciones psicomotrices determinan una falta de autonomía ya que afectan a funciones de la vida diaria: movilidad, manipulación, comunicación y relación con el medio. Es preciso insistir en que la PC, si bien es permanente ya que las lesiones que la causaron no pueden ser curadas, provoca limitaciones que pueden ser reducidas. Es universalmente aceptada la neuro-plasticidad o capacidad de reorganización del sistema nervioso central (principalmente en los primeros años de vida) con el desarrollo consiguiente de sus fun-ciones físicas y cognitivas a partir de estímulos externos y experiencias de interacción con el medio. Esa plasticidad constituye una de las bases principales de los procesos de adquisición de habilidades y del aprendizaje en general. En el caso de niños con PC, dadas las dificultades que presentan la mayoría de ellos en llevar a cabo actividades básicas de comunicación, juegos, desplazamiento y otras, que son la fuente de adquisición de conocimientos y experiencias, es preciso ofrecer una mayor atención desde los primeros años al fomento de estas experiencias. 133 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 2. Canales alternativos de acceso al computador. La interfaz ENLAZA. Por lo expresado en el apartado anterior es importante implicar al usuario fomentando y estimu-lando la experimentación personal ampliando sus actividades de relación, de manipulación y desplaza-miento y el acceso a fuentes de conocimiento impresas o audiovisuales. En este sentido es preciso subrayar el papel que ha tomado el computador como herramienta clave tanto para el acceso a estos medios de relación y conocimiento (Internet, redes sociales, email) como para el control de dispositivos personales (sillas de ruedas, ortesis) y del entorno (puertas, luces, TV). El uso del computador es aún más importante en las personas con PC ya que no pueden en muchos casos desplazarse fácilmente ni manejar elementos físicos básicos en las actividades diarias tales como libros o electrodomésticos. Tienen también grandes trabas para acceder al computador ya que sus restricciones motoras les impiden manipular adecuadamente dispositivos como el teclado y el ratón. Es por ello que desde hace más de una década se vienen adaptando dispositivos de acceso convencionales o desarrollando nuevas tecnologías que tratan de aprovechar las habilidades del usuario utilizando canales alternativos. Entre los dispositivos adaptados podemos citar teclados ergonómicos de una sola mano, sobreteclados con perforaciones sobre cada una de las teclas, ratones controlables por el mentón o ratones con filtros para reducción de los efectos del temblor (Tech Filter). En el terreno del software existen adaptaciones tales como programas que presentan los iconos secuencialmente para facilitar su selección o los editores de texto predictivos todos ellos con metodologías propias de la CAA (comunicación aumentativa y alternativa). Otras interfaces de acceso al computador, como ya se ha dicho, hacen uso de formas u órganos corporales diferentes de expresión humana, aprovechando disposiciones biomecánicas tales como gestos, posturas y movimientos de extremidades, cabeza (SmartNav) y ojos (Tobii o IRISCOM), o bien el registro de poten-ciales eléctricos generados por acciones voluntarias musculares (electromiografía) o cerebrales (electroen-cefalografía). Con estas bases se están llevando a cabo numerosas investigaciones orientadas a cubrir las necesidades especiales de la discapacidad en general. Entre estos dispositivos avanzados, con realizaciones cabe destacar los sistemas de oculografía, tanto por electrodos superficiales (EagleEyes) como mediante el uso de cámaras sin contacto (Gaze) [2]. De esta última variante son de especial interés, habiendo llegado incluso a los mercados en los últimos años, diversos sistemas de seguimiento ocular mediante cámaras infrarrojas habiendo dado lugar principalmente al desarrollo de comunicadores generando textos escritos, con la ayuda de editores predictivos. El dispositivo ENLAZA [3], es un interfaz personacomputador basado en tecnología inercial desarrollada en el Grupo de Bioingeniería del CSIC. El prototipo permite medir el movimiento de la cabeza mediante una serie de unidades de medida, llamadas sensores inerciales (Inertial Measurement Unit, IMU en nomen-clatura anglosajona). El IMU es un dispositivo que integra un acelerómetro tridimensional (3D), que mide aceleración, un giróscopo 3D, para la velocidad angú-lar y un magnetómetro 3D, que mide el campo magné-tico terrestre. La fusión de estas señales permite la medida precisa de la orientación angular del IMU y, por tanto, de la parte del cuerpo donde se ubique el sensor, la cabeza en este caso. Figura 8. Usuario manejando el interfaz de ENLAZA en una rutina de alcance. El sensor está inmovilizado sobre la cabeza del usuario y conectado al ordenador por USB. La interfaz inercial ENLAZA se muestra en la Figura 1 y se compone de un IMU y de un soporte para su sujeción a la cabeza del usuario. Este diseño supone que los usuarios con PC sufren una discapacidad severa en las extremidades superiores pero conservan un control voluntario residual de la cabeza. Se predefine un rango de movimiento cervical en los ejes horizontal y vertical (medido en grados), de tal manera que dentro de un rango de posiciones de la cabeza, el usuario pueda situar el cursor en todos los píxeles de la pantalla. Para la ejecución de un clic el usuario deberá mantener el cursor dentro de un área de extensión preestablecida durante un tiempo escogido previa-mente según sus características. El control razonable de la posición del puntero sobre la pantalla con movi-mientos de cabeza y la ejecución de clic, posibilita el acceso a aplicaciones informáticas enfocadas al aprendizaje de habilidades físicocognitivas, a tareas de comunicación o a la interacción con el entorno. 3. Metodología La tarea propuesta consistió en la utilización de la interfaz ENLAZA para la realización de una serie de tareas de alcance y clic de objetivos sobre la pantalla como simulación sistemática del acceso al computador. La tarea es atractiva para el usuario ya que el objetivo consiste en una figura reconocida por el usuario. Como incentivo, se reproduce un fragmento de video tras un clic correcto. 134 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos posiciones del objetivo) y una serie de parámetros registrados (orientación del sensor en los 3 ejes, posiciones del cursor y el objetivo, instantes en que se produce el clic) que son procesados con Matlab. Figura 9. Evaluación de distancia al objetivo y velocidad en función del tiempo para una rutina de alcance y clic, en este caso para ratón convencional. Tras una fase rápida de acercamiento, el movimiento se ralentiza para ganar precisión. Para el análisis de esos movimientos se puede aplicar la Ley de Fitts [4], que modela los movimientos de alcance en dos fases: una primera de aproximación con velocidades de movimiento elevadas y una segunda fase de precisión (Figura 2). Teóricamente existe una relación entre el tiempo de consecución de la tarea y el índice de dificultad (ID) asociado a cada objetivo en función de su distancia inicial D y tamaño W. Asimismo, se usa el rendimiento o “throughput”, como cociente entre el ID y el tiempo de alcance. La experimentación se presenta como estudio piloto para la valoración del proceso de aprendizaje en el uso de la interfaz ENLAZA. Las pruebas fueron realizadas con un único usuario en el Colegio de Educación Especial del Hospital San Rafael de Madrid. El usuario sufre una parálisis cerebral distónica con componente espástico. Alteración en la coordinación del movimiento, movimientos poco precisos y sin un control adecuado. Dificultad para mantener la cabeza enderezada en línea media salvo si es por muy breves periodos. Cuando usa los miembros superiores se activa un patrón flexor que afecta a la cabeza. Actualmente utiliza una tablet táctil con lápiz puntero adaptado a una férula. Con ella accede a un tablero de comunicación y ocio y al aprendizaje en su aula; realización de fichas sencillas de conteo del 1 al 4 con discriminación de la grafía de números, así como de vocales, categorizaciones. Lleva lentes correctoras para hipermetropía. Es capaz de discriminar las formas básicas, figura-fondo, constancia de la forma (2 dimensiones) y cierre visual para imágenes conocidas. Figura 3. Posición y trayectoria del cursor en la pantalla y el objetivo durante una rutina de alcance y clic. Cada subtarea dentro de una sesión se plantea como una rutina de alcance de un icono cuadrado de lado W a una distancia D en la pantalla (ver Figura 3). Se define el tiempo total de alcance y clic como el transcurrido desde que el objetivo se fija en una nueva posición hasta que se inicia una nueva reproducción de video. El tiempo de alcance se calcula restando al tiempo total de la rutina el tiempo de permanencia predefinido para el clic del interfaz ENLAZA. Las 5 primeras sesiones son utilizadas por los terapeutas para la configuración de los parámetros de calibración acorde a las necesidades del usuario. En las sesiones restantes se realiza una detección de los tiempos de alcance que distan de la media de la muestra más de 2.5 veces la desviación estándar. Se considerarán valores fuera de la muestra o “outliers” ya que se reconocen como periodos de tiempo en que el usuario se ha distraído de la tarea según los terapeutas. A continuación se realiza un promediado que produce un efecto de filtrado paso-bajo y reduce la variabilidad entre muestras consecutivas de los parámetros calculados. Se persigue que la tendencia creciente o decreciente de la métrica, si es que existe, pueda ser más fácilmente observada. 4. Parámetros de valoración. Procesado de datos y resultados Al final de cada sesión, el software de ENLAZA genera un fichero con la configuración de la interfaz (tiempo de permanencia para el clic, duración del vídeo, tamaño y 135 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 5. Discusión y conclusión Figura 4A. Tiempos de alcance tras un promediado con N=4. La curva roja representa la muestra tras el procesado de “outliers”. 4B. Valores de ID en las rutinas de alcance. En la Figura 4A se muestran los tiempos de alcance registrados a lo largo de las diferentes sesiones con el interfaz ENLAZA y el juego de visualización de vídeos. Por otra parte, la Figura 4B muestra las variaciones en el índice de dificultad (ID) a lo largo de las diferentes rutinas. El artículo presenta un estudio piloto que valora el uso de una metodología para la evaluación del apren-dizaje en personas con PC en la utilización de un interfaz basado en sensores inerciales para el control de un ordenador. En el ensayo se han realizado una serie de pruebas de alcance de objetivos en pantalla para las que se ha utilizado una métrica denominada rendi-miento utilizada por primera vez en la evaluación de movimiento de personas con PC. El rendimiento se obtiene a partir del índice de dificultad ID (depen-diente de la distancia a la que se encuentra el objetivo y su tamaño) y del tiempo que el usuario tarda en completar la tarea. Los resultados muestran una varia-ción del rendimiento durante las diferentes sesiones. En trabajos futuros se propone estandarizar los valores que el ID tomará en las rutinas de alcance a realizar por el sujeto. Asimismo será de interés analizar el grado de ajuste a la ley de Fitts del dispositivo inercial bajo el manejo de usuarios con PC. Para ello se debe extender el estudio a un número mayor de usuarios, de modo que las métricas presentadas puedan ser analizadas de manera coherente y la existencia de ese aprendizaje pueda ser comprobada. 6. Agradecimientos Se desea expresar el reconocimiento a A. Ruiz y T. González, de ASPACE Cantabria por su colaboración en las tareas de desarrollo del sistema ENLAZA. 7. Referencias [1] Ruiz A., Arteaga R., Parálisis Cerebral y Síndromes Específicos e Individualidad en los Apoyos. Santander. Universidad de Cantabria y otros. [2] De Santis A., Iacoviello D., Robust real time eye tracking for computer interface for disabled people. Computer Methods and Programs in Biomedicine 96 (2009) 1–11, homepage: www.intl.elsevierhealth.com/journals/cmpb Figura 5. Medida del promediado con N=4. “throughput” tras un El ID en aquellos objetivos para los cuales se midieron tiempos de alcance muy superiores a la media de la muestra presentaba valores muy próximos a los de las rutinas inmediatamente anteriores y posteriores. Se considera, por tanto, que esos tiempos de alcance tan altos no son debidos exclusivamente al tamaño y la distancia del objetivo (ID) y su clasificación como valores fuera de la muestra es correcta. [3] Raya R., Rocon E., Ceres R., Harlaar J., Geytenbeek J,. Characterizing head motor disorders to create novel interfaces for people with cerebral palsy. IEEE 12th International Conference on Rehabilitation Robotics, Zurich, Suiza, junio, 2011. [4] Fitts P.M. The information capacity of the human motor system in controlling the amplitude of movement. Journal of Experimental Psychology, 47(6):381–391, 1954. El rendimiento, que se calcula a partir de los tiempos de alcance medidos, se considera más robusto por tener en cuenta la dificultad de realización de la tarea. La Figura 5 representa su evolución a lo largo de las sesiones y muestra tendencias crecientes que pueden tener relación con el inicio de cada sesión. 136 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Hécate: Sistema integral de gestión de accesibilidad global y de consulta e información ciudadana Z. Valero Ramón1, G. Ramiro Sala2 1 Instituto de las TIC Avanzadas - Grupo TSB, Universidad Politécnica de Valencia, Valencia, España, [email protected] 2 Fundación CEDAT, Universidad Politécnica de Valencia, Valencia, España, [email protected] Resumen Garantizar la accesibilidad en espacios públicos, significa asegurar que los ciudadanos, independientemente de sus capacidades técnicas, cognitivas o f ísicas, puedan participar de su ciudad. Pero la realidad es que diferentes barreras, tanto arquitectónicas hacia los ciudadanos, como tecnológicas hacia los profesionales que podrían solucionarlas, limitan seriamente la accesibilidad en nuestro entorno. Poniendo el foco en los profesionales técnicos de las administraciones públicas y en los ciudadanos como usuarios del entorno, este trabajo ha hecho un amplio estudio de las necesidades y limitaciones de ambos grupos, para desarrollar un sistema de gestión de accesibilidad y de consulta e información ciudadana. El resultado ha sido la creación de una herramienta profesional que permita a los técnicos de los ayuntamientos realizar esa gestión, y una a plicación de red social para consultar y generar información de accesibilidad, creando además un canal de comunicación directa entre ambos de gestión de incidencias. Abstract Guarantee accessibility in public areas means to ensure citizens, regardless of their technical, physical or cognitive skills can participate in their city. But reality shows that different barriers, both architectural for citizens and technological towards accessibility professional, who can solve them, severely limited accessibility in public areas. Focusing this document on technical public municipality’s professionals and c itizens, it has been done an exhaustive work on the needs and limitations of both groups to develop a system to accessibility management and of consulting and information for citizens. The result was the implementation of a professional tool that allows municipality technicians to carry out this management and a social network application for citizens, to query and generate accessibility information; it is also created a direct communication channel among citizens and municipalities to manage incidences. 1. Introducción Desplazarse, comunicarse, alcanzar, entender, usar y manipular son algunas de las distintas dimensiones de la actividad humana. Dependiendo de sus capacidades técnicas, cognitivas o físicas, cada individuo accede a estas actividades con un grado distinto de consecución. Garantizar la accesibilidad significa garantizar que estas actividades puedan ser ejecutadas de forma segura, confortable y autónoma por cualquier usuario sin que se encuentre con ningún tipo de barreras. Implantar una política de accesibilidad integral es el medio imprescindible para que todos los usuarios del espacio público alcancen plenamente sus derechos de uso y participación de dicho entorno. Cualquier ciudadano, con o sin discapacidad, debe poder alcanzar los mismos derechos de participación y tener garantizado su acceso a: medio, trabajo, lugares de ocio, transporte, cultura, educación y comunicación. Para ello, es indispensable una coordinación de esfuerzos entre las empresas de diagnóstico y asesoramiento técnico en accesibilidad, que son los encargados de validar profesionalmente la accesibilidad del espacio público, las entidades públicas y la propia ciudadanía, de forma que se genere, gestione y comparta la información necesaria para un uso más justo y universal del espacio público. Sin embargo, diversos factores arquitectónicos, económicos y sociales limitan seriamente la accesibilidad en nuestro entorno, ocasionando que las infraestructuras y servicios públicos actuales no cubren las necesidades de todos los ciudadanos. Asimismo, las empresas de diagnóstico y asesoramiento técnico en accesibilidad y las entidades locales promotoras se encuentran con numerosas limitaciones tecnológicas que les impiden analizar, validar y gestionar de forma práctica y eficiente la accesibilidad de su entorno. Todos estos factores se traducen tanto en barreras físicas hacia los ciudadanos con discapacidad, los cuales ven limitados sus derechos de uso y participación de su ciudad, como en barreras tecnológicas hacia los profesionales que pueden proporcionar soluciones a dichas limitaciones. Teniendo en cuenta dichas necesidades y limitaciones, el presente trabajo pretende diseñar, desarrollar e implantar un 137 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos sistema integral de gestión profesional de la accesibilidad global y de consulta e información ciudadana que permita mejorar de forma continua la accesibilidad universal [1] en espacios públicos. El presente documento se estructura de la siguiente forma: a continuación se describe el punto de partida del trabajo realizado, la problemática asociada a la accesibilidad en espacio públicos y el estado del arte en herramientas tanto para profesionales para gestionar la accesibilidad, y herramientas para usuarios de información sobre accesibilidad. En la sección 3 se describen los resultados obtenidos, es decir, el sistema desarrollado. Finalmente se exponen las conclusiones y líneas de trabajo futuras. 2. Estado del Arte La información generada sobre accesibilidad urbanística en espacios públicos es heterogénea y proviene de fuentes muy diversas. Además, son varios los actores involucrados en un proyecto en el cual se planifique la accesibilidad universal del espacio público y son varios los interesados en generar y consumir dicha información, pero cualquier actuación que se realice alrededor de la accesibilidad tendrá como actores fijos a la entidad local o ayuntamiento como promotora de esa actuación y a los ciudadanos en general, como usuarios finales que utilizan y participan de la ciudad. Para conocer las necesidades y la forma de trabajar de los técnicos municipales encargados de las acciones relacionadas con la accesibilidad, se hizo indispensable la colaboración de alguna entidad local que proporcionara información sobre el trabajo que realizan los técnicos. Por ello el proyecto contó con la colaboración de cuatro ayuntamientos, elegidos por su alto nivel de implicación con los colectivos de discapacitados, dos de los cuales han sido Premio Reina Sofía de Accesibilidad Universal (Quart de Poblet [2] y Aldaia [3]), y por disponer todos ellos de planes de accesibilidad, como datos de partida con los que trabajar: • Ayuntamiento de Alaquàs • Ayuntamiento de Aldaia • Ayuntamiento de Paterna • Ayuntamiento de Quart de Poblet Tras analizar la forma de trabajar de los técnicos en estos cuatro ayuntamientos mediante entrevistas personales y cuestionarios orientados a conocer su forma de trabajar y necesidades, se llegó a la conclusión de que los técnicos municipales se encuentran con la dificultad de que la información que manejan de accesibilidad se encuentra en formato CAD, y no siempre se dispone de un sistema de información geográfica GIS en el que publicar los datos. Además el formato de los datos en CAD requiere de una adaptación para poder ser publicada que conlleva una serie de dificultades y por lo tanto no se suele realizar esa adaptación. Lo mismo sucede con las obras, modificaciones o actualizaciones que se van sucediendo y que no se trasladan a ningún sistema, esto provoca que la información de accesibilidad sea escasa, dispersa y poco fiable. La necesidad fundamental detectada es poder gestionar de forma global y completa los datos de accesibilidad, mantener actualizada toda la información para poder proporcionar una respuesta adecuada a los ciudadanos y conseguir una mejora continua de los espacios públicos. Tras ahondar en el trabajo de las distintas entidades locales, y entre las principales actuaciones dentro del campo de la gestión de los datos sobre accesibilidad se encuentra la herramienta eMAP, es una Sistema de Información Geográfica (también conocido como GIS) de T-Systems [4] que permite la configuración y análisis cartográfico de información de forma integrada con el resto de sistemas de gestión de la entidad. Se trata de una solución propietaria muy útil para el tratamiento de datos cartográficos, pero que no permite la publicación de la información fuera del sistema ni la comunicación con los ciudadanos (sistema de incidencias) ni recibir información en formato electrónico de las empresas que realizan los planes de accesibilidad. Otra solución en el mismo sentido es gvSIG [5], esta herramienta se distribuye con licencia GNU GPL v2, pero presenta las mismas carencias que eMAP. La herramienta LocalGIS basada en soluciones Open Source, está especialmente diseñada para la administración de datos de entidades públicas combinando la tecnología de los GIS [6]. Tras el análisis del estado del arte se puede concluir que existen herramientas muy útiles y funcionales para el tratamiento de los datos de carácter general de las entidades públicas de todo tipo, precisamente esta generalidad es la que hace que los datos relacionados con la accesibilidad no puedan ser tratados adecuadamente, además ninguna de las herramientas ofrece un canal de comunicación de directa con los usuarios. En el caso de los ciudadanos el procedimiento para saber sus necesidades fue similar, realizando entrevistas grupales, a modo de mesa redonda, con un colectivo de personas con discapacidad física de distintos grados (distrofia muscular en silla de ruedas, distrofia muscular y esclerosis múltiple que camina con ayuda de bastón y personas con lesión medular de distintos niveles todos ellos con silla de ruedas) Los resultados obtenidos fueron que los ciudadanos con problemas de movilidad estudian previamente las rutas a emprender que no conocen para conseguir llegar a su destino y evitar encontrarse con obstáculos que se lo impidan. Las vías de que disponen para planificar sus rutas pasan por recorrerla con alguien previamente, a consultar páginas web de ayuntamientos, foros, asociaciones, etc., consultar a través de Google Street View, incluso a llamar por teléfono para preguntar las condiciones de accesibilidad de su destino. La principal dificultad que encuentran actualmente es que las modificaciones que puedan ocurrir en la vía pública son difíciles de detectar previamente, además de que la información que obtienen a través de los medios mencionados puede estar obsoleta o no ser la adecuada. Surge la necesidad por tanto, de disponer de una herramienta que permita consultar información actualizada y veraz de las condiciones de accesibilidad del espacio público. Respecto al envío de peticiones a las entidades locales respecto a incidencias en la vía pública, encuentran 138 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos dificultades en la atención que reciben dado que en la mayoría de los casos no obtienen respuesta a su petición, y no se les informa de si se ha subsanado la incidencia enviada. Es necesario disponer, por tanto, de un servicio de información ciudadano de accesibilidad que permita una comunicación fluida, consultando el estado actual con la seguridad de que los datos son fiables y que permita el envío de incidencias obteniendo una confirmación y una respuesta rápida a la solicitud. Así mismo se valora positivamente la existencia de un foro ciudadano en el que intercambiar información. Actualmente hay una serie de iniciativas en marcha que intentan solucionar algunas de las necesidades expuestas, como el proyecto Wheelmap.org [7] que funciona como una Wikipedia, se pretende que los ciudadanos ayuden a recopilar la información acerca de la accesibilidad de lugares públicos para un perfil de usuarios en silla de ruedas. Wheelmap.org utiliza tecnología OpenStreetMap [8] para geo-localizar esos lugares. Otra iniciativa en este mismo sentido es la aplicación Mapp4all [9], aplicación basada en geo-localización para lugares de interés públicos, indicando qué tipo de elementos accesibles incorpora el lugar y cuáles no, dispone de una versión web y móvil. La aplicación se centra únicamente en lugares de interés y los datos los aportan únicamente los ciudadanos, sin que haya ninguna entidad que avale la veracidad de esos datos. Blue Badge Parking Map (BB) [10] es un producto que muestra las plazas de aparcamiento para personas con discapacidad sobre un mapa, para el Reino Unido. Además de estas aplicaciones existen guías que pretenden facilitar la movilidad de personas con movilidad reducida en determinadas ciudades, como por ejemplo Guía Accesible de Turismo Adaptada a Castilla-La Mancha (GATACA) [11]. Otra iniciativa parecida es la web Ciudad Para Todos (CPT) [12], proyecto español que a través de una red social promueve iniciativa para una movilidad sostenible en la zona metropolitana de Guadalajara. Puede observarse, después de la realización del estado de arte, la falta de una herramienta que integre las necesidades comunes de los ciudadanos con problemas de movilidad, que esté disponible en cualquier localización y que además sirva como elemento de comunicación con las entidades locales para hacerles llegar sus quejas o problemas sobre el espacio público que usan. Esta falta de herramientas, se traduce en barreras físicas y tecnológicas tanto frente a los ciudadanos con discapacidad como, frente a los técnicos municipales que pueden solucionar dichas limitaciones. Es por ello que surge la necesidad de desarrollar nuevas herramientas que traten de solucionar este problema. Hécate ha creado un prototipo de herramientas y contenidos para la gestión de la accesibilidad y consulta de la accesibilidad para las entidades locales y de consulta e información ciudadana. ciudadana que sirvan de ayuda, tanto a los ciudadanos en general, como a las entidades locales y ayuntamientos, a la hora de gestionar el espacio público, sea creado un sistema de gestión de accesibilidad, generación y consulta de información ciudadana para la mejora continua de la accesibilidad universal en espacios públicos, cuyos resultados se presentan a continuación. El sistema Hécate se ha diseñado como un conjunto de dos aplicaciones: • GIA Lite: herramienta profesional con la que el técnico de la administración pública gestiona la accesibilidad del espacio público basándose en información urbanística y arquitectónica, a partir de información certificada y de los ciudadanos. • Vadeo 2.0: aplicación de red social online para los ciudadanos para consulta y generación de información de accesibilidad y el trazado de rutas accesibles. El sistema se ha diseñado como un conjunto de dos herramientas funcionalmente independientes, y dirigidas a usuarios diferentes, pero compartiendo un espacio común de información de accesibilidad en el espacio público: el profesional proporcionará información de accesibilidad que consumirá el ciudadano. A mismo tiempo, la ciudadanía y/o asociaciones generarán información de accesibilidad del espacio público que usan, que será utilizada tanto por el resto de la ciudadanía como por los profesionales. Esta retroalimentación entre las dos herramientas del sistema permite dar un valor añadido al contenido generado y compartido por cada una de las herramientas: el profesional alcanza una visión global de la situación del entorno público, trabajando no solo con información técnica, sino con las necesidades reales de los ciudadanos que usan y participan de la ciudad, de forma que se proporcione fiabilidad y confianza entre los usuarios. De la misma manera, el ciudadano tendrá acceso no solo a las incidencias y opiniones de otros usuarios como él, sino que podrá acceder a información certificada por profesionales de accesibilidad. 3.1 Arquitectura El sistema se ha desarrollado siguiendo un modelo Cliente-Servidor, en el que profesionales y ciudadanos acceden al sistema a través del navegador web, no almacenando ningún tipo de información en local y pudiendo hacer uso de las herramientas desde cualquier ubicación. Atendiendo a los criterios descritos, la estructura del sistema puede observarse en la imagen 1. 3. Resultados Como resultado a la necesidad de desarrollo de nuevas aplicaciones y servicios de consulta e información 139 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos • • • Imagen 1. Arquitectura del sistema Hécate En la imagen 1 puede apreciarse que el elemento central y común a amabas herramientas, es el servidor Hécate, donde se almacena todo la información que generan ambas partes, profesionales y ciudadanos. El profesional, a través de GIA Lite, no solo publica elementos con información de accesibilidad certificada en el servidor, sino que también recibe información de los ciudadanos, a través del canal de incidencias abierto con el sistema. De forma similar, se aprecia que el ciudadano, a través de la aplicación Vadeo 2.0, puede consultar información de accesibilidad (certificada o de otros usuarios), generar su propia información de accesibilidad, con comentarios y fotos, opinar sobre la información generada por otros usuarios y remitir incidencias. La arquitectura del sistema Hécate está formada por los siguientes componentes: Servidor Hécate, elemento que concentra toda la inteligencia del sistema, aloja la base de datos con todos los datos de accesibilidad, tanto de GIA Lite como de Vadeo 2.0, ofrece el contenido vía web a los clientes y dispone de una API de acceso vía web para el cliente móvil. El cliente GIA Lite, cliente Web para los profesionales que accede a la correspondiente web ofrecida por el servidor. Clientes Vadeo 2.0, cliente Web, que accede a la web ofrecida por el servidor, y cliente Móvil que accede a la API del servidor. Servicios de terceros, servicios de mapas y publicación en Twitter y Facebook. La información de accesibilidad que se almacena en el servidor y se gestiona a través de las herramientas, se ha clasificado en diferentes tipos de elementos que se pueden visualizar sobre el mapa, a continuación se presenta esa clasificación: • Punto de Interés o PDI: lugar, edificio o zona que ofrece alguna utilidad, frecuentemente relacionados con el ocio. Ejemplos básicos son edificios de turismo, restaurantes, tiendas,… • Punto del Mapa o PDM: objeto que reside en la calle y que puede suponer una barrera desde el punto de vista de la accesibilidad al medio físico y del que deja constancia el usuario. En ningún caso se trata de información validada ni certificada por un técnico, solo es la percepción de un usuario. Ejemplos básicos son escaleras, caminos cortados, vados o aceras en mal estado. Transporte: información de accesibilidad sobre elementos de transporte. Ejemplos básicos son paradas de tranvía o de autobús. Elementos urbanísticos: información de accesibilidad urbanística y de edificación, creada y certificada por un técnico competente. Incidencia: representa quejas o sugerencias sobre deficiencias o barreras encontradas en la vía pública, siempre desde el punto de vista de la accesibilidad, que envía un ciudadano a la entidad pública competente, en el caso de que la entidad participe en el sistema a través de GIA Lite. Los ciudadanos, usuarios de Vadeo 2.0, pueden crear a través de la aplicación PDIs, PDMs e incidencias; mientras que los profesionales de las entidades locales, a través de GIA Lite pueden crear PDIs, elementos de transporte y elementos urbanísticos certificados, es decir, que la información aportada proviene de un profesional que la acredita. La información común que se almacena en el servidor para cada tipo de elemento incluye los siguientes campos: nombre del autor que creó el elemento, fecha de creación, el tipo de elemento (tipo de PDI o tipo de PDM), una descripción sobre el elemento, fotos, estado del elemento (por ejemplo una incidencia puede estar pendiente, recibida, en proceso o resulta) y coordenadas del elemento para su geo-localización (altitud y longitud). Además para los elementos “certificados”, es decir que han sido creados por un profesional, se almacena una estructura de accesibilidad que se corresponde con una descripción detallada de las características de accesibilidad. Esta descripción responde a un estudio detallado efectuado por técnicos especialistas en accesibilidad, de cada uno de los elementos, basándose en normativas vigentes locales, nacionales y europeas sobre accesibilidad. Un ejemplo de descripción de accesibilidad se puede ver en la imagen 2. Imagen 2. Descripción accesibilidad elemento En la imagen 2 se puede observar que la descripción sobre la accesibilidad incluye el elemento al que se refiere una clasificación, una descripción de la accesibilidad del elemento junto con una valoración del técnico experto. Los pictogramas aparecen en azul cuando son accesibles (el elemento cumple con la normativa establecida,) naranja cuando es practicable (no cumple algún punto de la normativa pero el técnico experto ha constatado que es practicable) y rojo cuando no es accesible (no cumple con la normativa). 140 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 3.2 GIA Lite Los usuarios de esta herramienta son los técnicos de la entidad local o ayuntamiento encargados de gestionar y supervisar la obra pública. Los técnicos disponen de información actualizada y precisa sobre el estado de sus vías e infraestructuras, de forma que una herramienta que les permita usarla para hacer una planificación de obra y accesibilidad más eficiente, implicará la mejora continua de las infraestructuras públicas, debido a la detección temprana de incidencias y puntos no accesibles en espacios públicos. La herramienta GIA Lite permite gestionar esta información, a través de GIA Lite los técnicos municipales pueden gestionar la accesibilidad del espacio público basándose en la información urbanística y arquitectónica generada por distintos actores: ciudadanía (a través de Vadeo 2.0) y técnicos de accesibilidad (plan de accesibilidad). Además permite hacer un seguimiento de las incidencias de los ciudadanos sobre las deficiencias de su entorno urbano. A continuación se describe cada una de las funciones implementadas en la herramienta, incluyendo capturas de pantalla del prototipo que ilustran de manera real cada una de las funciones implicadas. Los usuarios registrados acceden a la herramienta mediante la siguiente URL: http://www.vadeo.es/testing/hecate/gia_lite/html/secciones/l ogin/hmain.php, la página inicial de la herramienta muestra la sección de “Incidencias” donde el profesional tiene un resumen de las incidencias abiertas y el detalle de las mismas, como se puede ver en la imagen 3. haya traslado la incidencia al departamento correspondiente para su subsanación, “Pendiente” cuando el técnico ha recibido la incidencia pero aún no tiene recursos para atenderla y “Resulta” cuando el técnico considere que la deficiencia que produjo la incidencia ha sido resuelta. Y a su vez, el usuario recibe una contestación del estado la incidencia, y sabe inmediatamente que está en tramitación, o que ya se ha subsanado. Esto permite que la información sobre las condiciones de accesibilidad del entorno construido se mantenga actualizada en tiempo real, y aumente la satisfacción de los usuarios al ver que reciben respuesta por parte de la administración y que la información que se les proporciona es real. La funcionalidad de “Informes”, permite al profesional hacer un seguimiento de los informes de accesibilidad que ha recibido y descargarlos en formato pdf. Los técnicos de las administraciones públicas reciben los informes de accesibilidad y proyectos directamente a través de la plataforma web GIA Lite. Una vez disponen de toda la información sobre el estado de la accesibilidad del entorno urbano y de la edificación, pueden planificar acciones y publicar la información que consideren relevante, para que los ciudadanos conozcan las condiciones de accesibilidad de su ciudad. Esta acción se realiza a través de la funcionalidad “Vadeo”. Esta información certificada por técnicos especializados y avalada por el ayuntamiento se muestra en Vadeo 2.0. En la figura 4 se puede ver la sección “Vadeo”, donde se muestra un resumen del elemento, junto con toda la información asociado, que el profesional puede exportar a Vadeo. Imagen 4. Función exportar a Vadeo desde GIA Lite Imagen 3. Incidencias en GIA Lite Las incidencias llegan al sistema GIA Lite a través de Vadeo 2.0 cuando un ciudadano decide notificar una deficiencia en la vía pública responsabilidad del ayuntamiento. El técnico puede hacer un seguimiento de las incidencias que tiene abiertas y a su avisar al ciudadano que creó la incidencia del estado de tramitación de la misma, el sistema envía correos a los implicados automáticamente cada vez que cambia el estado de la misma. Una incidencia estará en estado “Recibida” cuando el técnico tiene constancia de la misma, “En proceso” cuando 3.3 Vadeo 2.0 Los usuarios de esta aplicación son los usuarios finales, la ciudadanía, así como las diferentes centros, asociaciones y colectivos de ciudadanos con diferentes tipos de discapacidad. Los usuarios que utilicen Vadeo 2.0 para consultar las condiciones de accesibilidad de su entorno, y cuáles son las rutas que mejor se ajustan a su perfil de necesidades, pueden participar aportando sus comentarios, y remitiendo posibles incidencias que puedan detectar. Además de la información avalada, están los comentarios de los ciudadanos. Ver la opinión de otras personas con discapacidad sobre la condiciones de un 141 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos servicio o instalación es un complemento perfecto a la hora de planificar una visita o una ruta por la ciudad. A continuación se describe cada una de las funciones implementadas en la aplicación y que son comunes tanto para la versión web como para la versión móvil de Vadeo 2.0, incluyendo capturas de pantalla del prototipo que ilustran de manera real cada una de las funciones implicadas. Los ciudadanos pueden acceder a la aplicación Vadeo 2.0 Web mediante el siguiente enlace: http://www.vadeo.es/testing/vadeo/html/secciones/mapa/co nsultas.php, la página inicial de la aplicación muestra la sección “Consultas” que permite al usuario consultar información en el mapa filtrando según el tipo de elemento. Pulsado sobre cada uno de los iconos que aparecen en el mapa se obtiene una descripción más detallada sobre el elemento. En la imagen 5 se puede ver una captura de pantalla de esta sección con los elementos descritos. Imagen 5. Sección consultas Vadeo La sección “Rutas” permite obtener la ruta a pie entre dos punto, incluyendo información de accesibilidad, según el perfil del usuario, si el usuario no está registrado, y por tanto, no se dispone de su perfil, se muestran todos los elementos de accesibilidad. En la imagen 6 se puede ver una ruta entre dos puntos que incluye los elementos de accesibilidad almacenados en el servidor Hécate en las proximidades. Imagen 6. Detalle de una ruta con información de accesibilidad Vadeo 2.0 Web En la imagen 7 una ruta pero en la versión móvil de la aplicación. Imagen 7. Detalle ruta en Vadeo 2.0 Móvil Los usuarios pueden participar en Vadeo 2.0 y compartir información de accesibilidad con el resto de actores de la aplicación, otros ciudadanos y las entidades locales. Los usuarios pueden participar insertando nuevas elementos o comentando elementos ya creados, solo los usuarios registrados pueden tener acceso a esta sección. Uno de los objetivos del sistema Hécate es participar en las redes sociales a través de Vadeo 2.0, con el fin de crear contenido de forma dinámica. Con este fin se han creado cuentas y grupos tanto en Facebook como en Twitter, para que los usuarios puedan seguir la información que se comparte en Vadeo 2.0. Los tweets se etiquetan con el código postal para que cada usuario siga el estado de la zona que le interese. La aplicación Móvil es la solución portable y compacta de Vadeo 2.0, aportando a al sistema de una herramienta de información en tiempo real, permitiendo al usuario acceder a la información “in situ” y añadir o actualizar la ya existente. Precisamente para dotar a la aplicación de un flujo de trabajo en tiempo real, dispone de una funcionalidad extra, la sección de Realidad Aumentada. La Realidad Aumentada permite al ciudadano obtener información adicional acerca del nivel de accesibilidad en tiempo real sobre el espacio público a su alrededor. La imagen 8 muestra una captura real donde se muestra la función de Realidad Aumentada, donde se puede ver la información de accesibilidad en forma de iconos superpuesta a la imagen real capturada por la cámara. Imagen 8. Detalle Realidad Aumentada Vadeo 2.0 Móvil Ambas versiones de Vadeo 2.0 permiten al usuario darse de alta en el sistema y configurar su perfil de accesibilidad en cualquier momento. Para configurar el perfil de accesibilidad se le realizan al usuario una serie de preguntas, relacionadas con su autonomía en los 142 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos desplazamientos, que luego serán utilizadas para filtrar los elementos de accesibilidad a mostrar cuando se calcula una ruta. 4. Conclusiones Según el artículo 2.c de la Ley 51/2003, de 2 de diciembre, de Igualdad de Oportunidades, No Discriminación y Accesibilidad Universal de las Personas con Discapacidad [13], la Accesibilidad Universal es la condición que deben cumplir los entornos, procesos, bienes, productos y servicios, así como los objetos o instrumentos, herramientas y dispositivos, para ser comprensibles, utilizables y practicables por todas las personas en condiciones de seguridad y comodidad y de la forma más autónoma y natural posible. Garantizar el acceso y participación del espacio público de todos los ciudadanos, con o sin discapacidad, es por lo tanto clave para alcanzar la Accesibilidad Universal. La utilización de las TIC en el campo de la gestión de la accesibilidad y de información ciudadana puede reducir las barreras tanto físicas como tecnológicas y ayudar a alcanzar el objetivo de tener un entorno accesible para todos. Con este proyecto se pretende abrir nuevos horizontes en este sector, que se traduzcan en una mejora continua del entorno y como consecuencia en la calidad de vida de las personas con movilidad reducida. La principal innovación del sistema Hécate radica en la creación de una herramienta profesional de gestión de la accesibilidad del espacio público, que comparte un mismo sistema de información que la herramienta de consulta ciudadana. Esta característica permite abrir un canal de comunicación directa entre los dos grupos principales de actores involucrados en la accesibilidad del espacio público, ciudadanos y profesionales de accesibilidad de las administraciones públicas, de forma que ambos se realimenten de la información aportada por el otro grupo. Otro punto fuerte del sistema es la red social que se crea a través de Vadeo 2.0, el uso de redes sociales facilita la creación de información dinámica y consigue que se presione desde la ciudadanía a los gobiernos locales y municipios a participar e implantar la herramienta GIA Lite, y así satisfacer las demandas que los ciudadanos puedan hacer desde Vadeo 2.0. Pero uno de los principales puntos fuertes del sistema, la red social, también puede ser una de sus principales amenazas, ya que si no se consigue enganchar a bastantes usuarios, la información mostrada en Vadeo 2.0 será pobre y escasa, de forma que a los ayuntamientos no les será atractivo pertenecer al sistema. Pero gracias a las relaciones establecidas entre los diferentes colectivos de personas con discapacidad durante la ejecución del proyecto, y a su implicación en el mundo asociativo a nivel nacional, ha hecho que diversos ayuntamientos se hayan interesado por las herramientas y su implantación en sus municipios. Los resultados de las pruebas piloto, realizadas con técnicos de accesibilidad, los cuatro ayuntamientos colaboradores y usuarios con distintos grados de discapacidad han reportado unos resultados iniciales muy positivos. Todos los usuarios (ciudadanos) participantes en el prototipo consideraron la aplicación Vadeo 2.0 fácil de utilizar, fiable y que cumplía con sus expectativas. Pero lo más importante es que buena parte de los usuarios consultados consideraron la aplicación Vadeo 2.0 útil y valoraron que la utilizarían para planificar sus desplazamientos diarios. La parte que más positivamente valoraron los usuarios fue la funcionalidad de incidencias como canal de comunicación directa con sus entidades locales. En cuanto a los resultados obtenidos en el piloto con los profesionales, la mayoría de los usuarios destacó el hecho de que la herramienta GIA Lite no interfería en su proceso de trabajo y veían en la implantación de la herramienta en sus correspondientes administraciones, como una forma de mejorar la imagen pública de su localidad, por un lado por el empleo de TICs en determinados procesos técnicos, y por otro, por la atención ciudadano modernizada, mediante red social, de la atención directa de incidencias e información pública actualizada. Por tanto, el hecho de que la aplicación Vadeo 2.0 haya tenido una buena aceptación por parte de los colectivos participantes unida al hecho de que los profesionales vean en GIA Lite una herramienta útil y gracias a la difusión del proyecto y al respaldo de las entidades municipales, se ha creado un tejido de usuarios importante, se espera que, por un lado se atraiga a más usuarios, y por otro que se traduzca en una forma de presión, desde la ciudadanía y los colectivos de profesionales, a los gobiernos locales de otras ciudades y municipios a participar e implantar la herramienta GIA Lite. Todo ello hace pensar en una continuidad del sistema más allá de la continuidad del proyecto aquí presentado. Como líneas futuras de actuación se prevé incluir en el sistema la herramienta GIA Pro, esta herramienta está destinada a las empresas certificadoras de accesibilidad responsables del realizar los Planes de Accesibilidad que encargan los municipios, de esta forma se pretende cerrar el círculo e incluir a todos los actores relacionados con la accesibilidad en el sistema. El hecho de que los ayuntamientos utilicen GIA Lite, se puede traducir en que soliciten los servicios de los profesionales de accesibilidad para que incorporen datos actualizados y fiables de las condiciones de accesibilidad del entorno construido, y así satisfacer las demandas que los ciudadanos puedan hacer desde Vadeo 2.0. 5. Agradecimientos Este trabajo ha sido financiado por el Subprograma Avanza Competitividad I+D+I dentro del Plan Nacional de I+D+i Acción Estratégica de Telecomunicaciones y S. I. del Ministerio de Industria, Turismo y Comercio. Los autores quieren agradecer al resto de miembros del consorcio Hécate, Fundación CEDAT, Universidad Politécnica de Valencia, CEDAT AG SL, Soluciones Tecnológicas para la Salud y el Bienestar, SA y el Centro Tecnológico ITACA por su opinión y ayuda en la elaboración de este trabajo. Los autores también quieren dar las gracias a los cuatro ayuntamientos colaboradores (Ayuntamiento de Alaquàs, Ayuntamiento de Aldaia, Ayuntamiento de Paterna y 143 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Ayuntamiento de Quart de Poblet) por su tiempo y colaboración. 6. Referencias [1] Accesibilidad Universal, definición en el artículo 2C de la Ley 51/2003, de 2 de diciembre, de igualdad de oportunidades, no discriminación y accesibilidad universal de las personas con discapacidad, [en línea], [13 de Febrero de 2013]. https://www.boe.es/diario_boe/txt.php?id=BOE-A-2003-22066 [2] Premio Reina Socia de Accesibilidad Universal a Quart de Poblet, [en línea], [20 de abril de 2013]. http://www.boe.es/diario_boe/txt.php?id=BOE-A-2006-253 [3] Premio Reina Socia de Accesibilidad Universal a Aldaia, [en línea], [20 de abril de 2013]. http://www.boe.es/boe/dias/2008/10/09/pdfs/A40605-40616.pdf [12] CPT – Ciudad Para Todos, [en línea], [11 de Mayo de 2013]. http://www.ciudadparatodos.org/ [13] Ley 51/2003, de 2 de diciembre, de igualdad de oportunidades, no discriminación y accesibilidad universal de las personas con discapacidad, [en línea], [13 de Febrero de 2013]. https://www.boe.es/diario_boe/txt.php?id=BOE-A-2003-22066 7. Derechos de autor El autor o los autores de los artículos presentados como soporte documental para sus intervenciones en el Congreso, en el mismo acto de enviarlos para su aprobación, aceptan la cesión de los derechos de autor sobre los mismos para su publicación en el libro de actas del Congreso. [4] Sistema de Información Geográfica eMAP, [en línea], [6 de Abril de 2013]. http://www.tsystems.es/tsi/es/100308/Homepage/SolucionesIndust rias/Industrias/PublicSector/Sistemasdeinformacinterritorial/Sistemas-de-informacionterritorial [5] gvSIG, Programa informático para el manejo de información geográfica, [en línea], [20 de Abril de 2013]. http://www.gvsig.org/web/ [6] LocalGIS, Sistema de información territorial, [en línea], [3 de Mayo de 2013]. http://www.planavanza.es/avanzalocal/Soluciones/Paginas/LocalG is.aspx [7] Wheelmap.org Team, [en línea], [25 de Abril de 2013]. Disponible en la Web: http://wheelmap.org/ [8] OpenStreetMap, [en línea], [30 de Abril de 2013]. Disponible en la Web: http://www.openstreetmap.es/ [9] Map4all, [en línea], [15 de Abril de 2013]. Disponible en la Web: http://fundacionequipara.cdp-tatum.com/wp/map4all/ [10] BB – Blue Badget Parking Map, [en línea], [11 de Mayo de 2013]. http://www.bluebadgeparking.com/ [11] GATACA – Guía Accesible de turismo para Castilla-La Mancha, [en línea], [9 de Mayo de 2013]. http://www.proyectogataca.es/ 144 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Accesibilidad a los servicios telemáticos para todos los ciudadanos Yolanda Hernández1, Miguel Ángel Valero2 1 ASPAYM Madrid. Camino de Valderribas 115, 28038 Madrid, Spain [email protected] 2 Universidad Politécnica de Madrid. Departamento de Ingeniería y Arquitecturas Telemáticas Resumen La accesibilidad es un derecho fundamental que plasma la Convención Europea sobre los derechos de las Personas con Discapacidad, que ha sido ratificada por España en la Ley 26/2011, de 1 de agosto, de adaptación normativa a la Convención Internacional sobre los Derechos de las Personas con Discapacidad. La accesibilidad a las gestiones telemáticas sigue siendo un punto importante que las Administraciones deben solucionar, teniendo en cuenta a los ciudadanos con discapacidad en las soluciones que se planteen. En este proyecto, se tratan de suplir algunas de las necesidades que el colectivo de la discapacidad física se encuentra hoy en día para conseguir realizar todos los trámites necesarios con las Administraciones pertinentes. Los beneficios que supone para la ciudadanía los trámites telemáticos, se multiplican en el caso de las personas con discapacidad, ya que suponen un ahorro de tiempo, dinero y en muchos casos, la posibilidad de ser independientes a l a hora de realizar la gestión. (Palabras clave: Vida independiente, gestión telemática, accesibilidad) Abstract Accessibility is a fundamental right that reflects the European Convention on the Rights of Persons with Disabilities, which was ratified by Spain in Law 26/2011, of August 1st of normative adaptation to the Convention on the Rights of the Persons with Disabilities. The telematic accessibility efforts remains an important point that should solve Administrations, taking into account citizens with disabilities in solutions that arise. In this project, we try to meet some of the needs that the collective who is physically disabled today have to prepare all necessary arrangements with the correspondent authorities. The benefits of citizenship telematics procedures, multiply in the case of people with disabilities as they represent a s aving of time, money and in many cases, the possibility of being independent when they do several managements. (Keywords: Independent Living, management telematics, accessibility) Carretera de Valencia km 7, 28031 Madrid, Spain [email protected] 1. Introducción. En la sociedad actual en que las nuevas tecnologías son la base del progreso, son muchas las personas con discapacidad que ven en la Sociedad de la Información una “mano amiga” con la que poder servirse para llevar una vida más autónoma. En los casos de discapacidades más severas, como la tetraplejia, la Sociedad de la Información está siendo construida alrededor de una serie de aspectos que excluyen de manera significativa a aquellos individuos que no se incluyan dentro del denominado usuario medio. Los problemas varían en base a las distintas características de la persona. Las dificultades en el habla y la movilidad, los movimientos involuntarios descontrolados o la falta de tono muscular hacen que, para la mayoría de estos individuos, resulte extremadamente complicado interactuar con el ordenador, manejando el teclado y el ratón estándares. De la misma forma, resulta muy complicado realizar otra serie de actividades como conducir un coche, desplazarse en transporte público por la ciudad, o realizar largos recorridos con su producto de apoyo (bastón, muleta, silla de ruedas...) Un gran sector de las Personas con Discapacidad desconoce el beneficio que las Nuevas Tecnologías y los Servicios Digitales pueden reportar a su calidad de vida, desde hacer la compra a través de Internet hasta poder solicitar ayudas a la administración, realizar las gestiones necesarias con el DNI electrónico, hacer los trámites de la declaración de la renta, etcétera. El proyecto Accesibilidad a los Servicios Telemáticos Inteligentes para el Ciudadano (a partir de ahora, ASTIC) pretende garantizar la accesibilidad a los servicios ofrecidos por las Administraciones Públicas para el ciudadano. Enmarcada dentro del Plan Avanza2 del Ministerio de Industria, Turismo y Comercio, más concretamente de la Convocatoria Ciudadanía Digital, en su convocatoria de 2011 y con una duración de 2 años. Está siendo desarrollado por un consorcio entre Universidad Politécnica de Madrid, Fundación Vodafone España, Federación Nacional de ASPAYM y ASPAYM Madrid, con colaboraciones puntuales de otras entidades como APAM, CRMF (de Madrid) o ASPAYM Murcia y ASPAYM Toledo. El objetivo principal de este proyecto es analizar y dinamizar servicios telemáticos avanzados de interés general a través de un único punto de acceso para el 145 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos colectivo de personas con discapacidad física, con el fin de promover su participación ciudadana en igualdad de condiciones pudiéndose beneficiar de las oportunidades de la e-Administración y la Sociedad de la Información. @STIC aspira ser un referente en la adopción de medidas de inclusión digital efectivas para minimizar la brecha digital y garantizar la e-accesibilidad de estos potenciales ciudadanos digitales. 2. Justificación. En el Real Decreto 366/2007, de 16 de marzo, por el que se establecen las condiciones de accesibilidad y no discriminación de las personas con discapacidad en sus relaciones con la Administración General del Estado, se establecen las medidas para “que los ciudadanos puedan resolver sus asuntos, ser auxiliados en la redacción formal de documentos administrativos y recibir información de interés general por medios telefónicos, informáticos o telemáticos”. Las medidas se estructuran en estas áreas: I. Medidas de accesibilidad a las oficinas de Atención al Ciudadano (ubicación, acceso, recepción, señalización, configuración de los puestos y sistemas interactivos de información) II. Medidas para garantizar la accesibilidad en relación con los impresos y documentos administrativos. III. Medidas para garantizar la accesibilidad en la prestación de servicios de atención al ciudadano. Sobre todo, se especifican actuaciones para hacer los edificios y entornos accesibles para su uso por personas con discapacidad, lo cual garantiza en muchos casos la tramitación de solicitudes o la solicitud de información. Este colectivo, encuentra doble dificultad para acceder a los servicios de la administración pública o privada. Por un lado encuentran, problemas de accesibilidad para acceder a muchos edificios, o dificultad para llegar hasta ellos (transporte público inaccesible, problemas de aparcamiento); y por otro, una dificultad todavía mayor para acceder a través del formato telemático debido a los problemas para utilizar un ordenador, como la dificultad para manejar un ratón, menor rapidez para completar formularios o dificultad para entender cierta información. Estos son los principales problemas detectados a través de los 3 grupos de discusión (30 personas) y entrevistas (72) realizadas en la primera fase del proyecto. Distancia con el edificio, que derivan en dificultades de movilidad, para llegar hasta el centro, en transporte público o en su propio vehículo. Accesibilidad del edificio (escaleras, ascensores inadecuados, falta de mantenimiento en ciertas adaptaciones como salvaescaleras…) Barreras en los mostradores (demasiado altos, sin espacio de aproximación, mostradores adaptados que no se utilizan adecuadamente…) Dificultad para rellenar ciertos documentos, incluso en determinados casos para firmar. Problemas de comunicación derivados de dificultades para vocalizar, derivadas de las lesiones. Otros En cuanto al uso de los servicios telemáticos: Problemas para rellenar documentos extensos: dificultad para escribir (derivados de los problemas de motricidad fina, dificultad para manejar un teclado normalizado, enlentecimiento de las funciones superiores…), además, por la caducidad de las propias páginas web que requieren de cierta velocidad para rellenar los formularios. Dificultad para entender términos técnicos y concretos. Falta de confianza en internet, similar a la del resto de ciudadanía, pero sumada a la falta de independencia, y descuido de ciertas actividades relacionadas con la persona (como gestiones con banco, con la Seguridad Social, etcétera) que encontramos en muchos casos. Falta de interés, puede venir derivado de los pocos recursos que una persona con discapacidad puede tramitar de forma telemática con relación a su discapacidad. Otros problemas que también tienen el resto de ciudadanos (confianza, seguridad, desconocimiento…) Entre los resultados más interesantes, destacamos este gráfico en el que se observan los distintos medios a través de los cuales las personas encuestadas refieren el método por el cual utilizan estos servicios. Esta pregunta admitía varias respuestas, cada usuario puede realizar los trámites a través de uno o varios medios. Imagen 1. Gráfico sobre la forma de realización de los trámites con la Administración En este otro gráfico, se detecta quién es la persona encargada de realizar estos trámites. Al verlo junto al gráfico anterior, se visualiza la necesidad de impulsar la accesibilidad a los servicios telemáticos, para garantizar que cada usuario pueda realizarlos de forma autónoma, a través del medio más adecuado y con la garantía de confidencialidad y seguridad necesaria. Imagen 2. Gráfico sobre quién realiza los trámites con la Administración 146 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Es evidente que son necesarias medidas de inclusión para conseguir evitar esta situación, y conseguir concienciar al usuario de los beneficios que consideramos que pueden reportarle a cualquier individuo con discapacidad. Es necesario emprender acciones que minimicen la brecha digital y maximicen la e-accesibilidad de estas personas a los servicios telemáticos que tanto pueden mejorar la calidad de vida de estas personas. El Certificado Electrónico garantiza al usuario: - Autenticidad: tanto de las personas como de la entidad que realiza los tramites. - Confidencialidad: entre el emisor y receptor. - Integridad: que la información llegue sin ninguna modificación a su destino. - No repudio: pudiendo solo el titular generar la firma y posibilita que en el caso que se intente suplir su identidad pueda negar su titularidad. Con los certificados electrónicos, reconocidos por la Comunidad de Madrid, podrá realizar consultas y efectuar gestiones a través de la web de Administración Electrónica, de tal forma que pueda: - - - Autentificar la identidad del usuario, de forma electrónica, ante terceros. Firmar electrónicamente de forma que se garantice la integridad de los datos trasmitidos y su procedencia. Cifrar datos para que sólo el destinatario del documento pueda acceder a su contenido. 3. Proyecto. Este proyecto ha sido planificado desde el comienzo por y para el usuario final, las personas con discapacidad, que formaron parte del mismo desde su inicio. Tiene carácter interprovincial, con la participación de tres Comunidades Autonómicas, la Comunidad Autónoma de Madrid, Castilla la Mancha y Murcia, en la que se tienen en cuenta aspectos tan importantes como el entorno en el que viven (rural o urbano) que facilitará o dificultará en gran medida el acceso a las gestiones con las Administraciones. En el desarrollo del proyecto, se han analizado los servicios que permiten realizar gestiones con las Administraciones, tanto Central, Autonómico y Local, valorando su accesibilidad y usabilidad por las personas con discapacidad física. El fin que se persigue es conseguir soluciones que permitan que esta relación ciudadano-administración sea sencilla y útil. Además, se promoverá el uso de estos servicios telemáticos en el colectivo de personas con discapacidad física, ya que permitirán mejorar su autonomía e independencia. Los pilotos se han realizando con un grupo de personas con discapacidad física, entre ellas, Lesión Medular, Daño Cerebral, Parálisis Cerebral y Distrofia Muscular. 4. Metodología. Como hemos comentado se han tenido en cuenta a los usuarios finales desde el comienzo del proyecto. Se han desarrollado estas tres fases: FASE 1: Conocer el uso real que se está haciendo de los servicios telemáticos por parte del colectivo objeto de estudio. Se han encontrado las necesidades y deseos del usuario final con respecto a los fines que se pretenden conseguir con el proyecto. Posteriormente a la selección de los usuarios participantes, teniendo en cuenta la importancia de crear un grupo heterogéneo, se han tenido en cuenta aspectos como el género o la edad, el nivel de manejo de las nuevas tecnologías (ordenador, internet, redes sociales, móvil…). Imagen 3. Gráfico sobre el nivel de manejo de las nuevas tecnologías de los encuestados Además del grado de dependencia (Grado I-Moderado; Grado II-Dependencia severa; Grado III- Gran dependencia), dentro del cual se valoraban las capacidades conservadas para de realizar las Actividades de la Vida Diaria. Imagen 1. Gráfico sobre la forma de realización de los trámites con la Administración Este tipo de selección de participantes busca conseguir la máxima representación de circunstancias posibles dentro de la validación. Se han realizado dos acciones para realizar identificar el uso y las barreras de los servicios digitales: 1. Análisis cualitativo: ha permitido detectar cuáles son las principales dificultades que encuentras personas objeto del proyecto, cuando intentan acceder a los servicios ofrecidos por la Administración. Para ello se han realizado las siguientes tareas: 147 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Elaboración de requisitos para obtener una muestra de servicios públicos y de usuarios representativos de la población a quien va dirigida la solución tecnológica. Análisis documental sobre evaluación internacional de administración electrónica. Realización de un cuestionario donde recogiendo los principales servicios identificados para discriminar por uso más o menos habitual. Análisis de conclusiones de la documentación como los resultados del cuestionario han sido debatidos en tres grupos de discusión formados por personas con cada una de las discapacidades incluidas en la investigación: daño cerebral, lesión medular y parálisis cerebral. - Realización de pilotajes con una muestra de 72 personas en las 3 CC.AA. participantes. Las personas que realizaron los pilotajes, probaron los servicios previamente seleccionados para identificar las barreras en el acceso a los servicios de la administración pública. - Análisis de las principales causas de la escasa utilización de los certificados digitales en las personas con discapacidad física. 2. Evaluación de la accesibilidad y usabilidad de los servicios proporcionados por una Administración local (Ayuntamiento de Madrid). Análisis sobre la accesibilidad y usabilidad de dos servicios proporcionados por el Ayuntamiento de Madrid: padrón municipal y censo electoral. En todas estas pruebas, se ha tenido en cuenta los tres indicadores que describen la experiencia de los usuarios con los servicios telemáticos de administración pública, encontrados en las primeras entrevistas con los usuarios: o Accesibilidad técnica. Evalúa la web: se refiere a las barreras de origen tecnológico (contenidos multimedia, ayudas técnicas, duración de la sesión, etc.). o Comprensión. Evalúa al usuario: se refiere a la capacidad de la persona de completar la gestión (ruta de enlaces, texto, comprensión de formularios, etc.). o Ayuda y contacto. Evalúa la posibilidad de completar la gestión de forma autónoma –con ayuda del servicio- sin recurrir a terceras personas (formularios de contacto, ayuda web, etc.). FASE 2: Prueba con las soluciones desarrolladas, CDA y aplicación web y móvil. Actualmente nos encontramos en este momento del proyecto. Ya se han realizado algunas pruebas con usuarios, y los resultados son muy alentadores, ya que garantizan un uso adecuado, seguro y fácil del manejo del certificado. Este token oculta a los ciudadanos toda la problemática que conlleva el uso de certificados, de manera que proporciona una solución accesible para que las personas con discapacidad puedan beneficiarse de los servicios ofrecidos por la administración electrónica. Paralelamente a las pruebas con el CDA, se están realizando una serie de - pruebas con el e-DNI y el certificado digital, para garantizar la accesibilidad a través de los tres medios, y proporcionar así diversos canales de acceso a la e-Administración, siendo el usuario/a el que elija la solución más adecuada para él/ella. 5. Soluciones/Aspectos novedosos desarrollados Desarrollo de una plataforma web/móvil http://www.tramitesaccesibles.aspaym.org/ que aglutina servicios con las distintas administraciones locales, autonómicas y estatales, para ciudadanos con o sin discapacidad. Se han diferenciado nueve categorías (empleo; sanidad; educación, cultura y ocio; documentos personales, impuestos y rentas; vehículos y multas; discapacidad; policía y justicia; otros) de tal forma que el usuario sin conocer quién es la Administración encargada de gestionar ese servicio pueda acceder de una forma cómoda y rápida. Al acceder a cada servicio, el usuario encuentra de forma desglosada los pasos de los trámites que debe seguir. En otro apartado, recibe información relativa a las gestiones telemáticas (como solicitar el eDNI, descargar un certificado digital, para que sirven…), así como los datos del servicio de atención al usuario del portal. El portal además tiene información sobre el proyecto, sobre las entidades que forman parte del mismo, tecnologías de apoyo de bajo coste o gratuitas que pueden servir a cualquier usuario a manejar el ordenador, y un enlace a un servicio de ayuda para el usuario. El proyecto y la plataforma, así como las soluciones se están promocionando desde las redes sociales twitter https://twitter.com/STIC_Aspaym y Facebook https://www.facebook.com/AsticAspaym Imagen 1. Pantallazo de la plataforma. CDA o tokken criptográfico. Solución accesible, portable y personal, que el usuario con algún tipo de problemas de movilidad puede utilizar en cualquier lugar, 148 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos como su centro de referencia (asociación o fundación), en su propio domicilio, o en el domicilio de algún familiar. Proporciona al usuario servicios de autenticación y autorización. El dispositivo elegido fue el token criptográfico iAM desarrollado por la empresa Bit4id (http://www.bit4id.com). A través de la creación de una Autoridad de Registro, dependiente de Camerfirma (http://www.camerfirma.com/, entidad certificadora autorizada) en ASPAYM Madrid, de tal forma que la propia entidad, realice la labor de certificación de las identidades digitales, evitando los desplazamientos a las entidades certificadoras, y generando confianza entre los usuarios atendidos. Se trata de un dispositivo USB basado en un microprocesador criptográfico que incorpora una memoria micro-SD con aplicaciones para firma electrónica, cifrado, y verificación de documentos firmados electrónicamente. El dispositivo incluye una tarjeta SIM en la que pueden ser almacenados certificados personales de usuario. El acceso a este certificado está protegido mediante códigos PIN/PUK. Además, se le ha incorporado un navegador Firefox portable, que es el navegador que mejor se adapta a los requisitos de CDA. El Firefox de iAM es capaz de leer el certificado digital de la tarjeta SIM usando el dispositivo de seguridad DS Crypto Smart Cart. Imagen 2. Tokken criptográfico Servicio de atención al usuario del portal @STIC. Unos de los mayores beneficios que se pensaron ofrecer al usuario al plantear este proyecto, fue la creación de un servicio de atención al usuario, ejecutado desde la misma entidad social (ASPAYM Madrid) y por personas con discapacidad. Este servicio, proporcionará atención al cualquier usuario, tanto telefónico, a través de mail, o en la propia web. Proporcionará formación a las distintas entidades que forman parte de la Federación Nacional de ASPAYM, facilitando el uso de la plataforma web, informando sobre los beneficios de utilizar los servicios telemáticos y facilitando los CDA con la identidad digital como servicio propio de la entidad. Mejoras en las web de las Administraciones: Se ha conseguido involucrar a Administraciones como el Ayuntamiento de Madrid o el Ministerio de Administraciones Públicas, con el fin de que tengan en cuenta los requisitos web en sus propias páginas, no sólo Requerimientos de la Administración (los conocidos como 1.0.) si no seguir la tendencia actual y las recomendaciones de las asociaciones de discapacidad, los criterios de evaluación 2.0, enfatizando la importancia de la comprensión y el contacto/ayuda web de forma autónoma. 6. Beneficios El proyecto ASTIC facilita las relaciones del usuario con la administración electrónica, actuando principalmente a través de la confianza del usuario. El certificado portable proviene de una entidad “amiga”, que le facilita los trámites para acceder al mismo. Además, evita los transportes innecesarios, tan costosos en los casos de las personas con discapacidad, por un lado económicos y por otro personales (necesidad de acompañamiento por parte de una tercera persona para llevar papeles, salvar obstáculos, etcétera.) Proporciona opciones para el usuario, ya puede realizar ciertos trámites relativamente sencillos en su domicilio, favoreciendo la privacidad del usuario; así como aporta el poder realizar trámites más complicados o relacionados con la propia discapacidad, en la entidad social, en este caso, el centro de ASPAYM Madrid, con profesionales cualificados. Garantiza la privacidad y la seguridad del usuario, al poder realizar las gestiones por si mismo y sin necesidad de terceras personas que realicen esas gestiones, autorizando a realizar su firma a otros o proporcionando datos personales a los acompañantes. Promociona el uso de los servicios telemáticos en la ciudadanía, ya que los acerca de una manera sencilla y cercana, naturalizando el trámite. Además, reduce gastos a la administración pública así como aglomeración de usuarios en los servicios. Es por tanto, un proyecto beneficioso para el usuario final, para el entorno más cercano del mismo, y para la propia administración. Es de esperar que la Administración paulatinamente vaya consiguiendo mayores niveles de accesibilidad y usabilidad de sus servicios y que los problemas aquí tratados queden resueltos. Mientras tanto, la solución recogida en este papel permitirá a los ciudadanos con discapacidad beneficiarse a partir de este momento de las grandes ventajas que les brinda la administración electrónica. Referencias [1] Fundación ORANGE. Informe anual 2012 sobre el desarrollo de la sociedad de la información en España (2012). [2] DNI Electrónico (DNIe). http://www.dnielectronico.es/ [3] Ley 34/2002 de 11 de julio. Ley de Servicios de la Sociedad de la Información y del comercio electrónico. [4] Ley 11/2007, de 22 de junio, de acceso electrónico de los ciudadanos a los Servicios Públicos. [5] Ley 56/2007. Medidas de Impulso de la Sociedad de la Información. [6] Real Decreto 1671/2009, de 6 de noviembre, por el cual se desarrolla parcialmente la Ley 11/2007, de 22 de junio, de acceso electrónico de los ciudadanos a los servicios públicos. [7] Token iAM. Bit4ID (2013). http://www.bit4id.com/es/index.php?option=com_content&view= article&id=143&Itemid=581 [8] Encuesta sobre Equipamiento y Uso de Tecnologías de la Información y Comunicación en los hogares. Instituto Nacional de Estadística (2010). http://www.ine.es/jaxi/menu.do?type=pcaxis&path=/t25/p450&fil e=inebase [9] Camerfirma (2013). http://www.camerfirma.com/ 149 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos [10] Eficiencia y Ahorro con la Aplicación de Tecnologías Accesibles en las Administraciones Públicas. Colección Accesibilidad, Tecnologías y Sociedad Vol 4. CENTAC 2013. El Sistema ECCA: “un diseño para tod@s” Sonia María Jorge García (coautora junto con el equipo de trabajo que forma parte de este proyecto) Radio ECCA, Fundación Canaria [email protected] Resumen Las TIC pueden llegar a c onvertirse en puentes de comunicación que contribuyan a eliminar las barreras con las que los colectivos de personas con discapacidad auditiva, visual y física se encuentran ante su acceso a la formación y la información por las vías más tradicionales. Este proyecto, desarrollado por Radio ECCA Fundación Canaria, una institución educativa con 48 años de experiencia en la formación a distancia de personas adultas, significa una apuesta por la formación a l o largo de la vida para todos y todas, con un e nfoque que contempla la diversidad funcional; contribuyendo así a l a sensibilización de la población sobre la realidad de estos colectivos, la necesidad de formación y mejora de su empleabilidad y la creación de una comunidad educativa que se enriquezca con la diversidad de su alumnado. Abstract The ICTs may become the appropriate bridge of communication with those people with hearing, visual and physical-motor impairment. Barriers may no l onger exist for these people who can have access now to training and information through traditional means. This project, developed by Radio ECCA Canary Islands Foundation (an educational institution, with 48 y ears of experience, involved in distance learning for adults), implies a l ifelong training for everyone with an approach that contemplates people’s functional diversity, thereby contributing to raise the awareness of the population about the reality that these groups must face, the need for training, the improvement of employability, the creation of an educational community that enriches itself with the students’ diversity. 1. Introducción Esta iniciativa nace en el contexto social actual, donde el acceso al mercado de trabajo es cada vez más difícil y muchas personas necesitan completar o ampliar su formación para conseguir un puesto de trabajo o mejorar el que tienen. Las personas con discapacidad sensorial y física se enfrentan a esta situación con mayores dificultades, dado que tienen unas barreras de comunicación que superar para continuar su formación y que no suelen estar cubiertas por la educación tradicional, lo que influye en su bajo nivel de empleabilidad. El proyecto tiene como objetivo el desarrollo de un prototipo de acción formativa, siguiendo el Sistema ECCA en su modalidad en línea, cuyo diseño incluye los puentes de comunicación necesarios para que cualquier persona, con las capacidades cognitivas suficientes para acceder al nivel del curso, pueda realizarlo en el contexto de un modelo educativo sostenible e inclusivo que incremente la igualdad de oportunidades para la formación a lo largo de la vida. El proyecto cuenta con la colaboración de distintas instituciones, asociaciones y empresas que aportan a Radio ECCA su conocimiento y amplia experiencia con las personas con discapacidad. Durante varios años, un equipo de trabajo multidisciplinar, con distintos perfiles profesionales, trabaja con una única intención: aportar sus conocimientos y experiencias para que, a partir del Sistema ECCA y el uso de las TIC, se disminuyan las barreras de acceso a la educación para todas las personas, independientemente de que tengan algún tipo de discapacidad sensorial (auditiva, visual) o física. 2. Presentación de Radio ECCA, Fundación Canaria Radio ECCA nació en Canarias en 1965. Desde sus orígenes es una entidad sin ánimo de lucro dedicada a la formación de las personas adultas. Constituida como Fundación en 1985, actúa hoy en Canarias, Andalucía, Baleares, Extremadura, Galicia, Madrid y Murcia, al igual que en Marruecos, Cabo Verde, Guinea Bissau y Senegal. Asimismo, colabora con instituciones de catorce países latinoamericanos a las que cede gratuitamente la tecnología educativa ECCA. 2.1. Más de 2 500 000 personas han realizado alguna acción formativa con el Sistema ECCA Aproximadamente, trescientas personas – entre docentes, comunicadores y técnicos de distintas especialidades - trabajan en Canarias para llegar al mayor número de beneficiarios/as y localizaciones, tanto rurales como urbanas: la media anual de población atendida desde la red de centros ECCA supera las 60 000 personas y más de 2 500 000 a lo largo de su historia. 150 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 2.2. La mejor formación posible, al mayor número de personas, con preferencia a quienes más lo necesitan Radio ECCA promueve la formación a lo largo de toda la vida y tiene como uno de sus objetivos conseguir que muchas personas adultas, que aún carecen de la formación básica o media, accedan a ella. Para ello, como centro educativo, imparte formación reglada, en los niveles de Graduado en Educación Secundaria Obligatoria, Bachillerato en dos modalidades (Humanidades y Ciencias Sociales y Ciencias y Tecnología) y Formación Profesional del Sistema Educativo (Ciclo Superior de Integración Social). Como referencia, en los últimos cinco años, 6 859 personas adultas titularon en la formación reglada. Por otro lado, cuenta con una amplia oferta de formación no reglada que aborda las necesidades de formación vinculadas a las nuevas tecnologías, cualificación profesional para el empleo, idiomas, formación del profesorado, medio ambiente, educación para la salud, empresa, economía, intervención psicosocial, habilidades educativas básicas, ocio y tiempo libre. Nuestro principal alumnado son las personas adultas con mayores necesidades educativas y, para que ninguna de ellas deje de hacerlo por limitaciones económicas, se dispone de un sistema de ayudas al estudio que Radio ECCA promueve a través de la solidaridad y la responsabilidad social de instituciones y entidades colaboradoras, con el fin de minimizar las desigualdades sociales. 2.3. Un sistema propio de enseñanza Radio ECCA, la más antigua de las instituciones oficiales de educación a distancia en España, tiene un sistema educativo propio: el Sistema ECCA. Dicho Sistema se utiliza en las diferentes modalidades de enseñanza-aprendizaje presentes en Radio ECCA: modalidad radiofónica y teleformación. El Sistema ECCA se basa en el uso sincronizado de tres elementos: • Material impreso. Contiene toda la información precisa para seguir los cursos. Suele constar de un conjunto de esquemas, elemento central e imprescindible que sirve de soporte para la clase radiofónica, cumple la función de pizarra y llega a convertirse en libro de texto; notas y/o documentos, que amplían y complementan los contenidos explicados en la clase radiofónica; cuestionarios, prácticas y evaluaciones. • Clase. Consiste en una explicación minuciosa y eminentemente activa del contenido del esquema que el/la alumno/a completa siguiendo las indicaciones de su pareja de profesores. En la clase se proporciona la información básica del tema del día. Normalmente, su duración es de 30 minutos. • Orientación o tutoría. Completa los dos elementos y fomenta el contacto entre los alumnos y las alumnas, entre sí y con el profesorado. Puede ser presencial y/o a distancia y favorece la retroalimentación del sistema. Están realizadas por profesorado especializado. Este sistema ha demostrado, a lo largo de los años, que es un sistema eficaz y eficiente, especialmente para las personas adultas, permitiendo que un mayor número pueda acceder de una manera más flexible a la formación adaptando sus itinerarios formativos a sus necesidades personales y laborales. 2.4. Compromiso con la educación de otros pueblos y culturas Desde los inicios, Radio ECCA ha extendido su actividad a varios países africanos, habiendo trabajado en el Sahara Occidental español en 1967 y, puntualmente, en Angola, años 80-90, y los campamentos saharauis de Tinduf en el año 2001. En los años 70 se inicia la colaboración con países del continente americano, habiendo transferido nuestro Sistema a instituciones de varios países con los que actualmente mantenemos la colaboración. También destacamos la transferencia del Sistema, a países africanos como es el caso de Cabo Verde en el año 2007. Desde 1985 que se constituyó como fundación, a través de nuestros proyectos de cooperación al desarrollo en África, se ha atendido a 64 984 personas de las cuáles 50 420 han conseguido finalizar su formación (alfabetización, educación básica, salud y español). 2.5. Compromiso con la atención preferente a sectores sociales desfavorecidos Radio ECCA es consciente de los grandes cambios sociales actuales, e intenta poner al servicio de las personas más desfavorecidas recursos socio-educativos que las ayuden a afrontar los desafíos de integración, capacitación y formación que la sociedad actual les plantea. Como fundación, desarrolla proyectos sociales que tienen como colectivos beneficiarios o sectores de intervención los declarados prioritarios desde las políticas sociales y de empleo: personas desempleadas de baja cualificación, personas en exclusión social o riesgo de padecerla, menores en situación de riesgo, jóvenes sin formación, mujeres con problemas de integración, personas con discapacidad e inmigrantes. Como referencia, mencionamos los siguientes proyectos desarrollados en la Comunidad Autónoma de Canarias: - Caixa Proinfancia, dirigido a la lucha contra la pobreza infantil, en el que se ha atendido a 27 223 beneficiarios/as entre 2007-2012. - Proyectos de formación y empleo: programas experimentales en materia de empleo y proyectos de itinerarios integrados de inserción sociolaboral en los que se ha atendido a 8 992 personas entre 2007 y 2012. Son proyectos financiados por el Sevicio Canario de Empleo. 2.6. El carácter educativo y cultural de nuestros medios de comunicación Radio ECCA gestiona una cadena de emisoras cuya titularidad pertenece a Radio ECCA, Fundación Canaria. Está configurada actualmente por una red de emisoras de FM y una emisora de AM que cubre el 92% del territorio del Archipiélago Canario. La audiencia media entre 2005 y 2010 fue de 200.000 oyentes. 151 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos La misión institucional de la cadena de emisoras es la misma que la de su entidad titular: la promoción cultural y la elevación de la formación humana de las personas. La evolución de las Tecnologías de la Información y la Comunicación han hecho que Radio ECCA, en la actualidad, además, desarrolle su actividad formativa y cultural a través de la web, las redes sociales y la televisión digital terrestre. Gráfico No. 1 3. Un compromiso con la innovación educativa y la atención a los sectores más necesitados Radio ECCA promueve el desarrollo del Sistema ECCA (I+D+i) sin perder de vista su misión de anteponer los intereses de los sectores más necesitados. Entre sus actuaciones innovadoras, destacamos uno de los proyectos que está llevando a cabo actualmente, El Sistema ECCA: un diseño para todos/as. Con este proyecto se desarrolla un prototipo de una acción formativa con el Sistema ECCA, accesible para las personas con discapacidad visual y auditiva, y que luego se hará extensible a las personas con discapacidad motora. Con el desarrollo de este prototipo se han elaborado los protocolos necesarios para enfocar el Sistema ECCA hacia un modelo educativo inclusivo, en el que cualquier persona, independientemente de su condición, tenga acceso a la formación a lo largo de la vida y a la mejora de su capacidad de empleabilidad. Este proyecto está parcialmente subvencionado por la ONCE, en un trabajo conjunto con el Departamento de Servicios Sociales para afiliados de la Delegación Territorial de Canarias, junto con la Consejería de Cultura, Deportes, Políticas Sociales y Vivienda del Gobierno de Canarias. Además, se cuenta con el apoyo y el asesoramiento técnico de otras instituciones y empresas especialistas en los diferentes aspectos necesarios para la consecución de este proyecto. 3.1. Algunos datos que justifican el por qué de este proyecto. Según los datos publicados por el Instituto Nacional Estadística, en adelante INE, en el año 2008, según Boletín informativo, en España existen 3,85 millones personas con discapacidad, alrededor de un 9 % de población total. de su de la Imagen Nº 1. Distribución de personas con discapacidad por edad y sexo (Fuente: Boletín informativo del Instituto Nacional de Estadística. Cifras INE, p.2 – 10/2009). Según datos del estudio sobre Discapacidad, estudios superiores y mercado de trabajo. Barreras de acceso y repercusión en la inserción laboral, realizado en el marco del Programa Operativo de Lucha contra la Discriminación 2007-2013, la mayoría de las personas con discapacidad visual tienen estudios primarios, un 5,7 % ha alcanzado el nivel de Formación Profesional y un 4,5 % tiene estudios universitarios. En la interpretación de estos datos, hay que tener en cuenta que existe una alta concentración de afiliados adultos con deficiencia visual, lo que incide en su nivel de estudios, dado que las personas de mayor edad no han tenido las mismas oportunidades que las personas más jóvenes en el acceso a la educación. La tasa de paro de este colectivo está en un 6 % con respecto al total de personas desempleadas, aun contando con planes específicos desde la ONCE de inserción en el mercado laboral. En lo que se refiere a las personas con discapacidad sensorial auditiva, las estimaciones del INE, según los datos publicados en el Libro Blanco de la Lengua de Signos Española en el Sistema Educativo, en España existen 961.491 personas sordas, de las cuales solo un 12 % tiene una gran pérdida auditiva y tiene certificada una minusvalía por deficiencia en el oído. El resto son personas con pérdidas leves de audición, un 71 %, con dificultades para escuchar sonidos fuertes, un 20%, y solo un 9% con discapacidad para recibir cualquier sonido. Ahora bien, si lo consideramos por edad, según los datos del INE, el 70 % de las personas sordas son mayores de 65 años, debido al envejecimiento de la población, y solo un 30 % tiene entre 6 y 64 años. De ellos, el 47 % son personas analfabetas o no tienen estudios, solo el 8,1 % ha terminado la enseñanza obligatoria y aquellos que han terminado los estudios primarios presentan dificultades para la comprensión lectora y escrita. Únicamente un 2,8% tiene estudios universitarios y, si consideramos a las personas con discapacidad para la audición de sonidos fuertes y recibir cualquier tipo de 152 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos sonido, son una minoría en este último porcentaje. Esta desigualdad es mayor en las mujeres sordas que en los hombres y la tasa de paro entre este colectivo es muy superior al resto de la población española, ya que el 54,6 % de las personas sordas entre 16 y 65 años no se incorpora al mercado laboral. Además, esta población cuenta con menos planes específicos, como los desarrollados por la ONCE para la inserción laboral. 3.2. Una legislación al amparo de las personas con discapacidad En La Ley 51/2003, de 2 de diciembre, de igualdad de oportunidades, no discriminación y accesibilidad universal de las personas con discapacidad (LIONDAU) se propone la estrategia de “diseño para todos/as” que sugiere que a la hora de realizar una actividad se platee de tal forma que pueda ser utilizada por el mayor número de personas. La Constitución Española reconoce en sus artículos 9.2, 10, 14 y 49 los derechos de las personas con discapacidad y la responsabilidad política de crear las condiciones para que se consiga la igualdad de oportunidades de estos colectivos con el resto de ciudadanos, eliminando aquello que impida su integración en la sociedad. Pero para el cumplimiento real de estos derechos es en educación donde hay que realizar los mayores esfuerzos, trabajando por el desarrollo social y personal de las personas con diversidad funcional, en igualdad de oportunidades que el resto de personas. Así, en el contexto actual de crisis, en el que cada vez más personas necesitan mejorar o ampliar su formación con el fin de conseguir un trabajo o mejorar su perfil profesional y adquirir las competencias necesarias para adaptarse al mercado laboral, es de gran importancia el concepto de educación a lo largo de toda la vida para toda la población. La desigualdad en el acceso a la formación influye en los niveles de ocupación de las personas con discapacidad, creando situaciones de exclusión social y dificultando su acceso a un empleo. Radio ECCA, como centro de educación permanente de adultos, contribuye al cumplimiento de la legislación vigente utilizando las TIC como herramientas para trabajar por una inclusión social sostenible, ajustándose a las condiciones de accesibilidad que se exponen en el Real Decreto 1494/2007, del 12/11/2007, condiciones necesarias para el acceso de las personas con discapacidad a la sociedad de la información. Con ello, a través de esta iniciativa, no solo se desarrollan medidas de ayuda a la formación y empleabilidad de estos colectivos, sino que crea un escenario formativo más inclusivo, donde personas con y sin discapacidad puedan formarse en un entorno virtual de aprendizaje adaptado a la diversidad funcional. Así, este proyecto nace estrechamente unido a la misión de Radio ECCA, que es la de potenciar la formación humana de las personas adultas y llegar al mayor número de personas, sobre todo a los sectores más necesitados; con una visión humanizadora, colaboradora y eficiente ante las necesidades de formación de la sociedad actual y el desarrollo de otros pueblos, desde unos valores basados en el respeto a todas las personas, el servicio a la sociedad, la profesionalidad de sus integrantes y el papel del alumnado como sujeto activo de su propia formación y generador de una sociedad mejor. La evolución en los últimos años de la tecnología y su aplicación en el terreno educativo ha permitido a Radio ECCA en la actualidad incluir entre sus objetivos estratégicos la adaptación de su Sistema a las personas con discapacidad, personas a las que hasta el momento solo había podido ofrecer servicios puntuales. La tecnología lo permite y la situación social del momento lo requiere; además, las cifras apuntan a la gravedad de la situación y la necesidad urgente de facilitar respuestas formativas adecuadas a los nuevos tiempos para que todos los miembros de esta sociedad puedan ser agentes de cambios positivos de la misma, en un conjunto donde la diversidad de las personas sea un valor añadido para la creación de una sociedad más justa, inclusiva y solidaria. 4. Descripción del proyecto Este proyecto consiste en la realización de un prototipo con el Sistema ECCA, accesible para un alumnado con diversidad funcional, en la línea de una educación inclusiva que propicie la formación a lo largo de la vida. Se trata de un diseño formativo sostenible; ya que, una vez adaptada una acción formativa, al impartirse a través de internet, puede beneficiar a tantas personas como se matriculen en ella, sin importar el lugar geográfico en el que se encuentren, a su propio ritmo y en el horario que más convenga a cada alumno o alumna. En este proyecto educativo, las TIC se convierten en puentes de comunicación que contribuyen a eliminar las barreras con las que estos colectivos se encuentran en su acceso a la formación y la información por las vías más tradicionales, sumándolos así a las ventajas que hoy las nuevas tecnologías ofrecen a la población en general. Este prototipo se desarrolla en tres fases y sobre cada uno de los tres elementos que componen el Sistema ECCA: la clase, el material didáctico y la acción tutorial, así como sobre algunos de los aspectos que rodean la impartición de un curso a través de internet. La primera fase comprende el conjunto de adaptaciones realizadas para que el Sistema ECCA sea accesible a las personas con discapacidad sensorial-auditiva. La segunda fase está dirigida a las personas con discapacidad sensorialvisual y, por último, la tercera fase está enfocada a las personas con discapacidad física (motórica). Todo ello con la finalidad de contribuir a la mejora de la formación de estos colectivos, su inclusión social e incorporación al mercado laboral actual. 5. Desarrollo del proyecto 5.1. El análisis El proyecto comienza en el curso escolar 2010/11 con un estudio de las necesidades de todos los aspectos clave relacionados con el mismo: - La situación actual de la Institución: los recursos tecnológicos, humanos y financieros con los que se cuentan para afrontar el inicio del proyecto. - El perfil del alumnado potencial. 153 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos - Las características y necesidades formativas de este alumnado potencial. Para realizar este diagnóstico de partida, así como para el desarrollo del proyecto, se constituye un equipo de trabajo multidisciplinar formado por: Profesorado de Radio ECCA, técnicos especialistas de la Delegación Territorial de la ONCE en Canarias, de la Asociación de Personas Sordas de Gran Canaria (ASPGC), FUNCASOR (Fundación Canaria para el Sordo), COCEMFE (Confederación Española de Personas con Discapacidad Física y Orgánica), SUILSE (Servicios de interpretación y traducción en lengua de signos española), SUBBABEL (Traducción, subtitulado y accesibilidad audiovisual), técnicos especialistas en informática, grabación y edición de vídeo a través de la empresa Neuronal Software & Media y PODEMOS SMA (Tecnología adaptada para personas con limitaciones físicas). En un trabajo conjunto, liderado por Radio ECCA, se sientan las bases de partida de este proyecto, así como el conjunto de adaptaciones que será necesario realizar sobre cada uno de los elementos que conforman el Sistema ECCA: la clase en audio, el material didáctico, en este caso en formato digital, y la acción tutorial, que se llevará a cabo a través de la plataforma educativa Moodle. 5.2. Adaptaciones para la discapacidad visual y auditiva. 5.2.1. El acceso al curso Para la discapacidad auditiva: el acceso al portal web donde se encuentra la información acerca del curso cuenta con interpretación a la lengua de signos española, como un apoyo para la comprensión de los textos que en él aparecen y como parte del camino que el alumnado sordo, usuario de la lengua de signos, irá emprendiendo hasta ir alcanzando mayores recursos en la comprensión y expresión de la lengua española de forma escrita. Esto responde a otro objetivo de este proyecto, que es el de impulsar el dominio de la lecto-escritura entre este colectivo y así poder contribuir a aumentar su grado de autonomía en el acceso a la información, la formación, la comunicación y los servicios a través de internet. Para la discapacidad visual se contempla que todos los contenidos puedan ser leídos a través de lectores de pantalla y que respondan al uso de magnificadores para las personas con restos de visión. Así, los documentos de relevancia para el seguimiento del curso, se encuentran disponibles en PDF, en un formato adaptado que cumple con las condiciones de accesibilidad del formato PDF (Portable Document Format), respecto a la “Guía de accesibilidad en documentos PDF” publicada por el Ministerio de la Presidencia del Gobierno de España y el Observatorio de Accesibilidad de octubre de 2010. El resto de la información, necesaria para seguir una acción formativa según el Sistema ECCA, se encuentra, para las personas con ceguera, en un formato audio que incluye audio-descripciones y palabras-clave, situando al alumnado, de forma autónoma, en cómo usar los distintos apartados del curso. Las adaptaciones incluidas en este prototipo de acción formativa accesible se desarrollan en la plataforma Moodle, que cumple con los criterios básicos de accesibilidad dados por el W3C, que son universales; siendo que aquellos aspectos en los que aún es insuficiente su accesibilidad han sido subsanados con herramientas complementarias, como las descritas anteriormente, que mejoran el acceso a la plataforma para las personas con diversidad funcional. 5.2.2. Cómo seguir un curso a través de internet con el Sistema ECCA adaptado Colaborar a disminuir la brecha digital es otro de los objetivos de esta institución, que potencia el que las nuevas tecnologías estén al alcance de todas las personas; por ello, no haber estudiado antes en una plataforma educativa virtual no es un inconveniente, ya que el alumnado tiene a su disposición un Departamento de Orientación virtual con una serie de manuales en vídeo que lo guiarán en torno a todo lo que debe conocer para obtener un mejor aprovechamiento de la plataforma en la que realizará su formación y del curso que va a realizar. En el caso del alumnado con discapacidad auditiva, estos manuales cuentan con interpretación a la lengua de signos española y tutoriales explicativos acerca de las herramientas adaptadas con las que cuenta el curso y cómo manejarlas. Estos manuales se encuentran siempre a disposición del alumnado para tantas consultas como se precisen. Para las personas con discapacidad visual estos manuales se encuentran también en formato audio y se cuenta con tutoriales sobre cómo utilizar el programa informático Jaws para una navegación más sencilla por la plataforma educativa. Las recomendaciones técnicas ayudan también al alumnado a instalar y manejar aquellas aplicaciones que le harán más fácil su formación con las TIC en el Sistema ECCA. 5.2.3. El comienzo del curso Cuando el alumnado accede al curso, encuentra en la plataforma distintos apartados que, para las personas con discapacidad auditiva, usuarias de la lengua de signos, se encuentran interpretados a la lengua de signos, con una “ayuda en pantalla” que garantiza la comprensión de la finalidad y el manejo de cada uno de ellos. En el caso del alumnado con discapacidad visual, la plataforma puede ser leída a través de los lectores de pantalla y ampliada por magnificadores, los contenidos se encuentran dispuestos de una forma organizada y estructurada, para que sea más sencilla su localización. Todos los cursos están estructurados de igual manera, de tal forma que una vez familiarizados con el primero sea más fácil realizar los siguientes. 5.2.4. Siguiendo la clase Una vez familiarizados con el entorno virtual donde se desarrolla el curso, el alumnado accede a la clase. Para las personas oyentes se trata de una clase en audio que se caracteriza por tener una duración de unos 30 minutos y estar grabada por una pareja de docentes, habitualmente un hombre y una mujer, que además de impartir los contenidos principales del curso, lo hacen de una forma motivadora y 154 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos cercana, facilitando así la comprensión y el seguimiento de la misma. Esta clase, por tanto, es válida para las personas con discapacidad visual. En el caso de las personas con sordera esta clase en audio es sustituida por una clase en vídeo, en la que una pareja de intérpretes (hombre y mujer), en la lengua de signos española, en adelante ILSE, traslada fielmente el modelo de una clase ECCA, a la que se le añade el subtitulado. Para garantizar un correcto seguimiento de los contenidos de cada clase, las personas sordas usuarias de la lengua de signos cuentan con un glosario de términos signados. Este glosario tiene como objeto aclarar el significado de determinados signos que aparecen en la clase interpretada y su significado dentro del curso. Esta herramienta es esencial para asegurar el buen entendimiento de las clases y puede irse ampliando en función de las necesidades que se detecten entre el alumnado que lo siga. Imagen Nº 2. Esquema ECCA y captura de pantalla de un ejemplo de adaptación de la clase en audio a formato vídeo. Interpretada por una pareja de intérpretes en la lengua de signos española y subtitulada, para que la puedan seguir las personas sordas. Imagen Nº 3. Alumna con ceguera total siguiendo el Sistema ECCA en línea adaptado a la discapacidad visual. 5.2.6. La tutoría Cada curso cuenta con un tutor o tutora encargado de guiar a su alumnado en su proceso de aprendizaje. Este contacto se puede establecer tanto de forma privada como grupal y tiene el objeto de aclarar cuantas cuestiones relativas al curso se precisen. En el caso del alumnado con discapacidad auditiva usuario de la lengua de signos, el acceso a la tutoría puede establecerse también en esta lengua, a través de un sistema de vídeo-mensajería con el cual puede tanto enviar sus vídeos signados como recibir la respuesta de su tutor o tutora también en lengua de signos. Para establecer esta comunicación, entre profesorado y alumnado en lengua de signos, no es preciso que el profesorado tenga conocimientos de esta lengua, ya que cuenta, a través de la plataforma, con el apoyo del ILSE, encargado de traducir todas las dudas que el tutor o la tutora reciban de esta manera, además de interpretar sus respuestas en vídeo, para que el tutor o la tutora puedan remitirlas a su alumnado. 5.2.5. Completando el esquema durante la clase Para seguir la clase el alumnado cuenta con el Esquema ECCA, que funciona a modo de pizarra, sintetizando las principales ideas y conceptos del curso y propiciando la interacción entre el alumnado y el profesorado; ya que, a lo largo de cada clase, deberá irlos completando para así construir sus propios apuntes, que luego le servirán como material de estudio y repaso. Para las personas con discapacidad auditiva el esquema no ha necesitado de adaptaciones, ya que se trata de un material sencillo, complementado con imágenes, que además es explicado durante las clases. Para el alumnado con discapacidad visual, el esquema ha sido necesario adaptarlo a un formato legible por lectores de pantalla y que pueda cumplimentarse a través del ordenador u otros dispositivos móviles. Este esquema cuenta con la descripción de las imágenes que en él aparecen, para que este alumnado no pierda ninguna información de la que allí aparece y pueda seguir así todos los contenidos de la clase. Imágenes Nº 4 y 5. Alumna sorda realizando una tutoría en lengua de signos con el Sistema ECCA en línea y el apoyo de un servicio de ILSE incluido en la plataforma educativa. En el caso del alumnado con discapacidad visual, una vez que ya puede navegar por la plataforma guiado por un lector de pantalla o ampliándola visualmente para localizar mejor cada apartado, la comunicación con su tutor o tutora se realiza de forma escrita a través de las herramientas de comunicación con las que cuenta la propia plataforma. 155 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 5.2.7. La evaluación Cada curso finaliza con un proceso de evaluación, con el cual se validan los conocimientos recibidos durante el curso y que, una vez superados, llevarán al alumnado a la consecución de un diploma acreditativo de su formación. Es importante que las personas con sordera, usuarias de la lengua de signos y que aun no han alcanzado un nivel alto de lecto-escritura, tengan una buena comprensión de lo que se les pide en la prueba; por ello, la plataforma incluye una serie de vídeos traducidos a lengua de signos que les aclara tanto el contenido de dicha prueba, como las instrucciones para realizarla correctamente. En el caso de la discapacidad visual, el acceso a la evaluación se realiza, de igual forma que en el caso del material didáctico, con un formato que puede ser leído por lectores de pantalla y cumplimentado a través del ordenador u otros dispositivos móviles, pudiendo así este alumnado completar y remitir sus instrumentos de evaluación a su tutor o tutora para finalizar su proceso formativo junto con el resto del alumnado. Los distintos elementos del Sistema ECCA, ya mencionados, son también accesibles para las personas con discapacidad motora, una vez cuenten con la tecnología adaptada necesaria en cada caso, en función de la limitación física que presenten. El que todo el curso se desarrolle en formato digital, incluso el acceso a las tutorías, que se lleva a cabo a través de la plataforma educativa, permite - que con el dispositivo adecuado - la diversidad funcional no sea una barrera para realizar un curso. sencillos y aplicables a distintos perfiles y niveles de estudio, de tal manera que lo importante al realizar este curso sea el comprobar la eficacia de sus adaptaciones para las personas con discapacidad auditiva, visual y física. Hasta el momento, ha sido realizado por distintas personas que presentan este tipo de limitaciones, representando a cada uno de los colectivos y formando parte del equipo de colaboradores para el desarrollo y experimentación del prototipo, junto con técnicos de distintas organizaciones especialistas en la temática, y que ya han manifestado la valoración positiva del mismo, así como la importancia de este modelo para el desarrollo y autonomía de las personas, que por su diversidad funcional, tienen más limitado el acceso a la formación a lo largo de la vida. El curso se realiza a través de internet, por lo que se trabaja con el alumnado a distancia, a través de una plataforma educativa, pero también de forma presencial, midiendo y ajustando el diseño en función de las valoraciones obtenidas durante las pruebas. Está previsto que en Septiembre de 2013 se cierren los últimos ajustes de este prototipo, para que en el primer trimestre del curso escolar 2013/14 se produzca la apertura de los primeros cursos en Sistema ECCA, adaptados y disponibles a nivel nacional. La oferta de cursos que se irá constituyendo a partir de esa fecha estará enfocada a mejorar las oportunidades de empleabilidad de estas personas. 6. Referencias. Webgrafía. [1] Panorámica de la discapacidad en España. Encuesta de Discapacidad, Autonomía personal y situaciones de Dependencia (2008). Cifras INE. Boletín informativo del Instituto Nacional Estadística. Recuperado el 02 de Febrero de 2013 desde http://www.ine.es/revistas/cifraine/1009.pdf [2] Baixeras, Alonso, Pilar, Aroca, Eva, Ferreiro, Emilio, Nogales, Inés, Pérez, María del Mar Rodríguez, Pilar, Valmaseda, Marian (2003). Libro Blanco de la Lengua de Signos Española en el Sistema Educativo, p.15-24. Recuperado el 09 de Octubre de 2012 desde http://www.cnse.es/comunicacion/pdf/libroblancolse.pdf Imagen Nº 6. Alumno con parálisis cerebral y limitaciones de tipo físico, siguiendo el Sistema ECCA en línea adaptado a la discapacidad física. Usar las nuevas tecnologías, en favor de una educación inclusiva, es un objetivo importante en Radio ECCA, con la intención de contribuir a que la formación a lo largo de toda la vida sea también una realidad para las personas con discapacidad auditiva, visual y física. Colaborando así a evitar que esta población quede excluida de una sociedad, que cada vez les exige mayores competencias para el acceso a un puesto de trabajo. 5.2.8. Aplicación real del prototipo. El prototipo se ha desarrollado sobre una acción formativa, “Las familias hoy”, perteneciente al área de Intervención psicosocial y que reflexiona sobre el papel de la familia en la sociedad actual. Sus contenidos son [3] Radio ECCA Fundación Canaria. Conózcanos. Misión, visión, valores. Recuperado el 1 de Mayo de 2013 desde http://www.radioecca.org/conozca/index.html [4] Radio ECCA. Memoria Final. Plan Estratégico Institucional 2005-10. Recuperado el 1 de Mayo de 2013 desde www.radioecca.org [5] Radio ECCA. Memoria 2011-12. Recuperado el 1 de Mayo de 2013 desde www.radioecca.org [6] “Guía de accesibilidad en documentos PDF” publicada por el Ministerio de la Presidencia del Gobierno de España y el Observatorio de Accesibilidad de octubre de 2010. 156 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Development of a P300-based Brain Computer Interface to Assist Severe Disabled People Rebeca Corralejo Palacios1, Luis Fernando Nicolás Alonso1, Daniel Álvarez González1, Roberto Hornero Sánchez1 1 Grupo de Ingeniería Biomédica, E. T. S. I. de Telecomunicación, Universidad de Valladolid, Paseo Belén 15, 47011 Valladolid, Spain Abstract The present study aims at developing an assistive P300based BCI (Brain Computer Interface) tool for managing electronic devices at home. The developed tool is simple, presents a user-friendly interface and attends the main needs of severe disabled people, such as comfort, entertainment and communication. It allows managing up to 113 control commands from 8 different devices: TV, DVD, Hi-Fi systems, multimedia hard drive, lights, heater, fan and phone. Fifteen subjects with severe impairments took part in the study. Nine out of the fifteen participants were able to suitably manage the developed assistive tool with accuracy higher than 80%, although most of subjects also showed cognitive impairments. Hence, our results suggest P300-based BCIs could be suitable for developing control interfaces for severe disable people, increasing their personal autonomy and improving their quality of life. Resumen El presente estudio tiene el objetivo de desarrollar una herramienta BCI (Brain Computer Interface) asistiva, que permita controlar dispositivos electrónicos presentes habitualmente en el hogar. Se ha desarrollado una aplicación simple, con una interfaz fácil de usar y que tiene en cuenta las principales necesidades de las personas con grave discapacidad: confort, entretenimiento y comunicación. La aplicación permite realizar hasta 113 comandos de 8 dispositivos diferentes: televisión, reproductor de DVD, equipo de música, disco multimedia, luces, calefactor, ventilador y teléfono. Quince sujetos con grave discapacidad participaron en el estudio. Nueve de ellos fueron capaces de controlar la aplicación con una precisión superior al 80%, a pesar de que la mayor parte de los sujetos presentaban problemas cognitivos además de discapacidad motora. Así, los resultados sugieren que los sistemas BCI basados en P300 podrían ser adecuados para desarrollar interfaces de control para personas con grave discapacidad, incrementando su autonomía personal y mejorando su calidad de vida. [email protected], [email protected], [email protected], [email protected] 1. Introduction A Brain-Computer Interface (BCI) is a communication system that monitors brain activity and translates specific signal features, which reflect the user’s intent, into commands that operate a device [1]. The electroencephalogram (EEG) is commonly used for recording brain activity in BCIs, since it is a portable and non-invasive method that requires relatively simple and inexpensive equipment [2]. BCIs can be classified into two groups, according to the nature of the input signals. Endogenous BCIs depend on the user’s control of endogenic electrophysiological activity, such as amplitude in a specific frequency band of EEG recorded over a specific cortical area [2]. Motor imagery or slow cortical potentials-based BCIs are endogenous systems and often require extensive training. On the other hand, exogenous BCIs depend on exogenic electrophysiological activity evoked by specific stimuli and they do not require extensive training [2]. P300 or visual evoked potentialsbased BCIs are exogenous systems. P300-based BCIs do not require training. P300 is a typical, or naive, response to a desired choice [2]. Infrequent or particularly significant auditory, visual or somatosensory stimuli, when interspersed with frequent or routine stimuli, typically evoke in the EEG over parietal cortex a positive peak at about 300 ms [2], [3]. Thus, these BCIs allow users to select items displayed on a screen. Several studies have verified the usefulness of P300-based BCIs for people with severe impairments [4]-[7]. The present study aims at developing a P300-based BCI tool to assist severe disable people at home. Our assistive BCI application will allow users to manage electronic devices at home fulfilling their main comfort, entertainment and communication needs. Then, fifteen subjects with motor and cognitive impairments will interact with the assistive BCI tool, assessing its usefulness for increasing personal autonomy at home. Furthermore, in order to reduce the set up time, active electrodes will be used for recording EEG signals instead of passive ones. 157 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 2. Material and methods 2.1. EEG signal acquisition EEG data was recorded using a g.USBamp biosignal amplifier (Guger Technologies OG, Graz, Austria). A total of 8 active electrodes were used: Fz, Cz, P3, Pz, P4, PO7, PO8 and Oz, according to the modified international 10-20 system [8]. Recordings were grounded to the FPz electrode and referenced to the right earlobe. EEG was sampled at 256 Hz and bandpass filtered at 0.1–60 Hz. Common Average Reference (CAR) was applied as spatial filter and signals were notch filtered at 50 Hz in order to remove the main power interference. 2.2. Subjects Fifteen subjects (7 males, 8 females; mean age: 50.3 ± 10.0 years) participated in the study. All of them were patients from the National Reference Centre on Disability and Dependence (CRE-DyD), located in León (Spain). Participants had motor impairments because of different pathologies: acquired brain injury, spastic cerebral palsy, extrapyramidal syndrome, neurofibromatosis or multiple sclerosis. Thirteen out of them also showed some degree of cognitive impairment. The study was approved by the local ethics committee of the centre. All subjects gave their informed consent for participation in the current study. 2.3. Assistive BCI tool design and procedure Digital homes improve our quality of life by making easier the interaction with electronic devices at home. Nevertheless, severe disabled people need a special interface to access these devices. Thus, BCIs could be useful for people with severe impairments allowing them to manage electronic devices present at their usual environment. Our assistive application takes into account the most common needs of disable people: comfort (temperature and lights control), communication (phone) and entertainment (TV, DVD player and multimedia devices). Thus, personal autonomy and quality of life of people with severe impairments could be increased. Experimental design and data collection were controlled by the BCI2000 general-purpose system [9]. A user-friendly interface was developed in C++ language. The application is divided into several menus, one for each device, consisted in matrices of pictures. Each picture shows a control command from a specific device. Thus, users can navigate through different devices and access to their most common functionalities. During the assessment phase, participants were seated facing a computer screen in a comfortable chair or in their own wheelchair. Each subject performed three sessions. During the first session, data was collected in copy-spelling mode (Copy-Spelling Session, CSS) [10], [11]. The TV submenu matrix was presented to users and feedback was not provided during this session. CSS was comprised of 10 runs. In each run, the user was asked to attend a specific item from a proposed task of 4-6 single items. Participants who did not achieved accuracy higher than 65% during this session repeated the CSS tasks in the following session. The next sessions were performed in online free mode (Free Mode Sessions, FMS) [12] while participants interacted with the assistive BCI tool. FMS sessions were comprised of 7 evaluation runs. Participants were asked to select items across different menus for completing a proposed task in each evaluation run. During the last session, the number of sequences was decreased for each user depending on their specific performance. Hence, is possible to minimize the necessary time to access each single item or command. 2.4. EEG signal processing For each EEG channel, segments of 800 ms after each stimulus were extracted and low pass filtered [12]. A StepWise Linear Discriminant Analysis (SWLDA) was applied to compose the classifier. SWLDA performs feature space reduction by selecting suitable spatiotemporal features (i.e., the amplitude value at a particular channel location and time sample) to be included in a discriminant function based on the features with the greatest unique variance [4], [13]. In this study, the discriminant functions were obtained by using up to 60 spatiotemporal features from all the EEG channels [13]. The classifier built using CSS tasks data was applied during the online running of FMS tasks. 3. Results An assistive P300-based BCI tool for managing electronic devices at home was designed and developed in this study. This BCI application allows users to operate several devices related to comfort, communication and entertainment needs. All devices are managing by means of an infrared (IR) emitter device (RedRat Ltd., Cambridge, UK). Specifically, the developed tool manages the following devices and their main functionalities: • TV: switch on/off; volume control: turn up/down or mute; switch TV channels: up/down or select a channel using digits from 0 to 9; TV menu configuration: access/exit the menu, enter and move right, left, up or down; and, finally, access and navigate through the teletext service. • DVD player: switch on/off; play, pause or stop a video; explore the DVD’s contents navigating through the menu, list, up, down and enter options; switch to the next or previous file; mute the sound; and record from TV. • Hi-Fi system: switch on/off; volume control: turn up/down or mute; change to the radio or CD function; play, pause or stop an audio track; and switch to the next or previous track or radio station. • Multimedia hard drive: switch on/off; explore the hard drive’s contents navigating through the menu, up, down, right, left and enter options; play, pause, stop or switch to the next/previous file; and show/hide the subtitles. 158 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos • Lights: switch on/off; change the light colour: white, red, blue, green, orange or purple; turn up/down the intensity; and activate the flashing mode. • Heater: switch on/off; turn up/down the power intensity; program the sleep function from 30 min to 4 h; and activate/deactivate the swing mode. • Fan: switch on/off all the fans; increase/decrease speed; program the sleep function; activate/deactivate the swing mode; and activate/deactivate the desired fans. • Phone: pick up or hang up the phone; make a phone call dialling a phone number by selecting digits from 0 to 9; access the address book; making an emergency call and dial a memorized phone number. Figure 1. Main menu of the assistive P300-based BCI tool (in Spanish). Users can select the desired device to operate: TV, DVD, Hi-Fi system, multimedia hard drive, lights, heater, fan, phone and phone book. Figure 2. Specific submenu for TV managing (in Spanish). From this submenu users can switch on/off the TV, select a specific TV channel, turn up/down or mute the sound, navigate through the TV menu and teletext service and go back to the main menu. Figure 3. Specific submenu for DVD managing (in Spanish). From this submenu users can switch on/off DVD player, explore and navigate DVD’s contents, navigate through the menu, mute the sound and go back to the main menu Figure 4. Specific submenu for Hi-Fi system managing while second row is dimmed (in Spanish). From this submenu users can switch on/off, control the volume, change to the radio or CD function, play, pause, stop or switch to the next or previous track and go back to the main menu. Figure 5. Specific submenu for multimedia drive managing (in Spanish). From this submenu users can switch on/off, explore and navigate hard drive’s contents, play, pause, stop or switch to the next/previous file, show/hide the subtitles and go back to the main menu. 159 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Figure 6. Specific submenu for lights managing while third column is dimmed (in Spanish). From this submenu users can switch on/off the lights, select a specific light colour, turn up/down the intensity and go back to the main menu. Figure 7. Specific submenu for heater managing (in Spanish). From this submenu users can switch on/off, turn up/down the power intensity, program sleep function from 30 min to 4 h, activate/deactivate swing mode and go back to the main menu. Additional session only for two participants (U11 and U13). In the specific case of U13, it was not possible to create a reliable classifier after three CSS sessions because the EEG recordings were excessively noisy due to frequent sudden muscle spasms. Regarding FMS results, nine out of the fifteen participants reached accuracy higher than 80% managing the developed assistive BCI system. Moreover, five of them achieved more than 95% accuracy. The remaining participants were not able to suitably operate the assistive BCI tool (U05 and U13) or they reached moderate accuracies ranging between 56-63% (U06, U07, U11 and U15). Figure 9. Specific submenu for phone managing (in Spanish). From this submenu users can pick up or hang up the phone, make a phone call dialling the number, access the phone book, call emergencies and go back to the main menu. Figure 10. Specific submenu for phone book while second column is dimmed (in Spanish). From this submenu users are able to dial a memorized phone number from eleven options and go back to the main menu. Figure 8. Specific submenu for fan managing while third column is dimmed (in Spanish). From this submenu users can switch on/off, increase/decrease speed, program sleep function, activate/deactivate swing mode and each internal fan and go back to the main menu. 160 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 4. Discussion Most of the studies related to BCIs are commonly applied to healthy people. Moreover, studies related to BCIs are usually not aimed at developing new assistive applications. However, some authors have assessed BCI systems for real end-users. Hoffman et al [5] applied a P300-based BCI to five subjects with different pathologies. Four out of the five participants reached 100% accuracy. Nevertheless, this study was carried out using a quite different paradigm. Only two sessions were performed and only one stimuli matrix, consisted of six images that flashed one by one, was used. Whereas our BCI application comprises 113 items from 10 menus and stimuli is presented over rows and columns. Nijboer et al [4] applied the typical 6 x 6 characters matrix [14] to eight subjects with amyotrophic lateral sclerosis (ALS). Four out of the eight participants were able to control suitably the system. Their mean accuracy ranged from 58% to 83%. Furthermore, this exhaustive study showed that the amplitude and latency of the P300 potential remained stable over 40 weeks. However, the number of participants, the percentage of them who managed properly the system and their mean accuracy is higher in our study. The developed assistive tool also improves our preliminary previous studies [7]. The new BCI tool has a more user-friendly interface. First, new control commands were added to the assistive application, such us recording from TV or making an emergency call. Second, all submenus were colour unified: all commands from a specific device or submenu have the same colour. Finally, all commands were reorganized in order to show a better distribution, like if users were facing the real remote control of each device. Furthermore, the use of active electrodes instead of passive ones for EEG recording allows to reduce the set up time. Thus, users do not get tired or loose motivation and they are able to achieve higher accuracies than in previous studies [7]. Our results show that assistive P300-based BCI applications could be useful to increase the autonomy of people with severe impairments. However, this study has certain limitations. It would be recommendable to increase the number of subjects in future studies. Furthermore, it is necessary to improve the quality of EEG signals of patients with sudden muscle spasms. Moreover, new features and signal processing methods could be assessed in order to improve the P300 potential peak detection. In addition, the developed assistive tool could be easily modified to include new devices in order to adapt it to additional needs and requirements of end-users. Therefore, it would be useful to increase the personal autonomy of severe disabled people at home, decreasing their dependence from nurses, caregivers and relatives. Table 1. Accuracy results for each user MA-Mean classification Accuracy for copy-spelling (CSS) and free mode sessions (FMS) * : Participant repeated the CSS tasks once ** : Participant repeated the CSS tasks twice User U01 U02 U03 U04 U05 U06 U07 U08 U09 U10 * U11 U12 ** U13 U14 U15 MA CSS (%) 100.0 100.0 100.0 100.0 35.7 68.9 78.6 91.7 96.7 82.4 80.0 87.5 37.5 95.8 67.9 MA FMS (%) 96.2 95.6 85.8 95.5 50.9 55.6 62.3 96.5 95.3 80.1 63.3 92.3 89.3 62.5 5. Conclusions This study was aimed at designing and developing an assistive P300-based BCI application. The assistive tool allows users to manage electronic devices commonly present at home, according to comfort, communication and entertainment needs. Specifically, the developed tool allows users to operate the following devices: TV, DVD player, Hi-Fi system, multimedia hard drive, lights, heater, fan and phone. Thus, users can manage up to 113 control commands from 10 different menus with a user-friendly interface. Therefore, severe disabled people can interact with their environment increasing their personal autonomy and independence. Fifteen real end-users with severe disabilities took part in the study. The assessment results are promising: nine out of the fifteen participants reached accuracies higher than 80% interacting with the proposed tool. Moreover, the population under study included people with both motor and cognitive impairments. Hence, these results suggest that P300-based BCIs could be useful to assist people with severe impairments. In summary, the present study proposes an assistive P300-based BCI application that allows severe disabled people to operate electronic devices usually present at home. Moreover, real end-users assessed the performance of the developed tool with promising results: nine out of the fifteen participants achieved more than 80% accuracy managing the assistive tool. Hence, these results suggest P300-based BCIs could be really suitable to increase the autonomy and independence of people with severe impairments. 161 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 6. References [1] J.R. Wolpaw, N. Birbaumer, W.J. Heetderks, D.J. McFarland, P.H. Peckham, G. Schalk, E. Donchin, L.A. Quatrano, C.J. Robinson, and T.M. Vaughan, “Brain-Computer Interface Technology: A Review of the First International Meeting”, IEEE Transactions on Rehabilitation Engineering, 2000, vol. 8, pp. 164– 173. [2] J.R. Wolpaw, N. Birbaumer, D.J. McFarland, G. Pfurtscheller, and T.M. Vaughan, “Brain–Computer Interfaces for Communication and Control”, Clinical Neurophysiology, 2002, vol. 113, pp. 767–791. [3] E. Donchin, and D.B. Smith, “The Contingent Negative Variation and the Late Positive Wave of the Average Evoked Potential”, Electroencephalography and Clinical Neurophysiology, 1970, vol. 29, pp. 201–203. [4] F. Nijboer, E.W. Sellers, J. Mellinger, M.A. Jordan, T. Matuz, A. Furdea, S. Halder, U. Mochty, D.J. Krusienski, T.M. Vaughan, J.R. Wolpaw, N. Birbaumer, and A. Kübler, “A P300-based Brain–Computer Interface for People with Amyotrophic Lateral Sclerosis”, Clinical Neurophysiology, 2008, vol. 119, pp. 1909– 1916. [5] U. Hoffmann, J.M. Vesin, T. Ebrahimi, and K. Diserens, “An Efficient P300-based Brain–Computer Interface for Disabled Subjects”, Journal of Neuroscience Methods, 2008, vol. 167, pp. 115–125. [6] E.W. Sellers, A. Kubler, and E. Donchin, “Brain–computer interface research at the University of South Florida Cognitive Psychophysiology Laboratory: the P300 speller”, IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2006, vol. 14, no. 2, pp. 221–224. [10] D.J. Krusienski, E.W. Sellers, D.J. McFarland, T.M. Vaughan, and J.R. Wolpaw, “Toward enhanced P300 speller performance”, Jounal of Neuroscience Methods, 2008, vol. 167, pp. 15–21. [11] E.W. Sellers, E. Donchin, “A P300-based brain–computer interface: initial tests by ALS patients”, Clinical Neurophysiology, 2006, vol. 117, pp. 538–548. [12] G. Schalk, and J. Mellinger, A Practical Guide to BrainComputer Interfacing with BCI2000, Springer-Verlag London, 2010. [13] D.J. Krusienski, E.W. Sellers, F. Cabestaing, S. Bayoudh, D.J. McFarland, T.M. Vaughan, and J.R. Wolpaw, “A comparison of classification techniques for the P300 Speller”, Journal of Neural Engineering, 2006, vol. 3, pp. 299–305. [14] E. Donchin, K.M. Spencer, and R. Wijesinghe, “The Mental Prosthesis: Assessing the Speed of a P300-based Brain–Computer Interface”, IEEE Transactions on Rehabilitation Engineering, 2000, vol. 8, pp. 174–179. 7. Acknowledgements This research was supported in part by the Project Cero 2011 on Ageing from Fundación General CSIC, Obra Social La Caixa and CSIC and by the Ministerio de Economía y Competitividad and FEDER under project TEC2011-22987. R. Corralejo was in receipt of a PIRTU grant from the Consejería de Educación (Junta de Castilla y León) and the European Social Fund. L.F. Nicolás-Alonso was in receipt of a PIF-UVa grant from University of Valladolid. [7] R. Corralejo, D. Álvarez, R. Hornero, “A P300-based BCI Aimed at Managing Electronic Devices for People with Severe Disabilities”, Proceedings of the International Conference on NeuroRehabilitation Part. I, 2012, Toledo (Spain), pp. 641–645. [8] H.H. Jasper, “The Ten Twenty Electrode System of the International Federation”, Electroencephalography and Clinical Neurophysiology, 1958, vol. 10, pp. 371–375. [9] G. Schalk, D.J. McFarland, T. Hinterberger, N. Birbaumer, and J.R. Wolpaw, “BCI2000: a general-purpose brain–computer interface (BCI) system”, IEEE Transactions on Biomedical Engineering, 2004, vol. 51, no. 6, pp. 1034–1043. 162 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos DAI Virtual Lab: a Virtual Laboratory for Testing Ambient Intelligence Digital Services Francisco Javier Ferrández-Pastor1, Juan Manuel García-Chamizo1, Mario Nieto-Hidalgo1, and Francisco Flórez-Revuelta2 1 Dept. of Computing Technology, University of Alicante, P.O. Box 90, E-03080, Alicante, Spain 2 Faculty of Science, Engineering and Computing, Kingston University, Kingston upon Thames, KT1 2EE, United Kingdom {fjferran,juanma,mnieto}@dtic.ua.es, [email protected] Resumen El soporte tecnológico de la Inteligencia Ambiental proporciona utilidades muy diversas de información de contexto y operación sobre el entorno. Dichos sistemas ponen en juego una amplia diversidad de sensores, actuadores, organizados mediante redes de interconexión complejas, en las cuales coexisten diversos protocolos de comunicación y de operación, así como numerosos niveles de modularización. La validación de nuevos desarrollos se realiza sobre prototipos físicos de viviendas inteligentes que hacen las veces de laboratorio. Las posibilidades de experimentación encuentran poderosas limitaciones debido a que el propio laboratorio se convierte en un r ecurso crítico que soporta un solo uso cada vez. DAI VIRTUAL LAB es un entorno que recrea escenarios virtuales tridimensionales para ayuda al diseño de los sistemas digitales de inteligencia ambiental. Proporciona un nivel preliminar de validación virtual pero cercana a la realidad que soporta simulaciones en paralelo, sin gastos ni restricciones de tiempo y sin molestias para los usuarios. Abstract Ambient Intelligence technologies provide very diverse uses for context information and operation on the environment. These systems bring into play a w ide variety of sensors, actuators, organized in complex interconnection networks, in which different communication and operating protocols, as well as many levels of modularization, coexist. The validation of new developments is performed on physical smart homes prototypes that serve as laboratories. Experimentation possibilities are quite limited because the laboratory itself becomes a critical resource that supports only a single use at a time. DAI VIRTUAL LAB is an environment that recreates three-dimensional virtual environments to support the design of ambient intelligence digital systems. It provides a preliminary level for virtual validation but close to the reality that allows parallel simulations, without cost or time restrictions and inconvenience to users. 1. Introduction One of the main issues in the design of Ambient Intelligence (AmI) services is testing the developments at different stages in conditions as similar as possible to the real ones. This is usually solved by using laboratories which are designed to resemble specific rooms or complete houses; incorporating very diverse devices (sensors, actuators, control networks...) what usually involves very high costs for a research centre. Only few centres can afford one of these smart living labs. In other cases, developments may be validated in real environments such as homes, nursing centres, hospitals... The main drawback of the latter is the inconvenience caused to users, which always suggests reducing real tests. Recent computational and electronic advances have increased the capacity and functionality of AmI services. New interfaces enable people and devices to interact with each other and with the environment. Technology operates in the background while computing capabilities are everywhere, connected and always available. AmI provides a vision of the Information Society where the emphasis is on greater user-friendliness, more efficient services support, user-empowerment, and support for human interaction [1] [2] [3]. Anyone should be able to use digital services from home, regardless of their personal skills and capabilities. Therefore, the inclusion criteria must be considered as an essential design factor. The requirements that inclusive systems have to satisfy are much higher and the benefits to be provided are, correspondingly, of much greater 163 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos magnitude. The confluence of AmI and inclusion criteria is part of the ambient assisted living (AAL) paradigm. There are intense advances in scientific domain (research projects, scientific journals, specific conferences, etc.) and technological field (equipment, systems and specialized environments) [4] [5] [6]. Inclusive design has implications in all the layers of a system. From a technological point of view, the characteristics of the sensors and actuators, and the structure and organization of the resulting system are affected. Features of the services that the solution must provide are also influenced. Therefore, the impact on the design of user interfaces is extremely important because they must be adapted to different functional skills; physical, sensory or intellectual disabilities; age… [7] [8] [9]. Besides the impact is also relevant for the designers and developers, the task-specific system managers, the installers, the maintenance engineers… There are tools that automate the design of user interfaces in embedded systems using FPGAs. These tools allow to automatically generate code from UML specifications or other specification models, both hardware (usually VHDL) and software (C or similar) [10] [11] [12] [13]. However the number of tools to automate the interface design process is reduced. In [14] an automatic generator of user interfaces for multiple platforms using discourse models as a starting point is presented. In [15] Beale and Bordbar provide interface design support tools. There are different simulators for AAL. Some simulate different services that a smart home can offer and provide a testing environment for those services using process choreography principles [16], it also provide the VAALID IDE [17] which is composed by an authoring tool and a virtual reality simulation environment. Another simulator, Virtual Valley [18] is integrated in an AAL environment for telerehabilitation, it integrates motion controllers and medical sensors and it is used to support physical rehabilitation, education, socialization and sharing of knowledge between users. In [19] a framework to develop interaction techniques for virtual worlds is presented. 2. Objectives The inclusion skills could be established as follows. The inclusion of people in their environment is to facilitate communication between them through multimedia channels regardless of their personal skills. Although this definition is concise, it provides a model of the problem (communication), identifies the entities involved: the people, in all their diversity of skills; the environment, with its richness of factors and processes; and the communication channel between them, which has to be bidirectional and with no restrictions initially on its nature. The diversity of sectors, conditions and services (comfort, security, safety, energy management, communication and autonomy, health, administration, etc.) that make up the environment where people behave, qualify the definition of the inclusion problems with regards to the environmental aspects. Furthermore, the skills of each person impose the global conditions in which that communication will occur, particularly through sensory skills and perceptual attitudes. The phenomena that integrate the communication channel will be those potentially resulting from the compatibility between the characteristics of the environment and the people who inhabit it. Inclusive interfaces for AAL implies both the design of homogeneous, intuitive and coherent user interfaces and the development of efficient AmI services. Therefore, the main aim of this research is to develop a generator of virtual environments intended to facilitate (ideally, automate) the design of interfaces for AAL. DAI VIRTUAL LAB generates 3D virtual environments that emulate the functionality of smart or automated homes, and has the following objectives: • To create new interaction channels between users and the numerous and varied devices and services present at home. The developed system allows the automatic customization of the interfaces to access the functionality and state of the devices according to the needs and functional preferences of the user and the technological capabilities of the device to interact with; • To serve as an aid tool for the designer of automated and smart homes, with different purposes: generation of the tridimensional virtual model of the environment, design of the installation, and simulation of its performance; and • To provide a specialized, intuitive and powerful interface to end-users. This interface allows end-users to collaborate on design decisions by preliminary validations, through simulation using the virtual environment, recreating services and environments before proceeding to the final installation. Furthermore, the three-dimensional virtual model incorporates control panels for the different devices and services. These panels constitute the final interfaces that are installed in the real facilities. DAI Virtual Lab is composed of a threedimensional home generator and a simulation module. The three-dimensional virtual home generator includes a home editor to allow the designer, in consensus with the end-user, set the equipment and the home services. The tasks in this phase are the following: • Determine the installation structure, organization and division in modular sections, • Characterize the technological elements of the system: sensors and actuators, and • Establish the installation topology and the location of elements and components. The simulation module emulates the constructive elements and allows simulating all kind of interactions and services that could be installed in a 3D environment. This virtual environment, once tested, becomes an interface adapted to the user that controls and monitors the services installed. The interface can be reconfigured according to the needs of the user and the evolution of the domotic system. 164 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 3. Principles and architecture DAI VIRTUAL LAB generates a three dimensional environment which allows the simulation of services and the interaction with real devices. These two possibilities offered in a same platform increase the performance and support the designer to create assistive interfaces. Through the simulation, the designer can predict interactions patterns using a variety of input devices and allows reviewing and improving the performance. The three-dimensional environment allows the user to navigate through it and interact with the devices. The communication between the virtual model and the real installation is done via web services using a control middleware (DAI middleware) [20]. This middleware completes the functionality of DAI VIRTUAL LAB and enables the integration and interoperability of all the installed systems. It offers an access interface, a set of web services and an API to develop services and applications (Fig. 1). It also includes a layer of services that can be used by the simulator module. Fig. 2. DAI-Middleware: architecture and connection with DAI VIRTUAL LAB 3.1. DAI VIRTUAL LAB Architecture The modules of DAI VIRTUAL LAB (editor and simulator) use a layered architecture (Fig. 3) that allows the abstraction of the functionalities of the lowest layers. At the lowest level there are the engines of graphics, audio and physics, which allow the rendering of the virtual models. These three engines are abstracted in the upper layer "Scene" where all the objects of the virtual environment are located. Above this layer there is the smart home devices layer. This layer virtualizes the home installation and associates the devices with the virtual objects of the scene. The upper layer includes the user interface and the web services modules. They both allow the interaction with the installation devices. Fig. 1. DAI-middleware: control, integration and interoperability in heterogeneous systems DAI middleware is based in an intranet that integrates control technologies and communication protocols (proprietary and standard) using gateways to Ethernet. The information and tasks assigned to the services are treated by a OSGI 3 (Open Services Gateway Initiative) based framework that can manage all the petitions from control devices or from the interfaces and applications. Its architecture (Fig. 2) is divided into three layers: device integration layer, task manager (OSGI) and services and applications layer. 3 http://www.osgi.org/ Fig. 3. DAI Virtual Lab architecture 3.1.1. Device programming. DAI VIRTUAL LAB incorporates a graphic language, DAI Device Macro Programming, that allows, in a simply but powerful way, to modify the behavior of the devices of the smart home installation, creating new macros (services). It is very intuitive and has been designed to offer an easy way to program the devices without the need of specialized knowledge about programming. This feature allows the enduser to program his smart home by adding new services or modifying existing ones. Each device can have associated different macros that will be executed each time any of the functionalities of 165 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos the device changes its value. This allows the incorporation of additional services by interconnecting the devices. Fig. 4 shows a macro for the device "Light_1" with the following function: while Light_1.switch { Sleep(10); Light_1.dimmer=(light_1.dimmer + 1) mod 256; } Fig. 4. Flow diagram of a macro 3.1.2. User Interface module. The upper layer is the user interface. It provides the user with a mechanism to interact with the devices in the home while viewing the results in the three-dimensional virtual environment. There are two ways of interacting with the devices: selecting the device from a list, or selecting the device in the virtual environment itself. Fig. 5 shows a view of the interface with all the available options. Fig. 5. DAI VIRTUAL LAB user interface: 1) open and save virtual labs, 2) options for the design, 3) help and support information, 4) viewing area, 5) detailed device information, 6) scene information: rooms, objects, devices…, 7) device information, 8) device actions, and 9) status bar 3.1.3. Interaction with the environment. After a scene is loaded, it is possible to interact with the devices. If the mouse is over a device it is highlighted. A device can be selected by clicking on it at the viewing area, or by selecting it from the list on the left. Once selected, its information is shown in the right frame (5). Its functionalities are also accessible in (8) (i.e. if a door is selected it can be opened or closed). The information shown and the available functionalities will depend on the device type. All the devices have a "Go To" button which focuses and moves the camera to its location. The functionalities categorized by device type are as follows: • Lights: it permits to turn on/off the lights through a drop down list which contains the options OFF | ON. When the light is turned on/off, the scene will be illuminated with the respective color and intensity • Alarm: it permits to turn on/off the alarm through a dropdown list which contains the options OFF | ON. When the alarm is turned on a sound will be played at the device location. • Blind: it permits to close, open and set the blind with a scrollbar or a dropdown list which contains the options STOP | UP | DOWN. Any scrolling implies the corresponding movement of the blind at the viewing area. 3.1.4. Web service module. In order to communicate with the application, DAI VIRTUAL LAB implements a socket that can receive a set of commands in order to get information or modify the device status. The socket layer communicates with the devices just as the user interface does. To make a common interface between virtual and real house, we have developed a web service that communicates with the virtual house socket offering exactly the same features as the original Web service of DAI middleware. Thus all interfaces designed for the virtual house can be used in the real house simply by changing the direction of the web service. 3.1.5. Home editor. The home editor provides a tool to modify the appearance of the virtual house by adding textures to objects, moving them to a specific position, or incorporating new devices and their characteristics. This tool is designed to retouch and add details to a virtual house 4 modelled with a 3D modelling environment like Blender or 3D Studio and exported in COLLADA format. Therefore, the original modelling of the house must be made with any of these environments and imported into the authoring tool. Later, the devices can be added and textures details or sound effects incorporated. 4. Use cases DAI VIRTUAL LAB has been tested in two use cases. In each case a virtual 3D world that recreates each space has been designed and created offering the possibility to interact and simulate all the services provided by the middleware. 4 http://collada.org/ 166 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 4.1. MetalTIC - Digital Home This version shows the three-dimensional representation of MetalTIC – Digital Home 5, which is a smart laboratory and demonstrative facility for innovation, designed and developed by the Domotics and Ambient Intelligence research group for the Federation of Metalworking firms in the Province of Alicante [21]. This house has many interconnected devices from different brands and using different control protocols. The virtual representation simulates that interconnection and permits visualizing the devices behavior in a realistic way. These devices are placed virtually at this application, around the different rooms. The appearance offered at the virtual representation of the MetalTIC – Digital Home is quite similar to the real laboratory (Fig. 6). Fig.7. INREDIS project testing at MetalTIC – Digital Home 4.2. DAI Lab DAI Lab 7 (Fig. 8) is the research laboratory that the DAI group is building at the University of Alicante. DAI Lab is aimed to the training and research in home automation and intelligent environments, paying special attention to the monitoring of people and analysis of its behavior in private spaces, and efficient use of energy. Fig. 8. Different views of both the real and virtual DAI Lab. 5. Conclusions Fig. 6. Real and virtual views of metalTIC – Digital Home: kitchen, bedroom and living room. 4.1.1. Use of MetalTIC - Digital Home in the validation of inclusive designs. This laboratory has been used as living lab in the tests carried out within the INREDIS project 6. Its main aim is to develop basic technologies that will lead to the creation of communication channels and interaction among people with special needs and the ICT environment. In particular, we validated different interfaces for elderly and deaf people (Fig. 7). 5 6 http://web.ua.es/en/dai/metaltic-digital-home.html http://www.inredis.es/ The motivation for this work is based on the consideration that the electronic equipment of a home is composed of many, very diverse and complex devices. The difficulties of handling systems with such characteristics can make them unusable or prevent use them properly. The problem is especially acute in the case of persons with disabilities. Given the obvious desirability of moving in the direction of normalizing operational interfaces in automated homes, the proposal we have developed in DAI VIRTUAL LAB considers all actors involved in the technology of these systems including the design engineer, the installation and maintenance technicians and users, regardless of their sensory, physical and intellectual skills. Another complicating factor is the diversity of industries, facilities and services (comfort, security, safety, energy management, 7 http://web.ua.es/en/dai/dai-lab.html 167 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos communication, leisure, autonomy, health, administration, etc). To conceive DAI VIRTUAL LAB, we started from a functional definition of the inclusion of people in their environment in terms of a communication system, which facilitates the characterization of the interface in order to obtain its functional specification. The design decisions were that the interface for home services consists of a virtual three-dimensional model of the dwelling that incorporates the control panels of the devices. This has allowed us to structurally specify the virtual models, i.e. determine the modules that make them up and which is the organization of these modules. Taking into account that the structural specification of the models is precisely the output that DAI VIRTUAL LAB should produce, particularized for each dwelling, it has been possible to design the system for generating virtual models. The main applications of DAI VIRTUAL LAB are: • Support to the engineers of automated homes in making design decisions and simulating the installations in order to virtually validate the operating results before making the investment in equipment and install it; • Provide a universal, consistent and intuitive user interface to manage and control the home through web services; and • Create new channels of interaction between users and the various technological devices and services present at home. The developed system allows automatic customization of interfaces according to the needs, the functional preferences of the user and the technological capabilities of the device he/she wants to interact with. Use cases discussed in this work demonstrate that DAI VIRTUAL LAB meets our expectations as a universal interface for the design and operation of inclusive automated homes. 6. Acknowledgement This work has been partially supported by the Spanish Ministry of Science and Innovation under project "Vision system for monitoring the activity of daily living at home" (TIN2010-20510-C04-02). The funders had no role in study design, data collection and analysis, decision to publish, or preparation of the manuscript. 7. References [1] K. Ducatel, M. Bogdanowicz, F. Scapolo, J. Leijten, y JC. Burgelman, "ISTAG: Scenarios for Ambient Intelligent in 2010," IPTS – Seville, 2010. [2] P. Rashidi, y D. J. Cook, "Keeping the Resident in the Loop: Adapting the Smart Home to the User", IEEE Transactions on Systems, Man and Cybernetics, Part A: Systems and Humans, pp. 949-959, September, 2009. [3] S. Fariba, "Ambient Intelligence: A survey", ACM Computing Surveys, Vol. 43, Issue 4, October 2011. [4] H. Sun, V. De Florio, N. Gui, y C. Blondia, "Promises and Challenges of Ambient Assisted Living Systems", Sixth International Conference on Information Technology: New Generations (ITNG '09), pp. 1201-1207, April, 2009. [5] C. Ricardo, C. Davide, N. Paulo, L. Luis, M. José, M. Alberto, y N. José, "Ambient Assisted Living", 3rd Symposium of Ubiquitous Computing and Ambient Intelligence 2008, Vol. 51, pp. 86-94, 2009. [6] M. Ziefle, Röcker, W. Wilkowska, K. Kasugai, L. Klack, C. Möllering, y S. Beul, "A Multi-Disciplinary Approach to Ambient Assisted Living", E-Health, Assistive Technologies and Applications for Assisted Living: Challenges and Solutions, IGI Global, 76-93, 2011, doi:10.4018/978-1-60960-469-1. [7] A. J. Jara, M. A. Zamora y A. Skarmeta, "An Arquitecture for Ambient Assisted Living and Health Environments", Distributed Computing, Artificial Intelligence, Bioinformatics, Soft Computing and Ambient Assisted Living, Vol. 5518, pp. 882-889, 2009. [8] J. Winkley, P. Jiang, y W. Jiang, "Verity: an Ambient Assited Living Platform", IEEE Transactions on Consumer Electronics, Vol. 58, Issue 2, pp. 364-373, May 2012. [9] W. Carswell, J. Augusto, M. Mulvenna, J. Wallace, S. Martin, P.J. McCullagh, H. Zheng, H. Wang, K. McSorley, B. Taylor, y W.P. Jeffers, "The NOCTURNAL Ambient Assisted Living System", 5th International Conference on P ervasive Computing Technologies for Healthcare, pp. 208-209, May 2011. [10] I.R. Quadri, S. Meftali, y J.-L. Dekeyser, "Designing dynamically reconfigurable SoCs: From UML MARTE models to automatic code generation," Design and Architectures for Signal and Image Processing (DASIP), 2010 Conference on , vol., no., pp.68-75, 26-28 Oct. 2010 [11] D. Alonso, J. Suardiaz, P.J. Navarro, P.M. Alcover, y J.A. Lopez, "Automatic generation of VHDL code from traditional ladder diagrams applying a model-driven engineering approach," Industrial Electronics, 2009. IECON '09. 35th Annual Conference of IEEE , vol., no., pp.2416-2421, 3-5 Nov. 2009 [12] W. Mueller, D. He, F. Mischkalla, A. Wegele, A. Larkham, P. Whiston, P. Peñil, E. Villar, N. Mitas, D. Kritharidis, F. Azcarate, y M. Carballeda, "The SATURN Approach to SysML-Based HW/SW Codesign", VLSI 2010 Annual Symposium Lecture Notes in Electrical Engineering, Vol. 105, pp. 151-164, 2010. [13] T.G. Moreira, M.A. Wehrmeister, C.E. Pereira, J.-F. Petin, y E. Levrat, "Automatic code generation for embedded systems: From UML specifications to VHDL code," Industrial Informatics (INDIN), 2010 8th IEEE International Conference on , vol., no., pp.1085-1090, 13-16 July 2011 [14] J. Falb, S. Kavaldjian, R. Popp, D. Raneburger, E. Arnautovic, y H. Kaindl, "Fully automatic user interface generation from discourse models", Proceedings of the 14th international conference on I ntelligent user interfaces, pp. 475476, 2009. [15] R. Beale, y B. Bordbar, "Pattern Tool Support to Guide Interface Design", Human-Computer Interaction INTERACT 2011, Vol. 6947, pp. 359-375, 2011. [16] C. Fernández-Llatas, J. B. Mocholí, C. Sánchez, P. Sala, y J. C. Naranjo, "Process choreography for Interaction simulation in Ambient Assisted Living environments", XII Mediterranean 168 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Conference on M edical and Biological Engineering and Computing, Vol. 29, pp. 757-760, 2010. [17] P. Sala, F. Kamieth, J. B. Mocholí, y J. C. Naranjo, "Virtual Reality for AAL Services Interaction Design and Evaluation", Universal Access in Human-Computer Interaction, Vol. 6767, pp. 220-229, 2011. [18] D. Cascado, S.J. Romero, S. Hors, A. Brasero, L. FernandezLuque, y J.L. Sevillano, "Virtual worlds to enhance AmbientAssisted Living," Engineering in Medicine and Biology Society (EMBC), 2010 Annual International Conference of the IEEE , vol., no., pp.212-215, Aug. 31 2010-Sept. 4 2010 [19] D. Martínez, J-Y. Lionel Lawson, J. P. Molina, A. S. García, P. González, J. Vanderdonckt, y B. Macq, A Framework to Develop VR Interaction Techniques Based on OpenInterface and AFreeCA", Human-Computer Interaction INTERACT 2011, Vol 6948, pp 1-18, 2011. [20] M. Cabo–Díez, F.J. Ferrández–Pastor, F. Flórez-Revuelta, y V. Romacho–Agud, "DAI Middleware: plataforma de Hogar Digital para la provisión de servicios orientados a la vida asistida por el entorno", Congreso Internacional de diseño, redes de investigación y tecnología para todos, Madrid, Junio 2011. [21] F. Flórez-Revuelta, F.J. Ferrández-Pastor, M. Cabo-Díez, y V. Romacho-Agud, "metalTIC - Hogar Digital", Congreso Internacional de diseño, redes de investigación y tecnología para todos, Madrid, Junio 2011. 169 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Architecture for Adding Context-Aware Capabilities to Preferences-Oriented User Interfaces Andrés Iglesias-Péreza,8 Ignacio Peinadoa, Jonathan Chacóna, Manuel Ortega-Moral R&D Department, Fundosa Technosite {aiglesias , ipeinado ,jchacon ,mortega } @technosite.es Abstract A proposal for merging context-awareness and us er preferences in the same software system is provided. In order to do s o, several existing frameworks coming from both disciplines are studied, getting insights from them to add context-awareness to the on-going CLOUD4All project (European Commission Seventh Framework Programme) Resumen Se proporciona una propuesta para unir sensibilidad al contexto y preferencias de usuario en el mismo sistema software, para lo cual se analizan marcos de desarrollo provenientes de ambas disciplinas, obteniendo ideas de ellos para añadir sensibilidad al contexto al proyecto CLOUD4All que ac tualmente está siendo ejecutado (Séptimo Programa Marco de la Comisión Europea) 1. Introduction Daily live in urban environments tends to force the user to interact with a plethora of machines, each one with its own User Interface (UI). Most probably even getting into the workplace will involve checking the smartphone in the morning for email and ToDo lists, getting a ticket to the metro or bus in a Ticket Vending Machine (TVM), reading on a tablet while in transit and finally opening the desktop computer when arrived. These tasks happen under different noise and light conditions, in different moments in time and in different places, with or without people surrounding the user. 8 Alberto Delgado García Fundación Vodafone España [email protected] Several approaches [2][3][4][5][6] have addressed the task of improving the interaction between a user and a computer by means of adding knowledge about the surrounding environment. This discipline is usually referred to as Context-Awareness. Every approach use its own definition of context , and though they all agree on using the previous characteristics, not all of them employ the user needs and preferences about the HCI as a source of data on its own. That hinders the possibility of generating personalised UIs. This personalisation is especially important for people with disabilities, as it involves autoactivating Assistive Technologies (AT). A good universal design [1] on the server side plus the correct AT on the client side will allow users to complete those tasks without the intervention of third persons, providing full accessibility in environments that are not owned by the user. On the other hand, other approaches [7][8][9][10] have produced fruitful results when adapting the UI to the user needs, whether in automatic or semi-automatic fashion, Nevertheless, in these cases the adaptation of the UI is so focused on the user needs that is not uncommon to leave the context reduced to the device that the user is employing, so in some cases the user gets an lesser correct adaptation of the UI that if we took into account the environment, e.g.: a user who is partially sighted in a train station purchasing a ticket from a TVM with an auditory UI. The high noise power makes it difficult for the user to hear the menu. Under these circumstances a visual-magnified GUI with high contrast would work better. The present research aims to bridge the gap between these two approaches, employing the context as part of the sources of data to select the most appropriate AT with the appropriate settings that guarantee that the user can interact with the interactive system, taking into account the user needs and preferences, the device the user is employing and the surrounding environment. This paper is organized as follows: section 2 presents the related work, emphasizing the searching of previous architectural proposals coming from the discipline of Context-awareness as well as those coming from the discipline of Preferences-oriented User Interfaces creation. Section 3 shows a novel architecture inspired from both disciplines. Subsections from 3.1 to 3.6 detail design decisions and Section 4 shows the conclusions and the envisioned future work Corresponding Author. 170 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 2. Related Work The research in context-awareness ranges from definitions of concepts to frameworks to applications. This search is focused on the latter, including prototypes. Searching the corpus of context-aware research we can merge Dey's [2] and Zimermann's [5] defintions of context to say that context is “any information that can be used to characterize the situation of an entity. An entity is a person, place, or object that is considered relevant to the interaction between a user and an application, including the user and applications themselves, categories of context are individuality, activity, location, time and relations”. Early Dey's prototypes add context to an office environment [3]; Dey’s prototype was able to detect who was in the building and accordingly send context-aware mail, thus avoiding spurious mail in a mailing list and sending automatically the notes of a meeting and the pictures made in the whiteboard to the attendees of a meeting. The architecture that supports these prototypes is based on Sensors, Widgets, Aggregators and Interpreters: Sensors are the components that measure an analogic quantity and create a signal that can be read by another component. A daily live example is a temperature sensor (I. e.: a thermometer) that can be intended to be read by a human or by another machine (as in air-conditioner systems). advertisements. It shows the special offer for lunch near noon and the dinner options in the late afternoon, or the spectacles for this evening. It also detects the presence of passengers so it changes to a passive mode when nobody is watching. Its narrowcasting mechanism provides value both for the audience and the advertisers. In this case the architecture is more oriented to highlight the Semantic Layer that encapsulates data about the entities (location of the Intelligent Advertisement Board and the train station, time of the day, train schedule...) and the Entity Relationship model that connects them. Sensor layer abstracts the data from sensors in the same way that Dey's architecture did employing widgets. Figure 1. Dey's widget-based architecture As stated in [4], Widgets are mediators between the sensors and the rest of the architecture, and support poll and subscription mechanisms. Aggregators act as gateways between applications and elementary widgets, hiding lowlevel details, and Interpreters receive low-level context information and create higher order context inferences. In other words, they assert complex facts by inferring from simple facts, as an example, reading the GPS widget to know the user is on a train station and reading the microphone widget with a high level of noise, the Interpreter asserts that a train is present at this time. These research applications are intended to demonstrate how context-awareness can be made easy to build, hence not addressing user needs. Zimmermann's Intelligent Advertisement Board [6] consists on a digital signage system installed in e.g.: a train station that thanks to the context-awareness features can display next train departures alongside with time-based 171 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Figure 29. Zimmerman's context management system Control Layer includes the rules to create the User Interface – rules are Precondition-Action style, very similar to the Event Condition Action paradigm, and they are expressed in a declarative language. Actuation Layer is the responsible of executing the UI adaptations in the digital signage board. Nevertheless, the totem is not able to capture relevant information about the user watching the ads, as the language they speak or their personal needs and preferences when using interactive systems. In that case, hardware capable of transmitting both visual and auditory messages exists, but with no mechanism to adapt the content to the current audience. On the other hand, there are projects that address the personalisation of UI based on needs and preferences, such as [7], but in this case neither theenvironment nor the device are not employed as a source of data, so the adaptations are performed under the assumption that the device is under control of the user, not a feasible assumption for public terminals. Some other projects do address the problem of devices, such as [8] where cost functions are used to enhance the UI. The authors define a feature vector that can be optimized according to device capabilities (mobile phone, regular PC...) or personal needs (present all of the options in the same window, use sliders for numerical decisors...) in a cost function. But they don't tackle the part of the context that deals with the environment, namely noise or bad light conditions, so optimisation can be performed on wrong variables in many situations. The INREDIS project [9] aimed to change the approach to the problem of making all the devices accessible into making one device accessible (e.g. a mobile device) and connecting it with every other device in the world. It was firstly based upon the Universal Remote Console [10], and lastly upon web services, and made a reasoning system based on ontologies [11] that adapts the UI taking into consideration the user’s device. This architecture was intended to support multi-device, multi-target interaction, hence the first components of the architecture – UserDevice, InteroperabilityPlatform, TargetDevice- were built to create abstractions of those components. After first steps of the flow, the module called INREDIS Architecture has knowledge enough to trigger a query to the Adaptive Modelling Server, that is the module that keeps the knowledge base content updated. From different sources (application context, heterogeneous sources, user interaction logs, etc.) it creates new instances, concepts and terminological axioms in the knowledge base. The knowledge base stores all the ontologies that collect formal descriptions of the elements in the INREDIS domain (e.g. users, Assistive Software, devices, software requirements, etc.); and its instances. It provides mechanisms for reasoning with and querying all this knowledge, what enables the intelligent behaviour of other modules of the architecture. The Assistive Software (AS) middleware provides ubiquitous access to a set of AS instances. It supports different AS deployment approaches (e.g., downloaded) but it uses a SaaS (Software as a Service) as the main paradigm approach.This component thus achieves on the one hand the provision of AS without prior installation; and on the other it brings the possibility of using AS that might surpass the computational resources capability of the user’s device. Figure 3. INREDIS sequence diagram 172 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Finally, the Interface Generator transforms interfaces expressed in a generic and abstract language into concrete, utilizable and accessible ones. This activity is made in terms of the user characteristics, the device capabilities and the context; and is made possible using the reasoning capabilities that the knowledge base provides. This approach also lacked of a complete way to adapt the UI under inconvenient environment conditions. Context-aware projects are more prone to trigger actions -such as sending an email or recording audio- automatically, while projects addressing Adaptation to needs and preferences usually perform only changes to the UI. Overviewing projects from both disciplines, we can say that in terms of the classic Five Ws from journalism, in Contextaware projects the 'when' and the 'where' act as a 'why' to decide the 'what', while the user needs and preferences proposals have the 'who' as a 'why' to decide the 'how'. An on-going project proposes a promising solution to solve both problems: the SERENOA project [12] tackles both context-awareness and adaptations to people with disabilities. Their proposal [13] employs Service Front-ends as the controllers to access many services in the cloud. A future extension of this concept to real-world devices could be extremely useful to enhance device personalisation. Currently, their CARFO ontology deals with context, and they take advantage of designing UIs using a modelling language to have deeper ontological reasoning, with interface abstractions and reifications [14] but it is not oriented towards every device in users' daily lives. SERENOA can be extremely useful for web applications but the extension to any technology seems also necessary. At this point the CLOUD4all approach [15], focused on taking advantage of embedded ATs, complements the efforts to improve universal personalisation in any device. The current architecture flow goes as follows: the system. The Flow Manager then asks to the Preferences Server for the set of preferences belonging to the user, and then to the Reporters (both Device and Environment) about the current conditions the user is operating within (light, noise, precise data about the size of the screen...) in order to send all of them to one of the Matchmakers. The Matchmaker module will then decide what combination of Solution (namely an Assistive Technology) and configuration is to be provided to the User Device, and the Lifecycle Manager actually configures these on the device, employing a module to start and stop solutions (the lifecycle handler) and another one to configure the decided solution (the setting handler). The present research extends this concepts to provide an alternate flow that lets the environment to be the trigger of all the previous events. 3. Context-Centred Architecture In order to implement Context-Aware capabilities in CLOUD4All, several modules for context acquisition and aggregation have been added to the CLOUD4all architecture. For instance, it was observed that many changes in the environment do not need an action to be taken by the Matchmaker, so some other modules were created to tackle this adaption internally in the same user device, for the case of smartphones that are able to store part of the modules inside themselves Internally our approach is an event-driven architecture, where the central module, FLOW MANAGER is the responsible to manage and redirect all events. The following section presents a short description of the different components of CLOUD4all architecture for Android devices. Figure 19 depicts a quick overview of the adaptation of the Cloud4all architecture for Android smartphones to Context-Awareness. 3.1 User Listener: The User Listener is responsible for detecting user patterns activity to initialize the auto-configuration process. The methods though it can launch the initialize event could be NFC, QR or a specific device gesture. Figure 4. CLOUD4all/GPII architecture The user takes an action to let the system know than he/she desires to adapt the device to his/her personal needs and preferences. Usually this action is approaching an NFC card to the device, but other mechanisms such as plugging a USB stick in a USB port are allowed (and abstracted to the rest of the architecture thanks to the User Listener module) to communicate to the Flow Manager that the user is now in 173 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos .getMethod("getDefault", new Class[0]) .invoke(null, new Object[0]); //obtain the Class Activity ManagerNative and invoke the Method getDefault to obtain an instance of ActivityManagerProxy Class localClass = localObject1.getClass(); //cast from Objet to java Class Configuration localConfiguration = (Configuration) localClass.getMethod("getConfiguration", new Class[0]).invoke(localObject1, new Object[0]); //invoke the method getConfiguration to obtain the Configuration localConfiguration.fontScale = scale; //Change de fontScale Field Figure 5. CLOUD4all architecture for Android smartphones 3.2 Handlers: 3.3 Flow Manager: The Handlers are responsible for configuring the settings of applications, input methods and other components in the Android Mobile environment. There is a special Handler responsible for adapting OS feature, the SystemSettingHandler. The SystemSettingHandler is a single module that comprises different apps. This is because some parameters need special permissions for modification. Also, different Android versions require different access methods for special parameters. Different methods for configuring system settings have been implemented in this module: Android Settings API: It is the common way to modify the configuration of the system. There are two classes of Settings: Secure Settings and System settings. The main difference between the two classes is that the former requires system application permissions to modify it. Invoke System Service: Some events in Android are managed by a System Service, so it is necessary to invoke them and to execute some specific methods to modify some features. In CLOUD4all,his techniquehas been used to modify different system volumes such as music volume or notification volume. Overwrite files in partition “system”: Some system files, such as font files or system sounds require special access permissions. Root permissions are required to overwrite these protected files, applying the changes instantly. Modify special fields in Native Android OS class: This is a special way to apply configuration. This technique has been implemented in this module in order to modify the font scale. For this purpose, it the native Java invocation was used to get an instance of ActivityManagerNative [1], and then modify the fontScale value in Configuration field. the following code is implemented in this module to modify the font scale: Android module: Flow manager is responsible for working as orchestrator. It receives events for the others modules, manages the variables and launches the others modules. Core Architecture module: This module is responsible for working as asynchronous workflow orchestrator. However, the Flow manager integration with Android devices needs to include a communication interface. Object localObject1 = Class.forName("android.app.ActivityManagerNative") 3.4 Communication between Core Architecture and Android Architecture: It is important to communicate both architectures. Usually, the Android modules send a request to to the Core modules. For this purpose, it has been decided to implement a REST interface on remote Flow Manager. REST emphasizes scalability of component interactions, generality of interfaces, independent deployment of components, and intermediary components to reduce interaction latency, enforce security, and encapsulate legacy systems [20]. If the Architecture Core wants to send information to the Android modules without a prior request, a possible solution could be the implementation of a polling system [21]. This is more efficient than a constant open connection, although it has one drawback that may be important: the information should be received immediately by the Android device, either way the event generated by the Architecture Core would not be notified to the device until the next request. Since Android 2.2 (FROYO), it is possible to implement push notifications. The Google Cloud Messaging (GCM) client receives push notifications from a GCM server. The Android app just needs to register to read these notifications. Thus, the server can send information without having to consult the server periodically to check if there are new features and without having to maintain a permanently open connection [22]. 174 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 3.5 Communication Interface on Android Device: The Orchestrator performs the functions of the Local Flow Manager and the Lifecycle manager. It is the responsible for the flow of events. it is being implemented following a declarative programming approach so it will be possible to add future events just by modifying an xml file where the processes are defined. The orchestrator has three important parts: Flow Persistence: Each event has one or more processes. mechanism mechanism should be provided to store this information. Invocation mechanism: Identify the destiny of one event and prepare the parameters to launch the event. Variable transformer and Session persistence: This module has some functions that hold the logic inside the orchestrator. The modules and the orchestrator communicate through Broadcast Intents. Each intent performs a specific action; the action is defined by the event destiny, so each module should implement a BroadcastReceiver with an IntentFilter with the custom Action which define it [23] MiniMatchmaker (https://github.com/JChaconTechnosite/Cloud4ALLMiniMatchMaker) (MMM): in order to save network resources and cloud computing time, it receives the data from ER and only sends them to a matchmaker (MM), a component with full memory and computation resources thanks to cloud scalability that is able to recommend both the Assistive Software and its configuration in order to create an UI adjusted to the user’s needs and preferences if the (http://wiki.gpii.net/index.php/Matchmaking) difference between the last sent value and the current is greater than a certain threshold. It also defines the sampling periods for the ER with and without noise. If the source of interference still sends the noise it is treated as stationary and the period is stretched again. In addition, to achieve transfer the necessary information, an intent in this architecture should have three extras: “idEvent”: It is and integer, each event should be associate an unique identifier. “idAction”: It is an integer generated dynamically and define the set request-response from the Orchestrator to another module. “Params”: it is a string, which have JSON format. This JSON provide the object transfer between different processes. 3.6 Reporters EnvironmentReporter (https://github.com/JChaconTechnosite/Cloud4ALLEnviromental-reporter) (ER): checks the sensors of the mobile device and sends these data in a format understandable by the rest of the components. DeviceReporter (https://github.com/JChaconTechnosite/Cloud4All-Devicereporter)(DR): checks the capabilities of the device as well as the values of configurable parameters of the device. The static values are checked just once and stored on the memory card. The current sensors employed are luminance (dedicated) and acoustic noise (from the microphone). The current capabilities employed for the decision are the size of the screen and the values of brightness and contrast, while the DR sends them all. Our inspiration and future linkage is the CLOUD4all project where the aforementioned Matchmaker concept is explained thoroughly, both the rule based and the statistical based versions. Our version is a naïve approach integrated into the MMM that recommends the change in visual/auditory frontier without applying cloud computing. The lab tests had the following setup: 1) two separate devices were held by the user’s assistant, one configured with a visual-magnified UI and the other one with an auditory UI. 2) the auditory one was given to the user, and he starts an interaction to get a trip ticket from the UI. 3) the observer switches on a music player with loud volume; when the MMM receives this noise, it produces a speech “switching to visual UI”. 4) the assistant switches the mobile with the user, and the user ends the ticket purchase. The test comprised a generic concept validation questionnaire and specific questions about the perceived usefulness of the solution and the level of satisfaction of the user. One of our main concerns is to make sure that the adaptation capabilities of the system developed does not conflict with Nielsen’s first usability heuristic (the user has to be always in control of the interaction), specific questions were asked regarding this issue. One out of three expressed their concern that the system autoadapting without their permission may be annoying, and that changes in the UI should be configured by users. Nevertheless, three users considered the autoadaptation capabilities as useful (mean 4 in a 5-point Likert scale) and considered that, if they can configure the adaptations they may use it in the long term (mean 3,67 in a 5-point Likert scale). 4. Conclusions Work and Future Whilst the motivation of this research is the CLOUD4all Project, we strongly believe that these components fit on every software system dealing with improving the selection of the UI thanks to information coming from sensors. When we connect the testbed to the real CLOUD4all architecture, more advanced adaptation can be performed in order to show the potential impact on the explained techniques in everyday life tasks, and we will have conditional settings based on environment, delivered from the MM and stored in the MMM, and will improve the UI for changes in the environment that don't cross a frontier, as they express rules to react to environment e.g.: when noise power raises by 10% increase speakers volume by 5%. The evaluation steps have been modestly tackled hence future work will include designing and executing a comprehensive evaluation with real users, including selecting the best candidates to test the software, assigning them tasks to be able to measure the fitness of the system’s first choice on UI, and creating an scenario where the environment changes its conditions at a given moment, e.g. creating a source of noise in an auditory 175 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos UI. The system will success if the sudden change of environmental conditions does not hinder the user’s ability to finish the assigned tasks. As an ongoing work some of the authors are involved in the creation of a Context-Aware Server that allows us to have motes as a source of data, hence adding context information without modifying the hardware of the device the user is employing. A problem still not tackled is to deal with complex multimodal interfaces. Currently multimodality is assumed to happen as one channel auxiliary to another, but we don't have a solution to recommend a hop from a region to another when the starting region had two channels and the ending region just one. Finally, CLOUD4all shares interest in contextawareness with the SERENOA project, so as long as the CARFO module is delivered some adaptations will be made. From the studied approaches we can affirm that the inclusion of context-awareness improves the selection of the best UI for a given interaction. At least in the coarse grain the test are promising when switching between access modes, and the nature of ongoing work permits to evolve this concept into a more fine-grained to address the preferences inside the same access mode region. Acknowledgements Results presented in this paper have been researched within the Cloud4all project. Cloud4all is an R&D project that receives funding from the European Commission under the Seventh Framework Programme (FP7/2007-2013) under grant agreement n° 289016. Thanks to Guillem Serra from Barcelona Digital for his on-going work on implementing the Context Aware Server and for all of the feedback he is providing to the current CAS design. References [1] Stephanidis, C., Designing for All in Ambient Intelligence [2] [3] [4] [5] Environments: The Interplay of User, Context, and Technology, INTL. JOURNAL OF HUMAN-COMPUTER INTERACTION, 25 (2009), 441-454 Dey, A.K., Understanding and Using Context, Personal and Ubiquitous Computing 5 (2001), 4–7. Dey, A.K., Abowd, G.D., Salber, D., A Conceptual Framework and a Toolkit for Supporting the Rapid Prototyping of Context-Aware Applications, Journal Human Computer Interaction 16 (2001), 97-166 Dey, A. K., & Abowd, G. D. (2000, June). The context toolkit: Aiding the development of context-aware applications. In Workshop on Software Engineering for wearable and pervasive computing (pp. 431-441). Zimmermann, A., Lorenz, A., Opperman, R., An operational definition of context, IN:CONTEXT (2007) [6] Zimmermann, A., Lorenz, A., Specht, M., Applications of a Context-Management System, Modeling and Using Context (2005), 556-569 [7] Karim, S., Tjoa, A.M., Towards the Use of Ontologies for Improving User Interaction for People with Special Needs, International Conference Computers Helping People with Special Needs, LNCS 4061 (2006), 77-84 [8] Gajos, K.Z., Weld, D.S., Wobbrock, J.O., Automatically Generating Personalized User Interfaces with SUPPLE, Artificial Intelligence 174 (2010), 910-950 [9] INREDIS. Project website. http://wiki.inredis.es. [10] ISO/IEC 24752-3:2008. Information technology – User interfaces – Universal remote console – Part 3: Presentation template (2008) [11] Iglesias, A., Linaje, M., Preciado, J.C., Sánchez, F.,Gómez, E.,González, R., Martínez, J.A., A Context-Aware Semantic Approach for the Effective Selection of an Assistive Software. In: Proceedings of IV International Symposium of Ubiquitous Computing and Ambient Intelligence (2010), 5160. [12] SERENOA. Project website. http://www.serenoa-fp7.eu [13] Caminero, J., Rodríguez, M.C., Vanderdonckt, J., Paternò, F., Rett, J., Raggett, D., Comeliau, J.-L., Marín, I., The SERENOA Project: Multidimensional Context-Aware Adaptation of Service Front-Ends, In: Proceedings of the Eight International Conference on Language Resources and Evaluation (2012) [14] Calvary, G., Coutaz, J., Thevenin, D., Bouillon, L., Florins, M., Limbourg, Q., Souchon, N., Vanderdonckt, J., Maruccy, L., Paternò, L., Santoro, C., The CAMELEON Reference Framework, CAMELEON Project (2002) [15] CLOUD4all. Project website: http://cloud4all.info [16] Shannon, C.E., A mathematical theory of communication. The Bell System Technical Journal, 27 (1948), 379-423, 623656 [17] ISO/IEC 24751-2:2008. Information technology – Individualized adaptability and accessibility in e-learning, education and training – Part 2: “Access for all” personal needs and preferences for digital delivery [18] Android code Git repository, ActivityManagerNative.java, [19] https://android.googlesource.com/platform/frameworks/base/ +/742a67127366c376fdf188ff99ba30b27d3bf90c/core/java/a ndroid/app/ActivityManagerNative.java [20] Fielding, Roy Thomas. Architectural Styles and the Design of Network-based Software Architectures. University of California, Irvine, 2000. [21] W3C. Web Services Polling (WS-Polling). Overview, http://www.w3.org/Submission/ws-polling/ [22] Google Cloud Messaging Documentation. Overview. http://developer.android.com/google/gcm/index.html [23] Intents and Intent Filterhttp://developer.android.com/guide/components/intentsfilters.html#ifs 176 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Comportamiento de un sistema activo de soporte y estabilización de marcha en procesos de rehabilitación Eloy Urendes, Ramón Ceres, José L. Pons, Magdo Bortole Grupo de Bioingeniería. Centro de Automática y Robótica-CSIC [email protected] [email protected] [email protected] [email protected] Resumen Este trabajo se enmarca en el proyecto HYBRID, que contempla el uso de un e xoesqueleto en combinación con una estructura externa ambulatoria y activa, con tracción eléctrica, REMOVI, que soporta y e stabiliza al usuario mediante un arnés. El sistema completo se destina al desarrollo de ejercicios de rehabilitación de ciertos lesionados medulares y otras patologías que presentan problemas graves de movilidad. En este sentido se presenta en este trabajo la mencionada estructura y los resultados obtenidos en pruebas reales con sujetos sanos que muestran los problemas y las soluciones de coordinación de marcha entre usuario y estructura. Abstract This work is part of the HYBRID project, which considers the use of a r obotic exoskeleton integrated with an external ambulatory and active structure with electric traction, REMOVI, which provides support and stabilization to the user through a harness. This system is employed to develop rehabilitation exercises for patients with spinal cord injury--or other pathologies--who present serious mobility problems. This article presents the definition of the HYBRID system and t he results obtained in experiments with healthy subjects, which indicate the problems and solutions for gait coordination between user motion and structure. 1. Introducción La rehabilitación de marcha se plantea en muchas patologías que afectan ya sea directamente a las extremidades inferiores por debilidad muscular o problemas oseoarticulares o bien a la generación de los patrones de marcha por causas neurológicas diversas del sistema nervioso central o periférico [1]. En el caso de lesionados medulares tiene interés especial desde el punto de vista de la rehabilitación los casos de lesión medular incompleta en los que se centra el trabajo que se presenta. El entrenamiento de marcha ha jugado un papel importante en los procesos de rehabilitación, utilizando para ello los terapeutas muy diferentes tipos de dispositivos. Así, se han usado desde los más elementales tales como las muletas, el doble bastón y las barras paralelas a otros ambulatorios y estables como los andadores, grúas y arcos de suspensión. Más recientemente se han desarrollado los llamados entrenadores de marcha, muchos de ellos con desplazamiento por motores eléctricos pudiendo incluir elementos de mantenimiento del cuerpo del sujeto. Los sistemas más simples de apoyo a la marcha y los andadores tradicionales han supuesto elementos auxiliares esencialmente de estabilización basándose fundamentalmente en el uso complementario del apoyo de las extremidades superiores. Dentro de este grupo, cabe una mención especial el desarrollo de andadores instrumentados (Smart Walkers), Figura 1, que asisten al usuario dependiendo de sus necesidades con la finalidad de mantener una marcha natural [2]. Figura 1. a) andador convencional, b) andador avanzado SIMBIOSIS Más tarde han surgido otros tipos de estructuras estables con posibilidad de suspensión parcial del sujeto, sin requerir en principio el uso de sus brazos y manos. Dentro de estas existen incluso en el mercado toda una serie de variantes. Por una parte figuran las de soporte en pórtico que pueden ser de tipo estático, permitiendo desarrollar los ciclos de marcha sobre cintas rodantes, por otra parte se disponen de estructuras rodantes que acompañan al usuario en su marcha. Tanto unas como otras han sido objeto de investigaciones habiendo dado lugar a sistemas avanzados de tipo activo que incluyen una serie de instrumentaciones. 177 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Dentro del primer tipo de estructuras estáticas se puede destacar el LOKOMAT [3], Figura 2 a), que es un sistema relativamente extendido y que se compone básicamente de un pórtico superior de suspensión graduable, de una cinta rodante y en sincronización con esta una doble ortésis activa de tres articulaciones de los miembros inferiores. En el segundo grupo de estructuras, destaca el sistema WalkTrainer [4], Figura 2 b) que está compuesto por un exoesqueleto bilateral que controla las articulaciones de cadera, rodilla y tobillo, y permite el movimiento de pelvis con seis grados de libertad. El exoesqueleto se combina con la utilización de FES en los miembros inferiores y con una estructura rodante motorizada que permite suspender al usuario vestido con el exoesqueleto a través de un arnés y deambular en el suelo, sin necesidad de cinta rodante. Este proyecto trata principalmente de estudiar, definir e implementar un nuevo sistema de rehabilitación y compensación de marcha para personas con lesión medular de diferentes etiologías que combine el uso de exoesqueletos y neuroprótesis usando al mismo tiempo sistemas externos de apoyo o de estabilización activa de la marcha. Así, se pretende recuperar capacidades funcionales induciendo al usuario a la ejecución de patrones de marcha promoviendo artificialmente los movimientos de las articulaciones fundamentalmente en las extremidades inferiores con las activaciones musculares correspondientes. Esto se consigue mediante la ortésis bilateral activa en sus tres dobles articulaciones, lo que constituye el neurorobot o exoesqueleto. Por otra parte se trata de disponer de un medio de soporte del sujeto durante la marcha mediante una estructura externa móvil y estable que proporcione al usuario confort y especialmente seguridad en el proceso de marcha autónoma asistida. 2.1. Exoesqueleto CSIC . Figura 2. a) Estructura estática activa de rehabilitación Lokomat b) Estructura rodante de suspensión WalkTrainer Otros sistemas de rehabilitación como GaitTrainer o HapticWalker [5] emplean también marcos de suspensión pero que en lugar de utilizar cintas rodantes o marcha sobre el suelo, se emplean plataformas mecánicas que describen un patrón de marcha, que es impuesto al usuario fijando sus pies a dichas plataformas. Estas plataformas permiten describir distintas trayectorias, simular subida de escaleras, subir pendientes u otras actividades de la vida cotidiana. Otro sistema de rehabilitación como el KineAssit [6] se centra específicamente en el control postural y estabilización de la marcha. Este sistema a través de unos brazos elevadores permite suspender al usuario desde la pelvis y tronco. Se caracteriza porque aplica fuerza en dirección contraria a la marcha para entrenar la musculatura del usuario. Como se ha podido observar el desarrollo de sistemas de entrenamiento de marcha es un campo intenso de investigación, que está actualmente en auge. A continuación, se presenta el sistema de entrenamiento que está siendo desarrollado por el grupo de Bioingeniería del CSIC. 2. Marco de trabajo El presente trabajo se desarrolla actualmente en el seno del proyecto coordinado DPI2011-28160 del Plan Nacional HYBRID, Hybrid Technological Platform for Rehabilitation, Functional Compensation and Training of Gait in Spinal Cord Injury (SCI) Patients. El exoesqueleto, Figura 3, ha sido desarrollado igualmente por el Grupo de Bioingeniería en base a trabajos anteriores [7, 8, 9] habiendo sido objeto de rediseño tanto de la estructura como de sus elementos activos siendo así adaptado a las especificaciones del proyecto. Básicamente se compone de una ortésis derecha y otra izquierda unidas en su parte superior por la cadera. Cada una incluye tres motores DC sin escobillas para cada una de las articulaciones de cada pierna (tobillo, rodilla y cadera) con sus correspondientes sensores de posición angular. La unidad electrónica de medida y control del exosqueleto podrá almacenar las pautas de marcha para controlar posteriormente en tiempo real cada uno de los motores mediante este modelo de marcha. Figura 3. Exoesqueleto bilateral 2.2. La estructura ambulatoria externa. Tal como se ha indicado en el primer apartado, en los ejercicios de entrenamiento de marcha la introducción de elementos externos de apoyo ha supuesto una serie de mejoras considerables tanto para el usuario como para el terapeuta al exigirle a este un menor esfuerzo y dedicación. 178 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Por una parte y en los primeros estadios del proceso se busca la repetición de los movimientos elementales de los segmentos propios de la marcha en las extremidades inferiores realizando así una estimulación neuromotora en base a la regeneración de los reflejos correspondiente. Siendo estos ejercicios adecuados, sin embargo es preciso completarlos con otros ejercicios funcionales orientados a la tarea, en este caso, la marcha, ya que involucra toda una serie de interacciones musculares, articulares y sensitivas que no solo importan a las extremidades inferiores sino prácticamente a toda la biomecánica humana. Así esta fase debe comprender ejercicios de marcha lo más reales posibles, en el sentido no solo de activar los movimientos de los elementos anatómicos involucrados sino también realizando las funciones asociadas a la marcha como son el sostenimiento estático y dinámico corporal y los movimientos asociados de tronco y extremidades superiores. Si bien estas tareas se pueden llevar a cabo en una cinta rodante, como en otros trabajos, en este se ha tomado la opción de desarrollar la marcha sobre el suelo de forma que se realice un desplazamiento real del sujeto. Esta variante permite un mayor grado de libertad del sujeto pudiendo abordar aspectos biomecánicos de gran interés en la marcha tales como el control de giros y de aceleración y deceleración por parte del usuario y el comportamiento ante suelos irregulares, con mayor o menor fricción o con presencia de obstáculos y pendientes ascendentes y descendientes, entre otros. La estructura REMOVI [10] que se ha desarrollado está constituida básicamente por una base de sustentación rodante que incluye dos ruedas tractoras delanteras con sendos motores DC y dos ruedas traseras libres. Una columna central soporta el sistema de suspensión formado por dos brazos giratorios accionados mediante un motor lineal DC, tal como se puede ver en la figura adjunta. Figura 4. Estructura REMOVI Esta plataforma realizará en primer lugar las funciones de elevación y transferencia del usuario desde la silla de ruedas a esta estructura y posteriormente realizará, en principio sin ayuda de brazos ni manos, la función esencial de soportar y estabilizar al usuario durante la marcha desde un plano superior y con la ayuda de un arnés de suspensión en la medida que requiera de acuerdo al estado de progreso de la rehabilitación. Para graduar el nivel de suspensión, actuando sobre el motor de elevación, e igualmente para realizar el análisis de las diferentes componentes de fuerzas se han instalado sendos sensores 3D de fuerzas en los puntos de suspensión de los brazos de elevación. El conjunto de motores está controlado por una arquitectura electrónica desarrollada alrededor de un PC-104, que incluye igualmente un módulo de adquisición de las señales de fuerza. Finalmente, el sistema incorpora una unidad de ultrasonidos ubicada en la columna central para medir la distancia de separación entre la estructura REMOVI y el usuario. 3. Metodología En este trabajo, se presenta un primer estudio para evaluar la interacción que se produce entre la estructura y el usuario en términos de coordinación en diferentes modos de operación. El objetivo es identificar cambios en las fuerzas tanto de suspensión, avance y lateralidad; así como en la distancia de separación entre el usuario y la estructura REMOVI ante distintas velocidades de marcha con y sin agarre del usuario a la estructura. Para la identificación de las fuerzas de interacción del usuario, se dispone de un sensor de fuerzas 3D ubicado en las barras de elevación de la estructura desde el que el usuario se suspende. Es necesario traducir las fuerzas medidas por el sensor (Fx, Fy, Fz ) en las fuerzas de interés (avance, lateral, peso). El rango de medida para las componentes Fx, Fy Fz del sensor es de 100kg. Para ello, se ha integrado un sensor angular en las barras de elevación para obtener el ángulo de inclinación de dichas barras (α). Siendo θ la relación angular entre la fuerza de suspensión ejercida por el usuario (Fr, módulo de las tres componentes del sensor) y la componente Fz del sensor, es posible la descomposición de la fuerza Fr en sus tres componentes: fuerza de avance, fuerza lateral y fuerza peso, así como el ángulo de inclinación del usuario respecto a la horizontal (σ), tal y como se muestra en la Figura 5. Figura 5. Relación vectorial entre la fuerza ejercida por el usuario y la fuerza detectada por los sensores. 179 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Para la suspensión parcial de peso del usuario se emplea un motor lineal con un controlador PID (proporcionalintegral-derivativo) con parámetros de entrada el peso del usuario y el nivel de descarga que se quiere realizar. El sistema se encarga de suspender al usuario según el nivel de descarga indicado. El control de velocidad de la estructura REMOVI se realiza acoplando encoders en los motores tractores y un controlador PID (proporcional-integral-derivativo). En este experimento, se ha suspendido a un usuario sano de 1.85m y de 90kg desde posición de bipedestación con una descarga del 30% y se le ha solicitado que camine en línea recta en un pasillo de 6 metros nivelado. En este contexto, se han realizado dos tipos de ejercicios: i) la estructura REMOVI establece una velocidad fija y el usuario debe seguir al sistema, ii) el usuario empuja el sistema REMOVI libre de los motores tractores. La suspensión de carga se realiza al comienzo de cada ejercicio, y una vez alcanzado el 30% no se realiza ningún ajuste de peso durante la ejecución del mismo. Para el supuesto caso i) se ha establecido una velocidad de 0.1ms/s, 0.2m/s y 0.3m/s. En los casos ii) y iii) se ha solicitado al usuario que marche de manera natural con una velocidad arbitraria que suponga una marcha lenta y una rápida. 4. Resultados En primer ejercicio, se han cuantificado las fuerzas peso, avance y lateral durante la marcha a distintas velocidades fijadas por el sistema REMOVI, con y sin agarre manual a la estructura. En la Figura 6 a), se puede observar la señal peso correspondiente a la descarga del usuario en kg. Se puede observar que presenta picos de máxima descarga de 32kg, y de mínimo de 20kg. Estas fluctuaciones en torno al peso de descarga 27kg, son normales y son debidas al propio ciclo de marcha del usuario, que al caminar tira del sensor produciendo estas oscilaciones. Figura 6. Marcha con velocidad fija: a) Oscilación de la señal peso durante la marcha b) Medidas de las fuerzas de peso a distinta velocidad con/sin agarre a la estructura En la Figura 6b, se puede observar que existe una convergencia en las medias de las fuerzas peso en todas las pruebas realizadas con independencia de la velocidad seleccionada o si el usuario se agarra a la estructura. De este modo, el sistema de descarga de peso funciona correctamente manteniendo al usuario descargado de media el 30% de su cuerpo. En la Figura 7, se presenta las medias de la señal de fuerza avance (a) y fuerza lateral (b). Se puede observar del mismo modo que existe una convergencia en torno a un valor de descarga, que es mayor en el caso de la fuerza lateral, ya que en la componente lateral se produce el efecto de tiro de sensor y giro en cada paso. 180 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Figura 8. Marcha con velocidad fija: Media de la distancia de separación usuario-REMOVI con velocidad fija En el segundo ejercicio, se ha querido evaluar el impacto en la señal fuerza y distancia cuando el usuario camina de manera natural si condicionarle su marcha en términos de velocidad. En este caso, el usuario agarra y empuja el dispositivo con sus manos. Se puede observar en la Figura 9, cómo sigue existiendo esa convergencia a un nivel de descarga. Sin embargo, no es el nivel de descarga impuesto del 30%. Figura 7. Marcha con velocidad fija: a) Medias de la fuerza de avance del sensor izquierdo b) Medidas de las fuerzas de lateral del sensor izquierdo Uno de los aspectos fundamentales en el diseño de la estructura REMOVI fue el cálculo de una distancia de seguridad entre el usuario y el REMOVI, que permitiera al usuario caminar de una manera confortable y segura. En la Figura 8, se puede observar la media de la distancia de separación registrada con el sensor de ultrasonidos para cada una de las pruebas. Se puede observar que la distancia de separación converge en torno a los 23cm con independencia de tipo de prueba realizada. En la adquisición de la señal de ultrasonidos no se han encontrado problemas de reflexiones con el arnés ni ruidos. La distancia de separación es óptima permitiendo caminar de manera segura, y teniendo un área libre suficiente para asegurar el paso. Figura 9. Con marcha libre: Media de la distancia de separación usuario-REMOVI A diferencia del ejercicio anterior, el usuario tiene que empujar el dispositivo en lugar de simplemente agarrarlo. Al realizar este fuerzo se aplica una descarga de su peso sobre las barras en torno al 5.5% de su peso. En relación a la distancia de separación, Figura 10, se sigue mantiene la convergencia observada en el primer ejercicio en torno a un valor; en este caso en 26cm. Sin embargo, cambia el valor ha cambiado siendo el mismo usuario y con la misma posición de agarre a la estructura. La razón se encuentra en para que este ejercicio se decidió ajustar los tirantes del arnés, para ver el impacto en la distancia de seguimiento y su posición inicial. 181 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Agradecimientos Se desea expresar el reconocimiento de los autores al Plan Nacional por el soporte recibido para el desarrollo del proyecto coordinado DPI2011-28160, HYBRID. Así mismo, se agradece a los investigadores y las entidades colaboradoras del citado proyecto, el INEF de la UPM y la Unidad de Biomecánica y Asistencia Técnica del Hospital de Parapléjicos de Toledo. Referencias Figura 10. Con marcha libre: Media de la distancia de separación usuario-REMOVI Existe una gran variabilidad en términos de talla del arnés, longitud de tirantes, ubicación del sensor que influye en la posición relativa entre usuario y REMOVI. Sin embargo, en el caso no favorable de usuarios altos, se ha visto que existe una variabilidad que permite alterar la distancia de separación aumentado así el espacio hábil de marcha y asegurando siempre una marcha segura. 5. Conclusiones Se ha comprobado que la media de las señales fuerza peso convergen al nivel de descarga seleccionado con independencia de la velocidad y del agarre, por lo que se puede asegurar que el soporte de descarga que se ofrece al usuario es correcto. Sin embargo, se producen oscilaciones cíclicas en la señal peso debido a la propia naturaleza oscilatoria de la marcha. En un próximo estudio, se abordará la relación entre estas oscilaciones con un ciclo de marcha. En el caso, de plantear terapias donde el usuario empuje del dispositivo según sus necesidades, habrá que evaluar la descarga de peso que se libera sobre la estructura para asegurar siempre los mismos niveles de descarga independiente de la fuerza con la que se empuje el dispositivo. Se ha registrado correctamente la distancia de separación sin problemas de ruido ni de reflexiones, y esta distancia ha sido constante durante las pruebas. Por ello, se plantea utilizar esta distancia de separación para realizar un subsistema de seguimiento entre REMOVI y exoesqueleto que permita sincronizarlos. De este modo, cuando se aceleren los motores del exoesqueleto para acelerar la marcha del usuario, lo hagan los motores tractores del REMOVI de manera segura, cómoda y transparente para el usuario. En futuros trabajos, una vez validado el sistema propuesto con sujetos sanos, se procederá a analizar el comportamiento entre sistema-usuario y la marcha para sujetos con lesión medular. [1] Hillman, M. “Rehabilitation robotics from past to present: A historical perspective”. Advances in Rehabilitation Robotics. Lecture Notes in Control and Information Science, Volume 306, 2004, pp 25-44 [2] Frizera, R. Ceres, J.L. Pons, A. Abellanas, R. Raya. “The smart walkers as geriatric assistive device. the simbiosis purpose”. Proceedings of the 6th International Conference of the International Society for Gerontechnology, 2008. [3] M. Frey, G. Colombo, M. Vaglio, R. Bucher, M. Jorg and R. Riener, “A Novel Mechatronic Body Weight Support System.” IEE Trans. On Rehabilitation Engineering, 2006, 14 (3), pp 311321 [4] Bouri M, Stauffer Y, Schmitt et al. R “The WalkTrainer: A Robotic System for Walking Rehabilitation” IEEE International Conference on Robotics and Biomimetics. ROBIO '06. [5] M. Schmidt, C. Werner, R. Bernhardt, S. Hesse J. Krüger, “Gait rehabilitation machines based on programmable footplates.” Journal of NeuroEngineering and Rehabilitation, 2007, vol. 4:2 pp. 1-7 [6] M. Peshkin, D. A. Brown, J.J. Santos-Munne, A. Makhlin, E. Lewis, K. E. Colgate, J. Patton D. Schwandt, “KineAssit: A Robotic Overground Gait and Balance Training Device.” Proc. Of the 9th International Conference on Rehabilitation Robotics (ICORR), 2005, vol 28, pp.241-246 [7] J.C. Moreno, F. Brunetti, E. Navarro, A.Forner-Cordero, J.L. Pons “Analysis of the Human Interaction in the design of a Wearable Lower-Limb Exoesqueleton” Applied Bionics and Biomechanics. ISSN: 1754-2103.6.2. 245 2009 [8] A. J. del Ama, J.C. Moreno, A. Gil-Agudo, A. De-los- Reyes, J.L. Pons. “Online Assessment of Human-Robot Interaction for Hybrid Control of walking sensors”. Doi:10.2290/s120100215.12.1.215-225 2012 [9] Magdo Bortole, José Luis Pons, Eloy Urendes “Integración de una plataforma híbrida para rehabilitación y compensación funcional de la marcha”. XXXIII Jornadas de Automática de Vigo. España. 2012. [10] - Eloy Urendes, Ramón Ceres, Leopoldo Calderón, Rafael Raya, Manuel Aleixandre. "Nuevo sistema de entrenamiento de marcha". XXXII Jornadas de Automática. Sevilla, España, Septiembre 2011. 182 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos SOFTCARE: Wearable, Unobtrusive and Plug&Play Device for Automatic Fall Detection and Activity Assessment Xavier Contijoch Culleré Centre de Recerca i Innovació de Catalunya (CRIC) [email protected] Abstract A significant factor in the impact of falls on the affected person is the amount of time they remain without help if they cannot recover by themselves. Fall detectors are the most appropriate devices to minimize that factor. The presented work is part of the SOFTCARE project developed under the Ambient Assisted Living (AAL) joint program aiming to give an answer to falls while accomplishing the requirements of all the actors involved in the deployment, maintenance and use of telecare platforms. Artificial intelligence techniques to automatically detect falls are integrated in a P lug&Play, non–intrusive and e asy-to-use system consisting in a s mall bracelet, several static nodes and a gateway. Additionally, the system is able to recognize certain activities of daily living (ADL), distinguish levels of activity intensity and l ocate the user at home. When any hazardous situation is detected, an e mergency protocol is activated to take proper contingency actions. Resumen El tiempo que las personas afectadas por una caída permanecen sin ayuda tiene un gr an impacto en las consecuencias que conlleva dicha caída. Los detectores de caídas pueden minimizar este impacto. El trabajo aquí presentado forma parte del proyecto SOFTCARE desarrollado bajo el programa Ambient Assisted Living (AAL) joint program y pretende dar una respuesta a l as caídas al mismo tiempo que satisfacer los requerimientos de todos los actores involucrados en el despliegue, mantenimiento y uso de las plataformas para el telecuidado. Técnicas de inteligencia artificial para detectar automáticamente las caídas se integran en un sistema Plug&Play, no intrusivo y fácil de usar que consiste en un brazalete, varios nodos estáticos y un Gateway. Como característica adicional, el sistema es capaz de reconocer ciertas actividades del día a día (ADL), discernir entre distintos niveles de actividad y localizar el usuario en casa. Si alguna situación potencialmente peligrosa es detectada, se activa el protocolo de emergencia para tomar las acciones de contención pertinentes. 1. Introduction Albert Rodriguez Pastor Centre de Recerca i Innovació de Catalunya (CRIC) [email protected] The proportion of Europeans aged 65 years and older will grow from about 18% in 2010 to 24% in 2030 [1]. At the same time, life expectancy is increasing every year with a projected growth of 3 years for males and 2.6 years for females by 2020 [2]. One debating point are falls as affecting one out of two people over the age of 80 each year and one out of three people of over 65, being the foremost cause of injury related deaths [3]. The most dangerous consequence of suffering a fall is the ‘long lie’, defined as the involuntarily remaining on the ground for an hour or more following a fall, due to disorientation or temporarily lack of consciousness. It has been found that most of the people experiencing this situation (even non-injurious falls) have to be hospitalized and half of them die within 6 months [4], making falls the main cause of morbidity-mortality (injury related) in the elderly. Furthermore, a relationship has been established between the delay before intervention and the rate of harmful repercussions [5]. Consequently, the need for reliable and automatic fall detectors clearly arises from the fact that the ‘early’ detection and quick response towards falls can reduce the hospitalization by 26% and death by over 80% [6]. Additionally, even after experiencing a fall without any direct physical injuries, many psychological difficulties appear on subjects, such as fear of falling, loss of self-efficacy, activity avoidance and loss of self confidence, leading to poor health and life quality [7]. Although the extensive academic efforts made during the past years have led to some commercial products, it must be stressed that there is no wide spread solution on the market [6] mainly due to poor reliability, privacy concerns and lack of comfort. The existing techniques can be divided mainly into three big categories with their respective subgroups: wearable devices, vision-based approaches and environmental based approaches. As the last two approaches fall out of the scope of this work, only the wearable devices are going to be reviewed. 2. Wearable devices for fall detection Wearable sensor approaches can be understood as any device attached at user garments or worn as a clothing accessory. In terms of data gathering and subsequent analysis, two different approaches have been adopted by 183 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos researchers. We are going to refer the techniques as onboard decisions and off-board decisions. In the first group, the corresponding parameters are sensed to further process the data within the wearable device and decide whether the detected event must be considered as a fall or not. Regarding the off-board decisions techniques, one or more devices within a Wireless Sensor Network (WSN) gather the corresponding parameters and send the information to a central processing unit (PC, tablet, Smartphone, etc.), which is responsible to make the fall – no fall decision. Basically, two different MEMS (Micro-ElectroMechanical Systems) technologies are used to detect hazardous events concerning the wearer: accelerometers and gyroscopes. They detect acceleration and angular velocity changes respectively and can be integrated in small single devices as their size is extremely reduced. Making use of MEMS different techniques for wearable sensors appeared: accelerometry-based approaches, postural-based approaches, motion-based approaches and Smartphonebased approaches. Basically, accelerometry-based approaches aim to partially track user motion using accelerometers to detect impacts, e.g. sudden acceleration changes. Some academic solutions attach multiple sensors to user body [8] achieving high performance, but the complexity of such platforms impedes market reach. For single sensor solutions, the most common parts of the body where accelerometers are placed are: waist (as a belt clip), neck (as a pendant), wrist (as a bracelet) and head (as a hearing aid). Experiments testing different algorithms for waist mounted accelerometers (clip belt) have been performed by the research community [9]. It found that the best results were achieved by an algorithm defining thresholds in user velocity impact (acceleration peak). Authors reported 100% sensitivity (see Eq. 6) and specificity (see Eq. 7) with a 0.6 false alarms per day. What has to be highlighted is that the experiment was carried out by healthy young volunteers falling on a crash mat, which may be a reason for such impressive results. Regardless the performance issues, the main drawback of clip belt based approach is that it cannot be worn without clothes or is annoying while performing some activities of daily living (ADL’s), so ubiquity is not accomplished. Devices mounted at wrist have been subject of study in the past years as they seem to be the most accepted body sensor approach in terms of comfort. As reported by a recent study [10] of Health Design & Technology Institute at Coventry University, watch-like fall detectors show, in general, the highest level of acceptance by both end-users and care providers. The reason is that they do not stigmatize elderly peoples’ fragility and provide permanent coverage since they can be worn while performing all Activities of Daily Leaving (ADLs). Despite the theoretical acceptance raised by watch like devices, in practice, current commercial bracelet based fall detectors are not designed to remain unnoticed and be unobtrusive. Therefore, the challenge of future devices (in terms of design) is to manufacture an ergonomic, small and light bracelet similar to a commercial watch. The Swiss Federal Institute of Technology from Zurich (ETHZ) has designed a bracelet for on-board automatic fall detection (Speedy [11]) reporting a fall detection rate of 65% during a two-day trial. CSEM presented also a wristwatch for on-board fall detection achieving a sensitivity of 90% and specificity of 97%, but on both cases the trials were carried out by healthy volunteers on a controlled environment. Despite the huge efforts made, the results of current bracelet based solutions (both academic and commercial) are quite poor when brought to real settings. The bracelet approach is the most challenging one, since the acceleration changes on the device are extremely affected by almost all ADLs, causing high variance at sensed measurements. This leads to inaccuracy, obtaining an unacceptable number of false alarms or high non detected fall rates (depending on the algorithm parameters selection). Finally, the hearing aid based approach using accelerometers has been studied from an academic point of view [12], but due to the obvious limitations of autonomy, ubiquity and targeted users the market acceptance was low. Instead of sensing acceleration variations, posturalbased approaches use gyroscopes to detect changes in the angular velocity. The discrete integral of this magnitude is directly the orientation or the relative position of the object where the gyroscope is embedded. When a sudden angular velocity is detected the final user posture is inferred. Using the velocity peak and the postural information the algorithm can then made the fall/no fall decision. The most common presentation of postural-based approaches can be found as devices attached on the trunk. In [13] Bourke uses a bi axial gyroscope attached on a ‘trunk belt’ to monitor angular velocity and postural information of the user achieving 100% accuracy on a laboratory environment. But, what definitively impedes the commercialization of this approach is the high power consumption of the gyroscope (10 times higher than the accelerometer) and the lack of comfort which represents wearing a device attached at trunk. These two characteristics inevitably lead to high deployment (due to battery replacements) and poor user acceptance. As one of the main objectives of the SOFTCARE system was the low deployment and maintenance, the use of gyroscopes was discarded. Motion-based approaches use both accelerometers and gyroscopes to enhance the performance of these sensors used separately. This combination was studied by Qiang Li et al [14]. being able o detect all the falls (60) within a test on young volunteers. The device was placed on the fourth thoracic vertebrae, thus the above-mentioned problems arise again: high consume and lack of comfort. Smartphone-based approaches appeared as the acceptance, computational capabilities and usage of the Smartphone has drastically increased in recent years. A fall detection algorithm making use of the accelerometer embedded in the phone was proposed by Jiangpeng Dai et al. [15]. The device continuously gathers acceleration data, when a fixed threshold is overtaken, a set of samples within a window time are checked using pattern recognition (Artificial Intelligence) techniques. If the algorithm outcome is ‘true’, the mobile phone automatically contacts the carers. The authors reported a false negative and false positive ratio of 2.67% and 8.7% respectively when the phone is attached on the waist. The main limitation of this solution is clear: most of the time users do not keep the 184 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos mobile phone with them while staying at home. Moreover, the phone can be worn in many different spots as the jacket, pants or handbag introducing variability to the algorithm and leading to underperformance. Another approach was proposed by Eklund JM et al. [16] using the mobile phone just as the gateway of a complex WNS formed by different kind of wearable (belt device), motion, environmental and biometric sensors. The motes in the network have embedded processing capability, so when an accident is detected an alarm to the Smartphone is sent enabling the communication to carers. Apart from the drawbacks associated to belt worn accelerometers, the complexity of this system decreases the battery lifetime down to 10 hours. The mentioned academic research has led to several commercial waist worn devices performing on-board decisions such as the belt-clip from Tunstall [17]. Regarding the pendant-based approaches, Philips launched the LifeLine with autoalert [18] which seems to achieve an accuracy level similar to waist worn devices but has the same handicap regarding the non-ubiquity and usability since it can be annoying while performing some activities like taking a shower or sleeping. 3. System Architecture and Features 1.Figure 1. SOFTCARE 3.1. Systemplatform modules architecture. 3.1. System modules Regarding the wrist worn fall detectors, several attempts have been made in recent years such as the fall detector by Bosch [19], or the coming solution of Lifecomm [20] which is developing a Mobile Personal Emergency Response System (MPERS) that enables both cellular communication and GPS-tracking. Most of the current approaches perform on-board decisions using thresholdbased algorithms, e.g. different thresholds are fixed and an event is labeled as a fall if these values are overtaken. This fact constrains the system performance as the computational resources of the bracelet device are limited. The SOFTCARE project aims to solve these performance limitations by externalizing the fall/no fall decision procedure to a gateway with more computational resources. According to Fig.1, the system is composed of three different modules: the bracelet device, the static nodes and the gateway. The key components of the wrist worn prototype device are the LIS331HH triaxial accelerometer (ST Microelectronics), the PIC18F24k20 microprocessor (Microchip) and the ETRX2 Zigbee module (Ember). The accelerometer gathers data at a sampling rate of 50Hz which is further pre-processed and sent through the Zigbee network at certain time intervals. Despite the efforts above-mentioned, a valuable review of existing techniques for waist-mounted fall detectors (which are considered to be the most reliable) has been presented to the scientific community reporting very poor performance [21]. They benchmark the performance of thirteen published fall-detection algorithms when they are applied to the database of 29 real-world falls. They found a specificity of (mean ± standard deviation) 83.0% ± 30.3% and sensitivity of 57.0% ± 27.3% with the number of false alarms ranging from 3 to 85 during one-day trials. These figures imply that more research is still needed in the field. 3.2. Communication protocol and procedures The provisional static nodes are commercial devices adapted to the SOFTCARE platform to act as Zigbee repeaters and used to locate the user at home. A notebook equipped with the ETRX2USB Zigbee USB dongle acts as the network sink, processing unit and gateway. The different network actors mentioned above, form a WSN using the Zigbee communication protocol, which is based on the 802.15.4 IEEE standard for Wireless Personal Area Networks (WPAN). The Zigbee protocol is intended for applications requiring low data rates and power consumption suiting perfectly the project specifications. In the normal mode, the processor on the device infers the bracelet angle computed following Eq. (1). Additionally, the angle deviation value corresponding with the difference between the maximum and the minimum angle α is also computed. −1 aZ ) if aZ > a X tan ( aY α = (1) tan −1 ( a X ) otherwise aY 185 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos These two measurements together with the raw acceleration data are averaged and broadcasted to the static nodes within regular time intervals of 4 seconds. Each static node, adds the Received Signal Strength (RSSI) between the link formed by itself and the bracelet device to the data packed. The information is the relayed to the gateway where the processing algorithms are implemented. The accelerometer is configured to launch an interruption when a certain acceleration threshold is exceeded. In that case, the bracelet cancels the normal execution mode and a stream containing the last second of acceleration samples is sent to the gateway. The fall/no fall decision is performed on the gateway by means of machine learning techniques. 3.3. System features The SOFTCARE system’s main purpose is to detect situations that may represent a risk for elderly citizens. For this purpose a panic button has been incorporated in the bracelet in order to allow the user launch alarms manually when needed. Regarding the automatic features, fall detection acquires special relevance. Hundreds of simulated falls have been performed to gather information of falls motion and used to train an intelligent system in order to discriminate new falls from normal activity data. As an additional feature, the SOFTCARE system is able to detect certain activities of daily living. For this purpose, the system must be adapted to each user during the system deployment, i.e. the elderly person must wear the bracelet device and perform the activities to be detected in order to gather motion information of his/her specific behavior. An intelligent system is trained with the gathered data for each individual increasing recognition effectiveness. The activities currently supported by the system are: walk, cook, eat and rest. The platform provides an excellent workbench to test and design recognition methods for other activities using bracelet devices. On the other hand, the system is able to distinguish between certain levels of activity associated with the user, e.g. very low, low, medium and high. No training is needed for this purpose and the reliability on real scenarios is sufficiently high. Finally, the last extended feature is the location capabilities through RSSI measurements from the link formed by the bracelet and each static node. An RSSI mapping of the rooms to be detected is needed. Therefore, the user must walk through the different rooms wearing the bracelet during the system deployment. The information related to the features listed below is uploaded to a server and displayed through an online platform. The data is organized to be understood at a glance by carers (events table, graphical representation of trends, etc.) and ease the care provision and management. When a hazardous situation is detected or the user presses the panic button, an automatic call is established to the preferred carers and proper emergency protocols are launched. 4.1. The fall detection algorithm The above-mentioned stream containing one second of acceleration data corresponds to 50 samples taken at a frequency rate of 50Hz. This information is processed to extract the last 0.8 seconds acceleration samples, being the last one the acceleration peak. Therefore, we chose 40 samples out of 50. This procedure is implemented because fall events are generally completed between 0.4-0.8 seconds [22]. This samples can be understood as an N-dimensional vector V where N = 40. Relevant features from this vector are extracted and classified using a Support Vector Machine (SVM) in order to recognize acceleration patterns and distinguish real falls from fall-like events. One of the key aspects of the proposed algorithm is the feature reduction algorithm. Feature reduction techniques are necessary when the dimension N of the vector V in the initial feature space is high, as some elements of V may be redundant or provide irrelevant information for the classification algorithm. Apart from increasing the computational cost, having a high number of features can also lead to over-fitting on the training data. If this occurs, the generalization is poor, meaning that the classification performance on new samples is low. To reduce the number of features, two techniques can be applied: feature selection and the feature transformation. The aim of the first one is to select the most relevant subset of features while the second one applies a transformation function to convert the vector V on the initial feature space to the vector W in a lower order dimensional space. The here proposed approach fuses feature selection and feature transformation techniques to increase the classification performance. As shown in Fig. 2 the dimensional reduction algorithm can be divided into three blocks corresponding to 2 supervised and 1 unsupervised techniques: 1. Unsupervised: Global Features Transformation. 2. Supervised: Motion Features Transformation. 3. Supervised: Motion Features Selection. Figure 10. Fall detection algorithm schema 4. The algorithms 186 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos The first block consists of apply the Principal Components Analysis (PCA) algorithm to reduce the dimensions of signal V from N to K (K<N). Blocks 2 and 3 are supervised techniques for feature transformation and selection respectively. They should be referred as supervised techniques as a detailed study of fall and fall like events has been conducted to exploit the differences between these events from a physical point of view. Block 2 aims to create L (L<N) new features from the initial feature vector V that provide physical or motion information in relation with the acceleration stream under study. For instance, during the free fall, the acceleration sensed tends to 0 causing a local minimum with certain degree of convexity-overture. This local minimum and the convexity degree are transformed features that bring useful information to distinguish falls from ADLs. Finally, Block 3 selects a subset of M (M<N) samples of the V vector with added value for the classification process. One example could be the sample corresponding to the acceleration peak, which is usually much higher in fall events than in fall like actions. The features coming from the three different blocks are fused to create the W vector on the low order space P (P = K+L+M < N). The resulting signal is evaluated by the SVM to discern if the acceleration stream belongs to a fall event or not. 4.2. Activity recognition algorithms The activity recognition algorithm is divided in 3 different modules: 1. Movement classifier. 2. Activity classifier. 3. Outliers filter. Targeted activities usually have a duration of several minutes, however, all of them can be decomposed into simpler movements and gestures. While the gestures or movements that the system can detect for the different activities are very similar, or even the same, the statistics of each of these gestures change in the targeted activities when a relatively long period of time is analyzed. These observations led to the definition of the module 1 in Fig. 3, which defines a set of simple movements that are used to classify each data received from the bracelet (every 4 seconds). Analyzing the outputs of this first classifier in module 2 during a certain period indicates which one of the targeted activities is being executed. A detailed description of the modules is provided below: Movement classifier: the samples received on the gateway each 4 seconds containing the averaged measurements of acceleration, angle and angle deviation serve as inputs of a multiclass SVM implementing a nonsupervised training process. Consequently, no training is required on the user’s side regarding this unit. The aim of the unsupervised classifier is to decompose the general activities into basic movements that are analyzed with the next sub-module. The output of this unit is an entire number within the range = [1, N] where N is the number of clusters of the classifier, i.e. the number of basic movements to be distinguished. Activity classifier: implements a multi class SVM using a supervised training process. This module has to be trained individually by each elder in order to customize the activity recognition. Its input is configured as the percentage of samples that fell within each single movement during a 60 seconds window time. In other words, the input of the second module is the output of the first classifier averaged along one minute or what I the same, 15 samples ( 60s 4s = 15 samples ). With this information the unit infers the activity for the minute under study. Outliers filter: this module is the responsible for corroborating or discarding the activity inferred by the previous module. If the proposed activity is discarded it will be labeled as ‘others’. Imagine the movement classifier output after the 60 seconds average as an L dimensional vector = T (t1 ;...; t L ) ∈ R L (where L is the number of clusters or movements) and the content of each dimension ti is the percentage of samples classified within the i th cluster. During the training process, M samples are gathered and classified being T k the k th vector sample gathered at the k th minute. The mean = A (a1 ;...; aL ) ∈ R L and the standard deviation = D (d1 ;...; d L ) ∈ R L for the M vectors is calculated and stored for each different activity following the Eq. (2) and (3). A= D= 1 M ∑T 1 M ∑( a M k (2) k =1 M k =1 1 − t1 k ;...; aL − t Lk ) (3) A and D computed during the training process are used by the outlier filter to accept or reject an activity classification. From this point we will notate the mean and variance as A j and D j respectively, where j is introduced to distinguish the parameters corresponding to the j th activity to be detected. Note that the mean and variance must be computed and stored for each activity independently. Figure 3. Activity recognition l ith h 187 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos = P ( p1 ;...; pN ) ∈ R N is formed every 4 seconds where each dimension pi is the RSSI of the link between the i th static node and the bracelet while N is the number of static nodes. In the normal mode, new samples of the vector P are classified on regular time intervals of 4 seconds. For stability issues, an average of the room location is performed for 1 minute. Room changes with durations lower than 30 seconds are discarded since do not provide relevant-useful user information from the carers point of view. 5. Experimental result discussion Figure 4. Acceptance zone for 2 diff t ti iti d2 t During the training process and using the vectors A j and D j , the reliability zone for each activity j is defined following Eq. (4). B j =A j ± α D j = (b1 j ;...; bL j ) (4) Where α represents the tolerance of deviation allowed in new samples. When a new activity j is proposed by the activity classifier, the outliers filter determines if the vector T under study lies within the ‘acceptance zone’ B j . If the outcome of the module is positive, the new activity will be accepted and stored, otherwise the system will conclude that the user is doing ‘other’ or unknown activities. Note that equation 4 can be seen as a segment in R1 for each dimension bi . The intersection of the mentioned segments defines an L-dimensional volume in RL which represents the ‘acceptance zone B j . In Fig. 4 an illustration of the acceptance zones B1 and B 2 for L=2 computed during the training process for 2 different activities is provided. 4.2.1 Activity level assessment. The activity level classification is performed by means of simple rules based on thresholds. Empirical studies observing the acceleration variation a , and angle variation ∆α were conducted to select the optimal thresholds for each activity level. Currently the system is able to distinguish between lack (0), low (1), medium (2) and high level of activity (3) following the equation 5: 0 1 AL (a, ∆α ) = 2 3 if= a 0 and ∆= α 0 if a ≤ γ 1 and ∆α ≤ ϕ1 if γ 1 < a ≤ γ 2 and ϕ1 < ∆α ≤ ϕ 2 (5) if a > γ 2 and ∆α > ϕ 2 4.3. Indoor location algorithm The indoor location algorithm implements a multiclass SVM with supervised training. The RSSI values of the pair wise link between the bracelet and each static node is used to infer the user position at home. Basically, a vector setup and In this section, specific experiments conducted to test the fall detection reliability will be detailed. Note that we will provide only specific accuracy figures in case of fall detection since the performance of the rest of features is difficult to quantify. For this reason, the location, activity recognition and activity level assessment features will be evaluated in a qualitative way, analyzing the results obtained from the tests performed with final end users on a real scenario. 5.1. Fall detection algorithm evaluation As proposed in [23] only 4 situations can be considered when analyzing the results: - True Positive (TP): a fall occurs and is detected. - False Positive (FP): the device detects a fall but no fall occurred. - True Negative (TN): a fall-like situation occurs and the device does not detect a fall. - False Negative (FN): a fall occurs and the device does not detect it. Sensitivity and specificity defined in Eq. (6) and Eq. (7) are used to carry out the statistical analysis. TP sensitivity = (6) TP + FN TN specificity = (7) FP + TN Sensitivity is related with the probability of a fall being detected (fall detection effectiveness). Specificity measures the probability of detecting fall-like situations (false alarm avoidance). Obviously, it is necessary to establish a tradeoff between these two measurements. To evaluate this tradeoff and thus the fall detection accuracy, the measurement selected is the Balanced Accuracy (BA) defined in Eq. (8). = BA (sensitivity + specificity ) / 2 (8) Within the fall detection scenario, sensitivity is important in terms of the wellness of elderly people, but specificity is also relevant regarding the requirements of the care service providers. Each time a false alarm is raised, a lot of resources have to be mobilized, implying unaffordable waste if lots of false alarms have to be handled. In this situation, where the prediction of positive and negative labels have similar relevance, a comprehensive 188 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos evaluation of classifier performance must be considered [24]. With this objective, the BA is calculated, since it is a tool to correlate both the fall detection capabilities and the false alarms avoidance. Table 1. Breakdown of the events used in the study FALLS Backward Forward Left Right 38 38 38 38 FALL – LIKES Sit down suddenly Clap hands Shake hands Hit furniture Arm free fall 26 26 26 26 26 Several trials were conducted to gather acceleration samples of fall related events. Falls were simulated by healthy volunteers aged between 25-50 falling on a crash mat. In parallel, acceleration samples of fall like events were gathered in order to train and test the algorithm. The collected streams constitute a database of 282 samples divided into fall and fall likes events as detailed in table 1. For each type of fall, 38 simulations were performed, while for fall like events 26 samples were gathered for each situation ([38 x 4] + [26 x 5] = 282). These 282 events formed the database which was divided into training set, test set and cross validation (CV) set (60%, 20% and 20% of the total events respectively). The number of fall event samples included in the study is reduced to simulate a real scenario where acquire real fall events is complex. This limitation regarding the amount of available data, make the algorithm performance be really dependent on the subset of samples used to train the algorithm. In other words, the selection of the proper training set can increase the detection accuracy drastically. A first experiment (referred as experiment 1) was designed using the training set and the test set (60% + 20% = 80% of data) in order to assess the impact of the training set on algorithms where relatively small amounts of data can be considered. The method used for this purpose was the Repeated random sub-sampling validation, consisting on perform iterations on data changing at each experiment both the training set and the test set. The selection of the samples falling within the two subsets is randomly made for each iteration. To include all scenarios, some restrictions were imposed on the random procedure to select the training and test set. Both subsets contain the same number of samples for each kind of event. For instance, the fall related training set contains the same number of Background, Forward, Left and Right falls. Following the same criteria the different situations for fall like events were included on each experiment uniformly. These boundary conditions were considered to avoid training sets with data representing only few fall or fall like events. This situation will not be applicable to real applications (training sets can be selected) and will bias the results decreasing the algorithm performance drastically. In a second experiment, (referred as experiment 2) the best training sets obtained in experiment 1 are used to train the system and are confronted with new samples (CV data) to assess the algorithm robustness and capabilities of generalization in front of new data. Analogously, to compare the proposed algorithm performance, three different algorithms were also included in the experimental set up. The first algorithm will be referred as Raw Data and consists on training a SVM with all the features of the fall and fall like acceleration streams. Consequently, no dimensional reduction techniques are applied on the vector V in Fig. 2, thus W=V being P=N=40 features for each sample. Additionally, the second algorithm (Only PCA features) implements only the PCA technique to extract the relevant features and train a SVM. Therefore, W=A where P=K in Fig 2. Finally, the SOFTCARE algorithm is the proposed fall detection technique described in section 3. Figure 5. Comparison of the proposed algorithm vs. different approaches along 3000 random experiments. Note that to better illustrate the results, in Fig. 5 the iterations in experiment 1 were sorted in increasing order of accuracy aiming to observe the trend of the different methods under study. Looking at the results, it can be observed that the proposed method achieves the highest performance. Comparing the SOFTCARE algorithm versus Raw Data can be concluded that performing the proposed dimensional reduction techniques instead of classifying the events through raw data (acceleration streams) increases substantially the reliability. Raw Data clearly suffers from overfitting during the training process that causes poor generalization performance and leads to low accuracy. Table 2. Results obtained on random trials performed on the test set SOFTCARE Algorithm Only PCA features Raw Data Averaged BA on the test set 92.24% Max. BA on the test set 96.67% 87.68% 94.87% 77.92% 84.58% Additionally, as our main contribution is the integration of supervised methods together with the PCA algorithm, we want to assess the impact of these supervised modules on the overall performance. For this reason, Only PCA features 189 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos were included on the test bench. The SOFTCARE algorithm seems to bring some assets compared with Only PCA features (improvement of more than 4% on average). As can be observed, the here proposed approach upper bounds the performance of remaining methods in almost all the random trials performed. Table 2 illustrates the maximum BA obtained on the random trials and the averaged BA along the best 100 iterations, (i.e. the last 100 values on Fig. 5). As can be observed, we can find 100 training sets (and the associated test sets) for which the accuracy is more than 92% on average. Analogously, Experiment 2 was performed training the system with the best 100 training sets used to generate Table 2 in order to assess the generalization capabilities on new samples. The average BA obtained was the 86.54%, which is not the same performance as the obtained with the test set, although it is acceptable. The decrease on the performance may be caused due to the limited amount of data intended to the CV set (20%). 5.2. Evaluation of the system on real scenarios All the features described in this paper were evaluated with 5 end users involved with the Austrian SOFTCARE partners Red Cross and CEIT RALTEC during month 1. Although provide figures on location and activity recognition reliability are complex when the validation is performed by elderly people, some conclusions can be extracted from the trials. Both location and activity recognition algorithms do not provide enough accuracy in non-laboratory environments. The algorithms were instable for certain room distributions and user behaviors. By the other side, the activity level assessment show great robustness for different users, delivering useful information for the care management and delivery. The fall detection algorithm features could not be tested entirely as no fall occurred during the validation. The algorithm showed promising results in terms of false alarms avoidance since only 3 false alarms were launched during the trials. Furthermore, the false alarms were raised by the same user within 24 hours. During the same period the user reported that some mechanical problems appeared on the bracelet prototype. Therefore, the false alarms might be not caused by an algorithm failure but by a mechanical defect on the device housing. 6. Conclusions and future work Considering the fall detection algorithm, the first observation that must be highlighted is the impact of selecting the training set when limited data is available. In Fig. 5 the accuracy difference from the best and the worse training sets is the 35% (96.67% vs. 61.67%). This fact suggests that more work has to be done regarding the procedure to detect the common patterns of the most suitable training sets. It must also be highlighted that the influence of the training set on the overall performance provided by the mentioned figures has to be done carefully. It must be considered as qualitative measure since the impact of the test set associated with each training set is not taken into account. This issue can be solved by gathering more fall/fall like events to assess the goodness of the best training sets using a higher amount of Cross Validation data. Finally, the supervised feature transformation and feature selection can still be refined. The increase of 4% can still be boosted if more relevant information of the fall events is extracted by the supervised techniques. Regarding the activity recognition technique for wrist worn devices, it must be stressed that fine tuning actions are currently being performed since the accuracy on real scenarios is still low. Our approach is the most challenging one as the acceleration changes on the device are extremely affected by almost all ADLs, causing high variance at sensed measurements. A study to discriminate the optimal number of single actions (i.e., clusters on the movement classifier) to decompose general activities may improve the robustness of the algorithm. The activity level algorithm may be also improved if an adaptive algorithm is designed to automatically infer the optimal thresholds in equation 5 for each particular user. Indoor localization through RSSI measurements also provides low accuracy when the rooms are set within a reduced space or no power outlets are available in certain rooms. The room RSSI mapping process (i.e. the location training) must be carefully studied in order to increase algorithm efficiency. Variables such as the training time or the user location within the room while training (walking on central positions, close to the walls etc.) should be assessed. 7. References [1] The Economist Intelligence Unit. (2011). The future of healthcare in Europe. From Eurostat Statistics Database. [2] Commission of the European Communities (2008). Regions 2020 Demographic Challenges for European regions. Directorate General For Regional Policy, November 2008. [3] C.Griffiths, C.Rooney,A.Brock. Leading causes of death in England and Wales—how should we group causes?. Health Statistics Quarterly 28 (2008). Office for National Statistics. [4] Wild D, Nayak US, Isaacs B. How dangerous are falls in old people at home? Br Med J (Clin Res Ed) 1981;282(6260):266–8. [5] Gurley RJ, Lum N, Sande M, Lo B, Katz MH. Persons found in their homes helpless or dead. N Engl J Med 1996;334:1710–6. [6] Noury N, Rumeau P, Bourke AK, Olaighin G, Lundy JE (2008). A proposal for the classification and evaluation of fall detectors. IRBM 29(6): 340–349. [7] T. Hadjistavropoulos et al. Reconceptualizing the Role of Fear of Falling and Balance. Journal of Ageing and Health 23(1) 3–23. [8] A.K. Bourke, J.V. O’Brien, and G.M. Lyons. Evaluation of a thresholdbased tri-axial accelerometer fall detection algorithm. Gait & Posture, 26(2):194 – 199, 2007. [9] Bourke AK, Van de Ven P, Gamble M, O'Connor R, Murphy K, et al. (2010). "Evaluation of waist-mounted tri-axial accelerometer based fall-detection algorithms during scripted and continuous unscripted activities", J. Biomech., vol. 43, pp.3051 3057 2010. 190 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos [10] G. Ward, N. Holliday and S. Fielden (2012). “Fall Detectors: What do users want?” Unpublished Article, Health Design & technology institute at Coventry University, Coventry, UK. twenty-seventh annual international conference of the IEEE engineering in medicine and biology society, Shanghai. [11] Thomas Degen, Heinz Jaeckel, Michael Rufer, Stefen Wyss, SPEEDY: A Fall Detector in a Wrist Watch, Proceedings of the 7th IEEE International Symposium on Wearable Computers, p.184, October 21-23, 2003. [17] http://apac.tunstall.com/solutions/fall-detectors [12] U. Lindemann, A. Hock, M. Stuber, W. Keck, and C. Becker. Evaluation of a fall detector based on accelerometers: A pi-lot study. Medical and Biological Engineering and Computing, 43(5):548–551, Oct 2005. [19]http://resource.boschsecurity.com/documents/Data_sheet_enU S_9007200776487307.pdf [13] A. K. Bourke and G. M. Lyons, "A threshold-based falldetection algorithm using a bi-axial gyroscope sensor," Medical Engineering and Physics, vol. 30, pp. 84-90, Jan 2008. [21] Bagalà F, Becker C, Cappello A, Chiari L, Aminian K, et al. (2012) Evaluation of Accelerometer-Based Fall Detection Algorithms on Real-World Falls. PLoS ONE 7(5): e37062. [14] Qiang Li, Stankovic, J.A., Hanson, M.A.; Barth, A.T.; Lach, J. Gang Zhou. "Accurate, Fast Fall Detection Using Gyroscopes and Accelerometer-Derived Posture Information," Wearable and Implantable Body Sensor Networks, 2009. BSN 2009. Sixth International Workshop on , vol., no., pp.138-143, 3-5 June 2009. [22] Zhang, T. et al. "Fall detection by embedding an accelerometer in cellphone and using KFD algorithm", International Journal of Computer Science and Network Security. 6(10) pp: 277-84, 2006. [15] Jiangpeng Dai, Xiaole Bai, Zhimin Yang, Zhaohui Shen, and Dong Xuan, PerFallD: A Pervasive Fall Detection System Using Mobile Phones, in Proceedings of IEEE PerCom Workshop on Pervasive Healthcare (PerHealth), 2010. [16] Eklund JM, Hansen TR, Sprinkle J, Sastry S (2005) Information technology for assisted living at home: building a wireless infrastructure for assisted living. In: Proceedings of the [18] http://www.lifelinesys.com/content/lifeline-products/autoalert [20] http://www.lifecomm.com/ [23] N. Noury , P. Rumeau , A. K. Bourke , G. Laighin and J. E. Lundy "A proposal for the classification and evaluation of fall detectors", Ingénierie et recherche biomédicale (IRBM), vol. 29, pp.340 -349 2008 [24] Sokolova M, Japkowicz N, Szpakowicz S (2006) Beyond accuracy, F-score and ROC: a family of discriminant measures for performance evaluation. In: Australian conference on artificial intelligence, vol 4304. LNCS, Germany, pp 1015–1021 191 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos ASSAM: Enhancing Autonomy Through Mobility Cristian Barrué, Ulises Cortés, A.B. Martínez Universitat Politècnica de Catalunya {cbarrue,ia,antonio.b.martinez}@lsi.upc.edu Sandra Millet, Lluisa Pla Centre de Vida Independent {sandra,lluisa}@cvi-bcn.org Resumen chronic diseases is a direct consequence of the ageing of the population. In both developed and developing countries, chronic diseases are significant and costly causes of disability and reduced quality of life. An older person’s independence is threatened when physical or mental disabilities make it difficult to carry out the basic activities of daily life. As defined by World Health Organization (WHO), in the International Classification of Functioning, Disability and Health, known as ICF: disability serves as an umbrella term for impairments, activity limitations or participation restrictions [12]. A decline in quality of life in the elderly is usually reflected by the presence of negative feelings, lack of meaning in life and specially a loss of their autonomy [13]. One important aspect of autonomy from a pragmatic point of view is the ability to move around the preferred environment and perform activities of daily living (ADL). Social relationships and activities are fundamental elements in the quality of life of older people. With advancing age, they are made more difficult through the possible loss of physical functions, through societal processes of differentiation, and through unfavourable environmental and technological conditions. The prevalence of age-related disabilities can burden the possibility to move around and participate in the social environment. Therefore, mobility becomes an important prerequisite for the participation in social relations and activities [14]. Some experts recommend that environmental settings for the cognitively impaired must ease mobility -- often in response to the prevalence of wandering' behavior --and yet remain safe and secure [15]. This safety can be achieved nowadays with the help of emerging Assistive Technologies. Assistive Technology devices can be very useful to provide supportive services to individuals who require assistance with the tasks of daily life. Their use spans not only people with cognitive impairment caused by ageing factors but also any disabled person, in order to ensure an acceptable level of autonomy. El objetivo principal del proyecto ASSAM es contribuir al desarrollo de la próxima generación de herramientas de soporte a l a movilidad inteligentes y semiautónomas para gente mayor y gente con discapacidades (física y/o cognitivas) de forma que puedan ser suficientemente independientes para vivir de forma autónoma en la comunidad. El enfoque de ASSAM consiste en desarrollar 3 plataformas de movilidad distintas orientadas a diferentes perfiles funcionales que estará equipado con un modulo de soporte cognitivo a l a navegación para potenciar la autonomía y bienestar de los usuarios y sus habilidades para mantener un estilo de vida independiente. En este artículo presentamos el proyecto y su contexto. Abstract The main goal of the ASSAM project is to contribute to the development of the next generation of intelligent and semi-autonomous mobility support tools for older persons and people with disabilities (both cognitive and/or motor) so that they can be self-dependent enough to autonomously live in the community. The approach of ASSAM is to develop three different mobility platforms for different functional profiles that will be equipped with a navigation cognitive support that will enhance the autonomy and wellbeing of the users and their abilities to maintain independent life styles. In this paper we introduce the project and its context. 1. Introduction The senior citizens represent a fast growing sector of the population in Europe and other developed areas according to Eurostat’s base scenario [10]. This demographic shift is leading us into an epidemiologic shift. Increasing longevity and increasing survival to acute accidents and diseases -- in addition to the increase in the numbers of elderly people -imply an increased prevalence of chronic morbidity and disability [11]. The increasing number of people affected by 192 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Figure 1 Rolland, i-Walker and the robotic Tricycle concept, the ASSAM platforms In this paper we present the EU funded project ASSAM: Assistants for Safe Mobility 9. The main goals of ASSAM are to cope with elder’s population mobility needs in their different stages of disability, giving special attention to cognitive support in order to be able to engage in community activity. 1.1. Plan of the work The plan of this paper includes an overview of the main goals of this project see §2. In particular, we provide details about the technology involved in §3, a use case scenario in §4 and an overview of the pilot sites and target population in §5. In §6 we provide some conclusions and future expectations for this project. 2. ASSAM: a general view The ASSAM project [16] aims to compensate for declining physical and cognitive capabilities of elderly persons by user-centred development of modular navigation assistants for various mobility platforms, such as walker, wheelchair, and tricycle, providing sustained everyday mobility and autonomy with seamless transition from indoors to outdoors in environments such as residential complexes or the neighbourhood quarter. The goal of the project is to develop modular assistance systems for all platforms that provide: • Physical mobility assistance for declining walking capabilities, but encouraging physical exercise; • Cognitive assistance for declining visual and mental capabilities by obstacle recognition and avoidance • as well as orientation and navigational aid; • Human support by asking a call centre for route directions to be presented on the device; • Security concerning health risks by care centre connection in case of emergency situations. All assistants are based on the NaviKit [17] core module comprising basic navigation hardware (CPU, GPS and odometry) that shall be the same for cross-platform sharing. For interaction with the user, a touch screen or tablet PC, microphones, speakers, or a Bluetooth® headset are added as required. The target users will be able to use the mobility assistant that better suits their functional needs (see § 4). Each one of them will support their mobility activities and where possible, encourage their physical exercise. This physical exercise will be accompanied by cognitive support, in the form of navigational aid that will let the users know where they are all the time, what is interesting close to them and how to reach places in case they get lost. In addition, if users get overwhelmed by the situation, they can request the help of a human operator that will have the positional localization of the user thanks to the ASSAM system, and will be able to guide the user in his needs. As the target users are elderly persons, their vulnerability demands highest standards of respectful interaction, protection of their privacy, and guarantees for their security, dignity and wellbeing. For the ASSAM consortium dignity, autonomy, integrity and privacy of users are a matter of ethical concern. The ASSAM consortium includes 10 partners in Spain, Netherlands and Germany from the industry, research and end-user’s organizations assuring the multi-disciplinary approach needed to develop high-quality assistive technologies. 3. Technology involved Figure 1 illustrates the ASSAM variants for mobility assistants, the smart wheelchair Rolland [20] the robotic rollator i-Walker [19] and the concept tricycle that is under development. All these robotic mobility supports will have integrated the Basic Aid, a standard mobility platform with basic outdoor navigation abilities based on NaviKit [17]. Using additional laser-range sensors, the Navigation Aid service will enhance the safety of the user by recognising and warning for steps and obstacles. The sensors also enable indoor positioning and navigation. This service was already tested in SHARE-it project [18]. 9 Funded under AAL programme Call 5: ICT-BASED SOLUTIONS FOR (SELF-) MANAGEMENT OF DAILY LIFE ACTIVITIES OF OLDER ADULTS AT HOME 193 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Whereas these assistants only signal directions and give warnings, the Driving Assistant proactively corrects the driving direction to avoid obstacles by controlling the drive, steering and braking accordingly. As the most challenging assistant, the Navigation Assistant allows automated driving (without manual steering) to a specified target location in a charted indoor environment. From the bed or sofa, the user can remotely direct the robotic mobility support to its parking position out of the way, and call it to return on demand. So at the end we have a bundle of navigation aids that can be layered and combined with the different robotic mobility assistants in order to cope with end users needs. One of the technical goals of the ASSAM project is to perform this integration and materialize a seamless transition between indoors and outdoors environments using cognitive support and robotic assistants. 3.1. The i-Walker The i-Walker is a robotic enhanced rollator that supports user mobility in a novel and safe way, providing an amount of help in the motion prescribed by clinical counselling [19]. It is based on a standard walker’s frame enhanced with the following sensors: front laser scanner, 8 force sensors to detect the 3 force components in both handlebars and the normal forces of the floor, odometry and tilt sensors (see Figure 2). The i-Walker has also been equipped with two brushless DC motors as the only actuators that serve to maintain an almost constant pushing force, independently of the path, as prescribed by medical considerations. i-Walker detects the forces the user exert on it and how does it exert them, allowing the embedded intelligence to decide what support strategies are most suited in each situation. The i-Walker is able to detect the forces that the user exerts on the handlebars thanks to the embedded sensors and also determines if the user is moving upwards/downwards on a slope. Depending on the user situation, the i-Walker provides support, through it’s motor empowered wheels, to help the user movement during exercise and training. The user is helped going upwards or downwards on a slope, transmitting a soft feeling of constant speed independent from the inclination of the surface. When the user releases the handlebars the i-Walker automatically stops. It does not matter if the user is on a slope or a flat surface; the i-Walker remains braked until walking continues. It is a passive rollator, it never pulls the user but thanks to it sensing capability it is able to know when the user is pushing (i.e. wants to move) and supports the movement with a predefined amount of help. It improves the stability as the normal forces detected by sensors in the frame indicate the contact of the wheels with the ground, generating the responding behaviour of the motors all the time. All the information retrieved by the sensors is logged and stored for potential analysis by clinical specialists. Clinicians are able to see trend information about exercise, the help provided and activity, etc. So in all, the main features of the i-Walker can be summarized as: Figure 2 i-Walker’s electronic distribution • • • • Active motor assistance to compensate lack of muscle force on climbs. Active brake assistance to compensate lack muscle force on descents. Active differential assistance to compensate unbalanced muscle force. Recording of sensor measurements and actuators activities for later evaluation. 4. The ASSAM Pilots In order to demonstrate and validate the ASSAM technology and aims, three pilot sites will be implemented. The envisaged pilot applications will be field trials with the mobility assistants on the various platforms at the three test sites, covering a variety of indoor and outdoor environments. Application scenarios combining clearly delineated, mutually complementary and indicative topics in the project context will be defined, and subjects will be distributed according to the profiles of the three test sites: • Bremen, DE: elderly users; • Barcelona, ES: elderly users, users with declining cognitive faculties; • Utrecht, NL: users with declining visual faculties. Note that the different national sites will allow comparative testing across European countries, languages and cultures. Field trials at the pilot sites will iterate over 3 phases, with emphasis on A. Indoor environments: user residences, environment interaction in BAALL [20]; B. Outdoor environments: courtyard, park, pedestrian area; C. Indoor + outdoor environments: enclosed residence complexes, local city quarter and shops. 194 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 5. Conclusions One of the most important factors in quality of life for the elderly is their ability to move around independently and participate in society. Mobility support is one of the main factors that the ASSAM project addresses. In this work we have introduced the ASSAM project that plans to support elder mobility with different innovative robotic platforms with different mobility assistants installed on them, adapting to the user needs. In particular, i-Walker promotes physical mobility assistance for declining walking capabilities, but encouraging exercise among users. It has already been successfully tested on pilot studies with real patients in clinical environments within a rehabilitation process [22]. 6. Acknowledgements Authors would like to acknowledge support from the EC funded project ASSAM: Assistants for Safe (Ambient Assisted Living Joint Programme Call 4). The views expressed in this paper are not necessarily those of the ASSAM consortium. 7. References [1] Eurostat, http://epp.eurostat.ec.europa.eu/statistics_explained/index.php/Pop ulation_structure_and_ageing [2] WHO. Who - global burden of disease project www.who.int/evidence/bod, 2003. [3] WHO. World health organization international classification of functioning, disability and health. http://www3.who.int/icf/icftemplate.cfm?myurl=homepage.html& mytitle= home%20page, 2004. [4] A. Hudakova, A. Hornakova, “Mobility and quality of life in elderly and geriatric patients”, Int. J. Nurs. Midwifery 3(7), 2011, pp.81-85. [5] H. Mollenkopf, F. Marcellini, I. Ruoppila, P. Flaschenträger, C. Gagliardi, L. "Outdoor mobility and social relationships of elderly people". Archives of gerontology and geriatrics 1 May 1997. Volume 24(3) pp.295-310 [6] U. Cohen, G.D. Weisman, “Environmental Design to Maximize Autonomy for Older Adults with Cognitive Impairments”, Generations 1990, 14(suppl 1990) pp.75-8. [7] ASSAM project partners. Assistants for Safe Mobility: the ASSAM Project, 2013. http://www.assam-project.eu/. [8] B.Krieg-Brückner, B. Gersdorf, C. Mandel, C. Budelmann, M. Schröder. “Navigation Aid for Mobility Assistants.” In Proceedings of the Joint CEWIT-TZI-acatech Workshop “ICT meets Medicine and Health” ICTMH 2013 . [9] U. Cortés, C. Barrué, F. Campana, A.B. MartínezVelasco, C. Urdiales, R. Annicchiarico, C. Caltagirone. “Assistive technologies for the new generation of senior citizens. The SHARE-it approach”. International Journal of Computers in Healthcare Vol I(1) 2010 pp:35-65. [10] C. Barrué, R. Annicchiarico, U. Cortés, A. MartínezVelasco, E.X. Martín, F. Campana, C. Caltagirone “The i-Walker: an intelligent pedestrian mobility aid.” Computational Intelligence in Medicine 4. Springer-Verlag. L.C. Jain (Ed). 2010. [11] B. Krieg-Brückner, T. Röfer, H. Shi, B. Gersdorf: “Mobility Assistance in the Bremen Ambient Assisted Living Lab”. GeroPsych 23(2), 2010 121-130 [12] Centre de Vida Independent http://www.cvi-bcn.org [13] B. Giuliani, U. Cortés, A. B. Martínez, C. Barrué, R. Annicchiarico. “The role of i-Walker in post-stroke training”. Artificial intelligence research and development: proceedings of the 15th International Conference of the Catalan Association for Artificial Intelligence 2012 195 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Guía rápida de evaluación automatizada de contenidos web según WCAG 2.0 usando herramientas de software libre José R. Hilera1, Teresa Díez1, Mª José Domínguez1, Lourdes Moreno2, David Sangilbert1 1 Universidad de Alcalá, España 2 Universidad Carlos III de Madrid, España [email protected]; [email protected]; [email protected]; [email protected]; [email protected] Resumen Existe mucha literatura acerca de la evaluación de la accesibilidad web en general, y, en particular, sobre la evaluación de contenidos según la versión 2.0 de las pautas “Web Content Accessibility Guidelines” (WCAG) del World Wide Web Consortium (W3C), recientemente adoptadas como estándar internacional ISO/IEC 40500:2012, y como norma española UNE 139803:2012. Los potenciales evaluadores de páginas web pueden verse abrumados por la gran cantidad de información sobre ello, y tener la errónea sensación de que es algo muy difícil de realizar. Por esta razón, en este artículo se presenta una breve guía práctica de evaluación, que en unos pocos pasos, ofrece una referencia rápida de cómo llevar a c abo una evaluación de la accesibilidad y con qué herramientas, orientada especialmente a aquellos interesados en comenzar a e valuar por primera vez la accesibilidad de páginas web. Abstract There is much literature about the evaluation of web accessibility in general, and in particular, about on t he evaluation of content based on version 2.0 of the guidelines "Web Content Accessibility Guidelines" (WCAG) of the World Wide Web Consortium (W3C), recently adopted as international standard ISO / IEC 40500:2012, and Spanish standard UNE 139803:2012. Potential web pages evaluators can be overwhelmed by the vast amount of information about it, and h ave the erroneous impression that it is very difficult. For this reason, this article presents a brief practical guide for web pages evaluation that, in a few steps, provides a quick reference of how to carry out the evaluation of accessibility and w ith what tools, geared especially those interested in beginning to evaluate web accessibility. 1. Introducción La e valuación de la accesibilidad de contenidos incluidos en las páginas web ha estado protagonizada desde los años 90 del pasado siglo XX, por la existencia de las pautas WCAG (Web Content Accessibility Guidelines), publicadas por primera vez en 1999 como versión 1.0, y modificadas en 2008 como versión 2.0, la actualmente vigente [1]. La importancia de estas pautas se pone de manifiesto por el hecho de haber sido adoptadas como estándar internacional ISO en 2012, con el código ISO/IEC 40500 [2]. También en España han sido convertidas en norma nacional por la Asociación Española de Normalización y Certificación (AENOR), en este caso como norma UNE 139803 [3]. Ya existía una versión anterior de 2004 de esta norma basada en WCAG 1.0, pero que no era completamente compatible con ella. La nueva versión de 2012 equivalente al cien por cien con la versión WCAG 2.0, como ocurre también con la el estándar ISO. En relación con las pautas WCAG, se han publicado gran cantidad de trabajos en revistas, en congresos, en la Web sobre las mismas, con multitud de propuestas sobre su aplicación. También se han creado herramientas software que facilitan automatizar en lo posible el trabajo de evaluación de los contenidos de las páginas web según los requisitos establecidos en la norma. A mucha de la literatura y herramientas existentes puede accederse desde el propio sitio web del W3C, que mantiene una sección denominada Web Accessibility Initiative (WAI), dedicada en exclusiva a este campo [4]. La existencia de gran cantidad de información sobre WCAG 2.0 por una parte permite poner a disposición de los creadores de contenidos de páginas web y de los evaluadores de su accesibilidad mucho conocimiento sobre cómo conseguir páginas web accesibles; per por otra parte los implicados que comienzan a trabajar en este campo se pueden ver abrumados precisamente por tanto conocimiento y no saber realmente cómo empezar a aplicar las pautas de forma práctica. A partir de la experiencia de los autores en la evaluación de páginas web, y en la impartición de cursos, talleres, o seminarios sobre el tema, se ha creado una breve guía de evaluación de la accesibilidad web, para principiantes, que se presenta en este trabajo. Esta guía se resume en establecer que la evaluación debe realizarse en dos pasos: • Paso 1: Hacer un examen rápido de los posibles problemas de accesibilidad de la página web. 196 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos • Paso 2: Evaluar la accesibilidad de la página web según la norma WCAG 2.0. En la literatura se han descrito varias debilidades de las WCAG 2.0, desde el punto de vista, por ejemplo, de la facilidad con la que un evaluador novel interpreta los criterios de conformidad. Se han encontrado varios trabajos de tipo experimental en esta línea [5] [6]. En [6] los resultados obtenidos ponen de relieve la dificultad de evaluadores principiantes por saber cómo testear algunos criterios de conformidad, y se indica la necesidad de dotar de más recursos a los evaluadores como material de apoyo y herramientas para ayudarles y asistirles en sus procesos de evaluación, y así obtener resultados consistentes. Otros dan un paso más, proporcionando una herramienta de gestión del conocimiento de la accesibilidad para ayudar a evaluadores noveles en el proceso de evaluación de la accesibilidad [7]. En las siguientes secciones del artículo se presentan las acciones a realizar en cada uno de los pasos indicados. Y el artículo finaliza con una sección de conclusiones y posible trabajo futuro en relación con la guía práctica presentada. 2. Paso 1: Hacer un examen rápido de los posibles problemas de accesibilidad de la página web Antes de llevar a cabo la evaluación del cumplimiento de los requisitos de accesibilidad establecidos en la norma WCAG 2.0, es conveniente llevar a cabo una evaluación preliminar que permita al evaluador hacerse una idea general sobre los posibles problemas de accesibilidad que pueden presentar los contenidos de una página web, poniéndose incluso en el lugar de un usuario con discapacidad que acceda a dicha página. Este primer paso sería útil en el caso de los desarrolladores de un sitio web, para adelantar posibles fallos estructurales que sería conveniente atajar lo antes posible antes de seguir con el desarrollo del mismo. En la tabla 1 se muestra un resumen de las acciones que se recomiendan realizar como parte de este examen rápido. Las primeras consisten en desactivar diferentes elementos de la página, como JavaScript, imágenes y hojas de estilo CSS; y comprobar si se pierde o no información importante, ya que puede ocurrir que un usuario tenga estos elementos desactivados en su navegador, por ejemplo porque utilice un navegador de texto. A continuación se recomienda una comprobación rápida de posibles problemas de contraste, ya que existen herramientas que facilitan esta labor y permiten incluso comprobar las dificultades que presenta la combinación de colores a usuarios con determinados problemas de visión. La siguiente acción trata de comprobar si existe una estructura lógica de encabezados, algo muy importante para los usuarios que utilizan ayudas técnicas como lectores de pantalla, ya que les permitiría navegar a través de secciones de contenido marcadas por los encabezados, en lugar que tener que realizar una lectura secuencial por todo el contenido. También es importante validar que la estructura de etiquetas HTML de la página es correcta, por ejemplo que no haya etiquetas sin cerrar, para evitar posibles problemas con las ayudas técnicas. Y lo mismo con las hojas de estilo CSS. Por último, se recomienda que el evaluador compruebe que se puede seguir accediendo al contenido web simulando algunas de las características del contexto en el que un usuario utiliza un producto de apoyo (o una estrategia) específico, por ejemplo, activando un lector de pantalla o utilizando un navegador de sólo texto. 197 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos ACCIÓN Desactivar JavaScript Desactivar imágenes Desactivar hojas de estilo CSS Examinar el contraste de color Examinar encabezados Comprobar parpadeo de imágenes OBJETIVO Comprobar que no se pierde información de la página y que sigue siendo navegable. Comprobar que no se pierde información de la página y que sigue siendo navegable. Activar que se vea el texto alternativo a cada imagen en lugar de la imagen (comprobar que es significativo de semántica equivalente a la imagen, y que no es demasiado largo). En imágenes decorativas se puede poner el texto alternativo nulo “”.. Comprobar que no se pierde información de la página y se sigue un orden lógico de lectura. Comprobar valores de contraste de color de las combinaciones de colores para (fondo/fuente) detectar donde haya problemas. Comprobar si existe una estructura lógica y de su etiquetado a través de etiquetas de encabezado en la página. Si la página incluye un vídeo o imágenes en movimiento, comprobar posibles problemas de epilepsia por un parpadeo demasiado rápido. HERRAMIENTAS GRATUITAS A UTILIZAR Opción desactivar JavaScript del navegador, o usando extensiones para desarrollo, como la siguiente: Ejemplo: En Firefox, la extensión “Web Developer Extension”, disponible en http://chrispederick.com/work/web-developer/download/firefox/. Opción desactivar imágenes del navegador, o usando extensiones como las siguientes: Ejemplo 1: Para Firefox, usar la extensión “Accessibility Evaluation Toolbar”, disponible en: https://addons.mozilla.org/es/firefox/addon/accessibility-evaluationtoolb/. En esta barra, se debe activar la opción de ver texto alternativo, disponible en: Text equivalents -> Show Text equivalents. Ejemplo 2: Para Firefox, usar la extensión “Web Developer Extension”, disponible en: https://addons.mozilla.org/en-US/firefox/addon/web-developer/ . En esta barra, se pueden activar estas opciones: − Ver texto alternativo junto con la imagen, opción disponible en: Images -> Display Alt attributes. − Ver sólo texto alternativo, opción disponible en: Images -> Replace Images with Alt attributes. Opción desactivar las hojas de estilo CSS usando extensiones como las siguientes: Ejemplo 1: Para Firefox, usar la extensión “Accessibility Evaluation Toolbar”, disponible en: https://addons.mozilla.org/es/firefox/addon/accessibility-evaluationtoolb/. En esta barra, se debe desactivar la opción de hojas de estilo, disponible en: Style -> Author CSS. Ejemplo 2: Para Firefox, usar la extensión “Web Developer Extension”, disponible en: https://addons.mozilla.org/en-US/firefox/addon/web-developer/ . En esta barra, se pueden desactivar mediante mediante la opción disponible en: CSS -> Disable Styles. Usar un analizador de contraste o una extensión para el navegador: Ejemplo 1: Para Firefox, usar la extensión “WCAG Contrast Checker”, disponible en: https://addons.mozilla.org/es/firefox/addon/wcag-contrast-checker/. Ejemplo 2: Usar el analizador online WAVE, que permite probar colores para conseguir contraste adecuado, disponible en: http://wave.webaim.org/. En Firefox, se accede también a este analizador desde la extensión “Accessibility Evaluation Toolbar”. Ejemplo 3: Instalar en local y usar el analizador “Colour Contrast Analyser”, programa que permite comprobar puntos concretos de la página, disponible en: http://www.visionaustralia.org/docs/businesses-and-professional/cca-2-2zip.zip?sfvrsn=2. Usar una extensión para el navegador. Ejemplo 1: Para Firefox, usar la extensión “HeadingsMap”, disponible en: https://addons.mozilla.org/es/firefox/addon/headingsmap/. Ejemplo 2: Para Firefox, utilizar la extensión “Firefox: Accessibility Evaluation Toolbar”, disponible en: https://addons.mozilla.org/es/firefox/addon/accessibilityevaluation-toolb/. En esta barra, se debe activar la opción de ver cabeceras, disponible en: Navigation -> Headings. Usar un detector de problemas de epilepsia. Ejemplo: Programa PEAT (Photosensitive Epilepsy Analysis Tool), disponible en: http://trace.wisc.edu/peat/ 198 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos ACCIÓN Validar el formato HTML Validar las hojas de estilo CSS Activar un lector de pantalla o navegador de texto Probar varios navegadores web OBJETIVO Comprobar si el formato de etiquetas HTML es correcto. Comprobar si es correcto el formato de hojas de estilo CSS usadas por la página. Comprobar si un lector de pantalla puede leer todos los elementos, y comprobar los problemas para leer una página con muchos enlaces, y si hay un orden de lectura. Comprobar que la página se visualiza correctamente en varios navegadores web y versiones de estos diferentes. HERRAMIENTAS GRATUITAS A UTILIZAR Usar el validador oficial de W3C. Disponible en línea en: http://validator.w3.org. En Firefox, este validador de W3C también está incluido en la extensión “Accessibility Evaluation Toolbar”, disponible en: https://addons.mozilla.org/es/firefox/addon/accessibility-evaluation-toolb/. En esta barra, se debe activar la opción de validación HTML, disponible en: Validators -> W3C HTML Validator. Usar el validador oficial de W3C. Disponible en línea en: http://jigsaw.w3.org/css-validator. En Firefox, este validador de W3C también está incluido en la extensión “Accessibility Evaluation Toolbar”, disponible en: https://addons.mozilla.org/es/firefox/addon/accessibility-evaluation-toolb/. En esta barra, se debe activar la opción de validación CSS, disponible en: Validators -> W3C CSS Validator. Usar un lector de pantalla o un navegador de texto. Ejemplo 1: Instalar en local y usar el lector de pantalla NVDA, disponible en: http://www.nvda-project.org/wiki/Download. Ejemplo 2: Instalar en local y usar el navegador de texto WebbIE, disponible en: http://www.webbie.org.uk/es/index.htm. Navegador web. Ejemplos: Internet Explorer, Firefox, Chrome, etc. Tabla 1. Acciones a realizar para hacer un examen rápido de accesibilidad de una página web 3. Paso 2: Evaluar la accesibilidad de la página web según la norma WCAG 2.0 evaluación de accesibilidad de sitios web según WCAG 2.0, como la los recogidos recientemente en el artículo [9]. En la tabla 2 se muestra un resumen de las seis acciones que se recomienda realizar como parte de la evaluación del nivel de cumplimiento de las WCAG 2.0 en una página web. Una vez realizado el examen rápido anterior, el evaluador tiene una idea general de los principales problemas de accesibilidad que puede presentar la página. Es por tanto el momento de abordar la evaluación formal del nivel de conformidad con la WCAG 2.0, es decir de comprobar cuáles se cumplen de los 61 criterios de conformidad, que la norma organiza en 12 pautas y éstas, a su vez en 4 principios generales [1]. Cada criterio de conformidad tiene un nivel de conformidad A, AA o AAA. Para que una página web sea conforme con las WCAG 2.0, debe satisfacer todos y cada uno de los criterios de conformidad según el nivel de conformidad que se quiera alcanzar en la página: A, AA o AAA. Existen procedimientos sistemáticos para llevar a cabo la evaluación, como la metodología WCAG-EM que está elaborando el W3C, y que cuando esté finalizada será la referencia obligada para ello [8]. Mientras tanto, una buena opción es imitar el procedimiento seguido en casos reales de 199 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos ACCIÓN Hacer una validación global de accesibilidad de la página según las WCAG 2.0 OBJETIVO Obtener de forma automática una puntuación global de referencia sobre la conformidad con las WCAG 2.0. Hacer una evaluación detallada de accesibilidad web de la página según WCAG 2.0 Obtener de forma automática una evaluación de los 61 criterios de conformidad establecidos por WCAG 2.0. HERRAMIENTAS GRATUITAS A UTILIZAR Usar una herramienta que devuelva una puntuación global de accesibilidad según WCAG 2.0. Ejemplo 1: Usar la herramienta en línea eXaminator, disponible en: http://examinator.ws. Esta herramienta obtiene una puntuación global entre 0 y 10. Ejemplo 2: Usa la herramienta en línea eGOVMON, disponible en http://accessibility.egovmon.no/en/pdfcheck/. Esta herramienta obtiene una puntuación global entre 0 y 100. Se recomienda utilizar al menos 4 herramientas diferentes, ya que unas herramientas pueden subsanar las limitaciones que otras tienen. Las 4 herramientas en línea de evaluación WCAG 2.0 recomendadas, a las que se debe proporcionar la dirección URL de la página a evaluar, son las siguientes: − TAW, disponible en http://www.tawdis.net. − Cynthia Says, disponible en http://www.cynthiasays.com − AChecker, disponible en http://achecker.ca. − eXaminator, disponible en http://examinator.ws. − eGOVMON, disponible en: http://accessibility.egovmon.no. En Firefox, a las herramientas TAW y AChecker también se puede acceder directamente desde la extensión “Accessibility Evaluation Toolbar”, disponible en: https://addons.mozilla.org/es/firefox/addon/accessibility-evaluation-toolb/. En esta barra, se debe activar la opción Tools. Si la página contiene documentos PDF, hacer una evaluación detallada de su accesibilidad WCAG 2.0 Realizar una comprobación manual de todos los criterios de conformidad Obtener de forma automática una evaluación de los criterios de conformidad de WCAG 2.0 que afectan a documentos PDF. Revisar los resultados de las herramientas automáticas y evaluar los criterios que no pueden determinarse automáticamente. Para evaluar páginas web que tengan clave de acceso, existen estas alternativas: − Hacer una copia de la página a evaluar en un servidor web sin clave de acceso, y utilizar las 4 herramientas de evaluación en línea recomendadas. − Utilizar una herramienta que permita enviar directamente un archivo html en lugar de una dirección URL de la página. Como es el caso de AChecker. − Utilizar una herramienta que permita pegar código html. Como es el caso de AChecker. − Utilizar una extensión del navegador que permita evaluar la página web que se está visualizando en cada momento. En el caso de Firefox, existe la extensión FireEyes, disponible en: http://www.deque.com/products/worldspace-fireeyes/download-worldspacefireeyes. Usar una herramienta de evaluación de documentos PDF según WCAG 2.0. Ejemplo: Herramienta en línea eGOVMON, disponible en http://accessibility.egovmon.no/en/pdfcheck/. Complementar con herramientas de evaluación general de accesibilidad de documentos PDF: Ejemplo 1: Programa PAC, disponible en http://www.access-for-all.ch/en/pdf-lab/pdfaccessibility-checker-pac/download-pac.html. Ejemplo 2: Programa Adobe Acrobat Pro, disponible la versión 7 de forma gratuita en http://www.adobe.com/downloads/cs2_downloads/. Permite corregir errores de accesibilidad directamente en el documento PDF. Complementar con un lector accesible o lector en modo texto de archivos: Ejemplo: Programa “Accesible PDF reader”, disponible en: http://www.webbie.org.uk/accessiblepdf/. Utilizar todas las herramientas anteriores. Utilizar como informe una lista de chequeo de criterios de conformidad o un informe completo. Ejemplos de listas de chequeo: − Lista en formato .rtf, disponible en: http://www.cc.uah.es/hilera/accesibilidad/CuestionarioAccesibilidadWebWCAG2.rtf. − Lista en formato de hoja de cálculo, disponible en: http://www.usableyaccesible.com/archivos/herramienta_consultoria_accesibilidad_WCAG2 .xlsx. − Caso real de una lista de chequeo del W3C, disponible en: http://www.w3.org/WAI/demos/bad/before/reports/home.html. 200 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos ACCIÓN Redactar un informe de evaluación (Opcional) Calcular una puntuación sobre la accesibilidad de la página web. OBJETIVO Registrar en un documento datos del evaluador y el resultado de la evaluación de accesibilidad. Si el evaluador lo estima oportuno, puede complementar el nivel WCAG 2.0 obtenido (A, AA o AAA) con una medida numérica global de accesibilidad. HERRAMIENTAS GRATUITAS A UTILIZAR Ejemplo de plantilla para informe completo: − Estructura de informe recomendada por el W3C, disponible en: http://www.w3.org/WAI/eval/template.html. Existen herramientas ya citadas, que ofrecen una puntuación de la accesibilidad de una página web, en función del cumplimento de ciertos criterios de conformidad WCAG 2.0 seleccionados: − Ejemplo 1: eXaminator, disponible en http://examinator.ws. − Ejemplo 2: eGOVMON, disponible en: http://accessibility.egovmon.no. Aunque no existen herramientas que las calculen, otros autores han definido otros índices para obtener una puntuación numérica de accesibilidad, que pueden calcularse fácilmente mediante el uso de cualquier hoja de cálculo. Algunas fórmulas de referencia pueden ser las utilizadas en estudios de accesibilidad, como las utilizadas en los estudios de accesibilidad de sitios web. Algunos son los siguientes: − Ejemplo 1: Índice de accesibilidad que utiliza un conjunto de 12 indicadores, en la página: http://www.discapnet.es/Castellano/areastematicas/Accesibilidad/Observatorio_infoaccesibil idad/informesInfoaccesibilidad/Paginas/default.aspx. − Ejemplo 2: Índice de accesibilidad que utiliza un conjunto de 14 indicadores, con una puntuación entre 0 y 100, y disponible en: http://redc.revistas.csic.es/index.php/redc/article/view/774/909. Tabla 2. Acciones a realizar para hacer la evaluación de accesibilidad de una página web según WCAG 2.0 En la tabla 2 se han recogido las herramientas para evaluar la accesibilidad del contenido de una página web y de posibles documentos PDF que incluya la página. Además de documentos PDF, una página puede contener otros elementos de información, como pueden documentos de texto (en formato .doc, .docx, .odt, o .rdf), presentaciones (en formato .ppt, .pptx o .odp), o hojas de cálculo (en formato .xls, .xlsx o .ods), software embebido en la página (en formato Flash, Silverlight, Java, entre otros). En general no existen herramientas de libre uso para la evaluación directa de la accesibilidad de los contenidos de tales archivos. En el caso de los documentos ofimáticos, existen utilidades de evaluación integradas en la suite MS Office 2010 [10], pero este paquete no es gratuito. Aunque siempre existe el recurso de transformarlos a PDF y utilizar alguna de las herramientas citadas en la tabla [10]. En el caso del software embebido en las páginas web, que queda fuera del control del navegador, tampoco existen herramientas de evaluación automática de libre uso. El W3C ha identificado los requisitos de accesibilidad que debiera cumplir este tipo de software, en su guía de referencia rápida de WCAG 2.0 [11]. Pero en este caso, puede no ser suficiente lo indicado en dicha guía, y es necesario evaluar si dicho software cumple también el estándar ISO 9241-171:2008 sobre accesibilidad general del software [12]. Este estándar es equivalente a la norma española UNE 139802:2009 [13]. 4. Conclusiones La evaluación de la accesibilidad de una página web aplicando los 61 criterios de conformidad establecidos por la norma WCAG 2.0 no es una tarea sencilla. Existe mucha información al respecto en la literatura, orientada a explicar los principios, pautas y criterios de la recomendación del W3C, o a presentar herramientas de utilidad. Toda esta información es muy útil para evaluadores expertos. Sin embargo, en muchas ocasiones personas que desear introducirse en el campo de la evaluación de la accesibilidad, se ven abrumados por tanta información y precisan de guías de referencia que les faciliten su incorporación en este campo. En este trabajo se ha presentado una guía rápida que establece una serie de pasos básicos que deberían seguirse en el uso de herramientas de software libre de ayuda en la evaluación de la accesibilidad web. Aunque el objetivo del trabajo es el uso de herramientas gratuitas, es importante reconocer que existen herramientas comerciales también ampliamente utilizadas por personas con discapacidad (como es el caso del lector de pantalla Jaws). Sin embargo, las herramientas seleccionadas en la guía no presentan limitaciones importantes respecto a similares herramientas comerciales. El propio carácter de ser una guía rápida, exige que una vez el interesado empiece a realizar evaluaciones de páginas web, debería documentarse más en profundidad sobre todos los aspectos relacionados no sólo con la evaluación de la accesibilidad de páginas web ya creadas, sino el todo lo que concierne a la integración de la accesibilidad en el proceso de diseño de páginas web [14], con las modificaciones de páginas web ya existentes para hacerlas accesibles [15], o con la incorporación de la accesibilidad en los nuevos estándares de representación de páginas web [16]. El alcance y efectividad de la guía ha sido probada en la evaluación de sitios web reales, y sus limitaciones están siendo corregidas de forma continua a través de la experiencia de su aplicación. Se ha previsto ampliar la guía con consejos e instrucciones que faciliten su aplicación, especialmente a personas que se inician en el ámbito de la accesibilidad web. 201 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 5. Referencias [1] Web Content Accessibility Guidelines (WCAG) 2.0, World Wide Web Consortium (W3C), 2008. Disponible en http://www.w3.org/TR/WCAG20/. [2] ISO/IEC 40500:2012, Information technology -- W3C Web Content Accessibility Guidelines (WCAG) 2.0, International Organization for Standardization (ISO), Ginebra, Suiza, 2012. [3] UNE 139803:2012, Requisitos de accesibilidad para contenidos en la Web, Asociación Española de Normalización y Certificación, Madrid, España, 2012. Disponible en http://administracionelectronica.gob.es/PAe/accesibilidad/UNE139 803=2012.pdf. [4] Web Accessibility Initiative (WAI), World Wide Web Consortium (W3C), 2013. Disponible en http://www.w3.org/WAI/. [5] G. Brajnik, G., Yesilada, Y. and Harper, S. 2010. Testability and validity of WCAG 2.0: the expertise effect. In Proceedings of the 12th international ACM SIGACCESS conference on Computers and accessibility (ASSETS '10). ACM, New York, NY, USA, 43-50. [6] F. Alonso, J.L., Fuertes, L.A. Gonzalez and L. Martinez.2010. On the testability of WCAG 2.0 for beginners. In Proceedings of the 2010 International Cross Disciplinary Conference on Web Accessibility (W4A) (W4A '10). ACM, New York, NY, USA. DOI=10.1145/1805986.1806000 [7] Christopher Bailey and Elaine Pearson. 2011. Development and trial of an educational tool to support the accessibility evaluation process. In Proceedings of the International CrossDisciplinary Conference on Web Accessibility (W4A '11). ACM, New York, NY, USA, , Article 2 , 10 pages. DOI=10.1145/1969289.1969293 [8] Website Accessibility Conformance Evaluation Methodology (WCAG-EM) 1.0, World Wide Web Consortium (W3C), 2013. Disponible en http://www.w3.org/TR/WCAG-EM/. [9] J.R. Hilera, L. Fernández-Sanz, E. Suárez, E.T. Vilar, “Evaluación de la accesibilidad de páginas web de universidades españolas y extranjeras incluidas en rankings universitarios internacionales”, Revista Española de Documentación Científica, Madrid, España, 2013, vol. 36, no. 1. Disponible en http://redc.revistas.csic.es/index.php/redc/article/view/774/909. http://labda.inf.uc3m.es/doku.php?id=es:labda_personal:personal_l moreno#ReDocuAcc. [11] How to Meet WCAG 2.0, World Wide Web Consortium (W3C), 2012. Disponible en http://www.w3.org/WAI/WCAG20/quickref/. [12] ISO 9241-171:2008, Ergonomics of human-system interaction -- Part 171: Guidance on software accessibility, International Organization for Standardization (ISO), Ginebra, Suiza, 2008. [13] UNE 139802:2009, Requisitos de accesibilidad del software, Asociación Española de Normalización y Certificación, Madrid, España, 2012. [14] L. Moreno, AWA, Marco metodológico específico en el dominio de la accesibilidad para el desarrollo de aplicaciones web, Tesis doctoral, Universidad Carlos III, Madrid, España, 2010. Disponible en http://labda.inf.uc3m.es/lib/exe/fetch.php?media=tesis:tesis_doctor al_lourdes_moreno.pdf. [15] D. Sangilbert, “Reingeniería de una aplicación web para que sea accesible”, Actas del IV Congreso Internacional sobre Aplicación de Tecnologías de la Información y Comunicaciones Avanzadas (ATICA’2012), Universidad Técnica Particular de Loja, Loja, Ecuador, 2012, pp. 129-136. [16] T. Díez, M.J. Domínguez, J.J. Martínez, J.J. Sáenz, “Creación de páginas Web accesibles con HTML5”, Actas del IV Congreso Internacional sobre Aplicación de Tecnologías de la Información y Comunicaciones Avanzadas (ATICA’2012), Universidad Técnica Particular de Loja, Loja, Ecuador, 2012, pp. 119-128. 6. Derechos de autor El autor o los autores de los artículos presentados como soporte documental para sus intervenciones en el Congreso, en el mismo acto de enviarlos para su aprobación, aceptan la cesión de los derechos de autor sobre los mismos para su publicación en el libro de actas del Congreso. 7. Agradecimientos Este trabajo ha sido financiado en parte por la Comisión Europea, a través del proyecto ESVI-AL del programa ALFA. [10] L. Moreno, Recursos para elaborar documentación accesible, Universidad Carlos III, Madrid, España, 2012. Disponible en 202 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Servicios de Integración Laboral para Personas con Discapacidad Mediante la TV Conectada Carlos Alberto Martín Edo José Manuel Menéndez García Guillermo Cisneros Pérez Grupo de Aplicación de Telecomunicaciones Visuales (G@TV) E. T. S. de Ingenieros de Telecomunicación - Universidad Politécnica de Madrid {cam, jmm, gcp}@gatv.ssr.upm.es Resumen Este artículo resume el proyecto INLADIS, que ha consistido en la implementación de un conjunto de herramientas accesibles para la integración laboral de las personas con discapacidad a través de la pantalla de TV y de la pantalla del ordenador mediante HbbTV, una tecnología estándar para la provisión de contenidos y servicios de TV Conectada. Abstract This paper summarizes the INLADIS project, which has carried out the implementation of a set of accessible tools for the work integration of people with disabilities through the TV screen and the computer screen by means of HbbTV, a standard technology for providing Connected TV services and content. 1. Introducción En los últimos años se ha hecho cada vez más patente el proceso de convergencia tecnológica entre dos mundos tradicionalmente separados, por una parte, la transmisión de contenidos audiovisuales y la TV, y, por otra, Internet y los ordenadores. Este proceso de convergencia afecta tantos a las redes, como a los terminales y servicios. Se pueden citar un gran número de ejemplos, tales como el auge de portales como youtube.com o la disponibilidad de servicios del tipo “TV a la carta” en las webs de los operadores de TV. Este proceso ha sido paralelo al aumento de tráfico audiovisual en Internet así como al proceso de despliegue de la TV digital, que se enmarca en un fenómeno más amplio de digitalización de la información en cualquier soporte y, por tanto, de una homogeneización en la representación de los datos que facilita el procesamiento, la transmisión y la integración de nuevos contenidos y servicios. Imagen 1. Diagrama de la TV conectada Dentro de este entorno de convergencia ha aparecido un nuevo paradigma, que recibe distintos nombres, como TV conectada, Smart TV, TV híbrida o HBB (Hybrid Broadcast Broadband) y que se caracteriza por la existencia de pantallas que son capaces de recibir y de reproducir contenidos (particularmente contenidos multimedia) llegados tanto de una de red de radiodifusión (como la TDT o el satélite) como de Internet. Para ello, la pantalla de TV cuenta con un conector Ethernet o una interfaz wifi, de modo que se convierte en un equipo más de la red doméstica del usuario, capaz así de recibir bajo demanda contenidos directamente a través de Internet gracias a la red de acceso contratada por el usuario, supuesta de banda ancha, como ADSL o fibra. En la imagen 1 (extraída del estándar HbbTV [1]) se muestra esquemáticamente este nuevo paradigma. La pantalla de televisión recibe los contenidos tanto de la red de difusión de la izquierda (satélite en este caso) como de Internet, a la derecha. Las flechas entre los elementos indican los flujos de información. Así, la red de difusión permite la entrega de contenido audiovisual lineal, mientras que Internet posibilita la recepción de contenidos no lineales. Además, en la imagen 1 se representa cómo la disponibilidad de conexión a Internet se emplea como canal de retorno. La disponibilidad de la conexión de banda ancha supone una serie de ventajas (tales como la posibilidad de enviar vídeo codificado en una buena calidad, la existencia de un canal de retorno del tipo “siempre conectado” y las 203 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos posibilidades de personalización), que abren un amplio abanico de nuevos servicios y contenidos multimedia para el usuario a través de la pantalla de TV, entre los cuales han predominado hasta la fecha los portales de contenidos audiovisuales bajo demanda, bien recopilando a modo de biblioteca multimedia los últimos programas emitidos (lo que en ocasiones se denomina catch-up), bien con contenidos de características novedosas y que no se están difundiendo en la actualidad, como es el caso de los contenidos 3D disponibles en el portal de TV conectada del fabricante Samsung. En la Cátedra Indra – Fundación Adecco en la Universidad Politécnica de Madrid para las Tecnologías Accesibles, que gestiona el grupo de investigación al que pertenecen los autores, se vio la oportunidad de aprovechar este nuevo paradigma tecnológico y sus potencialidades para la prestación de servicios de accesibilidad e integración laboral para las personas con discapacidad, de acuerdo con los objetivos de la propia cátedra y de las entidades que la patrocinan, que consisten en favorecer la integración laboral de las personas con discapacidad y en promover la accesibilidad audiovisual. La utilización de la pantalla de TV para la prestación de estos servicios permite llegar a un mayor número de usuarios que otros dispositivos gracias a su penetración y a la familiaridad con que es vista. Además, se trata de una interfaz intrínsecamente concebida para la presentación de contenidos multimedia. Este trabajo se ha llevado a cabo en el marco del Proyecto INLADIS – Plataforma Multipantalla para la Integración Laboral de las Personas con Discapacidad. La presencia de la Fundación Adecco en la cátedra ha permitido traer al proyecto los requisitos y criterios del mundo de la discapacidad. 2. HbbTV HbbTV (Hybrid Broadcast Broadband TV), publicado por el ETSI (European Telecommunications Standards Institute) con el código TS 102 796 [1] es un estándar de interoperabilidad, que permite que tanto los fabricantes como los operadores de TV puedan explotar sus portales de contenidos de TV conectada. Es habitual encontrar en la cadena de distribución de electrónica de consumo pantallas que declaran conformidad con HbbTV, lo que permite augurar una implantación exitosa de este estándar. En el caso de los portales de los fabricantes (aplicaciones “broadcast-independent”), el acceso se realiza mediante un botón específico del mando (del tipo Internet@TV), mientras que las aplicaciones del operador de TV (o “broadcast-related”) quedan disponibles gracias a que junto con la señal difundida se multiplexa una tabla de señalización con la URL que el navegador de la pantalla ha de visitar. Además, frente a modelos anteriores de TV interactiva, HbbTV no requiere unas capacidades avanzadas (o por lo menos, no más avanzadas que las pantallas que soportan una especificación propietaria de TV conectada, como las que han desarrollado la mayoría de los principales fabricantes), por lo que el soporte de esta tecnología no penaliza el precio del dispositivo. En el marco del proyecto INLADIS se vio que HbbTV era la especificación de TV conectada más adecuada para poner en marcha los servicios que se explicarán en seguida, al tratarse de un estándar abierto y público, de modo que un desarrollador puede conocer toda la información sobre el comportamiento y las capacidades de la pantalla. La especificación de HbbTV referencia otras tecnologías previas con la intención de facilitar el despliegue de servicios al utilizar otros componentes ya implementados. Así, las principales dependencias normativas de HbbTV son CE-HTML (HTML para dispositivos de electrónica de consumo, de acuerdo con la especificación CEA-2014) [2], el DAE (Declarative Application Environment, especificado por el OIPF, Open IPTV Forum) y la norma DVB para sincronización y señalización en entornos de TV conectada, publicada por ETSI como TS 102 809 [3]. HbbTV también soporta CSS y JavaScript (Ajax incluido). Para la reproducción de contenido audiovisual no lineal y la especificación de protocolos, HbbTV referencia otras normas del OIPF. 3. INLADIS El objetivo primordial de INLADIS ha sido ver cómo HbbTV podía ser empleado para la provisión de nuevos servicios a través de la TV pensando en las personas con discapacidad y, en particular, su integración laboral, sin restringirse a perfiles concretos. Puesto que un requisito para estos nuevos servicios en el marco del proyecto era la accesibilidad, además INLADIS ha servido para estudiar cómo las capacidades de HbbTV pueden servir para proporcionar servicios de accesibilidad a los nuevos contenidos, como ya hizo en el pasado el grupo de investigación de los autores con otras novedades tecnológicas [4]. Existen también propuestas para utilizar HbbTV para la prestación de servicios de accesibilidad audiovisual [5], mientras que INLADIS se ha orientado a hacer accesibles las herramientas de integración laboral desarrolladas. Dado que la TV conectada se encuentra todavía en fase de despliegue y se siguen produciendo nuevas versiones del estándar, todavía se está a tiempo de diseñar los nuevos servicios para que estén disponibles para el mayor número de usuarios, cumpliendo así el principio del diseño para todos. Puesto que las aplicaciones HbbTV se conciben para ser presentadas en los navegadores embebidos en las pantallas de TV, que son dispositivos de electrónica de consumo con unas capacidades limitadas, con más motivo podrán presentarse también en los navegadores de un hardware de propósito general. Con esta premisa se optó en el proyecto INLADIS desde su comienzo por prever la explotación de los servicios de integración laboral a través de ambas pantallas, lo que constituye una característica novedosa, dado que habitualmente las aplicaciones HbbTV se plantean para presentarse únicamente en la pantalla de televisión. La plataforma INLADIS consta de cuatro servicios, los cuales están accesibles desde la pantalla principal, como se muestra en la imagen 2. 204 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Imagen 2. Página inicial del portal INLADIS En primer lugar, se encuentran los cursos de formación, que utilizan las capacidades del estándar para proporcionar contenido multimedia, como ficheros de audio y vídeo. Los cursos se editan a partir de una interfaz web también creada en el proyecto, de modo que un operario proporciona los contenidos (texto, imágenes y vídeo) y se generan automáticamente los ficheros que permiten la explotación a través de HbbTV. Para esta funcionalidad se utilizan las capacidades de HbbTV para el manejo de ficheros XML. Con el fin de facilitar el seguimiento de los cursos por parte de los usuarios, los cursos de estructuran en capítulos y en páginas y se limita el número de caracteres que pueden aparecer simultáneamente en una pantalla. De este modo se conforma el árbol de navegación a través de los cursos. La segunda herramienta consiste en un buscador de ofertas de empleo dirigidas a personas con discapacidad. Se trata de ofertas reales, que se integran en la plataforma de manera automática cuando los consultores de la Fundación Adecco las editan, a la vez que se envían a otros portales de empleo. Para ello, dirige una petición al servidor de la plataforma, la cual incluye toda la información necesaria en un fichero XML, que se parsea en el servidor. Es posible realizar búsquedas a partir de dos criterios: la provincia y el sector de actividad, seleccionables en sendas pantallas consecutivas. A continuación, se muestra una pantalla con un índice de las ofertas que cumplan los criterios de búsqueda (imagen 3) y el usuario puede ampliar la información sobre cada una de ellas. Imagen 3. Lista de ofertas reales de empleo El tercer servicio consiste en un foro de discusión abierto a la participación de los usuarios. Se creó por sugerencia de la Fundación Adecco, de modo que sirviese como punto de discusión de cuestiones laborales para personas con discapacidad y con formación en tecnologías de la información y la comunicación. Si bien las pantallas de TV con HbbTV incorporan mecanismos para introducir texto (nótese que toda la interacción de usuario se realiza mediante el mando a distancia), es un proceso laborioso, por lo que la inserción de nuevos mensajes parece una tarea más propia de la utilización de la interfaz PC. En cambio, la interfaz TV sí puede emplearse para leer los mensajes. La cuarta herramienta consiste en información estática sobre la integración laboral de las personas con discapacidad y está destinada tanto a empleadores como a solicitantes de empleo. Incluye información como la tramitación de certificados o un resumen de las disposiciones legislativas que buscan la integración laboral de las personas con discapacidad bien con contratos temporales o fijos. 4. Accesibilidad en INLADIS Desde el inicio del proyecto se vio la necesidad de que todos los desarrollos y herramientas fuesen accesibles para personas con discapacidad ya que el colectivo formado por estas personas era el principal destinatario del portal. Por ello, en el marco del proyecto se ha dotado a las herramientas de distintas mejoras de accesibilidad, lo que constituye también una contribución a la implementación de servicios de accesibilidad en HbbTV. Se accede al servicio mediante una interfaz de autenticación, de modo que se activen automáticamente las ayudas a la accesibilidad correspondientes, aunque sin manejar información explícita sobre la discapacidad. Así, un usuario con discapacidad visual tendría activada por defecto la audionavegación de las páginas. Se encuentran locutadas todas las herramientas y pantallas salvo el foro. También se incluye la locución de los menús y de las instrucciones de navegación. Los elementos locutados incluyen tanto los estáticos (como es el caso de la cuarta herramienta), como los dinámicos (los cursos y las ofertas de empleo). Desde el punto de vista de la implementación, la plataforma utiliza las funcionalidades de HbbTV para la reproducción de ficheros de audio, los cuales llegan a la pantalla de TV a través de la conexión a Internet. Se ha optado por codificar estos ficheros como audio de MPEG-1L2. Además, un usuario con discapacidad visual se beneficiaría de una interfaz mejorada en los cursos de formación, en la que se ha maximizado el contraste de las pantallas (caracteres negros sobre fondo blanco) y se ha aumentado el tamaño de las letras. Para aumentar el espacio disponible en la pantalla, en este modo de funcionamiento no aparece la imagen ilustrativa de cada pantalla del curso. En cuanto a las personas sordas, la inserción de vídeos en las pantallas de los cursos multimedia puede emplearse para la provisión de lengua de signos. La implementación se ha realizado para que sea posible indicar que un vídeo es de lengua de signos en el instante de subirse. En ese caso, se empieza a reproducir escalado una vez que el usuario entra en la correspondiente página, si es que tiene activada esta ayuda técnica en su configuración personalizada. Además, las páginas con vídeo de lengua de signos se marcan con el icono especificado en la norma UNE 139 804 para utilización de la lengua de signos en Internet. Para lograr una interfaz lo más accesible posible, tanto en la pantalla de TV como en la pantalla del ordenador, se 205 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos han seguido las directrices de accesibilidad para contenido web elaboradas por el W3C, denominadas WCAG (Web Content Accessibility Guidelines) 2.0 [6]. Finalmente, para facilitar la accesibilidad se ha prestado atención a la navegación e interacción con el portal, como se observa en la imagen 2. 5. Conclusiones futuro y trabajo Desde comienzos de este año 2013 ya se cuenta con un prototipo completamente funcional y disponible en laboratorio. Los medios con los que cuenta el grupo de investigación permiten la emisión de un flujo de TV digital con la señalización adecuada para que una pantalla o receptor con soporte para HbbTV muestre las aplicaciones. De cara a la explotación real, es necesario que un operador de TV incluya la señalización en sus emisiones de TV digital y una fase de validación con usuarios más allá de las pruebas informales que se han realizado a lo largo de la última fase del proyecto en las instalaciones de la cátedra. En el futuro se podrá analizar la incorporación y verificación de estándares como SCORM para los cursos de formación o especificaciones internacionales para audiodescripción en televisión (IEC 62731:2013). 6. Agradecimientos Los autores desean agradecer a Indra y a la Fundación Adecco la financiación concedida a este proyecto a través de la cátedra que ambas entidades mantienen en la Universidad Politécnica de Madrid para promover la integración laboral de las personas con discapacidad y la accesibilidad audiovisual. También desean agradecer la labor en el proyecto del resto de integrantes del equipo de trabajo: Juan Pedro Fernández Fraile y Paola Cano García. 7. Referencias [1] ETSI. TS 102 796 “Hybrid Broadcast Broadband TV”. V1.1.1. Junio de 2010. [2] CEA. CEA2014 "Web-based Protocol and Framework for Remote User Interface on UPnP™ Networks and t he Internet (Web4CE)". Jul-2007. [3] ETSI. TS 102 809 “Digital Video Broadcasting (DVB); Signalling and carriage of interactive applications and services in Hybrid broadcast/broadband environments”. V1.1.1. 2010. [4] C. A. Martín, L. García, J. M. Menéndez, and G. Cisneros. “Access Services based on MHP Interactive Applications” Consumer Electronics, IEEE Trans on, vol. 56, N 1, pp. 198-202. Feb 2010. [5] Peter Olaf Looms – Danish Broadcasting Corporation (DR) “The future of DTV Access services”. EBU Technical Review. 2010 Q4. [6] W3 Consortium. “Web Content Accessibility Guidelines (WCAG) 2.0”. W3C Recommendation. Diciembre de 2008. http://www.w3.org/TR/WCA 206 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Guremintza: Una red social para la diversidad cognitiva Abascal, Julio; Arbelaitz Olatz; Muguerza, Javier U. del País Vasco/EHU [email protected] Heredia Sáenz, Antoni Grupo Gureak [email protected] Resumen GUREMINTZA: Red social del Grupo Gureak para la comunicación y aprendizaje en el uso de redes digitales. Se ha diseñado y desarrollado teniendo en cuenta pautas específicas para el colectivo de personas con discapacidad intelectual y ha incluido la participación de los usuarios/as finales. Esta red permite la tutorización y acompañamiento del usuario/a en el manejo de la red. GUREMINTZA the Gureak Group's Social network is intended for communication and t raining in the use of digital networks. Its design and development was focused to the specific guidelines for people with intellectual disabilities and included the participation of the final users. This social network allows tutoring and supporting the users in the utilization of the network. 1. Introducción La competencia digital se considera básica actualmente, por lo que resulta fundamental familiarizar y capacitar a las personas con discapacidad intelectual en el uso de dispositivos y aplicaciones digitales. Por otra parte, las redes sociales se están convirtiendo en una herramienta importante en los procesos de comunicación y participación en la sociedad. No obstante, aplicaciones tales como Facebook o Twitter, utilizadas por miles de personas, no resultan fáciles para las personas con discapacidad. Así lo constata un estudio publicado por la Fundación ONCE (2011), que revela que las redes sociales suspenden en accesibilidad [1]. Por otro lado, el acceso a las redes sociales convencionales puede implicar algunos riesgos para las personas con discapacidad cognitiva que no hayan sido adecuadamente entrenadas, tales como la posibilidad de divulgación accidental o involuntaria de datos personales privados o de información privada sobre otras personas; el uso inadecuado de la red social (por ejemplo, envío a toda la comunidad de mensajes dirigidos a una sola persona, envío de mensajes repetidos, etc.) o la posibilidad de ser víctimas de fraude o de acoso. Es cierto que cualquier persona que utilice las redes sociales está expuesta a los mismos peligros, pero las personas con discapacidades cognitivas pueden carecer de la capacidad para identificar y hacer frente a estos problemas Hernández, Daniel Lotura [email protected] Por todo ello, dentro de las actuaciones llevadas a cabo por el Grupo Gureak 10, donde la tecnología se utiliza en los procesos de capacitación y desarrollo de competencias socio-laborales, surge la idea de este proyecto: GUREMINTZA. 2. Objetivos Como objetivos específicos, GUREMINTZA trata de incentivar la socialización; facilitar las relaciones a través de la Web; fomentar la conexión con el entorno; concienciar sobre la exposición de intimidad en las redes sociales digitales y sus repercusiones; y preparar para el uso de redes sociales abiertas. GUREMINTZA es una red social accesible orientada inicialmente a un uso interno, con el objetivo de trabajar las competencias socio-laborales y, al mismo tiempo, desarrollar y entrenar las competencias digitales. Se trata de posibilitar un espacio que facilite una experiencia real de aprendizaje, que aporte a las personas con discapacidad intelectual la oportunidad de aprender a utilizar este tipo de herramientas digitales. Se ha intentado que el aspecto y las funcionalidades sean similares a las comúnmente utilizadas por las redes sociales, de manera que, en el caso de que el usuario o la usuaria lo desee, pueda dar el paso a las redes comúnmente utilizadas. Así pues, GUREMINTZA pretende mejorar la calidad de vida de las personas con discapacidad intelectual, mediante el soporte de las dimensiones de autodeterminación, relaciones interpersonales, desarrollo personal y defensa de sus derechos. Una vez adquiridos los conocimientos básicos, posibilitar el acceso a una mayor inclusión social. En la concepción y desarrollo de GUREMINTZA han participado Egokituz [2]: Laboratorio de Interacción Persona-Computador para Necesidades Especiales, (Universidad del País Vasco/Euskal Herriko Unibertistatea), la empresa cooperativa de desarrollo de aplicaciones web Lotura [3], y Gitek [4], el área I+D+i sociotecnológico del Grupo Gureak. 10 El Grupo Gureak es un grupo empresarial que tiene la misión de generar y gestionar oportunidades laborales lo más adaptadas posibles a las capacidades de las personas, dando prioridad a las personas con discapacidad intelectual de Gipuzkoa. 207 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 3. Diseño En el diseño y desarrollo de GUREMINTZA, se aplicó una metodología basada en la participación del usuario/a. Para ello, se formó un equipo que incluía cuatro personas con discapacidad intelectual (dos de ellas con conocimientos medios en el manejo de Internet y dos con un perfil bajo en el manejo de nuevas tecnologías). Este grupo participó en todas las fases del diseño y el desarrollo, desde la definición de las funcionalidades hasta el diseño de la interfaz y el aspecto exterior de la herramienta. Además, este grupo fue validando cada uno de los diversos prototipos realizados. Dentro del equipo de trabajo participó en igualdad de condiciones en la toma de decisiones. El diseño participativo [5] con usuarios con discapacidad cognitiva requiere procedimientos especiales que permiten la recogida de requisitos evitando preguntas directas que podrían ser difíciles o imposibles de responder para algunas personas con limitaciones cognitivas [6]. Por lo tanto, cada consulta se diseñó de tal manera que fuera posible obtener una respuesta no ambigua. Por ejemplo, las preguntas directas como "¿Prefieres A o B", a menudo no producen una respuesta significativa, y "¿Te gusta A" es muy probable que reciba una respuesta positiva, mientras que la cuestión opuesta "¿Te gusta el B (alternativa a la A)?" también recibe una respuesta positiva. Por lo tanto, el estudio incluyó el uso directo de modelos y prototipos, al principio en papel, para identificar las preferencias de los usuarios y las dificultades que tienen los usuarios en su uso de algunos procedimientos. En este proceso el personal técnico trató de evitar cualquier tipo de manipulación de las preguntas o de las decisiones adoptadas. Los miembros del grupo fueron informados de que se tendrían en cuenta todas sus decisiones a menos de que su aplicación fuera imposible 4. La red social GUREMINTZA Imagen 2. Mis aficiones Imagen 3. Mis fotos b) Novedades: Es el lugar donde cada usuario/a ve los mensajes de su muro y envía mensajes a sus amigos/as. Los mensajes del muro son los mensajes privados, los mensajes públicos de las amistades, y los mensajes que se publican en los grupos a los que pertenece. GUREMINTZA [7] se compone de cuatro espacios bien diferenciados: a) Perfil: Los/as usuarios/as crean y modifican su perfil. Gestionan la información personal, las aficiones y el material multimedia propio. Este espacio es una oportunidad para capacitar en las funcionalidades del “perfil digital”. Imagen 4. Novedades o Muro Imagen 1. Mis datos 208 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Imagen 5. Escribir mensaje Imagen 8. Chat c) Amigos: Es la zona donde se gestionan las amistades, lo que permite compartir información a través de distintas herramientas de comunicación, como mensajes, chat o videoconferencia. Un icono en forma de enchufe avisa si la persona se encuentra online. Igualmente, las herramientas de comunicación síncronas, se desactivan en el caso de que la persona con la que se desea chatear o realizar una videoconferencia, se encuentre desconectada de GUREMINTZA. Imagen 9. Vídeo chat Imagen 6. Mis amigos Imagen 10. Buscar amigos Imagen 7. Perfil amigo Imagen 11. Hacer amigos 209 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos d) Grupos: Los/as usuarios/as pueden participar en grupos cerrados o abiertos. Para pertenecer a un grupo abierto, el/la usuario/a podrá acceder al mismo sin validación del administrador/a. En cambio, en los grupos cerrados, el/la usuario/a deberá solicitar la pertenencia y el administrador/a confirmará el acceso. • • • • • • • • • • Imagen 14. Mis grupos El mayor esfuerzo durante el desarrollo de GUREMINTZA, se ha centrado a abordar aspectos de la atención, memoria y percepción [9]: • • • • • • Imagen 16. Buscar grupos Imagen 17. Crear nuevo grupo 5. Accesibilidad Para tratar la accesibilidad y usabilidad en la fase de diseño y desarrollo, se han tenido en cuenta tres fuentes principales: pautas de accesibilidad web (W3C-WAI), protocolo NI4 de navegación fácil, y lectura fácil [8]. Para ello se ha implementado un diseño simple, claro e intuitivo: Cada espacio tiene un color significativo. Se permite el control de la privacidad de toda la información que comparte el/la usuario/a. Se envían alertas de cualquier cambio o actualización en la sesión y de los usuarios/as que se encuentran online. Se puede denunciar cualquier contenido que el usuario/a considere no adecuado. Se evita todo tipo de scroll. Se acompañan los menús y botones con elementos gráficos para aumentar su comprensibilidad. Se ofrecen ayudas por pantalla y campo de formulario. Se pide confirmación antes de una acción y se muestra el resultado. Se utiliza texto fácil. Se permite la locución en voz alta de cualquier contenido textual que se publique en la red. Evitar la desorientación. Prescindir de la sobreinformación. Identificar los elementos interactivos. Limitar los tiempos de espera. Eliminar elementos distractores. Ofrecer elementos de ayuda claros. Para ello, se han tenido en cuenta las siguientes pautas específicas para la diversidad cognitiva [8]: • Contenidos y Navegación. o Agrupación de contenidos: para evitar la sobreinformación y ofrecer un diseño claro, limpio y donde se encuentran las opciones rápidamente. o Navegación lineal: la interface informa de en qué lugar se encuentra, cómo ha llegado y cómo volver al inicio. o Menús de navegación coherentes: siempre visibles y en la misma posición. o Navegación rápida: evitando tiempos de descarga demasiados largos. • Apoyos y ayudas o Lenguaje adaptado: lenguaje comprensible, basado en las pautas de lectura fácil. o Prevención de errores: Instrucción y avisos previos, para evitar el error. En el caso de haya ocurrido un error se posibilita su solución o Uso de buscadores flexibles y eficaces con opción de ayuda en cada campo y que eviten el típico mensaje “no encontrado”. o Identificación de elementos interactivos: A cada enlace, botón, o cualquier otro elemento de interacción, además de texto, le acompaña una imagen significativa y una locución. o Apoyos alternativos de comprensión: Apoyos auditivos a textos. En este caso, todo texto de la red está leído en voz alta. • Estilo y diseño o Utilización de una tipografía clara, incluyendo el tipo de fuente y los colores. 210 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos o o o o o Evitación del scrolling horizontal y vertical: Toda la información debe de aparecer en la pantalla. Evitación de textos dinámicos que se desplacen por la pantalla, parpadeen o que sufran transformaciones. Evitación del exceso de movimiento y animación de las páginas. Inclusión de textos alternativos para las imágenes. Aportación de control total sobre los elementos multimedia de la web. 6. Administración y tutorización Para poder ofrecer un aprendizaje individualizado y posibilitar los apoyos necesarios en el manejo de GUREMINTZA, se ha desarrollado una herramienta de administración, compuesta por un sistema de alertas, que permite acompañar al usuario/a en su proceso de aprendizaje y utilización de la red social. Imagen 12. Administración Cuando se recibe una alerta, la persona responsable pone en funcionamiento un protocolo de actuación que derivará en acciones concretas. Estas acciones están especificadas como estrategias que pretenden apoyar al usuario/a en la capacitación de las competencias necesarias para el manejo de las redes sociales. Por ejemplo, estas estrategias pueden ser acciones formativas específicas, acompañamiento en la navegación, adaptaciones tecnológicas, etc. En el diseño actual, las alertas se producen por causas muy diversas que incluyen el seguimiento de denuncias, la solicitud de inclusión en grupos cerrados, la solicitud de alta ala red, la aceptación masiva de amistades, el envío masivo de mensajes abiertos, etc. No obstante se espera que la experiencia de uso continuado aporte conocimiento sobre cuáles de las actuales alarmas son relevantes y descubra otras situaciones que sean potencialmente alarmantes. 7. Actualidad y líneas de futuro Actualmente GUREMINTZA se ha implantado en el grupo de 700 personas que integran el servicio ocupacional, pero el objetivo es extenderla a todo Gureak. Por otro lado, se están contemplando diferentes fórmulas de ofrecer GUREMINTZA a la comunidad, una vez validada durante un periodo adecuado. Además, GUREMINTZA se ha desarrollado dentro de los proyectos DATACC y DATACC2 que, en colaboración con el proyecto ModelAccess, utilizan la extracción automática de datos para el modelado aplicado a la personalización de la accesibilidad a la web. Estos proyectos aplican técnicas de minería de datos con el objeto de diseñar interfaces adaptadas a los perfiles individuales de las personas usuarias. Para ello se analizan de manera completamente anónima aspectos relacionados con la actividad de la red y los procesos de socialización. Los resultados de estos proyectos permitirán adaptar la presentación y navegación de la web a las características de cada persona, para seguir mejorando GUREMINTZA. 8. Conclusiones De esta experiencia se pueden extraer varias conclusiones: • El diseño participativo con personas con discapacidad cognitiva es posible a condición de que los procedimientos adecuados estén diseñados para recoger sus opiniones. • La participación de los usuarios en el diseño permite un desarrollo progresivo basado en las necesidades y capacidades de los usuarios, garantizando en todo momento su comprensión de la aplicación. • Este método minimiza la posibilidad de incluir barreras enraizadas en la idea inicial que, por tanto, no pueden ser eliminadas. • El proceso de diseño participativo aumenta la afinidad de los usuarios de la aplicación resultante y mejora su uso. 9. Agradecimientos Guremintza se ha realizado con el apoyo del Gobierno Vasco/Eusko Jaurlaritza a través de los proyectos DATACC (S-PE11UN097) y DATACC2 (S-PE12UN064) y del Ministerio de Ciencia e Innovación del Gobierno Español a través del proyecto ModelAccess (TIN2010-15549). 10. Referencias [1] Observatorio Accesibilidad TIC DISCAPNET, Accesibilidad de Plataformas de Redes Sociales, 2010. Disponible en: http://www.discapnet.es/Observatorio/Observatorio_Accesibilidad %20redes%20socialesVersion_detallada.pdf (Consultado: 10/01/2013) [2] EGOKITUZ: Laboratory of HCI for Special Meeds http://www.kat.ehu.es/s0139-lipcneh/es (Consultado: 10/01/2013) [3] LOTURA. http://www.lotura.com/en/ (Consultado: 10/01/2013) [4] GITEK. http://www.grupogureak.com/ investigaciondesarrollo-innovacion/sociolaboral/gitek-investigacion-desarrolloinnovacion.aspx (Consultado: 10/01/2013) 211 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos [5] Schuler, D. and Namioka, A. (eds.). Participatory Design: Principles and Practices. Lawrence Erlbaum Associates, Hillsdale, NJ, 1993. [6] Dawe, M. Design Methods to Engage Individuals with Cognitive Disabilities and their Families. http://swiki.cs.colorado.edu:3232/chi07design/uploads/5/dawe.pdf (Consultado: 10/01/2013) [7] Guremintza http://www.guremintza.net (Consultado: 10/01/2013) [8] Arrastia M.P. Tecnologías de la Información y las Comunicaciones para personas con discapacidad intelectual, Universidad Pública de Navarra, Pamplona, 2009. [9] Cabero J., Córdoba M., Fernández J.M. Las TIC para la igualdad. Nuevas tecnologías y atención a la diversidad, Editorial MAD, S.L., Madrid, 2008. GUREAK. http://www.grupogureak.com (Consultado: 10/01/2013) 212 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Diseño Preliminar de Interfaces de Realidad Aumentada para el Robot Asistencial ASIBOT F.R. Cañadillas, A. Jardón; J.G. Victores; C. Balaguer RoboticsLab, Universidad Carlos III de Madrid {ferodrig, ajardon jcgvicto, balaguer}@ing.uc3m.es Resumen En este artículo se presenta el diseño preliminar de una interfaz de interacción entre personas con discapacidad física y un robot asistencial. Esta interfaz proporcionará un lienzo en blanco al usuario, de tal forma que mediante futuras iteraciones se proporcionarán las funcionalidades que el usuario determine necesarias para el sistema. Por tanto, este proyecto se basa en el desarrollo de una interfaz humano-robot que proporcione el mayor número de posibilidades a la hora de realizar dicha interacción. Para ello, se ha determinado utilizar un s istema combinando realidad aumentada, reconocimiento y síntesis de voz. Posteriormente, se muestra la arquitectura propuesta para tal interacción, explicando las herramientas utilizadas para el desarrollo. Por último, se describirá un caso de uso del sistema, en el cual se detalla un posible procedimiento para realizar una tarea concreta. Abstract This paper presents the preliminary design of an interface for interaction between people with physical disabilities and an as sistive robot. This interface will provide a w hite canvas to the user, such through future iterations the functionalities that the user determines necessary for the system would be added. So, this project is based in the development of a human-robot interface that provides the highest number of choices for this interaction. For this, it has been determined to use a system based in augmented reality. Subsequently, it is showed the architecture propose for such interaction, explaining the tools used for development. Finally, it will be described a use case of the proposed system, in which it will detailed a possible procedure to perform a specific task. Palabras clave: interacción humano-robot (HRI), robot asistencial, realidad aumentada, HMD, comando de voz. 1. Introducción En la actualidad, campos como la robótica social, la robótica de rehabilitación y la robótica asistencial presentan un continuo avance al incorporar progresivamente las distintas tecnologías necesarias para el desarrollo de estos sistemas. Estos avances se producen tanto por el incremento y mejora de las tecnologías necesarias para estas tareas, como por su racionalización gracias a la realización de ensayos clínicos (con pacientes) que hacen que estos desarrollos sean adecuados y validados. Esta proliferación de tecnologías asistenciales como la robótica asistencial, de rehabilitación y social, también responde al aumento de los usuarios de dichas tecnologías. Según el estudio realizado en 2010 de personas mayores y dependientes creado por el IMSERSO (Instituto de Mayores y Servicios Sociales) [1], el porcentaje de personas con más de 65 años en Europa es del 16,6% con una previsión para el año 2049 del 31,9%, lo cual dobla en número de personas mayores respecto de la actualidad. Además, la Encuesta de Discapacidad, Autonomía personal y situaciones de Dependencia (EDAD) [2] realizada en 2008, nos dice que el 30,2% de las personas mayores de 65 años sufren algún tipo de discapacidad. En esta última encuesta, destaca el porcentaje de personas con discapacidad en España, llegando al 8,9% de la población total. La principal causa de discapacidad en España son los problemas de movilidad, con un porcentaje del 6% de la población española. Del total de personas con algún tipo de discapacidad, el 74% tiene dificultades para realizar las Actividades Básicas de la Vida Diaria (ABVD). Por tanto, existe una incipiente necesidad de crear y mejorar la aplicación de estas tecnologías, así como sistemas innovadores que ayuden a las personas con discapacidad a realizar sus ABVD. Además, con el paso de los años, el número de personas con discapacidad va aumentando y se prevé que no haya suficientes profesionales para el cuidado y ayuda de estas personas. Por tanto, la utilización de la robótica asistencial para ayudar a personas con discapacidad se plantea actualmente como una alternativa real, aunque todavía queda mucho por hacer para que estos sistemas puedan ayudar autónomamente a dichas personas en sus ABVD. Este artículo se centra en presentar el diseño preliminar de una interfaz para la interacción entre una persona con discapacidad en la movilidad y un robot asistencial, en concreto, con un robot manipulador anclado a una silla de ruedas, que servirá de base para su posterior desarrollo. 2. Estudio de interfaces para robótica asistencial 213 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos El desarrollo de interfaces accesibles, sencillas e intuitivas para el control de robots asistenciales es uno de los campos más difíciles e interesantes dentro de la robótica asistencial. A lo largo de los años, se han utilizado diversos tipos de interfaces para la comunicación robot-usuario en función de las discapacidades del usuario. Desde los dispositivos más básicos, como la utilización de un joystick para controlar la silla de ruedas, la evolución de dichas interfaces se ha incrementado enormemente. La utilización de un robot manipulador sobre una silla de ruedas complica el manejo del sistema con joystick clásicos. Para este tipo de control, se han realizado varios estudios que proponen el uso de nuevos joystick, como el planteado en [3], en el cual a través de un joystick SpaceNavigator 3D el usuario puede controlar el robot y la silla de forma completa. Existen otro tipo de interface-joystick que pueden utilizarse en esta tarea, como se observa en [4], donde se comparan varias interfaces de control para este tipo de sistemas. El estudio propuesto en [5], plantea el control de una silla de ruedas mediante la observación del usuario y el entorno, de tal forma que a través de los movimientos del usuario y la posición de los elementos del entorno que lo rodea, el sistema de control de la silla de ruedas determina el camino o tarea a realizar. Un estudio muy interesante, es el que se plantea en [6], en el cual se propone el control de una silla de ruedas a través de diferentes interfaces, dependiendo de la discapacidad de cada usuario. Se plantean sistemas de reconocimiento de voz, rastreo de los movimientos de la cabeza, electro-oculografía [7] (detección de las señales bioeléctricas de los ojos), control por soplado y joystick para el control de la silla de ruedas. Las interfaces que más comúnmente se están utilizando en robótica asistencial o social son las basadas en reconocimiento de voz, mediante las cuales, a través de comando de voz una persona puede interactuar con algún robot, permitiendo al humano enviar órdenes y solicitar la información que necesite. El estudio mostrado en [8], nos plantea la interacción mediante comandos de voz entre un robot social y un humano. Una de las tecnologías más punteras dentro del campo de interacción entre robot asistencial y usuario, es la basada en interfaces de control mediante señales bioeléctricas, que se centran en la detección e identificación de las señales eléctricas del cuerpo. Dentro de este campo, se pueden diferenciar dos tipos de interfaces; las interfaces bioeléctricas invasivas y las no invasivas. Uno de los estudios basado en interfaces bioeléctricas neuronales invasivas, es el propuesto en [9], en el cual a través de unos pequeños sensores colocados en el córtex cerebral de un paciente con tetraplejía, le permite controlar un robot manipulador. Por otro lado, existen estudios de cómo controlar una silla de ruedas a través de las señales bioléctricas, por ejemplo, el que nos muestran en [10] donde proponen este control a través de las señales producidas por los músculos de la cara, o el mostrado en [7] donde se realiza a través de las señales producidas por los músculos que rodean el ojo. Estos estudios utilizan sensores superficiales, los cuales son no invasivos y permiten su uso sin cirugía de implantación. Con el paso de los años, muchas interfaces han recurrido a presentar información gráfica mediante pantallas en diversas configuraciones. Es destacable el estudio que se propone en el diseño descrito en [11], en el cual se plantea la arquitectura de un sistema compuesto por una silla de ruedas con un robot manipulador incorporado, un joystick para el control de éste y una interfaz gráfica en la cual muestra la información de los distintos dispositivos a controlar. El “cómo” y “qué” información mostrar al usuario a través de interfaces gráficas ha ido evolucionando con el paso de los años y en este momento una de las tecnologías más prometedoras en este campo son los sistemas de realidad aumentada. Estos sistemas se basan en superponer información relevante sobre el mundo real normalmente por pantalla. Acerca de este tipo de dispositivos, existe un artículo que marca las pautas de cómo deben ser este tipo de sistemas, es el propuesto en [12] que posteriormente se actualizó en [13]. En el primero, se pueden observar los diferentes tipos de sistemas de realidad aumentada en función de su configuración y componentes. En este estudio, se definen los sistemas llamados “Head-Mounted Displays” (HMD), concepto que hace referencia a las pantallas cercanas a los ojos situadas en la cabeza. A raíz de estas pautas o principios descritos en los artículos anteriormente comentados, han sido muchos los sistemas de interacción basados en dispositivos de realidad aumentada. Por ejemplo, el estudio propuesto en [14], donde se revisa el campo de la interacción humano-robot mediante el uso de realidad aumentada, investigando las posibles vías para la creación de una colaboración humanorobot más natural. Uno de los campos donde más se está utilizando los sistemas de realidad aumentada, es en el campo de la robótica orientada a aplicaciones médicas. En el artículo [15], plantean el uso de un sistema de realidad aumentada para el control de un robot de apoyo en tareas de cirugía. Otra aplicación interesante dentro de este campo, es la propuesta en [16] donde utilizan realidad aumentada como apoyo para la realización de laparoscopias. En robótica de rehabilitación también se están realizando estudios basados en realidad aumentada con el fin de ayudar a pacientes con discapacidades en la movilidad. En el artículo [17], utilizan un sistema de realidad aumentada para apoyar las tareas de rehabilitación de la mano posteriores a una afección cerebrovascular. En lo referido al campo que vamos a tratar en este artículo, el campo de la robótica asistencial, se han 214 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos realizados algunos estudios basados en realidad aumentada. Como el propuesto en [18], donde utilizan una configuración de realidad aumentada para el control e interacción entre una silla de ruedas y el usuario de la misma. Como se ha visto en este estudio de las interfaces para la interacción entre un usuario y un robot asistencial, existe una gran variedad de sistemas válidos para la realización de este paradigma, en función de la discapacidad del usuario o tarea a realizar. En nuestro caso, donde nos centramos en el control de un robot asistencial, se ha determinado que los dispositivos joystick no ofrecen todas las necesidades que puede tener un usuario, ya que no muestran información relevante al usuario. Respecto de las interfaces basadas en señales bioeléctricas, es un tipo de tecnología que todavía se encuentra en estado prematuro y la creación de un sistema basado en esta tecnología puede no reportar resultados a corto plazo. Las interfaces basadas en el soplado del paciente pueden ser interesantes, aunque restringen el número de usuarios que pueden utilizar este sistema para el control de un robot asistencial. Por tanto, se ha decidido utilizar un sistema basado en realidad aumentada con una configuración HMD, el cual permite mostrar información relevante al usuario y controlar el robot de una forma sencilla e intuitiva. Además, se añadirá un sistema de detección de voz mediante el cual se permitirá al usuario mandar sus órdenes al robot por comandos de voz. A continuación, se describirán los dispositivos implicados en la construcción de dicho sistema. 3. Descripción de la interfaz de realidad aumentada utilizada Estudiando la variedad de sistemas comerciales basados en realidad aumentada, se decidió optar por la utilización del sistema Wrap 920AR [19] del fabricante Vuzix. Figura 1: Imagen del sistema Vuzix Wrap 920AR. 60Hz. Además, este sistema permite ajustar de 2 a 5 dioptrías del usuario. Las cámaras estereoscópicas tienen una resolución VGA (640x480) con una tasa de captura de 30 cuadros por segundo. Cada una de estas cámaras se conecta a un PC mediante USB como dispositivos de la cámara de vídeo USB estándar. El sistema de rastreo de movimiento de la cabeza tiene la capacidad de detectar movimientos en 6 ejes, es decir, permite el seguimiento de los movimientos de guiñada, cabeceo, balanceo, X, Y y Z. Este dispositivo se conecta a un puerto de expansión situado en las gafas, gracias a su pequeño tamaño (30x10x15 mm). El dispositivo de audio del sistema está compuesto por un par de auriculares extraíbles, los cuales proporcionan un audio estéreo de alta fidelidad y aíslan del ruido ambiental. Los auriculares son reconocidos por el sistema de control como altavoces USB estándar, lo que permite una fácil integración dentro de nuestro sistema. Por último, el sistema de gafas de realidad aumentada se proporciona con un paquete software para desarrolladores denominado Vuzix SDK, el cual contiene todos los drivers, librerías y ejemplos necesarios para realizar la puesta en marcha del sistema. Por tanto, el Wrap 920AR es un sistema muy completo y ofrece muchas posibilidades de implementación gracias al gran número de dispositivos con los que cuenta. 4. Descripción del robot asistencial ASIBOT El robot asistencial sobre el que se basa este proyecto es el robot asistencial ASIBOT [20] desarrollado por el grupo de investigación RoboticsLab de la Universidad Carlos III de Madrid. El robot ASIBOT, el cual podemos observar en la figura 2, es un robot manipulador anclado a una silla de ruedas que tiene como objetivo ayudar a personas con algún tipo de discapacidad física a realizar las tareas cotidianas, que debido a la reducción de las capacidades físicas, les serian difíciles o imposibles de realizar. El sistema está basado en las gafas de realidad virtual Wrap 920 de Vuzix, a las cuales se han añadido dos cámaras para una captura estereoscópica. Además el sistema cuenta con un inclinómetro de 6 ejes y con salida de audio de alta calidad. A continuación veremos cada uno de los dispositivos que componen el sistema de una forma más detallada. Las pantallas internas, también llamadas HMD, proporcionan una visión equivalente a una pantalla de 67 pulgadas a 3 metros de distancia. La resolución de estas pantallas es de 640x480 pixels y su tasa de refresco es de Figura 2: Imagen del robot asistencial ASIBOT. 215 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Una de las principales características de ASIBOT es que se trata de un robot escalador, es decir, que puede separarse de la silla de ruedas y “escalar” por medio de anclajes con el fin de realizar una tarea específica del modo más eficiente posible. Para poder realizar estas tareas de escalado y manipulación, el robot asistencial ASIBOT tiene una configuración simétrica de cinco grados de libertad. Como podemos comprobar en este estudio [21], cinco grados de libertad son suficientes para desarrollar estas tareas, si bien el manejo del robot requiere una elevada carga mental y requiere de sistemas de control compartido para asegurar la efectividad en su manejo y que eviten colisiones no deseadas con el entorno o el usuario. Los últimos avances en esta línea se han presentado en [22]. 5. Implementación del sistema de interacción multimodal En esta sección se describe la arquitectura del sistema multimodal de interacción basado en realidad aumentada entre el robot asistencial ASIBOT y el usuario del mismo. Antes de determinar la arquitectura del sistema, se ha de precisar cómo va a ser la interacción entre el robot y el usuario. En este caso, se está considerando que la interacción se realice mediante una entrada de audio como información aportada por el usuario al robot y a través de una salida gráfica por pantalla como salida del robot hacia el usuario. Por tanto, el usuario mandará sus órdenes al robot mediante comandos de voz, y la información del entorno, tareas posibles a realizar o cualquier otro tipo de información, el robot lo mostrará por pantalla al usuario. Si observamos los dispositivos que contiene el sistema de realidad aumentada Vuzix Wrap 920AR, comprobamos que no tiene entrada de audio o micrófono, de tal forma que, para poder completar el sistema de interacción elegido, se va a utilizar un micrófono externo. En este caso se ha decidido utilizar un micrófono de solapa o corbata el cual se conecta mediante un conector mono Jack. En la figura 3 podemos observar la arquitectura del sistema de interacción entre el usuario y el robot ASIBOT, donde podemos diferenciar los diferentes dispositivos o sistemas utilizados para esta tarea. Figura 3: Arquitectura funcional del sistema de interacción basado en realidad aumentada. Observando la figura 3, se observa que la captura de las cámaras estereoscópicas se envía a la interfaz gráfica para su utilización dentro de la interfaz de realidad aumentada. La interfaz gráfica intercambia información con el controlador principal del robot en función de los cambios que se producen debido a la información de las entradas a dicho controlador, mostrando al usuario la información relevante para la ejecución de la tarea. Estas entradas son principalmente dos; la entrada de audio mediante la cual el usuario manda sus comandos de voz para poder realizar algún tipo de tarea o solicitar información y la entrada del inclinómetro de 6 ejes que envía la información de la posición y la orientación de la cabeza del usuario, que como se verá posteriormente, es necesario a la hora de determinar la posición de un objeto en el campo de visual del usuario. Esta arquitectura utiliza YARP (Yet Another Robot Platform) [23], en concreto la librería YARP_OS, para realizar las comunicaciones entre los diferentes dispositivos utilizados en el sistema de interacción. Además, la gestión de los dispositivos de entrada y la captura de las cámaras estereoscópicas se realiza mediante el uso de las librerías; YARP_DEV la cual nos permite gestionar estos dispositivos de forma sencilla y YARP_SIG que nos permite procesar las señales tomadas de los dispositivos de entrada. Para implementar el sistema de detección de comandos de voz, se ha decidido utilizar las librerías de código abierto CMUSphinx [24]. Con el uso de esta librería, el sistema es capaz de detectar e identificar los comandos de voz con los cuales el usuario envía la tarea que quiere realizar. Para ello, se ha creado un diccionario de comandos de voz relevantes para la realización de tareas dentro de este sistema. Para crear la interfaz gráfica de nuestro sistema que se mostrará a través del HMD, se han utilizado el paquete de librerías OpenGL [25]. Gracias a estas librerías se puede; modelar figuras a partir de las primitivas básicas creando descripciones geométricas de los objetos, situar los objetos en el espacio tridimensional de la escena y seleccionar el punto de vista desde el cual queremos observar, crear texturas a partir de descripciones geométricas. Estas texturas permiten mostrar por pantalla la captura de las cámaras estereoscópicas y mediante la creación de otros objetos geométricos superponer la información relevante a mostrar al usuario. Por último, como se verá posteriormente, para determinar la tarea que se puede realizar o para determinar la posición e identificación de un objeto en nuestro entorno de trabajo, es necesario un sistema visual de detección de objetos. El sistema que se utilizará en este proyecto es el desarrollado en [26], creado anteriormente por miembros del grupo de investigación. Este sistema utiliza una segmentación por color para el reconocimiento e identificación del objeto a detectar y lo localiza en el espacio mediante una triangulación respecto de la cámara de captura. En este caso, se ha utilizado la captura de las cámaras estereoscópicas para la detección del objeto y por 216 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos tanto, para determinar la posición de dicho objeto, de tal forma que se necesitará determinar la posición y orientación de las cámaras de captura, de ahí que se utilice el inclinómetro de 6 ejes en este proyecto. Una vez descrita la estructura del sistema de interacción basado en realidad aumentada, se explicará un caso de uso en el cual se mostrará como funciona este sistema a la hora de realizar una tarea específica. 6. Sistema de interacción multimodal, descripción de un caso de uso El sistema de interacción multimodal está basado en una interfaz de tipo asistente o “Wizard”, es decir, en una interfaz guidada paso-a-paso. Estas interfaces también se definen como interfaces “pregunta-respuesta” o “acciónreacción”, en las cuales por cada orden enviada por el usuario, se produce una tarea o ejecución por parte del robot. A continuación, se verá el funcionamiento de esta interfaz multimodal centrando la explicación en un caso de uso específico, en concreto, en la realización de la tarea de coger una lata de refresco, siendo esta tarea representativa del tipo de interacción precisa en la asistencia de AVDBs. En este caso el sistema nos muestra tres posibles acciones a realizar; la primera ofrece la posibilidad de coger algún objeto que se encuentre en la cocina, la segunda posibilita mover un objeto de la cocina y la tercera facilita la posibilidad de encender algo de la cocina, como pueden ser las luces o el horno (esto se podría realizar mediante la comunicación con el sistema domótico KNX-EIB (en proceso de implementación), ya instalado en la cocina demostrador de ASIBOT, situada en el Laboratorio de Robótica Asistencial del Parque Científico –Tecnológico de la UC3m en Leganés. En este punto, el usuario deberá mandar mediante comando de voz la orden de la tarea que quiere que el robot realice. En este caso el usuario pronunciará el comando de voz “coger”, que como se observa en la figura 4, se corresponde con la etiqueta utilizada en las tareas mostradas por pantalla. Tras la orden del usuario de coger algún tipo de objeto que se encuentra en la cocina, el sistema detectará, identificará y localizará los objetos que pueden ser agarrados. Estos procesos utilizan las cámaras IP fijas en el entorno y no son objeto de esta publicación. Una vez detectados e identificados los objetos, el sistema nos muestra por pantalla estos objetos encuadrados y numerados, como se muestra en la figura 5. El sistema comienza con la localización del conjunto silla-robot en la casa (está por determinar cómo se realizará esta localización), ya que las posibles tareas a realizar dependen de donde se esté situado. Es decir, sí el usuario se encuentra situado en el salón, podrá realizar otro tipo de tareas (encender TV, poner música) que si te encuentras en la cocina (coger refrescos, cocinar). Una vez que el sistema ha identificado las posibles tareas a realizar, se mostrarán estas tareas por pantalla a la vez que muestra la captura de vídeo del mundo real (realidad aumentada). En la figura 4, se puede observar cómo visualiza la escena el usuario que porta las gafas de realidad aumentada. Figura 5: Vista de la interfaz gráfica con la identificación de objetos. En este punto, el usuario ve por pantalla todos los objetos que el sistema cocina-robot reconoce y por tanto puede coger, en este ejemplo, la lata de refresco. Sí hubiese más objetos el sistema los identificaría con una nomenclatura de lista ascendente, es decir, objeto-1, objeto2, ..., objeto-N. Posteriormente, el usuario ordenará por comando de voz el objeto que quiere que el robot coja. Tras lo cual, el robot comenzará su movimiento para alcanzar este objeto de forma automática como se observa en la figura 6. Figura 4: Vista de las posibles tareas a realizar mostradas sobre el sistema de realidad aumentada. 217 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos sistema un lienzo en blanco donde a través de sus ideas y necesidades, puedan iterar con los desarrolladores hasta conseguir un sistema completo, sencillo y accesible para la interacción usuario-robot. Como ya se ha comentado anteriormente, el sistema aquí presentado se trata de un diseño preliminar el cual tiene como objetivo dar al usuario un sistema con el mayor número de capacidades para que a través de la iteración usuario-desarrollador, se implemente una interfaz que cubra las necesidades que el usuario estime oportunas. Figura 6: Vista de la interfaz gráfica mientras se produce el movimiento del robot manipulador. Una vez que el robot agarra el objeto elegido, el sistema mostrará por pantalla las nuevas tareas que se pueden realizar con el objeto agarrado, tales como mover a una posición, acercar para beber, vaciar refresco, etc. Estas nuevas tareas se mostrarán de forma similar a lo mostrado en la figura 4. Con este caso de uso, se ha descrito paso a paso la interacción necesaria entre el usuario y el interfaz robótico en la ejecución de una tarea específica. Este tipo de sistema de interacción ofrece la posibilidad de implementar mecanismos de interacción intuitivos y amigables, al poder representar información relevante sobre los objetos y acciones que el sistema robótico puede realizar en la asistencia al usuario. Este mecanismo básico de interacción puede ser personalizado para una gran variedad de tareas y niveles de asistencia y complementa otras líneas de investigación paralelas que se están desarrollando como esquemas de control compartido, interpretación de la situación, pro-actividad en la asistencia, adaptación mutua, etc., que junto con este tipo de interfaces están orientadas a la mejora de la usabilidad del sistema robótico para la realización autónoma de las ABVD por usuarios con severos problemas de movilidad. 7. Perfil de usuario e involucración Una vez visto el funcionamiento del sistema es conveniente hacer hincapié en el tipo de usuario para el que está pensado este sistema, así como la involucración que tiene dentro del mismo. Este sistema está diseñado para el apoyo a personas con discapacidades físicas, en concreto para personas con discapacidad motriz en sus extremidades superiores e inferiores. En [27], se muestra un estudio de las diferentes discapacidades motrices en función del nivel de daño en la medula espinal. Siguiendo con la clasificación que se muestra en este artículo, se comprueba que el sistema implementado en este proyecto está diseñado para usuarios con lesiones del tipo C4 hasta C7. El desarrollo que en este artículo se presenta está orientado a proporcionar a los posibles usuarios de este Dicha iteración usuario-desarrollador, comenzará cuando el máximo de capacidades del sistema que aquí se propone estén implementadas. 8. Conclusiones El comienzo de este artículo se ha centrado en plantear la necesidad de crear sistemas robóticos para facilitar las ABVD a personas con algún tipo de discapacidad. La revisión de los sistemas existentes y la experiencia previa ha permitido detectar las principales carencias y problemas especialmente en la en la implementación de los mecanismos de interacción usuario-robot de estos sistemas. Mediante el estudio de las interfaces para el control de un robot asistencial, se ha observado los diferentes tipos de interfaces que comúnmente se están utilizando en robótica lo cual ha sido relevante la hora de determinar qué tipo de sistema se desea crear. Gracias a esa comparativa se ha podido desarrollar un diseño preliminar de interfaz que previsiblemente cubrirá las características más importantes para la creación de un sistema de interacción robot-usuario complejo. Estos sistemas, basados en realidad aumentada en dispositivos HMD con entrada de audio y captura estereoscópica, permiten una interacción natural y muestran al usuario información relevante sobre las capacidades del robot de interactuar con el entorno y con el propio usuario. Posteriormente, se ha propuesto una arquitectura funcional básica, para la implementación del sistema de interacción y se han descrito someramente las herramientas y dispositivos necesarios para la creación de este sistema. Además se ha descrito la herramienta software utilizada para la comunicación de los distintos dispositivos que componen el sistema. Por último, se han descrito mediante un caso de uso, los pasos que debe realizar un usuario para que el robot asistencial realice una tarea concreta a través de la interfaz propuesta en este artículo. Mediante esta descripción se han comprobado la sencillez y el potencial del sistema de interacción para realizar una tarea, además de la facilidad para mostrar información relevante al usuario del sistema. 9. Agradecimientos Los autores de este artículo quieren agradecer el apoyo al proyecto ARCADIA DPI2010-21047-C02-01, proyecto financiado por el ministerio MINECO del Gobierno de 218 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos España y a Robocity2030 S2009/DPI-1559 financiado por la Comunidad de Madrid y los fondos estructurales de la Unión Europea. 10. Referencias [1] IMSERSO. Observatorio de Personas Mayores. “Informe 2010. Las personas mayores en España”. ISBN: 978-84-8446-136-4, vol. 2, 2010. [14] Green, S.A., Billinghurst, M., Chen, X., Chase, G.J. “HumanRobot Collaboration: A Literature Review and Augmented Reality Approach in Design”. International Journal of Advanced Robotic Systems, 5(1), pp. 1-18, 2008. [15] Tang, S. L., Kwoh, C. K., Teo, M. Y., Sing, N. W., Ling, K. V. “Augmented reality systems for medical applications”. Engineering in Medicine and Biology Magazine, IEEE, 17(3), pp. 49-58, 1998. [2] Instituto Nacional de Estadística. “Encuesta de Discapacidad, Autonomía personal y situaciones de Dependencia (EDAD)”, 2008. Disponible online [Jul, 2013]: http://www.ine.es/prensa/np524.pdf [16] Su, L. M., Vagvolgyi, B. P., Agarwal, R., Reiley, C. E., Taylor, R. H., & Hager, G. D. “Augmented reality during robotassisted laparoscopic partial nephrectomy: toward real-time 3DCT to stereoscopic video registration”. Urology, 73(4), pp. 896900, 2009. [3] M.F.Stoelen, A.Jardón, J.G.Víctores, C.Balaguer, F.Bonsignorio. “Information Metrics for Assistive Human-In-TheLoop Cognitive Systems”, Workshop on Good Experimental Methodology in Robotics and Replicable Robotics Research, Robotics Science and Systems (RSS). Zaragoza. Spain. Jun, 2010. [17] Luo, X., Kline, T., Fischer, H. C., Stubblefield, K. A., Kenyon, R. V., & Kamper, D. G. “Integration of augmented reality and assistive devices for post-stroke hand opening rehabilitation”. In Engineering in Medicine and Biology Society. 27th Annual International Conference of the IEEE, pp. 6855-6858, 2005. [4] Ramirez, D. & Foulds, R. “Adaptive real-time interfaces for wheelchair-mounted manipulators in unstructured environments”, Bioengineering Conference, Proceedings of the 2010 IEEE 36th Annual Northeast, vol.1, no.2, pp. 26-28, 2010. [5] Kuno, Y., Nakanishi, S., Murashima, T., Shimada, N., & Shirai, Y. “Intelligent wheelchair based on the integration of human and environment observations”. In Information Intelligence and Systems. Proceedings International Conference on IEEE, pp. 342-349, 1999. [6] Mazo, M. & Research Group of the SIAMO Project. “An integral system for assisted mobility”. Robotics & Automation Magazine, IEEE, 8(1), pp. 46-56, 2001. [7] Barea, R., Boquete, L., Mazo, M., & López, E. “System for assisted mobility using eye movements based on electrooculography”. Neural Systems and Rehabilitation Engineering, IEEE Transactions on, 10(4), pp.209-218, 2002. [8] Alonso-Martin, F., & Salichs, M. A. “Integration of a voice recognition system in a social robot”. Cybernetics and Systems: An International Journal, 42(4), pp. 215-245, 2011. [9] Donoghue, J. P., Nurmikko, A., Black, M. and Hochberg, L. R., “Assistive technology and robotic control using motor cortex ensemble-based neural interface systems in humans with tetraplegia”, The Journal of Physiology, no. 579, pp. 603-611, 2007. [10] Firoozabadi, S. M. P., Oskoei, M. A., & Hu, H. “A HumanComputer Interface based on Forehead Multi-channel Bio-signals to control a virtual wheelchair”. In Proceedings of the 14th Iranian Conference on Biomedical Engineering (ICBME), pp. 272-277, 2008. [11] Ghorbel M., Haariz M., Grandjean B., Mokhtari M., “Toward a generic human machine interface for assistive robots: the AMOR project”, ICORR 9th International Conference on Rehabilitation Robotics, pp.168-172, 2005. [12] Azuma, R.T. “A Survey of Augmented Reality”, Teleoperators and Virtual Environments, 6(4), pp. 355-386, 1997. [13] Azuma, R., Baillot, Y., Behringer, R., Feiner, S., Julier, S., & MacIntyre, B. “Recent advances in augmented reality”. Computer Graphics and Applications, IEEE, 21(6), pp. 34-47, 2001. [18] Braga, R. A., Petry, M., Moreira, A. P., & Reis, L. P. “A Development Platform for Intelligent Wheelchairs for Disabled People”. In International Conference on Informatics in Control, Automation and Robotics, pp. 115-121, 2008. [19] Wrap 920 Augmented Reality, Vuzix, 2013 Disponible online [Jul, 2013]: http://www.vuzix.com/consumer /products_wrap920ar.html [20] A.Jardón. “Assistive robot design methodology. Application to portable robot ASIBOT”. Doctoral Thesis. Supervisors: C.Balaguer; A.Giménez. Sobresaliente "Cum Laudem", 2006. [21] A.Jardón; M.F.Stoelen; F.Bonsignorio; C.Balaguer. “TaskOriented Kinematic Design of a Symmetric Assistive Climbing Robot”. Short paper, IEEE Transactions on Robotics. Vol. 27. No. 6. pp.1132-1137, 2011. [22] M.F.Stoelen; V.Fernández; A.Jardón; F.Bonsignorio; C.Balaguer. “Benchmarking Shared Control for Assistive Manipulators: From Controllability to the Speed-Accuracy TradeOff”. IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Vilamoura. Portugal. Oct, 2012 [23] YARP, “Yet Another Robot Platform”,2013. Disponible online [Jul, 2013] http://eris.liralab.it/yarp/ [24] CMUSphinx, Open Source Toolkit For Speech Recognition. Project by Carnegie Mellon University, 2013 Disponible online [Jul, 2013]: http://cmusphinx.sourceforge.net [25] OpenGL, The Industry's Foundation for High Performance Graphics, 2013. Disponible online [Jul, 2013]: http://www.opengl.org [26] J.G.Víctores; A.Jardón; M.F.Stoelen; S.Martínez; C.Balaguer. “ASIBOT Assistive Robot with Vision in a Domestic Environment”. Robocity2030 7th Workshop. Móstoles. Visión en Robótica. ISBN: 84-693-6777-3. Universidad Rey Juan Carlos. pp.61-74, 2010. [27] A. Jardón; A. M. Gil; A. I. De la Peña; C. A. Monje; C. Balaguer. “Usability assessment of ASIBOT: a portable robot to aid patients with spinal cord injury”. Disability & Rehabilitation: Assistive Technology, vol 6(4), pp. 320-330, 2010. 219 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Objetos de aprendizaje multimedia accesibles sobre Diseño para Todos para grado en Ingeniería en Tecnologías de la Información Alejandro Rodriguez-Ascaso1, Jesús González Boticario1, Cecile Finat1, Emmanuelle Gutiérrez y Restrepo1, Amparo Prior2 Grupo de investigación aDeNu / UNED1, Centro de Medios Audiovisuales (CEMAV) / UNED2 [email protected], [email protected], [email protected], [email protected], [email protected] Resumen La legislación española obliga a q ue las entidades públicas y privadas, las universidades entre ellas, ofrezcan productos y servicios de las Tecnologías de la Información y las Comunicaciones (TIC) accesibles. Es más, insta a l a inclusión del currículo formativo en diseño para todos en los programas educativos. Pese a c ontar con abundante legislación en vigor la mayor parte de las universidades españolas aún no ha incluido los principios del Diseño para Todos en sus planes de estudio. Atendiendo a e ste doble propósito, con el fin de formar adecuadamente a los futuros graduados y graduadas en Ingeniería en Tecnologías de la Información por la Universidad Nacional de Educación a Distancia (UNED), se ha desarrollado un conjunto de objetos de aprendizaje multimedia accesibles, para la asignatura obligatoria de cuarto curso denominada “Ingeniería de Factores Humanos en Sistemas Informáticos”, que se impartirá a par tir del curso 2013/2014. La asignatura responde a la definición de contenidos y descriptores recomendados internacionalmente. Los objetos multimedia, que han recibido ya dos premios internacionales a la excelencia y la accesibilidad, contarán con todas las adaptaciones necesarias, incluyendo subtitulado, audiodescripción e interpretación en lengua de signos. Estos objetos estarán disponibles para cualquier persona o institución que desee hacer uso de los mismos, a través de repositorios digitales en los que dichos objetos se encontrarán debidamente etiquetados siguiendo los estándares internacionales de metadatos aplicables a contenidos de aprendizaje. Abstract Spanish legislation requires public and private institutions, including universities, to offer accessible Information and C ommunication Technology (ICT) products and services. Moreover, it urges the inclusion of a training curriculum in Design for All in educational programs. Despite reams of legislation, most Spanish universities have not included the principles of Design for All in their curricula. Thus, in order to properly train future graduates in Information Technology Engineering, Spain’s National Distance Learning University (UNED) has developed a s et of accessible multimedia learning objects for the fourth-year compulsory subject "Human Factors Engineering Systems", starting 2013/2014. The course conforms to content descriptors and de finitions internationally recommended. These multimedia objects, which have already received two international awards for excellence and accessibility, will have all the necessary adjustments, including subtitling, audio description and sign language interpretation. The objects will be available to any person or institution that wishes to use them, through digital repositories in which the objects will be properly labeled according to international metadata standards applicable to learning content. 1. Introducción La Ley 51/2003, de Igualdad de Oportunidades, No Discriminación y Accesibilidad Universal de las Personas con Discapacidad (LIONDAU) [25], en su disposición final décima, establece plazos para desarrollar “el currículo formativo en diseño para todos, en todos los programas educativos, incluidos los universitarios”, y cita específicamente los de las “comunicaciones y telecomunicaciones y los servicios de la sociedad de la información”. Se han explorado estrategias para el desarrollo del currículo formativo, Libro Blanco incluido [18]. Aun así, los plazos indicados han sido incumplidos en gran medida, ya que la mayor parte de las universidades españolas aún no ha incluido el diseño para todos en sus planes de estudio, según un reciente informe acerca de la presencia de la accesibilidad universal en las enseñanzas universitarias [34]. Por otra parte, existe legislación en España en la que se definen obligaciones para que las entidades públicas y privadas, las universidades entre ellas, ofrezcan productos y servicios de las Tecnologías de la Información y las Comunicaciones (TIC) accesibles. Según establece la Ley 220 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Orgánica de Universidades, no debe impedirse “a ningún miembro de la comunidad universitaria, por razón de discapacidad, el ejercicio de su derecho a ingresar, desplazarse, permanecer, comunicarse, obtener información u otros de análoga significación en condiciones reales y efectivas de igualdad”. Un informe publicado en 2010 sobre la accesibilidad de portales web universitarios en España [14] reflejó un nivel pobre en cuanto a la accesibilidad web en las universidades, un indicador que podemos considerar como muy revelador acerca de la accesibilidad electrónica general en este ámbito. La universidad española se encuentra, por tanto, ante dos retos que tienen que ver no solo con motivaciones legales, sino con la búsqueda de la calidad y la excelencia, como lo demuestra la atención que se presta a la accesibilidad en las políticas universitarias desplegadas en países con mayor nivel de desarrollo [30]. Por una parte, y de manera urgente, se debe asegurar que las actividades y recursos de aprendizaje son accesibles para todos los miembros de la comunidad universitarios, tanto estudiantes como profesionales. Por otra parte, y como componente fundamental de un proyecto sostenible de sociedad (también de universidad) para todas las personas, todos los profesionales de las TIC deben recibir formación en Diseño para Todos [27]. 2. Contexto: Ingeniería de Factores Humanos en Sistemas Informáticos Con el fin de formar en Diseño para Todos a los futuros graduados en Ingeniería en Tecnologías de la Información por la Universidad Nacional de Educación a Distancia (UNED), el grupo aDeNu [1] del Departamento de Inteligencia Artificial de la Escuela Técnica Superior de Ingeniería Informática (ETSII) de esta universidad, en colaboración con el Centro de Diseño y Producción de Medios Audiovisuales (CEMAV) de la UNED, ha desarrollado un conjunto de objetos de aprendizaje multimedia accesibles para la asignatura obligatoria de cuarto curso denominada “Ingeniería de Factores Humanos en Sistemas Informáticos”, cuya impartición está previsto que comience en el curso 2013/2014. Dentro de la UNED, la serie de vídeos se ha desarrollado en el marco de las Redes de Innovación en Investigación Docente, y de la convocatoria CEMAV para la producción de contenidos audiovisuales de dicha universidad. El Grupo de Investigación aDeNu [1] trabaja en temas de modelado de usuario basado en estándares para desarrollar sistemas adaptativos e inclusivos (accesibilidad para personas con diversidad funcional, diseño para todos) sobre arquitecturas de servicios abiertas. Esto supone el desarrollo de componentes y servicios que puedan interactuar con distintas plataformas de aprendizaje siempre que éstas cumplan con los estándares existentes. Esta asignatura pretende formar a los estudiantes en las metodologías de diseño centrado en el usuario [26], propias de la ingeniería informática y de las TIC, que permiten gestionar los factores humanos relacionados con el uso de los sistemas, productos y servicios basados en los computadores y las TIC. Los factores humanos constituyen el conocimiento científico sobre cómo mejorar la eficiencia, la seguridad y la facilidad de uso de los sistemas TIC, tan presentes e importantes en las vidas de los ciudadanos, como puede ser el caso de un teléfono móvil, un producto de teleasistencia o un sistema de elearning. La asignatura se centra principalmente en los factores relacionados con que las funcionalidades de los sistemas sean apropiadas para satisfacer las necesidades de los usuarios, así como en la experiencia de usuario, fundamentalmente en todo lo relacionado con la accesibilidad y la usabilidad. Uno de los principales objetivos de la asignatura es comprender y formalizar los requisitos del usuario en cuanto a la funcionalidad y a la interfaz de usuario del sistema. Esto supondrá, entre otras cosas, entender con claridad y manejar con soltura los principios básicos de la interacción persona-ordenador, relacionados con la diversidad funcional y de contexto con que los humanos utilizan las TIC. Estos principios forman parte del Diseño para Todos [27], cuya aplicación resulta beneficiosa para que cualquier persona, con independencia de sus capacidades y en cualquier contexto de interacción, pueda disfrutar de un acceso eficiente, eficaz y satisfactorio a los servicios ofrecidos. Otro de los objetivos esenciales de la asignatura es aprender a evaluar en qué medida el sistema que se desarrolla responde a los requisitos de usuario identificados inicialmente, desde las fases iniciales de prototipado hasta su versión definitiva, con el objetivo de solucionar cuanto antes posibles problemas que afecten a la experiencia de usuario. Se pretende asimismo Presentar a los alumnos los principales recursos y estrategias (metáforas, estilos y paradigmas de interacción) de la comunicación persona-máquina en TIC, y en el análisis de cuáles son los retos desde el punto de vista de la accesibilidad en los mecanismos de interacción emergentes. En definitiva, se pretende que el alumno sea capaz de enfrentarse a situaciones reales, con casos prácticos, donde deben definirse una serie de requisitos derivados de las características y el contexto de los usuarios, y evaluarse en qué medida sistemas concretos satisfacen dichos requisitos. 3. Metodología y herramientas Concretamente, la serie de objetos multimedia pretende formar a los estudiantes en los requisitos de usuario sobre interacción con diferentes productos y servicios de las Tecnologías de la Información y las Comunicaciones, que personas con diferentes perfiles funcionales ven satisfechos gracias (entre otras razones) al uso de los productos de apoyo adecuados. Los materiales responden a contenidos y descriptores recomendados por organizaciones nacionales e internacionales [7], [19], [18], [13], [11]. Desde el punto de vista de su accesibilidad, los objetos multimedia cuentan con las adaptaciones necesarias para asegurar su accesibilidad para todos los estudiantes, atendiendo a la creciente diversidad funcional de la población universitaria, incluyendo subtitulado, audiodescripción, transcripción e interpretación en lengua de signos. Para ello, los académicos de la ETSII han colaborado estrechamente con los profesionales del CEMAV, y se han tenido en cuenta las recomendaciones y normas españolas existentes al respecto [4], [3], [2]. 221 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos El objetivo es que estos materiales se encuentren disponibles públicamente a través de los repositorios digitales de la universidad, en los se encontrarán debidamente etiquetados respecto a los estándares internacionales de metadatos aplicables a objetos digitales de aprendizaje, tales como MLR [24] y LOM [21], y teniendo especialmente en cuenta aquellos dedicados a describir los objetos, sus adaptaciones y las relaciones entre ambos, desde el punto de la vista de la accesibilidad. En este apartado se comenzó utilizando el esquema propuesto en [22], y en la actualidad se está actualizando al propuesto en [23]. En cuanto a los métodos y herramientas con las que se han creado las adaptaciones para los objetos, podemos resaltar que, para el subtitulado, los docentes fueron quienes realizaron la mayor parte del mismo. En algunos casos, se ha utilizado la opción de subtitulado automático de Youtube, sitio al que previamente era necesario subir los vídeos para poder usar esa herramienta. Es importante resaltar que los subtítulos generados automáticamente presentaban numerosos errores, aun contando en general con un sonido de cierta calidad. Esos errores debían ser corregidos manualmente. Aun así, el sistema tenía la ventaja de crear un archivo de subtítulos que, aun con errores, ya estaba en lo sustancial sincronizado con la imagen. Además, los subtítulos, una vez finalizados, podían ser exportados mediante ficheros en formato vtt, srt, o sbv. En otros casos, se ha utilizado una herramienta opensource específica para la creación de subtítulos: Subtitle Edit. Esta herramienta gratuita permite crear, ajustar, sincronizar y traducir cada línea de subtítulos, y guardar el fichero en 140 formatos distintos de subtitulado. Proporciona además una alerta visual clara cuando el texto indicado para una línea de subtítulos va a sobrepasar el espacio definido para la presentación de los subtítulos. También se ha utilizado la herramienta de subtitulado en línea Amara. Para generar la transcripción del vídeo, en la que se transcribe mediante texto tanto la información sonora (diálogos, sonidos relevantes) como la visual, existen dos opciones. Una que el/la autor/a vea el vídeo y se transcriba sus contenidos. Otra, la de utilizar los ficheros de subtitulado, eliminando los códigos de tiempo, y añadir los textos de la audiodescripción, aprovechando los ficheros que previamente se habían enviado al equipo de audiovisual para realizar las pertinentes locuciones. Las transcripciones se han publicado como documentos Word y PDF, cuya accesibilidad ha sido asimismo comprobada [32]. La producción de la audiodescripción fue más compleja. Los docentes preparaban un texto que luego debía ser locutado en los huecos de mensaje sonoro del vídeo. A veces el hueco no era lo suficientemente grande, y era necesario reescribir los textos para que estos fueran más concisos. El montaje y la sincronización de la audiodescripción eran labor de la realizadora audiovisual. La interpretación en lengua de signos se encargó a una empresa externa a la universidad. Figura 1 Imágenes obtenidas de la serie de vídeos 222 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 4. Resultados Se han producido 8 vídeos, cada uno de ellos de unos 5 minutos de duración (salvo uno, el de Introducción a la serie, de 11 minutos). La lista de vídeos creados es la siguiente: 1. Introducción a la serie. 2. Productos de apoyo para personas ciegas. 3. Productos de apoyo para personas con baja audición. 4. Productos de apoyo para personas con poca movilidad. 5. Productos de apoyo para personas con baja visión. 6. Productos de apoyo y adaptaciones para personas sordas. 7. Productos de apoyo para personas con parálisis cerebral. A continuación se presentan los principales objetivos de aprendizaje de los materiales, en relación con la asignatura, cada uno de ellos acompañado por la transcripción de una secuencia en la que se aborda dicho objetivo: O1: Comprender la diversidad funcional propia del ser humano y conocer aspectos básicos sobre: Derechos humanos y accesibilidad. Legislación y accesibilidad de las TIC. O2: Conocer los principios de accesibilidad de los productos y servicios TIC, a saber: Percepción de la información de salida del sistema. Percepción de información de feedback o realimentación. Localización e identificación de los elementos de control del sistema. Operación de los elementos de control del sistema. Comprensión de la información y la operación del sistema. Interoperabilidad con los productos de apoyo. Accesibilidad de la instalación de los productos de apoyo. O3: Conocer los principios de accesibilidad de los documentos electrónicos, y entre ellos: Alternativas a los contenidos no textuales. Acceso a la estructura del documento y posibilidad de navegar por la misma. Disponibilidad de función de búsqueda de contenidos en un documento. O4: Acerca del uso de los productos de apoyo, conocer los siguientes aspectos: Definición de producto de apoyo en las TIC. Relación de los productos de apoyo con productos TIC generalistas de éxito. Disponibilidad y coste de los productos de apoyo. Relación entre la accesibilidad general de las TIC y la efectividad/eficiencia de los productos de apoyo. Personalización de los productos de apoyo. Relación entre la autonomía personal, el uso de productos de apoyo TIC y la asistencia personal. Ejemplos de productos de apoyo y adaptaciones: Prótesis auditivas, bucle magnético, hogar digital, videoportero, videoconferencia con interpretación de lengua de signos, lector de pantalla, línea braille, magnificador, tele-lupa, escáner, navegador GPS multimodal, Daisy, síntesis de voz, reconocimiento de voz, predicción de palabras, teclado adaptado, emulador de ratón, barrido de pantalla, babero, comunicación aumentativa y alternativa, silla de ruedas, soportes. O5: Comprender aspectos sobre la accesibilidad y la personalización de la interacción: Caracterización de las preferencias y necesidades de interacción de usuarios de diferentes perfiles funcionales. O6: Conocer ejemplos sobre cómo influyen en la accesibilidad los aspectos organizativos. Para ilustrar con ejemplos los recursos que se han utilizado para transmitir los objetivos de aprendizaje, se ha incluido la Tabla 1, en la que se transcriben pasajes de los vídeos que se asocian a objetivos y/o sub-objetivos concretos. Por otra parte, se ha realizado una comparación entre estos objetivos de aprendizaje y las recomendaciones de instituciones internacionales en cuanto a la formación en Diseño Universal de profesionales TIC, especialmente en el ámbito de la educación superior. Concretamente se han revisado los contenidos propuestos en [19], [8] y [11]. El resultado se muestra en la Tabla 2. 223 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Tabla 1 Ejemplos de objetivos de aprendizaje y recursos utilizados en los vídeos Objetivo Sub-objetivo O1: Comprender la diversidad funcional propia del ser humano.. Derechos humanos y acceso a las TIC O2: Conocer los principios de accesibilidad de los productos y servicios TIC. O3: Conocer los principios de accesibilidad de los documentos electrónicos. O4: Conocer aspectos del uso de productos de apoyo. O5: Comprender relación entre accesibilidad y personalización. O6: Conocer aspectos organizativos de la accesibilidad Percepción de la información de salida del sistema. Vídeo de la serie Recurso (transcripción del extracto del video) Introducción (Javier) Hay que intentar explicar a la gente que estos productos de apoyo… (Guillermo) Para explicarle a la gente que un señor que va en silla de ruedas puede subir una montaña. Que a un señor que es ciego, a lo mejor también le gusta escuchar música, que no simplemente está vendiendo cupones, o ser abogado del estado… Persona sorda (Descripción) Ana, estudiante, está sentada en una escalera. Lleva un colgante en el cuello. En la pantalla de un móvil aparece un aviso de llamada. Ana siente una vibración en el colgante, pulsa un botón en él, y comienza a hablar. (Ana) Como estudiante, por ejemplo, me gustaría poder acceder a los programas de radio de la UNED, a todos los vídeos que se preparan en la UNED, muchos de los cuales ahora están subtitulados, pero todavía queda bastante por hacer. (Guillermo) Y esta pregunta que tengo yo, que responde a una inquietud personal: los aparatos estos, los elementos de apoyo […] ¿esto qué es? ¿Va uno a la farmacia con receta, o lo venden en El Corte Inglés? Alternativas a los contenidos no textuales. Persona sorda Disponibilida d y coste de los productos de apoyo. Introducción Caracterizació n de las necesidades Persona ciega (Víctor) JAWS te permite configurar las opciones como tú quieres. El perfil de cada usuario concreto, en cuanto a velocidad, tono, etc. Aspectos organizativos de la accesibilidad Persona sorda usuaria de lengua de signos Un intérprete de la Fundación de la Confederación Española de Personas Sordas actúa de intérprete entre un alumno sordo y su profesor de la UNED En general, los objetos de aprendizaje han sido concebidos como fuente de información para la elaboración de escenarios y personas [30], que a su vez serán la base para la realización de actividades de autoevaluación y de evaluación continua de la asignatura. Estas actividades tendrán a su vez sus propios objetivos de aprendizaje, algunos de los cuales serán complementarios a los ya expuestos. Los vídeos se encuentran disponibles en el portal UNED Abierta, concretamente en su apartado Open Course Ware (OCW) [35]. 224 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Tabla 2 Relación con descriptores propuestos por organizaciones internacionales Objetivo del material O1: El ser humano y la diversidad funcional. (IDCNET, 2003) [19] Core Knowledge Sets and Skills 5.1 Awareness of Design for All 5.2 Why Design for All? Ethical, legal and commercial considerations. (ACM, 2008) [8] The IT Body of Knowledge. HCI Human Factors: • Understanding the user. • Ergonomics. O2: Uso de diferentes modalidades para la interacción personasistema: Interacción táctil, por movimiento, sonora y visual. Developing Effective Interfaces: • Graphical user interfaces. • Non-graphical user interfaces. O3: Principios de accesibilidad de los productos TIC. 5.6 Accessible interaction: input and output. Developing Effective Interfaces: • Matching interface elements to user requirements. • Accessibility • Accessibility guidelines and regulations. O4: Accesibilidad de los documentos electrónicos. 5.5 Accessible content: knowledge about documents and multimedia. O5: Uso de productos de apoyo. 5.6 Accessible interaction: input and output. O6: Personalización de la interacción. Emerging Technologies: • Alternative input/output devices. Developing Effective Interfaces: • Matching interface elements to user requirements. (CEN, 2010) [11] Training Units 6.1 Universal Design and Target User Groups. 6.2 User Interfaces. 6.2 User Interfaces. 6.2 User Interfaces. 6.5 Consumer Electronics, Games. 6.2 User Interfaces. O7: Aspectos organizativos de la accesibilidad. 5. Conclusiones y trabajo futuro En este artículo, después de recordar la necesidad de asegurar la accesibilidad de los recursos electrónicos de aprendizaje y de educar a los futuros graduados universitarios en diseño para todos, se ha presentado una serie de objetos multimedia accesibles que se han desarrollado en una asignatura sobre metodologías de diseño centrado en el usuario, del de grado de Ingeniería Informática. En concreto, se han producido 8 vídeos que responden a contenidos y descriptores recomendados por organizaciones nacionales e internacionales y que introducen aspectos esenciales, como pueda ser el tratamiento de los factores humanos y la atención a la diversidad funcional, la legislación sobre accesibilidad TIC y su ejemplificación en productos y servicios TIC interoperables con productos de apoyo. En los vídeos se muestran ventajas de uso que ofrecen materiales y productos accesibles (navegación, búsqueda, multimodalidad en el acceso) y las posibilidades de caracterización y modelado de las preferencias de interacción de los usuarios, así como de cuestiones organizativas asociadas a la accesibilidad. Estos materiales han recibido recientemente dos premios que avalan el trabajo realizado pero también reflejan el camino que queda por recorrer. Como se ha recordado en este artículo, la mayoría de los estudios de grado todavía no incorporan currículos formativos en estos temas y los materiales y servicios ofrecidos en nuestras universidades también deben ser actualizados. Para abordar estos retos, en el proyecto EU4ALL se ha desarrollado una arquitectura abierta, basada en computación cloud, que ofrece servicios TIC interoperables que hacen uso de estándares existentes para garantizar la accesibilidad y adaptaciones requeridas [9]. En este mismo proyecto se abordaron los aspectos organizativos implicados, ofreciendo así recursos online [15] que permiten a cualquier institución evaluar el grado de preparación que se tiene para ofrecer una educación inclusiva. En el grupo aDeNu de UNED seguimos trabajando en diversos proyectos nacionales e internacionales para desarrollar soluciones TIC basadas en estándares. Por ejemplo, la serie de vídeos va a estar disponible en el repositorio de la Red ALTER-NATIVA [5] fruto del proyecto europeo del mismo nombre, en la que se publicarán los vídeos con el fin de que puedan ser utilizados y fácilmente localizados por todos los profesores de la Red, dado que su principal objetivo es ofrecer recursos de aprendizaje para una enseñanza en 225 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos contextos de diversidad. Otros proyectos del grupo utilizan distintas técnicas de minería de datos para lograr sistemas educativos que se adaptan a las necesidades de cada estudiante, incluyendo aquellas derivadas de su diversidad funcional. En concreto, en el proyecto MAMIPEC ya se han detectado los primeros retos existentes para abordar el tratamiento de aspectos afectivos en sistemas que se basan en el uso de diversos tipos de sensores [32]. La producción de todos estos materiales y sus equivalentes alternativos supone que en las condiciones correctas de presentación de los mismos, sus contenidos serán accesibles, por tanto eficientes, eficaces y satisfactorios para los alumnos, independientemente de sus circunstancias personales o tecnológicas de acceso. Una cuestión básica para conseguir la máxima accesibilidad posible de todos los materiales desarrollados de acuerdo con las preferencias y necesidades de cada usuario es su modo de presentación. Por ello, un equipo del Grupo de Investigación aDeNu está trabajando en el desarrollo de un sistema que permita: Correcta presentación de los vídeos en cualquier navegador, incluyendo navegadores móviles. Presentación del vídeo en lengua de signos de manera que el usuario pueda elegir en qué parte de su pantalla desea quede colocado, superpuesto o no al vídeo original y con qué tamaño. Presentación de la transcripción completa, sincronizada con el vídeo, de manera que el usuario pueda seleccionar una palabra o frase y automáticamente el vídeo vaya a ese segundo concreto en el que se expresa en el vídeo. Y que pueda seleccionar también si desea que se vayan resaltando las palabras en la transcripción según se van diciendo en el vídeo. Esta última característica es de especial utilidad para personas con ciertas limitaciones en la comprensión lectora y para quienes no dominan el idioma. Opción para habilitar y deshabilitar las diferentes adaptaciones de los objetos multimedia. El sistema permitirá también guardar las preferencias del usuario, pudiendo indicar qué alternativas desea se le presenten por omisión y cuáles no. Además, podrá ser implementado en cualquier LMS (Learning Management System) o servicio de cursos online y utilizará lenguaje de marcado HTML5 [36], que permitirá la distribución del material multimedia y sus diversas adaptaciones sin depender de tecnologías propietarias o cerradas. 6. Agradecimientos y distinciones Los autores desean agradecer a los diez protagonistas de los vídeos su valiosa participación, así como el apoyo prestado por el CEAPAT-IMSERSO [10], la Fundación CNSE [16], la asociación ADAMAR [6] y el Centro DATO [12]. Igualmente queremos agradecer el apoyo prestado por la UNED, el Ministerio de Ciencia e Innovación, que financia el proyecto MAMIPEC (TIN2011-29221-C0301), y la Unión Europea, en cuyo Programa ALFA III se encuentra el proyecto ALTER-NATIVA (DCIALA/2010/88). La serie de objetos multimedia ha obtenido el Premio ACE Course Awards: Multimedia Courses, otorgado por el Consorcio Mundial del OpenCourseWare [29], así como el Premio MECD-Fundación Universia a la accesibilidad, dentro de la convocatoria de premios OpenCourseWare de la Fundación Universia [17]. 7. Referencias [1]. aDeNu. Grupo de Investigación del Departamento de Inteligencia Artificial de la UNED: http://adenu.ia.uned.es/web/ [2]. AENOR. (2005). UNE 153020:2005. Audiodescripción para personas con discapacidad visual. Requisitos para la audiodescripción y elaboración de audioguías. [3]. AENOR. (2007). UNE 139804:2007 Requisitos para el uso de la Lengua de Signos Española en redes informáticas. [4]. AENOR. (2012). UNE 153010:2012. Subtitulado para personas sordas y personas con discapacidad auditiva. [5]. ALTER-NATIVA. Proyecto financiado por Programa ALFA III. http://alfa3alternativa.eu [6]. Asociación http://www.asociacionadamar.org. el ADAMAR: [7]. Asociation for Computer Machinery, ACM. (2001). Curricula Recommendations. [8]. Asociation for Computer Machinery, ACM - IEEE Computer Society (2008). Curriculum Guidelines for Undergraduate Degree Programs in Information Technology. [9]. Boticario J.G., Rodríguez-Ascaso, A., Santos, A., Raffenne, E., Montandon, L., Roldán, D., Buendía, F. Accessible Lifelong Learning at Higher Education: Outcomes and Lessons learned at two different pilot sites in the EU4ALL Project. Journal of Universal Computer Science Vol 18 (1) 62-85, 2012. [10].CEAPAT – IMSERSO: http:www.ceapat.org. Recuperado el 14 de abril de 2013. [11].CEN. (2010). Curriculum for training Professionals in Universal Design — CEN CWA /UD-Prof Curriculum. [12].Centro DATO: http://www.centrodato.org. Recuperado el 15 de abril de 2013. [13].Design for All for eInclusion. (2008). D5.2 Exemplary Training Modules on eAccessability for industry training. Design for All for eInclusion. [14].DISCAPNET. 2010. Estudio de accesibilidad de portales web universitarios. http://www.discapnet.es/Castellano/areastematicas/Acc esibilidad/Observatorio_infoaccesibilidad/informesInf 226 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos oaccesibilidad/Paginas/AccesibilidaddePortalesWebUn iversitarios.aspx [15].EU4ALL: http://www.eu4all-project.eu/ [16].Fundación CNSE: http://www.fundacioncnse.org. Recuperado el 15 de abril de 2013. [17].Fundación Universia. VI Edición de los premios MECD-Universia a la iniciativa OCW. Premio MECDFundación Universia a la accesibilidad: http://promociones.universia.es/microsites/premios/oc w/index.jsp. Recuperado el 15 de mayo de 2013. [18].García de Sola, Mar (coord.). (2006). Libro blanco del diseño para todos en la Universidad. Fundación ONCE, Instituto de Mayores y Servicios Sociales, 2006 [19].IDCNET. (2003). D3.2 - Identifying Core Knowledge and Skill Sets for Model Curricula [20].IDCNET. (2004). D3.3 – Teaching DfA Core Knowledge and Skill Sets: Experiences in including inclusive design. [21].IEEE. (2002). Standard for Information Technology -Education and Training Systems -- Learning Objects and Metadata (LOM). [22].ISO/IEC. (2008). ISO/IEC 24751-3:2008 Individualized adaptability and accessibility in elearning, education and training -- Part 3: "Access for all" digital resource description [23]. IMS Global Learning Consortium. (2012). IMS Access For All v3.0 Public Draft Specification. Recuperado el 15 de abril de 2013, de IMS Accessibility: http://www.imsglobal.org/accessibility/ [24]. ISO/IEC. (2011). 19788-1:2011 Information technology -- Learning, education and training -Metadata for learning resources -- Part 1: Framework [25].Ley 51/2003 de 2 de diciembre, de igualdad de oportunidades, no discriminación y accesibilidad universal de las personas con discapacidad. Publicado en: «BOE» núm. 289, de 03/12/2003. [26].Norman, D. and Draper, S. (1986). User Centred System Design, Hillsdale, NJ: Lawrence Earlbaum Associates. [27].NC State University, The Center for Universal Design (1997): Principios del Diseño Universal. Disponibles en línea en español y recuperados el 14/05/2013 en el sitio de la Fundación Sidar: http://www.sidar.org/recur/desdi/usable/dudt.php [28].Observatorio de Infoaccesibilidad de Discapnet. (2019). Accesibilidad de Portales web Universitarios. Discapnet. Disponible en línea: http://www.discapnet.es/Castellano/areastematicas/Acc esibilidad/Observatorio_infoaccesibilidad/informesInf oaccesibilidad/Paginas/AccesibilidaddePortalesWebUn iversitarios.aspx [29].OCW Consortium. 2013 Course Awards for Opencourseware Excellence: http://www.ocwconsortium.org/en/community/blog/20 13/05/20/ocw-consortium-announces-winners-of2013-course-awards-for-opencourseware-excellence/. Recuperado el 14 de mayo de 2013. [30].Quality Assurance Agency for Higher Education (QAA). (2010). Code of practice for the assurance of academic quality and standards in higher education. Section 3: Disabled students. 2010. Reino Unido. [31].Rosson, M. B., & Carroll, J. M. (2009). Scenario based design. Human‐computer interaction. Boca Raton, FL, 145-162. [32].Sama, V., Sevillano, E. (2012). Guía de accesibilidad de documentos electrónicos. Disponible en línea: http://portal.uned.es/portal/page?_pageid=93,26066088 &_dad=portal&_schema=PORTAL [33].Santos, O.C., Rodríguez-Ascaso, A., Boticario, J.G., Salmerón, S., Quirós, P., Cabestrero, R. Challenges for Inclusive Affective Detection in Educational Scenarios. C. Stephanidis and M. Antona (Eds.): UAHCI/HCII 2013, Part I, LNCS 8009, pp. 566–575, 2013. [34].SOLCOM. (2011). Informe 2011 sobre la presencia de la accesibilidad universal en las enseñanzas universitarias. SOLCOM. Disponible en línea: http://asociacionsolcom.org/Informe_accesibilidad_uni versidades_2011 [35].Rodriguez-Ascaso, A., Boticario, J. G., Finat, C., Gutiérrez, E., Prior, A. (2013). Productos de apoyo y tecnologías de la información y las comunicaciones. UNED Abierta. Disponible en línea: http://ocw.innova.uned.es/ocwuniversia/Ing_tecnico_in for_sistemas/productos-de-apoyo-y-tecnologias-de-lainformacion-y-las-telecomunicaciones [36].W3C. (2013). HTML5. http://www.w3.org/html/wg/drafts/html/master 227 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Shape Recognition, Image Analysis and Artificial Vision for Blind People Using Mainstream Devices Yong CHEN, Jaime LOPEZ-KRAHE THIM Laboratory (EA 4004 CHArt), University of Paris 8, France [email protected], [email protected] Abstract The objective of our search is to automatically transform the visual information of an image into accessible information for people with blindness. At present, tactile images for use by people with blindness are created manually with specific software (Figure 1). In this paper, we present a pr ocedure of transformation based on t he image processing with automatic methods of image segmentation, shape recognition and t ext recognition. This procedure is applied to cartographic images. Figure 1. Maps relief (www.inshea.fr). keys words: image segmentation, shape recognition, text detection, fuzzy methods, connected component Resumen El objeto de este trabajo de investigación es la adaptación de la información visual de imágenes sencillas a las personas ciegas por métodos automáticos. Actualmente las imágenes táctiles son realizadas de forma manual respetando una serie de criterios específicos para que las imágenes se adapten al sentido del tacto (figura 1). Presentamos un pr ocedimiento de transformación basado en el análisis de la imagen utilizando métodos de segmentación, y el reconocimiento de estructuras y de texto. Se aplica experimentalmente a i mágenes de cartografía geográfica. Este trabajo debe considerarse como una t entativa de búsqueda de sistemas que permitan la accesibilidad de las formas e imágenes numéricas a las personas ciegas. Palabras clave: segmentación de imágenes, reconocimiento de formas, detección de texto, métodos difusos, componentes conectados. 1. Introduction Dissemination of information is carried out more and more under digital form, and often remotely, but paradoxically this generalized accessibility becomes an increasingly insuperable barrier for people who do not have the possibility of reaching the visual method of information. The work we present here constitutes an approach of access to the documents under the tactile method. This problem is not new and the tactile access to written information is currently made using Braille transcription, both for edition and browsing with adapted tactile application interfaces (ephemeral Braille lines). However the presence of images, figures and graphs does not facilitate the automatic processing following this change. In addition, the sense of touch, although twodimensional like that of vision, does not have the same amount of resolution or frequency. Therefore it is not possible to carry out a transcription by an automat as it is the case of a text in Braille, and it is necessary to consider a higher level of processing adapted to the images. In this research, we focus on geographical images, whose accessibility is important in schools, but also in the context of cartographic database queries. In order to make the image tactile accessible, it will be necessary to make adequate choices to convey the maximum relevant and understandable information. The number of differentiable textures by tactile mode is very low, it will be necessary to observe rules of reinforcement of contours and generation of differentiable textures. The presence of symbols in legends which are found in the image implies learning these symbols, recognising them in the image and a specific tactile coding which can allow its localization in the tactile image. Finally the association of these signs to the text of the legend, the detection and recognition of the texts allow for a richer reading of the map. A geographical image is composed of 4 very important elements: color area, text, shape and symbol. In order to make these data accessible for blind persons, this project is composed of three parts: 1. Image segmentation, 2. Shape recognition, 3. Detection and recognition of the text 2. Image segmentation The different areas are defined by the different colors of the own colors of the image; in a tactile image, these colors will be represented by different textures. There is a maximum of five textures per image; more would make it difficult for blind people to distinguish between the areas. At the same time, the edges of each area have to be 228 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos simplified and enhanced to make easier the recognition of the area. To transform the “colored areas” into “textured areas”, we created the following steps, respecting the rules mentioned previously: prediction of the number of classes, segmentation of the image (we approach here the case of color images), post-processing of each found class, detection and simplification of edges, and filling of each class by a different texture within the space of differentiable textures. 2.1 Prediction of the number of classes In order to segment an image automatically, first of all we try to establish an automatic procedure of prediction of the number colors. For an image of RGB of 24 bit color, the maximum number of colors is: 224 =16 777 216 We use a simple equation for this prediction: Index=R*2560+G*2561+B*2562 Before beginning the work of selection of the classes to retain, we add a step of pre-treatment which makes it possible to decrease the parasitic colors by smoothing with the number of pixels of the histogram of each channel (Figure 2). This number of pixels makes it possible to differentiate the main colors (the highest number of pixels) from noises (the smallest number of pixels). The latter are overridden by the main colors of the closest neighbors. the image is classified by giving a degree of membership of each pixel. This algorithm is described by the following stages: 1. Define the number of classes 2. Initialize the coefficient of membership for each pixel, 3. Compute the centroid (barycentres) classes, 4. Readjust the coefficient of membership according to the position of the centroid ones, 5. Stop if the coefficient has a constant value, if not go to step 3. Figure 3. Segmentation with FCM (Number of class: 8) 2.3 Post-treatment for each found class For each class found, the post-treatment is applied to improve the result. This procedure includes the following steps (Figure 4): 1. Remove useless classes (isolated pixels, weak surface) 2. For each remaining class, to remove the pixel pointless by using the algorithm Connected-Component [15] 3. Extract [2, 7.8], simplify (filter passes low) and reinforce [3] contour (contours must be reinforced to facilitate the tactile reading) 4. Fill the area by a texture adapted to the tactile recognition. Figure 2. Pre-treatment of the image (In top, the image origin and histograms of 3 channels, In bottom, the image rebuilt and histograms after the processing.) 2.2 Segmentation of the image The purpose of segmentation is to separate and gather various homogeneous zones with same properties, such as color and intensity, according to the number of classes (Figure 3). There exist several methods of segmentation. These methods fall in two types: 1. Unsupervised segmentation, which can automatically separate the image into natural clusters without any prior knowledge of the class; 2. Supervised segmentation, which necessarily works with knowledge of each class defined. We tested the method of k-means [18] and the FCM (Fuzzy C-Means) [1, 5, 6], which gave better results. FCM is an unsupervised fuzzy algorithm for classification. This algorithm makes possible to obtain, for each pixel, a degree (between 0 and 1) of membership of a given class. This algorithm obligatorily requires knowing the number of output classes. In the RGB color space, each pixel has three characteristics which are three intensities of three channels, FCM is used on these three channels at the same time, and Figure 4. The post-treatment for each class found (a:class found; b: Reset unnecessary pixels; c: simplify the edges; d: Fill the region with texture) Indeed, compared to the visual capacity, the capacity of haptic perception is very limited; therefore it is necessary to respect some constraints in order to convey tactile information correctly. 3. Shape recognition The captions bring information using specific forms which can be found in the image. We detect and code these forms to recognize them on the image. 229 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos We want to identify and classify all the shapes contained in an image, but also record some properties which may also contain different information such as size, the color (which color class), the position in the image, etc. Once we have these information, combined with the content if the legend explaining the meaning of each shape, we can add a comment to each shape in Braille. To each found class, we apply the fuzzy algorithms [4] for the shape recognition [9, 10]. The various forms have different properties: the number of vertices (Figure 5, 6), the relationship between the convex Hull and surface, etc (Figure 7). Thanks to these various properties (Table 1), each candidate form can be identified in the image (Figure 8) and transmitted with a specific tactile code described in the legend. Figure 5. The vertices of a shape (Red Cross: the vertices, Blue Line: convex hull) On each of the classes found, the objects are separated to count the vertices (figure 5): The method gives good result for the recognition of simple shapes. For the recognition of more complex shapes, we would like to implement another method: the “Hu’s invariant moments” [19] which are frequently used as a feature for shape recognition and classification. In our project, we don’t only want to identify the different shapes; we also want to obtain the properties of each of them, as a same type of shape can have different sizes or colors, therefore representing different information. 4. Text image detection in an Text recognition comprises the following stages: pretreatment of the image, detection and localization of the area of text, extraction of the area and importation into OCR software, and transcription into Braille. We tested 3 different methods for the localization of text: Wavelet Filtering [11, 12, 13], a method derived from mathematical morphology [16], method SWT [17] (Stroke Width Transform). Wavelet filter: The wavelet transform is used to detect contours with different orientations. The application of the wavelet filter on an image consists of a filtering process in horizontal and a subsequent filtering process in vertical. The text areas are generally characterized by high-contrast edges, the coefficients of great value can be found in the sub-bands of the high-frequency, for this, we computed the standard deviation of the respective histogram H: Figure 6. Calculate the number of each shape (a: found class; b, c: found shapes) Figure 7. Polygons used to estimate properties For the text areas, the wavelet coefficient in the sub-band are dispersed and concentrated in a few discrete values. For the non-text area, the coefficient tends to follow a Laplacian distribution (Figure 9). It is assumed that the block if text will be characterized by higher value of the standard deviation than other blocks (Figure 10 and Figure 11). Table 1. Properties of form Figure 9: Histogram of a textual area and non textual area Figure 8. Shape recognition 230 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos why we decided to use another method of automatic text detection. Stroke Width Transform (Figure 13) is an operation that transforms color values contained in each pixel to the stoke width values, an almost constant feature that can separate text from other elements of the image. This system can be used to recover the regions that may contain text regardless of its size, direction, font, color and language. Figure 10. Sub-band image of decomposition with wavelet filter (The textual area contains the high-contrast edges) Figure 13. Result of the text classification with SWT In our research, we apply the system created by Boris Epshtein [14], this system can be used to detect the text areas in a natural image and it can also improve the OCR result by creating a text segmentation mask (Figure 14). Figure 11. Results of Location of text areas Method derived from mathematical morphology: This method is based on the properties of the texts of which distances between letters, words and lines, each with a specificity to have a quasi constant value. Indeed, the other objects of an image do not have this property (Figure 12). Figure 14. OCR results improved In order to find the stroke width value for each pixel, the system first computes edges in the image, and then computes the stroke width value, show in Figure 15: Figure 12. Results of Text detection with the distances It is a block segmentation according to an extraction by the configuration the blocks and the relation between them. In our case, the Run Length Smoothing Algorithm (RLSA) [16] was used. Compared to the wavelet filtering, this method gives more reliable results, but presents a major drawback due to the difficulty in finding the good value of the thresholds of distances for an image treated for the first time. To date we have not succeeded in automating the detection of these thresholds. SWT: Through our work, we want to create an automated program. As the fist two methods always require the user to choose appropriate parameters (like the threshold), that’s Figure 15. Implementation of the SWT 231 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos 5. Experiments and results Our current program was built with Matlab and is able to segment the image and recognize the shapes. The recognition of the text will be achieved in a future step. Below are the result of the test we made. Figure 20. Result of shape recognition step (The information of each shape (size, color, position) will be stored in the program) Figure 16. Interface created with Matlab Figure 21. Tactile Image Figure 17. Result of classification step Figure22. Another test, after the shape recognition. Figure 18. Result of the texturing step Figure 23. Another test, tactile image Figure19. Shape recognition step 232 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos [1] R. Krishna Priya, C. Thangaraj and C. Kesavadas, “Fuzzy CMeans method for Colour Image Segmentation with L*U*V* Colour transformation”, IJCSI International Journal of Computer Science Issues, Special Issue, ICVCI-2011, Vol. 1, Issue 1, November 2011 [2]S. Rital, H. Cherifi,"Détection de contours d’images couleur par hypergraphe de voisinage spatio colorimétrique", CORESA COmpression et REprésentation des Signaux Audiovisuels (2004). Publisher: France Telecom, Pages: 32—35 [3]Chi-Man Pun and C. Lin, "Shape Classification Using Contour Simplification and Tangent Function,"International Journal of Circuits, Systems and Signal Processing. Figure 24. Printed tactile image 6. Conclusion and Future Work This project studies the prospects for automatic creation of a tactile image, from digital images comprising symbols and text (geographical graphs, images, etc). This image is enriched and adapted for tactile use, in order to make it available to people with blindness. One of the problems to be solved comes from the absence of visual feedback from the user, who cannot give useful information to adjust the parameters of processing. In the current version, the information processing is not fully automated: our system requires the user to select the appropriate parameters in order to get the better result. However, compared to traditional methods used to create tactile maps, our software greatly reduced the workload and the time needed to create them. We are also trying to refine and improve the capability if our software to process information automatically in order to allow blind people to use it independently. For example, a step such as automatic calculation if the class number would make the system more automated. For other parameter, more experiments need to be done to determine the most appropriate value. Once treated, the image can be embossed by using the various systems existing on the market (specific-inks, wire-matrix printers, etc.). The image can also be displayed with other technology like TeslaTouch [20], developed by a Disney Research team, which use a tactile feedback technology called “electro-vibration”; TeslaTouche can provide a wide variety of tactile sensation such as textures, friction and vibration In addition, this approach also makes it possible to treat images from map libraries by generating toponymic databases of these cards for a posterior addressing and localization. The results obtained so far are acceptable. Of course, many problems remain and need to be solved, which will be done by continuing our work and with the continuous development of technology. We are currently optimizing the software and preparing a test phase with visually impaired users. [4]Manuel J. Fonseca and Joaquim A. Jorge, "Using Fuzzy Logic to Recognize Geometric Shapes Interactively". Fuzzy Systems, 2000. FUZZ IEEE 2000. The Ninth IEEE International Conference on 7-10 May 2000 [5]S. Shambharkar and S. Tirpude, "Fuzzy C-Means Clustering For Content Based Image Retrieval System", ICBMG 2011, IPCSIT vol.20 (2011) © (2011) IACSIT Press, Singapore. [6]E. Narayan, Y. Birla and G. K. Tak,"Enhancement of Fuzzy CMeans Clustering using EM Algorithm", International Journal of Computer Applications (0975 – 8887) Volume 43– No.13, April 2012. [7]Marie-Flavie A. Fortier, D. Ziou1, C. Armenakis and S. Wang, "Nouvelles perspectives en détection de contours : Textures et images multispectrales", Vision Interface '99, Trois-Rivières, Canada, 19-21 May. [8]DUAN Rui-ling,Ll Qing-xiang,Ll Yu-he, "Summary of image edge detection", OPTICAL TECHNIQUE, Pékin, VlO1.31 No.3 May 2005 [9]Lopez-Krahe, T. Alamo-Cantarero, E. Davila-Gonzalez, "Discrete line and circles :( application to pattern recognition)", ENST. D ISSN 0751-1345 [10]J. Llados, E. Marti, J.Lopez-Krahe, "A Hough-based method for hatched pattern detection in maps and diagrams", ICDAR '99 Proceedings of the Fifth International Conference on D ocument Analysis and Recognition. Page 479 [11]Julinda Gllavata, Ralph Ewerth and Bernd Freisleben, "Text Detection in Images Based on Unsupervised Classification of High-Frequency Wavelet Coefficients", Proceedings of the Pattern Recognition, 17th International Conference (ICPR'04) Volume 1 - Volume 01 Pages 425 - 428 [12]C. Wolf, J.-M. Jolion, F. Chassaing, "Détection et extraction de texte de la vidéo", INRIA, Le Chesnay, SUISSE (2002) (Monographie) [13]John D. Villasenor, Benjamin Belzer, and Judy Liao, "Wavelet Filter Evaluation for Image Compression", IEEE transation on image procession, vol 4, No 8, august 1995 [14]Boris Epshtein Eyal Ofek Yonatan Wexler, "Detecting Text in Natural Scenes with Stroke Width Transform", Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference on 1318 June 2010. [15]C. A. Bouman, "Connected Component Analysis", Digital Image Processing - January 9, 2012 7. References 233 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos [16]P.Chauvet, J.Lopez Krahe, E.Taflin, H.Maitre, "System for an intelligent office document analysis, recognition and description", Signal Processing, Volume 32,Nos. 1-2, mai 1993, pp 161-190. [17]C. Jung, Q. Liu, J. Kim, "A stroke filter and its application for text localization", PRL vol 30(2), 2009 [18]C.W CHEN, J.Luo and Kevin J.Parker, "Image Segmentation via Adaptive K–Mean Clustering and Knowledge-Based Morphological Operations with Biomedical Applications". IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 7, NO. 12, December 1998 [19] M.K. Hu, “Visual pattern recognition by moment invariants”, IRE Trans. Information Theory, Vol. IT-8, pp. 179-187, February 1962. [20] O. Bau, I. Poupyrev, A. Israr, and C. Harrison, "TeslaTouch: electrovibration for touch surfaces." In Proceedings of the 23nd annual ACM symposium on User interface software and technology (UIST ’10). ACM, New York, NY, USA, 283-292. Harrison. 2010. 234 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Referencia de Autores Abascal, Julio, 208 Alonso, Alonso, 22 Álvarez González, Daniel, 158 Andújar Pérez, Julián, 113 Arbelaitz, Olatz, 208 Arredondo, Maria Teresa, 126 Arregui Noguer, Beatriz, 49 Arroyo Hernández, Ana, 113 Balaguer, Carlos, 5 Barrué, Cristian, 193 Bastos, Teodiano, 13 Berdud Murillo, Mª Luisa, 36 Bermúdez Cabra, Antonio, 49 Bortole, Magdo, 178, 183 Breñosa, Jose, 126 Cañadillas, F.R., 214 Capataz Gordillo, Carlos, 113 Carelli, Ricardo, 13 Carrera, Albano, 22 Carrero Leal, Juan Manuel, 106 Casas, Oscar, 70 Castellano García, Juan Miguel, 49 Ceres, R., 20, 21, 134, 183 Chacón, Jonathan, 171 Chen, Yong, 229 Chicote, Juan C., 67 Cifuentes, Carlos, 13 Cisneros Pérez, Guillermo, 204, 207 Cogollor, José M., 126 Conde, David, 70 Contijoch Culleré, Xavier, 184 Corralejo Palacios, Rebeca, 158 Cortés, Ulises, 193 De Castro, Juan Pablo, 22 De Castro Álvarez, Mercedes, 106 De la Rosa, Ramón, 22 Delgado García, Alberto, 79, 171 De Teresa, Javier, 126 Díez, Teresa, 197 Dols, Juan F., 67 Domingo, Sergio, 70 Dominguez, Mª José, 197 Ferrández-Pastor, Francisco Javier, 164 Ferre, Manuel, 126 Finat, Cecile, 221 Fioravanti, Alessio, 126 Flórez-Revuelta, Francisco, 164 Frizera, Anselmo, 13 García-Chamizo, Juan Manuel, 164 García Fernández-Caro, Domingo, 84 García-Herranz, Manuel, 36 García, Sonia, 97 Giachritsis, Christos, 126 Gil-Rodríguez, Eva P., 30 Gómez Saldaña, Belén, 118 González, Roberto, 97 González León, Francisco José, 106 González Boticario, Jesús, 221 Gutiérrez y Restrepo, Emmanuelle, 221 Haya, Pablo A., 36 Heredia Sáenz, Antoni, 208 Hermida Simil, Guillermo Abel, 79 Hermsdörfer, Joachim, 126 Hernández, Daniel, 208 Hernández, Yolanda, 146 Hilera, José R., 197 Hornero, Gemma, 70 Hornero Sánchez, Roberto, 158 Iglesias-Pérez, Andrés, 171 Jardón, Alberto, 5, 214 Jiménez, J., 134 Jiménez García, Juan Ramón, 49 Jorge García, Sonia María, 151 Lobato, Vanesa, 97 López-Krahe, Jaime, 229 Martín Barroso, Estefanía, 36 Martín Edo, Carlos Alberto, 204 Martínez, A.B., 193 Menéndez García, José Manuel, 204 Millet, Sandra, 193 Morago, Roberto, 22 Morante, Santiago, 5 Morata, S, 134 Moreno, Lourdes, 197 Muguerza, Javier, 208 Nicolás Alonso, Luis Fernando, 158 Nieto-Hidalgo, Mario, 164 Ochoa Mendoza, Estíbaliz, 113 Ortega-Moral, Manuel, 171 Pastorino, Matteo, 126 Peinado, Ignacio, 171 Peláez, Víctor, 97 Pérez, Enrique, 97 Perez, Maria, 53, 60 Pérez Seco, Marta, 118 Pino, Begoña, 91, 94 Pla, Lluisa, 193 Pons, José L., 178 Prior, Amparo, 221 Quílez, Marcos, 70 Ramiro Sala, G., 138 Raya, R., 134 Rebaque-Rivas, Pablo, 30 235 Libro de actas DRT4ALL 2013 V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos Redondo Sastre, Almudena, 118 Rodriguez-Ascaso, Alejandro, 221 Rodriguez Pastor, Albert, 184 Rodríguez, Maria, 70 Rojas Valduciel, Halena, 41 Rojo, Javier, 126 Romero, Borja, 70 Romero Rey, Eugenio, 49 Romero, Manuel, 67 Roldán Álvarez, David, 36 Ruiz Mezcua, Belén, 106 Sabaté-Jardí, Llorenç, 30 Sacristán Aragón, Chelo, 49 Sancha, Zaida, 91, 94 Sánchez Alonso, Alberto, 36 Sánchez Rissech, Lluís, 84 Sánchez, Mª Dolores, 91, 94 Sangilbert, David, 197 San Martín, Luis Ángel, 97 Selma Cordero, Rafael, 79 Sola, R., 134 Suárez, Raúl, 70 Tofiño, Mieria, 97 Urendes, Eloy, 178 Valadão, Carlos, 13 Valero, Miguel Ángel, 146 Valero Ramón, Z., 138 Varela Méndez, María Jesús, 79 Velasco, M. A., 134 Victores, Juan G., 4, 214 Wing, Alan, 126 Walton, Clare, 126 Worthington, Andrew, 126 236