Hacia el fin de la metáfora
Transcripción
Hacia el fin de la metáfora
Hacia el fin de la metáfora El hombre se acerca indefectible y aceleradamente a una forma mucho más humana de interacción con las computadoras La interacción del hombre con la computadora, ha sufrido cambios significativos con el transcurso de su corta relación: aproximadamente unos 100 años (compárese con los 200.000 años que la ciencia le adjudica a la presencia del hombre en el planeta). Desde la tarjeta perforada, al uso de las metáforas actuales como “el escritorio” o “el navegador”, el ser humano ha logrado mejorar su comunicación con las computadoras (el apéndice adjunto provee una breve reseña al respecto). Cabría preguntarnos cual será la próxima metáfora: ¿provendrá de Steve Jobs como una evolución natural de la incluida en el iPhone de Apple, el cual ofrece una pantalla “multi-touch” con un teclado y botones virtuales? ¿Será del estilo de la utilizada por Chief John Anderton (T. Cruise) en la película de ciencia ficción “Minority Report/Sentencia Previa”? ¿Será la navegación 3D que nos permitirá recorrer los silos de información? O más desafiante aún: ¿habrá una nueva metáfora o estamos listos para una nueva forma de interacción, mucho más directa, simple, humana? (1). Si bien no es fácil poder predecir la evolución en el corto plazo, paradójicamente, el mediano parece ineludible: la relación hombre-computadora se dirige hacia una interacción mucho más natural para el hombre. Por miles de años, el ser humano se ha comunicado con su entorno mediante el lenguaje hablado, y posiblemente sea este el paradigma que adopte la nueva relación con las computadoras también. Más aún, es fácil extender el concepto a muchos otros dispositivos electrónicos/electro-mecánicos con los que interactuamos a diario: equipos de música, automóviles, micro-ondas, etc. Si bien cognitivamente el ser humano exhibe una complejidad significativa que excede al lenguaje, el mismo es el vehiculo propio del hombre para comunicarse con su entorno. Tan importante es el lenguaje como característica propia del hombre, que corrientes filosóficas como el positivismo lógico lo hacen centro de la concepción humana (2). Los desafíos no son insalvables con el estado actual de la tecnología. Entre ellos: la generación de voz a partir de texto (TTS: text to speech), el reconocimiento de voz, y la “comprensión” del lenguaje. Los dos primeros, son de naturaleza tecnológica; el tercero en cambio, requiere de la semántica lingüística cuando nos apartamos de comandos simples. Varias iniciativas encuadradas dentro de la Asociación para el avance de la Inteligencia Artificial (Association for the Advancement of Artificial Intelligence, AAAI), focalizan sus esfuerzos en el procesamiento natural del lenguaje: Natural Language Processing (3). Mientras que empresas como IBM y Microsoft, ya incluyen estas tecnologías dentro de sus productos actuales: IBM Text Analyzer (parte del Enterprise Information Portal como uno de los WebSphere Business Component); el verificador de gramática de Microsoft Office para inglés, francés, alemán y español; el SDK 5.1 el cual incluye motores text-to-speech (TTS) en. Inglés y chino simplificado, motores de reconocimiento (Speech Recognition - SR) en inglés, chino simplificado y japonés. Los avances en estos campos no están restringidos al laboratorio, sino que cuentan con numerosos ejemplos de aplicación práctica. A fines de 1995, Ford anunció el comando por voz, Voice to Control (V2C), en una amplia gama de sus vehículos: Mondeo, Fiesta, Fusion, Focus; RIM utiliza el discado activado por voz, Voice Activated Dialing (VAD), en sus dispositivos Blackberry 8800; Innitechsystems, ofrece una amplia gama de dispositivos controlados por voz: SurfBoard Remote Control, Sunshine Alarm Clock, Kelvin Thermostat, etc. con aplicaciones directas en domótica. Sin embargo, el tópico de mayor interés y complejidad, es la comprensión del lenguaje en el contexto del diálogo. Richard Wallace, cuyos trabajos datan de 1995 con SETL y A.L.I.C.E. (Artificial Linguistic Internet Computer Entity), ha hecho un singular aporte al mismo mediante el desarrollo del lenguaje AIML (Artificial Intelligence Markup Lenguaje) el cual se basa fundamentalmente en el principio de “estímulo-respuesta”, es decir respuestas preconcebidas para cada estimulo (4). AMIL agrega facilidad de programación mediante la técnica de reducción simbólica (Symbolic Reduction Artificial Intelligence) con la cual expresiones como: ¿Sabe Ud. quién es Einstein?, ¿Podría decirme quién es Einstein?, ¿Conoces quién es Einstein?, etc. pueden todas ser “reducidas” a: ¿quién es Einstein?. Posiblemente el elemento más destacable de AIML en el proceso de “interpretar” el mensaje, sea la posibilidad de establecer el contexto del mismo, basado en las interacciones previas; característica esta que acerca la eventual respuesta de la computadora a la propia de un humano (5). Otros proyectos de singular interés son Júpiter, servicio meteorológico del MIT, y de un alcance mucho más ambicioso aún, Oxygen, donde el lenguaje hablado es la interfase primaria, pero no única de un conjunto de dispositivos interconectados, tendientes a brindar una computación centrada en el hombre: “Pervasive, Human-Centered Computing”. Sin embargo, más interesante aún que los detalles técnicos de estas implementaciones, son las consecuencias que podemos imaginar. ¿Se establecerá el inglés como el lenguaje “universal” de interacción con las computadoras? ¿Tendrá el esperanto una segunda oportunidad, y desplazará al inglés en ese role? ¿Podrán las computadoras comunicarse en varios lenguajes? Si bien la mayoría de los trabajos de investigación se han basado en el idioma inglés, mucho de los logros son extensibles a otras lenguas, entre ellas, las lenguas romances (derivas del latín) como el español, italiano, francés, portugués, etc. Por otro lado, su extensión a otros lenguajes con estructuras diferentes como el chino y el Japonés involucran desafíos particulares (por ejemplo, el hecho que las “palabras” no estén separadas por espacios). ¿Qué porcentaje de nuestros “diálogos” serán con computadoras en lugar de personas? ¿Qué impacto tendrá este hecho en la evolución natural de los idiomas? Podemos especular que se reducirá el uso de homófonos o parónimos (vocablos cuya pronunciación es igual o muy similar, y su significado diferente); que incluso el lenguaje coloquial adquirirá un mayor nivel de formalización; que los matices regionales dejarán lugar a características comunes, etc., etc. Por otro lado, ¿qué impacto tendrán los contenidos curriculares tanto generales como los específicos de los profesionales en ciencias informáticas? ¿Habrá una mayor cantidad de contenidos en semántica, particularmente semántica lingüística: estudio de los significados de las expresiones del lenguaje; sintaxis: las reglas y principios, más allá de significados específicos; y pragmática: significado y usos alternativos y contextuales de las expresiones? ¿Darán estas tecnologías un renovado impulso a la productividad? ¿Y si así fuera, serán sus beneficios compartidos por todos los seres humanos o apropiados por unos pocos? Si bien los avances de las nuevas tecnologías han alcanzado un número muy alto de seres humanos en un tiempo record (según las “Internet World Stats”, el 21% de la humanidad o 1.4 de 6.7 billones ya utiliza Internet), la brecha entre quienes tienen acceso y los que no, se ha profundizado: hablamos de la Web 2.0, de las redes sociales, de “prosumers”, etc., mientras 2 billones de seres humanos padecen anemia. Estos y muchos otros interrogantes, seguramente adquieran creciente dimensión en la medida que los proveedores de soluciones profundicen esta tendencia. Sin embargo, más allá de plazos y caminos alternativos de evolución, es altamente probable que relación hombre-computadora (concepto extensible a muchos otros dispositivos, como ya comenté) se humanice, haciendo que el hombre recobre su supremacía: será la computadora la que deberá hacer el esfuerzo de comprendernos, extendiendo los beneficios de las computadoras a un número muchísimo mayor de personas y en la forma en que nos resulta natural: hablando. Néstor H. Mazza Profesor – Administración de Recursos Informáticos, UBA-FCE Buenos Aires, Diciembre de 2008. ………………………………………………………………………………………………………………………………………… Apéndice: breve reseña de los mecanismos de interacción entre el ser humano y la computadora La tarjeta perforada fue en sus orígenes, el mecanismo por excelencia mediante el cual el hombre le indicaba a la computadora qué hacer y qué datos procesar. Su utilización se remonta a 1801 cuando Joseph-Marie Jacquard introdujo “programación” en los telares. En 1890, la tarjeta perforada fue utilizada por primera vez para el procesamiento de datos (censo de los estados Unidos de Norte América), mediante “maquinas tabuladoras” diseñadas por Herman Hollerith. Cientos de tarjetas eran entonces preparadas (tediosísimo proceso de grabo-verificación), agrupadas y finalmente leídas por la computadora, la cual las procesaba: instrucciones y datos, en el lenguaje que la computadora pudiera entender y lejos de la comprensión de los humanos, a excepción de unos pocos expertos. La interfase de línea de comandos, CLI (Command Line Interface), por medio de la cual pueden digitarse comandos que son interpretados por el sistema operativo y las aplicaciones, surge recién en 1950 como evolución de las maquinas de teletipo (TTY). Así, las pantallas y los teclados sirvieron como principal vehiculo de interacción, facilitando notablemente la interactividad y la transmisión de información en un formato más próximo al hombre: el comando escrito. No obstante este significativo avance, se siguió requiriendo de especialistas que pudieran dar las instrucciones siguiendo una sintaxis precisa, mientras que su alcance se extendía más allá de las fronteras de las computadoras centrales “mainframes”, a las computadoras personales, de la mano de DOS (Disk Operating System). El próximo paso en la evolución, se originó en el Stanford Research Institute, con la aparición del ratón y los hipervínculos, los cuales desembocaron en la las primeras interfases gráficas de usuario (Graphical User Interfase, GUI) implementadas comercialmente en 1981 en la Xerox 8010 Star Information System. Sin embargo, fue la Apple Macintosh in 1984, la primera computadora destinada al usuario final, la que recogió, expandió y popularizó la GUI basada en la metáfora del escritorio. Simplemente, la metáfora del escritorio “trasforma” las instrucciones a la computadora, por acciones equivalentes en el mundo físico: eliminar un documento, significa arrastrarlo a la papelera de reciclaje; imprimirlo, arrastrarlo a la impresora, etc., todo asistido de nuevos “dispositivos de entrada” como el ratón, el track-point, etc. Microsoft, cuya habilidad comercial para desarrollar “estándares de facto” es indiscutible, supo incorporar esta nueva forma de interacción hombre-computadora, en el sistema operativo Windows; metáfora que ha perdurado por más de 15 años, y que fue, posiblemente con el bajo costo asociado a la tecnología CMOS (tecnología de fabricación de circuitos integrados como los microprocesadores), determinante en que la computadora se extendiera fuera del territorio de los expertos. En 1993, apareció el navegador (browser) de Internet. Originalmente introducido por Marc Andreessen de NCSA Mosaic, fue posiblemente una de las últimas metáforas introducidas. La simplicidad que ofrece para acceder a la vasta información contenida en la word wide web, “navegando” entre sus múltiples sitios como si recorriéramos una galería, fue de sigular importancia en la adopción de Internet como fuente de información y plataforma para cientos de servicios asociados. Un vez más, la habilidad comercial de Microsoft, al integrar el explorador de Internet en su ampliamente aceptado sistema operativo Windows, acercó aún más la computadora al hombre. (1) Michael Dertouzos, “The Unfinished Revolution”. Harper Collins Publishers Inc., 2001. ISBN: 0-06-662067-8 (2) Jaime Barylko “La Filosofía. Una invitación a pensar”. Grupo Editorial Planeta S.A.I.C., 1997. ISBN 950-49-0564-1. (3) Daniel Jurafsky and James H. Martin “Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition”. PrenticeHall, 2000. (4) Wallace, R., “The Elements of AIML Style”, Alice A.I. Foundation, Inc., 2003. (5) Alan Turing, “Computing Machinery and intelligence” Artículo original de Turing en la revista Mind, 1950.