Asistentes Interactivos para el Aprendizaje de - IEEE-RITA

Transcripción

Asistentes Interactivos para el Aprendizaje de - IEEE-RITA
IEEE-RITA Vol. 4, Núm. 3, Ago. 2009
213
Asistentes Interactivos para el Aprendizaje de
Algoritmos Voraces
J. Ángel Velázquez Iturbide, Member, IEEE, Carlos A. Lázaro Carrascosa, e Isidoro Hernán Losada
Title— Interactive Assistants for Learning Greedy Algorithms
Abstract— The design of educational software must be based
on clear pedagogical objectives. In this article we introduce two
interactive assistants, each one intended to assist in a specific
greedy algorithm: AMO for the knapsack problem and SEDA for
the activity selection problem. We describe their educational
objectives by means of the levels in Bloom’s taxonomy and the
functions these assistants provide to support such levels. We also
describe the method and results of several usability evaluations
performed, which were highly positive.
Index Terms— Algorithms, educational technology, interactive
systems, user interface human factors.
I. INTRODUCCIÓN
L
A informática en general y la informática educativa en
particular han alcanzado niveles muy altos de
sofisticación. Sin embargo, este alarde tecnológico no tiene
porqué ir acompañado de su éxito educativo.
Un ejemplo claro lo encontramos en las animaciones de
algoritmos que, a pesar de su madurez y amplia oferta de
sistemas, no ha alcanzado el éxito prometido. Una de las
principales razones [1] de este relativo fracaso es la gran carga
de trabajo que supone la construcción de animaciones
(normalmente, para los profesores), pero también que su uso
no siempre garantiza una mayor eficacia educativa [2].
El trabajo aquí presentado es una contribución dentro de
una línea de investigación centrada en el desarrollo de
aplicaciones educativas de animación de programas para
técnicas de diseño de algoritmos. Dicha línea [3] comenzó con
un estudio de las características de las visualizaciones de
algoritmos, clasificadas por técnica de diseño. También
partimos de nuestra experiencia en el uso de la taxonomía de
Bloom [4] como marco educativo para el diseño de
Manuscrito recibido el 28 de Febrero de 2009.
J. Ángel Velázquez Iturbide pertenece al Departamento de Lenguajes y
Sistemas Informáticos I, Universidad Rey Juan Carlos, C/ Tulipán s/n,
Móstoles 28933, Madrid, España (autor de contacto, Tel.: +34 91 664 74 54;
Fax: +34 91 488 85 30; e-mail: angel.velazquez@ urjc.es).
Carlos A. Lázaro Carrascosa pertenece al Departamento de Lenguajes y
Sistemas Informáticos I, Universidad Rey Juan Carlos, C/ Tulipán s/n,
Móstoles 28933, Madrid, España (e-mail: carlos.lazaro@ urjc.es).
Isidoro Hernán Losada pertenece al Departamento de Lenguajes y
Sistemas Informáticos I, Universidad Rey Juan Carlos, C/ Tulipán s/n,
Móstoles 28933, Madrid, España (e-mail: isidoro.hernan@ urjc.es).
DOI (Digital Object Identifier) Pendiente.
aplicaciones educativas [5]. Sobre estas bases, hemos
desarrollado sistemas para la animación de la recursividad [6]
y de algoritmos de divide-y-vencerás [7].
En este artículo se presentan dos aplicaciones educativas
diseñadas para ayudar a los alumnos en el estudio de los
algoritmos voraces. AMO [8] está concebido para ayudar al
estudio del problema de la mochila [9] y SEDA [10], para el
problema de la selección de actividades [11]. Ambas
aplicaciones afrontan los dos retos antes citados para sistemas
de animación. Por un lado, las animaciones se generan
automáticamente, sin esfuerzo por parte del usuario. Por otro
lado y lo más importante para el objetivo de esta
comunicación, afrontamos la eficacia educativa mediante su
diseño en el marco de la taxonomía de Bloom.
La estructura del artículo es la siguiente. En el apartado
siguiente describimos nuestros objetivos pedagógicos. El
apartado tercero contiene una descripción detallada de ambas
aplicaciones. En el apartado cuarto se describen los resultados
de varias evaluaciones de usabilidad. Por último, comentamos
algunos trabajos relacionados e incluimos nuestras
conclusiones y líneas de trabajo futuro.
II. OBJETIVOS PEDAGÓGICOS
Hemos clasificado los objetivos educativos de nuestras
aplicaciones según la taxonomía de Bloom [4]. Se trata de un
marco, muy conocido, para medir el grado de conocimiento o
aprendizaje de una materia por el alumno. La taxonomía
establece una jerarquía de seis niveles:
• Nivel de conocimiento. El estudiante puede recordar
información, sin que sea necesario entender su contenido.
• Nivel de comprensión. El estudiante puede entender y
explicar el significado de la información recibida.
• Nivel de aplicación. El estudiante puede seleccionar y
utilizar datos y métodos para solucionar una tarea o
problema.
• Nivel de análisis. El estudiante puede distinguir,
clasificar y relacionar hipótesis y evidencias de la
información dada, así como descomponer un problema
en sus partes.
• Nivel de síntesis. El estudiante puede generalizar ideas y
aplicarlas para solucionar un nuevo problema.
• Nivel de evaluación. El estudiante puede comparar,
criticar y evaluar métodos o soluciones para solucionar
un problema.
ISSN 1932-8540 © IEEE
214
IEEE-RITA Vol. 4, Núm. 3, Ago. 2009
Si buscamos objetivos de aprendizaje para las distintas
técnicas de diseño de algoritmos, encontramos que todas ellas
buscan los niveles de comprensión de la técnica y de análisis
del comportamiento de los algoritmos desarrollados. Sin
embargo, también encontramos diferencias entre las distintas
técnicas. En concreto, en los algoritmos voraces, juegan el
papel principal los niveles de aplicación (de patrón de código
de muy alto nivel), síntesis (de demostración de optimidad y
de programación del algoritmo) y evaluación (de estrategias
alternativas).
Conviene comentar una dificultad adicional. Los algoritmos
voraces se basan en unos conceptos comunes y un patrón de
alto nivel. Sin embargo, sus códigos fuentes son tan distintos a
dicho patrón que resultan irreconocibles como instancias del
mismo. La visualización de cada algoritmo voraz también es
particular del mismo [3]. En consecuencia, propusimos diseñar
una familia de asistentes, cada uno dedicado a un problema
voraz diferente.
Cada asistente debe ayudar en los siguientes niveles
educativos:
• Comprensión. El alumno comprenderá el problema
planteado y el algoritmo voraz que lo resuelve. El
algoritmo será independiente de la estrategia voraz
elegida (es decir, del criterio de selección de los
candidatos), por lo que puede contener fragmentos de
pseudocódigo.
• Análisis. El alumno analizará el efecto de aplicar a unos
datos de entrada el mismo algoritmo voraz, pero con
diversas estrategias voraces.
• Evaluación. El alumno evaluará el efecto de cada
estrategia voraz y seleccionará (empíricamente) la
óptima.
Obsérvese que la selección de la estrategia óptima se realiza
a partir de los resultados obtenidos experimentalmente. A
pesar de esta evidencia empírica, la optimidad de la estrategia
correspondiente sólo puede afirmarse tras su demostración
formal, que se realizará sin la ayuda del asistente.
III. DESCRIPCIÓN DE LOS ASISTENTES INTERACTIVOS
AMO y SEDA se han diseñado para ayudar al aprendizaje
de los problemas de la mochila [9] y de la selección de
actividades [11], respectivamente. La mayor parte de sus
características son comunes. Sin embargo, SEDA se desarrolló
tras AMO, por lo que contiene algunas mejoras introducidas
tras una sesión de evaluación de usabilidad de AMO. Al estar
más avanzado, comenzamos presentando SEDA, para exponer
después las características específicas de AMO.
A. Descripción de SEDA
Podemos definir informalmente el problema de selección de
actividades de la siguiente manera [11]. Dado un conjunto de n
actividades, cada una con un instante de comienzo ci y un
instante de fin fi, deseamos seleccionar un subconjunto de
máximo tamaño de actividades que no se solapen.
Por ejemplo, dado el conjunto de actividades de la Tabla I,
el subconjunto compuesto por las actividades {0,6,9} es una
solución válida, mientras que el subconjunto {2,7,6,3} es una
solución de tamaño máximo.
TABLA I.
UN EJEMPLO DEL PROBLEMA DE SELECCIÓN DE ACTIVIDADES
i
0
1
2
3
4
5
6
7
8
9
si
1
9
28 11
7
6
19 24
28 23
fi
14
17
29 15 14
26 23 28
29 30
La Fig. 1 muestra el aspecto de la interfaz de usuario de
SEDA. Se distinguen claramente tres zonas, aparte del menú
principal y la barra de iconos. En la parte superior se encuentra
el panel del problema, que muestra gráficamente los datos de
entrada (en la figura, tras ejecutar el algoritmo para el ejemplo
anterior). En la parte inferior izquierda se encuentra el panel
de teoría. Consta de dos pestañas: la pestaña del problema
contiene su enunciado, y la del algoritmo (visible en la figura),
su codificación en Java. Finalmente, la parte derecha contiene
el panel de resultados, que a su vez contiene las pestañas de
datos de entrada y de resultados (visible).
Fig. 1. Interfaz de usuario de SEDA.
El usuario puede consultar el enunciado del problema y el
código del algoritmo voraz en cualquier momento. Sin
embargo, sólo podrá usar el resto de funciones de SEDA tras
introducir datos de entrada. Entonces, SEDA muestra
gráficamente los datos en el panel del problema.
A partir de este momento, el usuario puede seleccionar una
estrategia voraz y ejecutar el algoritmo según el orden de
selección dado por ésta. SEDA ofrece 9 estrategias:
• Aleatoria.
• Índice de la actividad en orden creciente/decreciente.
• Comienzo de la actividad en orden creciente/decreciente.
• Fin de la actividad en orden creciente/decreciente.
• Duración de la actividad en orden creciente/decreciente.
ISSN 1932-8540 © IEEE
VELÁZQUEZ ITÚRBIDE et al.: ASISTENTES INTERACTIVOS PARA APRENDIZAJE DE ALGORITMOS...
215
Fig. 2. Visualización de actividades en SEDA en orden decreciente de comienzo.
Fig. 3. Visualización de actividades en SEDA en orden decreciente de duración.
Fig. 4. Tabla de evaluación de las estrategias en SEDA.
SEDA visualiza las actividades en formato bidimensional
sobre un eje temporal horizontal. La visualización muestra
tantas filas como actividades hay. Cada actividad se representa
mediante una barra comprendida entre los instantes de
comienzo y fin.
Las actividades se colorean con tonos según la estrategia
voraz seleccionada, correspondiendo los tonos más oscuros a
las actividades que antes se seleccionarán con dicha estrategia.
Obsérvese que un número alto de objetos producen un
problema visual ya que las personas somos incapaces de
distinguir una gama de tantos tonos. Para que las
visualizaciones (y el propio ejemplo) sean manejables, SEDA
impone la restricción de un máximo de 12 actividades e
instantes comprendidos entre 0 y 30.
La Fig. 2 muestra el mismo ejemplo que la Fig. 1 (es decir,
las diez actividades de la Tabla I según la estrategia de orden
decreciente de comienzo), pero al comienzo de la ejecución.
Obsérvese que la primera actividad en ser seleccionada será la
tercera (situada en la parte superior derecha), mientras que la
de la fila primera será la última.
La Fig. 3 muestra las mismas actividades reordenadas
(recoloreadas) en orden decreciente de duración.
Una vez seleccionada una estrategia, el usuario puede
ejecutar y animar el algoritmo mediante dos controles: paso a
paso o de forma completa. En el primer caso, el usuario puede
observar cómo se seleccionan actividades iteración tras
iteración según la estrategia activa. Cada actividad
seleccionada se colorea de gris si es válida (indicando que no
puede volver a seleccionarse) o de rojo si es inválida (es decir,
si se solapa con alguna seleccionada antes). El usuario también
puede retroceder la animación para volver a examinar los
pasos anteriores.
El beneficio producido por las distintas estrategias se
muestra en la tabla del panel de resultados. La Fig. 4 muestra
dicha tabla tras aplicar 5 estrategias con los datos de entrada
de las figuras anteriores. Cada fila contiene, de izquierda a
derecha, columnas con la estrategia, el valor asignado a cada
actividad, las actividades seleccionadas y valor de la función
objetivo (en este problema, número de actividades). La tabla
permite ordenar sus filas según la columna de número de
actividades, conociendo inmediatamente las estrategias con
mejor resultado.
SEDA es un sistema sencillo, con sólo algunas facilidades
más. El usuario puede introducir datos de entrada por teclado,
generarlos aleatoriamente o leerlos de un fichero; también
puede modificarlos interactivamente. Las visualizaciones
individuales y las animaciones pueden almacenarse en ficheros
de formatos gráficos estándar. La tabla de resultados puede
exportarse en formato de texto. Por último, puede
seleccionarse el idioma de la aplicación (español e inglés).
ISSN 1932-8540 © IEEE
216
IEEE-RITA Vol. 4, Núm. 3, Ago. 2009
Fig. 5. Visualización de los objetos y la mochila en AMO.
Fig. 6. Tabla de evaluación de las estrategias en AMO.
Hagamos un resumen de las principales características de
SEDA agrupadas por los objetivos educativos que soporta:
• Nivel de comprensión. Está soportado por el panel de
teoría (con sus pestañas de problema y de algoritmo). A
su vez, las funciones de entrada de datos, selección de
estrategia y avance/retroceso de la animación facilitan
que el alumno analice el comportamiento del algoritmo
con cada estrategia.
• Nivel de análisis. Está soportado por las visualizaciones
y la animación del panel del problema. La representación
gráfica facilita identificar los límites de las actividades y
sus solapamientos. Además, los tonos facilitan
determinar el orden de selección de las actividades y el
gris, descartar las ya consideradas. Los controles de
avance/retroceso de la animación facilitan el análisis
temporal de cada estrategia. Por último, la tabla de
resultados permite conocer fácilmente el efecto de cada
estrategia y analizarla de forma resumida.
• Nivel de evaluación. Está soportado por la tabla de
resultados. Su examen permite conocer qué estrategias
maximizan el número de actividades y sus diferencias.
Obsérvese que el soporte a un nivel refuerza el apoyo a otros.
Por ejemplo, el soporte al análisis favorece la evaluación.
B. Uso Educativo
En general sugerimos el siguiente método de trabajo:
1. Leer el problema y el algoritmo incluidos.
2. Introducir datos de entrada.
3. Seleccionar diversas estrategias y ejecutar el algoritmo,
analizando el efecto de utilizar cada una.
4. Evaluar el resultado de las distintas estrategias para
determinar la óptima.
Para el paso 2, cada fuente de entrada tiene sentido en
situaciones distintas: el teclado se usa para introducir un
ejemplo concreto, el azar para crear un ejemplo rápidamente y
los ficheros para reproducir ejemplos concretos o de tamaño
grande.
Es muy probable que varias estrategias produzcan el mismo
resultado para unos datos de entrada. Por tanto, rara vez se
seguirá linealmente el método propuesto y habrá que repetir
los pasos 2-4 varias veces, cada vez con datos nuevos.
C. Descripción de AMO
AMO es igual que SEDA, salvo en detalles propios del
problema abordado, como la visualización de los datos, las
estrategias, el formato de la tabla de resultados y otros detalles
menores (p.ej. el diálogo de entrada de datos). Además, debido
a las fechas de desarrollo, AMO carece de algunas funciones
de SEDA.
Comencemos por enunciar el problema de la mochila [12].
Sea una mochila de capacidad c y n objetos, tales que la suma
de todos sus pesos excede la capacidad de la mochila. Cada
objeto i, 0≤i≤n-1, tiene un peso pi y un beneficio asociado bi.
Cada objeto puede partirse, de forma que si se introduce una
fracción xi en la mochila, se consigue la parte proporcional de
su beneficio xi·bi. El objetivo consiste en llenar la mochila de
forma que se maximice el beneficio conseguido.
Por ejemplo, sea una mochila de capacidad c=162 y siete
objetos con pesos {90,74,31,42,59,56,14} y beneficios
{72,66,21,8,100,27,26}. Si introducimos los objetos en la
mochila en orden creciente de peso, caben enteros los objetos
2,3,5,6 y 19/59 del objeto 4, produciendo un beneficio
114’203. En cambio, si seleccionamos los objetos en orden
decreciente de la tasa beneficio/peso, se introducen enteros los
objetos 1,4,6 y 15/90 del objeto 0, produciendo el beneficio
máximo 204.
Las visualizaciones de AMO muestran los objetos y la
mochila. Los objetos se muestran en formato vertical, de
manera que el ancho es proporcional a su peso y la altura a su
beneficio. Asimismo, la mochila es un recipiente de anchura
proporcional a su capacidad (en peso). La Fig. 5 ilustra estas
ISSN 1932-8540 © IEEE
VELÁZQUEZ ITÚRBIDE et al.: ASISTENTES INTERACTIVOS PARA APRENDIZAJE DE ALGORITMOS...
visualizaciones para el ejemplo anterior. Como en SEDA, los
candidatos exhiben distintos tonos de color según la estrategia
voraz seleccionada y los candidatos ya seleccionados se
presentan en gris.
Para que los problemas y las visualizaciones sean
manejables, AMO impone la restricción de un máximo de 10
objetos. Por otro lado, AMO ofrece 11 estrategias:
• Aleatoria.
• Índice en orden creciente/decreciente.
• Beneficio en orden creciente/decreciente.
• Beneficio/peso en orden creciente/decreciente.
• Peso en orden creciente/decreciente.
• Peso/beneficio en orden creciente/decreciente.
La última diferencia destacable es el formato de la tabla de
resultados. En AMO consta de cinco columnas. Las columnas
primera, segunda y última son iguales que en SEDA:
estrategia, valores de selección y valor de la función objetivo
(en el caso de la mochila, el beneficio conseguido). Las
columnas tercera y cuarta contienen, respectivamente, el orden
de selección de los objetos y el porcentaje introducido de cada
uno. La Fig. 6 muestra una tabla para los datos del ejemplo.
IV. EVALUACIÓN DE LOS ASISTENTES INTERACTIVOS
Hemos realizado diversas evaluaciones de ambos asistentes,
cuya organización y resultados presentamos en este apartado.
A. Diseño y Evaluaciones de Experto
El diseño de ambos asistentes ha sido una tarea laboriosa,
especialmente de AMO, que fue el desarrollado en primer
lugar. Se realizó un primer diseño de la interfaz de usuario
para dar soporte a los objetivos educativos. Este primer diseño
ya incluía el formato de visualización, que es una mejora del
propuesto en Sedgewick [9]. Posteriormente, fueron
realizándose evaluaciones de experto para garantizar la
usabilidad, coherencia y calidad de la interfaz. En total, se
realizaron cinco evaluaciones de experto.
El desarrollo de SEDA fue similar, con la ventaja de que se
basó en AMO. En consecuencia, sólo se realizaron dos
evaluaciones de experto. La visualización es una
simplificación de la ilustración encontrada en Cormen,
Leiserson y Rivest [11], que consigue el mismo efecto gracias
a la dimensión del tiempo en la animación.
B. Protocolo de Sesiones de Evaluación
Se han realizado dos evaluaciones experimentales con
usuarios finales. La sesión de evaluación de AMO se realizó
en enero de 2008 en la asignatura troncal “Diseño y Análisis
de Algoritmos”, de tercer curso de Ingeniería Informática.
Participaron 40 alumnos. La sesión de SEDA se realizó en
mayo de 2008 en la asignatura optativa “Estructuras de Datos
y Algoritmos Avanzados”, también de tercer curso de
Ingeniería Informática. Participaron 11 alumnos. Ambas
sesiones se integraron en una sesión de laboratorio.
Cada sesión duró dos horas. Los alumnos se descargaron de
la web de la asignatura (con la que ya estaban familiarizados)
217
todo el material necesario para realizarla: enunciado, asistente
y modelo de informe. Además, se les entregó en papel un
cuestionario de opinión sobre el asistente. El cuestionario
constaba de preguntas abiertas y preguntas tipo test, con
valores en una escala de Linkert de 1 (muy mala) a 5 (muy
buena).
El enunciado de la práctica contenía la especificación del
problema y una breve descripción del asistente a evaluar. Se
pedía que realizaran tres tareas:
1. Utilizar el asistente para determinar una estrategia óptima
entre las ofrecidas por el asistente.
2. Rellenar y entregar electrónicamente un breve informe,
siguiendo el modelo proporcionado. Su estructura era muy
sencilla: estrategia seleccionada, justificación razonada y
ejemplos que proporcionan evidencia.
3. Rellenar y entregar por escrito el cuestionario de opinión
sobre el asistente.
En la primera sesión se les permitió realizar la práctica y
entregar el informe en parejas, pero el cuestionario debía ser
individual. En la segunda evaluación, todo el trabajo se realizó
individualmente.
En los apartados siguientes presentamos los resultados de
usabilidad y de eficacia obtenidos en estas sesiones.
C. Usabilidad de AMO
En Tabla II incluimos los resultados de las preguntas tipo
test sobre AMO. Omitimos la opinión sobre la calidad de
algunos elementos rutinarios de la interfaz de usuario.
TABLA II.
RESULTADOS DE LA EVALUACIÓN DE AMO
Pregunta
Fácil de usar
Ha ayudado a analizar el efecto de cada estrategia
voraz
Ha ayudado a identificar la estrategia óptima
Calidad general
Calidad de panel de datos de entrada
Calidad de panel de datos de salida
Calidad de pestaña de problema
Calidad de pestaña de código
Calidad de pestaña con datos de entrada
Calidad de pestaña con tabla de resultados
Calidad de introducción/generación de datos
Calidad de formato de almacenamiento
En conjunto ha gustado
4’54
Desv.
típica
0’64
4’20
0’99
4’55
4’19
4’05
4’28
3’60
3’80
4’03
4’18
4’30
3’48
4’25
0’75
0’95
0’88
0’85
1’03
0’94
0’92
1’01
0’76
1’01
0’87
Media
La facilidad de uso de AMO obtuvo una calificación media
de 4’54, resultado de ser calificada de buena o muy buena por
parte de 36 alumnos, neutral por parte de 3 y una respuesta en
blanco.
Esta opinión se corrobora con la falta de preguntas durante la
sesión. Asimismo, 36 respuestas abiertas no citaron ningún
aspecto de difícil uso o elogiaron su sencillez de uso. Las
cuatro críticas recibidas son: incomprensión de algunos iconos,
formato de la tabla de resultados, imposibilidad de suprimir
filas en la tabla de resultados y falta de una función para
ejecutar todas las estrategias.
ISSN 1932-8540 © IEEE
218
IEEE-RITA Vol. 4, Núm. 3, Ago. 2009
Preguntados sobre su utilidad tanto para analizar el efecto de
seleccionar cada estrategia como para identificar la estrategia
óptima, hubo un consenso en su utilidad alta o muy alta. Con
respecto al análisis de cada estrategia, solamente 4 la
calificaron de forma neutral y 2 de muy mala. Con respecto a
la identificación de la estrategia óptima, el resultado fue aún
mejor: sólo 2 respuestas la calificaron de mala.
En cuanto a su calidad general para analizar el efecto de
distintas estrategias, la media de AMO fue de 4’19, con sólo
una respuesta neutral y dos muy malas; hubo 4 respuestas en
blanco.
Se obtienen resultados similares sobre la calidad de
elementos concretos. La mayor parte de las opiniones fueron
buenas o muy buenas (297 de 400, frente a 66 respuestas
neutrales y 37 negativas). Como puede observarse en Tabla II,
los aspectos mejor valorados fueron la visualización de la
mochila, los diálogos de entrada de datos y la pestaña de
resultados. Por el contrario, los peor valorados fueron las
pestañas de problema y código y el formato de
almacenamiento en fichero.
Por último, AMO gustó bastante o mucho a casi todos los
alumnos, salvo a uno neutral, a otro que le gustó poco y a otro
nada; hubo 4 respuestas en blanco.
Recurrimos a las respuestas abiertas para tener su opinión
detallada sobre los aspectos positivos y negativos de AMO.
Los elementos que más comentaron haberles gustado fueron el
diseño de visualización de los datos, la tabla de evaluación y el
almacenamiento de datos en fichero.
También encontramos algunas respuestas que muestran que
no se ha comprendido la utilidad o el formato de algunas
funciones, por lo que deberán explicarse mejor en el futuro:
• Formato de almacenamiento de datos de entrada.
• Utilidad de la generación aleatoria y la lectura de fichero
de datos de entrada.
• Dinámica a seguir con el asistente.
• Dinámica de ejecución de distintas estrategias.
Sin calificarlos de negativos, algunos alumnos suprimirían
las siguientes funciones:
• La configuración del color de los objetos.
• Las pestañas de problema y de algoritmo.
También encontramos sugerencias de mejorar algunas
funciones:
• Facilitar el paso de una estrategia a la siguiente con un
icono específico.
• Mejorar la pestaña de problema, haciendo que
desaparezca tras la lectura inicial.
• Mejorar la pestaña de código, haciéndola interactiva
(p.ej. mostrando su ejecución paso a paso).
• Mejorar la calidad de la visualización: representación
gráfica, información de la ventana que emerge al situar el
ratón sobre un objeto, mayor número de colores de
configuración.
• Aumentar la flexibilidad del control de la animación,
permitiendo que una estrategia pueda ejecutarse varias
veces o permitiendo pasos hacia atrás.
• Revisar el formato de la tabla de evaluación y añadir
operaciones: suprimir filas, y que al situarse sobre una
fila, se muestre el resultado de su estrategia asociada.
• Revisar el formato de almacenamiento en fichero de la
tabla de evaluación.
• Explicar los menús y las estrategias.
• Incluir más formatos de almacenamiento en fichero,
compatibles con presentaciones (DOC, RTF, PDF).
• Cuestiones menores de comprensión (iconos) o
coherencia de la interfaz.
Por último, hay sugerencias para añadir funciones nuevas:
• Exportación de visualizaciones.
• Función de ejecución de varias o todas las estrategias.
• Identificación final y justificación de la estrategia óptima.
• Asistente más genérico para algoritmos voraces.
Algunas de estas sugerencias se recogieron durante el
desarrollo de SEDA:
• Se simplificó el control de animación.
• Se flexibilizó el control de la animación, permitiendo que
una estrategia pueda ejecutarse varias veces, que la
ejecución retroceda o incluso que se abandone.
• Se añadieron varias facilidades sobre la tabla de
evaluación: operación de suprimir una fila y que, al
seleccionar una fila, se visualice el resultado de ejecutar
su estrategia asociada.
• Se añadió la facilidad de exportar a un fichero la
visualización presente en pantalla.
Por último, y para facilitar su uso académico, se
internacionalizó la interfaz de usuario. El usuario puede
seleccionar inglés o español como idioma de interacción. Su
extensión a otros idiomas es sencilla puesto que sólo hay que
incorporar los textos de la interfaz en un fichero.
D. Usabilidad de SEDA
En Tabla III incluimos los resultados de las preguntas tipo
test sobre SEDA. Omitimos la opinión sobre la calidad de
algunos elementos rutinarios de la interfaz de usuario.
TABLA III.
RESULTADOS DE LA EVALUACIÓN DE SEDA
Pregunta
Fácil de usar
Ha ayudado a analizar el efecto de cada estrategia
voraz
Ha ayudado a identificar la estrategia óptima
Calidad general
Calidad de panel de visualización de datos
Calidad de pestaña de problema
Calidad de pestaña de código
Calidad de pestaña con datos de entrada
Calidad de pestaña con tabla de resultados
Calidad de introducción/generación de datos
Calidad de formato de almacenamiento
En conjunto ha gustado
4’64
Desv.
típica
0’50
4’50
0’53
3’60
4’00
4’18
3’91
4’09
4’18
4’18
4’45
4’00
4’27
0’84
0’67
0’98
0’70
0’83
0’87
0’87
0’69
1’18
0’47
Media
La facilidad de uso de SEDA obtuvo una calificación de
buena o muy buena por parte de todos los alumnos. Al igual
ISSN 1932-8540 © IEEE
VELÁZQUEZ ITÚRBIDE et al.: ASISTENTES INTERACTIVOS PARA APRENDIZAJE DE ALGORITMOS...
que en AMO, esta opinión se corrobora con la falta de
preguntas durante la sesión. Además, tres de los 11 alumnos
citaron la facilidad de uso entre los aspectos positivos de
SEDA. Solamente un alumno citó un elemento de difícil uso:
distinguir los tonos de las distintas actividades.
Preguntados sobre su utilidad concreta para analizar el
efecto de seleccionar cada estrategia, hubo un consenso en su
utilidad alta o muy alta para analizar el efecto de cada
estrategia. Sin embargo, no la veían tan útil para identificar la
estrategia óptima, ya que 6 consideraban que les había
ayudado bastante o mucho, 3 que les había ayudado regular y
uno que le había ayudado poco.
En cuanto a su calidad general para analizar el efecto de
distintas estrategias, la media de SEDA fue de 4’00, con sólo
dos respuestas neutrales. Se obtienen resultados similares
sobre la calidad de elementos concretos. La mayor parte de las
opiniones fueron buenas o muy buenas (79 de 99). Sólo hubo
dos opiniones negativas, sobre una característica secundaria: el
formato del fichero donde se guarda la tabla de evaluación. La
puntuación más alta se concede a los diálogos de generación
de datos de entrada.
Por último, SEDA gustó bastante o mucho a todos los
alumnos.
De nuevo, recurrimos a las respuestas abiertas para tener su
opinión detallada sobre los aspectos positivos y negativos de
SEDA. Los elementos que más les gustaron fueron:
• El diseño de visualización de los datos.
• La tabla de evaluación.
• El almacenamiento de datos en fichero.
También encontramos algunas respuestas que muestran que
no se ha comprendido la utilidad o el formato de algunas
funciones, por lo que deberán explicarse mejor en el futuro:
• Función para almacenar los datos de entrada.
• Posibilidad de ordenar la tabla de resultados según el
número de actividades.
Sin calificarlos de negativos, algunos alumnos suprimirían
las siguientes funciones:
• La configuración del color de los objetos.
• La pestaña con datos de entrada, por redundante.
También encontramos algunas sugerencias de mejora:
• Ampliar el número máximo de actividades y su duración
(ahora son 10 y 20, respectivamente).
• Mejorar la calidad de la visualización: aumentar el
contraste de tonos, reforzar los tonos con índice del
orden de selección de candidatos, mostrar el tiempo
ocupado por las actividades seleccionadas.
• Destacar la estrategia seleccionada.
• Revisar el formato de la tabla de evaluación y el nombre
dado a sus columnas (p.ej. “valores de selección”).
• Revisar el formato de almacenamiento en fichero de la
tabla de evaluación.
• Incluir más formatos de almacenamiento en fichero
(texto, XML, Excel, compatibles con páginas web).
• Errores menores de coherencia o eficiencia.
Por último, hay sugerencias para añadir funciones nuevas:
219
• Edición visual de los datos de entrada.
• Función de ejecución de todas las estrategias.
• Comparación de los resultados de distintos datos de
entrada.
E. Resultados de Eficacia
Ambas sesiones se realizaron en una clase de prácticas. En
ambos casos, la práctica planteada era sencilla, supuesto que
se comprenden los fundamentos de los algoritmos voraces.
En la sesión con AMO se permitió que entregaran el
informe en el plazo de una semana, por lo que lo entregaron
más alumnos que los que participaron en la sesión. En total, se
entregaron 28 informes, 25 realizados en parejas y 3
individuales.
Los informes entregados obtuvieron la calificación de
sobresaliente en 6 casos, notable en 13, aprobado en 6 y
suspenso en 3. Los alumnos con sobresaliente identificaron
dos estrategias óptimas; su justificación era aceptable y la
evidencia se basaba en ejemplos ejecutados con bastantes
estrategias e ilustrados con volcados de la tabla de resultados o
con el fichero de resultados. Los alumnos con notable también
identificaron dos estrategias óptimas, pero apenas las
justificaron o evaluaron los ejemplos con pocas estrategias. Al
otro extremo, los suspensos ni incluían justificación ni sus
ejemplos estaban mínimamente desarrollados.
En conjunto puede observarse que AMO les ayudó a
realizar la práctica y que los alumnos fallaron en la parte no
soportada por AMO, es decir, la justificación de que una
estrategia es óptima.
En la evaluación de SEDA los alumnos entregaron el
informe al final de la sesión. Se obtuvieron 3 sobresalientes, 4
notables, 3 aprobados y 1 suspenso. Los alumnos con
sobresaliente eligieron dos estrategias equivalentes y óptimas
con justificación y respaldo empírico buenos. Los alumnos con
notable acertaron con ambas estrategias pero apenas las
justificaron o acertaron con solo una que estuvo correctamente
justificada. Los aprobados propusieron una estrategia
incorrecta junto a otra correcta, mientras que el suspenso
propuso una sola estrategia incorrecta (y confundía el sentido
de cada apartado).
V. CONCLUSIONES Y TRABAJOS FUTUROS
Hemos presentado dos asistentes interactivos para el
aprendizaje de algoritmos voraces. Se han presentado los
niveles educativos de la taxonomía de Bloom a los que están
orientados y las características desarrolladas para soportar
estos niveles. Ambos asistentes son análogos, pero SEDA
incluye algunas facilidades adicionales por haberse diseñado
tras la experiencia de AMO. También hemos presentado los
resultados de dos evaluaciones con usuarios finales realizadas
con ambos asistentes. Los resultados de usabilidad han sido
muy favorables y han permitido identificar bastantes mejoras.
Los resultados de eficacia también han sido positivos.
En la documentación científica sobre enseñanza de la
Informática encontramos numerosos sistemas de apoyo al
ISSN 1932-8540 © IEEE
220
IEEE-RITA Vol. 4, Núm. 3, Ago. 2009
aprendizaje de algoritmos. Sin embargo, apenas hemos
encontrado uno que tenga en cuenta las peculiaridades de los
algoritmos voraces, el sistema PathFinder [12]. Sus objetivos y
funciones difieren bastante de los nuestros, ya que se centran
en la comprensión de algoritmos correctos (en este caso, el
algoritmo de Dijkstra).
Conviene destacar que estos asistentes deben utilizarse de
forma adecuada. Por ejemplo, el profesor debe explicar las
características de los asistentes y el método de indagación
antes de su uso por los alumnos. El método de indagación es
especialmente importante porque conviene orientar al alumno
en su aprendizaje activo.
El uso de estos asistentes también plantea retos nuevos, que
no encontramos en ningún libro de texto. Por ejemplo, una
cuestión interesante es la existencia y descubrimiento de
estrategias equivalentes en estos problemas. Otra cuestión
interesante es el uso de resultados obtenidos empíricamente
como indicio, pero no como justificación de resultados
teóricos. Esta cuestión enlaza con la formación de los alumnos
en la experimentación y el método científico [13].
Durante el curso 2009-2010 se han utilizado ambos
asistentes. También se ha usado otro asistente, llamado
TuMisT [14], para el problema del árbol de recubrimiento de
coste mínimo (que incluye los algoritmos de Prim y Kruskal).
AMO y TuMisT los ha utilizado el profesor en el aula,
mientras que SEDA se ha usado para una sesión de prácticas
de laboratorio. Por otro lado, se están realizando la mayor
parte de las mejoras identificadas en los apartados IV.C y
IV.D. Finalmente, se está modificando SEDA para convertirlo
en un único asistente, llamado GreedEx, que soporte los tres
algoritmos voraces mencionados.
AGRADECIMIENTOS
Este trabajo se ha financiado con el proyecto TIN200804103/TSI del Ministerio de Ciencia e Innovación. Los
autores quieren agradecer el trabajo de Jesús Gila Blázquez y
Miriam Pablo García en el desarrollo respectivo de AMO y
SEDA, así como de Asunción Aldave Izaguirre en la
tabulación de los datos de las evaluaciones.
REFERENCES
[1]
[2]
[3]
[4]
[5]
T. Naps, G. Roessling, V. Almstrum, W. Dann, R. Fleischer, C.
Hundhausen, A. Korhonen, L. Malmi, M. McNally, S. Rodger, y J. Á.
Velázquez Iturbide, “Exploring the role of visualization and engagement
in computer science education”, SIGCSE Bulletin, vol. 35, no. 2, pp.
131-152, junio 2003.
C. Hundhausen, S. Douglas, y J. Stasko, “A meta-study of algorithm
visualization effectiveness”, Journal of Visual Languages and
Computing, vol. 13, no. 3, pp. 259–290, 2002.
L. Fernández Muñoz, y J. Á. Velázquez Iturbide, “Estudio sobre la
visualización de las técnicas de diseño de algoritmos”, en Actas del VII
Congreso Internacional de Interacción Persona-Ordenador,
Interacción 2006, pp. 315-324.
B. Bloom, E. Furst, W. Hill, y D. R. Krathwohl, Taxonomy of
Educational Objectives: Handbook I, The Cognitive Domain. AddisonWesley, 1956.
I. Hernán Losada, J. Á. Velázquez Iturbide, y C. A. Lázaro Carrascosa,
“Programming learning tools based on Bloom’s taxonomy: Proposal and
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
accomplishments”, en Proc. VIII International Symposium of
Computers in Education, SIIE 2006, pp. 325-334.
J. Á. Velázquez Iturbide, A. Pérez Carrasco, y J. Urquiza Fuentes,
“SRec: An animation system of recursion for algorithm courses”, en
Proc. 13rd Annual Conference on Innovation and Technology in
Computer Science Education, ITiCSE 2008, pp. 225-229.
J. Á. Velázquez Iturbide, A. Pérez Carrasco, y J. Urquiza Fuentes, “A
design of automatic visualizations for divide-and-conquer algorithms”,
Electronic 7otes in Theoretical Computer Science, no. 224, pp. 159167, enero 2009.
J. A. Gila Blázquez, “AMO: Asistente interactivo para el aprendizaje del
algoritmo de la mochila”, proyecto de fin de carrera, Universidad Rey
Juan Carlos, Móstoles, Madrid, España, 2008.
R. Sedgewick, Algorithms in Java, Addison-Wesley, 2002.
M. Pablo García, “SEDA: Asistente interactivo para el aprendizaje del
problema de selección de actividades”, proyecto de fin de carrera,
Universidad Rey Juan Carlos, Móstoles, Madrid, España, 2008.
T. H. Cormen, C. E. Leiserson, y R. L. Rivest, Introduction to
Algorithms. The MIT Press, 2ª ed., 2001.
M.G. Sánchez Torrubia, C. Torres Blanc, y M. A. López Martínez,
“PathFinder: A visualization eMathTeacher for actively learning
Dijkstra’s algorithm”, Electronic 7otes in Theoretical Computer
Science, no. 224, pp. 151-158, enero 2009.
P. Denning et al. “Computing as a discipline”, Communications of the
ACM, vol. 32, no. 1, pp. 9-23, enero 1989.
O. Debdi, y J. D. Granada, “Tutor interactivo para el aprendizaje del
algoritmo voraz del árbol de recubrimiento de coste mínimo”, proyecto
de fin de máster, Universidad Rey Juan Carlos, Móstoles, Madrid,
España, 2008.
J. Ángel Velázquez Iturbide es Licenciado en
Informática (1985) y Doctor en Informática (1990)
por la Universidad Politécnica de Madrid, España.
Ha sido profesor desde 1985 en la Facultad de
Informática de la Universidad Politécnica de Madrid.
En 1997 se incorporó a la Universidad Rey Juan
Carlos, donde actualmente es Catedrático de
Universidad y director del Laboratorio de Tecnologías
de la Información en la Educación (LITE). Sus áreas
de investigación son innovación docente y software
educativo para la enseñanza de la programación, visualización del software,
visualización de la información, e interacción persona-ordenador.
El Dr. Velázquez es miembro de IEEE Computer Society, ACM y ACM
SIGCSE. También es secretario de la Asociación para el Desarrollo de la
Informática Educativa (ADIE) y vocal de la Junta Directiva de la Asociación
Interacción Persona-Ordenador (AIPO).
Carlos A. Lázaro Carrascosa es Licenciado en
Informática (2000) por la Universidad Politécnica de
Madrid, España.
Desde 2001 es profesor de la Universidad Rey
Juan Carlos, donde actualmente es Profesor
Colaborador. Sus áreas de investigación son
innovación docente y software educativo para la enseñanza de la
programación, y procesamiento de señal de voz.
El Prof. Lázaro es miembro de la Asociación de Enseñantes Universitarios
de la Informática (AENUI).
Isidoro Hernán Losada es Licenciado en Ciencias
Físicas (1995) por la Universidad Complutense de
Madrid, España.
En 1997 se incorporó al Instituto de Automática
Industrial (CSIC) donde participó en el desarrollo de
varios proyectos de investigación. Desde 2000 es
profesor de la Universidad Rey Juan Carlos, donde
actualmente es Profesor Colaborador. Sus áreas de
investigación son innovación docente y software
educativo para la enseñanza de la programación
(informática educativa).
ISSN 1932-8540 © IEEE