Tesis Evaluacion Aulas Virtuales
Tesis Evaluacion Aulas Virtuales
Tesis Evaluacion Aulas Virtuales
Facultad de Informática
Febrero 2013
Resumen
El impacto de las Tecnologías de la Información y la Comunicación a nivel social, y sus
múltiples posibilidades de integración en la educación, han permitido desarrollar gran
cantidad de espacios virtuales, con la intensión de favorecer los procesos de enseñanza y
aprendizaje mediados por tecnología. Los Entornos Virtuales de Enseñanza y Aprendizaje
(EVEA) surgieron dentro de este ámbito con el objetivo de integrar los principales
servicios de Internet, y proveer recursos para facilitar la interacción entre docentes,
alumnos y materiales de aprendizaje. Para poder analizar las ventajas y desventajas que
cada EVEA posee, de acuerdo al contexto donde se los desee aplicar, es necesario
evaluarlos de alguna manera. La mayoría de los modelos de evaluación analizados,
previo y durante el desarrollo de este trabajo, evalúan los EVEA desde le punto de vista
funcional. En general, el usuario final no participa del proceso, y no se tiene en cuenta la
forma en que cada uno de los usuarios toma contacto con las funcionalidades del EVEA
para realizar las tareas necesarias, y así poder satisfacer sus objetivos.
Por este motivo, la intensión es proponer un modelo que posibilite evaluar la calidad de
los EVEA, considerando como eje central a la usabilidad. El énfasis puesto en la
usabilidad se debe fundamentalmente a su creciente importancia dentro de la calidad de
los productos Web. El modelo se denomina MUsa, dado que se trata de un Modelo
basado en la Usabilidad, y está orientado hacia una evaluación de productos en uso. La
evaluación se realiza mediante escenarios reales de uso, teniendo especial consideración
por los alumnos y docentes, los objetivos que se proponen, las tareas específicas que
realizan durante las actividades de enseñanza y aprendizaje, el equipamiento e
infraestructura que disponen, el lugar físico donde habitualmente se desenvuelven, y el
entorno social en el cual están insertos. Las ideas generales de MUsa están basadas en
una estrategia de cuatro niveles o capas de evaluación, que parten de lo general para
llegar a lo particular, donde las definiciones de usabilidad, junto con los atributos y las
heurísticas forman el núcleo del modelo.
Para tener dimensión de las cualidades y defectos de MUsa, se lo aplicó sobre un caso
concreto, el EVEA SIAT, desarrollado y utilizado por la Universidad Nacional de Río
Cuarto. El caso de estudio sirvió para realizar un recorrido completo por las cuatro capas
de MUsa, tomar las decisiones correspondientes en cada una de ellas de acuerdo a la
magnitud de la evaluación, tiempo y recursos disponibles, y afrontar una aplicación
efectiva del modelo dentro de un contexto conocido y acotado.
En este informe de tesis se presenta el diseño de MUsa, su aplicación en el caso de
estudio y los resultados obtenidos. Los trabajos a futuro se orientan hacia una revisión de
todo el modelo de evaluación, la mejora del mismo de acuerdo a la información recogida a
partir del caso de estudio, y su efectiva utilización.
Agradecimientos
En primer lugar, nobleza obliga agradecer profundamente a Cecilia, mi directora, sin cuyo
aporte hubiera sido imposible culminar esta tesis. Han pasado muchos años desde que
comenzamos a transitar este camino, con momentos que fueron muy difíciles para ella.
Tan largo se hizo el camino que hubo tiempo para que su familia creciera al ritmo que la
tesis trataba de tomar su rumbo. Sin la dedicación que ella puso en acompañarme,
aconsejarme, responder a mis consultas, y analizar a fondo cada una de las páginas de la
tesis, no estarían leyendo estos agradecimientos.
A mi esposa, Sonia, por permitirme compartir con ella el sueño de formar una familia, por
su ternura, su amor, sus ideales, su empuje. Sos el amor de mi vida y agradezco todos los
días que estés a mi lado.
A mis tres princesas, Agustina, Ailén y Ana Lucía, quienes me llenan de felicidad y orgullo
día tras día. Disfruto al verlas vivir a pleno, haciendo gimnasia, aprendiendo, jugando,
creando, bailando, actuando, brillando como estrellas.
A mis viejos, Beatriz y Víctor, por haberme dado educación y el privilegio de ser su hijo,
porque la lucharon siempre, y me enseñaron los mejores valores del ser humano
predicando con el ejemplo. En especial a mi mamá, por leer más de 300 páginas con un
solo ojo y aportar comentarios para la mejora de la redacción de la tesis.
A mis compañeros de trabajo por estar siempre ahí, y por darme una mano cuando la
necesité. A los docentes que colaboraron en la revisión de los instrumentos de evaluación
y a los que participaron del caso de estudio. A mi prima Antonella que tradujo fragmentos
de un libro en italiano. A Jordi Adell por responder a mis consultas vía correo electrónico.
A todos los que contribuyen para que tengamos educación gratuita de calidad. ¡Al Gran
Pueblo Argentino, Salud!
Tabla de Contenidos
Capítulo 1: Introducción, motivación, objetivos, estructura de la tesis ................................ 9
1.1 Introducción ................................................................................................................. 9
1.2 Antecedentes............................................................................................................... 9
1.3 Motivación ................................................................................................................. 11
1.4 Objetivos.................................................................................................................... 12
1.5 Estructura de la tesis ................................................................................................. 12
Capítulo 2: Usabilidad....................................................................................................... 15
2.1 Introducción ............................................................................................................... 15
2.2 Un poco de historia.................................................................................................... 15
2.2.1 Las interfaces gráficas y la Web ...................................................................... 16
2.3 Características vinculadas al software....................................................................... 17
2.3.1 Calidad............................................................................................................. 17
2.3.2 Aceptabilidad ................................................................................................... 21
2.3.3 Utilidad ............................................................................................................. 22
2.4 Usabilidad.................................................................................................................. 23
2.4.1 Origen .............................................................................................................. 23
2.4.2 Concepto general............................................................................................. 23
2.4.3 Usabilidad versus Calidad en uso.................................................................... 35
2.4.4 Atributos de la usabilidad ................................................................................. 36
2.4.5 Importancia de los atributos ............................................................................. 38
2.4.6 Heurísticas o principios de usabilidad.............................................................. 39
2.5 Conclusiones ............................................................................................................. 48
Capítulo 3: Accesibilidad................................................................................................... 51
3.1 Introducción ............................................................................................................... 51
3.2 Discapacidades ......................................................................................................... 51
3.2.1 Discapacidades visuales.................................................................................. 52
3.2.2 Discapacidades motrices ................................................................................. 53
3.2.3 Discapacidades auditivas ................................................................................ 53
3.2.4 Discapacidades cognitivas y neurológicas....................................................... 54
3.3 Derecho a la accesibilidad......................................................................................... 54
3.4 Guías y pautas de accesibilidad ................................................................................ 55
3.4.1 ISO/TS 16071 .................................................................................................. 56
3.4.2 Web Accessibility Initiative (WAI)..................................................................... 56
3.5 Accesibilidad versus Usabilidad ................................................................................ 57
3.6 Conclusiones ............................................................................................................. 58
Capítulo 4: Métodos de evaluación de usabilidad............................................................. 59
4.1 Evaluación de la usabilidad ....................................................................................... 59
4.1.1 Clasificación..................................................................................................... 59
4.1.2 Lugar de realización de la evaluación.............................................................. 62
4.1.3 Forma de recabar información ......................................................................... 63
4.1.4 Implicación de participantes............................................................................. 63
4.1.5 Métodos ........................................................................................................... 63
4.1.6 Medidas de usabilidad ..................................................................................... 72
4.2 Evaluación de la accesibilidad................................................................................... 74
4.2.1 Revisión Automática ........................................................................................ 74
4.2.2 Revisión manual .............................................................................................. 75
4.3 Conclusiones ............................................................................................................. 76
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación ................ 79
5.1 Introducción ............................................................................................................... 79
5.2 Entornos Virtuales de Enseñanza y Aprendizaje....................................................... 80
5.2.1 Clasificación..................................................................................................... 83
5.3 Aula Virtual ................................................................................................................ 86
5.4 Tendencias actuales.................................................................................................. 88
5.5 Análisis de los EVEA. Las diversas miradas ............................................................. 89
5.5.1 Evaluación de EVEA........................................................................................ 90
5.6 Conclusiones ............................................................................................................. 92
Capítulo 6: Métodos, técnicas, herramientas y evaluadores............................................. 93
6.1 Métodos de evaluación de usabilidad seleccionados ................................................ 93
6.1.1 Métodos de inspección .................................................................................... 95
6.1.2 Métodos de indagación.................................................................................. 106
6.1.3 Métodos de test ............................................................................................. 108
6.2 Técnicas seleccionadas para considerar en el modelo de evaluación propuesto ... 110
6.2.1 Cuestionarios ................................................................................................. 111
6.2.2 Entrevistas ..................................................................................................... 116
6.2.3 Encuesta ........................................................................................................ 119
6.2.4 Análisis de log................................................................................................ 122
6.2.5 Seguimiento visual......................................................................................... 123
6.3 Herramientas ........................................................................................................... 125
6.3.1 Usabilidad ...................................................................................................... 125
6.3.2 Accesibilidad .................................................................................................. 128
6.3.3 Heramientas seleccionadas ........................................................................... 131
6.4 Evaluadores............................................................................................................. 131
6.4.1 Clasificaciones en relación a los evaluadores................................................ 132
6.4.2 Cantidad de evaluadores ............................................................................... 134
6.5 Evaluación de producto ........................................................................................... 135
6.6 Conclusiones ........................................................................................................... 136
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA .... 139
7.1 Introducción ............................................................................................................. 139
7.2 Puntos de partida propuestos para un nuevo modelo de evaluación de EVEA....... 139
7.2.1 Primera capa.................................................................................................. 141
7.2.2 Segunda capa................................................................................................ 141
7.2.3 Tercera capa.................................................................................................. 142
7.2.4 Cuarta capa ................................................................................................... 142
7.2.5 Aplicación de MUsa a distintos contextos ...................................................... 143
7.3 Decisiones respecto a los métodos, técnicas, herramientas y evaluadores ............ 146
7.3.1 Decisiones respecto a los métodos ............................................................... 146
7.3.2 Revisión respecto a las técnicas.................................................................... 146
7.3.3 Decisiones respecto a las herramientas ........................................................ 148
7.3.4 Decisiones acerca del tipo de evaluadores.................................................... 148
7.3.5 Decisiones acerca de la cantidad de evaluadores ......................................... 149
7.4 Definición de escenarios.......................................................................................... 151
7.4.1 Personajes ..................................................................................................... 152
7.4.2 Objetivos ........................................................................................................ 152
7.4.3 Tareas............................................................................................................ 152
7.4.4 Contexto de uso............................................................................................. 154
7.4.5 Escenarios ..................................................................................................... 154
7.4.6 Síntesis sobre los escenarios ........................................................................ 158
7.5 Desarrollo de MUsa ................................................................................................. 162
7.5.1 Primera capa.................................................................................................. 162
7.5.2 Segunda capa................................................................................................ 170
7.5.3 Tercera capa.................................................................................................. 183
7.5.4 Cuarta capa ................................................................................................... 190
7.6 Conclusiones ........................................................................................................... 196
Capítulo 8: Caso de estudio. Aplicación de MUsa .......................................................... 199
8.1 Sistema Informático de Apoyo a la Teleformación - SIAT ....................................... 199
8.1.1 Derechos intelectuales................................................................................... 200
8.1.2 Condiciones de utilización.............................................................................. 200
8.1.3 Evolución del SIAT......................................................................................... 201
8.1.4 Evaluación del SIAT....................................................................................... 202
8.2 Forma de aplicación del modelo al EVEA SIAT....................................................... 203
8.2.1 Introducción ................................................................................................... 203
8.2.2 Que decisiones se tomaron en los puntos abiertos ....................................... 203
8.2.3 Cómo se llevó adelante ................................................................................. 205
8.2.4 Resultados cualitativos obtenidos por capa ................................................... 210
8.2.5 Problemas, trabas o conflictos ....................................................................... 228
8.3 Conclusiones ........................................................................................................... 230
Capítulo 9: Resultados, conclusiones, trabajos futuros .................................................. 233
9.1 Resultados y conclusiones ...................................................................................... 233
9.2 Trabajos Futuros...................................................................................................... 236
9.2.1 Grado de usabilidad....................................................................................... 236
9.2.2 Ajustes del modelo y análisis por expertos .................................................... 236
9.2.3 Extender la aplicación del modelo ................................................................. 237
9.2.4 Tendencias actuales ...................................................................................... 237
Bibliografía...................................................................................................................... 239
Glosario .......................................................................................................................... 253
Anexos............................................................................................................................ 255
12.1 Anexo A ................................................................................................................... 255
12.1.1 Categorías de análisis ................................................................................... 256
12.1.2 Instrumentos de evaluación ........................................................................... 264
12.2 Anexo B ................................................................................................................... 279
12.2.1 Identificación de tareas importantes y frecuentes en el EVEA SIAT.............. 279
12.3 Anexo C................................................................................................................... 282
12.3.1 Evaluación de alto nivel orientada a la tarea.................................................. 282
12.4 Anexo D................................................................................................................... 291
12.4.1 Introducción ................................................................................................... 291
12.4.2 Cuestionario para evaluación en detalle orientada al diseño......................... 291
12.5 Anexo F ................................................................................................................... 297
12.5.1 Introducción ................................................................................................... 297
12.5.2 Usuarios finales ............................................................................................. 297
12.5.3 Observadores ................................................................................................ 299
12.6 Anexo G................................................................................................................... 303
12.6.1 Introducción ................................................................................................... 303
12.6.2 Selección de alumnos evaluadores ............................................................... 303
12.6.3 Selección de docentes evaluadores .............................................................. 306
12.7 Anexo H................................................................................................................... 310
12.7.1 Introducción ................................................................................................... 310
12.7.2 Cuestionarios para usuarios finales ............................................................... 310
12.7.3 Cuestionario para evaluadores ...................................................................... 316
12.8 Anexo I .................................................................................................................... 318
12.8.1 Selección de un entorno virtual para la Universitat Jaume I .......................... 318
12.8.2 Clases en el ciberespacio .............................................................................. 321
12.8.3 Indicadores para evaluar entornos para la formación por Internet................. 322
12.8.4 Indicadores de calidad en las plataformas de formación virtual..................... 327
12.8.5 Evaluación de un Sistema de Gestión del Aprendizaje.................................. 329
12.8.6 Criterios de calidad para los sistemas de teleformación ................................ 335
12.8.7 Análisis comparativo de características ......................................................... 337
12.8.8 Criterios para EVEA de código abierto .......................................................... 340
12.8.9 Evaluación de herramientas para gestión de cursos Web ............................ 342
12.8.10 Edutools ......................................................................................................... 343
Capítulo 1
1.1 Introducción
En los últimos años se ha visto un creciente grado de integración de las Tecnologías de la
Información y la Comunicación (TIC) al ámbito educativo, dando lugar a diferentes
escenarios y modalidades. La presencia de Internet, la creciente masividad en su uso y
las ventajas que posee, han permitido explorar nuevas alternativas para los procesos de
enseñanza y aprendizaje [Car2004][Pog2006].
Las posibilidades para favorecer los procesos de interacción es uno de los aportes más
interesantes de las TIC. Ellas facilitan el diálogo educativo entre docentes y alumnos, a la
vez que permiten desarrollar programas de educación más flexibles, basados en
principios pedagógicos modernos, con metodologías centradas en el estudiante, basadas
en la interactividad, la personalización y el desarrollo de la capacidad de aprender y
pensar de manera autónoma [Sig2001].
La red de redes, Internet, ha puesto al alcance de la mano una serie de recursos que
favorecen el aprendizaje activo. En un lapso breve de tiempo es posible comunicarse con
otros pares, formar grupos de estudio para trabajar en entornos virtuales, realizar
consultas sincrónicas o asincrónicas a docentes, participar en foros de discusión, grupos
colaborativos, acceder a información actualizada sobre los temas estudiados, entre otros.
Inicialmente se fueron incorporando diferentes herramientas tecnológicas en los procesos
de educativos, pero no de una manera integral. De allí que muchos cursos se reducían al
uso del correo electrónico como medio de comunicación y tutoría, y/o la Web como medio
de acceso a información. En este marco surgieron los Entornos Virtuales de Enseñanza y
Aprendizaje (EVEA) cuyo objetivo fue integrar los principales servicios de Internet y, al
mismo tiempo, proveer recursos para facilitar las tareas pedagógicas relacionadas con el
seguimiento del proceso de aprendizaje de los alumnos, sumado a la posibilidad de
monitorear el accionar de los docentes, la dinámica generada dentro del curso, las tareas
administrativas y el apoyo para el correcto desenvolvimiento del mismo [Fer2007].
En la actualidad los EVEA son un componente tecnológico de vital importancia,
particularmente en la Educación Superior, para el desarrollo de propuestas educativas
innovadoras basadas en el uso de Internet. La calidad de dichos entornos es clave en la
mediación de los procesos de enseñanza y aprendizaje. En la medida que los EVEA sean
más usables, seguros y funcionales posibilitarán que el espacio entre docentes, alumnos,
materiales de aprendizaje, y tecnología disminuya, intentando que esta última sea
invisible.
1.2 Antecedentes
Como trabajo previo a la tesis se realizó una revisión de los principales modelos de
evaluación de EVEA. El detalle de los modelos analizados se presenta en el anexo I.
El modelo desarrollado por Adell [Ade2004] sostiene que los criterios planteados están
pensados conforme con las necesidades y los tipos de uso educativo que se pretende
realizar del EVEA. Se trata de un análisis de corte cualitativo realizado en función de tres
criterios: flexibilidad didáctica, usabilidad, y flexibilidad tecnológica. La flexibilidad
didáctica se enfoca hacia las facilidades para el diseño y organización de cursos.
Además, incluye a las herramientas de aprendizaje disponibles. La usabilidad tiene en
cuenta a la facilidad de uso, los conocimientos técnicos de los usuarios, ayuda, trabajo
off-line, accesibilidad e idiomas. Por último, la flexibilidad tecnológica tiene en cuenta los
9
Capítulo 1
10
Capítulo 1
marco de un determinado modelo pedagógico. Los criterios están agrupados en: aspectos
relacionados con el entorno telemático, aspectos funcionales del curso on-line, aspectos
relacionados con el plan docente y el modelo pedagógico, aspectos relacionados con los
servicios complementarios. En varios de los criterios aparecen cuestiones relacionadas
con usabilidad y accesibilidad
Por último, el estudio realizado por Whitmyer Grimes [Whi2000], denominado
Comparative Features Analysis of Leading Course Management Software, identifica un
extenso conjunto de características deseables, 94 en total, para dar un correcto soporte a
la enseñanza y el aprendizaje en línea. El propósito de sus investigaciones se orienta en
dos sentidos: por un lado ayudar a las instituciones académicas a tomar decisiones sobre
el entorno más conveniente a utilizar, y por el otro, asesorar a los desarrolladores de este
tipo de herramientas respecto a nuevas funcionalidades que sería provechoso fueran
incorporadas en un futuro no muy lejano.
En general, la mayoría de los modelos estudiados están orientados hacia las
funcionalidades que ofrece el EVEA. Se trata de modelos donde el usuario final no
participa sino que son expertos quienes realizan la evaluación, asumiendo los diferentes
roles para los cuales el entorno será utilizado. Esto se debe a que dichos instrumentos
fueron pensados principalmente para la toma de decisiones sobre el entorno a adoptar,
por parte de las universidades o de los centros de formación. Por ello, en gran parte de
los casos, se realiza una extensa categorización de características deseables o ideales
que debería tener un sistema de este tipo. En la actualidad, muchos de los entornos que
han logrado buenos niveles de aceptación disponen de las características buscadas en
estos modelos de evaluación.
A partir de ese análisis se seleccionó el modelo elaborado por Adell [Ade2004] y se
evaluaron algunos de los EVEA más utilizados en el ámbito universitario, tales como:
WebCT, Moodle, Ilias, Dokeos, Claroline, y Atutor. Esta tarea formó parte del trabajo final
de Especialización en Tecnología Informática Aplicada en Educación [Fer2007].
1.3 Motivación
Los Entornos Virtuales de Enseñanza y Aprendizaje (EVEA) forman parte del conjunto de
aplicaciones informáticas diseñadas para la utilización de Internet con fines educativos.
Su principal característica es la interactividad, como estrategia para favorecer el contacto
entre docentes, alumnos, y materiales de aprendizaje. En término generales, suelen ser
versátiles para poder adecuarse a diferentes propuestas y procurar que el diseño
tecnológico acompañe al modelo pedagógico. En realidad, los EVEA coadyuvan a la
concreción de objetivos educativos al proveer una serie de herramientas que facilitan la
gestión de usuarios y cursos, y los procesos de comunicación, evaluación, colaboración, y
distribución de contenidos [Thü2011b]. Presentan una serie de funcionalidades para lograr
que los procesos de enseñanza y aprendizaje, donde juega algún rol la virtualidad,
puedan desenvolverse de la mejor manera. Pero, ¿cómo se puede saber si ese objetivo
se logra? Para averiguarlo es necesario realizar una evaluación.
La evaluación puede orientarse de diferentes maneras, según lo que se pretenda evaluar.
En general, los modelos de evaluación existentes analizan los EVEA desde el punto de
vista funcional [Fer2007]. Sin embargo, el análisis de las funcionalidades ideales no tiene
en cuenta la forma en que se puede poner en práctica todo el potencial del EVEA. En la
actualidad, la mayoría de estos sistemas posee un núcleo común de herramientas, con lo
cual carece de sentido seguir analizándolos casi exclusivamente desde el punto de vista
de sus características funcionales [Fer2007].
11
Capítulo 1
Por tal motivo, se cree necesario incorporar una forma de evaluar, donde no se pierdan de
vista éstas características, pero se prioricen otros aspectos centrados en el modo en que
los usuarios finales toman contacto con la funcionalidad. En este sentido, la usabilidad es
un concepto muy útil ya que tiene estrecha relación con la utilidad funcional. La usabilidad
busca analizar cuán bueno es un sistema como para satisfacer todas las necesidades y
requerimientos de los usuarios [Sha1991][Nie1993][Lau1995][Sch1998][Nor1998]
[ISO1998b][ISO1998c][Red99][Nie2000][ISO2001][Kei2003][Nie2003]. La usabilidad
aporta una mirada centrada en el usuario y el contexto de uso, analizando en que medida
se satisfacen los objetivos de docentes y alumnos de la forma más simple, amena, e
intuitiva posible. Por ello se entiende a la usabilidad como el punto de vista en el que las
necesidades, requerimientos y limitaciones del usuario final son el foco del diseño,
sumado a la efectividad, eficiencia y satisfacción con la que el producto permite alcanzar
los objetivos propuestos por los usuarios en un contexto de uso determinado [Mor2007].
1.4 Objetivos
El objetivo central de la tesis se vincula con la evaluación de calidad de EVEA. Se ha
partido de un trabajo de investigación previo, donde se abordaron diferentes modelos de
evaluación existentes, y esto ha permitido orientar el objetivo a la búsqueda de modelos
que hacen foco en la usabilidad. Como consecuencia, se aborda aquí el diseño de un
modelo de evaluación centrado en la usabilidad, que pueda ser aplicado a EVEA que
estén en pleno funcionamiento. Con la definición de este modelo se pretende brindar una
herramienta para analizar las ventajas y desventajas que cada EVEA posee en el marco
de un contexto de uso determinado, teniendo especial consideración por los alumnos y
docentes, los objetivos que se proponen, las tareas específicas que éstos realizan dentro
del entorno virtual durante las actividades de enseñanza y aprendizaje, el modelo mental
que utilizan, el equipamiento e infraestructura del que disponen, el lugar físico donde
habitualmente se desenvuelven, y el entorno social en el cual están insertos.
12
Capítulo 1
aportar una valoración del EVEA SIAT desde el punto de vista educativo basado en la
usabilidad.
Finalmente, el capítulo 9 resume los resultados, conclusiones, y sugiere algunos trabajos
futuros.
13
Capítulo 2: Usabilidad
Capítulo 2: Usabilidad
2.1 Introducción
La usabilidad es un concepto joven, subjetivo, algo complicado de definir. Dentro del
ámbito de la Informática, nació al calor de las interfaces gráficas y la World Wide Web
(Web) [Cat2000][Mon2006]. Alrededor de la usabilidad existen una serie de conceptos
relacionados semánticamente, que es frecuente confundirlos entre sí. Nos estamos
refiriendo a la facilidad de uso, amigabilidad, manejabilidad, operatividad, ergonomía,
utilidad, accesibilidad, entre los más recurrentes. Se trata de una palabra controvertida
puesto que es una traducción literal del inglés que formalmente no existe en castellano.
La usabilidad puede ser analizada desde distintas ópticas, disciplinas, para diferentes
propósitos, e incluso, aplicada a cualquier tipo de objetos de la vida cotidiana [Nor1998]
[Fer2001][Kei2003] [Lei2003].
Existen características que son más generales que la usabilidad, y otras que están
subordinadas a la misma. La calidad de un producto software es una de esas
características más generales, mientras la accesibilidad podría considerarse como menos
general [Mon2006]. Este recorrido de lo general a lo particular es el que seguiremos en
nuestro análisis.
En lo que respecta a los productos informáticos, tomaremos a la usabilidad como uno de
los atributos más importantes que hacen a la calidad. Se trata de un atributo considerado
clave, aunque no el único [Nie1993][Fer2001]. La importancia de la usabilidad radica en el
hecho de ser el atributo más visible para el usuario, y el que determina el grado de
satisfacción del mismo respecto del producto, que a su vez trae aparejada su utilización o
no. Por otra parte, la usabilidad es el primer atributo donde los usuarios tienen un papel
activo en su evaluación [Cat2000]. En la actualidad, la usabilidad está adquiriendo cada
vez mayor importancia, a tal punto que es tenida en cuenta de forma explícita por diversas
clasificaciones de atributos de calidad, como los de la Organización Internacional para la
Estandarización (ISO) y el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). La
percepción de la importancia de la usabilidad se afirma en que es uno de los atributos de
calidad que se consideran más críticos en el proceso de desarrollo de software, y de los
que aportan mayores beneficios [Con1999][Fer2001][Kei2003]. En síntesis, la usabilidad
es considerada como una de las principales características de la calidad de un producto
de software [ISO2001].
Nuestro objetivo es definir y aplicar el concepto de usabilidad desde el punto de vista de
las aplicaciones Web, en particular desde entornos virtuales que guarden relación directa
con actividades de enseñanza y de aprendizaje. Debido a ello, describiremos en primer
término, los conceptos principales dentro de los cuales se enmarca la usabilidad, a
posteriori abordaremos su definición, los elementos que influyen en relación de este
atributo en un producto de software, y el por qué tomaremos este concepto como punto
de análisis de los Entornos Virtuales de Enseñanza y Aprendizaje (EVEA).
15
Capítulo 2: Usabilidad
físicos, ergonómicos, etc. [Cob2005]. Donald Norman1 señala que en la medida que los
sistemas sean más usables, seguros y funcionales, posibilitarán acercar la persona a la
computadora. Eventualmente, se podría llegar al caso ideal en que la computadora sea
considerada como invisible [Nor1998b].
Dentro del campo informático, la usabilidad cobró especial importancia con la aparición de
las interfaces gráficas de usuario, más conocidas como Graphical User Interface (GUI)
[Bev1991][Nie1993]. A comienzos de los años 80 no se hablaba de usabilidad sino de
amigabilidad de la interfaz con el usuario. Todo sistema informático buscaba, por sobre
todas las cosas, ser amigable con el usuario, fácil de usar [Mon2006]. Es decir, que no
obligara al usuario a expresarse de manera innatural, ya que eso, más allá de constituir
un peso psicológico, induce a cometer errores. La interfaz debía ser tal que posibilitara al
usuario concentrarse sobre el problema a resolver, no sobre como “luchar” con la
aplicación para hacerle resolver el problema [Ghe1991]. La amigabilidad, ser amigo de,
denotaba implícitamente muchos otros conceptos: confianza, seguridad, interacción,
facilidad de diálogo, etc. La vaguedad del término amigabilidad, y sus connotaciones
subjetivas hicieron que fuera reemplazado por el de usabilidad [Bev1991].
La masificación de Internet, particularmente luego del surgimiento de la World Wide Web
(Web) y de su rápida evolución, hizo imperiosa la necesidad de adaptar los desarrollos
informáticos a esta nueva realidad [Lei2003]. Ello implicó un cambio muy importante ya
que los sitios Web se transformaron en la interfaz principal con el usuario [Nie1993]. Así,
la usabilidad se convirtió en una de las premisas básicas para diseñar buenos sitios Web
[Bae2002].
1
El profesor Donald A. Norman es un reconocido investigador que trabaja principalmente en el área de
ciencia cognitiva relacionada con usabilidad y la Web. Estudió ampliamente el diseño de objetos,
especialmente objetos informáticos, y su relación con el usuario (persona), desde el punto de vista
psicológico. Ha escrito varios libros referidos al tema que son ampliamente referenciados por la comunidad
científica.
16
Capítulo 2: Usabilidad
2.3.1 Calidad
Actualmente la usabilidad está reconocida como un atributo de calidad del software,
habiéndose ganado un lugar importante entre los atributos tradicionales [Fer2001]. De
modo general, podemos definir a la calidad de un producto o servicio como la totalidad de
las características que le confieren aptitud para satisfacer necesidades establecidas e
implícitas [ISO1995]. Del mismo modo, el estándar ISO/IEC 9126 [ISO2001] reconoce que
el objetivo de calidad del software es satisfacer las necesidades del usuario, tanto
explícitas como implícitas [Gon2001]. En particular, para los productos de software, la
calidad es la concordancia del software producido con los requisitos funcionales y de
rendimiento, explícitamente establecidos, con los estándares de desarrollo
documentados, y con las características implícitas que se espera de todo software
desarrollado profesionalmente [Pre1995].
Sin embargo, desde el punto de vista del usuario, no hay consenso sobre la definición de
cuáles son los factores de calidad relacionados [Mon2005]. En el caso particular de
productos Web, esto tiene su explicación en que la evaluación de calidad no es para nada
sencilla, en función de que es difícil considerar todas las características y atributos
deseables y obligatorios. Para ello, es necesario contar previamente con un modelo de
calidad que permita a los evaluadores especificar ordenadamente dichas características y
atributos [Gon2001]. La calidad es de gran importancia, puesto que evitará al usuario
pérdidas de tiempo (eficiencia), le posibilitará concentrarse en las tareas más que en las
herramientas (productividad), reducirá considerablemente los errores humanos
17
Capítulo 2: Usabilidad
Calidad en uso
Calidad externa
Calidad interna
18
Capítulo 2: Usabilidad
para mediciones externas. A su vez, lograr satisfacer criterios para mediciones externas
de sub-características no es normalmente suficiente para asegurar alcanzar criterios de
calidad en uso [ISO2001]. La evaluación de la calidad interna y externa (calidad de
producto) están en manos de los desarrolladores, mientras que la evaluación de la calidad
en uso es competencia de los usuarios del producto. En definitiva, la calidad no es un
concepto absoluto, y depende de condiciones y contextos de uso específicos, para
usuarios específicos.
Calidad de producto
desarrolladores usuarios
Figura 2 – ISO/IEC 9126-1: La calidad en el ciclo de vida
El estándar de calidad de los productos software ISO/IEC 9126 [ISO2001], es uno de los
más importantes en este tema y está dividido en 4 partes. En su parte 1 especifica el
modelo de calidad de producto, en la 2 proporciona las métricas2 externas, en la parte 3
las métricas internas y en la 4 las de calidad en uso. Como complemento a este estándar
se definió la norma ISO 14598 que establece el proceso de evaluación del producto
software [Gon2006].
2
Métrica: una medida cuantitativa del grado en que un sistema, componente o proceso posee un atributo
dado [Eji1991].
19
Capítulo 2: Usabilidad
20
Capítulo 2: Usabilidad
2.3.2 Aceptabilidad
Desde otra perspectiva, la usabilidad puede formar parte de la aceptabilidad de un
software. La aceptabilidad de un software es una combinación de su aceptabilidad social y
práctica [Nie1993]. La aceptabilidad social tiene que ver con la aceptación que un grupo
de usuarios puede otorgarle a un sistema. Esto depende del objetivo con el cuál el
software será utilizado y si su uso tiene un buen propósito. La aceptabilidad práctica es
más compleja, ya que depende de otras variables como la utilidad (utilización,
aprovechamiento o usefullness en inglés), los costos, la compatibilidad con otros
sistemas, la confiabilidad, el soporte, etc. [Zur1999]. La utilidad está vinculada al hecho de
que el sistema pueda ser usado para alcanzar alguna meta deseada. A su vez, está
determinada por la utilidad funcional (utility), conjugada con la usabilidad (usability). La
utilidad funcional se refiere a si el sistema hace lo que es necesario que haga, es decir, si
responde a las metas para las que el sistema fue creado. La usabilidad busca analizar
cuán bueno es un sistema para satisfacer todas las necesidades y requerimientos de los
usuarios.
Algunos autores incorporan a la accesibilidad como otro factor clave de la utilidad cuando
nos referimos a sistemas que funcionan vía Web [Gra2005]. Ello se debe al hecho de que
una de las mayores ventajas de la Web está dada por su universalidad, y por lo tanto, la
aceptación del software también depende de que posibilite el acceso universal. Todos los
factores que contribuyen a la aceptabilidad de un software se pueden representar por
medio del modelo jerárquico de la figura 4, propuesto por Nielsen [Nie1993] y extendido
por Granollers [Gra2005].
Aceptabilidad
social
Util o Utilidad
práctica (utility)
Aceptabilidad Compatibilidad
práctica
Confiabilidad
Soporte
Etc.
21
Capítulo 2: Usabilidad
Por ejemplo, las aplicaciones desarrolladas para uso educacional son muy útiles si sus
usuarios aprenden por medio de ellas, al igual que los juegos u otros programas con fines
de entretenimiento son útiles si sus usuarios disfrutan de ellos. Por lo tanto, la usabilidad
también se asocia al grado de aceptación de un producto [Nie1993].
2.3.3 Utilidad
La utilidad se basa en dos pilares: por un lado la consecución de los servicios que el
producto quiere proporcionar, y por otro lado, la forma en que esos servicios son
proporcionados. El primero trata de proporcionar un medio para lograr un objetivo, y el
segundo el modo en que los usuarios pueden tomar contacto con la funcionalidad
[Flo2000][Mon2006]. La usabilidad cubre ambas vertientes, y el éxito en su consecución
depende de cómo sean tenidas en cuenta las necesidades del usuario, tanto explícitas
como implícitas.
El concepto de usabilidad tiene implicaciones asociadas con la utilidad que ofrece el
producto [Fer2001]. La utilidad está relacionada con las necesidades del usuario. Si un
producto no es útil para el usuario, la usabilidad del mismo carece de importancia puesto
que dicho producto no será utilizado [Cat2000].
La utilidad puede definirse como la capacidad de una herramienta de ayudar a cumplir
tareas específicas. Una herramienta que es muy usable para una tarea, puede ser muy
poco usable para otra similar [Mer1999].
Específicamente en lo que respecta al software, la utilidad tiene una componente de
utilidad funcional (utility), definida por lo que el software puede hacer (requisitos
funcionales), y otra componente de usabilidad (usability), basada en cómo los usuarios
pueden utilizar dicha funcionalidad (de una forma sencilla, eficiente, etc.).
También se entiende a la utilidad como el valor que alguien le da a algo. Una herramienta,
por sí sola, no es útil sino que depende de su capacidad de ofrecer mejoras al usuario, en
la forma en que se realizan las tareas y de ayudarlo a pensar, comunicarse, observar o
decidir [Cat2000]. El concepto de utilidad se refiere al grado en que un producto ofrece la
posibilidad al usuario de conseguir sus metas, y como valoración de la motivación del
usuario por utilizar ese producto [Rub94].
Algunos autores plantean que la utilidad no tiene por qué ir de la mano de la usabilidad,
pero la primera es condición necesaria para la segunda [Cob2005]. La utilidad se refiere a
si las funcionalidades del sistema permiten hacer lo que es necesario, en cambio la
usabilidad está relacionada con la forma en que los usuarios pueden utilizar esa
funcionalidad [Nie1993]. La relación entre estos dos conceptos puede situarse dentro de
uno de los siguientes casos:
1) Baja utilidad y baja usabilidad
2) Baja utilidad y alta usabilidad
3) Alta utilidad y baja usabilidad
4) Alta utilidad y alta usabilidad
Los casos que interesan realmente son el 3 y el 4. Si un producto no es útil, se situará
dentro de los casos 1 o 2, y por lo tanto no interesará demasiado saber si es usable y no.
Otros autores señalan que utilidad y usabilidad son conceptos diferentes, pero que no
pueden disociarse porque su relación es de mutua dependencia. La usabilidad representa
el grado en que el usuario puede explotar la utilidad, y también el grado en que esta
utilidad es percibida por el usuario [Has2009]. Por ello, no es posible hablar de usabilidad
22
Capítulo 2: Usabilidad
2.4 Usabilidad
2.4.1 Origen
El término usabilidad es algo controvertido. Si bien no es una palabra incluida en el
diccionario de la lengua castellana, es utilizada ampliamente por los especialistas
relacionados con este tema [Cob2005]. Usabilidad es la traducción de usability. Esta
palabra tiene origen latino, uti, que está relacionado con los conceptos de práctica,
utilidad, provecho, uso, usar a menudo, y bilis, que significa capacidad, posibilidad o
facilidad de hacerse la acción [Cob2005]. Este término en español significa capacidad de
uso, es decir, la característica que distingue a los objetos diseñados para su utilización de
los que no lo son. Sin embargo, la acepción inglesa es más amplía y se refiere a la
facilidad o nivel de uso, es decir, al grado en el que el diseño de un objeto facilita o
dificulta su manipulación [Man2002]. Otras traducciones posibles de usability son
amigabilidad, operatibilidad, ergonomía, o manejabilidad. La razón por la que se utiliza la
palabra usabilidad, en lugar de cualquier otra, es porque se trata de la traducción literal
del concepto usability, ampliamente aceptado por la comunidad de investigadores
[Boo89].
Es decir que la usabilidad tiene dos perspectivas, una centrada en la facilidad de uso y
otra centrada en la funcionalidad de un sistema o herramienta. Significa, por lo tanto,
centrarse en la audiencia potencial y estructurar el sistema o herramienta según sus
necesidades, y organizar el diseño y los contenidos de forma que permitan cumplir los
objetivos para los que se ha desarrollado [Gra2005].
23
Capítulo 2: Usabilidad
Sin embargo estas definiciones no están completas ya que el término usabilidad engloba
muchas más connotaciones. Centrar la usabilidad principalmente a la facilidad de uso es
restringir el concepto para referirse específicamente a las características de un producto
que lo hacen fácil de usar, cuando los atributos requeridos para hacer a un producto más
o menos usable dependen también del contexto de uso [San2001][Gra2005][Mon2006].
24
Capítulo 2: Usabilidad
constituido por los objetivos que el usuario quiere alcanzar con sus tareas [Ber2000]. Es
decir, la mayor parte de los aspectos que involucran a la usabilidad no están a la vista, por
lo cual para conseguir una buena usabilidad no basta con tener en cuenta solo la capa de
presentación, sino que es preciso que se contemple también en el momento de la
definición de la funcionalidad de la aplicación [Cas2004].
10%
30%
60%
Calidad en uso
Calidad externa
Calidad interna
25
Capítulo 2: Usabilidad
sección posterior). El diseño de la funcionalidad debe ser dirigido para y con los usuarios
[Bae2002], y no centrarse únicamente en el uso [Mon2006]. Buenos niveles de usabilidad
pueden lograrse mediante, lo que se conoce como, el diseño centrado en el usuario. Este
método es contrapuesto al diseño centrado en la tecnología o al diseño centrado en la
creatividad u originalidad. Centrarse en el usuario significa contemplar lo que el usuario
quiere, sus necesidades, tanto explícitas como implícitas, conocer sus características y el
contexto en el que se mueve. Las condiciones de trabajo también pueden decantar la
elección entre determinadas opciones. El usuario se sentirá satisfecho cuando vea que
puede realizar lo que desea de forma fácil, intuitiva, sin saturarse ni desorientarse. En
definitiva el usuario será el que tenga la última palabra y el que determine si un producto
es fácil de usar o no [Mon2006].
Los métodos de diseño centrado en el usuario nos permiten lograr metas de usabilidad
mucho más altas que las que podríamos lograr aplicando sólo la intuición, las recetas, o
calculando lo que nosotros suponemos que los usuarios harán con el producto [Bae2002].
Es decir, la usabilidad y el diseño centrado en el usuario van de la mano.
Muchas de las técnicas, se basan en involucrar a los usuarios en todas las etapas del
desarrollo. Los usuarios pasan a ser el foco de atención y las funcionalidades del sistema
se implementan de acuerdo a sus características [Gra2005].
El diseño centrado en los usuarios posee las siguientes características [Gra2005]:
• Dirigido por el usuario.
• Enfocado por la solución.
• Conformado por equipos de trabajo multidisciplinares que incluyen a usuarios,
desarrolladores, expertos en usabilidad, en interfaces, etc.
• Enfocado por los atributos de usabilidad: efectividad, eficiencia y satisfacción.
• Basado en una definición de la calidad que involucra la usabilidad.
• Basado en soluciones acordes a partir de la comprensión del contexto de uso:
usuarios, tarea, y entorno.
26
Capítulo 2: Usabilidad
Calidad en uso
Calidad externa
Calidad
interna
2.4.2.3 Definiciones
Existen muchas definiciones del concepto de usabilidad, algunas generales como las
presentadas anteriormente, y otras más específicas que son ampliamente citadas y
27
Capítulo 2: Usabilidad
2.4.2.3.1 ISO
La Organización Internacional para la Estandarización (ISO) propone una serie de
definiciones de usabilidad en sus estándares, que han ido evolucionando a lo largo del
tiempo. Se dividen en dos tipos, los orientados al producto, denominadas ISO 9126-1
[ISO2001], ISO 14598 [ISO1999a] e ISO 25000 [ISO2005], y las orientadas al proceso:
ISO 9241-11 [ISO1998b] e ISO 13407 [ISO1999b].
Aprendizaje Atractividad
28
Capítulo 2: Usabilidad
El estándar ISO/IEC 14598-1 [ISO1999c] provee una visión general de resto y explica la
relación entre la evaluación del producto software y el modelo de calidad definido en la
ISO/IEC 9126 [Car2012]. El ISO/IEC 14598-2 [ISO2000a] contiene requisitos y guías para
las funciones de soporte, tales como, planificación y gestión de la evaluación del producto
del software. El estándar ISO/IEC 14598-3 [ISO2000b] provee los requisitos y guías para
la evaluación del producto software cuando la evaluación es llevada a cabo en paralelo
con el desarrollo del mismo. El ISO/IEC 14598-4 [ISO1999d] provee los requisitos y guías
para que la evaluación del producto software sea llevada a cabo en función a los
compradores que planean adquirir o reutilizar un producto de software existente o
predesarrollado. El estándar ISO/IEC 14598-5 [ISO1998d] provee los requisitos y guías
para la evaluación del producto software cuando la evaluación es llevada a cabo por
29
Capítulo 2: Usabilidad
El estándar ISO/IEC 2500n está orientado a la gestión de calidad y definen todos los
modelos comunes, términos y referencias a los que se alude en las cinco secciones
restantes. El ISO/IEC 2501n presenta un modelo de calidad detallado, incluyendo
características para la calidad interna, externa y en uso. El estándar ISO/IEC 2502n se
dedica a las mediciones de calidad por lo que incluye un modelo de referencia de calidad
del producto software, definiciones matemáticas de las métricas de calidad y una guía
práctica para su aplicación. El ISO/IEC 2503n ayuda a especificar los requisitos de calidad
que pueden ser usados en el proceso de especificación de requisitos para un producto
software que va a ser desarrollado ó como entrada para un proceso de evaluación.
Finalmente, el estándar ISO/IEC 2504n se destina a la evaluación proporcionando
requisitos, recomendaciones y guías para la evaluación de un producto software, tanto
para evaluadores, como clientes o desarrolladores.
30
Capítulo 2: Usabilidad
efectividad satisfacción
eficiencia
31
Capítulo 2: Usabilidad
Esta definición se basa en una evaluación de carácter cualitativa que está centrada en el
concepto de calidad en uso [Man2003]. La calidad en uso depende de todos los factores
que pueden influenciar el uso de un producto en el mundo real: organizacionales
(prácticas de trabajo, ubicación o apariencia de un producto), diferencias individuales
entre usuarios (factores culturales y preferencias), experiencia, etc. Tiene la ventaja de
concentrarse en los propósitos reales de diseño de una aplicación, que es encontrar las
necesidades de usuarios concretos, ejecutando tareas reales en un ambiente técnico,
físico y de organización real [Alv2005].
32
Capítulo 2: Usabilidad
33
Capítulo 2: Usabilidad
que la gente que utilice un producto, pueda realizar rápida y fácilmente sus tareas. Esta
definición descansa en cuatro puntos [Flo2000][Loz2003]:
1. Una aproximación al usuario: para desarrollar un producto usable se tiene
que conocer, entender y trabajar con las personas que representan a los
usuarios actuales o potenciales del producto.
2. Un amplio conocimiento del contexto de uso: las personas utilizan los
productos para incrementar su propia productividad. Un producto se considera
fácil de aprender y usar, en términos del tiempo que toma al usuario llevar a
cabo su objetivo, el número de pasos que tiene que realizar para ello, y el éxito
que tiene en predecir la acción apropiada para llevarla a cabo. Para desarrollar
productos usables hay que entender los objetivos del usuario, hay que conocer
los trabajos y tareas del usuario que el producto automatiza, modifica o
embellece.
3. El producto ha de satisfacer las necesidades del usuario: los usuarios son
gente ocupada intentando llevar a cabo una tarea. Se va a relacionar usabilidad
con productividad y calidad. El hardware y el software son las herramientas que
ayudan a la gente ocupada a realizar su trabajo y a disfrutar de su ocio.
4. El usuario tiene la última palabra: son los usuarios y no los diseñadores o los
desarrolladores, los que determinan cuando un producto es fácil de usar.
34
Capítulo 2: Usabilidad
Atributos
Bevan • • • •
Nielsen • • • • •
Redish • • • •
Shackel • • • • •
Tabla 1 – Atributos de la usabilidad según los principales autores
35
Capítulo 2: Usabilidad
2.4.4.1 Eficiencia
Por eficiencia se entiende a los recursos empleados en relación con la precisión y plenitud
con que los usuarios alcanzan los objetivos especificados, es decir, recursos de tiempo,
financieros y humanos [ISO1998b]. Eficiencia también es la rapidez con la cual los
usuarios que ya aprendieron a manejar el software pueden realizar sus tareas. Se puede
medir como el número de transacciones por unidad de tiempo que el usuario puede
realizar usando el sistema. Lo que se busca es la máxima velocidad de realización de
tareas por parte del usuario, ya que éste desea que sus objetivos sean cumplidos
realizando operaciones totalmente eficientes, es decir, que las tareas se desarrollen de la
mejor forma posible. Cuanto mayor sea la usabilidad de un sistema, el usuario realizará el
trabajo con mayor rapidez. El concepto de eficiencia está muy ligado al de efectividad, ya
que el sistema no sólo debe funcionar internamente de forma efectiva, sino que el usuario
final debe percibir su correcto funcionamiento. La relación está determinada por la
consecución de los objetivos de trabajo, y por el conocimiento y experiencia del usuario
con la interfaz [Cat2000].
El atributo de eficiencia puede llegar a confundirse con la característica de eficiencia que
forma parte de la calidad de un producto. En este último caso, se trata de un concepto
más general que involucra a otros aspectos como el comportamiento en el tiempo, los
recursos de que dispone y de su utilización.
2.4.4.2 Efectividad
Se refiere a la precisión y la plenitud con las que los usuarios alcanzan los objetivos
especificados. La efectividad es algo sumamente ambiguo puesto que una acción que a
un usuario le resulta totalmente eficaz, para otro (o para el mismo pero en otro momento)
puede llegar a ser completamente ineficaz. A esta idea va asociada la facilidad de
aprendizaje, la tasa de errores del sistema, y la facilidad para ser recordado. A
continuación se describen estos conceptos:
36
Capítulo 2: Usabilidad
2.4.4.3 Satisfacción
Este atributo es el objeto principal de todo estudio de usabilidad. La satisfacción del
usuario podría definirse como “la capacidad de la interfaz de interaccionar con el usuario
de forma agradable” [Cat2000].
Por satisfacción se entenderá la ausencia de incomodidad y la actitud positiva en el uso
del producto. Se trata, pues, de un factor subjetivo [Flo2000]. Es una medida de las
percepciones, opiniones, sentimientos y actitudes generadas en el usuario por el sistema.
Lo importante de esta medida, no es tenerla en forma absoluta sino compararla o
analizarla en forma relativa. Esta comparación puede ser contra la competencia, contra la
versión anterior del mismo producto, contra otras posibilidades que se estén tomando en
cuenta.
El otro punto importante es tratar de analizar hasta donde afecta al resto de las medidas.
Un usuario al que “no le gusta” una interfaz, puede generar más errores, o tardar más en
aprenderla.
37
Capítulo 2: Usabilidad
2.4.4.4 Consistencia
Es el principio por el cual los elementos relacionados deben ser presentados de forma
idéntica e inequívocamente. El concepto se refiere a la coherencia del significado de
objetos, formas y métodos de trabajo en contextos similares, y al grado de similitud de la
representación de un concepto en relación con su uso en la vida real [Pre1994]. Las
interfaces inconsistentes son aquellas en las que los usuarios deben emplear diferentes
métodos en contextos diversos, para llevar a cabo las mismas tareas. Como
consecuencia, la inconsistencia provoca que la experiencia del usuario no pueda ser
aprovechada, que la puesta en práctica de una tarea determinada sea más complicada y
que la formación de los usuarios sea infructuosa. La consistencia es un concepto
aplicable a [Cat2000]:
• Tipografía: la presentación de la información debe seguir una coherencia.
• Iconos, comandos y menús: deben representar lo que el usuario espera de una
acción del sistema de acuerdo con su elección.
• Contexto: el sistema debe funcionar igual en cualquier contexto y/o plataforma.
• Percepción: el sistema debe ser igual para todos los usuarios.
• Estructura: las metáforas utilizadas en el sistema deben representar
adecuadamente el universo de trabajo del usuario.
La estandarización es un concepto importante en relación a la consistencia y puede
definirse como la “adaptación de la interfaz a la relación de reglas, convenciones y
características técnicas por las que han de regirse las especificaciones de los productos
en un cierto campo” [Cat2000]. Estas reglas, convenciones y características pueden ser
definidas por organismos competentes, por grupos de empresas o por usuarios
interesados en expresar sus necesidades.
38
Capítulo 2: Usabilidad
39
Capítulo 2: Usabilidad
40
Capítulo 2: Usabilidad
41
Capítulo 2: Usabilidad
todo el sitio Web. Otro aspecto, no menos importante, es ofrecer una permanente
retroalimentación sobre las acciones que realice en cada página.
2. Similitud entre el sistema y el mundo real. El sistema debe hablar el lenguaje del
usuario, es decir, que las frases, palabras y conceptos deben serle familiares.
Además, se deberán seguir las convenciones usadas en el mundo real, haciendo
que la información aparezca en un orden lógico y natural. La utilización de
metáforas, ya sea visuales o textuales, ayuda a este punto.
3. Control por parte del usuario y libertad. Los usuarios frecuentemente eligen
funciones por error y necesitan “salidas de emergencia” claramente marcadas. Se
debe proveer al usuario funciones para deshacer y rehacer las acciones que haya
realizado.
4. Consistencia y cumplimiento de estándares. Los usuarios no tienen por qué
preguntarse si distintas palabras, situaciones o acciones significan lo mismo. Hay
que tratar de seguir las convenciones usuales del software de base en cuanto a
íconos, botones, imágenes, ventanas y diálogos. Se debe procurar el uso de estilos
por defecto en botones, barras de scroll, etc.
El cumplimiento con las recomendaciones emitidas por el W3C referidas a
tecnologías Web (HTML, CSS, XML, etc.) aseguran, en muchos casos, una
portabilidad absoluta del sitio. Existe una gran cantidad de herramientas
(validadores) que permiten verificar si un sitio Web cumple con las especificaciones
del W3C.
Es importante usar de manera consistente el fraseo, imágenes, y fuentes, a través
del sitio para dar la imagen de consistencia. El uso de hojas de estilo facilita
mantener la consistencia del diseño gráfico.
5. Prevención de errores. Aún mejor que el desarrollar buenos mensajes de error es
tener un diseño cuidadoso que evite la ocurrencia de errores. Debe asegurarse que
las instrucciones estén escritas de una manera clara, y que éstas sean
desplegadas de manera conveniente, evitando cualquier tipo de contaminación
visual. Por ejemplo, si se requiere el llenado de un formulario con campos
obligatorios, se deben destacar por sobre el resto de las entradas.
6. Preferencia al reconocimiento frente a la memorización. Se debe hacer que los
objetos, acciones y opciones sean visibles. El usuario no tiene la obligación de
recordar información de una parte de un diálogo a otra parte. Las instrucciones de
uso del sistema deben de ser visibles y accesibles cuando el usuario lo considere
necesario. Se deben tener mecanismos de búsqueda.
7. Flexibilidad y eficiencia de uso. Los aceleradores (invisibles para el usuario
novato) pueden hacer más rápida la interacción para el usuario experto. El sistema
debe tratar eficientemente tanto a los usuarios expertos como inexpertos. Para
lograr esto, es conveniente permitir a los usuarios que personalicen ciertas
acciones.
Los sitios Web se deben cargar lo más rápidamente posible, independientemente
del tipo de conexión utilizado por el usuario. Para ello debe priorizarse el uso de
HTML y el reuso de imágenes en el sitio Web.
8. Estética y diseño minimalista. Los diálogos no deben contener información que
sea irrelevante o que rara vez sea de utilidad. Cada información extra en un diálogo
compite con unidades relevantes de información y disminuye su visibilidad relativa.
Se recomienda reducir el número de imágenes al mínimo. Hay que recordar que
cada imagen implica una descarga desde el servidor, y esto en conexiones lentas
puede ser un problema serio.
42
Capítulo 2: Usabilidad
43
Capítulo 2: Usabilidad
44
Capítulo 2: Usabilidad
45
Capítulo 2: Usabilidad
46
Capítulo 2: Usabilidad
7. Guía y apoyo. Tanto las guías como las ayudas deben ser provistas de manera
fácil de utilizar, relevante e informativa, tanto en la computadora (vía una alternativa
de ayuda en línea) como en forma de documento, para ayudar al usuario a
entender y utilizar el sistema.
47
Capítulo 2: Usabilidad
2.5 Conclusiones
La usabilidad, a pesar de ser un concepto muy joven, es fundamental para las
aplicaciones informáticas, ya que forma parte de los atributos destacados que hacen a la
calidad de producto. Por este motivo, el objetivo del capítulo fue definir el concepto de
usabilidad desde el punto de vista de las aplicaciones Web.
La usabilidad es reconocida como uno de los atributos más importantes dentro de la
calidad de productos software. En este sentido, el estándar ISO/IEC 9126 [ISO2001] la
incorpora explícitamente dentro de su modelo de calidad, como parte de la calidad interna
y externa del software, e implícitamente dentro de la calidad en uso. También el estándar
ISO 9241 [ISO1998b] la tiene en cuenta a la hora de especificar y evaluar los requisitos
ergonómicos de los productos informáticos. Es decir, la usabilidad está presente dentro
del ambiente en que se desarrolla el producto, como así también desde el punto de vista
del usuario que lo utiliza dentro de un contexto de uso en particular. Desde otra
perspectiva, la usabilidad también forma parte de la aceptabilidad de un software,
entendida esta como la combinación de su aceptabilidad social y práctica [Nie1993].
A partir del concepto de calidad se desprenden una serie de definiciones de usabilidad
planteadas por expertos [Sha1991][Nie1993][Pre1994][Lau1995][Man1997][Red1999]
[Cat2000]. Al ser un concepto de calidad demasiado abstracto como para ser medido y
cuantificado directamente [Fer2001][Gon2001], puede ser definida mediante un conjunto
de atributos, tales como: eficiencia, consistencia, estandarización, estilo comunicativo,
capacidad de aprendizaje y de retorno, actitud o satisfacción del usuario [Cat2000]. Los
expertos coinciden en varios de estos aspectos o atributos: efectividad, eficiencia,
48
Capítulo 2: Usabilidad
satisfacción por parte del usuario, y contexto de uso [Fer2007b]. A su vez, cada uno de
los atributos puede ser desglosado en sub-atributos más específicos, o definir una métrica
específica para poder medirlo.
La importancia otorgada a las interfaces dentro de las aplicaciones Web llevó a buscar
alguna manera de aplicar normas de interacción entre el usuario y el sistema. Así surgen
las heurísticas, como directrices o reglas que pueden ser utilizadas como guía para los
diseñadores, como ayuda a los evaluadores, para explicar problemas de usabilidad
observados, o para dar pautas de por qué los usuarios cometen ciertos errores
[Gon2006b]. Las heurísticas guardan relación con los atributos de usabilidad y pueden
tener diferente nivel de especificidad de acuerdo a las necesidades. La síntesis realizada
a partir del aporte de los expertos en dicha materia [Nie1990][Ins1997b][Sch1998]
[Nor1998][Con1999][Tog2003][Kei2003] permite distinguir un grupo de heurísticas que
están presentes en la mayoría de las propuestas analizadas: consistencia, visibilidad,
retroalimentación, control por parte del usuario, reversibilidad, manejo del error,
intuitividad, simplicidad, topografía, diseño y organización, productividad, ayuda y
documentación, y estándares [Fer2007b].
Las definiciones, junto con los atributos y heurísticas mencionadas, forman el núcleo
básico de partida para definir un modelo de evaluación de EVEA que utiliza como eje
central la usabilidad, y es lo que se propone en esta tesis.
49
Capítulo 3: Accesibilidad
Capítulo 3: Accesibilidad
3.1 Introducción
El rápido crecimiento y masificación de la Web a escala mundial posibilita la difusión y
disponibilidad de la información de manera muy sencilla e instantánea. Cualquier persona
que disponga de una computadora conectada a Internet puede, potencialmente, visitar el
sitio Web que desee, independientemente de su origen geográfico, cultural, generacional
o motivacional [Bae2002]. Si a ello le sumamos las herramientas para diseño Web y para
auto-publicación, como por ejemplo los Weblogs, estamos frente a la posibilidad de que
prácticamente cualquier usuario de la Web se transforme en emisor, algo imposible de
hacer en otros medios de comunicación como la radio o la televisión. Sin embargo, las
limitaciones y el uso inadecuado de las tecnologías de generación y publicación de
contenido para la Web, están dando lugar a situaciones de imposibilidad de acceso a la
información por una parte considerable de usuarios [Mon2004b]. En otros casos, aunque
sin llegar a tal extremo, hay numerosos problemas para la visualización e interpretación
de la información, producto de limitaciones físicas de los usuarios o de barreras
tecnológicas. La búsqueda de soluciones a este tipo de problemas es de lo que se ocupa
la accesibilidad. Accesibilidad significa proporcionar flexibilidad para acomodarse a las
necesidades de cada usuario, a sus preferencias y/o limitaciones [Gra2005].
3.2 Discapacidades
Los usuarios con limitaciones físicas forman un grupo importante de los internautas. Estos
usuarios frecuentemente no son tenidos en cuenta a la hora de diseñar sitios Web.
Probablemente, esto sea producto de desconocer que ellos representan una buena
porción del total de usuarios, o por creer que les está vedado el acceso a la red de redes
debido a sus propias limitaciones.
En general, la Web es un medio que se utiliza para presentar información, debido a las
ventajas que proporciona respecto a la información en formato impreso. Es decir que la
Web, y la computadora en general, lejos de ser un obstáculo puede ser una ayuda para
muchos usuarios limitados físicamente, puesto que les otorga autonomía para realizar
gestiones, les facilita el acceso a todo tipo de información y recursos, y les posibilita
realizar tareas que de otro modo les hubiera resultado más costosas o imposibles de
llevar a cabo en el mundo real [Nie2000][Mon2004b][Goi2004].
Generalmente la limitación física se asocia a la discapacidad, aunque no siempre es
realmente así. La discapacidad física es un concepto muy amplio cuando se trata de
usuarios de la Web. Se relaciona mucho la discapacidad física con el hecho de estar en
silla de ruedas, por ejemplo. Sin embargo, cuando hablamos de aplicaciones informáticas,
la discapacidad física engloba a todo tipo de problemas que dificulten el uso de las
computadoras [Nie2000]. Las discapacidades físicas a las que habitualmente se hace
referencia están relacionadas con problemas de visión, de audición, de cognición, o
motores. También se incluyen aquí a las personas que pierden transitoriamente alguna
capacidad producto de operaciones, quebraduras o lesiones y, fundamentalmente, a los
adultos mayores, puesto que se considera que a determinada edad se pierden
paulatinamente algunas capacidades como la motricidad fina, la visión, o el oído. Tal vez
estos últimos sean el grupo más importante dentro de los usuarios considerados con
discapacidad física ya que en muchos países, sobre todo los desarrollados, conforman el
sector demográfico de mayor crecimiento a raíz del aumento de la esperanza de vida
[Bae2002]. Por lo tanto, diseñar sitios Web accesibles será cada vez más prioritario
51
Capítulo 3: Accesibilidad
52
Capítulo 3: Accesibilidad
análisis rápido de las partes principales. Para facilitar este análisis se recomienda
diseñar la estructura de cada página mediante la utilización de encabezados: <H1>
para el más alto nivel, <H2> como partes principales de la información, y <H3> en
adelante, para lo menos importante. Ello posibilitará al usuario no vidente obtener una
visión global de la estructura de una página y concentrarse en lo más importante.
• Los usuarios con visión reducida necesitan que las fuentes sean de mayor tamaño que
el habitual. Para posibilitar su modificación se debe permitir que el tamaño de la letra
sea ajustable por parte del usuario. La técnica más utilizada es la de codificar la
información con tamaños de fuente relativos, usando hojas de estilo y estableciendo el
atributo de tamaño de fuente a un porcentaje del tamaño predeterminado. Al hacer
esto el texto aumentará o disminuirá automática y armoniosamente cuando el usuario
accione comandos en el navegador para cambiar el tamaño de fuente.
• Las imágenes son otro de los grandes problemas para este tipo de usuarios. Como no
pueden visualizarlas, o les cuesta mucho hacerlo, se utiliza la técnica de reemplazar la
imagen por un texto que haga referencia al contenido de la imagen, siempre que la
misma sea significativa. El uso del atributo ALT en las imágenes posibilita que los
usuarios no videntes, o aquellos que han deshabilitado la opción de carga de
imágenes, puedan ver u oír un texto alternativo que hace referencia a la imagen. Ello
solo debe hacerse para las imágenes que no cumplen un cometido decorativo como
las líneas, flechas, viñetas. etc. Para este tipo de imágenes deberá ponerse un texto
vacío en su atributo ALT.
Sin lugar a dudas este tipo de pautas impactan directamente no solo en los usuarios con
discapacidades visuales sino también en usuarios que están accediendo a la Web en
circunstancias donde no pueden utilizar un navegador visual, poseen monitores de baja
resolución o intentan hacer menos forzada y más amena la lectura [Nie2000]. Es decir,
que las recomendaciones enunciadas tienen carácter general en el diseño Web.
53
Capítulo 3: Accesibilidad
condiciones que aquel que no puede oír. Los casos donde hay que tener cuidado es en
los clips de audio o de video. Para superar ese inconveniente debe existir una versión
transcripta de cada clip y los videos deben estar subtitulados [Nie2000].
54
Capítulo 3: Accesibilidad
ese es el medio que utilizan las personas con discapacidad para trabajar, producir o
estudiar [Nie2000]. La adecuación del entorno virtual WebCT2 a las reglamentaciones
definidas por EE.UU. y Australia en materia de accesibilidad son un claro ejemplo
[Dey2002].
En el caso de EE.UU., los derechos de los ciudadanos con discapacidades se encuentran
protegidos por la Americans with Disabilities Act (ADA) de 1990 [Mon2003]. El apartado III
del ADA prohíbe la discriminación por discapacidad en los locales públicos y requiere la
adaptación de éstos para asegurar su accesibilidad. Desde 1996 se aplica a los sitios
Web, luego de un dictamen del Departamento de Justicia que consideró a los sitios Web
como lugares públicos [She2001][Jac2002]. Por otra parte el Acta de Rehabilitación de
1998, más precisamente su Sección 508, requiere que todos los estamentos
gubernamentales del país aseguren que los productos o servicios digitales que empleen,
ya sean desarrollos propios o adquiridos a terceros, sean accesibles para personas con
discapacidad [RAA1998].
En el caso de Europa, está vigente el plan de acción e-Europe 2005 cuyo objetivo es
acercar la Sociedad de la Información a los ciudadanos de la Unión Europea. Uno de los
planes de acción específicos se denomina e-Accessibiliy, que recomienda la adopción de
directrices sobre accesibilidad de la Web. Sumado a ello, muchos países miembros tienen
su propia legislación. Tal es el caso del Reino Unido, Suiza, España, Portugal, Italia,
Irlanda, Alemania, Francia, Suecia, Findandia, y Dinamarca [Sha2006]. No solo EE.UU. y
la Unión Europea poseen legislación al respecto sino que también han avanzado en este
sentido otros países como Canadá, Israel, India, Japón, Australia, y Nueva Zelanda
[Sha2006].
En nuestro país fue sancionada recientemente la ley 26.653, que establece las normas y
requisitos que deberán implementar los organismos públicos y privados, que tengan, o
deseen tener, algún tipo de relación con el Estado Argentino. Esta ley busca garantizar el
acceso a la información en páginas Web a todas las personas con discapacidad. La
iniciativa, denominada “Ley de accesibilidad de la información en las páginas Web”
establece el cumplimiento de un conjunto de pautas de diseño que aseguren condiciones
de igualdad y trato en el acceso a contenidos digitales, evitando cualquier forma de
discriminación. Además, establece que las normas y requisitos de accesibilidad deberán
ser implementados en un plazo máximo de veinticuatro meses para aquellas páginas
existentes con anterioridad a la entrada en vigencia de la ley (noviembre de 2010), y de
12 meses, para las que se encuentren en proceso de elaboración. La ley busca ampliar
las posibilidades y oportunidades de navegación, participación o acceso efectivo a los
sitios y entornos virtuales a todos los usuarios, independientemente de sus capacidades
perceptuales o motrices, o las diversas configuraciones de software o hardware que
utilicen [INA2010].
2
WebCT (Web Course Tools) es un entorno virtual de enseñanza y aprendizaje de carácter comercial que
adquirió gran relevancia en los EEUU.
55
Capítulo 3: Accesibilidad
56
Capítulo 3: Accesibilidad
57
Capítulo 3: Accesibilidad
3.6 Conclusiones
La rápida masificación del acceso y uso de la Web a escala mundial ha posibilitado que
los usuarios se transformen en prosumidores, es decir, que al mismo tiempo de ser
consumidores, son productores de contenidos. Sin embargo, las limitaciones y el uso
inadecuado de las tecnologías de generación y publicación de contenido para la Web,
presentan nuevos desafíos para el acceso universal [Mon2004b]. La accesibilidad se
ocupa de esta problemática estableciendo pautas para tener en cuenta las necesidades
de cada usuario, sus preferencias y/o limitaciones [Gra2005].
En general, se asocia la accesibilidad con las personas que poseen algún tipo de
discapacidad, pero esto no es realmente así, porque también existen otro tipo de
limitaciones tecnológicas, derivadas del contexto de uso y del dispositivo de acceso
empleado, tanto hardware como software [Van2000] [Mon2004b].
En este sentido, la accesibilidad busca garantizar que la mayor cantidad de usuarios
posible pueda acceder a los contenidos Web, independientemente del dispositivo
empleado, edad, idioma, deficiencia visual, motriz, auditiva, o cognitiva. Para que el
contenido sea accesible debe presentarse al usuario de manera clara, con un lenguaje
simple y con mecanismos de navegación intuitivos para moverse entre las páginas,
separando el contenido de la presentación, para que puedan utilizarse múltiples
dispositivos de navegación según las necesidades de cada usuario.
Es un tema tan importante que ya forma parte de los derechos de los usuarios, y muchos
países han legislado al respecto [Dey2002] [Mon2003] [She2001] [Jac2002] [RAA1998],
incluso nuestro país [INA2010], de modo de garantizar el acceso equitativo a la Web.
Para poder desarrollar sitios Web accesibles se han establecido una serie de principios.
Los más conocidos y aceptados por la comunidad internacional son los elaborados por la
ISO [ISO2003] y el W3C [WAI2005].
Hay autores que sostienen que accesibilidad y la usabilidad son aspectos
complementarios, pero íntimamente relacionados, que se refuerzan mutuamente
[Rom2001]. Otros plantean que la accesibilidad no sólo implica la necesidad de facilitar
acceso, sino también facilitar el uso, con lo cual no sería necesario distinguir entre
usabilidad y accesibilidad [Hen2002]. En este trabajo se adopta otra mirada, considerando
a la accesibilidad como requisito para la usabilidad, dado que un sitio Web usable
necesariamente debe ser accesible, aunque no así a la inversa.
58
Capítulo 4: Métodos de evaluación de usabilidad
4.1.1 Clasificación
Existen numerosas propuestas y relevamientos sobre métodos de evaluación. De acuerdo
al relevamiento realizado por Alva [Alv2004], se encuentran las siguientes propuestas de
clasificación, las cuales presentaremos cronológicamente: Scriven (1967) apunta a los
objetivos de la evaluación y los divide en evaluación formativa y sumativa. Nielsen y
Molich (1990) distinguen los métodos de evaluación en cuatro categorías: formal,
automática, empírica y heurística. Whitefield, Wilson, y Dowell (1991) proponen una
clasificación de acuerdo a los recursos que están disponibles durante la evaluación
usando cuatro categorías: usuarios reales, computadoras reales, usuarios
representativos, y computadoras representativas. En base a ello ubican estas categorías
en una matriz de dos por dos, y proponen clasificarlos en: método observacional, reporte
de especialistas, reportes de usuarios, y método analítico. Preece (1993), en cambio,
establece cuatro categorías: evaluación de expertos (heurística), evaluación
observacional, evaluación por investigación y evaluación experimental. Hix y Hartson
(1993) distinguen dos tipos de evaluación: analítica y empírica. Coutaz y Balbo (1994)
definieron cinco dimensiones que delimitan el tipo de método a utilizar: recursos de
conocimiento, recursos de ambiente, recursos humanos, recursos hardware, y resultados.
59
Capítulo 4: Métodos de evaluación de usabilidad
60
Capítulo 4: Métodos de evaluación de usabilidad
Métodos de evaluación
Clase de método
Prueba
Inspección
Consulta
Modelado analítico
Simulación
Tipo de método
Protocolo de hablar en voz alta
Análisis de archivos log
Evaluación heurística
Evaluación de características y atributos
Entrevistas
Cuestionarios
Análisis cognitivo de tareas
Tipo de automatización
Manual
Semi-automático
Automático
Nivel de esfuerzo
Fácil de usar y de aprender
Efectivo, preciso
Rango de aplicabilidad
Otro criterio posible es el planteado por Granollers [Gra2005] donde se clasifican según el
lugar de realización, tipo de método, forma de aplicación, y tipos de implicación de los
usuarios finales (figura 12).
61
Capítulo 4: Métodos de evaluación de usabilidad
Métodos de evaluación
Lugar de realización
Laboratorio
Entorno natural
Tipo de método
Inspección
Indagación
Test
Forma de recabar la información
Manual
Automático
Implicación de participantes
Con usuarios
Sin usuarios
- Entorno natural
Ventajas:
62
Capítulo 4: Métodos de evaluación de usabilidad
4.1.5 Métodos
Existen distintos métodos para evaluar la usabilidad de un sistema que intentan medir
diferentes aspectos de esta [Cob2005][Gra2005]. Su uso depende de variables tales
como grado de implicación del usuario, escenarios de tarea, costo, disponibilidad de
tiempo, personal calificado para interpretar los datos, entre otros factores [Bae2002].
Incluso, es altamente beneficioso no utilizar un solo método de evaluación, sino varios
que se complementen mutuamente y permitan observar las características del producto
desde diferentes puntos de vista.
Hay acuerdo en clasificar las formas de evaluar la usabilidad de una aplicación Web en
tres grandes métodos: inspección, indagación y test [Cat2000][Flo2000b][Hom2003]
[Lei2003][Alv2005][Cob2005][Gra2005][Mon2006]. A su vez cada método consta de
diferentes formas o variantes de aplicación denominadas técnicas. Estas técnicas pueden
ser clasificadas por numerosos criterios, ya que no existe un criterio común que permita
agruparlas. Incluso muchas veces los criterios impiden una clasificación del todo clara,
debido a que no son totalmente independientes unos de otros [Rod2001]. En este sentido
Hom [Hom191998] presenta una revisión de más de 30 técnicas para la evaluación de
usabilidad, a partir de la clasificación en métodos de inspección, indagación, y test. A
continuación se detallan:
63
Capítulo 4: Métodos de evaluación de usabilidad
Inspección
- Evaluación heurística
- Inspecciones formales de usabilidad
- Inspección de características
- Inspección de consistencia
- Inspección de estándares
- Paseo cognitivo
- Listas de comprobación
Indagación
- Indagación en el contexto
- Estudio etnográfico / Observación de campo
- Entrevistas y Grupos orientados
- Encuestas
- Cuestionarios
- Sesiones guiadas
- Registro por el usuario
Test
- Realización de medidas
- Protocolo de preguntas
- Protocolo del pensamiento manifestado
- Protocolo del descubrimiento conjunto
- Seguimiento visual
Por su parte Floría [Flo2000b], toma como base la clasificación anterior y la reformula de
la siguiente manera:
Inspección
- Inspecciones
- Evaluación heurística
- Recorridos
- Listas de comprobación
- Otras perspectivas
Indagación
- Aproximación
- Participación remota
- Generación de ideas
- Observación experta
Test
- Protocolos de expresión del usuario
- Medida de desempeño
- Variantes: tutorado, descubrimiento conjunto,
seguimiento, instrucción previa.
64
Capítulo 4: Métodos de evaluación de usabilidad
Cada uno de los métodos, posee características propias que lo diferencian claramente de
los otros dos. Los de indagación, por ejemplo, se basan fuertemente en el análisis del
producto o prototipo mediante la participación de expertos. Los de test implican la
participación del usuario en la evaluación. Por otra parte, son claramente
complementarios y factibles de aplicar en diferentes etapas del desarrollo, así como
también sobre productos que ya están siendo utilizados.
A efectos de éste trabajo se entiende a los métodos como el tipo de procedimiento
utilizado y a la técnica como una forma determinada de aplicar dicho método. De allí que
consideremos tres tipos de métodos: Inspección, Indagación, y Test. Dentro de cada
método se aglutinan las diferentes técnicas o formas de implementarlo, de acuerdo a las
propuestas analizadas [Cat2000][Flo2000b][Hom2003][Lei2003][Alv2005][Cob2005]
[Gra2005][Mon2006]. En virtud que el interés está puesto en elaborar un instrumento de
evaluación para entornos virtuales de enseñanza y aprendizaje que tome como eje la
usabilidad, se describirán sintéticamente los métodos principales y sus técnicas
relacionadas, basándose en las distintas revisiones. En el capítulo 6, se retoma el tema
analizando en detalle cada método de manera tal de abordar luego la propuesta de
evaluación de esta tesis con las bases conceptuales ya revisadas y tratadas. Es
importante aclarar que el nombre del método puede variar en función del autor o de las
traducciones que se hayan realizado.
65
Capítulo 4: Métodos de evaluación de usabilidad
• Método de Inspección
Técnicas
o Inspecciones: formal, de características, de consistencia, de
estándares
o Evaluación heurística o por criterios
o Recorridos: cognitivos, pluralistas, con usuarios
o Listas de comprobación
• Método de Indagación
Técnicas
o Aproximación: contextual, por grupos, individual
o Participación remota o sesiones guiadas
o Registro por el usuario
o Captura de pantallas
o Generación de ideas
o Observación experta
o Pantallazos de situación
o Encuestas
o Cuestionarios
o Entrevistas
o Seguimiento visual
o Seguimiento de uso
• Método de Test
Técnicas
o Clásico o formal
o Variantes del clásico: tutorado, seguimiento, instrucción
previa, descubrimiento conjunto, retrospectivo, rastreo
visual remoto.
o Protocolos de expresión del usuario: en voz alta, preguntas
o Evaluación de desempeño.
66
Capítulo 4: Métodos de evaluación de usabilidad
1
Los prototipos verticales muestran la funcionalidad exacta de un producto para una pequeña parte del
conjunto completo.
67
Capítulo 4: Métodos de evaluación de usabilidad
68
Capítulo 4: Métodos de evaluación de usabilidad
69
Capítulo 4: Métodos de evaluación de usabilidad
adecuada cuando no se requiere un análisis exhaustivo del sitio Web sino más
bien de aspectos concretos.
9. Encuestas: involucra la colección formal de datos sobre las impresiones
subjetivas del usuario de la interfaz. Los datos son fáciles de obtener y analizar
estadísticamente. Son interactivas y pueden ser abiertas o cerradas.
10. Cuestionarios: son listas de preguntas que se distribuyen a los usuarios y que
deben retornar respondidas. No son interactivos y requieren del esfuerzo del
usuario para leer, comprender la pregunta y responderla escribiendo la
respuesta. Permiten obtener información sobre las opiniones, deseos y
expectativas de los usuarios potenciales.
11. Entrevistas: se basan en el estímulo y la respuesta. Es necesario contar con
una persona que lea las preguntas y anote las respuestas del entrevistado. Este
método proporciona resultados inmediatos, contando con la ventaja de la
profundidad a la que se puede llegar con el usuario.
12. Seguimiento visual: conocido también como eye tracking, consiste en un
aparato de seguimiento ocular que estudia la forma de observar de un ser
humano. Captura una amplia variedad de datos como las diferentes trayectorias
recorridas en cada observación y la dilatación de las pupilas. Comprenden una
variada gama de dispositivos que pueden clasificarse en intrusivos (casco o
lentes) y no-intrusivos (cámara que enfoca a la cara).
13. Seguimiento de uso: llamado también logging, consiste en grabar y analizar los
datos de navegación de los usuarios en un sitio Web. Pueden utilizarse varias
alternativas: los datos grabados en los logs de los servidores o herramientas de
análisis Web recogen los datos que nos interesan de los usuarios y los envían a
una base de datos, que posteriormente es posible consultar.
70
Capítulo 4: Métodos de evaluación de usabilidad
71
Capítulo 4: Métodos de evaluación de usabilidad
72
Capítulo 4: Métodos de evaluación de usabilidad
73
Capítulo 4: Métodos de evaluación de usabilidad
• Funcionalidad
Aspectos de Búsqueda y Recuperación
Mecanismo de Búsqueda en el Sitio
Mecanismos de Recuperación
Aspectos de Navegación y Exploración
Navegabilidad
Objetos de Control Navegacional
Predicción Navegacional
• Confiabilidad
No Deficiencia
Errores de Enlaces
Errores o Deficiencias Varias
• Eficiencia
Performance
Accesibilidad
Accesibilidad de Información
Accesibilidad de Ventanas
Las métricas sugeridas por Rhodes serán de utilidad para el desarrollo del modelo de
evaluación propuesto en esta tesis.
74
Capítulo 4: Métodos de evaluación de usabilidad
75
Capítulo 4: Métodos de evaluación de usabilidad
o Sin mouse.
o Sin marcos, scripts, hojas de estilo y applets habilitados.
• Utilizar varios navegadores, y diferentes versiones de cada uno de ellos.
• Utilizar un navegador por voz, un lector de pantallas, un software de magnificación, un
visualizador pequeño.
• Utilizar varios tipos de monitores. Para cada tipo de monitor analizar el
comportamiento del sitio con diferentes configuraciones de pantalla y cantidad de
colores.
De todas maneras, con estas pautas solamente no alcanza para detectar problemas de
accesibilidad. También es necesario interactuar con el sitio navegando por todas sus
páginas, buscando información, usando los formularios disponibles y realizando las tareas
concretas que los usuarios desarrollan habitualmente en el sitio.
4.3 Conclusiones
La evaluación es la principal actividad para determinar la usabilidad de un producto
[Fer2001]. Esta comprende un conjunto de métodos y técnicas que permiten medir
cuantitativamente la usabilidad, tanto del producto final como de sus diferentes etapas de
desarrollo.
Existen numerosas propuestas y relevamientos sobre métodos de evaluación [Alv2004],
donde es posible observar coincidencias respecto a los métodos en los cuales participan
expertos: aquellos donde el usuario es el evaluador que emite el juicio final, o aquellos en
los que se observa al usuario mientras utiliza el producto para poder determinar su grado
de usabilidad. Otra distinción importante, tiene que ver con el momento en que son
aplicados los métodos: puede ser durante la fase de aceptación del producto o durante el
desarrollo. Finalmente, se clasifican entre aquellos donde el resultado de la evaluación
puede ser o no cuantificable.
Los métodos de evaluación determinan el lugar de realización, la forma de recabar la
información (automática o manual), y el grado de implicación de los usuarios y expertos.
Ellos pueden clasificarse en métodos de inspección, indagación, y test [Cat2000]
[Flo2000b][Hom2003][Lei2003][Alv2004][Gra2005][Cob2005][Mon2006]. A su vez, cada
método consta de diferentes formas o variantes de aplicación denominadas técnicas.
Los métodos de inspección se basan en normas generales y en la experiencia, habilidad y
conocimiento de expertos, los cuales realizan un examen de la interfaz y emiten un juicio
sobre la misma. Los más destacados son la inspección formal, la evaluación heurística, y
el paseo cognitivo.
Los métodos de indagación consisten en observar al futuro usuario en su ambiente
natural de trabajo y/o dialogar con él. Son utilizados frecuentemente en etapas tempranas
de desarrollo.
Los métodos de test apuntan a que los usuarios trabajen en tareas concretas utilizando el
producto, mientras los evaluadores evalúan la forma en que la interfaz soporta las tareas
que éste debe realizar. Algunos autores afirman que es una de las mejores formas de
extraer información sobre el nivel de usabilidad de un sitio Web [Mar03] y la más
importante [Nie1999].
De acuerdo a las definiciones de usabilidad analizadas, y sus posibles métodos de
evaluación, es necesario contar con algún mecanismo que permita medir el nivel o grado
usabilidad. Existen una serie de criterios basados en métricas para medir la usabilidad
76
Capítulo 4: Métodos de evaluación de usabilidad
77
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
5.1 Introducción
Una de las primeras aplicaciones de la informática en el ámbito educativo estuvo marcada
por la enseñanza asistida por computadora, Computer Based Training (CBT) de acuerdo
a la terminología inglesa, o también conocida como Computer Aided Instruction (CAI). Su
metodología consistía en distribuir los contenidos de aprendizaje a través de CD-ROM,
que incluían textos, gráficos, animaciones, secuencias de audio, etc.
A los efectos de proveer un soporte más eficaz para los procesos de enseñanza y
aprendizaje basados en tecnología informática y telecomunicaciones, comenzaron a
desarrollarse aplicaciones más específicas. La aparición de Internet, y el rápido
posicionamiento que tuvo en la esfera de la educación, produjo la evolución de la
enseñanza asistida por computadora hacia una nueva forma de trabajar denominada
Comunicación Mediada por Computadora (CMC) [Lop2003]. La CMC hace referencia al
conjunto de servicios principales que provee Internet (Web, correo, foro, chat,
videoconferencia) para la comunicación directa y bidireccional entre personas y/o
comunidades de aprendizaje, cuya utilización posibilita la creación de un nuevo escenario
que apoya los procesos comunicativos y didácticos [Mar2006]. El acento puesto en la
comunicación a través de la computadora marcó una tendencia, con lo cual se abandonó
el desarrollo de cursos en formato CD-ROM para dar lugar al uso de redes, en función de
las posibilidades ofrecidas por Internet para optimizar los recursos de formación
facilitando las tareas de instalación, actualización, control interactivo, entre otros.
La evolución siguió su curso producto del rotundo éxito conseguido por la Web.
Paulatinamente muchos servicios se integraron de manera tal que pudieran ser usados
con la sola ayuda de un navegador. El foco puesto en la Web llevó al desarrollo de un tipo
especial de CMC denominado educación o entrenamiento basado en Web, Web Based
Training (WBT). El término hace referencia tanto a entornos Intra o Internet, incorporando
sus recursos a la enseñanza y posibilitando la aplicación de metodologías innovadoras
[Alv2006]. Así surgieron nuevas alternativas de formación, primero en el mundo
empresarial, y luego en el ámbito universitario [Lop2003]. El fortalecimiento de Internet a
nivel mundial, el uso masivo de las computadoras y su aplicación dentro del campo
educativo, fundamentalmente en la educación superior, comenzó a ofrecer nuevos
escenarios y posibilidades para la manera de enseñar y aprender, así como la de
interactuar entre docentes y alumnos. Aunque esta tendencia tiene aproximadamente una
década de desarrollo, avanza a pasos agigantados y existen muchísimas opciones
comerciales y gratuitas para WBT.
La WBT aportó al campo educativo un nuevo soporte para compartir los contenidos de
aprendizaje. El CD-ROM cedió paso al alojamiento en computadoras conectadas a
Internet, con la posibilidad de actualizarlos de manera permanente, y así contar con el
conocimiento más reciente. Las actividades educativas comenzaron a desarrollarse en
red, a partir de la integración de los diferentes recursos disponibles en Internet, los
principales servicios y las herramientas que permitían el acceso a ellos. El audio, el video,
y fundamentalmente el hipertexto, formaron parte de los recursos que se incorporaron con
extrema facilidad, tanto en cursos presenciales como a distancia [Rod2000].
La mayor ventaja de la WBT, comparada con la CBT, fue la interacción, es decir, la
posibilitad de que alumnos y docentes se comunicaran directamente, realizaran preguntas
79
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
80
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
81
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
El entorno debe estar diseñado para ofrecer todas las prestaciones necesarias para la
formación. Actualmente, podemos encontrar una enorme diversidad, aunque la mayor
parte de ellas presentan elementos muy similares como, por ejemplo, posibilitar la
distribución de contenidos multimedia, contar con herramientas de comunicación
síncronas o asíncronas (chat, correo electrónico, foros, etc.) y herramientas de gestión.
Las herramientas de gestión son de distintos tipos según sus objetivos [Alv2006]:
1. Gestión de usuarios: según su perfil, cada usuario dispone de una serie de
permisos y actividades permitidas, administración, edición, creación de
itinerarios formativos, etc.
2. Gestión de alumnos: permite la gestión administrativa de los alumnos, altas,
bajas, comunicación de incidencias, etc.
3. Diseño de itinerarios: posibilidad de diseñar itinerarios y construir entornos
individualizados.
4. Diseño de cursos virtuales: permite la configuración sin necesidad de
conocimientos especiales, la creación y gestión de espacios con diferentes
herramientas, servicios y espacios.
5. Seguimiento de la actividad del alumno: el seguimiento tiene como objetivo
controlar la evolución del alumno y, basándose en sus resultados, orientarlo
en el transcurso de la acción formativa. Se puede supervisar tanto los
resultados de pruebas como el tiempo que los alumnos dedican a visualizar
los contenidos de cada tema, las horas de conexión, y el número de
interacciones realizadas con el resto del grupo y con el docente.
6. Planificación: posibilidad de acceder a un indicador de los hitos más
relevantes del curso, es decir, sesiones de chat, fechas para la realización
de exámenes, etc.
Existe una gran cantidad de entornos orientados a la educación universitaria, en algunos
casos se habla de más de ciento treinta [Bau2002], en otros, si se suman los desarrollos
propios de las universidades el número aumenta a varias centenas [Her2002].
Muchos de estos EVEA se utilizan en ámbitos específicos o muy reducidos, otros se han
fusionado o discontinuado en su desarrollo. Algunos, al no tener un fin comercial, no
trascienden y es muy difícil conocerlos en detalle. Luego de la “fiebre de entornos” que se
produjo hacia fines del siglo XX, donde cada institución o empresa creaba su propia
solución, sobrevino otra etapa caracterizada por un análisis pormenorizado de ellos desde
la óptica educativa, donde los investigadores en educación, y docentes criticaron el
excesivo peso que, hasta el momento, se había puesto sobre los criterios técnicos en
desmedro de los pedagógicos, didácticos, y comunicacionales. Con el paso del tiempo, se
produjo por un lado una decantación, y por el otro, una vertiginosa evolución de los
entornos que contaban con mayor calidad y apoyo, tanto desde el punto de vista
institucional, económico, de la comunidad de usuarios o desarrolladores. En la actualidad,
dentro del ámbito internacional se encuentran aproximadamente 40 productos de este tipo
que han logrado preponderancia en el sector [Fer2007b]. En la tabla 4, se presentan los
15 productos con mayor difusión y aceptabilidad a nivel internacional [Mar2008].
82
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
.LRN e-College
Sakai Desire2Learn
5.2.1 Clasificación
Los entornos virtuales pueden agruparse de diferentes maneras. Uno de los puntos de
vista que más auge e importancia ha tomado es aquel que los divide en software
propietario y software libre, una clasificación que no sólo atañe a los entornos virtuales
sino al software en general. Es trascendente este análisis debido a varias cuestiones que
atraviesan la educación, como las socioculturales y las económicas. Las instituciones de
carácter público han prestado gran atención a los desarrollos libres, más aún luego de los
cambios en la política de algunos productos como Blackboard, que al fusionarse con
WebCT pasó a ser en producto pago y dejó a gran cantidad de centros educativos en la
disyuntiva de comenzar a pagar por el uso del EVEA o migrar todos sus cursos a otro
entorno, con los costos que ello implica. Sin embargo, dentro del campo del software libre
también se han producido cambios que dificultaron el accionar de los centros educativos.
Algunos desarrollos libres de gran éxito, pronto abandonaron sus ideas fundacionales y se
orientaron hacia el ámbito empresarial. Claroline es el caso más notorio dado que uno de
sus principales creadores se separó del proyecto y creó Dokeos (tomando como base el
código fuente de Claroline). El quiebre se produjo porque deseaba orientar el sistema
hacia las empresas en lugar de mantenerlo dentro del contexto académico. Claroline
mantuvo su política, pero Dokeos la sobrepasó ampliamente gracias a la gran cantidad de
83
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
84
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
85
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
86
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
tecnología utilizada y tiene que ver con la flexibilidad y capacidad de adaptarse al cambio.
Desde este punto de vista, son un espacio en formato de sitio Web, que permite el
desarrollo de actividades de una forma diferente al cara a cara tradicional. En el aula
virtual el alumno tiene acceso al programa del curso, los materiales, las actividades y
diversas herramientas de interacción con sus pares y sus docentes, tales como foros de
discusión, charlas en vivo y correo electrónico. Las características pedagógicas tienen
que ver específicamente con el proceso de enseñanza y aprendizaje. En tal sentido deben
tenerse en cuenta aspectos referidos al seguimiento del progreso del estudiante,
comunicación interpersonal, trabajo colaborativo, gestión y administración de los alumnos,
creación de ejercicios de evaluación y autoevaluación, acceso a la información y
contenidos de aprendizaje e interacción.
El aula se transforma en un espacio de intercambio y de discusión a partir de una serie de
posibilidades que el usuario puede seleccionar para incorporar sus producciones, discutir
sobre determinados temas o transferir contenidos que le son de utilidad para su proceso
de aprendizaje. Se trata de un espacio abierto y dinámico enriquecido con los aportes de
los propios alumnos y de los docentes, quienes pueden disponer, en términos didácticos,
de materiales equivalentes a los que tiene en el aula presencial. Su configuración final
muestra la dinámica de trabajo y el resultado de la aplicación de diferentes estrategias de
aprendizaje.
Las aulas virtuales cuentan con los elementos necesarios a los efectos de poder cursar,
tutorizar, gestionar, administrar, y evaluar las actividades educativas. Además, facilitan la
generación de procesos de comunicación entre docentes y alumnos que no pueden
llevarse a cabo de manera presencial. Los procesos de enseñanza y aprendizaje,
mediados por el aula virtual, combinan momentos de trabajo personal, contacto con
profesores y de trabajo colaborativo. Los materiales elaborados por alumnos y docentes
se confeccionan con distinto tipo de software y se trasmiten en formato digital por medio
de redes [Ort2000].
Se trata de una metáfora que incluye espacios para las clases en grandes grupos,
biblioteca, tutoría personalizada, actividades en pequeños grupos, espacio para el trabajo
cooperativo, e incluso espacios para charlas informales [Ade1998]. En la actualidad la
denominación está cambiando, ya que la metáfora de aula presencial, nos remite a un
espacio compartido en el cual se desarrollan diferentes cursos, con distintos alumnos y
docentes, mientras que el aula virtual está caracterizada por la interacción de un mismo
grupo de alumnos, docentes y materiales de aprendizaje, a lo largo de un determinado
proceso educativo. Podríamos decir que un aula real, presencial, es vehículo para el
desarrollo de varios cursos o asignaturas en diferentes días y horarios, mientras que un
aula virtual es un espacio único para el desarrollo de un curso. De allí que la metáfora
resulte un tanto confusa, aunque muy utilizada. A los efectos de evitar apartarnos de las
denominaciones comunes encontradas en la bibliografía, pero sin dejar de reconocer los
problemas que ocasiona el término, tomaremos aula virtual como sinónimo de curso,
asignatura o materia virtual.
La función de los EVEA es poner a disposición espacios virtuales que utilizan los
diferentes servicios de Internet, herramientas y recursos, registrando todo el flujo de
información producido a lo largo de la actividad educativa, para luego ser consultada de
diferentes maneras a los efectos de extraer información útil para el desarrollo,
seguimiento y evaluación.
87
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
88
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
89
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
90
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
91
Capítulo 5: Entornos Virtuales de Enseñanza y Aprendizaje, y su evaluación
5.6 Conclusiones
El uso de tecnologías informáticas en la educación se remonta a la enseñanza asistida
por computadora, conocida como Computer Based Training (CBT), y basada en el uso del
CD-ROM. El avance de las telecomunicaciones, produjo una evolución conocida como
Comunicación Mediada por Computadora (CMC) [Lop2003]. El rápido dominio de la Web,
entre los servicios de Internet, incentivó el desarrollo de la Web Based Training (WBT)
como nuevo soporte para compartir los contenidos de aprendizaje e interactuar con ellos.
Posteriormente, la WBT dio un salto de calidad hacia los Entornos Virtuales de
Enseñanza y Aprendizaje (EVEA), que integran diferentes herramientas y servicios con un
fin educativo, capaz de gestionar y desarrollar actividades de formación de carácter
virtual.
Los EVEA son aplicaciones informáticas que funcionan vía Web, y que fueron diseñados
con el propósito de facilitar la comunicación pedagógica entre los participantes en un
proceso educativo bajo diferentes modalidades. Existe una gran cantidad de EVEA en el
ámbito internacional, más de cien [Bau2002][Her2002], de los cuales aproximadamente
cuarenta han logrado preponderancia [Fer2007b], siendo Moodle, .LRN, Sakai (código
abierto), Blackboard-WebCT, e-College, y Desire2Learn (comerciales), los de mayor
difusión a nivel universitario.
La evaluación de cada EVEA está orientada a valorar su calidad, para llevar adelante
procesos de enseñanza y aprendizaje de forma on-line. Los modelos de evaluación
sintetizados analizan los EVEA poniendo el foco sobre las funcionalidades que ofrecen
[Fer2007b]. Sin embargo, la validación no ha de centrarse únicamente en el acceso a las
herramientas concretas sino al ensayo con alumnos reales [Sal2006], en contextos de uso
reales. Estos modelos fueron pensados cuando las características diferían bastante entre
un EVEA y otro. En la actualidad, las cuestiones ligadas a la usabilidad son centrales
porque tienen directa relación con la calidad de estos productos Web. De los modelos
analizados, sólo dos mencionan la usabilidad, pero acotada a la facilidad de uso, el
cumplimiento de ciertos estándares, o a la interfaz [Fer2009].
Por ese motivo se cree necesario definir un nuevo modelo, que tomando las experiencias
e investigaciones existentes, proponga una nueva manera de evaluar los EVEA, desde
una mirada centrada en la usabilidad.
92
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
93
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
Desde el punto de vista del momento de aplicación de cada método durante el ciclo de
desarrollo de una aplicación Web y posterior al mismo, se puede decir que, si bien, existe
cierto grado de solapamiento, los métodos de indagación están más orientados hacia las
etapas tempranas de desarrollo, los métodos de inspección a las etapas medias y los
métodos de test las etapas avanzadas y tardías, como lo muestra la figura 13.
94
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
i n d a g a c i ó n
i n s p e c c i ó n
t e s t
Figura 13 – Aplicación de los métodos dentro del ciclo de desarrollo de una aplicación Web
A continuación se desarrollarán los métodos de evaluación de usabilidad que
consideramos más interesantes, o que más nos pueden ayudar, a la hora de evaluar sitios
Web orientados a favorecer los procesos de enseñanza y aprendizaje en contextos
virtuales (figura 14).
Métodos de inspección
• Evaluación heurística
• Recorridos Cognitivos
• Inspección Formal
• Inspección de Características
• Inspección de Estándares
Métodos de indagación
• Aproximación Contextual
• Aproximación etnográfica
• Indagación Individual
Métodos de Test
• Test de usuario clásico
• Test remoto
• Test Observacional
• Protocolos de Expresión del
Usuario
95
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
muy tempranamente en el ciclo de desarrollo del software [Des1991] así como también en
la etapa final o a un producto terminado.
Existen varios métodos que pueden catalogarse como de inspección. Una buena parte de
ellos, como las inspecciones formales o sus variantes, tienen su raíz en las revisiones
estáticas de código [Jur2006], y su forma de aplicación es similar a ellas.
Las inspecciones de usabilidad son tenidas en cuenta debido a su rentabilidad y rapidez
de aplicación respecto a otros métodos tradicionales [Alv2005]. Por ejemplo, las
observaciones directas o por video demandan muchos recursos y tiempo, y no siempre
aportan buenos resultados debido a que se desarrollan en un escenario poco natural
[Nie1993b].
De todas maneras, los métodos de inspección tampoco son perfectos. Su uso combinado
puede ayudar a mejorar los resultados obtenidos. La idea es hacer una evaluación de la
usabilidad por expertos (desarrolladores, especialistas, usuarios seleccionados)
basándose en una serie de criterios pre-establecidos. Los casos más habituales son, la
evaluación heurística y el recorrido cognitivo.
96
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
97
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
observaciones en el uso del sitio Web. Además, al trabajar con pocos evaluadores es
posible dialogar con ellos, colaborar, evacuar dudas o realizar un análisis más fino de
puntos clave dentro del sitio.
6.1.1.1.1 Evaluadores
La evaluación heurística es un método de inspección de la interfaz de un sitio Web, donde
el usuario final no tiene participación en el proceso [Cat2000]. Los evaluadores del sitio
son especialistas en usabilidad cuya experiencia es directamente proporcional a la
cantidad de problemas encontrados [Nie1992]. Existe un acuerdo general respecto a que
diferentes evaluadores encuentran distintos tipos de problemas en un sitio Web y que el
incremento del número de evaluadores contribuye a mejorar el porcentaje de problemas
encontrados [Jac1998]. La cantidad de errores detectados respecto a la cantidad de
evaluadores sigue una escala logarítmica, por lo tanto, es de vital importancia utilizar más
de un evaluador. El problema es determinar cuál es la cantidad óptima, ya que, a mayor
cantidad de evaluadores también se necesita mayor disponibilidad de tiempo, logística y
recursos.
Al respecto existen diferentes propuestas: Nielsen [Nie1994] sugiere un mínimo de tres y
un máximo de cinco, debido a que una mayor cantidad de evaluadores reduce el beneficio
drásticamente y la proporción de rentabilidad es más alta cuando la cantidad oscila entre
estos valores. Quinn [Qui1996] establece que el número óptimo de evaluadores se
encuentra entre 6 y 8, sobre todo en los casos donde la usabilidad es un criterio clave.
Otros estudios establecen que 5 evaluadores detectan el 80% de los problemas, mientras
que 15 detectan el 100%. La determinación de estos parámetros es empírica, producto de
numerosos ensayos y experiencias. Más allá de las diferentes propuestas, lo concreto es
que no puede delegarse la tarea de inspección a una sola persona, es necesario por lo
menos 3 evaluadores. La cota superior puede determinarse en función del tamaño del
sitio, la importancia de los estándares en el mismo, el tipo y cantidad de usuarios que
harán uso de él, y los recursos disponibles. Sin embargo, para poder aprovechar las
principales ventajas del método, como rapidez y facilidad de aplicación, la cota superior
podría establecerse en 5 expertos, un número que es aceptado dentro de la comunidad
de investigadores en el área.
98
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
99
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
- las descripciones de las tareas que los usuarios realizarán con el sistema.
- una lista de las acciones correctas que un usuario debe realizar para lograr las
tareas con un prototipo particular.
El recorrido cognitivo combina la navegación del sitio Web con la teoría CE+. Es un
método que se centra en evaluar mediante exploración la facilidad de aprendizaje de un
diseño. Está motivado en que muchos usuarios prefieren aprender a utilizar una
aplicación en base a explorar sus posibilidades [Wha1992]. Consiste en simular todos y
cada uno de los pasos (dudas, decisiones, etc.) que se plantea el usuario al navegar por
un sitio Web, con el objeto de predecir problemas de usabilidad pero sin realizar tests con
usuarios reales.
La evaluación, utilizando el recorrido cognitivo, puede aplicarse tanto en las etapas
tempranas de diseño, como antes de la puesta en marcha del sistema [Cat2000]
[Alv2005]. En el primero de los casos se pueden utilizar prototipos en papel, maquetas
Web, o prototipos tempranos realizados sobre la base de páginas html estáticas, donde el
comportamiento sea simulado o pueda deducirse. Esto permite estimar la facilidad de
aprendizaje a través de prototipos del sistema, haciendo posible evaluar el software en las
etapas iniciales de desarrollo, aún cuando no está del todo claro el contexto de uso, y por
ende, no hace falta recurrir a los usuarios finales. Algunos autores interpretan que esto es
beneficioso debido a que puede reducirse el tiempo y el costo de la evaluación [Pol1992],
mientras que otros lo ven como un punto débil, puesto que representa una carga muy
pesada en tiempo para los evaluadores y genera resistencia por parte de los mismos
[Row1992].
Para aplicar el método, los evaluadores expertos construyen escenarios para las tareas a
partir de una especificación o prototipo inicial, y después asumen el rol del usuario
trabajando con esa interfaz como si estuviera completamente construida, es decir,
mediante la realización de tareas imitan a los usuarios finales de esa interfaz. Dando un
paseo por la interfaz, ejecutan y recorren las funciones más usuales del sistema. Durante
la realización de cada tarea se controla y registra cada paso que el usuario debe realizar.
Se pone especial atención a la presencia de callejones sin salida, caminos complejos o
sinuosos a través de las secuencias de funciones. Aquellos pasos en los que el usuario se
bloquea, se torna dificultoso completar la tarea o directamente no consigue terminarla,
implican que la interfaz presenta algún problema, o bien falta alguna función que
simplifique la ejecución de la misma [Hom2003]. Es decir, se intenta establecer el
comportamiento que tendrá el usuario frente a la interfaz, y prever los posibles errores con
los que pueda encontrarse.
Para evaluar la interfaz de la forma más realista posible, los evaluadores, además de
situarse en el lugar de los usuarios finales, deben recibir el mismo trato que recibirán
ellos, como por ejemplo, acceder a versiones demo, leer manuales, interactuar con
tutoriales, realizar un seminario, concurrir a una charla, completar guías de tareas, o
recibir ayuda de parte de personal capacitado [Cat2000].
En el caso que el método se aplique a un sistema en su fase final de desarrollo, la interfaz
utilizada será la real. La ventaja de aplicar la metodología en una etapa avanzada es que
no hace falta imaginarse, mediante un prototipo, cómo funcionaría el sistema en un
entorno real. La desventaja principal radica en que pueden aparecer problemas de difícil
solución que obliguen al rediseño de buena parte del sistema y la interfaz.
100
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
101
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.1.1.3.1 Evaluadores
102
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
Los evaluadores que participan del recorrido cognitivo plural son de tipos diferentes,
buscando miradas de diverso origen, de allí deviene la pluralidad. Los evaluadores se
clasifican en tres tipos: los usuarios representativos, los desarrolladores del producto, y
los expertos en usabilidad [Bia1994b]. Todos los evaluadores asumen el papel de
usuarios.
103
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.1.1.4.1 Evaluadores
Los expertos que participan de este tipo de métodos son especialistas que pertenecen a
diferentes áreas de la ingeniería de software: diseño, desarrollo, calidad, documentación y
supervisión. De acuerdo a la cantidad de áreas que abarcan los evaluadores se considera
razonable un grupo de entre 4 y 8 expertos.
104
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.1.1.5.1 Evaluadores
Es necesario contar con expertos en usabilidad con conocimiento exhaustivo de
estándares Web como los planteados por el W3C.
6.1.1.6.1 Evaluadores
Para llevarlo a cabo se recurre a un experto en usabilidad con un conocimiento exhaustivo
de Internet.
105
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.1.1.7.1 Evaluadores
Es necesario contar, al igual que en la evaluación heurística, con un grupo de expertos en
usabilidad.
106
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
del producto. Si bien la indagación tiene mayor sentido en las etapas tempranas de
desarrollo, no se descarta su utilización en otros momentos, inclusive luego de liberado el
producto.
107
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
108
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
pero también requerirá de más tiempo tanto para implementarlo como para obtener los
resultados.
109
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
110
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
referido a las técnicas. Algunos autores no diferencian entre método y técnica, otros sí lo
hacen, pero con miradas diferentes. Están aquellos que catalogan como método lo que
otros interpretan como técnica y viceversa. Según Alva [Alv2005], las técnicas existentes
son los grupos de enfoque, pensamiento en voz alta, co-descubrimiento, cuestionarios,
entrevistas, encuestas y listas de verificación. En tanto para Cobo [Cob2005], es lo mismo
método y técnica, incluyendo también algunas herramientas: evaluación heurística, test de
usuarios, paseo cognitivo, pensamiento en voz alta, análisis de log, cuestionario,
entrevista, SUMI y QUIS (estos dos últimos se explican más adelante).
Desde nuestro punto de vista, nos parece más adecuado diferenciar entre métodos,
técnicas, y herramientas por las siguientes razones:
Los métodos están orientados a la forma de evaluar atributos importantes de
usabilidad de un producto.
Las técnicas definen un conjunto de actividades a ejecutar por los evaluadores con el
objetivo de obtener una colección de datos válidos para la evaluación del producto.
Finalmente, las herramientas son las encargadas de apoyar y agilizar el proceso de
recolección de datos.
A continuación presentamos una revisión de las técnicas más relevantes de apoyo a la
evaluación y medición de usabilidad de sitios Web. Por otro lado, realizaremos un análisis
de las ventajas y desventajas que presenta cada una de ellas.
6.2.1 Cuestionarios
Los cuestionarios son un medio útil y eficaz para recoger información en un tiempo
relativamente breve [Oso2000]. Se trata de una técnica basada en preguntas dirigidas a
los usuarios potenciales del producto respecto a una o más variables a medir. El
cuestionario puede aplicarse a grupos o individuos, estando presente el investigador o el
responsable de recoger la información, o puede enviarse por correo electrónico o postal a
los destinatarios seleccionados en una muestra [Man2004]. Las personas que responden
el cuestionario proporcionan información por escrito sobre sí mismos o sobre un tema
dado. En su construcción pueden considerarse preguntas de todo tipo. La elección del
tipo de preguntas que contenga el cuestionario depende del grado en que se puedan
anticipar las posibles respuestas, los tiempos de que se disponga para codificar y si se
quiere una respuesta más precisa o profundizar en alguna cuestión. El objetivo es obtener
información sobre las actitudes, opiniones, deseos y expectativas de los usuarios
[Ant1995][Gam2003]. El diseño de los cuestionarios puede estar a cargo del diseñador del
producto, del evaluador del mismo, o de un experto en la materia. Algunos cuestionarios
son listas de verificación muy estructuradas, denominadas también entrevistas
estructuradas, mientras que otros son totalmente abiertos. Por lo general un buen
cuestionario está balanceado entre preguntas abiertas y estructuradas. El evaluador, de
alguna forma, debe entregar el cuestionario a los usuarios para que éstos lo contesten y
luego recibir la respuesta de los mismos [Flo2000]. Los cuestionarios son útiles e
informativos en todas las fases de diseño y desarrollo de la aplicación, pero es necesario
un número adecuado de usuarios de prueba para poder encontrar las preferencias
subjetivas del usuario [Alv2005]. Requieren esfuerzo adicional del usuario para leer,
comprender la pregunta y responderla, escribiendo la respuesta. Cuanto más estructurado
sea un cuestionario menor probabilidad de sesgo presenta.
111
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
112
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.2.1.3 Escalas
Una escala es una serie de ítems o frases que han sido cuidadosamente seleccionados,
de forma que constituyan un criterio válido, fiable y preciso para medir. Dependiendo del
nivel de medición deseado, las escalas pueden ser:
- Escala nominal: también conocida como escala de categoría. Está basada en la
selección de una alternativa entre un conjunto limitado. Estas alternativas representan
diferentes grados de subjetividad [Itu1995].
Por ejemplo: indicar como considera la velocidad de carga de la página H.
A: Excelente, B: Muy Bueno, C: Bueno, D: Regular, E: Malo
- Escalas de comparación: está basada en la comparación que debe realizar el
usuario entre dos tareas o condiciones de acuerdo a un atributo determinado.
Por ejemplo: califique velocidad de carga de las páginas del sitio A respecto del sitio B,
y marque la opción que mejor exprese su opinión:
Mucho mejor, mejor, igual, peor, mucho peor.
- Escala de valoración continua: consiste en una línea sin divisiones, representando
puntos continuos o solo un punto medio entre ellos. Cada punto es definido por una
etiqueta característica de definición o adjetivo.
113
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
Acuerdo 1 2 3 4 5 Desacuerdo
o Gráfica:
|-----------------|---------------|----------------|-----------------|
114
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.2.1.4 Ventajas
Los cuestionarios son ampliamente utilizados debido a ventajas que se les atribuyen:
o La eficacia, facilidad y rapidez para obtener la información deseada,
cuantificarla, analizarla e interpretarla, sobre todo cuando se trata de
cuestionarios altamente estructurados. De allí su popularidad y uso extensivo.
o Pueden aplicarse en todas las fases de diseño y desarrollo.
o Resultan menos costoso que entrevistar, por ejemplo, a cientos de empleados.
o Requieren poco tiempo para reunir información sobre grupos numerosos, en
caso de ser altamente estructurado.
o Proporcionan información sobre un mayor número de usuarios en un periodo
corto de tiempo.
6.2.1.5 Desventajas
o La falta de sinceridad en las respuestas escondiendo la verdad o produciendo
alteraciones en el afán de causar buena impresión.
o La tendencia a decir que "si" a todo.
o La uniformidad de los resultados puede ser aparente, pues una misma palabra
puede ser interpretada en forma diferente por personas distintas, o ser
comprensibles para algunas y no para otras.
o Las respuestas pueden ser poco claras o incompletas, haciendo muy difícil la
tabulación.
o Los usuarios pueden evadir la respuesta a ciertas preguntas o no darle la
importancia necesaria a las respuestas proporcionadas.
o La sospecha de que la información puede volverse en contra del usuario que la
aporta.
o El esfuerzo del usuario para leer, comprender la pregunta y responderla
escribiendo la respuesta.
o La influencia de la simpatía o la antipatía, tanto con respecto al evaluador como
con respecto al producto que se evalúa.
115
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.2.2 Entrevistas
Es una técnica para obtener datos que consisten en un diálogo entre dos personas. Se
trata de un proceso de interacción dinámica de comunicación entre el entrevistador y el
entrevistado, bajo control del primero. La finalidad es conseguir información lo más
implicante posible, sobre el objeto de análisis que se plantea.
Las entrevistas posibilitan al evaluador realizar preguntas a los usuarios acerca de sus
experiencias y preferencias respecto de una aplicación Web, solicitando que expresen sus
opiniones y comentarios acerca de la misma [Flo2000]. Ayudan al evaluador a establecer
el grado de satisfacción del usuario en el uso del producto, y conocer acerca de las
características que le agradan y las que no [Nie1992b].
Las entrevistas son muy utilizadas en casos donde es necesaria una gran flexibilidad
tanto para las preguntas como para las respuestas. Sin embargo, no están recomendadas
para cuando se desea utilizar una muestra grande de usuarios, debido a que la diversidad
de respuestas obtenidas dificulta una estandarización y requiere de un análisis cualitativo.
Frecuentemente son utilizadas luego de distribuir el producto con el objeto de valorar la
satisfacción del usuario, aunque también pueden resultar útiles en etapas tempranas de
desarrollo [Cla1999].
Las preguntas de una entrevista deben ser objetivas y estar bien planificadas. Ello es muy
importante para asegurar consistencia entre entrevistas a diferentes usuarios y por
diferentes entrevistadores.
Suelen utilizarse cuando se requiere obtener información muy compleja o confidencial. Se
estima que este método es más eficaz que el cuestionario, ya que permite obtener una
información más completa. A través de ella, el evaluador puede explicar el propósito del
estudio y especificar claramente la información que necesita, si hay una interpretación
errónea de la pregunta permite aclararla, asegurando una mejor respuesta. En general,
las entrevistas pueden servir de base y de complemento a los cuestionarios. En tal
sentido pueden aplicarse al inicio de una evaluación para recoger información general y
luego construir un cuestionario que se apoye en la información recogida previamente. Una
vez aplicado el cuestionario, y analizados los datos, puede utilizarse la entrevista
nuevamente a los efectos de clarificar sus resultados. De todos modos no hay reglas
absolutas para el uso de entrevistas, ya que depende de las circunstancias y el tipo de
aplicación Web que pretende ser evaluada.
Las entrevistas se utilizan cuando el universo de usuarios es pequeño y manejable, o
cuando se considera necesario que exista interacción y diálogo entre el evaluador y el
usuario.
116
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
117
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.2.2.2 Ventajas
Las entrevistas poseen muchas ventajas, de allí que sean tan utilizadas:
Permiten el uso de preguntas variadas para ajustar el contexto.
Posibilitan indagar más profundamente sobre nuevos problemas que surgen.
Son adecuadas para realizar estudios exploratorios.
Frecuentemente conducen a sugerencias constructivas específicas.
Son eficientes para evaluación de alto nivel: preferencias, impresiones, actitudes, y
opiniones.
Resultan útiles para identificar posibles áreas que necesitan de un análisis más
detallado.
Son muy directas, fáciles de dirigir, y más rápidas que las técnicas
observacionales.
Los análisis estadísticos pueden ser ejecutados sobre las respuestas de los
usuarios. Los datos recogidos proporcionan información sobre reglas y principios
generales.
Son útiles para investigar eventos que no ocurren frecuentemente y pueden ser
grabadas para análisis futuros.
Son relativamente fáciles de repetir, por lo que proporcionan resultados a lo largo
del tiempo.
6.2.2.3 Desventajas
El problema principal de esta técnica es la distorsión de la información, ya sea
debido a una falsificación directa o una simple equivocación.
Los datos obtenidos son subjetivos.
118
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.2.3 Encuesta
Es una técnica cuantitativa muy empleada dentro de los test de usuario [Rey2007]. Está
destinada a obtener datos de varios usuarios cuyas opiniones impersonales interesan al
evaluador. Consiste en una investigación realizada sobre una muestra representativa de
usuarios. Se utilizan procedimientos estandarizados de interrogación con el fin de
conseguir mediciones cuantitativas sobre una gran cantidad de características objetivas y
subjetivas de los encuestados.
A diferencia de la entrevista, se utiliza un listado de preguntas escritas que se entregan a
los usuarios, a fin de que las contesten igualmente por escrito. Ese listado se denomina
habitualmente cuestionario.
Es impersonal porque no lleva identificación de la persona que lo responde, ya que no
interesan esos datos. Se puede aplicar a una muestra importante de usuarios debido a
que resulta mucho más económica que las entrevistas.
En muchas ocasiones se utiliza encuesta y cuestionario como sinónimos. Sin embargo, la
encuesta es el proceso de investigación, mientras que el cuestionario es la herramienta
para llevar a cabo la investigación. Es decir, la encuesta es la forma de recopilar la
información, mientras que el cuestionario es el instrumento de recogida de datos con el
cual se realiza la recopilación [Rey2007].
Existen varias formas de suministrar las encuestas:
Personalmente: se realizan cara a cara con el usuario. A diferencia de las entrevistas,
el entrevistador no es el evaluador sino un encuestador que solo se limita a aplicar la
encuesta y recabar los datos. Aporta muchas ventajas ya que permite preguntar sobre
cuestiones más complejas con mayor detenimiento, produce por parte del entrevistado
mayor participación, aunque económicamente es más costosa. Este hecho hace que
se utilicen menos que las autoadministradas.
Autoadministradas: son completadas por el mismo usuario. Se utilizan técnicas
remotas.
o Por correo electrónico: son las más baratas, fáciles, rápidas de contestar, y
no es necesario usar tiempo del personal para recopilar las respuestas de
los usuarios. Puede ser anónimo y llegar a lugares difíciles de acceder
personalmente. Tienen el inconveniente de poseer un bajo índice de
respuestas, lo que puede hacer que la muestra no sea representativa.
119
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
120
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.2.3.2 Ventajas
El método de muestreo, si se aplica apropiadamente, puede producir resultados de
alta calidad sobre las actitudes y opiniones de una población.
Son fáciles de repetir, proporcionando así resultados a lo largo del tiempo.
Permiten obtener información de casi cualquier tipo de población y hechos pasados
de los encuestados.
Poseen gran capacidad para estandarizar datos, lo que permite su tratamiento
informático y el análisis estadístico.
Son relativamente baratas para la información que se obtiene con ello.
121
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.2.3.3 Desventajas
Aunque depende de cuán apropiada sea la muestra, conseguir todas las personas
planeadas para participar en la investigación es muy difícil y costoso.
Normalmente el muestreo es muy complejo, y siempre hay grupos de la población
imposibles de investigar.
La encuesta tiene que ser fija para todos los participantes, lo que hace difícil el
estudio de casos particulares.
No permite analizar con profundidad temas complejos. Para ello es necesario
recurrir a grupos de discusión.
122
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.2.4.1 Ventajas
Las principales ventajas son:
Especialmente adecuado para analizar sitios Web.
Muy económico, puesto que pueden analizarse las acciones de un número de
usuarios muy elevado.
No se necesita la presencia física de los usuarios ni un espacio especial para la
tarea.
Al poder realizarse remotamente, permite evaluar un gran número de datos de
infinidad de usuarios sin desplazarse a su lugar de procedencia.
Los datos suelen tener un formato estándar, lo que facilita la comparación de datos
según diferentes criterios (meses, días, semanas, países, etc.).
Los resultados se obtienen de manera instantánea. No es necesario esperar a un
análisis especial de expertos para entender qué ha pasado, ni se necesitan
transcripciones.
Permite tener al usuario en su entorno habitual ya que el registro se recoge con el
usuario en su computadora sin sentirse observado y ofreciendo datos más reales
sobre el uso.
Muestras amplias de usuarios.
Muestreo de los usuarios a lo largo del tiempo, recogiendo así su variabilidad.
Se detecta fácilmente el verdadero uso del sitio: páginas más vistas, palabras más
buscadas, entre otras.
Se puede utilizar en etapas de prueba de versiones avanzadas del sistema,
pruebas beta, lanzamientos recientes, o nuevas versiones. También son
especialmente indicadas para el rediseño de aplicaciones existentes.
Puede observarse que el análisis de log es muy apropiado para saber las acciones que
los usuarios realizan en los sitios Web. El análisis de los archivos de log, que los usuarios
anónimamente van dejando en los servidores Web, permite realizar reajustes al sitio para
mejorar, entre otros aspectos, la usabilidad del mismo.
123
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
Busca lograr mayor objetividad que otras técnicas que son dependientes de las
expresiones y comentarios del usuario. Además, aporta información valiosa sobre qué
elementos de una interfaz son realmente vistos por un usuario.
El seguimiento visual permite seguir los movimientos oculares de una persona para
evaluar la forma en la que esta dirige su mirada a una escena o imagen, en qué áreas se
fija, durante cuánto tiempo y el orden que sigue en su exploración visual. Esto se
consigue mediante una serie de dispositivos tecnológicos conocidos generalmente como
eyetracker. Estos dispositivos siguen los cambios de posición y movimiento de la pupila
mediante rayos infrarrojos que son lanzados a los ojos del usuario, estos rayos rebotan en
su pupila y vuelven al aparato, permitiendo así calcular con precisión donde está mirando.
Hay varios tipos de dispositivos, generalmente, compuestos por una cámara de vídeo de
alta resolución y LEDs de luz infrarroja situados al lado de la pantalla. Los fotogramas
capturados por la cámara son procesados mediante un software que calcula, en base a la
localización de la pupila, en qué parte de la pantalla se está mirando. En otros casos,
existen monitores que integran los infrarrojos y una Webcam, con el objetivo de pasar
totalmente desapercibidos para el usuario.
Los dispositivos son combinados con programas específicos, como ClearView [Cle2011] y
VisioAnalyzer [Vis2011], que procesan los datos registrados y producen imágenes donde
se señala con diferentes colores los lugares que registran más o menos atención por
parte del usuario. Las imágenes proporcionan, de manera muy clara, el comportamiento
visual del usuario. Otros programas también registran los clics y movimientos del mouse
para lograr mapas más completos. Existen diferentes tipos de mapas: de calor, de zonas
ciegas, y de puntos y líneas:
El mapa de calor presenta las zonas donde el usuario ha fijado más su atención.
El mapa de zonas ciegas indica cuáles han sido las únicas zonas en las que el
usuario se ha fijado.
Los puntos y líneas representan donde se ha fijado el usuario. Si el punto es de
mayor tamaño significa que la fijación ha sido mayor. Los puntos van unidos con
una línea para poder seguir mejor el movimiento de los ojos.
Los dispositivos de seguimiento visual son caros y necesitan de cierta calibración antes
de ser utilizados por cada usuario, sin embargo aportan un rendimiento excepcional para
analizar dónde miran los visitantes de un sitio Web.
En materia de usabilidad, esta tecnología permite nuevas posibilidades de observación y
análisis, y supone un aporte significativo para los test de usuarios. Sin embargo, está
acotada a laboratorios de usabilidad donde esté montada toda esta tecnología.
En general, estos dispositivos no producen molestias al usuario puesto que ellos no tienen
contacto con el aparato ni se obstruye su campo de visión. Este aspecto es especialmente
relevante en los test de usabilidad, donde es importante que el usuario se sienta en un
entorno lo más normal y cómodo posible.
Muchas conclusiones sobre usabilidad se han podido comprobar a partir del uso de los
dispositivos de seguimiento visual, como por ejemplo:
El texto atrae más la atención que las imágenes.
La parte superior izquierda de la pantalla es la que mayor atención conlleva en un
primer momento para el usuario, para después fijar su atención progresivamente
hacia abajo y hacia la derecha.
124
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.3 Herramientas
Actualmente existentes herramientas que apoyan la evaluación de usabilidad en
productos software o artefactos Web. Para el caso específico de la accesibilidad también
existe una gran cantidad de herramientas de revisión automática. A continuación se hace
una revisión de estas herramientas.
6.3.1 Usabilidad
Por lo general se trata de cuestionarios on-line que deben ser completados por un
experto, luego de realizar la evaluación sistemática del sitio Web. Posibilitan obtener una
valoración del grado de usabilidad del sitio según distintos criterios.
6.3.1.1 SUMI
SUMI (Software Usability Measuring Inventory) [Bev1995b] es un cuestionario de 50 ítems
basados en el estándar ISO 9241-10 [ISO1998c] y el ISO/IEC 9126-1 [ISO2001], utilizado
para medir la satisfacción y valorar la percepción del usuario de la calidad del software.
SUMI proporciona un método válido para la comparación de productos diferentes y
versiones del mismo producto.
Para poder obtener resultados confiables, este cuestionario debe ser aplicado a una
muestra de 10 usuarios representativos y con alguna experiencia con el tipo de software
que va a evaluarse. Los resultados proporcionados están basados en una base de datos
estandarizada que consta de perfiles de usabilidad de más de 2.000 clases diferentes de
aplicaciones (procesadores de textos, hojas de cálculo, paquetes CAD, programas de
comunicaciones, entre otros).
SUMI está disponible en varios idiomas pero no es gratuito.
6.3.1.2 WAMMI
WAMMI (Web site Analysis and MeasureMent Inventory) [Kir1998] es un cuestionario
basado en escenarios para la evaluación de la calidad en uso para sitios Web. Se trata de
una extensión de SUMI orientada hacia la medición de la usabilidad en la Web. Permite
obtener una medida de la satisfacción desde la perspectiva del usuario a través de cinco
dimensiones: atractividad, control, eficiencia, utilidad y aprendizaje. Puede ser utilizada de
tres modos básicos, de acuerdo a la etapa de desarrollo del sitio:
• Predicción: para determinar la reacción de los visitantes antes del lanzamiento
definitivo.
• Monitorización: para conocer las razones de la conducta del usuario.
• Referencia: para conocer lo que piensan los usuarios del sitio respecto de otros
similares.
125
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.3.1.3 IsoMetrics
IsoMetrics (IsoMetrics Usability Inventory) [Ged1999] es un cuestionario de evaluación de
usabilidad basado en cuestionarios ya existentes y validados. Consta de 151 preguntas
basadas en el estándar ISO 9241-10 [ISO1998c] cuyos principios son los siguientes:
• Adecuación a la tarea: en qué medida la interfaz soporta el trabajo eficiente y
eficaz del usuario en la realización completa de la tarea.
• Auto-descripción: en qué medida el sistema ofrece retroalimentación para hacer la
secuencia de dialogo más comprensible al usuario, o si explica al usuario sobre los
requisitos de información más relevante.
• Control: en qué medida el usuario mantiene la dirección sobre el curso de la
interacción hasta que la meta haya sido lograda.
• Conformidad con las expectativas del usuario: si se corresponde con el
conocimiento de la tarea, educación, experiencia del usuario y las convenciones
adoptadas normalmente.
• Tolerancia de error: en qué medida, a pesar de la evidencia de errores en la
entrada, los resultados propuestos pueden ser logrados con ninguna o con las
mínimas acciones correctivas.
• Adecuación para la individualización: representa en qué medida el sistema de
diálogo puede ser modificado o ajustado a las necesidades y habilidades
individuales del usuario para una tarea dada.
• Adecuación para el aprendizaje: en qué medida se guía al usuario a través de las
secuencia de uso de la aplicación, minimizando el tiempo de aprendizaje.
IsoMetrics formó parte de un proyecto que no tiene continuidad actualmente.
6.3.1.4 QUIS
QUIS (Questionnaire for User Interaction Satisfaction) [Qui2003] es un cuestionario de
evaluación de usabilidad centrada en el usuario para sistemas de computación interactiva.
Aplica métodos de construcción de prueba psicológica para la creación y validez empírica
de las preguntas, y para evaluar su fiabilidad. La usabilidad global está dividida en sub-
componentes que constituyen escalas psicométricas independientes: legibilidad de los
caracteres, utilidad de ayuda en línea y mensajes del error. La evaluación en estos
aspectos es realizada por las valoraciones del usuario así como por atributos específicos
del sistema como contraste, fuente, y espacio para la escala de legibilidad de caracteres.
6.3.1.5 MUMMS
MUMMS (Measuring the Usability of Multi-Media Systems) [Mum2003] también es un
cuestionario orientado a evaluar la calidad en uso de los productos multimedia.
MUMMS surge como una extensión de SUMI, concretamente trata de evaluar la
usabilidad de los productos multimedia, en general, y es realizado por los propios usuarios
finales. Está enfocado en obtener el conocimiento adquirido por los usuarios.
126
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.3.1.6 SMEQ
SMEQ (Subjective Mental Effort Questionnaire) [Zij1993] es un cuestionario que permite
valorar la cantidad necesaria de esfuerzo invertido por los individuos durante la ejecución
de la tarea. Es adecuado para ser utilizado en laboratorios y campos de estudio para la
obtención de valores confiables del volumen de trabajo global.
6.3.1.7 PROKUS
PROKUS (PROgramm system zur Kommunikations ergonomischen UnterSuchung
rechnerunterstützter Verfahren) [Zul2000] es una herramienta para el diseño de
procedimientos de evaluación para llevar a cabo evaluaciones de usabilidad de acuerdo a
diferentes situaciones de evaluación. Está basada en el diseño ergonómico de la interfaz
de usuario. Por ello utiliza el estándar ISO 9241-10 [ISO1998c] como criterio de
evaluación. Esta evaluación puede realizarse en distintas etapas del ciclo de vida del
software:
• Durante el proceso de desarrollo de los productos: cuya finalidad es evaluar si la
interfaz es la adecuada, empleando para ello pruebas de calidad (evalúa el
funcionamiento del producto) y pruebas de conformidad (compara el producto con
los requisitos del estándar).
• Durante la selección de un producto: realizado por clientes o futuros usuarios,
mediante pruebas de comparación (examinando y comparando los productos
existentes en el mercado), y pruebas de conformidad (evaluando la adherencia del
producto a los estándares de amigabilidad al usuario).
• Durante la instalación del producto: con la finalidad de dar soporte a la fase de
rediseño, mediante pruebas de usabilidad (para medir el logro de las metas de
usabilidad y las necesidades adicionales).
6.3.1.8 DRUM
DRUM (Diagnostic Recorder for Usability Measurement) [Mcl1993] es una herramienta
que permite el análisis de video asistido por computadora como soporte para la
evaluación observacional de la usabilidad. Las principales características de esta
herramienta son las siguientes:
• Soporta evaluación cuantitativa.
• Tiene una amplia aplicabilidad asistiendo a la generación y entrega de diagnóstico
de retroalimentación, proporcionando a los diseñadores problemas potenciales
derivados del análisis de datos.
• Soporta la administración y análisis de evaluaciones de usabilidad.
• Identifica incidentes críticos definidos por el evaluador para diagnóstico de la
evaluación.
6.3.1.9 WebQEM
WebQEM (Web Quality Evaluation Methodology) [Ols2002] es una metodología
cuantitativa para evaluar calidad de producto, es particular de aplicaciones y sitios Web.
Utiliza un modelo de calidad jerárquico basado en el estándar ISO/IEC 9126-1 -1
[ISO2001] adaptado a las sub-características propias de la Web. Es un instrumento
orientado al uso por parte de evaluadores expertos y se basa en la inspección de
características, sub-características y atributos. Permite comprender el estado actual de la
127
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.3.2 Accesibilidad
Para las revisiones automáticas de accesibilidad existen muchas herramientas que
posibilitan la evaluación. Por lo general, se trata de aplicaciones on-line que posibilitan
elegir la URL a evaluar y el estándar o norma con el que se desea contrastar. Dentro de
las herramientas más conocidas y utilizadas podemos mencionar:
6.3.2.1 TAW
TAW (Test de Accesibilidad Web) [TAW2010] es uno de los más conocidos. Se trata de
un test gratuito basado en la WAI [WAI2005] del W3C para el análisis de la accesibilidad
de sitios Web. Posibilita comprobar el nivel de accesibilidad alcanzado en el diseño y
desarrollo de páginas Web con el fin de permitir el acceso a todas las personas,
independientemente de sus características. TAW dispone de diferentes tipos de
herramientas según las necesidades (on-line, para descargar, o un plug-in para incorporar
en el navegador).
6.3.2.2 HERA
HERA (Hojas de Estilos para Revisión de la Accesibilidad) [HER2010] es una utilidad on-
line gratuita desarrollada por la Fundación SIDAR (Seminario Iberoamericano sobre
Discapacidad y Accesibilidad a la Red) para revisar la accesibilidad de las páginas Web
de acuerdo con las recomendaciones de las Directrices de Accesibilidad para el
Contenido Web 1.0 (WCAG 1.0) de la WAI [WAI2005]. Esta herramienta realiza un
análisis automático de la página e informa si se encuentran errores, que sean posibles de
detectar automáticamente, además de los puntos de verificación de las pautas que deben
ser revisados manualmente.
HERA aplica diferentes hojas de estilos a la página evaluada para identificar visualmente
los elementos que presentan problemas de accesibilidad y que necesitan ser revisados.
De esta forma, facilita la revisión manual proporcionando información acerca de los
elementos a verificar, instrucciones sobre cómo realizar ese control, y dos vistas
modificadas de la página, una en modo gráfico y la otra en código HTML con los
elementos más importantes destacados con iconos y colores distintivos.
El análisis de los sitios se realiza de forma on-line. Mediante un formulario Web provisto
por HERA es posible modificar los resultados automáticos, agregar comentarios a cada
punto de verificación, e indicar el nombre del revisor. También es posible generar un
informe final sobre la revisión, para imprimir o descargar. Los datos de la evaluación son
conservados por el término de una semana en una base de datos que posibilita retomar el
trabajo, si no hubiera sido finalizado.
6.3.2.3 Bobby
Bobby [BOB2011] permite determinar el nivel de accesibilidad de las páginas Web de
acuerdo con las recomendaciones de WCAG 1.0 y la Sección 508 del Acta de
Rehabilitación de los EE.UU. Fue desarrollado originalmente por el Centro de Tecnología
Especial Aplicada (Center for Applied Special Technology - CAST). Permite realizar
pruebas on-line o descargar una aplicación gratuita para funcionar sin estar conectado a
128
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.3.2.4 WAVE
WAVE (Web Accessibility Evaluation Tool) [WAV2010] es una herramienta gratuita de
evaluación de la accesibilidad Web provista por WebAIM (Web Accessibillity in Mind), una
organización sin fines de lucro creada en 1999 por el Centro para las Personas con
Discapacidad de la Universidad del Estado de Utah. Permite verificar las pautas WCAG
1.0, en cualquiera de sus niveles de prioridad, así como también la Sección 508 del Acta
de Rehabilitación de los EE.UU. Pretende ayudar a los desarrolladores a realizar aquellas
tareas que exigen una toma de decisiones de tipo personal, mostrando información sobre
los elementos de la página (textos alternativos, información estructural, orden de lectura,
etc.). Luego de realizado el análisis de la página, WAVE provee un informe intuitivo y fácil
de entender. Para ello muestra la página Web original con una serie de iconos e
indicadores que revelan la información de accesibilidad dentro de su página. Posee una
serie de opciones de configuración que permiten seleccionar qué tipo de elementos de la
página se tienen que mostrar en el informe (tablas, imágenes, objetos multimedia) e
indicar qué características de análisis se tienen que incluir (errores, alertas o información
estructural sobre el documento). La evaluación puede realizarse de diferentes formas (on-
line, subir la página a analizar, copiar y pegar el código, o incorporar un plug-in en el
navegador).
- Modo del reporte: se puede elegir entre las siguientes revisiones: Sección 508 del
Acta de Rehabilitación de los EE.UU, WCAG 1.0 Prioridad 1, Prioridad 1 y 2,
Prioridad 1, 2 y 3. Además pueden agregarse una serie de opciones para advertir si
la página posee errores Prioridad 2 y 3, incluir un informe sobre calidad de texto
alternativo, o incluir el archivo fuente en los fracasos de accesibilidad.
- Emular un determinado navegador: posibilita realizar la comprobación simulando
la utilización de un navegador y versión determinada. Con esto se evita tener
129
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.3.2.6 A-Prompt
A-Prompt (Accessibility Prompt) [WAC2010] es un software gratuito creado por el
Adaptive Technology Resource Center (ATRC) de la Universidad de Toronto para ayudar
a los diseñadores Web a mejorar la accesibilidad de las páginas desarrolladas en formato
HTML. Está basada en WCAG 1.0 y Sección 508. Esta herramienta evalúa el código
HTML de la página e identifica las posibles barreras de accesibilidad para personas con
discapacidades. A-Prompt no sólo se queda en la detección de los problemas sino que
provee al diseñador Web una manera rápida y fácil de realizar los arreglos que posibiliten
superar estas barreras. La aplicación debe descargarse e instalarse en la computadora
del diseñador. Está disponible en inglés y francés, y únicamente para versiones del
sistema operativo Windows.
La evaluación puede ser personalizada mediante una serie de opciones agrupadas en 4
categorías:
- Nivel de conformidad: WCAG 1.0 A, WCAG 1.0 AA, WCAG 1.0 AAA o
Sección 508.
- Reparaciones automáticas: Dependiendo en el nivel de conformidad
seleccionado, permite elegir hasta 6 tipos diferentes de modificaciones al
archivo original que serán realizadas de forma automática. El usuario será
notificado del problema de accesibilidad encontrado pero no intervendrá en
la decisión de reparar o no la barrera encontrada.
- Almacenamiento de archivos: Posibilita reemplazar directamente el
archivo original con el reparado, renombrarlo, dejarlo intacto, o generar un
nuevo nombre para el archivo reparado.
- d-Links (description links): Permite agregar una descripción a las imágenes
mediante el atributo longdesc.
Sin embargo, a pesar de su versatilidad y facilidad para evaluar y adecuar una página
Web a los estándares más usados de accesibilidad, A-Prompt fue discontinuado a partir
de 2007 con el objetivo de que el grupo de desarrollo pudiera concentrar sus esfuerzos en
un nuevo programa que permite realizar la evaluación de forma on-line [WAC2010].
130
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
6.3.2.8 ASES
Para analizar el nivel de visibilidad de usuarios con baja visión o ceguera pueden
utilizarse herramientas libres como el Avaliador e Simulador de AcessibilidadE para Sítios
(ASES) [ASE2011]. Este producto ha sido desarrollado entre el Departamento de
Gobierno Eletrónico de Brasil y la OSCIP Acessibilidade Brasil, y es distribuido de forma
gratuita bajo licencia LGPL-GNU. ASES permite la evaluación, simulación y corrección de
páginas, sitios y portales.
Algunas de sus funcionalidades son:
- Evaluador de accesibilidad (e-MAG y WCAG)
- Evaluador de CSS
- Evaluador de HTML (4.01 y XHTML)
- Simuladorer de lector de WWW y baja visión (daltonismo, miopía, catarata)
Las herramientas descriptas, si bien pueden considerarse como las principales, no son las
únicas, ya que existe un importante número de alternativas tales como: Total Validator,
Truwex On-line, UITest.com, Webnauts, Accessibility Wizard, Functional Accessibility
Evaluator, Accessibility Valet, Color Blindness Simulator, Flicker Rate Test, GrayBit, Color
Laboratory, Firefox Web Developer Toolbar, 1-Hit Load Time Analyzer, AccvERIFY,
AnyBrowser, CSS Analyzer, EvalAccess y Hermish, entre otras.
6.4 Evaluadores
Los diferentes métodos de evaluación de usabilidad de aplicaciones Web requieren, entre
otras cosas, de distinto tipo de evaluadores [Car2002]. Por ejemplo, para la evaluación
heurística es necesario gente experimentada en el diseño de interfaces e interacción
humano-computadora, mientras que para realizar un recorrido cognitivo será de mayor
utilidad contar con profesionales relacionados con el dominio de la aplicación. En todo
modelo los evaluadores cumplen un rol fundamental. El juicio emitido por ellos puede
llevar a descartar el uso de un determinado producto o a desencadenar un profundo
proceso de cambios en la aplicación. Determinar el tipo de evaluadores a seleccionar, y
los conocimientos que deben poseer, es de vital importancia para la aplicación de los
131
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
métodos de evaluación. Una vez superada esta instancia, la obtención de datos fiables
está sujeta a varios factores:
- la adecuada selección de los evaluadores para posibilitar que las personas
elegidas estén lo más próximas posible al perfil buscado, es decir, al evaluador
“ideal”.
- la cantidad de personas involucradas en la evaluación.
- el tiempo que dispondrán para realizar la evaluación.
- el compromiso que asumirán con la tarea.
- los recursos materiales y económicos que se pondrán en juego.
Por otra parte, de nada sirve contar con un excelente modelo de evaluación, y una
apropiada determinación del perfil de los evaluadores, si a la hora de ponerlo en práctica
no se utilizan con seriedad los instrumentos, y se emiten juicios sesgados o poco
objetivos.
La diversidad de aspectos que deben analizarse en un sitio Web, y en particular en un
EVEA, hace imposible que un solo tipo de evaluador realice la tarea de forma confiable y
completa. En virtud de ello es necesario contar con evaluadores dedicados al análisis del
diseño de interfaz, la utilización de estándares, otros abocados a los aspectos educativos
generales, y finalmente, aquellos que serán los beneficiarios directos del producto. Por tal
motivo, de acuerdo al tipo de método de evaluación a utilizar (inspección, indagación, o
test), es necesario clasificar a los usuarios en función de las tareas que llevará a cabo.
132
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
133
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
134
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
tiempo atractiva, y sin que por ello deje de respetar los estándares, guías y convenciones
internacionales.
Otra forma de analizar la usabilidad es aquella que se ocupa de evaluarla como un
atributo del producto final, en lugar de tomarlo en cuenta durante el desarrollo. El estándar
ISO 9241 [ISO1998c] es el más representativo en este sentido, y en cual se apoyan
numerosos autores para fundamentar sus métodos de evaluación. La definición de
usabilidad dada por el estándar posibilita que evaluadores, consultores, instituciones o
empresas, que no necesariamente estén involucrados en su desarrollo, puedan medir su
usabilidad. En este sentido se define a la usabilidad en términos de la efectividad,
eficiencia y satisfacción con la que un sistema permite alcanzar los objetivos propuestos
por los usuarios en un contexto de uso determinado. La eficiencia, entendida como los
recursos empleados en relación con la precisión y plenitud con que los usuarios alcanzan
sus objetivos propuestos, forma parte de la usabilidad, a diferencia del estándar ISO
9126-1 [ISO2001] que la considera como otra característica del mismo nivel. La definición
incluye también la efectividad del mismo, es decir, la precisión y plenitud con que los
usuarios alcanzan los objetivos. Sin embargo, un sistema eficiente y efectivo puede no
satisfacer al usuario, si mediante su uso se siente incómodo y, producto de ello, adopta
una actitud negativa hacia el mismo. Debido a esto, la satisfacción del usuario es otro de
los puntos centrales a considerar en la evaluación.
Posiblemente el hecho de centrarse en el contexto de uso sea uno de los rasgos más
fuertes de esta mirada ya que pone el acento en la utilización concreta que el usuario
hace del sistema, analizando en ese contexto las características del mismo. El contexto
de uso involucra a los tipos de usuarios, las tareas, el equipamiento y el entorno físico y
social dentro del cual será utilizado el sistema. Para poder evaluarlo es necesario
entonces contar con usuarios reales, situaciones reales de trabajo y condiciones
específicas. Por lo tanto, el producto deberá estar concluido, o en una etapa avanzada de
desarrollo, como una versión alfa o beta, por ejemplo. El usuario y el entorno en el cual se
utilizará el sistema pasan a ser ejes centrales para evaluar su usabilidad.
En esta tesis interesa evaluar los EVEA actuales desde el punto de vista de su usabilidad.
Si bien es permanente la evolución de estos sistemas, y se producen nuevas versiones en
cortos períodos de tiempo, la propuesta de evaluación se realizará será sobre sistemas en
pleno funcionamiento. El objetivo es situarse en escenarios reales de uso, teniendo
especial consideración por los alumnos y docentes, los objetivos que se proponen, las
tareas específicas que realizan dentro del entorno durante las actividades de enseñanza y
aprendizaje, el modelo mental que utilizan, el equipamiento e infraestructura del que
disponen, el lugar físico donde habitualmente se desenvuelven, y el entorno social en el
cual están insertos.
Por ese motivo la evaluación estará centrada en productos finales, versiones de prueba, o
en evoluciones, es decir, donde no es necesario formar parte del equipo de desarrollo del
sistema para poder realizar la evaluación sino que es suficiente con tener acceso a una
versión operable del mismo.
6.6 Conclusiones
Los métodos para evaluación de usabilidad pueden ser agrupados en tres grandes
grupos: inspección, indagación, y test [Flo2000b]. Desde el punto de vista del momento de
aplicación de cada método, se puede observar que los métodos de indagación están más
orientados hacia las etapas tempranas de desarrollo, los métodos de inspección a las
etapas medias, y los métodos de test las etapas tardías.
135
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
136
Capítulo 6: Métodos, técnicas, herramientas y evaluadores
particular de un EVEA, hace imposible que un solo tipo de evaluador realice la tarea de
forma confiable y completa. En virtud de ello es necesario contar con evaluadores
dedicados al análisis del diseño de interfases, la utilización de estándares, otros abocados
a los aspectos educativos generales, y finalmente aquellos que serán los beneficiarios
directos del producto. Por tal motivo, de acuerdo al tipo de método de evaluación a
utilizar es necesario clasificar a los usuarios en función de las tareas que llevará a cabo.
Existen diferentes propuestas sobre la forma de clasificación de los evaluadores. En
general esta clasificación depende del tipo de sitios Web y del momento en que se
desarrolle la evaluación. Desde una mirada centrada en la usabilidad de los sitios Web,
que puede ser aplicada también a los EVEA, existe un acuerdo entre los principales
referentes del área para dividir a los evaluadores en dos tipos: expertos y usuarios
[Nie1993b][Lan1999][Car2002][Alv2005].
Las evaluaciones de usabilidad son factibles de utilizar en diferentes tipos de sistemas y
distintas fases del proceso de desarrollo de software. El estándar ISO/IEC 9126-1
[ISO2001] define a la usabilidad desde un punto de vista orientado al proceso. En cambio,
el estándar ISO 9241-11 [ISO1998b] se ocupa de evaluarla como un atributo del producto
final.
137
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
7.1 Introducción
Los EVEA son aplicaciones informáticas del tipo cliente/servidor que funcionan vía red,
generalmente Internet. Esto posibilita que puedan ser utilizados desde cualquier lugar y
en cualquier momento. La interacción con los usuarios se realiza mediante páginas Web,
es decir que estos entornos se presentan al usuario como un sitio. Claro está que los
EVEA no son sitios Web cualesquiera, sino que poseen características particulares debido
a que están pensados para mediar los procesos de enseñanza y aprendizaje. Sin
embargo, al utilizar la Web como interfaz, es posible contar con una teoría desde donde
partir para su análisis, debido a que los lineamientos para un buen diseño Web no deben
ser perdidos de vista [Fer2007].
El éxito o el fracaso de un sistema puede depender más de su usabilidad que de lo que
realmente hace. La usabilidad es un elemento clave a la hora de marcar la diferencia
entre sistemas que cumplen funciones similares. En el caso de los EVEA es más
importante aún, porque se supone que el objetivo es potenciar las ventajas que ofrece la
Web para mejorar la calidad de la enseñanza y el aprendizaje, minimizando los
inconvenientes que se le pueden presentar al usuario.
Los alumnos, generalmente, disponen de poco tiempo para capacitarse, poseen
diferentes ocupaciones, acceden en horarios más bien nocturnos y con cierto cansancio
producto de la actividad diaria [Dar2002]. Por tales motivos, no están interesados en
cruzarse con inconvenientes tecnológicos, ni invertir demasiado tiempo en aprender cosas
que no están directamente relacionadas con su temática de estudio. No les interesa ser
expertos en la utilización de EVEA, sino en utilizarlos como un medio que les requiera la
menor carga cognitiva posible, es decir, no necesiten de grandes conocimientos
informáticos, sean fáciles de usar, de aprender, de recordar, intuitivos, sencillos, efectivos,
eficientes y amenos. Estos aspectos dejan al campo de la usabilidad un gran desafío.
Los docentes y alumnos que interactúan a través de entornos virtuales se ven
atravesados por tres tipos de aprendizajes: del contenido específico, de una nueva forma
de enseñar y aprender, de funcionalidades propias del entorno virtual utilizado [Dar2002].
El modelo de evaluación propuesto aquí orienta su mirada sobre el aspecto funcional de
los EVEA, donde la usabilidad tiene mucho para aportar a quienes abordar procesos de
enseñar y aprender acompañados por esta tecnología.
139
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
140
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
cuatro niveles o capas de evaluación, que parten de lo general para llegar a lo particular,
es decir, una estrategia top-down [Fer2012].
A continuación se presenta sintéticamente una descripción de cada una de ellas.
141
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
142
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
143
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
144
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
145
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
146
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
147
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
148
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
Tanto los docentes como los alumnos que formarán parte de la evaluación serán
destinatarios directos del entorno evaluado. Esto lleva a incorporar en el análisis
diferentes perfiles de los mismos según ciertos parámetros. Tomaremos como
criterio básico para seleccionar los usuarios: la experiencia y la frecuencia en el uso
de Internet.
o Novato: será aquel que posea conocimientos básicos de operación de
computadoras (paquetes de oficina) y utiliza Internet de forma poco
habitual, por ejemplo, para navegar por sitios de propósito general.
o Medio: consideraremos de esta forma al usuario que posee, además
de conocimientos básicos, destrezas en el uso de diversas
funcionalidades a nivel de sistema operativo (manejadores de
archivos, configuración y personalización, manipulación de
periféricos, etc.) y utiliza Internet de forma habitual, para navegar por
sitios de propósito general, buscar y descargar información, manipular
un webmail, participar en foros, blogs.
o Avanzado: usuario que puede manipular varios tipos de programas
(oficina, diseño, etc.), posee habilidades para la administración e
instalación de software, y utiliza Internet muy frecuentemente para
buscar y descargar información, manipular un webmail, participar y/o
administrar sitios, foros, blogs.
Para la última capa, donde se realiza una evaluación utilizando usuarios finales
pero en su medio habitual de trabajo y estudio, será considerada una nueva
dimensión que permita poner de manifiesto el contexto de uso en el cual se
utiliza el EVEA. Los principales parámetros a considerar serán: ubicación
geográfica, recursos técnicos disponibles (software, hardware, conectividad),
edad, sexo, y posibles limitaciones físicas.
149
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
ser más de uno para poder seleccionar docentes que tengan experiencia
con el entorno a evaluar y otros que no.
- Varios tipos de expertos: recordemos que hay tres tipos propuestos: E-, E,
y E+. Acorde a los trabajos de Nielsen se recomienda contar con 3, 4 ó 5
expertos para identificar posibles problemas de usabilidad [Nie1993c]. Por
este motivo, una propuesta es seleccionar tres expertos, uno de cada tipo.
Otra alternativa es trabajar con cinco, de los cuales dos estén dentro de la
categoría E-, dos en E+, y uno en E.
150
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
una cantidad importante de evaluadores. Por tal motivo, la muestra de usuarios puede ser
numerosa. Tampoco se debe olvidar que aquí interviene fuertemente el contexto de uso,
el cual puede ser muy diverso, y por lo tanto, es necesario contar con una muestra lo
suficientemente significativa como para abarcar distintos contextos respecto al entorno
donde se desarrolla la actividad, ubicación geográfica, recursos técnicos, horarios.
Siguiendo la línea de las capas anteriores, distinguimos dos tipos de usuarios: docentes y
alumnos. Para cada tipo se toman los mismos niveles de experiencia y frecuencia en el
uso de Internet que los utilizados en la tercera capa. Es decir, tenemos seis clases
diferentes de usuarios: docentes novatos, docentes medios, docentes avanzados,
alumnos novatos, alumnos medios, y alumnos avanzados.
Cuantos más evaluadores participen, mayor será la confiabilidad de los resultados. Aquí,
de alguna manera, “podemos darnos el lujo” que nos fue vedado en todas las capas
anteriores respecto a la cantidad de participantes. Sin embargo, no existe consenso sobre
cuál es la cantidad óptima de evaluadores a incorporar porque hay muchas variables en
juego. Seguramente, cuantos más evaluadores participan mayor será la confiabilidad de
los resultados, pero ello puede ir en desmedro de la rapidez para obtener los juicios así
como también correr el riesgo de que en el momento de contar con la información haya
dejado de ser útil. Por lo tanto hay que buscar un equilibrio que posibilite garantizar
operatividad y objetividad de la evaluación. Existen diferentes propuestas, como la de
Spyridakis [Spy1992], el cual estima que una prueba de usabilidad debe contar con un
mínimo de 10 o 12 participantes a los efectos de obtener resultados estadísticamente
válidos, Virzi [Vir1992], que propone contar con solo cuatro o cinco evaluadores, en los
casos que no haga falta realizar una prueba totalmente exhaustiva, debido a que esa
cantidad de evaluadores puede detectar hasta un 80% de los problemas, o Landeta
[Lan1999], que establece 5 participantes como mínimo y 30 como máximo. En el caso de
otros métodos, como la evaluación heurística, se estima que cada evaluador puede
identificar un 35% de los problemas, lo que lleva a trabajar con un grupo de entre tres y
cinco evaluadores, siempre y cuando la usabilidad no sea un factor clave para el éxito del
sitio Web [Nie1993c].
151
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
contexto. A continuación se presentan los objetivos que presenta cada rol respecto al uso
del EVEA.
7.4.1 Personajes
Dado que se trata de la evaluación de un EVEA, los personajes tienen dos roles bien
definidos: docentes y alumnos. Estos personajes son considerados como principales, y
serán el eje sobre cual girará la evaluación. En consecuencia, se utilizarán dos
personajes, uno que represente el rol de usuario alumno y otro el rol de usuario docente.
Los personajes secundarios escapan al presente modelo de evaluación por la complejidad
que introducirían. En esa categoría encontramos a los administradores, veedores,
administrativos, invitados.
7.4.2 Objetivos
Se mencionó anteriormente que este modelo de evaluación en capas requiere definir
escenarios de uso en el que intervienen personajes. Es importante especificar aquí el
objetivo que tiene cada personaje en el uso del entorno a evaluar.
El objetivo del docente respecto del uso del EVEA está vinculado con la mediación total o
parcial de su propuesta didáctica, de acuerdo a las necesidades que ha detectado. En
este caso se focalizan los objetivos de: potenciar la comunicación y diálogo con los
alumnos, realizar un seguimiento del aprendizaje de sus alumnos a través de la
presentación de actividades mediadas por el entorno, y compartir materiales educativos
pertinentes.
El objetivo del alumno se centra en construir su aprendizaje a partir de la propuesta
presentada por el docente en dicho entorno. En tal sentido se focaliza la posibilidad de
comunicarse con sus pares y docentes, aprender con el otro, acceder a los materiales y
estudiar con ellos, y resolver actividades propuestas por el docente.
A continuación se detalla la forma en que pueden ser alcanzados estos objetivos, a partir
de la presentación de las tareas involucradas para ambos roles, los escenarios en los
cuales las tareas se deben llevar a cabo, y el contexto de uso dentro del cual se
desempeñan los personajes.
7.4.3 Tareas
El modelo de evaluación de usabilidad está centrado en aquellos usuarios que son los
actores principales en los procesos de enseñanza y aprendizaje. Como mencionamos
anteriormente, nos referimos a los alumnos y los docentes. En función de ello, se han
tomado sólo algunas de las tareas comunes que realizan en el marco de los procesos
educativos mediados por TIC. Las tareas propuestas han sido agrupadas en dos
categorías, y definidas de acuerdo a las funcionalidades deseables de un EVEA, que
fueron explicitadas en la primera capa, sumado a las rutinas más importantes y frecuentes
que realizan los usuarios.
Para lograr identificar las principales tareas que los alumnos y docentes realizan dentro de
un EVEA, se llevó a cabo una consulta por e-mail, basada en un cuestionario abierto,
destinado a docentes y alumnos pertenecientes a las carreras a distancia de la Facultad
de Ciencias Económicas de la UNRC. El cuestionario solicitaba identificar las cinco tareas
más importantes y las cinco más frecuentes sobre el EVEA SIAT. En el Anexo B se
presenta el análisis realizado a partir de las opiniones de los usuarios.
152
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
Las tareas definidas para los alumnos, acorde al análisis realizado, se listan a
continuación:
- Acceder al aula virtual e informarse sobre los principales eventos,
programación de actividades, últimas novedades, y cambios producidos a
partir del ingreso anterior.
- Entregar un trabajo evaluable.
- Comunicarse de forma asincrónica: con su docente, con otro alumno o con
todos los integrantes del aula.
- Acceder a los materiales de estudio.
- Participar de un debate.
- Acceder a sus calificaciones y devoluciones de trabajos.
- Compartir un material: con su docente, con otro alumno o con todos los
integrantes del aula.
- Comunicarse mediante mensajes sincrónicos: con su docente, con uno o
con varios alumnos.
- Participar de una clase virtual visualizando una presentación multimedia en
forma simultánea con los demás usuarios.
- Participar de una conferencia en forma simultánea con los demás usuarios.
- Interactuar con sus compañeros de grupo.
- Elaborar un documento de forma colaborativa.
- Realizar una autoevaluación on-line.
- Realizar una evaluación on-line.
- Realizar una encuesta y acceder a los resultados.
Las tareas definidas para los docentes, acorde al análisis realizado, son las siguientes:
- Informar a los alumnos sobre los principales eventos, la programación de
actividades y las novedades.
- Calificar los trabajos evaluables y realizar devoluciones.
- Comunicarse de forma asincrónica con un alumno o todos los integrantes
del aula.
- Recibir y corregir un trabajo evaluable.
- Incorporar materiales de estudio al aula virtual en diferentes formatos.
- Generar y participar de un debate.
- Acceder a información sobre sus alumnos.
- Acceder al aula virtual e informarse sobre los principales cambios
producidos a partir del ingreso anterior.
- Realizar evaluaciones on-line y visualizar los resultados.
- Comunicarse con uno o varios alumnos mediante mensajes sincrónicos.
153
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
7.4.5 Escenarios
La descripción de los escenarios trata de evitar, en la medida de lo posible, las
referencias a herramientas específicas que posibilitan realizar las tareas dentro de un aula
virtual. El objetivo es despegar a los escenarios de algún EVEA en particular para facilitar
su adecuación a distintos entornos, e inclusive a la utilización de diferentes herramientas
para llevar adelante ciertos procesos.
Los escenarios no son únicos, pueden especificarse con mayor nivel de detalle, o
suplantarse por otros en caso de ser necesario.
A continuación plantearemos los escenarios generales que serán utilizados por los
expertos en la segunda capa, y por los usuarios finales en la tercera y cuarta capa. Para
lograr simpleza en la evaluación se han buscado escenarios que agrupan dos tipos de
tareas: las necesarias y las de alta frecuencia [Fer2010].
Estos escenarios han sido tomados como guía para aplicar el modelo, son un ejemplo
adaptado al contexto de uso de la Universidad Nacional de Río Cuarto.
El caso de los alumnos se han tomado tres: Ana, Agustín y Ailén. Cada alumno participa
de tres escenarios, es decir, nueve escenarios. Respecto a los docentes se han
considerado tres: Fabio en calidad de responsable, Nahuel y Julián en calidad de tutores.
Para el caso del responsable de la asignatura se definieron cuatro escenarios, y tres para
cada docente tutor.
154
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
EA1.1: Hoy es el día de inicio del cursado del cuatrimestre. Ana es una alumna de
primer año que recién termina el secundario, vive en una pequeña localidad, y se
dispone iniciar las clases. Para ello se levanta temprano, desayuna tranquila y
luego se dirige su escritorio donde tiene su computadora personal conectada a
Internet mediante dial-up. Ana utiliza computadoras desde la escuela primaria, e
Internet desde que comenzó la educación secundaria. Ella desea ingresar al aula
virtual de Análisis Matemático I, en la que se inscribió para cursar, para conocer a
sus docentes y compañeros, y ponerse el tanto de las actividades planteadas.
Luego pretende obtener los materiales necesarios para comenzar con el estudio y
presentarse en el foro.
EA2.1: Hoy es el día de inicio del cursado del cuatrimestre. Agustín es un alumno
de primer año que recién termina el secundario, vive en una ciudad y se dispone
iniciar las clases. Por la tarde, cuando sale del trabajo se dirige a un cyber cercano.
Si bien tiene computadora, no posee Internet en su casa. Agustín utiliza
computadoras desde que comenzó la educación secundaria pero ha tenido poco
contacto con Internet. Agustín desea ingresar al aula virtual de Análisis Matemático
I, en la que se inscribió para cursar, para conocer a sus docentes y compañeros, y
ponerse el tanto de las actividades planteadas. Luego pretende obtener los
materiales necesarios para comenzar con el estudio y presentarse en el foro.
EA3.1: Hoy es el día de inicio del cursado del cuatrimestre. Ailén es una alumna de
primer año que retoma sus estudios luego de varios años, vive en una villa serrana
y se dispone iniciar las clases. Para ello, por la noche, mientras ayuda a hacer los
deberes a sus hijos, conecta la computadora portátil a Internet mediante su celular.
Ailén utiliza la computadora desde hace poco tiempo y para uso doméstico
solamente. Ella desea ingresar al aula virtual de Análisis Matemático I, donde se
inscribió para cursar, y así conocer a sus docentes, compañeros y ponerse el tanto
de las actividades planteadas. Luego, pretende obtener los materiales necesarios
para comenzar con el estudio y presentarse en el foro.
EA1.2: Ana se toma unos días para la lectura del material, lee las novedades, los
mensajes del foro de presentación. En los días siguientes, mientras realiza la
primera actividad, examina el calendario y envía un mensaje por correo al docente
para consultar una duda. Luego de recibir respuesta, descarga un material
complementario, completa la actividad y la entrega antes de la fecha de
vencimiento. Ana desea saber si su trabajo está en manos del docente y le
consulta sobre la posible fecha en que estará la corrección del mismo. Todo el
trabajo lo hace desde su casa.
EA2.2: Agustín no tiene tiempo de analizar demasiado los materiales, los lee en los
ratos libres. Comienza a resolver la actividad en su casa. Al constatar que no
llegará a terminarla, antes que venza el plazo de entrega, le escribe a su docente
desde un cyber, pidiéndole autorización para enviarle el trabajo fuera de fecha.
EA3.2: Ailén se dedica todas las noches al estudio. Al comenzar la lectura le
surgen dudas que la llevan a escribirle un correo al docente. También ingresa al
foro para conocer a sus compañeros de clase y, al ver que Ana se ha presentado
en el foro, le escribe a ella para pedirle ayuda. Pasado unos días recibe respuesta
de ambos, descarga un material complementario, lee las novedades y el foro, y
verifica el plazo de entrega de la primera actividad. En días posteriores culmina la
lectura de los materiales e inicia la resolución de la actividad. El mismo día de
vencimiento, sobre la hora de entrega envía su trabajo.
155
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
EA1.3: Ana recibe un correo de Ailén y lo contesta. Ingresa al aula virtual el día
siguiente de vencido el plazo de entrega en busca de alguna novedad. Al cabo de
unos días recibe la contestación del docente, la nota de aprobación de su trabajo y
algunos comentarios sobre el mismo.
EA2.3: Agustín recibe autorización del docente para enviarle el trabajo fuera de
fecha y lo entrega. Luego debe viajar a otra ciudad por razones laborales. Estando
de viaje recibe los comentarios del docente sobre su trabajo en donde se le solicita
que corrija parte del mismo. Lo hace inmediatamente y vuelve a entregarlo.
EA3.3: Ailén ingresa diariamente al aula a la espera de la corrección de su trabajo.
Escribe un correo a su compañera Ana para saber si ella tiene alguna novedad. El
mismo día que Ana recibe la nota de su trabajo, Ailén recibe el suyo.
156
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
los correos enviados por Fabio, se disculpa por la demora, toma conocimiento de la
bienvenida, los alumnos que tiene a cargo, el calendario de actividades, y los
materiales correspondientes al primer módulo. Luego abre un foro para que los
alumnos se conozcan y emite un mensaje de bienvenida con su presentación
personal. Finalmente publica la actividad evaluable que los alumnos deben
entregar al finalizar el módulo.
EDT2.1: Nahuel ingresa diariamente al aula para realizar el seguimiento de sus
alumnos. Verifica quienes no han accedido, así como también quienes aún no
descargaron los materiales pertenecientes al primer módulo. A todos ellos les envía
un correo consultando las razones y alentándolos a comenzar con el estudio.
También lee el foro, los correos de Ailén y de Ana. Coloca un material
complementario en el aula, responde las dudas y publica un mensaje para animar a
los alumnos a consultar dudas, y recordar que pronto vencerá el plazo de entrega
de la actividad.
EDR2.2: Julián no regresa aún a la universidad pero ingresa dos veces por semana
al aula para saber si tiene alguna demanda de los alumnos. Lee el correo de
Agustín y decide extenderle el plazo de entrega por considerar que las razones son
fundadas.
EDT3.1: Nahuel ingresa al aula inmediatamente después que venció el plazo de
entrega de la actividad. Comienza a corregir los trabajos y lo informa a sus
alumnos.
EDT3.2: Julián ingresa al aula un día después de vencido el plazo de entrega de la
actividad, comienza a corregir los trabajos, e informa a Agustín sobre la necesidad
de rehacer parte de la actividad.
EDT4.1: Unos días después de iniciado el proceso de corrección, Nahuel califica
los trabajos evaluados. Al trabajo de Ana le realiza un comentario destacando la
excelente producción obtenida e informa a todos alumnos que ya están colocadas
las notas de la actividad correspondiente al primer módulo.
EDT4.2: Unos días después de comenzar con las correcciones, Julián califica los
trabajos evaluados e informa a todos alumnos que ya están colocadas las notas de
la actividad correspondiente al primer módulo.
Análisis Matemático I
Grupo 1 Grupo 2
Aula Virtual
Responsable: Fabio
157
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
7.4.6.1 Personajes
Los personajes principales que se definieron son:
- Alumnos: Ana, Agustín y Ailén
- Docentes: Fabio (Responsable), Nahuel y Julián (Tutores)
7.4.6.2 Tareas
Las tareas que ellos realizan dentro del EVEA fueron clasificadas según su importancia y
frecuencia, a partir de un doble análisis que contó con la opinión de un grupo de usuarios
del EVEA SIAT, sumado al aporte de quienes están proponiendo el modelo. De allí
surgieron las 8 (ocho) tareas consideradas como más necesarias y frecuentes para los
alumnos y para los docentes.
158
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
cercano al trabajo. Ailén también cursa primer año, vive en una villa serrana, es ama de
casa y tiene hijos. Ella posee computadora portátil y se conecta mediante Internet móvil.
En el caso de los docentes, Fabio es el Responsable de la asignatura, dispone de
computadora e Internet en la Facultad. Nahuel es docente Tutor de uno de los grupos de
alumnos, dispone de computadora e Internet en la Facultad. Julián es docente Tutor del
otro grupo de alumnos, dispone computadora e Internet en la Facultad pero se encuentra
realizando un curso en otra universidad durante la mayor parte del tiempo que dura el
cursado.
7.4.6.4 Escenarios
A partir de las tareas se elaboraron tres escenarios para cada alumno, cuatro escenarios
para el responsable de la asignatura, y cuatro escenarios para cada docente tutor. En
total se propusieron 21 escenarios. La cantidad de escenarios obedece a la necesidad de
plantear diferentes alternativas para que exista coherencia a la hora de poner en marcha
la evaluación de la segunda capa, donde existen diferentes alternativas de acuerdo a la
cantidad de evaluadores que participarán. En el caso que se opte por trabajar con sólo un
experto, se utilizarán 10 escenarios, y en el caso que participen 3 ó 5 se utilizarán todos.
7.4.6.5 Resumen
159
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
160
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
trabajo. foros,
EDT4.2 Acceder al aula virtual. corregir,
Informarse sobre la situación de calificar y
cada alumno. hacer
Calificar todos los trabajos. devolución
Publicar un mensaje para todos los de las
alumnos. actividade
s.
A Ana EA1.1 Acceder al aula virtual. Alumna de primer Primer año
L Informarse sobre la programación año. de una
U de actividades y tareas a realizar. Recién termina el carrera
M Conocer a sus compañeros y secundario. universitari
N docentes. Vive en una pequeña a de grado
O Consultar foro y agregar un localidad. con
S mensaje. No trabaja. orientación
Acceder a los materiales de estudio. Estudia por la contable y
EA1.2 Acceder al aula virtual. mañana en su casa, 5 años de
Informarse sobre la programación con su PC de duración.
de actividades y novedades. escritorio con Internet Carrera
Consultar foro. dial-up. con
Enviar un correo a su tutor. Con experiencia en el modalidad
Acceder a los materiales uso PC e Internet. no
complementarios. Dispone de tiempo presencial,
Entregar un trabajo evaluable. para estudiar. mediada
Consultar al tutor sobre la correcta Accede por TIC
recepción del trabajo y posible fecha periódicamente al durante
de calificación. aula virtual. todo su
EA1.3 Consultar correo y responder a desarrollo,
Ailén. con
Acceder al aula virtual. instancias
Informarse sobre la programación presencial
de actividades y novedades. es
Acceder a la calificación y únicament
devolución de su trabajo. e para los
Agustín EA2.1 Acceder al aula virtual. Cursado de una exámenes
Informarse sobre la programación asignatura desde el parciales y
de actividades y tareas a realizar. inicio hasta la finales.
Conocer a sus compañeros y finalización de la Los
docentes. primera actividad. alumnos
Consultar foro y agregar un Alumno de primer toman
mensaje. año. contacto
Acceder a los materiales de estudio. Recién termina el por
EA2.2 Acceder al aula virtual. secundario. primera
Enviar un correo a su tutor. Vive en una ciudad, vez con el
EA2.3 Acceder al aula virtual. trabaja todo el día y EVEA.
Consultar correo y leer mensaje del estudia por la noche. Cursado
tutor. Viaja mucho por de una
Entregar trabajo evaluable fuera de razones laborales. asignatura
plazo. Tiene PC en su casa desde el
Acceder a comentario del tutor sin Internet, accede inicio
sobre su trabajo. desde cyber. hasta la
Entregar nuevamente trabajo Con experiencia en el finalizació
evaluable fuera de plazo. uso PC, y poca en n del
Internet. primer
No dispone de módulo.
mucho tiempo para Asignatura
estudiar. con un
Accede pocas veces docente
al aula. responsabl
Ailén EA3.1 Acceder al aula virtual. Cursado de una e,
161
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
162
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
163
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
164
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
7.5.1.1.4 Estandarización
Cualquier producto que pretenda ser de calidad debe contar con altos niveles de
estandarización. Los productos software no son la excepción, y menos aún aquellos que
se basan exclusivamente en la Web. El proceso de estandarización de la Web ha
convergido hacia aquellos que fueron propuestos por la W3C. En particular son de interés
para nuestro trabajo los estándares de la W3C orientados a la validez, accesibilidad e
internacionalización del entorno. La validez está relacionada con el lenguaje que permite
la generación de contenidos para la Web (XHTML) y las hojas de estilo (CSS). La
accesibilidad (WCAG) se ocupa de analizar que el acceso a la Web sea lo menos
restrictivo posible y tenga en cuenta a la mayoría de usuarios, independientemente de sus
capacidades. La internacionalización está relacionada con el uso de pautas y códigos de
índole general que puedan ser entendidos sin problemas por usuarios provenientes de
otras culturas, idiomas, edades, etc.
165
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
166
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
proceso donde los expertos analizan el EVEA desde el punto de vista de la usabilidad. El
cierre permite obtener el informe final con la opinión de los expertos.
1. Planificación
i. Definición de la cantidad de evaluadores-expertos, perfil de cada uno y
selección de los mismos.
Como se mencionó anteriormente, deben seleccionarse cuatro evaluadores con
los siguientes perfiles:
- Dos especialistas en educación: EE1 y EE2
- Dos especialistas en tecnología: ET1 y ET2
ii. Elección de un laboratorio de usabilidad.
Dependiendo de los recursos disponibles es posible poner en marcha la sesión
de evaluación en un laboratorio de usabilidad real, o generar las condiciones
necesarias dentro de un aula con computadoras u oficina que permita albergar a
los expertos. El lugar elegido debe permitir a los expertos trabajar con
tranquilidad y comodidad, facilitando la concentración y evitando distracciones.
Para este caso no es necesario recrear un ambiente real, de ello nos ocuparemos
en las siguientes capas.
iii. Puesta a punto del EVEA
A efectos que cada uno de los evaluadores pueda realizar el análisis del entorno
virtual, éste debe encontrarse instalado en un servidor y disponible para ser
accedido para su evaluación desde distintas computadoras. Sin embargo, esto
solo no es suficiente ya que además debe recrearse, aunque sea mínimamente,
un ambiente de trabajo dentro del EVEA. Por ello, es necesario montar y
configurar una o varias aulas virtuales dentro de las cuales los expertos puedan
desenvolverse sin inconvenientes.
iv. Selección de herramientas de soporte y documentación
Para realizar el análisis del EVEA es necesario seleccionar un conjunto de
herramientas básicas y de soporte para la evaluación. Dentro de las herramientas
básicas encontramos principalmente a los navegadores. Es recomendable utilizar
más de un navegador y versión del mismo. En julio de 2010 sólo tres
navegadores acaparaban las preferencias de más del 90% de los usuarios:
Internet Explorer (61%), Firefox (23%) y Chrome (7%) [GMS2010]. Esta tendencia
se mantiene aunque los porcentajes varían, siendo Internet Explorer y Firefox
quienes por el momento dominan ampliamente. Las versiones son muy
importantes también, siendo recomendable evaluar el EVEA con al menos dos
de ellas. Las versiones más utilizadas en julio de 2010 eran: Internet Explorer 8
(23%), Internet Explorer 6 (20%), Firefox 3.5 (15%), Internet Explorer 7 (14%),
Firefox 3.6 (5%), Chrome 4.0 (5%), Firefox 3.0 (4%) [GMS2010]. Por tal motivo
deberían seleccionarse al menos las dos versiones más utilizadas de cada
navegador elegido. Esto permite abarcar una buena muestra, ya que el tiempo
promedio en que los usuarios demoran en actualizar la versión de su navegador
es de aproximadamente un año [Nie2000], y cada vez menor. También es
necesario disponer de algún procesador de texto o herramienta on-line que
permita registrar la evaluación. Como herramientas de soporte resultan
indispensables aquellas que ayudan a evaluar estándares. En este sentido son
167
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
168
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
169
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
170
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
casos donde el método se utiliza como parte del proceso de desarrollo del producto.
Como nuestro modelo está orientado a la evaluación de productos desarrollados o nuevas
versiones, los evaluadores solo determinarán cuál es, a su criterio, la conformidad
alcanzada por cada heurística y realizarán un comentario que justifique tal decisión.
Para esta capa es necesario definir las heurísticas y subheurísticas a evaluar, pero sin
olvidar que, si bien existen principios generales, cada sector suele tener sus propias
normas o convenciones que se ven reflejadas en la interfaz de sus sitios y en la forma de
trabajo de sus usuarios. Por tal motivo las heurísticas están organizadas en dos niveles
de evaluación, uno general, orientado a la tarea, y otro particular, orientado al diseño
[Vil2003]. Las heurísticas y subheurísticas forman parte de un núcleo básico obtenido en
cada capa a partir del análisis de las propuestas realizadas por los autores más
importantes en la materia [Fer2007b]:
- Evaluación de alto nivel orientada a la tarea: examina el aspecto y
comportamiento desde el punto de vista de las tareas y objetivos propuestos
por los escenarios de uso. Las heurísticas involucradas son:
- Complejidad
Dificultad u obstáculos encontrados.
- Visibilidad
Diseño natural. Información de contexto y orientación. Acciones
posibles en cada momento. Información justa y necesaria para cada
tarea. Jerarquización. Señales que indiquen de manera natural lo que
se debe hacer. Ayuda de forma implícita.
- Intuitividad
Proporcionar un buen modelo conceptual. Reducir la necesidad de
recordar. Incentivar el reconocimiento. Posibilitar búsquedas.
- Topografía natural
Metáforas. Analogías con el mundo real. Familiaridad. Claridad.
Objetos autoexplicativos.
- Evaluación en detalle orientada al diseño: analiza los aspectos concretos
del conjunto de interfaces provistas por el EVEA para completar las tareas.
Contempla las siguientes heurísticas:
- Productividad
Facilidad de realización de tareas habituales. Reducción del número
de interacciones a usuarios frecuentes o expertos. Herramientas para
trabajo masivo. Recordatorios o avisos de cambios producidos.
- Retroalimentación
Informar el resultado de las acciones. Informar los resultados exitosos
en forma diferente a los fracasos. Respuesta modesta ante acciones
frecuentes y de poca importancia, y elocuente ante acciones
infrecuentes e importantes.
- Control por parte del usuario
Participación e interacción con el sistema. Autonomía. Predicción de
los efectos de los actos realizados. Control del sistema en todo
171
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
172
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
dos alternativas, una sencilla donde interviene un solo evaluador y otra donde pueden
intervenir 3 ó 5 evaluadores.
- Un solo evaluador: en caso de realizar la evaluación con un solo experto
debe buscarse alguna manera de simplificarla para que sea efectiva. Para
ello se tomarán solo algunos de los escenarios, no todos. En particular se
acotarán los escenarios a los pertenecientes a dos alumnos y un tutor,
garantizando coherencia entre los mismos. Sobre estos escenarios se
realizará una evaluación a nivel de tarea, es decir, tomando las tareas que
se repiten entre ellos pero sin considerarlos completos. El experto utilizará
un solo cuestionario con el análisis a nivel de cada tarea.
- Tres o cinco evaluadores: en caso de contar con 3 ó 5 expertos pueden
utilizarse los mismos criterios, realizando el análisis a nivel de cada tarea, o
distribuyendo entre los expertos los personajes, roles, tareas y contextos de
uso implicados en la evaluación.
173
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
- TAREA 7: Publicar una actividad evaluable para todos alumnos con plazo de
entrega. Corregir y calificar los trabajos. Realizar devoluciones o cometarios
individuales sobre algunos trabajos
- TAREA 8: Informarse sobre la situación de cada alumno (ingreso al aula,
participaciones, descarga de materiales, entrega de trabajos, calificaciones)
Tareas del Alumno
- TAREA 1: Informarse sobre la programación de actividades, novedades, tareas
a realizar, y conocer a sus compañeros y docentes
- TAREA 2: Acceder a los materiales de estudio, principales y complementarios
- TAREA 3: Consultar un foro, agregar y responder aportes
- TAREA 4: Acceder, leer, y responder correo
- TAREA 5: Entregar un trabajo evaluable, acceder a la calificación y devolución
- TAREA 6: Acceder a los materiales de estudio, principales y complementarios
La situación planteada anteriormente intenta simplificar el proceso para que sea posible
llevarlo a cabo con un solo evaluador. Sería sumamente agotador y poco factible que un
solo experto tuviera que evaluar cada uno de los escenarios para cada personaje. Por ello
se diagramaron tareas generales a partir de los escenarios definidos.
Roles
Tres evaluadores Evaluador 1: docente tutor Nahuel
Evaluador 2: alumno Ana
Evaluador 3: alumno Ailén
174
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
Roles
Tres evaluadores Evaluador 1: docente responsable Fabio
Evaluador 2: docente tutor Nahuel
Evaluador 3: alumno Ana
Cinco evaluadores Evaluador 1: docente responsable Fabio y alumno Agustín
Evaluador 2: docente tutor Nahuel
Evaluador 3: docente tutor Julián
Evaluador 4: alumno Ana
Evaluador 5: alumno Ailén
Tabla 8 – Roles de cada evaluador en evaluación exhaustiva orientada a la tarea
En tal sentido los escenarios utilizados serán todos los definidos, es decir:
- Responsable: EDR1.1, EDR2.1, EDR3.1, EDR4.1
- Tutor: EDT1.1, EDT1.2, EDT2.1, EDT2.2, EDT3.1, EDT3.2, EDT4.1, EDT4.2
- Alumno: EA1.1, EA2.1, EA3.1, EA1.2, EA2.2, EA3.2, EA1.3, EA2.3, EA3.3
Los expertos deben transitar cada escenario realizando las tareas incluidas en cada uno
de ellos, tomando como base el contexto de uso definido para cada caso.
175
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
Criterios de evaluación
Hasta ahora se presentaron las diferentes alternativas para realizar la evaluación de alto
nivel orientada a la tarea. Una alternativa es adoptar el enfoque que plantea la posibilidad
de analizar un conjunto de tareas generales, la otra es utilizar los escenarios completos.
Sin embargo, en cualquiera de los dos casos las heurísticas a evaluar son las mismas, así
como también el instrumento utilizado.
176
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
Cuestionario
En el anexo C se desarrolla el instrumento específico que debe ser proporcionado a los
evaluadores para realizar esta etapa de la evaluación. Se trata de un cuestionario que
puede ser aplicado tanto para el caso de evaluación simplificada como exhaustiva, a los
efectos de evaluar las heurísticas de complejidad, visibilidad, e intuitividad y topografía
natural.
Roles
Un evaluador Docente tutor Nahuel y alumno Ana.
Tres evaluadores Evaluador 1: docente responsable Fabio
Evaluador 2: docente tutor Nahuel
Evaluador 3: alumno Ana
Cinco evaluadores Evaluador 1: docente responsable Fabio y alumno Agustín
Evaluador 2: docente tutor Nahuel
Evaluador 3: docente tutor Julián
Evaluador 4: alumno Ana
Evaluador 5: alumno Ailén
Tabla 9 – Roles de cada evaluador en evaluación orientada al diseño
Escenarios
Un evaluador Se utilizarán los 7 escenarios previamente seleccionados: ETD1.1,
177
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
Heurística Sub-heurística
178
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
179
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
180
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
7.5.2.2.1 Cuestionario
El cuestionario que se provee a los expertos para realizar el proceso de evaluación posee
la lista de principios heurísticos, checklist, que acabamos de presentar. Cada heurística es
acompañada por el nivel de conformidad alcanzado según el criterio del evaluador, más
un comentario que lo justifique en caso de ser necesario u oportuno. La conformidad es
medida a través del método Likert [Tro2002], con una escala ordinal de 1 a 5 puntos, cuyo
valor inferior (1) representa que la conformidad nunca fue alcanzada, y el valor superior
(5) que siempre lo fue. En el anexo D se expone el instrumento específico con las
preguntas que indagan sobre cada sub-heurística.
1. Planificación
i. Definición de la cantidad de evaluadores-expertos, perfil de cada uno y
selección de los mismos
Podemos implementar diferentes alternativas de acuerdo al tiempo y
disponibilidad de evaluadores. En tal sentido se sugiere que:
Un evaluador: en este caso, al tratarse de un experto que realiza toda la
tarea, debe poseer conocimientos de varias áreas disciplinares. Por tal
motivo debe tratarse de un evaluador EDE. El evaluador seleccionado
debería ser novato en la utilización del entorno que se desea evaluar a
los fines de lograr una visión lo más integral posible.
181
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
182
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
183
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
7.5.3.1 Evaluadores
De acuerdo a las seis clases de usuario propuestas, dejaremos de lado a los docentes
medios y seleccionaremos dos docentes novatos, dos avanzados, y dos alumnos de cada
clase. Ello hará un total de 10 usuarios, de los cuales 4 son docentes y 6 son alumnos. De
esta forma se obtendrá un abanico de usuarios que cubre gran parte del espectro.
184
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
7.5.3.2 Roles
Cada uno de los usuarios seleccionados tomará los siguientes roles:
Roles
DN1 Docente Tutor Julián
DN2 Docente Responsable Fabio
DA1 Docente Tutor Nahuel
DA2 Docente Tutor Nahuel
AN1 Alumno Ailén
AN2 Alumno Ailén
AM1 Alumno Agustín
AM2 Alumno Agustín
AA1 Alumno Ana
AA2 Alumno Ana
Tabla 12 – Roles de cada uno de los usuarios
7.5.3.3 Escenarios
Se utilizarán todos los escenarios definidos (21): EA1.1, EA2.1, EA3.1, EA1.2, EA2.2,
EA3.2, EA1.3, EA2.3, EA3.3, EDR1.1, EDR2.1, EDR3.1, EDR4.1, EDT1.1, EDT1.2,
EDT2.1, EDT2.2, EDT3.1, EDT3.2, EDT4.1, EDT4.2. La forma de distribuir los escenarios
entre los diferentes roles es la siguiente:
185
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
7.5.3.4 Sesiones
Como varios usuarios adquieren el mismo rol es necesario realizar sesiones de trabajo
diferentes para que éstos no se superpongan. Las sesiones de test deben organizarse de
manera tal que sea posible generar un simulacro a partir de los escenarios propuestos.
Los escenarios tienen cierta correlación entre ellos, que debe respetarse para poder
realizar las tareas previstas en los mismos. Por tal motivo, los usuarios pueden plantearse
de la siguiente manera:
Sesión 1: DA1, DN2, AN1, AM1, AA1
Sesión 2: DN1, DA2, AN2, AM2, AA2
Cada sesión debe ser coordinada y monitoreada por dos observadores. En tal sentido se
propone que cada sesión cuente con una persona diferente para garantizar mayor
objetividad.
Sesión 1: a cargo de O1 y O2
Sesión 2: a cargo de O3 y O4
186
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
- Eficiencia
Porcentaje de tareas completadas
- Efectividad
Tiempo total invertido por el usuario en las tareas completadas
Tiempo total ocupado en errores
Tiempo total de aprendizaje
Frecuencia de uso de la ayuda o documentación
- Satisfacción
Veces que el usuario expresa frustración o enojo
Utilidad del producto
Satisfacción con respecto a las funciones y características
Percepción de que la tecnología da soporte a las tareas según las
necesidades del usuario
En el caso particular de satisfacción sólo se han tomado algunas
características generales. Existen numerosos instrumentos específicos
para medir satisfacción, SUMI [Bev1995b] por ejemplo, pero constan de
una gran cantidad de preguntas que harían inmanejable la evaluación.
En el anexo F se desarrolla el instrumento específico.
187
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
1. Planificación
i. Definición de la cantidad de evaluadores-expertos, perfil de cada uno y
selección de los mismos
Como mencionamos anteriormente, para garantizar mayor objetividad,
trabajaremos con usuarios evaluadores que poseen diferente nivel de
experticia: novatos, medios y avanzados. En tal sentido proponemos
seleccionar dos docentes novatos, dos avanzados, y dos alumnos de cada
clase, es decir, un total de 10 usuarios, de los cuales 4 son docentes y 6 son
alumnos. De esta forma se obtendrá un abanico de usuarios que cubre gran
parte del espectro. Luego de seleccionar a los usuarios se les asignará un
nombre a cada uno de la siguiente manera:
- Docentes novatos: DN1, DN2
- Docentes avanzados: DA1, DA2
- Alumnos novatos: AN1, AN2
- Alumnos medios: AM1, AM2
- Alumnos avanzados: AA1, AA2
ii. Asignación de roles a cada evaluador
Cada uno de los usuarios seleccionados tomará los siguientes roles:
- DN1: Docente Tutor Julián
- DN2: Docente Responsable Fabio
- DA1: Docente Tutor Nahuel
- DA2: Docente Tutor Nahuel
- AN1: Alumno Ailén
- AN2: Alumno Ailén
- AM1: Alumno Agustín
- AM2: Alumno Agustín
- AA1: Alumno Ana
- AA2: Alumno Ana
iii. Distribución de escenarios a los evaluadores
Cada evaluador recibirá un escenario para la evaluación. Dicho escenario
contextualiza al usuario en una situación determinada. Se utilizarán todos los
escenarios definidos (21): EA1.1, EA2.1, EA3.1, EA1.2, EA2.2, EA3.2, EA1.3,
188
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
189
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
190
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
es decir, basarnos en el uso real del entorno virtual por parte de usuarios alumnos y
docentes, en uno o varios cursos que tengan cierta semejanza con los escenarios de uso
definidos anteriormente. La otra alternativa es recrear en el EVEA los escenarios que se
definieron, es decir, generar espacios virtuales para contener cursos e invitar a participar
a docentes y alumnos. En este caso el curso no es real sino un simulacro, donde el
contenido de aprendizaje no tiene relevancia, pero los participantes son alumnos y
docentes que trabajaran en sus propios contextos [Fer2011].
La evaluación real es una alternativa simple para cuando los recursos humanos son
escasos, se necesita una evaluación más rápida, o el EVEA a evaluar ya está en
funcionamiento dentro de la Institución, y cuenta con cursos adecuados para realizar la
evaluación sin necesidad de recrear una situación hipotética. Este tipo de evaluación
presenta una serie desventajas ya que al tomarse uno o varios cursos reales, algunas
tareas pueden no estar presentes, la cantidad de evaluadores no será la misma que para
una evaluación simulada, y tampoco existe garantía de que estén representados todos los
tipos de usuarios. Para reducir estos riesgos deben seleccionarse cuidadosamente los
cursos y asegurarse que la cantidad de usuarios sea representativa en cantidad y
experticia [Fer2011].
A continuación se desarrolla la forma de implementar la evaluación simulada, la cual
servirá como guía para el caso de optar por la evaluación real.
7.5.4.2 Evaluadores
Como los evaluadores que intervienen en esta etapa del proceso no son expertos sino
usuarios finales, entendemos que cada uno aportará menos información que un experto,
ya que no posee conocimiento específico sobre usabilidad y solo interactuará con el
EVEA desde su propio contexto de uso. En la capa anterior propusimos trabajar con 10
usuarios en total. En esta ocasión, es factible trabajar con 15 usuarios docentes y 27
usuarios alumnos, distribuidos de acuerdo a su experticia (novato, medio, avanzado).
Consideramos que es el número suficiente de evaluadores para obtener una visión
general del contexto. Claro está, que es una cota mínima, pero no impide que puedan
incorporarse más. Otro dato a tener en cuenta es que la evaluación no es obligatoria, y el
usuario no está en contacto con el evaluador. Por tal motivo, el proceso puede dirigirse a
una muestra de usuarios mayor, fundamentalmente en el caso de los alumnos, con el
objetivo de alcanzar por lo menos este piso con diferente nivel de experiencia y frecuencia
en el uso de Internet. A los efectos del desarrollo de la capa de evaluación tomaremos
esta cantidad mínima de usuarios como referencia.
- Docentes novatos: 5 (DN1, DN2, DN3, DN4, DN5)
- Docentes medios: 5 (DM1, DM2, DM3, DM4, DM5)
- Docentes avanzados: 5 (DA1, DA2, DA3, DA4, DA5)
- Alumnos novatos: 9 (AN1, AN2, AN3, AN4, AN5, AN6, AN7, AN8, AN9,)
- Alumnos medios: 9 (AM1, AM2, AM3, AM4, AM5, AM6, AM7, AM8, AM9)
- Alumnos avanzados: 9 (AA1, AA2, AA3, AA4, AA5, AA6, AA7, AA8, AA9)
Los usuarios evaluadores no están cara a cara con el observador sino que deben realizar
las tareas de manera autónoma y luego completar un cuestionario con el fin de volcar su
opinión en el mismo. Este tipo de evaluación posibilita el uso de herramientas
tecnológicas tanto para el suministro del cuestionario como para el procesamiento de los
resultados. No debemos olvidar que aquí interviene muy fuertemente el contexto de uso,
191
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
el cual puede ser muy diverso, y por lo tanto, es necesario contar con una muestra lo
suficientemente significativa como para abarcar distintos contextos respecto al entorno
donde se desarrolla la actividad, ubicación geográfica, recursos técnicos, horarios, etc.
Mediante las herramientas de análisis de comportamiento del usuario puede obtenerse
información respecto a la procedencia geográfica del usuario, así como también conexión,
software y versión utilizados. De esta manera podemos decidir cuándo finalizar la
evaluación, ya que nunca tendremos respuesta del 100% de los usuarios muestreados.
7.5.4.3 Roles
Tres docentes, de los 15 seleccionados, tomarán el rol de responsable, y los 12 restantes
el rol de los tutores. Los alumnos se distribuirán uniformemente entre los tres roles
definidos. La distribución de roles entre los 42 usuarios es la siguiente:
Evaluador Rol
DN1, DM1, DA1 Docente Responsable Fabio
DN2, DN3, DM2, DM3, DA2, DA3 Docente Tutor Julián
DN4, DN5, DM4, DM5, DA4, DA5 Docente Tutor Nahuel
AN1, AN2, AN3, AM1, AM2, AM3, AA1, AA2, Alumno Ailén
AA3
AN4, AN5, AN6, AM4, AM5, AM6, AA4, AA5, Alumno Agustín
AA6
AN7, AN8, AN9, AM7, AM8, AM9, AA7, AA8, Alumno Ana
AA9
Tabla 14 – Roles adjudicados a cada tipo de evaluador
7.5.4.4 Escenarios
Al situarnos en un contexto real, algunos aspectos de los escenarios pierden vigencia y
otros no. Por tal motivo, es posible que los usuarios y la asignatura elegida no cumplan
cabalmente con el perfil determinado en el contexto de uso particular y general
desarrollado en el ítem 4.4. De todas formas, al igual que en la tercera capa, se utilizarán
todos los escenarios definidos en el ítem 4.5, es decir 21, porque posibilitan otorgarle
claridad y coherencia a la evaluación. Una posible forma de distribuir los escenarios entre
los diferentes roles es la siguiente:
192
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
7.5.4.7 Duración
Los tiempos de la evaluación seguramente serán más largos que en las capas anteriores
porque los evaluadores se encuentran bajo una situación real, es decir, realizan su vida
cotidiana naturalmente, sin presiones, reuniones ni observadores. De todas formas, el
período de evaluación debe tener un plazo máximo, aunque no todos hayan terminado las
tareas por falta de tiempo o compromiso. Se estima adecuado pautar en una semana el
plazo máximo para realizar las tareas planteadas en los escenarios. Cumplido ese plazo,
el evaluador puede comenzar al procesamiento de los datos.
193
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
194
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
1. Planificación
i. Elección del tipo de evaluación: real o simulada
La evaluación real es la más sencilla ya que se realiza sobre un EVEA en uso.
La otra alternativa es realizar una evaluación simulada recreando en el EVEA
los escenarios definidos, confeccionando cursos para tal fin, e invitando a
participar a los usuarios alumnos y docentes.
a. Evaluación real
Deben seleccionarse cuidadosamente un conjunto de cursos donde se
asegure que la cantidad de usuarios y experticia de los mismos sea lo
más cercana posible a la evaluación simulada, y con una la distribución
de los usuarios acorde a como se plantearon los escenarios de uso.
Se sugiere tomar tres cursos de dos comisiones cada uno, que poseen
un docente responsable y dos tutores, 9 docentes en total. La cantidad
de alumnos activos de cada curso no debería ser inferior a 10; 30 en
total. Consideramos a un alumno como activo cuando participa
regularmente del curso y realiza las tareas demandadas. Los tres cursos
seleccionados deben poseer un contexto de uso lo más cercano posible
al definido anteriormente.
b. Evaluación simulada
Definición de la cantidad de evaluadores-usuarios y perfil de cada uno
Distinguimos dos tipos de usuarios: docentes y alumnos. Para cada tipo
se toman los mismos niveles de experiencia y frecuencia en el uso de
Internet que los utilizados en la tercera capa, es decir, novato, medio y
avanzado. La cantidad mínima de usuarios propuesta para el test es de
42, de los cuales 15 deben ser docentes y 27 alumnos.
Selección de los usuarios
Para elegir a los usuarios que participarán del test es necesario realizar
una invitación a un conjunto de alumnos y docentes. Los interesados no
pasan automáticamente a ser evaluadores sino que deben completar una
encuesta auto-administrada de forma on-line para conocer sus
características básicas y contexto de uso.
Luego de obtener la muestra mínima de usuarios en base a la encuesta,
deben formarse grupos de acuerdo al nivel de experticia y asignarles un
nombre a cada uno:
- Docentes novatos: 5 (DN1, DN2, DN3, DN4, DN5)
- Docentes medios: 5 (DM1, DM2, DM3, DM4, DM5)
- Docentes avanzados: 5 (DA1, DA2, DA3, DA4, DA5)
- Alumnos novatos: 9 (AN1, AN2, AN3, AN4, AN5, AN6, AN7, AN8,
AN9)
- Alumnos medios: 9 (AM1, AM2, AM3, AM4, AM5, AM6, AM7, AM8,
AM9)
- Alumnos avanzados: 9 (AA1, AA2, AA3, AA4, AA5, AA6, AA7, AA8,
AA9)
195
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
196
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
7.6 Conclusiones
El modelo que se acaba de presentar está orientado a una evaluación de producto, es
decir, sobre entornos virtuales que ya han sido desarrollados, y están en pleno
funcionamiento. El modelo se denomina MUsa, dado que se trata de un Modelo centrado
en la Usabilidad. La evaluación se apoya en escenarios reales de uso, teniendo especial
consideración por los alumnos y docentes, los objetivos que se proponen, las tareas
específicas que realizan dentro del entorno durante las actividades de enseñanza y
aprendizaje, el modelo mental que utilizan, el equipamiento e infraestructura que
disponen, el lugar físico donde habitualmente se desenvuelven, y el entorno social en el
cual están insertos. MUsa también puede facilitar la evaluación de nuevas versiones, o la
comparación entre ellas.
Las ideas generales de MUsa están basadas en una estrategia de cuatro niveles o capas
de evaluación, que parten de lo general para llegar a lo particular. Las cuatro capas
persiguen objetivos diferentes. La primera es la encargada de realizar una evaluación del
entorno en general, las tres capas restantes se sitúan en un contexto de uso particular,
por ejemplo, el aula virtual de un curso. Para ello, las capas más cercanas al usuario
utilizan escenarios de uso que permiten guiar y sistematizar la evaluación. En cada caso
se utilizan métodos, técnicas, e instrumentos diferentes, que se complementan entre sí y
posibilitan enriquecer la evaluación. Las capas propuestas pueden ajustarse a distintos
contextos dependiendo de la necesidad, nivel de profundidad de la evaluación, recursos y
tiempo disponible. MUsa puede adaptarse en dos sentidos, prescindiendo completamente
de algunas de las capas, o seleccionando diferentes alternativas dentro de la segunda
capa.
La primera capa de MUsa está destinada a analizar gran parte de la aceptabilidad práctica
del EVEA. La aceptabilidad práctica conjuga la utilidad con otras variables como costos,
compatibilidad, confiabilidad, y soporte. La utilidad, a su vez, está determinada por la
utilidad práctica o funcional, la usabilidad, y la accesibilidad. Por este motivo se aborda el
análisis de todos los componentes de la aceptabilidad práctica, menos el referido
específicamente a usabilidad. Esto no significa que la evaluación de usabilidad esté
ausente por completo en esta capa, sino que las variables que se analizan son: utilidad
práctica y accesibilidad (parte de la utilidad), junto con las características técnicas
generales (antecedentes, potencial, tecnología utilizada, licencia, soporte, seguridad,
acceso de usuarios), compatibilidad (servidor, usuario/cliente, formatos multimedia,
integración) y robustez (integridad de funcionamiento, recuperación ante fallos,
seguridad). En este sentido se pone énfasis sobre las características funcionales del
EVEA, donde se considera la flexibilidad del entorno desde el punto de vista tecnológico,
organizativo, y pedagógico/didáctico, incluyendo además el nivel de estandarización. Un
punto que toma especial relevancia es la versatilidad del entorno para adaptarse al
desarrollo de cursos, grupos de cursos, carreras, comunidades virtuales, etc. También es
importante evaluar la forma en que puede dar soporte a diferentes modalidades
educativas, sean éstas a distancia o mixtas, y a diferentes enfoques de enseñanza y de
aprendizaje. Para analizar este tipo de características es necesario contar con
especialistas en educación y en tecnología. La primera capa de evaluación pone énfasis
sobre las coincidencias entre los modelos estudiados en el capítulo 2, con la idea de
construir un instrumento de evaluación general, centrado en los componentes
tecnológicos de los EVEA, pero sin perder de vista los componentes organizativos,
197
Capítulo 7: MUsa: Modelo centrado en la Usabilidad para evaluación de EVEA
198
Capítulo 8: Caso de estudio. Aplicación de MUsa
199
Capítulo 8: Caso de estudio. Aplicación de MUsa
El Campus Virtual está formado por todas las aulas virtuales, sean éstas públicas, simples
o avanzadas, y se rige por una serie de derechos intelectuales y condiciones de utilización
expresados en un acuerdo de Términos y Condiciones de Uso del Campus Virtual SIAT
[TCU11].
200
Capítulo 8: Caso de estudio. Aplicación de MUsa
201
Capítulo 8: Caso de estudio. Aplicación de MUsa
En el año 2006 se realizaron varias tareas en paralelo. Por un lado se concluyó con el
núcleo básico de la nueva versión del SIAT: agenda, alertas, materiales compartidos,
calificaciones, envío y evaluación de actividades, pizarrón, noticias, preguntas frecuentes,
foro, perfil, niveles de jerarquía y diseño comunicacional. Un evento destacable fue el
desarrollo del curso “Entornos Virtuales”, llevado a cabo por integrantes del SIAT y
destinado a docentes, directivos y personal de gestión de las carreras con modalidad a
distancia de la Facultad de Ciencias Económicas. Como resultado de dicho curso se
capturaron nuevos requerimientos, modificaciones y mejoras de la nueva versión, algunas
de las cuales fueron realizadas en ese mismo momento y otras de mayor envergadura se
realizaron durante 2007.
Desde el año 2007, a la actualidad, el énfasis fue puesto exclusivamente en la mejora de
la nueva versión. La idea comenzó a gestarse a finales del año 2006, producto de la
cantidad de adecuaciones y nuevos requerimientos que surgían desde cada una de las
unidades académicas. En ese momento se evaluó que la idea original, orientada a dar
soporte a aulas virtuales, era acotada, poco flexible, y tenía problemas para dar respuesta
a crecientes demandas que involucraban la necesidad de manipular carreras, lo que
llevaba a ampliar la noción de aula virtual hacia la idea campus virtual. Por otra parte, la
interacción con otros organismos como la REDCOES o el Ministerio de Educación de la
Provincia de Córdoba corroboraron esta hipótesis, ya que en sus propuestas estaba
presente la noción de organizar las aulas virtuales de alguna forma. Otras tareas que se
emprendieron fueron el desarrollo de aulas de distinto tipo, definición de secciones
públicas y privadas. Además se focalizó el diseño de nuevos módulos orientados al
trabajo colaborativo y la evaluación on-line, tales como grupos, materiales compartidos,
integración con Google Apps, exámenes, auto-exámenes, y cuestionarios [Zor11].
El SIAT ha sido utilizado para desarrollar más de 500 propuestas educativas,
incorporando cada año mayor cantidad de aulas virtuales, tanto para pre-grado, grado, y
posgrado, modalidades presenciales, semi-presenciales y a distancia, e innovaciones
pedagógicas. Pero, por sobre todas cosas, en los últimos años tomó un auge
importantísimo su utilización para formación universitaria de grado de carácter presencial,
generando modalidades de aula extendida, que trajo aparejado la incorporación masiva
de docentes y alumnos de la propia universidad. En solo 3 años, el crecimiento respecto a
la demanda del sistema para la generación de espacios virtuales en la Web fue
significativo [Fer08]. En la actualidad, el Campus Virtual SIAT es utilizado por toda la
UNRC, contando con alumnos y docentes de sus cinco Facultades, tanto de grado como
de posgrado. Algunas Facultades ya poseen aulas virtuales para más del 90% de sus
asignaturas. La fuerte demanda puede observarse en la cantidad de usuarios, ya que
aproximadamente el 60% de los alumnos de la UNRC se encuentran participando
activamente. Los usuarios activos son más de 6.000, 800 de los cuales son docentes, y el
resto alumnos. Solo en el año 2010, se generaron 400 aulas virtuales, 70 de las cuales
pertenecen a carreras distancia y el resto son para apoyo a la presencialidad [Thü2011a].
202
Capítulo 8: Caso de estudio. Aplicación de MUsa
Los alumnos, por su parte, resaltaron de forma muy positiva el entorno virtual en cuanto a
las herramientas ofrecidas, facilidad de uso, de aprendizaje y navegación [Fer2009].
Hacia mediados de 2010, el INTI evaluó el EVEA SIAT mediante el modelo de evaluación
de calidad de productos de software MEDEPROS [Col02], cuyo objetivo es proveer
mecanismos y recomendaciones para la evaluación de productos desde el punto de vista
del usuario final basado en la norma ISO/IEC 14598B5 y los modelos de calidad ISO/IEC
9126 e ISO/IEC 12119. Los resultados destacaron la funcionalidad del entorno, su
confiabilidad, eficiencia y la usabilidad de la interfaz de usuario. Además, señaló que la
documentación y ayuda del sistema son adecuadas para que los usuarios conozcan su
funcionamiento y modo de manejo [Luc10].
Siguiendo con esta línea se propone someter el EVEA SIAT al modelo de evaluación
presentado en esta tesis. Ello tiene un doble objetivo: validar el modelo a través de un
caso de estudio real, y aportar una valoración del entorno virtual desde el punto de vista
educativo basado en la usabilidad.
8.2.1 Introducción
Cada capa del modelo plantea el acercamiento hacia el usuario de acuerdo al objetivo
que persigue, siendo la primera la más lejana y la cuarta la más cercana. Las capas
pueden ajustarse a distintos contextos dependiendo de la necesidad, nivel de profundidad
de la evaluación, recursos y tiempo disponible. Puede prescindirse completamente de
alguna, o utilizarlas todas y seleccionar diferentes alternativas dentro de la segunda y
cuarta capa. Para la evaluación del EVEA SIAT, que es el caso de estudio abordado aquí,
se adoptó la segunda modalidad, es decir, utilizar las cuatro capas [Fer2011b].
203
Capítulo 8: Caso de estudio. Aplicación de MUsa
204
Capítulo 8: Caso de estudio. Aplicación de MUsa
del alumno Ailén, el Evaluador 2 hizo lo propio con el docente tutor Nahuel y el alumno
Ana, mientras que el Evaluador 3 se hizo cargo del docente tutor Julián y del alumno
Agustín.
8.2.3.1 Capa 1
La primera capa del modelo hace énfasis en las características funcionales del EVEA
relacionadas con las facilidades para la organización académica y la flexibilidad
pedagógica. Los actores principales de la evaluación son especialistas en educación y en
tecnología a efectos de garantizar cierto grado de objetividad y agilidad en el proceso. Por
tal motivo, se seleccionaron los cuatro evaluadores previstos, dos de los cuales los
consideramos dentro de la categoría de especialistas en educación y TIC (EE1, EE2), y
dos especialistas en tecnología (ET1, ET2). Los perfiles de cada uno son los siguientes:
• EE1: Licenciada en Psicopedagogía especializada en TIC, perteneciente al Área de
Educación a Distancia y Tecnología Educativa de la Secretaría Académica de la
UNRC.
• EE2: Especialista Universitario en Educación y Formación a Distancia a través de
Redes Digitales: Recursos y Servicios de Internet, perteneciente a la Facultad de
Ciencias Exactas, Físico-Químicas y Naturales de la UNRC.
• ET1: Licenciado en Ciencias de la Computación especializado en desarrollo Web,
perteneciente a la Facultad de Ciencias Exactas, Físico-Químicas y Naturales de la
UNRC.
205
Capítulo 8: Caso de estudio. Aplicación de MUsa
206
Capítulo 8: Caso de estudio. Aplicación de MUsa
8.2.3.2 Capa 2
La segunda capa realiza una evaluación de alto nivel orientada a la tarea, y otra en detalle
orientada al diseño. La idea de esta etapa del modelo es evaluar la forma en que el EVEA
interactúa con el usuario, la interfaz que presenta y el modo en que permite a los usuarios
realizar las tareas básicas. El especialista debe transitar una serie de escenarios de uso,
adoptando distintos personajes, y navegando por las interfaces respectivas, a los fines de
determinar el grado en que son respetadas las heurísticas de usabilidad, tanto desde el
punto de vista de los propósitos, como desde los objetivos de los usuarios de un EVEA.
En esta capa es posible seleccionar la cantidad de evaluadores de acuerdo a factores
tales como tiempo, disponibilidad, y presupuesto. Por este motivo existen dos alternativas,
una sencilla donde interviene un solo evaluador, y otra donde pueden intervenir 3 ó 5
evaluadores. En nuestro caso se optó por seleccionar tres evaluadores para que, de
alguna manera, pudiéramos posicionarnos en un punto medio, y lograr una evaluación
que recoja opiniones de más de un experto. Los evaluadores seleccionados fueron: uno
de la Facultad de Ciencias Exactas, Físico-Químicas y Naturales de la UNRC (Evaluador
1), y dos a la Facultad de Informática de la UNLP (Evaluador 2 y Evaluador 3). Los
evaluadores de la UNLP no conocían el EVEA, mientras que el la UNRC sí. A su vez,
para el caso de contar con 3 ó 5 expertos el modelo propone dos alternativas, una
simplificada que evalúa el EVEA a nivel de tareas, y otra más exhaustiva que se basa en
207
Capítulo 8: Caso de estudio. Aplicación de MUsa
8.2.3.3 Capa 3
Esta capa requiere de observaciones directas de los usuarios trabajando sobre el EVEA.
De esta manera, se incorpora la opinión de los usuarios finales bajo un ambiente
controlado por un observador. A medida que el usuario interactúa con el entorno debe
expresar en voz alta sus pensamientos, sensaciones y opiniones, mientras el observador
capta y registra las impresiones y sensaciones que el usuario manifiesta oralmente,
además de realizar preguntas directas cuando lo considera conveniente. Los usuarios
participantes fueron solicitados a la Directora de Educación a Distancia de la Facultad de
Ciencias Económicas de la UNRC. Se propuso un grupo de 6 docentes y 9 alumnos, de
acuerdo a los perfiles de usuario (novato, medio, y avanzado). En el caso de los
docentes, se solicitó que 2 fueran novatos, 2 medios, y 2 avanzados, mientras que en el
208
Capítulo 8: Caso de estudio. Aplicación de MUsa
caso de los alumnos, 3 que fueran novatos, 3 medios, y 3 avanzados [Fer2011b]. Luego
de recibido el listado correspondiente, se procedió a contactar a cada usuario para
proponerles el trabajo y convenir un día y horario de realización. Se acordaron dos
sesiones de trabajo en días y horarios diferentes. Como laboratorio de usabilidad se
eligieron dos salas de informática pertenecientes a la Universidad, para la primer sesión
un laboratorio con computadoras de 10 años de antigüedad, y para la segunda sesión uno
que dispone de computadoras adquiridas hace 2 años. En ambos casos la conexión a
Internet alcanzó características similares o inferiores a una domiciliaria de banca ancha.
Los equipos informáticos utilizados contaban con Windows XP e Internet Explorer 7 en el
primer caso, y Windows 98 con Firefox 2.0 en el segundo. De todos los usuarios
convocados concurrieron solo un docente y un alumno por sesión. Cada sesión estuvo a
cargo de un observador para llevar el registro de lo acontecido durante la evaluación. Si
bien la mayoría manifestó su predisposición a participar, la concurrencia fue escasa. En
función de ello se reestructuraron los roles de los usuarios de la siguiente manera, de
acuerdo al perfil de los asistentes:
• Sesión 1: DA1 (Docente Avanzado 1), AA1 (Alumno Avanzado 1)
• Sesión 2: DN2 (Docente Novato 2), AN2 (Alumno Novato 2)
Tanto el docente como el alumno que participaron de la segunda sesión hacía 1 año que
no utilizaban el EVEA. Este contexto posibilitó evaluar heurísticas importantes tales como
la facilidad para recordar y para aprender.
Al ponerse en marcha cada sesión en el laboratorio elegido, los usuarios tomaron el
cuestionario y lo completaron analizando el entorno, utilizando los escenarios y roles
asignados, mientras el observador registraba los tiempos de duración de cada escenario,
tomaba nota del trabajo u acotaciones de los usuarios, y respondía dudas de los mismos.
Una vez concluida la sesión el observador analizó los resultados basándose en los
cuestionarios propios y en los completados por los usuarios.
8.2.3.4 Capa 4
La cuarta capa involucra una evaluación bajo condiciones reales de uso, es decir, en un
contexto establecido y con usuarios reales. Para ello se seleccionó un conjunto de
usuarios finales pertenecientes al primer año de las tres carreras con modalidad a
distancia de la Facultad de Ciencias Económicas de la UNRC, que estaban utilizando el
EVEA y poseían un contexto similar al establecido por los escenarios. Cabe destacar que
las materias de primer año son las mismas para las tres carreras [2011b].
Otra alternativa posible era la evaluación simulada, pero se optó por la real dado que se
contaba con aulas virtuales que estaban en pleno funcionamiento y permitían acceder a
resultados basados en el contexto real. La evaluación se llevó a cabo durante el segundo
cuatrimestre de 2010 en las asignaturas Análisis Matemático II, Principios de Economía I,
e Historia Económica y Social. Cada asignatura disponía de un aula virtual dividida en dos
comisiones cada una. El test remoto se realizó, tanto por docentes como por alumnos, en
su propio lugar de estudio o trabajo, de manera tal que fuera posible evaluar el contexto
de uso.
Esta capa exige una cantidad mínima de evaluadores. En el caso de una evaluación
simulada, son 42 usuarios, 15 de los cuales son docentes y 27 son alumnos. Para el caso
de una evaluación real, como la realizada, esta cifra se reduce a la mitad, es decir, 7
docentes y 13 alumnos. La cantidad de docentes (4) fue inferior a la exigida (7), mientras
que la cantidad de alumnos (15) superó escasamente el mínimo (13).
209
Capítulo 8: Caso de estudio. Aplicación de MUsa
Una diferencia importante con el modelo fue que no se realizó un proceso de selección de
los usuarios para conocer sus características básicas, determinar su nivel de experticia
(novato, medio, avanzado) y contexto general, sino que se suministraron los cuestionarios
por correo a todos los usuarios que habían participado de dichas materias. También se
entregaron personalmente a los alumnos que concurrieron a la Universidad con motivo de
un encuentro presencial para consultas antes de rendir el último examen parcial
[Fer2011b].
Luego se destinaron 2 meses para recibir las respuestas, y finalmente el observador
realizó un resumen de las opiniones, tomando como base los dos cuestionarios realizados
por cada usuario para la evaluación directa, las huellas que dejaron dentro de las aulas
virtuales durante el proceso de realización de las tareas, el registro de log de cada una, y
el cuestionario para la evaluación indirecta completado por él.
8.2.4.1 Capa 1
210
Capítulo 8: Caso de estudio. Aplicación de MUsa
relevado fallas derivadas de un mal diseño del software, posee tolerancia ante utilización
poco experta, capacidad de controlar los accesos a bases de datos y herramientas que
integran el entorno, los materiales almacenados están protegidos, y exige respetar cierta
propiedad sobre los materiales.
211
Capítulo 8: Caso de estudio. Aplicación de MUsa
8.2.4.1.4 Estandarización
Del análisis desde el punto de vista de la estandarización se destaca que, si bien, posee
niveles aceptables de adecuación a los estándares de la W3C (XHTML, CSS, WCAG), no
cumple totalmente con ellos. En cambio, es compatible con los principales navegadores.
La visibilidad para usuarios con visión reducida es muy buena para quienes poseen baja
visión, pero no está adaptado a usuarios con ceguera. Tampoco cumple con estándares
de internacionalización y de e-learning. Dado lo costoso, interesante, y exhaustivo de este
análisis, detallamos a continuación la evaluación realizada por el especialista ET2.
La adecuación al estándar W3C – XHTML arrojó un promedio de 49 errores leves, ningún
error grave, y 54 advertencias en la hoja de ruta analizada. El evaluador indicó que sería
beneficioso contar con un validador que permita agrupar los errores por tipo para facilitar
la depuración del código. El chequeo de adecuación a W3C – CSS indicó la presencia de
109 errores, y 2 advertencias promedio. Sobre este punto, el evaluador acotó que el
validador utilizado no considera la posibilidad de utilizar ‘hacks’ en el desarrollo del CSS o
propiedades específicas de un navegador como –moz o –webkit. Estas técnicas son
212
Capítulo 8: Caso de estudio. Aplicación de MUsa
utilizadas frecuentemente por los diseñadores para corregir algunos fallos de visualización
que presentan algunas versiones de navegadores que no se ajustan al estándar de la
W3C. En tanto que la accesibilidad respecto al W3C - WCAG 2.0 arrojó 612 problemas de
prioridad 1, 651 de prioridad 2, y 193 de prioridad 3, de los cuales 214 son automáticos
(81 prioridad 1, 118 prioridad 2, 15 prioridad 3) y 1242 son manuales (531 prioridad 1, 533
prioridad 2, 178 prioridad 3). En lo referido a la accesibilidad, el evaluador acotó que no
hay un reporte estandarizado de los errores que detecta cada validador, la organización
de la información varía y responde a diferentes criterios. Por ejemplo, Cynthiasays válida
combinando prioridades y tipos de contenido (tablas, imágenes, mapas, texto). A modo de
ejemplo el evaluador incluyó un reporte por separado con la información específica del
validador Cynthiasays. El test se efectuó descargando las páginas para analizarlas
localmente, ya que TAW y Cynthiasays no permiten chequear páginas de forma on-line
que requieran autenticación. Al margen de detectarse una buena cantidad de errores,
advertencias y problemas de prioridad, que están en proceso de corrección, la mayoría no
afectan al normal funcionamiento del EVEA.
213
Capítulo 8: Caso de estudio. Aplicación de MUsa
visual, por lo cual el sistema sigue siendo operable por un usuario con navegadores
desactualizados. Se soporta desde Internet Explorer 6 hasta 9, Chrome y Firefox 3.x y 4.
La evaluación de visibilidad para usuarios de visión reducida no fue sencilla, ya que la
elección de un validador adecuado llevó un tiempo considerable. Finalmente se optó por
utilizar ASES, por ser una herramienta que posibilita simular baja visión, entre otras
cosas. El resultado de la evaluación con ASES determinó que el EVEA SIAT se adecua
totalmente a los usuarios con miopía y daltonismo, parcialmente para hipermetropía,
catarata, glaucoma y retinopatía, y no se cumple para ceguera.
El evaluador acotó que las páginas del EVEA SIAT debieron descargarse para poder
analizarlas con el simulador ASES ya que solo permite validar páginas de forma on-line
que no requieren acceso autenticado. Al tratarse de páginas JSP (JavaServer Page), se
tuvieron que ejecutar en un servidor de páginas dinámicas instalado localmente. En tal
sentido, se utilizó Apache Tomcat. Luego se constató que no existían diferencias
importantes en la visualización puesto que todas las secciones guardaban la misma
estructura (encabezado, menú, breadcrumb, contenido y pie de página). Por tal motivo se
optó por realizar la comprobación solamente sobre la página de inicio del aula virtual. En
general, el tamaño de la tipografía y el uso del color permiten visualizar el sitio
correctamente en diferentes condiciones de visibilidad. Las patologías que presentan
mayores problemas requieren de lentes y tratamientos para los cuales no es posible
adaptar el sistema. Además, los lugares donde el usuario puede escribir contenido
poseen restricciones para el uso del color y la tipografía a los efectos de impedir que se
genere contenido con baja accesibilidad.
214
Capítulo 8: Caso de estudio. Aplicación de MUsa
Figura 34 – Retinopatía
Por último, al ser un producto dirigido hacia una comunidad específica, como lo es la
UNRC, no posee mecanismos para el intercambio de contenidos, así como tampoco uso
en otros lenguajes distintos al español. Por ello no cumple con estándares de
internacionalización, ni de e-learning. En tal sentido, no fue necesario realizar la
evaluación de estándares para determinar si el EVEA permite y facilita el uso con
diferentes lenguajes, por diversas culturas y regiones, y formatos y protocolos que no
establezcan barreras a los diferentes idiomas, sistemas de escritura, códigos y otras
convenciones locales. Tampoco hizo falta analizar los diferentes estándares y
especificaciones como SCORM, IMS, LOM, y AICC.
215
Capítulo 8: Caso de estudio. Aplicación de MUsa
8.2.4.2 Capa 2
El Evaluador 1 realizó la tarea transitando los escenarios E1DR, E2DR, E2DR, E4DR
desde el punto de vista de un docente responsable, y los escenarios E1A3, E2A3, E3A3
desde el punto de vista de un alumno.
Respecto a la complejidad de las tareas desde el punto de vista docente, la respuesta
fue “muy baja”, en todos lo casos. Sin embargo, en todos los escenarios se tuvieron que
tomar decisiones sobre cómo realizar algunas tareas:
• Para informar a los alumnos sobre las fechas de inicio y cierre de módulos se optó
por el calendario en lugar de noticias.
• Para explorar las distintas comisiones se utilizaron de forma conjunta las
actividades y estadísticas.
• Para realizar el seguimiento de tutores y alumnos se utilizaron distintas
herramientas de modo no estructurado, como consultar el correo y luego el foro o
viceversa.
• Para informarse sobre las actividades entregadas y dar comienzo al segundo
módulo no hizo falta seguir un orden determinado, por ejemplo, cargar los
materiales del módulo 2 y luego revisar las actividades del módulo 1.
Para el caso de alumno la complejidad también fue “muy baja”.
En cuanto a la visibilidad de las tareas, todas fueron valoradas de forma positiva, con
“muy de acuerdo” o “de acuerdo”. Se estuvo “muy de acuerdo” con la información justa y
necesaria en cada momento, la intuitividad del diseño, la existencia de señales que
indican lo que se debe hacer, y la jerarquización de la información. Con la disponibilidad
de acciones posibles en cada momento hubo “acuerdo”, mientras que la posibilidad de
encontrar fácilmente la forma de realizar las tareas recibió como respuestas “muy de
acuerdo” (3/4) y “de acuerdo” (1/4). Por último, que la información de contexto y
orientación fuera adecuada se repartió entre “muy de acuerdo” (2/4) y “de acuerdo” (2/4).
La intuitividad y topografía natural obtuvo muy buenos índices de valoración, al igual
que visibilidad. Los puntos más fuertes estuvieron en la analogía con el mundo real, que
cosechó “muy de acuerdo” en todos los casos, la falta de necesidad de recordar, y lo
predecible que son los efectos de los actos realizados, con “muy de acuerdo” (3/4) y “de
acuerdo” (1/4). En el caso de los mensajes autoexplicativos, que son objetos que
componen la interfaz, se obtuvieron todas valoraciones del tipo “de acuerdo”.
El Evaluador 2 realizó la tarea transitando los escenarios E1DT1, E2DT1, E3DT1, E4DT1
desde el punto de vista de un docente tutor, y los E1A1, E2A1, E3A1 desde el punto de
vista de un alumno. Cabe acotar que la evaluación se realizó dos veces porque en la
primera instancia el evaluador no siguió el orden establecido de los escenarios. En la
segunda instancia sí lo hizo, pero fue luego que los otros evaluadores concluyeran sus
tareas, con lo cual algunos aspectos no pudieron ser evaluados por falta de sincronía
entre los mismos.
La complejidad de las tareas desde el punto de vista docente tutor fue “normal” en los
primeros escenarios y “alta” en los dos restantes. En el primer escenario el evaluador
manifestó que encontró “claro el circuito y le pareció sencilla la forma de hacer las tareas
requeridas”, aunque le “costó ver los datos de alumnos”. Mientras tanto, en el segundo
encontró “una forma de hacer cada tarea”. Los restantes escenarios no recibieron
comentarios. Desde el punto de vista del alumno la complejidad fue “normal” en el
216
Capítulo 8: Caso de estudio. Aplicación de MUsa
217
Capítulo 8: Caso de estudio. Aplicación de MUsa
y el diseño es intuitivo y existen señales que indican de manera natural lo que se debe
hacer). En un punto neutro podríamos decir que estuvieron los escenarios E3A2 y E3DT2,
ya que fueron valorados con 3 acuerdos y 3 desacuerdos (en la interfaz aparece la
información justa y necesaria para la realización de las tareas, se encuentra fácilmente la
forma de realizar las tareas, y la información de contexto y orientación es adecuada). Los
escenarios con valoración más baja fueron el E2DT2 con 4 desacuerdos y 2 acuerdos, y
el E4A2 con 5 desacuerdos y un solo “muy de acuerdo”.
Por último, la intuitividad y topografía natural de las tareas en cada escenario tuvo un
importante correlato con la visibilidad. Los escenarios que se destacaron positivamente
fueron E1A2, con 4 acuerdos, E1DT2 y E2A2, con 3 acuerdos y un “muy de acuerdo”,
E3DT2 y E4DT2, con 3 acuerdos y un desacuerdo (analogía con el mundo real). Mientras
que los escenarios intuitivos y naturales fueron 3. El escenario E3A2 obtuvo 2 acuerdos,
un indiferente (analogía con el mundo real) y un desacuerdo (objetos de la interfaz
autoexplicativos). Por último, el E2DT2 y E4A2 con solo un acuerdo (no hace falta
recordar) y 3 desacuerdos.
Respecto a las heurísticas para evaluación en detalle orientada al diseño, y sus 88
subheurísticas asociadas, se agruparon las opiniones de los 3 evaluadores, debido a
escala numérica de las respuestas, en lugar de hacerlo por separado como los criterios
anteriores. El nivel de conformidad de los criterios generales fue bueno. En una
escala de 1 a 5 puntos obtuvo 4,2 de promedio, entre los 3 evaluadores, destacándose
consistencia (5), estándares (4,6), ayuda (4,5), y diseño y organización (4,5). Los criterios
que se ubicaron más alejados de la media fueron: reversibilidad y manejo del error (3,4), y
retroalimentación (3,6). A continuación se presenta un gráfico con la valoración de cada
criterio discriminada por evaluador. Cabe destacar que el Evaluador 3 fue quien tuvo, en
general, la valoración más negativa y, además, una cantidad importante de subheurísticas
sin valoración alguna (19/88).
Heurísticas
5,0
4,5
4,0
3,5
3,0
2,5
2,0
1,5
1,0
0,5
0,0
rio
n
n
a
d
s
rro
ó
ó
ció
re
ci
a
ci
ci
id
le
n
su
da
ta
ta
za
te
tiv
de
en
lu
n
en
is
ni
uc
tá
s
de
m
ga
im
jo
Es
on
od
cu
e
or
al
te
C
Pr
an
do
ro
ar
y
M
et
ño
rp
y
R
a
ise
po
ad
ud
D
l
i lid
Ay
tro
sib
on
C
er
ev
218
Capítulo 8: Caso de estudio. Aplicación de MUsa
8.2.4.3 Capa 3
Cuando concluyen las dos sesiones de trabajo, mediante las cuales se realiza el
simulacro controlado a partir de los escenarios propuestos, el observador analiza los
resultados del test de expresión del usuario en base a preguntas. Recordemos que este
test está compuesto de una evaluación directa realizada por los usuarios, y otra indirecta
a cargo de los observadores. Luego de concluida la sesión de evaluación, se obtiene un
cuestionario completado por cada usuario y otro por el observador asignado al mismo. En
este caso se obtuvieron un total de 8 cuestionarios, de los cuales 2 fueron completados
por docentes, 2 por alumnos y 4 por los observadores. Los resultados alcanzados fueron
los siguientes:
219
Capítulo 8: Caso de estudio. Aplicación de MUsa
220
Capítulo 8: Caso de estudio. Aplicación de MUsa
221
Capítulo 8: Caso de estudio. Aplicación de MUsa
222
Capítulo 8: Caso de estudio. Aplicación de MUsa
8.2.4.4 Capa 4
Luego de concluido el test, el observador a cargo debe resumir la opinión de los usuarios
reales. Para ello utiliza como base los cuestionarios realizados por los docentes y
alumnos, las huellas que dejaron dentro de las aulas virtuales durante el proceso de
realización de las tareas, y el registro de log de cada una. A continuación se desarrolla la
información obtenida a partir de los cuestionarios para los usuarios y para el observador.
223
Capítulo 8: Caso de estudio. Aplicación de MUsa
“estimo que la valoración de indiferente podría ser más aprovechada por no tan de
acuerdo o algo similar puesto que no deja otra opción que poner en desacuerdo cuando
en la mayoría de los casos no es totalmente de esa manera sino que podrían mejorarse
algunos de los aspectos consultados de la grilla” (sic). Entendemos que tiene razón y se
puede dar lugar a la observación a efectos de mejorar la captura de opiniones. Por ello
proponemos cambiar en el instrumento la valoración indiferente por no tan de acuerdo.
El nivel de conformidad de los criterios generales que todo sitio Web debería tener fue
bueno. En una escala de 1 a 5 puntos obtuvo 3,7 de promedio, destacándose estándares
(4,5), consistencia (4,1), y retroalimentación (4). Los criterios que se ubicaron más
alejados de la media fueron: reversibilidad y manejo del error (3,5), ayuda y
documentación (3,3), y productividad (3,2). En tanto que control por parte del usuario, y
diseño y organización obtuvieron valores similares a la media (3,7).
Heurísticas
5
Productividad
4,5
4
Retroalimentación
1 Ayuda y documentación
0,5 Estándares
0
224
Capítulo 8: Caso de estudio. Aplicación de MUsa
Por último, el 100% opina que “casi siempre” tienen la percepción que las tecnologías dan
soporte a las tareas según sus propias necesidades.
Dentro de los comentarios generales, un docente realizó el siguiente aporte: “considero
que la plataforma SIAT brinda el herramental necesario para desarrollar las actividades a
distancia. A pesar del poco tiempo de inicio en el uso de esta plataforma, se observa que
la mayor deficiencia radica en la comunicación individual entre el tutor y el alumno.
Algunas herramientas que provee son de poco uso en el proceso, tal es el caso del foro y
grupo” (sic).
225
Capítulo 8: Caso de estudio. Aplicación de MUsa
Heurísticas
5,0
Productividad
4,5
Retroalimentación
4,0
0,5 Estándares
0,0
226
Capítulo 8: Caso de estudio. Aplicación de MUsa
Consistencia 5 4,5
227
Capítulo 8: Caso de estudio. Aplicación de MUsa
8.2.5.1 Capa1
• El tiempo de evaluación se extendió por más de tres meses.
• El evaluador de estándares dedicó más tiempo que los 3 expertos restantes juntos.
8.2.5.2 Capa 2
• Los evaluadores seleccionados no respondieron cabalmente al perfil propuesto en
el modelo.
• El tiempo de evaluación se extendió por más de un mes.
• Los expertos seleccionados estaban dispersos en diferentes lugares geográficos.
No compartieron sesiones conjuntas de trabajo sino que cada uno realizó la
evaluación por su cuenta.
• El análisis pormenorizado de los escenarios produjo cambios en la secuencia
porque no era correcta.
• Se debió preparar un documento especial para explicar a cada evaluador el
contexto de uso y los escenarios.
• La coordinación entre evaluadores fue muy dificultosa. Los escenarios deberían
permitir que cada evaluador no dependa de los demás.
• Falta particularizar un poco más las tareas de acuerdo al EVEA que se pretenda
evaluar, pero sin llegar a inducir ciertos usos. Por ejemplo, aclarando el significado
de “conocer la situación de cada alumno”, o si “tarea es lo mismo que actividad”, en
el caso del SIAT.
• Es demasiado engorroso solicitar que se utilicen varios navegadores y conexiones
a Internet para transitar todos los escenarios. Inclusive hay escenarios que no
pueden repetirse dos veces de forma idéntica. En todo caso debería pedirse que
ciertos escenarios se evalúen con un navegador y versión determinada, y los
restantes escenarios con otro. La conexión a Internet debería ser la de menor
calidad posible.
• Uno de los evaluadores realizó en serie los escenarios correspondientes a cada rol,
con lo cual muchas tareas no podían realizarse debido a que necesitaban de otras
previas. Por ejemplo, el docente-tutor no puede evaluar una actividad si el alumno
no la subió previamente.
• El mismo evaluador planteó que llevaba mucho tiempo realizar todo el proceso de
manera exhaustiva.
• Los escenarios deberían ser lo menos dependiente posible entre cada rol. De esa
manera se podrían realizar evaluaciones independientes, aumentar la cantidad de
evaluadores, reducir la cantidad de escenarios evaluados por cada uno, y, de esa
forma, reducir el tiempo dedicado por cada uno de ellos.
228
Capítulo 8: Caso de estudio. Aplicación de MUsa
8.2.5.3 Capa 3
• La cantidad de observadores es insuficiente. Mientras el usuario realiza las tareas,
el observador debe estar presente para registrar lo que éste expresa, y realizar
preguntas directas cuando lo considere necesario. Durante la sesión, el observador
debe tomar registro y completar, por cada usuario, la primera parte del
cuestionario. Luego de finalizada la misma debe completar la segunda mitad. Este
cuestionario detalla un conjunto de métricas de usabilidad que intentan medir el
grado de efectividad, eficiencia y satisfacción del entorno virtual. Para poder
registrar correctamente toda la información es necesario que cada usuario tenga
asignado un evaluador. Para llevar esto a la práctica pueden evaluarse diferentes
opciones:
o Contar con la participación de 10 observadores en lugar de 4.
o Reducir la cantidad de usuarios a 6 (3 docentes y 3 alumnos) y aumentar los
observadores a 6.
o Aumentar la cantidad de sesiones y hacer participar varias veces al mismo
observador. Para lograr esto, los escenarios, de acuerdo al rol, deberían ser
más independientes.
• La asistencia y coordinación de cada sesión es dificultosa. La elección de un día y
horario que conforme a todos los usuarios es casi imposible de llevar a cabo.
También lo es lograr la participación de todos los usuarios comprometidos. Para
suplir la falta de algún usuario a la sesión de evaluación es necesario incorporar un
ayudante que haga las veces de docente o de alumno sin necesidad de ser
observado ni que complete los cuestionarios.
• La concurrencia fue escasa, solo participaron 4 de los 15 convocados.
• La guía entregada a los evaluadores, donde constan los escenarios y el contexto
de uso, debería agrupar a los escenarios de acuerdo el rol que desempeña cada
evaluador para aportarle mayor claridad a la persona que asume dicho rol.
8.2.5.4 Capa 4
• No se cubrió la cantidad mínima de usuarios docentes, ya que participaron 4 en
lugar de 7.
• La cantidad de usuarios alumnos se cubrió ajustadamente, 15 voluntarios sobre 13
de mínima.
• No se realizó la selección de usuarios para determinar su nivel de experticia
(novato, medio, avanzado) y contexto general, sino que se apeló a usuarios
voluntarios.
• Los tiempos en recibir las respuestas fueron mayores a lo esperado.
229
Capítulo 8: Caso de estudio. Aplicación de MUsa
8.3 Conclusiones
Para tener dimensión de las cualidades y defectos de MUsa, se lo aplicó sobre un EVEA
real, en el contexto institucional de la Universidad Nacional de Río Cuarto. De esta forma
se puso a prueba la propuesta, que a su vez sirvió para validar el EVEA SIAT,
desarrollado y utilizado por esta Universidad desde hace más de 10 años. El caso de
estudio sirvió para realizar un recorrido completo por las cuatro capas del modelo de
evaluación, tomar las decisiones correspondientes en cada una de ellas de acuerdo a la
magnitud de la evaluación, tiempo y recursos disponibles, y afrontar una aplicación
efectiva del mismo dentro de un contexto conocido y acotado.
La primera capa de evaluación, realizada por especialistas en educación y tecnología,
permitió observar que el EVEA SIAT posee las características funcionales básicas,
buenos niveles de adecuación a los estándares de navegación, no así de e-learning e
internacionalización, y es flexible desde el punto de vista tecnológico, organizativo y
pedagógico/didáctico.
La segunda capa aportó la opinión de expertos en las temáticas relacionadas con EVEA.
Para el caso de la evaluación orientada a la tarea, los expertos destacaron que el SIAT no
es complejo desde el punto de vista de su utilización de un docente o de un alumno,
aunque fueron dispares las opiniones respecto de la visibilidad y topografía natural, sin
duda un aspecto a mejorar. Desde el punto de vista del diseño de interfaces, el nivel de
conformidad fue muy bueno.
La tercera capa incorporó la opinión de usuarios finales, docentes y alumnos, en el marco
de un laboratorio de usabilidad. En este caso se observó que las tareas no fueron
complejas, pero resultaron de menor complejidad en el caso de los alumnos, la visibilidad
obtuvo muy buenas valoraciones en ambos casos, mientras que la intuitividad y topografía
natural fue valorada positivamente, pero mejor aún en alumnos.
En la cuarta y última capa intervinieron usuarios finales dentro de un contexto real. La
complejidad de las tareas fue un obstáculo, pero los docentes evidenciaron mayores
problemas que los alumnos. La visibilidad tampoco mostró problema alguno en ninguno
de los dos casos. Los docentes señalaron a la intuitividad y topografía natural como la
heurística con valoración más negativa, todo lo contrario a los alumnos. Respecto a las
heurísticas relacionadas con el diseño de interfaces, el nivel de conformidad fue bueno
entre los docentes y muy bueno entre los alumnos.
En general, podemos decir que el EVEA SIAT posee un grado de usabilidad aceptable,
aunque los resultados ponen en evidencia que las tareas realizadas por los docentes
necesitan mayor atención, a los efectos de incorporar mecanismos que posibiliten agilizar
las tareas habituales y más complejas que éstos usuarios realizan con mayor frecuencia.
En cuanto al modelo en sí, los resultados obtenidos a partir de la evaluación han permitido
rescatar información útil para la mejora del EVEA SIAT, pero fundamentalmente, para
realizar ajustes a MUsa en función de la experiencia adquirida durante la aplicación y la
opinión de los expertos, observadores, docentes, y alumnos participantes de la misma. Se
pudo observar que el modelo se comportó acorde a las expectativas. Sin embargo, hay
cuestiones por pulir y mejorar a los efectos de dotarlo de mayor capacidad de adaptación
ante diferentes circunstancias. Algunas de los problemas que necesitan ser abordados
están relacionados con los tiempos destinados a la evaluación, que fueron mucho
mayores a los esperados, el orden de algunas tareas pertenecientes a los escenarios de
uso que sufrieron modificaciones, los instrumentos que recibieron críticas en las escalas
de valoración, y las adaptaciones que debieron realizarse en la tercera y cuarta capa, por
230
Capítulo 8: Caso de estudio. Aplicación de MUsa
231
Capítulo 9: Resultados, conclusiones, trabajos futuros
233
Capítulo 9: Resultados, conclusiones, trabajos futuros
La primera capa de MUsa está destinada a analizar gran parte de la aceptabilidad práctica
del EVEA. La aceptabilidad práctica conjuga la utilidad con otras variables como costos,
compatibilidad, confiabilidad, y soporte. La utilidad, a su vez, está determinada por la
utilidad práctica o funcional, la usabilidad, y la accesibilidad. Por este motivo se aborda el
análisis de todos los componentes de la aceptabilidad práctica, menos el referido
específicamente a usabilidad. Esto no significa que la evaluación de usabilidad esté
ausente por completo en esta capa, sino que las variables que se analizan son: utilidad
práctica y accesibilidad (parte de la utilidad), junto con las características técnicas
generales (antecedentes, potencial, tecnología utilizada, licencia, soporte, seguridad,
acceso de usuarios), compatibilidad (servidor, usuario/cliente, formatos multimedia,
integración) y robustez (integridad de funcionamiento, recuperación ante fallos,
seguridad). En este sentido se pone énfasis sobre las características funcionales del
EVEA, donde se considera la flexibilidad del entorno desde el punto de vista tecnológico,
organizativo, y pedagógico/didáctico, incluyendo además el nivel de estandarización. Un
punto que toma especial relevancia es la versatilidad del entorno para adaptarse al
desarrollo de cursos, grupos de cursos, carreras, comunidades virtuales, etc. También es
importante evaluar la forma en que puede dar soporte a diferentes modalidades
educativas, sean éstas a distancia o mixtas, y a diferentes enfoques de enseñanza y de
aprendizaje. Para analizar este tipo de características es necesario contar con
especialistas en educación y en tecnología. La primera capa de evaluación pone énfasis
sobre las coincidencias entre los modelos estudiados en el capítulo 2, con la idea de
construir un instrumento de evaluación general, centrado en los componentes
tecnológicos de los EVEA, pero sin perder de vista los componentes organizativos,
pedagógicos y didácticos, ya que todos son determinantes al momento de analizar un
entorno particular.
La segunda capa se orienta a evaluar la forma en que el sistema interactúa con el
usuario, la interfaz que presenta, y el modo en que permite realizar las tareas básicas. La
conjugación de dos métodos de inspección, como el recorrido cognitivo y la evaluación
heurística, resulta ser adecuada para este tipo de acciones. Las heurísticas utilizadas se
organizaron en dos niveles de evaluación, uno general, orientado a la tarea, y otro
particular, orientado al diseño. El primero examina el aspecto y comportamiento desde el
punto de vista de las tareas y objetivos de los usuarios. Para ello se utilizan las heurísticas
de complejidad, visibilidad, intuitividad, y topografía natural. El segundo analiza los
aspectos concretos del conjunto de interfaces provistas por el EVEA para completar las
tareas. Las heurísticas utilizadas en este caso son las de productividad, retroalimentación,
control por parte del usuario, reversibilidad y manejo del error, diseño y organización,
consistencia, ayuda y documentación, y estándares. La forma de evaluación se realiza por
escenarios de uso. Por el tipo de evaluación, los expertos que participan son docentes
con diferente grado especialización en EVEA y en tecnología.
La tercera capa incorpora, por primera vez, la opinión de los usuarios finales bajo un
ambiente controlado por un observador. Por tal motivo se utiliza un laboratorio de
usabilidad. La evaluación se realiza mediante test de usuario, específicamente el de
expresión del usuario en base a preguntas. Las heurísticas utilizadas son las mismas que
en la capa anterior (complejidad, visibilidad, intuitividad, y topografía natural). A ellas se
suman una serie de las métricas relacionadas con efectividad, eficiencia, y satisfacción.
Los usuarios transitan escenarios de uso para realizar las tareas que forman parte de
cada escenario tipo. A medida que el usuario interactúa con el entorno, debe expresar en
voz alta sus pensamientos, sensaciones y opiniones, mientras el evaluador capta y
234
Capítulo 9: Resultados, conclusiones, trabajos futuros
registra las impresiones que el usuario manifiesta oralmente. Además puede realizar
preguntas directas cuando lo considera conveniente.
La cuarta capa es destinada exclusivamente a que los futuros usuarios finales aporten su
punto de vista dentro de un contexto o ambiente real. Lógicamente, para realizar este tipo
de evaluación también son adecuados los test de usuarios, en particular se utilizó el test
remoto. Además, el usuario realiza el test en su propio medio o ambiente, con lo cual es
posible evaluar el contexto de uso. Los test remotos se basan, principalmente, en
cuestionarios para recolectar la información. Las heurísticas coinciden con las utilizadas
en la segunda capa para la evaluación orientada a la tarea (complejidad, visibilidad,
intuitividad, y topografía natural), y al diseño (productividad, retroalimentación, control por
parte del usuario, reversibilidad y manejo del error, diseño y organización, consistencia,
ayuda y documentación, y estándares). Al igual que en la segunda y tercera capa se
utilizan los escenarios de uso. El evaluador es el encargado de suministrar un
cuestionario a los usuarios reales, examinar las aulas virtuales luego de finalizadas las
tareas, y posteriormente procesar los resultados. También completa un cuestionario que
contempla las métricas de efectividad, eficiencia, y satisfacción.
Para tener dimensión de las cualidades y defectos de MUsa, se lo aplicó sobre un EVEA
real, en el contexto institucional de la Universidad Nacional de Río Cuarto. De esta forma
se puso a prueba la propuesta, que a su vez sirvió para validar el EVEA SIAT,
desarrollado y utilizado por esta Universidad desde hace más de 10 años. El caso de
estudio sirvió para realizar un recorrido completo por las cuatro capas del modelo de
evaluación, tomar las decisiones correspondientes en cada una de ellas de acuerdo a la
magnitud de la evaluación, tiempo y recursos disponibles, y afrontar una aplicación
efectiva del mismo dentro de un contexto conocido y acotado.
La primera capa de evaluación, realizada por especialistas en educación y tecnología,
permitió observar que el EVEA SIAT posee las características funcionales básicas,
buenos niveles de adecuación a los estándares de navegación, no así de e-learning e
internacionalización, y es flexible desde el punto de vista tecnológico, organizativo y
pedagógico/didáctico. La segunda capa aportó la opinión de expertos en las temáticas
relacionadas con EVEA. Para el caso de la evaluación orientada a la tarea, los expertos
destacaron que el SIAT no es complejo desde el punto de vista de su utilización de un
docente o de un alumno, aunque fueron dispares las opiniones respecto a las heurísticas
referidas a la visibilidad y topografía natural, sin duda un aspecto a mejorar. Desde el
punto de vista del diseño de interfaces, el nivel de conformidad fue muy bueno. La tercera
capa incorporó la opinión de usuarios finales, docentes y alumnos, en el marco de un
laboratorio de usabilidad. En este caso se observó que las tareas no fueron complejas,
pero resultaron de menor complejidad en el caso de los alumnos, la visibilidad obtuvo muy
buenas valoraciones en ambos casos, mientras que la intuitividad y topografía natural fue
valorada positivamente, pero mejor aún en alumnos. En la cuarta y última capa
intervinieron usuarios finales dentro de un contexto real. La complejidad de las tareas fue
un obstáculo, pero los docentes evidenciaron mayores problemas que los alumnos. La
visibilidad tampoco mostró problema alguno en ninguno de los dos casos. Los docentes
señalaron a la intuitividad y topografía natural como la heurística con valoración más
negativa, todo lo contrario a los alumnos. Respecto a las heurísticas relacionadas con el
diseño de interfaces, el nivel de conformidad fue bueno entre los docentes y muy bueno
entre los alumnos. En general, podemos decir que el EVEA SIAT posee un grado de
usabilidad aceptable, aunque los resultados ponen en evidencia que las tareas realizadas
por los docentes necesitan mayor atención, a los efectos de incorporar mecanismos que
235
Capítulo 9: Resultados, conclusiones, trabajos futuros
posibiliten agilizar las tareas habituales y más complejas que éstos usuarios realizan con
mayor frecuencia.
En cuanto al modelo en sí, los resultados obtenidos a partir de la evaluación han permitido
rescatar información útil para la mejora del EVEA SIAT, pero fundamentalmente, para
realizar ajustes a MUsa en función de la experiencia adquirida durante la aplicación y la
opinión de los expertos, observadores, docentes, y alumnos participantes de la misma. Se
pudo observar que el modelo se comportó acorde a las expectativas. Sin embargo, hay
cuestiones por pulir y mejorar a los efectos de dotarlo de mayor capacidad de adaptación
ante diferentes circunstancias. Algunas de los problemas que necesitan ser abordados
están relacionados con los tiempos destinados a la evaluación, que fueron mucho
mayores a los esperados, el orden de algunas tareas pertenecientes a los escenarios de
uso que sufrieron modificaciones, los instrumentos que recibieron críticas en las escalas
de valoración, y las adaptaciones que debieron realizarse en la tercera y cuarta capa, por
no contar con la cantidad y calidad de evaluadores necesarios. En este punto es
importante destacar que todos los participantes (expertos, docentes, alumnos,
observadores) han sido voluntarios, no recibieron compensación alguna por el trabajo, ni
dispusieron de tiempos específicos para realizar la evaluación, sino que fueron
desarrollando las tareas asignadas a medida que se lo permitían sus actividades
cotidianas. Los próximos pasos a seguir están relacionados con la revisión de todo el
modelo de evaluación, la mejora del mismo de acuerdo a la información recogida a partir
del caso de estudio y la presentación formal para su efectiva utilización. En tal sentido,
podemos considerar al caso de estudio realizado con el EVEA SIAT como un primer paso
para testear y mejorar el modelo, antes de ponerlo en práctica de manera real.
236
Capítulo 9: Resultados, conclusiones, trabajos futuros
recogida mediante la evaluación del EVEA SIAT para refinar el modelo en base al caso de
estudio, y de forma sucesiva en función de varias aplicaciones de éste para evaluar otros
EVEA.
Por otro lado, la usabilidad involucra varias áreas de conocimiento, en particular si es
aplicada a productos con sentido educativo. Por tal motivo sería saludable que el modelo
sea examinado por expertos en áreas relacionadas con educación, psicología, evaluación,
tecnología informática, comunicación, diseño Web, e ingeniería, entre las más
importantes.
237
Capítulo 9: Resultados, conclusiones, trabajos futuros
238
Bibliografía
Bibliografía
239
Bibliografía
240
Bibliografía
241
Bibliografía
242
Bibliografía
243
Bibliografía
244
Bibliografía
245
Bibliografía
246
Bibliografía
247
Bibliografía
[Nor2004] Norman, D. Emotional Design: Why we love (or hate) everyday things”.
Basic Books. 2004
[Nor1998] Norman, D. Psicología de los objetos cotidianos. Editorial Nerea. ISBN: 84-
89569-18-5. 1998
[Nor1998b] Norman, D. The invisible computer. MIT Press. 1998.
[Ols1999] Olsina, L. Metodología cuantitativa para la evaluación y comparación de la
calidad de sitios Web. Tesis Doctoral. Facultad de Ciencias Exactas de la Universidad
Nacional de la Plata- Argentina. 1999
[Ols1999b] Olsina, L., Godoy. D., Lafuente, G.J., Rossi, G. Assessing the Quality of
Academic Websites: a Case Study. New Review of Hypermedia and Multimedia
(NRHM) Journal, Taylor Graham Publishers. UK/USA Vol. 5, pp. 81-103. 1999.
[Ols2001]. Olsina, L., Papa, M.F., Souto, M.E., Rossi, G. Providing Automated Support
for the Web Quality Evaluation Methodology. 4th Workshop on Web Engineering, at the
10th International WWW Conference, Hong Kong, pp. 1-11. 2001
[Ols2001b] Olsina, L., Lafuente, G., Rossi, G. Specifying Quality Characteristic and
Attributes for Web Sites. En S. Murugesan y Y. Deshpande (Eds): Web Engineering.
Managing Diversity and Complexity of Web Application Development. Lecture Notes in
Computer Science. LNCS 2016. pp. 266-278. Springer Verlag. 2001
[Ols2002] Olsina, L. Métricas, Criterios y Estrategias para Evaluar Calidad Web. En
Jornadas de Actualización en Informática de la Facultad de Ingeniería, JAIFI’02.
http://www.ing.unlpam.edu.ar/jaifi2002/Jaifi2002.pdf. 2002
[ONU2001] http://www.un.org/
[O'R2005] O'Reilly, T. What’s web 2.0. Design Patterns and Business Models for the
Next Generation of Software. http://www.oreilly.com/pub/a/oreilly/tim/news/
2005/09/30/what-is-web-20.html. 2005
[Ort2000] Ortega Carrillo, J. Planificación de ambientes de aprendizaje interactivos on
line: Las aulas virtuales como espacios para la organización y el desarrollo del
teletrabajo educativo. En J. Cabero (Ed.) Nuevas Tecnologías aplicadas a la
Educación. Sevilla: Universidad de Sevilla-FETE-UGT (Edición en CD-Rom). 2000
[Oso2000] Osorio Rojas, R. El Cuestionario.
http://www.nodo50.org/sindpitagoras/Likert.htm. 2000
[Pal2001] Pallof, R.M. y Pratt, K. Lessons from the cyberspace classroom. San
Francisco: Jossey-Bass. 2001
[Pem2005] Pemberton, S. En directo desde Fundamentos web 2005.
http://www.torresburriel.com/weblog/index.php?p=776. 2005
[Pie1995] Pierotti, D. Heuristic Evaluation: A System Checklist. In Usability Analysis
and Design. Xerox Corporation. 1995.
[Pol1992] Polson, P.G., Lewis, C., Rieman, J., Wharton C. Cognitive walkthroughs: A
method for theory- based evaluation of user interfaces. International Journal of Man-
Machine Studies 36, pp. 741-773. 1992
[Pre1994] Preece, J., Rogers, Y., Sharp, H., Benyon, D,. Holland, S., Carey, T. Human-
Computer Interaction. Addison Wesley. 1994
[Pre1995] Pressman, R. Ingeniería del software, un enfoque práctico, McGraw Hill,
1995.
[Pog2006] Poggi, M. La integración de las Tecnologías de la Información y la
Comunicación en los Sistemas Educativos. UNESCO. 2006.
[Que2006] Quesada Ruiz, E.
http://www.w3c.es/Prensa/2006/nota061211_validaccesibilidad. 2006
248
Bibliografía
249
Bibliografía
250
Bibliografía
251
Bibliografía
252
Glosario
Glosario
Funcionalidad
Su definición está dada como “la capacidad del software de proveer funciones
establecidas que responden a las necesidades del usuario cuando el software es usado
bajo condiciones específicas” [ISO2001]. Las sub-características que intervienen en la
funcionalidad son:
Adecuación: capacidad del software para proporcionar un conjunto apropiado de
funciones para las tareas y objetivos que persigue el usuario.
Exactitud: capacidad del software para proporcionar los resultados o efectos correctos o
acordados, con el grado necesario de precisión.
Interoperabilidad: capacidad del software para interactuar con uno o más sistemas
especificados.
Cumplimiento funcional: capacidad del software para adherirse a normas, convenciones o
regulaciones.
Seguridad de las tareas realizadas por el usuario con el sistema: capacidad del software
para proteger información y datos de manera que los usuarios o sistemas no autorizados
no puedan leerlos o modificarlos mientras que los autorizados sí.
Para Olsina [Ols1999] la funcionalidad es una característica de calidad de alto nivel que
representa la existencia de un conjunto de funciones y comportamientos de un sistema
que satisfacen los requisitos de un dominio determinado y de un perfil de usuario. En base
a esta definición se identifican una serie de sub-características como la capacidad de
recuperación y de búsqueda de información, los servicios de búsqueda y navegación, y
los servicios relacionados con el dominio de la aplicación [Ols2001b]. La funcionalidad
puede medirse mediante cálculos a partir de métricas directas e indirectas. Las métricas
directas son obtenidas a partir de un atributo no compuesto, como por ejemplo la cantidad
de enlaces rotos, mientras que las indirectas corresponden a la asociación de atributos
directos, que se relacionan en una ecuación matemática, como por ejemplo el porcentaje
de enlaces rotos. Algunas de las métricas que se pueden utilizar para determinar la
funcionalidad de un sistema bajo el entorno Web son [Ols1999] son: posibilidad de
realizar búsquedas (restringidas o globales), posibilidad de recuperar información,
orientación (indicación del camino, posición actual), controles contextuales, y promedio de
enlaces por página.
Fiabilidad
Este concepto es considerado en algunos casos como un atributo relacionado con la
efectividad. Puede definirse como “la capacidad del software de mantener los niveles de
rendimiento cuando éste es usado bajo condiciones específicas” [ISO2001]. Se basa en
cuatro factores relacionados directamente con el sistema: madurez, tolerancia a fallos,
capacidad de recuperación, y disponibilidad. La madurez es la capacidad del software
para no fallar como resultado de problemas en el tiempo de ejecución. La tolerancia a
fallos es la capacidad del software para mantener un nivel especificado de prestaciones
en caso de problemas. Finalmente, la capacidad de recuperación es entendida como la
capacidad del software para reestablecer un nivel de prestaciones especificado y de
recuperar los datos directamente afectados, en caso de una falla. La medición de la
fiabilidad es relativamente sencilla utilizando datos preferentemente cuantitativos,
253
Glosario
254
Anexos
Anexos
12.1 Anexo A
Capa 1
• Flexibilidad tecnológica
- Características técnicas generales
o Antecedentes
Historial. Determinar los antecedentes que posee en EVEA para
evaluar las posibilidades de continuidad en el futuro.
Disponibilidad de versiones que permitan realizar pruebas bajo
situaciones reales.
Grado de utilización. El número y prestigio de las instituciones que
utilizan el entorno.
Evaluación: existencia de evaluaciones realizadas por organismos e
instituciones independientes y resultados obtenidos.
Actividades de intercambio de experiencias. Existencia de una masa
crítica que se materializa en congresos, foros, artículos, comunidades
virtuales, etc.
o Potencial
Número de usuarios permitidos. Globales o simultáneos.
Número de cursos. Número de ofertas educativas que se pueden
gestionar simultáneamente.
Idiomas. Ayuda en el idioma propio, capacidad multi-lenguaje.
Escalabilidad: Posibilidad de crecimiento en cantidad de usuarios,
cursos y utilización simultánea.
o Tecnología
Arquitectura cliente-servidor.
Lenguaje de programación utilizado.
Código abierto o Propietario.
Multiplataforma.
Software necesario: servidor de páginas estáticas y dinámicas,
servidor de base de datos, administrador de base de datos, servidor
de correo, servidor de listas, antivirus, Webmail, etc.
Instalación
Modo: en cualquier servidor, centralizada.
255
Anexos
- Compatibilidad
o Servidor
Requisitos de hardware
Procesador
Memoria
Disco
Red
Otros
Requisitos de software:
Sistemas Operativos
Servidores de bases de datos
Servidores de páginas Web (estáticos y/o dinámicos)
Otros
256
Anexos
o Usuario/Cliente
Requisitos de hardware:
Procesador
Memoria
Disco
Red
Otros
Requisitos mínimos de conexión a Internet: Dial-up, ADSL, etc.
Requisitos de software:
Sistemas Operativos
Navegadores
Plugins
Otros
o Formatos multimedia: diferentes medios que pueden ser utilizados: audio,
video, imágenes, animaciones, objetos 3D, applets.
o Integración: mecanismos que permiten la relación con otros sistemas mediante
archivos, protocolos, servicios Web, otros.
o Interoperabilidad: respeto por la infraestructura previa, manteniendo la
compatibilidad con datos, protocolos y lenguajes de programación.
- Robustez
o Integridad de funcionamiento: fallas derivadas de un mal diseño del software.
o Recuperación ante fallos: tolerancia ante utilización poco experta.
o Seguridad: capacidad de controlar los accesos a las bases de datos y
herramientas que integran el entorno. Propiedad y protección de los materiales
almacenados.
• Flexibilidad organizativa
- Herramientas de administración de usuarios
o Perfiles: posibilidad de configurar perfiles con diferentes atribuciones y
derechos de acceso.
o Gestión: capacidad para dar de alta o baja usuarios de forma individual o por
lote. Buscar usuarios, acceder a sus datos personales, modificarlos y asignar
nuevas contraseñas.
o Inscripción: capacidad de asignación de usuarios a cada espacio virtual de
forma automática, mediante formulario de solicitud, mediante archivos por lote,
de manera individual.
o Acceso centralizado: acceso a todos las aulas virtuales desde un solo lugar
con un único usuario y contraseña.
o Seguimiento: registro automático de todas las actividades realizadas.
257
Anexos
- Interface
o Personalización: posibilidades de mantener una imagen propia en general y en
cada uno de los espacios virtuales.
o Plantillas: creación rápida y sencilla de aulas virtuales.
o Ayuda on-line: sensibilidad al contexto de forma que permitan un rápido
acceso a la información buscada.
o Modos de vista: capacidad para comprobar on-line cómo son vistos los
cambios por los diferentes perfiles sin necesidad de tener abiertas diferentes
sesiones de trabajo.
o Editor on-line: disponibilidad de un editor de texto con formato (WYSIWYG),
que esté integrado al entorno, y posibilite incorporar código HTML, texto,
imágenes, enlaces, y otros recursos, viendo directamente el resultado final.
o Accesos rápidos
Caminos abreviados: posibilidad para acceder directamente a
ciertos espacios sin necesidad de realizar un recorrido obligado.
Caminos personalizados: posibilidad de personalizar las formas de
acceder a los espacios de acuerdo a la experticia del usuario.
• Flexibilidad pedagógico/didáctica
- Herramientas de información
o Calendario o agenda: resumen de los principales eventos propios de la
organización y programación de actividades (fechas de examen, de clase,
de entrega de trabajos, de inicio y fin de módulos, unidades, prácticos, etc.).
Posibilidad de incorporar anotaciones privadas.
o Cartelera de novedades: noticias fechadas de carácter general e índole
organizativa.
o Alertas: anuncios al usuario, luego de cada ingreso, sobre la existencia de
258
Anexos
cambios producidos dentro del espacio virtual a partir del último ingreso
(eventos, noticias, exámenes, mensajes, calificaciones, vencimientos,
nuevos materiales, etc.).
o Pizarra virtual: escritura a mano alzada o dibujos como en un editor de
imágenes.
o Respuestas a preguntas frecuentes: respuesta única por cada una de las
preguntas que realizan de forma reiterada los alumnos.
o Glosario de términos: conjunto de términos propios de la disciplina junto
con su descripción. Posibilidad de enlace desde los lugares donde aparece
el término.
o Información general o guía: elementos básicos de la planificación como
programa, metodología, bibliografía, etc.
o Información sobre los docentes: perfil, foto, últimos accesos, actividades
realizadas por los docentes a cargo del espacio.
o Índice: generación automática de un índice de contenidos.
- Herramientas de comunicación
o Asincrónicas
Correo electrónico
Integrado dentro del entorno o no
Mensajes en formato solo texto, texto html, html con enlaces,
tablas, imágenes, etc.
Etiquetado de mensajes
Carpetas
Libreta de direcciones
Adjuntos
• Cantidad permitida
• Formatos posibles
• Tamaño máximo de los archivos
Listas de correo
Única o múltiples
Abiertas o cerradas
Moderadas o no moderadas
Foros de discusión: flexibilidad en su apertura, generación de foros
generales o por grupos, incorporación de archivos, seguimiento de las
intervenciones. Formatos de visualización de aportes en el foro.
Diferentes tipos de foro acorde al objetivo pedagógico.
Diarios: forma privada de comunicarse entre el alumno y el
docente, con posibilidad para el alumno de emitir ideas, consultas,
opiniones, pensamientos, y recibir una respuesta por parte del
259
Anexos
docente.
o Sincrónicas
Chat
Solo texto, con audio / con audio y video / con pizarra para la
graficación sincrónica.
Número de salas disponibles: una por espacio, ilimitado.
Almacenamiento de las conversaciones.
Archivos adjuntos.
Moderación.
Límite en la cantidad de participantes.
Mensajería instantánea
Solo texto, con audio, con audio y video.
Almacenamiento de las conversaciones.
Archivos adjuntos.
Clases virtuales: visualización simultánea de una presentación
multimedia por parte de todos los usuarios conectados en un mismo
momento.
Conferencia:
Audio solamente, audio y video.
Interacción con el auditorio: sin interacción, preguntas por parte de
los participantes, otra.
- Herramientas de colaboración
o Grupos: generación de espacios que permitan interactuar entre sí a algunos
de los participantes de un aula virtual.
o Pizarra compartida: manipulación de un dibujo, gráfico o esquema por todo
el grupo de forma simultánea.
o Discos o carpetas virtuales
Individuales
Grupales
Por aula o curso
Generales
o Web 2.0
Blog: sitio que recopila cronológicamente textos o artículos de uno o
varios autores, donde el autor conserva siempre la libertad de dejar
publicado lo que crea pertinente.
Pertenencia: individual, grupal o ambos.
Visualización: abiertos, cerrados a un grupo de participantes o
ambos.
260
Anexos
261
Anexos
• Otras
Riqueza de recursos: variedad de recursos que se pueden incluir
en cada pregunta: gráficos, imágenes, ecuaciones, ayudas,
retroalimentaciones.
Bases de datos: posibilidad de guardar las preguntas y volverlas
a utilizar en cualquier momento.
o Encuestas
o Actividades o deberes
o Calificación: posibilidad de evaluar y calificar cada examen y cada alumno.
o Seguimiento de los resultados: estado de avance de los alumnos respecto
de las evaluaciones propuestas.
o Personalización
Itinerarios de aprendizaje: generación de itinerario de trabajo
compuesto por el acceso a ciertos materiales, la realización de tests,
exámenes o actividades.
Destinatarios: asignación individual, o por grupos, de ejercicios,
encuestas y actividades.
o Estadísticas: monitoreo del trabajo y progreso de los alumnos en función de
diferentes fechas y criterios, incluyendo el tiempo dedicado a los módulos de
aprendizaje y actividades, accesos, duración de las sesiones, lugares
visitados, recorridos realizados, etc.
o Portafolio o expediente del alumno: resumen y acceso a toda la
información de un alumno procedente de las diferentes herramientas
utilizadas.
262
Anexos
de los usuarios.
o Web personal: espacio propio que puede servir tanto de presentación
como de puerta de acceso a comunicaciones entre alumnos. Posibilidad
de compartir la información colocada en su Web personal.
o Carpeta personal: facilidades para que el alumno pueda seguir el curso
desde diferentes lugares sin necesidad de transportar sus archivos de
trabajo. Posibilidad de compartir la información colocada en su carpeta
personal.
• Estandarización
- Adopción de estándares propuestos por la W3C:
o Validez: que el código cumpla con un estándar.
Lenguaje de Marcado de Hipertexto Extensible (XHTML)
Hojas de Estilo en Cascada (CSS).
o Accesibilidad: acceso a la Web por cualquier usuario,
independientemente de sus discapacidades.
Nivel de adecuación en la Web Content Accessibility Guidelines
(WCAG)
WCAG 1.0
• A: cumple todos los puntos de verificación de prioridad 1.
• AA: cumple todos los puntos de verificación de prioridad 1 y 2.
• AAA: cumple todos los puntos de verificación de prioridad 1, 2
y 3.
WCAG 2.0
• Nivel A: cumple todos los criterios de éxito de nivel 1 (A) y de
nivel 2 (AA) de todas las directrices o se proporciona una
versión alternativa conforme al nivel AA.
• Nivel AA: cumple todos los criterios de éxito de nivel 1 (A) de
todas las directrices o se proporciona una versión alternativa
conforme al nivel A.
• Nivel AAA: cumple todos los criterios de éxito de nivel 1 (A), de
nivel 2 (AA) y de nivel 3 (AAA) de todas las directrices, o se
proporciona una versión alternativa conforme al nivel AAA.
o Internacionalización: permitir y facilitar el uso con diferentes lenguajes,
por diversas culturas y regiones. Utilización de formatos y protocolos que
no establezcan barreras a los diferentes idiomas, sistemas de escritura,
códigos y otras convenciones locales.
263
Anexos
264
Anexos
265
Anexos
Multiplataforma: SI/NO
Software necesario: servidor de páginas estáticas / servidor de páginas
dinámicas / servidor de base de datos / administrador de base de datos /
servidor de correo / servidor de listas / antivirus / webmail / Otros:
Instalación
Modo: en cualquier servidor / centralizada.
Forma: manual / instalador / “wizard” / Otra:
Modo de actualización: automática / manual / por módulos / sin
actualización.
o Licencia
Modalidad: pago / gratuita / Otra:
Costo: Anual / por cantidad de cursos / por cantidad de usuarios / por
servicio de hosting / por capacitación / por asistencia / sin costo / Otro:
o Soporte
Documentación: Tutoriales, manuales, informes técnicos, sitio Web
oficial, foros de ayuda, newsletter.
Cursos de formación.
Servicio y soporte técnico.
Presencia de un distribuidor y la calidad de sus servicios en la resolución
de problemas.
Costo del soporte técnico, mantenimiento, y actualizaciones.
o Seguridad
Encriptación: contraseñas / datos almacenados / transmisión de datos / sin
encriptación
Autentificación de usuarios: con autentificación / sin autentificación / ambas
o Acceso de usuarios
Usuario y contraseña: individual / grupal / sin restricciones
Registración: SI/NO
Asignación de privilegios: SI/NO
Asignación de perfiles: SI/NO
Requisitos mínimos de software:
Sistemas Operativos: Linux/Windows/Otros:
Navegadores: Firefox / Internet Explorer / Chrome / Opera / Safari /
Otros:
Servidores de bases de datos: MSQL / POSGRES / ORACLE /
INFORMIX / Otros:
Otro software:
- Compatibilidad
266
Anexos
o Servidor
Requisitos de hardware
Procesador:
Memoria:
Disco:
Red:
Otros:
Requisitos de software:
Sistemas Operativos: Linux / Windows / Todos / Otros:
Servidores de bases de datos: MSQL / POSGRES / ORACLE/
INFORMIX / TODOS / Otras:
Servidores Web:
Otros:
o Usuario/Cliente
Tipo de hardware: PC / Notebook / Netbook / Dispositivos móviles: Teléfono
móvil o celular, Smartphone, PDA, Tablet PC, Otros:
Requisitos de hardware:
Procesador:
Memoria:
Disco:
Red:
Otros:
Requisitos mínimos de conexión a Internet: Dial-up / ADSL / Otro:
Requisitos de software:
Sistemas Operativos: LINUX / WINDOWS / MAC / Cualquiera / Otros:
Navegadores: Firefox / Internet Explorer / Chrome / Opera / Safari /
Otros:
Plugins:
Otros:
o Formatos multimedia: audio / video / imágenes / animaciones / objetos 3D /
applets.
o Integración:
a. ¿Posee mecanismos que permiten la relación con otros sistemas?
b. ¿Cuales? Archivos / protocolos / RMI / API / Web Service / Otros:
o Interoperabilidad:
a. ¿Mantiene la compatibilidad con datos, protocolos y lenguajes de programación
ya existentes en el lugar de implantación? SI/NO
267
Anexos
- Robustez
o Integridad de funcionamiento
a. ¿Se han detectado o relevado fallas derivadas de un mal diseño del software?
SI/NO
o Recuperación ante fallos
a. ¿Posee tolerancia ante utilización poco experta? SI/NO
o Seguridad
a. ¿Posee la capacidad de controlar los accesos a bases de datos y herramientas
que integran el entorno? SI/NO
b. ¿Los materiales almacenados están protegidos? SI/NO
c. ¿Exige respetar cierta propiedad sobre los materiales? SI/NO
268
Anexos
carreras.
Organización: Capacidad para organizar los espacios
virtuales de manera diferenciada por Facultades, Carreras,
Áreas, Temas, Asignaturas, Cursos, Comisiones, etc.
Flexibilidad: Capacidad para agregar en los diferentes
espacios virtuales nuevos usuarios, perfiles, privilegios y
funcionalidades.
Backup: Capacidad para realizar copias de seguridad
generales o particulares.
Clonación: Capacidad para realizar réplicas de espacios ya
existentes.
Campus: Posibilidad de colocar información general,
novedades, preguntas frecuentes, servicios generales
(biblioteca, directorio de miembros, cafetería virtual, etc.) y
repositorio de software.
Interface SI/NO
Personalización: Posibilidades de mantener una imagen
propia en general y en cada uno de los espacios virtuales.
Plantillas: Creación rápida y sencilla de aulas virtuales.
Ayuda on-line: Sensibilidad al contexto de forma que
permitan un rápido acceso a la información buscada.
Modos de vista: Capacidad para comprobar on-line cómo
son vistos los cambios por los diferentes perfiles sin
necesidad de tener abiertas diferentes sesiones de trabajo.
Editor on-line: Disponibilidad de un editor de texto con
formato (WYSIWYG), que esté integrado al entorno, y
posibilite incorporar código HTML, texto y otros recursos
viendo directamente el resultado final.
Caminos abreviados: posibilidad para acceder
directamente a ciertos espacios sin necesidad de realizar un
recorrido obligado.
Caminos personalizados: posibilidad de personalizar las
formas de acceder a los espacios de acuerdo a la expertise
del usuario.
269
Anexos
importantes porque está orientada al análisis del corazón del entorno, es decir, la riqueza
que brinda para adaptarse a las diferentes propuestas pedagógicas y modalidades
didácticas.
- Herramientas de comunicación
o Asincrónicas
Correo electrónico: SI/NO
Integrado: SI/NO
Formato de mensajes: texto plano / texto HTML básico / texto
HTML con enlaces, tablas, imágenes, etc.
Etiquetado de mensajes: SI/NO
Carpetas: SI/NO
Libreta de direcciones: SI/NO
Adjuntos: SI/NO
270
Anexos
271
Anexos
- Herramientas de colaboración
o Grupos: SI/NO
Espacio de trabajo compartido entre diferentes alumnos de un aula:
SI/NO
Diferentes roles: SI/NO
Selección de herramientas y recursos para cada grupo: SI/NO
Mecanismos de conformación: automático/por elección del docente/por
elección del alumno/Otros:
o Pizarra compartida: SI/NO
o Carpeta virtual: SI/NO
Formato: individual / grupal / por aula / general
Posibilidad de compartir con otros usuarios: SI/NO
o Web 2.0
Blog: SI/NO
Pertenencia: individual / grupal / por aula / general
Visualización: abiertos / cerrados a un grupo de participantes
Comentarios: abiertos/cerrados, moderados/no moderados.
Wiki: SI/NO
Formato: grupal / general / por aula / por temática.
Redes sociales: SI/NO
Aplicaciones 2.0: SI/NO
o Navegación compartida: S/NO
o Votaciones: SI/NO
272
Anexos
Preguntas
Cantidad: fija / ilimitada
Tipos: respuesta múltiple / relación / lógicas / numérica / calculada
/ abierta / emparejamiento / completar frases / mapas de
imágenes / respuesta corta / tablas/ Otras:
Riqueza de recursos: gráficos / imágenes / ecuaciones / ayudas
Bases de datos de preguntas: SI/NO
o Encuestas: SI/NO
o Actividades o deberes: SI/NO
o Calificación de cada examen: SI/NO
o Seguimiento de los resultados: SI/NO
o Personalización
Destinatarios: asignación individual / grupal / a todos
Itinerarios de aprendizaje: SI/NO
o Estadísticas de progreso del alumno: SI/NO
o Portafolio o expediente del alumno: SI/NO
273
Anexos
convergido hacia aquellos que fueron propuestos por la World Wide Web Consortium
(W3C). En particular son de interés para nuestro trabajo los estándares de la W3C
orientados a la validez, accesibilidad e internacionalización del entorno.
Detalle
Validador utilizado
Detalle
Validador utilizado
274
Anexos
Detalle
Validador
utilizado
Automático
Manual
Automático
Manual
Automático
Manual
Automático
Manual
Automático
Manual
Detalle
Validador
utilizado
Automático
Manual
275
Anexos
Automático
Manual
Automático
Manual
Automático
Manual
Automático
Manual
SI / NO /
Parcialmente
SI / NO /
Parcialmente
SI / NO /
Parcialmente
SI / NO /
Parcialmente
SI / NO /
Parcialmente
SI / NO /
Parcialmente
Validador
utilizado
276
Anexos
Internacionalización Cumplimiento
E-learning Cumplimiento
277
Anexos
Packaging SI / NO / Parcialmente
278
Anexos
12.2 Anexo B
12.2.1.1 Alumnos
Las tareas que los alumnos identifican como las 6 más importantes se corresponden
también con las 6 más frecuentes, aunque difieren en el orden. Tampoco hay variación
respecto a las tareas entre alumnos de primero a quinto año. El 38% de los alumnos no
encontraron diferencia entre las tareas, destacando que las consideradas por ellos como
más importantes son también las que más frecuentemente realizan. Las tareas más
importantes que fueron identificadas a partir de este cuestionario son las siguientes,
ordenadas por orden de importancia:
279
Anexos
Es de destacar que los usuarios alumnos atribuyen a las dos primeras tareas el 50% de
las preferencias y a las cuatro primeras el 87%.
Las 6 tareas más frecuentes que fueron identificadas a partir de este cuestionario son las
mismas que las anteriores. Solo varía el orden de importancia entre 2 de ellas “Entregar
un trabajo evaluable” y “Comunicarse de forma asincrónica con su docente”:
Al igual que las tareas más importantes, existe una marcada brecha entre las dos
primeras tareas y el resto ya que concentran el 50% de las opiniones.
12.2.1.2 Docentes
Las tareas que los docentes identifican como las 7 más importantes también se
corresponden con las 7 más frecuentes, aunque difieren en el orden. Todas las tareas
planteadas por los docentes se corresponden con las identificadas por los alumnos en el
sentido que unas son la contraparte de las otras. Tampoco hay variación respecto a las
tareas entre docentes de primero a quinto año. El 40% de los docentes no encontraron
diferencia entre las tareas, destacando que las consideradas por ellos como más
importantes son también las que más frecuentemente realizan. Las 7 tareas de mayor
importancia que fueron identificadas a partir de este cuestionario son las siguientes,
ordenadas por orden de importancia:
280
Anexos
281
Anexos
12.3 Anexo C
Capa 2
282
Anexos
12.3.1.1.1 Cuestionario
TAREA: __________________________________________ Indicar la tarea evaluada
Complejidad
Muy alta
Alta
Normal
Baja
Muy baja
¿Podría realizar una descripción de la secuencia de pasos recorridos para efectuar la tarea.
Visibilidad
283
Anexos
284
Anexos
285
Anexos
286
Anexos
universitaria de
Informarse sobre la programación Recién termina el grado con
de actividades y tareas a realizar. secundario. orientación
Conocer a sus compañeros y Vive en una pequeña contable y 5 años
docentes. localidad. de duración.
287
Anexos
12.3.1.2.1 Cuestionario
ESCENARIO DE USO: ____________________________ Indicar el escenario evaluado
Puntos a EVALUAR
Complejidad
Muy alta
Alta
Normal
Baja
Muy baja
¿Podría realizar una descripción de la secuencia de pasos recorridos para efectuar la tarea.
288
Anexos
Visibilidad
289
Anexos
autoexplicativos.
El modelo conceptual
proporcionado es
adecuado.
290
Anexos
12.4 Anexo D
Capa 2
12.4.1 Introducción
El cuestionario que se provee a los expertos para realizar el proceso de evaluación
orientado al diseño posee la lista de principios heurísticos. Cada heurística es
acompañada por el nivel de conformidad alcanzado según el criterio del evaluador, más
un comentario que lo justifique en caso de ser necesario u oportuno. La conformidad es
medida a través del método Likert [Tro02], con una escala ordinal de 1 a 5 puntos, cuyo
valor inferior (1) representa que la conformidad nunca fue alcanzada, y el valor superior
(5) que siempre lo fue.
Productividad
Las tareas habituales son de fácil
realización.
Los usuarios frecuentes o expertos
tienen posibilidad de realizar las
tareas reduciendo el número de
interacciones con el EVEA.
Existen mecanismos para realizar
tareas masivas.
El EVEA provee el usuario de
recordatorios o avisos sobre cambios
producidos a partir del último ingreso.
Los atajos de teclado están siempre
disponibles.
El EVEA soporta tanto usuarios
expertos como novicios presentando
múltiples niveles de detalle
disponibles.
En cada pantalla o una caja de diálogo
el cursor está posicionado en el
campo que más probablemente el
usuario vaya a necesitar.
El método para mover el cursor al
campo siguiente o previo es simple ya
la vez visible.
El EVEA anticipa y avisa al usuario
correctamente acerca de la próxima
291
Anexos
292
Anexos
293
Anexos
294
Anexos
295
Anexos
296
Anexos
12.5 Anexo F
Capa 3
12.5.1 Introducción
El test de expresión del usuario en base a preguntas perteneciente a la Capa 3 está
compuesto por dos cuestionarios, uno destinado al usuario final, para la evaluación
directa, y otro al observador, para la evaluación indirecta.
Puntos a EVALUAR
Complejidad
- La complejidad de la tarea resultó:
Muy alta
Alta
Normal
Baja
Muy baja
- Responda las siguientes preguntas:
¿Debió tomar decisiones sobre cómo realizar la tarea debido a la posibilidad de hacerlo de
diferentes formas?¿Cuáles?
¿Podría realizar una descripción de la secuencia de pasos recorridos para efectuar la tarea.
297
Anexos
Visibilidad
Complete la siguiente grilla:
Muy de De acuerdo Indiferente En Muy en
acuerdo desacuerdo desacuerdo
En la interfaz aparece la
información justa y
necesaria para la
realización de la tarea.
Se encuentra fácilmente la
forma de realizar la tarea.
La información de contexto
y orientación es adecuada.
El diseño es intuitivo y
existen señales que
indican de manera natural
lo que se debe hacer.
Solo están disponibles las
acciones posibles en cada
momento.
La información se
encuentra jerarquizada
para distinguir claramente
lo más relevante.
Comentario del evaluador:
298
Anexos
12.5.3 Observadores
Mientras el usuario realiza las tareas, el observador debe estar presente para registrar lo
que éste expresa y realizando preguntas directas cuando lo considere necesario. Durante
la sesión el observador debe tomar registro y completar, por cada usuario, la primera
parte del cuestionario. Luego de finalizada la misma debe completar la segunda.
En este cuestionario se detallan un conjunto de métricas de usabilidad que intentan medir
el grado de efectividad, eficiencia y satisfacción del entorno virtual.
Para utilizar este instrumento debe estimarse el tiempo que le demandaría a un usuario
experto completar las tareas de cada escenario. A este tiempo lo denominaremos tiempo
expertoi, para i ∈ [1..CantEsc], donde CantEsc representa cada uno de los escenarios
propuestos (21 en nuestra propuesta). A partir de dichos períodos de tiempo debe
determinarse el tiempo aceptable para un usuario novato y para un usuario medio.
Una posibilidad para llevar adelante esta estimación es considerar que un usuario novato
tardará a lo sumo el doble que un experto en completar una tarea, mientras que un
usuario medio tardará como máximo una vez y media el tiempo de un experto.
Eficiencia usuario novato = (∑i: 1≤i≤CantEsc:((tiempo expertoi / tiempo novatoi)*100))/ CantEsc
Eficiencia usuario medio = (∑i:1≤i≤CantEsc:((tiempo expertoi / tiempo medioi)*100))/ CantEsc
Tiempo aceptable usuario novato = (50 <= Eficiencia usuario novato <= 100)
Tiempo aceptable usuario medio = (66 <= Eficiencia usuario medio <= 100)
Sin embargo, esto puede ajustarse de acuerdo a las necesidades, tipos de usuarios,
complejidad de las tareas, ausencia de capacitación previa, y experiencias anteriores.
A continuación se presenta la distribución de evaluadores propuesta:
299
Anexos
Usuario observado
Rol
Escenarios
Ob/Su/Op Descripción
1.
2.
3.
4.
5.
6.
Segunda Parte
Efectividad
Escenarios
300
Anexos
Eficiencia
Escenarios
Tiempo total necesario para Aceptable (hasta un 10% del tiempo total
recuperarse de errores invertido) / No aceptable (más de un 10% del
tiempo total invertido) *
Satisfacción
Utilidad del producto Inútil / Poco útil / Algo útil / Bastante útil / Muy
útil *
301
Anexos
302
Anexos
12.6 Anexo G
Capa 4
12.6.1 Introducción
Para elegir a los usuarios que participarán del test es necesario realizar una invitación a
un conjunto de alumnos y docentes. Los interesados deben completar una encuesta auto-
administrada de forma on-line para conocer sus características básicas y contexto de uso.
De esta manera se determina su nivel de experticia (novato, medio, avanzado) y contexto
a los efectos de asignarles un rol adecuado a cada uno.
Las preguntas que figuran a continuación poseen una escala de 0 a 10, donde el cero
hace referencia a que te sientes completamente ineficaz para realizar lo que se presenta,
el 5 te consideras moderadamente competente para realizarlo, y 10 que crees que lo
dominas completamente. Además puedes utilizar la opción NC (por si desconoces lo que
se te pregunta). Antes de contestar lee con tranquilidad la pregunta, y recuerda que no
debes preocuparte por no sentirte muy competente en alguna cuestión.
303
Anexos
Pregunta Escala
Tengo conocimientos básicos sobre el 0 1 2 3 4 5 6 7 8 9 10
funcionamiento de la computadora.
Sé conectar impresora, cámaras digitales, 0 1 2 3 4 5 6 7 8 9 10
filmadoras, etc. a la computadora.
Resuelvo problemas como configurar el correo 0 1 2 3 4 5 6 7 8 9 10
electrónico, configurar antivirus, conectarme a
Internet.
Sé usar de forma apropiada combinaciones de 0 1 2 3 4 5 6 7 8 9 10
teclas para conseguir signos alfanuméricos y de
puntuación desde el teclado.
Soy capaz de instalar y desinstalar programas 0 1 2 3 4 5 6 7 8 9 10
informáticos
Puedo cambiar de formatos los archivos (por 0 1 2 3 4 5 6 7 8 9 10
ejemplo convertir un archivo doc a rtf).
Realizo un sencillo documento con un procesador 0 1 2 3 4 5 6 7 8 9 10
de texto (Word, Writer, Word perfect, Abiword, etc),
usando formatos básicos de fuente, de párrafo, y
de página.
Sin usar el mouse soy capaz de acceder a un 0 1 2 3 4 5 6 7 8 9 10
procesador de texto, escribir una pequeña carta,
mover párrafos de lugar, corregir errores, cambiar
formatos, guardar la carta en el disco de mi
computadora e imprimirla.
Realizo un documento con un procesador de texto 0 1 2 3 4 5 6 7 8 9 10
usando técnicas avanzadas del mismo para poner
encabezamiento o pie de página, numeración,
tablas, imágenes.
Sé utilizar los correctores ortográficos de los 0 1 2 3 4 5 6 7 8 9 10
procesadores de texto, para editar y revisar mis
trabajos.
Sé diseñar, crear y modificar hojas de cálculo con 0 1 2 3 4 5 6 7 8 9 10
algún programa informático (Excel, Calc, Gnumeric,
etc), para propósitos específicos, usando fórmulas
elementales.
Sé diseñar, crear y modificar hojas de cálculo con 0 1 2 3 4 5 6 7 8 9 10
algún programa informático para propósitos
específicos, usando formato de celdas, realizar
tablas dinámicas, aplicar filtros, usar fórmulas
complejas y funciones.
Sé usar diferentes programas que incluyen 0 1 2 3 4 5 6 7 8 9 10
herramientas para dibujar gráficos.
Sé crear imágenes y gráficos mediante algún 0 1 2 3 4 5 6 7 8 9 10
programa informático.
Sé crear clip de audio con algún programa 0 1 2 3 4 5 6 7 8 9 10
informático.
Sé crear una presentación multimedia mediante 0 1 2 3 4 5 6 7 8 9 10
algún programa, incluyendo imágenes estáticas,
304
Anexos
305
Anexos
Las preguntas que figuran a continuación poseen una escala de 0 a 10, donde el 0 hacía
referencia a sentirse completamente ineficaz para realizar lo que se presenta y el 10 a la
creencia de dominarlo completamente, pudiendo utilizar la opción NC (por si desconoce lo
solicitado).
Pregunta Escala
Tengo conocimientos básicos sobre el 0 1 2 3 4 5 6 7 8 9 10
funcionamiento de la computadora.
Sé conectar impresora, cámaras digitales, 0 1 2 3 4 5 6 7 8 9 10
filmadoras, etc. a la computadora.
Resuelvo problemas como configurar el correo 0 1 2 3 4 5 6 7 8 9 10
electrónico, configurar antivirus, conectarme a
Internet.
Sé usar de forma apropiada combinaciones de 0 1 2 3 4 5 6 7 8 9 10
teclas para conseguir signos alfanuméricos y de
puntuación desde el teclado.
Soy capaz de instalar y desinstalar programas 0 1 2 3 4 5 6 7 8 9 10
informáticos
Puedo cambiar de formatos los archivos (por 0 1 2 3 4 5 6 7 8 9 10
ejemplo convertir un archivo doc a rtf).
Realizo un sencillo documento con un procesador 0 1 2 3 4 5 6 7 8 9 10
de texto (Word, Writer, Word perfect, Abiword, etc),
usando formatos básicos de fuente, de párrafo, y
de página.
Sin usar el mouse soy capaz de acceder a un 0 1 2 3 4 5 6 7 8 9 10
procesador de texto, escribir una pequeña carta,
mover párrafos de lugar, corregir errores, cambiar
formatos, guardar la carta en el disco de mi
computadora e imprimirla.
Realizo un documento con un procesador de texto 0 1 2 3 4 5 6 7 8 9 10
usando técnicas avanzadas del mismo para poner
encabezamiento o pie de página, numeración,
306
Anexos
tablas, imágenes.
Sé utilizar los correctores ortográficos de los 0 1 2 3 4 5 6 7 8 9 10
procesadores de texto, para editar y revisar mis
trabajos.
Sé diseñar, crear y modificar hojas de cálculo con 0 1 2 3 4 5 6 7 8 9 10
algún programa informático (Excel, Calc, Gnumeric,
etc), para propósitos específicos, usando fórmulas
elementales.
Sé diseñar, crear y modificar hojas de cálculo con 0 1 2 3 4 5 6 7 8 9 10
algún programa informático para propósitos
específicos, usando formato de celdas, realizar
tablas dinámicas, aplicar filtros, usar fórmulas
complejas y funciones.
Sé usar diferentes programas que incluyen 0 1 2 3 4 5 6 7 8 9 10
herramientas para dibujar gráficos.
Sé crear imágenes y gráficos mediante algún 0 1 2 3 4 5 6 7 8 9 10
programa informático.
Sé crear clip de audio con algún programa 0 1 2 3 4 5 6 7 8 9 10
informático.
Sé crear una presentación multimedia mediante 0 1 2 3 4 5 6 7 8 9 10
algún programa, incluyendo imágenes estáticas,
textos, clip de audio, clip de vídeo.
Identifico aspectos de estilos en una presentación 0 1 2 3 4 5 6 7 8 9 10
(Power Point, Impress), realizada por otra persona.
Sé modificar imágenes mediante algún programa 0 1 2 3 4 5 6 7 8 9 10
de diseño gráfico (Coreldraw, Photoshop, Gimp,
etc).
Sé comprimir y descomprimir archivos (WinZip, 0 1 2 3 4 5 6 7 8 9 10
WinRar, etc).
Realizo grabaciones en CD y CVD (Nero, etc.) 0 1 2 3 4 5 6 7 8 9 10
Puedo realizar conversiones de mis archivos a 0 1 2 3 4 5 6 7 8 9 10
formato PDF.
Navego por Internet con diferentes navegadores 0 1 2 3 4 5 6 7 8 9 10
(Internet Explorer, Mozilla, Opera, Safari, etc).
Navego por Internet de forma paralela con distintas 0 1 2 3 4 5 6 7 8 9 10
ventanas o pestañas abiertas al mismo tiempo.
Sé diseñar páginas Web, utilizando algún programa 0 1 2 3 4 5 6 7 8 9 10
informático, incluyendo textos, imágenes, tablas.
Sé diseñar páginas Web utilizando algún programa 0 1 2 3 4 5 6 7 8 9 10
informático, incluyendo diferentes links, al propio
documento o a otros.
Soy capaz de descargar de Internet, programas, 0 1 2 3 4 5 6 7 8 9 10
imágenes, clips de audio.
Soy capaz de utilizar diferentes buscadores de 0 1 2 3 4 5 6 7 8 9 10
Internet (Google, Yahoo, Altavista).
Soy capaz de utilizar las opciones de búsqueda 0 1 2 3 4 5 6 7 8 9 10
avanzada en diferentes buscadores de Internet
para refinar la búsqueda de información.
Puedo organizar la información recogida de 0 1 2 3 4 5 6 7 8 9 10
307
Anexos
308
Anexos
309
Anexos
12.7 Anexo H
Capa4
12.7.1 Introducción
El test de usuario remoto perteneciente a la Capa 4 está compuesto por cuatro
cuestionarios, tres destinados al usuario final para la evaluación directa, y uno destinado
al evaluador para la evaluación indirecta.
Puntos a EVALUAR
Complejidad
- La complejidad de la tarea resultó:
Muy alta
Alta
Normal
Baja
Muy baja
- Responda las siguientes preguntas:
¿Debió tomar decisiones sobre cómo realizar la tarea debido a la posibilidad de hacerlo de
diferentes formas?¿Cuáles?
¿Podría realizar una descripción de la secuencia de pasos recorridos para efectuar la tarea.
310
Anexos
Visibilidad
Complete la siguiente grilla:
Muy de De Indiferente En Muy en
acuerdo acuerdo desacuerdo desacuer
do
En la interfaz aparece la
información justa y
necesaria para la
realización de la tarea.
Se encuentra fácilmente la
forma de realizar la tarea.
La información de contexto
y orientación es adecuada.
El diseño es intuitivo y
existen señales que
indican de manera natural
lo que se debe hacer.
Solo están disponibles las
acciones posibles en cada
momento.
La información se
encuentra jerarquizada
para distinguir claramente
lo más relevante.
Comentario del evaluador:
311
Anexos
Productividad
Las tareas habituales son de fácil
realización.
Los usuarios frecuentes o expertos
tienen posibilidad de realizar las
tareas reduciendo el número de
interacciones con el EVEA.
Existen mecanismos para realizar
tareas masivas.
El EVEA provee el usuario de
recordatorios o avisos sobre cambios
producidos a partir del último ingreso.
Hay atajos de teclado y están
siempre disponibles.
Retroalimentación
El resultado de cada acción realizada
por el usuario es informado.
Los resultados exitosos son
informados de manera diferente a los
fracasos.
Los errores producidos son
informados claramente al usuario, de
forma no alarmista, y con sugerencias
de de cómo solucionar el problema.
Control por parte del usuario
Los efectos de los actos realizados
son predecibles.
El usuario es informado
constantemente sobre lo que está
ocurriendo (mensajes, tiempo
312
Anexos
313
Anexos
314
Anexos
Efectividad
Eficiencia
+
Tiempo total invertido en Aceptable / No aceptable
completar las tareas
Tiempo total ocupado en errores Nada / Muy poco / Poco / Bastante / Mucho *
Tiempo total necesario para Aceptable (hasta un 10% del tiempo total
recuperarse de errores invertido) / No aceptable (más de un 10% del
tiempo total invertido) *
Satisfacción
Utilidad del producto Inútil / Poco útil / Algo útil / Bastante útil /
Muy útil *
315
Anexos
Usuarios
Rol
Escenarios
Efectividad
Eficiencia
+
Tiempo total invertido por el Aceptable / No aceptable
usuario en completar las tareas
Tiempo total ocupado en errores Nada / Muy poco / Poco / Bastante / Mucho
Tiempo total necesario para Aceptable (hasta un 10% del tiempo total
316
Anexos
Satisfacción
Utilidad del producto Inútil / Poco útil / Algo útil / Bastante útil /
Muy útil *
317
Anexos
12.8 Anexo I
318
Anexos
12.8.1.3 Usabilidad
Un entorno debe ser fácil de utilizar para los profesores (como creadores de cursos,
dinamizadores de la participación y la comunicación didáctica y gestores de información
académica) y para los estudiantes (como protagonistas principales de su propia
formación). La complejidad de manejo no es una consecuencia inevitable de la riqueza de
funcionalidades, sino generalmente del mal diseño. El entorno ideal no debería precisar
un “manual del estudiante” ni requerir sesiones de formación para los alumnos: debe
aprenderse a utilizarlo, utilizándolo, y con pocas instrucciones previas. Debe ser un
entorno sencillo, intuitivo, cómodo y amigable. Un estudiante acostumbrado a navegar y
usar aplicaciones Web tiene que ser capaz de utilizar sin mayores problemas el entorno
de la Universidad. Un profesor con la misma base de conocimientos informáticos tiene
que ser capaz de crear y gestionar un curso [Alv2004].
La facilidad de uso no puede ser un requisito secundario. La experiencia del usuario es
uno de los factores esenciales para la generalización de este tipo de entornos y uno de
los principales problemas que presentan numerosos sistemas. Si profesores y estudiantes
tienen la percepción de que el entorno les complica la vida y no aporta un valor añadido a
sus actividades, el rechazo será inevitable. Por este motivo, un sistema modular que
permita una configuración progresiva y a medida, en función de las necesidades de cada
momento, y que oculte aquellas herramientas o recursos no utilizados, resultará
notablemente más efectivo que un sistema complejo y pletórico de funcionalidades no
aprovechadas [Alv2004].
La usabilidad abarca también, entre otros elementos clave, la accesibilidad. En la medida
de las posibilidades tecnológicas, el entorno debe cumplir la normativa y estándares sobre
accesibilidad a fin de garantizar que no sea una nueva barrera para los estudiantes con
algún tipo de discapacidad [Alv2004].
319
Anexos
320
Anexos
321
Anexos
1. Información Técnica
1.1. Características Generales
Agrupa una serie de indicadores que posibilitan determinar la adaptabilidad a las
necesidades y posibilidades institucionales.
a) Idiomas. Ayuda en el idioma propio, capacidad multi-lenguaje.
b) Número de usuarios permitidos. Globales o simultáneos.
c) Número de cursos. Número de ofertas educativas que se pueden gestionar
simultáneamente.
d) Adaptable. Arquitectura escalable que permita una mejor adaptación a las
necesidades del momento y su posible transformación a necesidades futuras.
e) Precio. Anual, por cantidad de cursos, o por cantidad de usuarios.
f) Servicio técnico. Presencia de un distribuidor y la calidad de sus servicios en
la resolución de problemas.
1.2. Compatibilidad
Evalúa el carácter universal y no propietario de la Plataforma. Como principales
parámetros a considerar se proponen:
a) Requisitos Hw/Sw. Desde el punto de vista del servidor y del cliente. Es
muy importante la compatibilidad del lado del cliente respecto al sistema
operativo, al "navegador" y a la necesidad de "plug-ins".
b) Soporte de formatos multimedia. Diferentes medios que pueden ser
utilizados: audio, video, imágenes, animaciones, objetos 3D, applets.
c) Interoperabilidad con una infraestructura existente. La integración de la
plataforma es respetuosa con la infraestructura previa y mantiene
compatibilidad con datos, protocolos y lenguajes de programación.
d) Estándares IMS, AICC, ADL-SCORM y otros. Protocolos y normas que
permitan la importación y exportación de cursos y/o contenidos con otros
entornos.
e) Accesibilidad. Facilidades para personas con discapacidad.
1.3. Robustez
Fiabilidad de la plataforma tanto en su consistencia como en la protección ante
usos indebidos:
a) Integridad de funcionamiento. Fallas derivadas de un mal diseño del
322
Anexos
software.
b) Recuperación ante fallos. Tolerancia ante utilización poco experta.
c) Seguridad. Capacidad de controlar los accesos a las bases de datos y
herramientas que integran la plataforma. Propiedad y protección de los
materiales depositados en la plataforma.
2. Edición de Materiales
2.1. Edición de contenidos
Evalúa las herramientas y sus capacidades para la edición de contenidos
pedagógicos.
a) Disponibilidad de entorno de autor. Adaptación a los estándares para elaborar
contenidos. Nivel de conocimientos técnicos requeridos para su utilización, su facilidad
de aprendizaje y su capacidad.
b) Capacidad de integración multimedia. Facilidad para crear documentos con una
amplia variedad de recursos multimedia. Posibilidad de mantener una interactividad
con contenidos off-line.
c) Capacidad de reedición-actualización. Flexibilidad para modificar los módulos de
contenido de un curso, una vez que estén on-line.
d) Manejo de archivos para trabajar en remoto. Posibilidad de importar y convertir
archivos elaborados de forma local, respetando los links entre documentos HTML.
f) Posibilidad de participar múltiples autores. Diseño de los cursos por parte de
varios autores (utilidad de bloqueo de archivos, anotaciones personales para cada
autor, etc.)
g) Capacidad de integrar en la plataforma archivos generados en otro entorno.
323
Anexos
324
Anexos
325
Anexos
4.3. Informes
a) Elaboración de estadísticas e informes sobre el trabajo y aprendizaje de
alumnos.
b) Evaluación de las bases de preguntas de los cuestionarios sobre su dificultad
y carácter discriminatorio.
c) Capacidad para recoger las sugerencias de los usuarios.
5. Otras características
Se refiere a una serie de indicadores que son poco utilizados en otros estudios
comparativos. Pretenden evaluar aspectos subjetivos y que están relacionados con la
confianza que ofrece la plataforma y con su calidad ergonómica.
326
Anexos
327
Anexos
328
Anexos
329
Anexos
330
Anexos
Apoyo en la formación
Seguimiento del progreso del estudiante
- Fichas de anotaciones personalizadas del alumno.
- Test de auto evaluación realizados por los estudiantes.
- Pruebas objetivas con módulo de edición, módulo de ejecución y modulo de
corrección.
- Estadísticas sobre los itinerarios seguidos.
- Estadísticas de los accesos practicados en los materiales de aprendizaje.
- Estadísticas de la participación de los alumnos a través de herramientas de
comunicación, número de veces que ha accedido el alumno al sistema, tiempo
invertido, etc.
- ¿Generan gráficas sobre cada una de las variables reseñadas?
Comunicación interpersonal
Es el aspecto más importante y definitorio dentro de los entornos de aprendizaje en
redes. De cada herramienta de comunicación se analiza que tipo de herramientas
es (estándar, específica o ambas), si es síncrona (on-line, off-line) o asíncrona y si
es punto a punto o multipunto.
• Correo.
• Correo con adjuntos.
• Listas.
• Foros.
• Audioconferencia.
• Videoconferencia, pizarra electrónica, espacios virtuales.
• Chat (único, por materia).
• Noticias.
• Tablero electrónico.
Trabajo colaborativo
• Incorpora repositorio de archivos y documentos.
• Lleva editor individualizado.
• Permite compartir información, elaborar, modificar, adicionar, documentos
conjuntos.
• Incorpora facilidades que establezcan actualizaciones simultáneas y
diferentes versiones.
• Lleva opciones específicas orientadas al trabajo cooperativo, como son
aplicaciones compartidas.
• Calendario.
• Convocatoria de reuniones.
• Lluvia de ideas.
• Mapas conceptuales.
• Navegación compartida.
• Notas.
• Pizarra compartida.
• Videoconferencia interna.
331
Anexos
Interacción
• Permite visualizar al usuario, sea profesor o alumno, quien está conectado
en cada momento (profesor alumno).
• Permite visualizar quien está conectado en cada momento, pero con
limitaciones: solo a los profesores, solo permite detectar qué alumnos están
conectados.
• Tiene portafolio vinculado al resto de herramientas de forma que se pueda
congregar toda la información de un alumno procedente del correo, las
listas, los repositorios de documentos, etc.
• Tiene recursos automatizados vinculados con la gestión docente
personalizada. Por ejemplo, enviar mensajes tipo a alumnos que no hayan
presentado la tarea en un plazo, u otros similares.
332
Anexos
Términos
Los descriptores de un perfil son precisos, únicos y sin ambigüedades en todos los
puntos de la plataforma donde se citan. Y corresponden a la misma
conceptualización.
Relaciones
• Alumno
o Informaciones en relación con la situación en que se encuentra en el
contexto del curso (Unidad, tareas pendientes, tareas propuestas, y
enlace con comunicaciones recientes no vistas).
o Acceso a tutores, material, herramientas de comunicación interpersonal o
grupal.
• Tutor personal
o Todas las informaciones y posibilidades de acceso que disponen los
participantes tutelados.
o Acceso a las bases de datos de alumnos.
• Tutor de aprendizaje
o Todas las informaciones y posibilidades de acceso que disponen los
participantes tutelados.
333
Anexos
Privilegios
• Alumno: disponer de un espacio cliente al que pueda acceder depositando
materiales y modificando su estructura, el árbol de carpetas y directorios
de ahí para abajo.
• Tutor personal
o Disponer de un espacio cliente al que pueda acceder depositando
materiales y modificando su estructura, el árbol de carpetas y
directorios de ahí para abajo.
o Acceder a información de los alumnos asignados.
o Editar fichas de alumnos.
• Tutor de aprendizaje
o Disponer de un espacio cliente al que pueda acceder depositando
materiales y modificando su estructura, el árbol de carpetas y
directorios de ahí para abajo.
o Acceder a información de los alumnos asignados.
o Editar fichas de alumnos.
o Acceder a espacio de los alumnos como cliente / servidor.
o Dar altas y bajas de alumnos.
• Profesor responsable o titular de materia
o Dispone de los privilegios propios de un tutor de aprendizaje.
o Acceso cliente único al repositorio de materiales de la materia.
o Administrar recursos de la materia, foros, listas.
• Coordinador: acceso cliente único a las guías didácticas
• Administrador
o Conceder retirar privilegios.
334
Anexos
o Diseño de espacios.
o Asignar espacios.
• Especialista en elaboración de material multimedia: disponer de un espacio
cliente al que pueda acceder depositando materiales y modificando su
estructura, el árbol de carpetas y directorios de ahí para abajo.
• Colaborador remoto, en sedes locales
o Disponer de un espacio cliente al que pueda acceder depositando
materiales y modificando su estructura, el árbol de carpetas y
directorios de ahí para abajo.
o Acceder a información de los alumnos asignados.
o Editar fichas de alumnos.
• Evaluador u observador externo
335
Anexos
336
Anexos
337
Anexos
• Herramientas de gestión
• Página de información sobre el instructor
• Información del curso
• Calendario y planificación del curso
• Anuncios
338
Anexos
339
Anexos
• Generales
• Características y funcionalidades
• Costos, soporte, asistencia, nivel de experticia
• Mantenimiento
• Usabilidad y documentación de usuario
• Adopción de los usuarios / Comunidad de usuarios actuales
• Modificabilidad
• Estandarización
• Capacidad de integración
• Integración con Learning Objects Models (LOM)
• Confiabilidad
• Escalabilidad
• Seguridad de propiedad intelectual
• Consideraciones de hardware y software
• Soporte multilenguaje
• Específicos
• Seguridad
Encriptación
Autentificación
• Acceso
Usuario y contraseñas individuales o grupales
Asignación de privilegios
Accesible mediante navegador
Autorización para cursado
Registración
Requisitos mínimos de hardware del estudiante, tipos de
conexión a Internet, posibilidad de trabajo fuera de línea.
• Diseño, desarrollo e integración del curso
Mantenimiento sencillo del curso
Interface personalizable y adaptable
Soporte para clases y cursos virtuales
Plantillas de cursos
Soporte de características multimedia
Accesibilidad
Herramientas para diseño instruccional
Soporte para especificación instruccional
Administración de curriculum
Navegación Simple
340
Anexos
341
Anexos
• Rasgos generales
• Anotador
• Soporte para navegación
• Tablón de anuncios
• Calendario
• Chat
• E-mail
• Subida de archivos
• Enlaces HTML
• Capacidades de importación / exportación
• Personalización del instructor
• Soporte para listas de distribución
• Contraseña de seguridad
• Soporte Multimedia
• Múltiples niveles de seguridad
• Graduación on-line
• Ayuda on-line
• Seguimiento de progreso
• Autoevaluaciones
• Configuración guiada
• Grupos de estudiantes
• Interface de usuario
• Pizarra compartida
• Requerimientos técnicos
• Scripts CGI
• Archivado y backup del curso
• Acceso a base de datos
• Plataforma de funcionamiento (sistema operativo / navegador)
• Soporte de archivos ejecutables
• Java
• Logeo
• Seguridad
• Tipo de servidor
• Compatibilidad con SSL
• Alta de estudiantes por lote
• Otros
• Costo
• Compatibilidad IMS
• Licencia
• Entrenamiento
• Actualizaciones
• Empresas proveedoras
342
Anexos
12.8.10 Edutools
Estos indicadores pertenecen a la Western Cooperative for Educational
Telecommunications (WCET). Fueron utilizados en el sitio Web www.edutools.info
desarrollado por el Centre for Curriculum, Technology & Transfer de la Universidad British
Columbia de Canadá, que provee facilidades para analizar, comparar, ponderar y tomar
decisiones sobre el entorno a utilizar. Es posible acceder a una evaluación on-line de los
entornos más conocidos en el ámbito mundial. Edutools es uno de los lugares más
visitados en la Web a los efectos de evaluar o conocer las características principales de
los entornos de aprendizaje más importantes. Los indicadores están agrupados en 8
criterios, además del registro del nombre del producto y del desarrollador del mismo
[Edu2006].
• Herramientas de comunicación
• Foros de discusión
• Intercambio de archivos
• Carga de archivos
• Mail interno
• Apuntes on-line
• Chat en tiempo real
• Servicios de video
• Pizarra compartida
• Herramientas de productividad que muestran la evolución del estudiante
• Marcadores
• Ayuda / orientación
• Búsqueda dentro de un curso
• Calendario de progreso
• Revisión de trabajos off-line/sincronizado
• Herramientas que involucran al estudiante
• Grupos de trabajo
• Auto-ayuda
• Comunidad de estudiantes
• Carpeta del estudiante
• Herramientas de administración
• Autentificación
• Acceso autorizado a cursos
• Servicio de hospedaje de cursos
• Matriculación / integración
• Herramientas para el manejo del curso
• Gestión de cursos
• Mesa de ayuda para el instructor
• Herramientas de graduación on-line
• Testeo y puntuación automática
• Seguimiento del progreso del estudiante
• Diseño del curriculum
• Accesibilidad
• Plantillas de cursos
• Gestión de Curriculum
• Look and feel personalizable
• Estándares instruccionales
343
Anexos
344