Trabalho de IHM
Trabalho de IHM
Trabalho de IHM
Universidade Pedagógica
Tete
2019
Índice:
1. Introdução
3. Interface x Interação
Interação é o processo de comunicação entre pessoas e sistemas interativos (Preece etal.,
1994). Neste processo, usuário e sistema trocam turnos em que um “fala” e o outro
“ouve”,interpreta e realiza uma ação. Esta ação pode ser tão simples quanto dar uma resposta
imediata à fala do outro, ou consistir de operações complexas que alteram o estado do mundo.
A área de IHC estuda este processo, principalmente do ponto de vista do usuário: as ações que
ele realiza usando a interface de um sistema, e suas interpretações das respostas transmitidas
pelo sistema através da interface.
A dimensão física inclui os elementos de interface que o usuário pode manipular, enquanto a
dimensão perceptiva engloba aqueles que o usuário pode perceber. A dimensão conceitual
resulta de processos de interpretação e raciocínio do usuário desencadeados pela sua interação
com o sistema, com base em suas características físicas e cognitivas, seus objetivos e seu
ambiente de trabalho. Atualmente, as interfaces mais comuns envolvem elementos visuais e
sonoros, com entrada de dados via teclado e mouse. Outros tipos de interfaces, como interface
via voz e entrada de dados através de canetas estão se tornando freqüentes, devido à
disseminação de dispositivos móveis.
3.1. Objetivos e Importância da Avaliação de Interação
Antes de declarar um software pronto para uso, é importante saber se ele apóia
adequadamente os usuários, nas suas tarefas e no ambiente em que será utilizado. Assim
como testes de funcionalidade são necessários para se verificar a robustez da implementação,
a avaliação de interface é necessária para se analisar a qualidade de uso de um software.
Quanto mais cedo forem encontrados os problemas de interação ou de interface, menor o
custo de se consertá-los.
Usabilidade
O conceito de usabilidade permite avaliar a qualidade de um sistema com relação a fatores
que os projetistas definem como sendo prioritários ao sistema. Alguns fatores típicos
envolvidos no conceito de usabilidade são (Preece et al., 2002):
Facilidade de aprendizado;
Facilidade de uso;
Eficiência de uso e produtividade;
Satisfação do usuário;
Flexibilidade;
Utilidade;
Segurança no uso.
Facilidade de aprendizado se refere ao tempo e esforço necessários para que os usuários
aprendam a utilizar uma determinada porção do sistema com determinado nível de
competência e desempenho. Geralmente, um sistema pode ser analisado sob uma perspectiva
de uso simples, considerando um nível intermediário ou avançado, por exemplo, cada qual
requerendo tipos e graus de aprendizado distintos. Neste caso, o fator de facilidade de
aprendizado pode ser analisado em diversos pontos, considerando cada passagem de um nível
de capacitação ao próximo.
Comunicabilidade
O conceito de comunicabilidade (de Souza et al. 1999, Prates et al., 2000b) se refere à
capacidade de os usuários entenderem o design tal como concebido pelos projetistas. A
hipótese subjacente ao conceito de comunicabilidade é que, se um usuário entende as decisões
que o projetista tomou ao construir a interface, aumentam suas chances de fazer um bom uso
daquele sistema. Em sistemas com alta comunicabilidade, os usuários são capazes de
responder:
Para que o sistema serve;
Qual é a vantagem de utilizá-lo;
Como funciona;
Quais são os princípios gerais de interação com o sistema.
Uma interface com boa comunicabilidade permite que o usuário formule um modelo mental
compatível com o do projetista. O uso de analogias com artefatos familiares ao usuário pode
contribuir para isto, pois o usuário já possui um modelo mental sobre o comportamento desses
artefatos. No entanto, é importante deixar claro qual é o escopo da analogia, ou seja, quais são
as porções do modelo mental sobre o artefato conhecido que podem ser transportadas para a
construção do modelo mental sobre a interface em questão. Um exemplo de interface com boa
comunicabilidade é a tela inicial do programa CD Player, do Windows 95 (Figura 2). Ela tira
proveito da familiaridade do usuário com os aparelhos comuns de CD, fornecendo elementos
de interface análogos, tais como os botões de comando para acionamento das funções e o
visor de trilhas e duração como elemento de feedback.
busca de arquivos.)
Figura 3: Exemplo de baixa comunicabilidade. Observe o item de menu Undo Move dentro da
ferramenta de busca.
Aplicabilidade
A aplicabilidade de um sistema também determina sua qualidade de uso. Este conceito está
relacionado com a utilidade deste sistema em uma variedade de situações e problemas
(Fischer, 1998). Este conceito permite determinar:
O quanto o sistema é útil para o contexto em que foi projetado;
Em que outros contextos o sistema pode ser útil.
Fischer acredita que as pessoas, por serem hábeis e especialistas no seu domínio, querem agir
como designers, no sentido de participar ativamente dos processos de solução de problemas e
de construção ou transformação dos seus próprios artefatos e espaços de trabalho. Ele coloca
como desafios essenciais de IHC a melhoria das formas como as pessoas podem usar
computadores para trabalharem, pensarem, se comunicarem, aprenderem, criticarem,
explicarem, argumentarem, discutirem, observarem, decidirem, calcularem, simularem e
projetarem.
Interfaces muito rígidas, nas quais os usuários têm apenas um caminho a seguir, com pouca
possibilidade de cometer erros, são freqüentemente chamadas de “a prova de idiotas” (do
inglês, idiot-proof). Na realidade, este tipo de interface trata todos os usuários como pessoas
incapazes de tomar decisões apropriadas. Os usuários destes sistemas têm reações negativas
de diversos tipos, conforme suas características e o contexto em que estão inseridos: eles
fazem um mau uso do sistema, deixam de usá-lo, ou até mesmo se limitam a crer que o
sistema tem sempre razão e que eles, usuários, não deveriam mesmo tomar decisões
importantes.
A avaliação de uma interface pode ser feita durante diferentes etapas do ciclo de
desenvolvimento do software. As avaliações formativas (Preece et al., 1994; Hartson, 1998)
são aquelas que são feitas durante o processo de design, antes de o sistema estar terminado, e
muitas vezes antes de uma linha de código sequer ser escrita. A avaliação pode ser feita
utilizando-se desde cenários, storyboards, ou a modelagem conceitual da interação até
protótipos do sistema. A vantagem de se fazer avaliação formativa é que problemas de
interação são identificados e consertados antes de a aplicação ser terminada e liberada para
uso. Quanto mais cedo no ciclo de design um problema é descoberto e reparado, menor o
custo das alterações necessárias no software (Karat, 1993). Além disto, o software resultante a
ser oferecido para o usuário é de melhor qualidade.
As avaliações de interface feitas em produtos já terminados são chamadas de avaliações
somativas. Normalmente, enquanto as avaliações formativas têm por objetivo melhorar a
qualidade do sistema, tornando-o mais usável para o usuário, as avaliações somativas buscam
verificar a existência de determinados aspectos no sistema desenvolvido, como por exemplo a
sua conformidade com um padrão estabelecido.
Observação de usuários
Nem sempre usuários percebem ou conseguem expressar a sua experiência de uso com o
sistema. A observação do uso do sistema pelo usuário permite ao avaliador ter uma visão dos
problemas sendo vivenciados pelos usuários e muitas vezes dos aspectos positivos
experimentados durante o uso. A observação pode ser registrada usando-se anotações do
observador, gravação de vídeo, áudio ou da interação, ou uma combinação destas.
O usuário pode ser observado no seu contexto de uso, ou seja utilizando o software no seu
trabalho, ou até mesmo em sua casa. Nestas situações se consegue observar o usuário
utilizando o software para realizar as tarefas que ele considerar relevantes e para as quais
acredita que o software seja apropriado, e ainda da maneira que considera adequada ou
desejável. Em tais situações, alguns dos desafios para os avaliadores são conseguir observar
sem interferir no contexto ou inibir o usuário, e como fazer a análise dos dados coletados,
principalmente quando se obtém várias horas de vídeo gravadas, ou quando diferentes tipos
de registro feitos durante o uso devem ser integrados.
O avaliador pode desejar observar o uso feito pelo usuário em ambientes mais controlados,
como laboratórios. Nestes ambientes o avaliador tem um controle maior sobre as variáveis
que influenciam a avaliação, como o tempo de duração, a concentração do usuário e as tarefas
a serem executadas. Assim, é possível coletar dados mais precisos sobre a utilização de
diferentes usuários de forma a compará-los. Nestes casos, o avaliador normalmente determina
as tarefas a serem executadas pelo usuário e pode coletar dados qualitativos ou quantitativos
sobre o uso, como por exemplo, o tipo e freqüência das dificuldades enfrentadas pelos
usuários, caminhos preferenciais, o tempo gasto para executar a tarefa, ou o número de erros
cometidos.
Registro de uso
Observar o usuário requer que o usuário e o observador estejam presentes em uma mesma
hora e local por um determinado período de tempo. No entanto, isto nem sempre é possível,
ou se gostaria de ter informações sobre o uso em um período de tempo mais longo. Uma outra
forma de coletar informações sobre como os usuários usam o sistema é através de registros
feitos durante o uso. Isto pode ser feito através de logs, que armazenam em um arquivo as
ações executadas em um sistema, através da gravação da interação do usuário com o sistema,
ou da gravação em vídeo da experiência do usuário. As diferentes formas de registro
armazenam aspectos distintos do uso feito. Normalmente, registros de uso geram uma grande
quantidade de informação e a análise destes dados pode ser bastante custosa para avaliadores.
Dados qualitativos são resultados não numéricos, tais como uma lista de problemas que os
usuários tiveram ao utilizar a aplicação, ou suas sugestões sobre como melhorar o projeto de
interação. Normalmente estes dados permitem identificar quais são as características de
interação ou interface relacionadas com os problemas medidos e observados. Em alguns
casos, dados qualitativos podem ser categorizados e então quantificados.
IHC, propõe-se utilizar o esquema DECIDE (Preece et al., 2002), para ajudar avaliadores
inexperientes no planejamento e realização de uma avaliação. Os pontos relevantes a serem
considerados são os seguintes:
Determinar os objetivos gerais que a avaliação deverá tratar. Trata-se de
responder as perguntas gerais: Quais são os objetivos gerais da avaliação? Quem quer
realizá-la e por quê?
Explorar perguntas específicas a serem respondidas. Trata-se de decompor as
perguntas gerais em perguntas específicas ao sistema a ser avaliado, considerando-se
os usuários-alvo e suas atividades. Estas perguntas são necessárias para permitir
efetivamente que os objetivos da avaliação sejam atingidos.
Escolher (Choose) o paradigma e as técnicas de avaliação que responderão as
perguntas. Dentre os pontos a serem considerados, destacam-se o prazo, o custo, os
equipamentos e o grau de conhecimento e experiência dos avaliadores exigidos por
cada técnica.
Identificar questões práticas que devem ser tratadas. Consideram-se aqui fatores
como: perfil e número de usuários que participarão da avaliação; ambiente em que a
avaliação será realizada; seleção das tarefas; planejamento e preparação do material
de avaliação; alocação de pessoal, recursos e equipamentos para a realização da
avaliação.
Decidir como lidar com questões éticas. Quando uma avaliação envolve pessoas
como participantes de testes, os avaliadores devem se certificar que os direitos destas
pessoas estão sendo respeitados. Na seção 6.4 apontamos formas de lidar com as
questões éticas envolvidas neste tipo de avaliação.
Avaliar (Evaluate), interpretar e apresentar os dados. Como apontado nesta seção,
os dados coletados durante uma avaliação podem variar bastante. Sendo assim, é
importante considerar aspectos como a confiabilidade dos dados (se a técnica produz
os mesmos resultados nas mesmas circunstâncias), sua validade (se mede o que
deveria medir); potenciais distorções; escopo (o quanto as descobertas podem ser
generalizadas); e validade ecológica (o quanto o ambiente em que a avaliação é feita
influencia ou distorce os resultados).
É importante que estas sessões sejam individuais, para que um avaliador não seja influenciado
pela opinião de outros. Durante cada sessão de avaliação, o avaliador percorre a interface
diversas vezes, inspecionando os diversos elementos de interface e comparando-os com a lista
de heurísticas de usabilidade.
Nielsen propôs um conjunto básico1 de heurísticas. Cada elemento de interface (ou conjunto
de elementos) deve ser analisado para verificar sua conformidade com cada uma das seguintes
heurísticas:
Visibilidade do estado do sistema: mantenha os usuários informados sobre o que
está acontecendo, através de feedback adequado e no tempo certo.
Correspondência entre o sistema e o mundo real: utilize conceitos, vocabulário e
processos familiares aos usuários.
Controle e liberdade do usuário: forneça alternativas e “saídas de emergência”;
possibilidades de undo e redo
Consistência e padronização: palavras, situações e ações semelhantes devem
significar conceitos ou operações semelhantes; caso haja convenções para o ambiente
ou plataforma escolhidos, estas devem ser obedecidas
Prevenção de erro: tente evitar que o erro aconteça, informando o usuário sobre as
conseqüências de suas ações ou, se possível, impedindo ações que levariam a uma
situação de erro
Ajuda aos usuários para reconhecerem, diagnosticarem e se recuperarem de
erros: mensagens de erro em linguagem simples, sem códigos, indicando
precisamente o problema e sugerindo de forma construtiva um caminho remediador
Reconhecimento em vez de memorização: torne objetos, ações e opções visíveis e
compreensíveis
Flexibilidade e eficiência de uso: ofereça aceleradores e caminhos alternativos para
uma mesma tarefa; permita que os usuários customizem ações freqüentes
Design estético e minimalista: evite porções de informação irrelevantes. Cada
unidade extra de informação em um diálogo compete com as unidades de informação
relevantes e reduz sua visibilidade relativa.
Ajuda e documentação devem ser fáceis de buscar, focadas no domínio e na tarefa
do usuário, e devem listar passos concretos a serem efetuados para atingir seus
objetivos
Para cada problema encontrado, ou seja, para cada heurística violada, deve-se definir ainda a
localização do problema, ou seja, onde ele ocorre na interface, e sua gravidade.
Neste método, o custo de aprendizado deve ser determinado pelo benefício imediato aos seus
usuários. Este método investiga principalmente:
A correspondência entre a conceitualização de uma tarefa por parte dos usuários e dos
designers;
Escolha adequada (ou inadequada) de termos, ou seja, o vocabulário utilizado;
feedback adequado (ou inadequado) para as conseqüências de uma ação.
Considerando-se cada um destes critérios, há algumas soluções típicas para as falhas mais
comuns:
“O usuário tentará atingir a meta correta?” Se a interface falhar neste ponto, hápelo
menos três soluções possíveis:
Eliminar a ação, combinando-a com outra ou deixando o sistema assumi-la;
Fornecer uma instrução ou indicação de que a ação precisa ser realizada; • alguma
parte da tarefa pode ser modificada para que o usuário entenda a necessidade desta
ação.
“O usuário perceberá que a ação correta está disponível?” Se o usuário possui os
objetivos certos mas não sabe que a ação está disponível na interface, a solução pode
ser:
atribuir um operador mais óbvio para a ação. Isto geralmente requer um item
de menu ou instrução, em vez de combinação de teclas;
atribuir à ação um controle menos visível mas como parte de uma estrutura em
que possa ser facilmente encontrado, como um submenu.
“O usuário associará o elemento de interface correto à meta a ser atingida?”
Para corrigir este tipo de falha, o designer precisa conhecer os usuários e ter uma idéia sobre
como eles descreverão suas tarefas. Com esta informação, o designer poderá fornecer rótulos
e descrições de ações que incluam palavras que os usuários utilizariam para descrever estas
tarefas. Também pode ser necessário modificar os rótulos de outros controles, para que os
usuários possam decidir sobre qual é o correto.
“Se a ação correta é tomada, o usuário perceberá que progrediu em direção à solução
da tarefa?”
Algum feedback é melhor do que nenhum. O feedback que indica o que ocorreu é melhor do
que aquele que indica que algo ocorreu. Além disto, o feedback será mais útil quando for
composto de termos ou símbolos relacionados à descrição do usuário para aquela tarefa.
Observe que, em situações simples, a interface pode prescindir de feedback e chamar logo a
próxima ação lógica.
Em testes com usuários em laboratório o avaliador tem um maior controle sobre o ambiente e
sobre as atividades do usuário. Assim, o avaliador consegue identificar problemas da interface
que dificultam a interação, sem se preocupar com fatores externos, tais como o usuário sendo
interrompido durante o uso do sistema. A principal desvantagem de testes em laboratórios é
justamente fazer a avaliação fora do contexto em que a aplicação será utilizada de fato. Desta
forma não se consegue identificar através de testes em laboratório fatores do ambiente que
podem impactar uso do sistema.
Ambientes de teste
Os testes normalmente são executados em laboratórios de testes com usuários como por
exemplo o mostrado na Figura 7. Os laboratórios costumam possuir 2 salas, uma para a
execução do teste (Figura 7a) e outra para observação do teste (Figura 7b). As salas são
separadas por um vidro espelhado, de forma que o participante não enxergue quem se
encontra do outro lado do vidro, mas os observadores possam ver o participante e suas ações.
A sala de teste costuma ser equipada com um computador e espaço para o participante e um
avaliador. A sala de observação costuma ter um monitor que replica o que está sendo visto no
monitor do usuário, um outro computador para anotações. Além disso, câmeras de vídeo e
gravadores podem estar presentes em uma sala ou na outra, ou em ambas dependendo do teste
a ser executado.
(a) Sala de teste: participantee um (b) Sala de observação: avaliador
Avaliador na sala. Observando por trás do vidro espelho.
Figura 7 – Laboratório de comunicabilidade do Grupo de Pesquisa em
Engenharia Semiótica (SERG), na PUC-Rio.
3.4. Conclusão
Neste capítulo foram apresentados alguns dos principais métodos analíticos e empíricos de
avaliação da qualidade de uso de usabilidade e comunicabilidade de interfaces. Estes métodos
foram desenvolvidos para avaliações de interfaces de sistemas mono-usuário de propósito
geral. Todos os métodos propõem que o domínio da aplicação e o seu contexto de uso sejam
considerados durante a execução da avaliação, seja pelos especialistas que inspecionam a
interface, seja pelas tarefas a serem propostas aos usuários. No entanto, nenhum dos métodos
se propõe a apreciar aspectos específicos relacionados ao domínio da aplicação.
3.5. Referências Bibliográficas
Adler, P. & Winograd, T. (1992) Usability: Turning Technologies into Tools. Oxford
University Press. New York, NY, 1992.
Asdi, K. and Daniels, H., (2000) “ 'Learnability' Testing in Learner-Centered Design”. In CHI
2000 Extended Abstracts.
Baker, K., Greenberg, S. and Gutwin, C. (2001) “Heuristic Evaluation of Groupware Based
on the Mechanics of Collaboration”. In M.R. Little and L. Nigay (Eds) Engineering for
Human Computer Interaction (8th IFIP International Conference, EHCI 2001, Toronto,
Canada, May), Lecture Notes in Computer Science Vol 2254, p123-139, Springer-Verlag.
Barbosa, C. M. O., de Souza, C. S., Nicolaci-da-Costa, A. M., and Prates, R. O. P. (2002),
“Using the Underlying Discourse Unveiling Method to Understand Organizations of Social
Volunteers”, Anais do V Simpósio sobre Fatores Humanos em Sistemas Computacionais
(IHC 2002), Fortaleza, 15-26.
Blackmon, M.H.; Polson, P.G.; Kitajima, M.; Lewis, C. (2002) “Cognitive Walkthrough for
the Web”. ACM Proceedings of CHI 2002. pp.463–469. Bly, S. (1997) “Field Work: Is it
product work?” Interactions, Jan/Fev, 25-30.
de Souza, C.S. (1993) “The Semiotic Engineering of User Interface Languages”.
International Journal of Man-Machine Studies, Vol.39, 1993, pp.753-773.
de Souza, C.S.; Prates, R.O.; and Barbosa, S. D. J. (1999) “A Method for Evaluating Software
Communicability”. Anais do II Workshop sobre Fatores Humanos em Sistemas
Computacionais (IHC’1999). Campinas, Artigo 28.
de Souza, C. S., Barbosa, S. D. J., Prates, R. O. (2001) “A Semiotic Engineering
Approach to User Interface Design”. Journal of Knowledge-Based Systems, Vol.14, Issue 8,
2001, pp 461-465.
Dumas, J. S e Redish, J. C. (1999) A Practical Guide to Usability Testing (Revised Edition).
Exeter, UK: Intellect, 1999.
Ericsson, K. A. and Simon, H. A. (1985) Protocol Analysis: Verbal Reports as Data.
Cambridge, MA: MIT Press.
Fischer, G. (1998) “Beyond ‘Couch Potatoes’: From Consumers to Designers” In
Proceedings of the 5th Asia Pacific Computer-Human Interaction Conference. IEEE Computer
Society, 2-9, 1998.
Güell, N.; Schwabe, D.; Barbosa, S.D