Você está na página 1de 78

Interfaces Homem-Máquina

Universidade Federal do Tocantins


Curso: Ciência da Computação
Disciplina: Interfaces Homem-Máquina
Professor: Eduardo Ferreira Ribeiro
Design Centrado no Usuário - ISO 13407

Identificar a
necessidade do projeto
centrado no usuário

Analisar e especificar
o contexto de uso

O sistema satisfaz Especificar as


Avaliar o projeto
as exigências dos exigências dos
contra as exigências
usuários usuários

Produzir soluções
de projeto
O que é avaliar?
 determinar o valor de
 apreciar
 julgar
 ponderar, examinar, considerar
 calcular, estimar
Avaliação de IHC: O que é?
 Análise criteriosa da qualidade da
experiência dos usuários ao
interagirem com sistemas
computacionais.
 Não é uma questão de “opinião” ou
de “gosto”; é uma questão de
conhecimento técnico, antes de
mais nada.
 Muito além da avaliação de
usabilidade.
Avaliação de IHC.
 O que é?
◦ Examinar aspectos da experiência do usuário, mantendo sempre
o foco no usuário. O sistema só interessa na medida em que o
seu comportamento afeta a experiência do usuário.
 Logo, avaliação de IHC ≠ avaliação de software
 Duas perguntas:
◦ Um sistema de busca na Internet é reconhecido como aquele
que recupera o maior número de documentos pertinentes para
a busca do usuário e o menor número de documentos não-
pertinentes.
O que isto informa sobre a experiência que ele oferece aos
usuários?
◦ Um certo aparelho de telefonia celular é reconhecido como o
que permite o maior conforto e a maior rapidez na digitação de
mensagens de texto.
O que isto informa sobre a experiência que ele oferece aos
usuários?
Por que fazer avaliação?
 Por que avaliar?
◦ Seu sistema SEMPRE será avaliado
 pelo menos toda vez que um usuário utilizá-lo
 Seja pela equipe de desenvolvimento ou pelos usuários.
 (Bruce Tognazzini 
http://www.asktog.com/columns/037TestOrElse.html)
◦ Consertar problemas antes e não depois de o produto ser
lançado
◦ Voltar a energia da equipe para a solução de problemas reais
◦ Engenheiros codificam, não discutem: quem será o advogado
do usuário?
◦ O tempo para colocar o produto no mercado diminui.
◦ Comercialização de um produto mais sólido (a próxima
versão corretiva não precisa estar no forno na hora do
lançamento do produto no mercado)
Interfaces de baixa qualidade…
◦ requerem treinamento excessivo
◦ desmotivam a exploração
◦ confundem os usuários
◦ induzem os usuários ao erro
◦ geram insatisfação
◦ diminuem a produtividade
◦ não trazem o retorno de investimento
previsto
O que avaliar?
 Aspectos cognitivos e funcionais relativos à realização
de tarefas apoiadas pelo sistema
◦ É fácil de aprender? É rápido? Dá para confiar? Dá para
reverter erros cometidos (facilmente)? Dá para lembrar
depois de algum tempo sem usar? …
 Aspectos sócio-culturais do uso do artefato no local /
contexto previstos
◦ A tecnologia se integra fácil no ambiente físico? Causa algum
tipo de problema com outras tecnologias ou com pessoas
que estejam usando outras tecnologias? E com quem não
esteja usando tecnologia nenhuma? Pode-se prever mudanças
(a curto ou médio prazo) das práticas do ambiente sócio-
cultural previsto? Quais? E aí (o que vai provavelmente
acontecer)? Há alguma redistribuição de poder? …
 Aspectos afetivos
◦ As pessoas vão gostar? Vão achar bonito, agradável? Vão
achar que dá status usar a tecnologia (ou vão achar que
estão “pagando mico”)? …
Quando Avaliar?
Quando avaliar?
 Avaliação formativa (ou construtiva)
◦ ao longo de todo o processo de design
 sempre que os projetistas precisam compreender
melhor o que os usuários querem e precisam, ou
quando precisam verificar se suas idéias estão
atendendo as necessidades conhecidas dos usuários.
◦ artefatos: cenários, storyboards, modelagem da
interação e protótipos de sistema
 Avaliação somativa (ou conclusiva)
◦ nas etapas finais (de cada ciclo) do
desenvolvimento
◦ artefatos: produto (ou protótipo, intermediário
ou final) funcionando
Avaliação –– objetivos
 verificar o entendimento dos projetistas sobre as
necessidades e preferências dos usuários
 investigar como uma interface afeta a forma de
trabalhar dos usuários
◦ a forma de trabalhar, de se divertir, de fazer compras, de se
relacionar, etc.
 comparar alternativas de projeto de interface
 identificar problemas de interação ou de interface
◦ potenciais (previstos por especialistas) ou reais
 verificar se foram alcançados objetivos quantificáveis
em métricas de usabilidade
 verificar conformidade com um padrão ou conjunto de
heurísticas
 elaborar material de apoio (e.g. instruções, sistema de
ajuda) e treinamento
PARADIGMAS DE
AVALIAÇÃO
Paradigma de Avaliação
 Toda avaliação é guiada explícita ou
implicitamente por uma série de crenças
e expectativas. Várias vezes elas têm
origem em teorias.
 Estas crenças e expectativas, juntamente
com as teorias a que podem se referir,
constituem o paradigma de avaliação.
Paradigmas de Avaliação
 Avaliação é sempre comprometida.
 Avaliar alguma coisa é emitir um juízo de
valor.
◦ Juízo de valor é uma prerrogativa humana.
 De quem?
◦ Do desenvolvedor da tecnologia? Do usuário da
tecnologia? De um especialista na tecnologia? De
um especialista em IHC?
◦ Cada um faz juízos de valor comprometidos com:
 seu tipo e nível de conhecimento e experiência,
 suas condições gerais de atuação na situação de avaliação
 suas intenções e expectativas em relação à avaliação; etc.
Paradigmas de Avaliação
 Baseado em quê?
 A base do juízo de valor são crenças e
expectativas, freqüentemente originárias
de teorias e/ou de experiências empíricas.

 Tais crenças, associadas ao métodos utilizados para executar a avaliação (e


emitir o juízo de valor) constituem um paradigma de avaliação.
Paradigmas de Avaliação
 O ‘rápido e rasteiro’
◦ Informal, feito a qualquer hora, importante é a rapidez de
feedback
 O teste de usabilidade
◦ Preparação e gravação de sessões de interação, análise
criteriosa, muitas vezes combinado a entrevistas e
questionários de satisfação
 Os estudos de campo
◦ Feito no ambiente do usuário (observação do usuário in
loco), detecta hábitos e práticas, conscientes/inconscientes
 Avaliações preditivas
◦ Previsões de problemas de usabilidade feitas por
especialistas, comumente com base em heurísticas, sempre
com base em experiência
1- Rápido e Rasteiro
 Prática comum no design de IHC.
 Designers pedem apreciações informais do que
fizeram ou estão fazendo a usuários ou consultores.
◦ Confirmar se suas idéias estão de acordo com as
necessidades e os desejos dos usuários.
◦ Pode ser realizada no laboratório ou ambiente natural.
 São avaliações literalmente rápidas e rasteiras, que
podem se repetir em vários pontos do ciclo de
desenvolvimento.
 Ênfase: avaliação ofereça o feedback mais imediato
possível, e não a de que seja a mais cuidadosa e
informativa.
2- Testes de usabilidade
 Envolvem usuários típicos (reais ou
potenciais) e um registro de sua atuação.
 Feitos em laboratório. Controlados pelos
avaliadores.
 Os participantes (usuários) devem
realizar tarefas cuidadosamente
preparadas.
 O desempenho é geralmente avaliado
quando ao número de erros e ao tempo
necessário para completar a tarefa.
2- Testes de usabilidade
 Os registros podem capturar uma ampla gama do
comportamento do usuário.
◦ Vídeo do usuário+ tecnologia, log da interação na
interface (movimentos mouse, cursor, teclas
apertadas, etc.), áudio de comentários ou interjeições
do usuário, e até mesmo certos sinais sensórios-
motores (direção do olhar, tensão muscular, etc.).
 Os registros podem ser usados para prever e
explicar certas ocorrências de desempenho, bem
como para ajudar a corrigir e prevenir erros de
interação.
 Através de entrevistas e questionários pode-se
descobrir o grau de satisfação dos participantes,
bem como outros aspectos psicológicos.
3- Estudos de campo
 Realizados no ambiente “natural” dos
usuários (participantes).
 Objetivo:
◦ Observar sem qualquer interferência (sem
propor tarefas específicas) como as pessoas
usam e se relacionam com artefatos
tecnológicos.
◦ Ampliar o conhecimento sobre as atividades
dos usuários e a influência da tecnologia
sobre elas.
3- Estudos de campo
 Bons para:
◦ Prospectar a introdução de novas
tecnologias.
◦ Determinar requisitos para o design.
◦ Decidir estratégias para promover a adoção
de tecnologias.
◦ Descobrir como uma tecnologia é de fato
usada.
4- Avaliação preditiva
 Especialistas aplicam seu conhecimento acerca dos
usuários e de situações típicas de uso de uma série
de tecnologias para prever o efeito de determinado
produto ou tecnologia sobre os seus usuários.
◦ Note que não é preciso envolver os usuários! Na
maioria dos casos, um especialista advoga em nome dos
usuários, indicando o que os usuários achariam ou
fariam da tecnologia.
 Avaliações são geralmente guiadas por heurísticas.
◦ Pode-se usar modelos (de base teórica).
 Essas avaliações são atraentes em termos de custo.
Técnicas de Avaliação
Técnicas possíveis
 1 - Observação dos usuários
◦ em laboratório
◦ em seu ambiente de trabalho
 2 - Captura de opiniões dos usuários
 3 - Captura de opiniões de especialistas
 4 - Testes de desempenho
 5 - Modelagem do desempenho de
usuários ao realizar tarefas
Técnicas de Avaliação
 1. Observação de usuários
◦ Identificar necessidades (novos produtos), avaliar protótipos,
ampliar conhecimento sobre a atividade dos usuários, etc.
◦ Anotações, áudio, vídeo, logs de interação, etc.
◦ Como observar sem atrapalhar? Como analisar os dados
coletados?
 2. Coletar opiniões de usuários
◦ O produto permite-lhes fazer o que querem? Gostam dele?
Enfrentam algum problema ao utilizá-lo?
◦ Entrevistas e questionários.
 3. Coletar opiniões de especialistas
◦ Inspeção (e.g. avaliação heurística)
◦ Relativamente barata. Mais rápida do que técnicas que envolvem
usuários.
◦ Especialistas freqüentemente sugerem soluções.
Técnicas de Avaliação
 4.Testes com usuários
◦ Geralmente conduzidos em laboratório.
◦ Envolvem usuários típicos na realização de
tarefas típicas e bem definidas.
 5. Modelagem do desempenho dos
usuários ao realizar tarefas
◦ Modelar a interação humano-computador de
forma a prever a eficiência e os problemas
associados aos diferentes designs, em um
estágio preliminar, sem construir protótipos
elaborados.
Revisão dos Paradigmas.
 O ‘rápido e rasteiro’
◦ Informal, feito a qualquer hora, importante é a rapidez de
feedback
 O teste de usabilidade
◦ Preparação e gravação de sessões de interação, análise
criteriosa, muitas vezes combinado a entrevistas e
questionários de satisfação
 Os estudos de campo
◦ Feito no ambiente do usuário (observação do usuário in
loco), detecta hábitos e práticas, conscientes/inconscientes
 Avaliações preditivas
◦ Previsões de problemas de usabilidade feitas por
especialistas, comumente com base em heurísticas, sempre
com base em experiência
Paradigmas e Técnicas de
Avaliação
Paradigmas e Técnicas de
Avaliação
Paradigmas e Técnicas de
Avaliação
Paradigmas e Técnicas de
Avaliação
Paradigmas e Técnicas de
Avaliação
DECIDE
Guia para o planejamento de uma avaliação
(Preece et al., 2002)
DECIDE – Guia para o planejamento
de uma avaliação (Preece et al., 2002)
 Determinar os objetivos gerais que a avaliação
deverá tratar
 Explorar perguntas específicas a serem
respondidas
 Escolher (Choose) o paradigma e as técnicas
de avaliação que responderão as perguntas
 Identificar questões práticas que devem ser
tratadas
 Decidir como lidar com questões éticas
 Avaliar (Evaluate), interpretar e apresentar os
dados
DECIDE – Guia para o planejamento
de uma avaliação (Preece et al., 2002)
Determinar os objetivos gerais que a
avaliação deverá tratar
◦ quais são os objetivos gerais da avaliação
◦ quem solicitou a avaliação, e por quê

◦ Os objetivos influenciam a escolha de


paradigma e técnica.
◦ Por quê?
Determinar os objetivos gerais que a
avaliação deverá tratar
 Exemplos:
◦ Verificar se os avaliadores entenderam as
necessidades dos usuários (em relação a
determinada funcionalidade do sistema).
◦ Investigar a influência da tecnologia nas
práticas de trabalho.
◦ Verificar se os usuários compreendem as
intenções de design da funcionalidade de
busca de uma biblioteca digital voltada para
crianças.
◦ Avaliar a usabilidade de um sistema de e-mail.
DECIDE – Guia para o planejamento
de uma avaliação (Preece et al., 2002)
Explorar perguntas específicas a serem
respondidas
◦ Quem são os usuários-alvo?
◦ Quais são suas atividades?
◦ Em quais tarefas ocorrem mais erros?
◦ Quais tarefas apresentam problemas mais graves de
desempenho?
◦ A proposta A é melhor do que a proposta B em
algum aspecto? Qual(is)?
 Toda boa avaliação tem de ser guiada por
objetivos e questões claras; se não for, vira
uma perda de tempo.
Explorar perguntas específicas a serem
respondidas
 Exemplo:
◦ Objetivo: Avaliar a usabilidade de um sistema
de email.
 Os usuários conseguem configurar sua conta com
facilidade e rapidez? Enviar mensagens de forma
produtiva? Organizar suas mensagens de maneira
satisfatória? Recuperar mensagens recebidas? Etc.
 Cometem erros? Quantos? Quanto tempo levam?
DECIDE – Guia para o planejamento
de uma avaliação (Preece et al., 2002)
 C
Escolher ( hoose) o paradigma e as
técnicas de avaliação que responderão as
perguntas
◦ prazo, custo, equipamentos necessários, e grau de
conhecimento e experiência dos avaliadores
exigidos por cada técnica
 Alguns paradigmas são incompatíveis com
certas técnicas.
 Por exemplo, estudos de campo não são
compatíveis com testes ou com modelagem.
Por quê?
Escolher (Choose) o paradigma e as técnicas de
avaliação que responderão as perguntas
 Exemplo
◦ Objetivo: Avaliar a usabilidade de um sistema de email.
◦ Questões: Os usuários conseguem configurar sua conta
com facilidade e rapidez? Enviar mensagens de forma
produtiva? Organizar suas mensagens de maneira
satisfatória? Recuperar mensagens recebidas? Etc.
 Cometem erros? Quantos? Quanto tempo levam?
◦ Qual paradigma adotariam?
 “Rápido e rasteiro”, testes de usabilidade, estudos em campo,
avaliação preditiva
◦ Qual(is) técnica(s)?
 Observação de usuários, coletar opiniões de usuários, coletar
opiniões de especialistas, testes com usuários, modelagem do
desempenho dos usuarios ao realizar uma tarefa.
DECIDE – Guia para o planejamento
de uma avaliação (Preece et al., 2002)
Identificar questões práticas que devem ser
tratadas
◦ Como selecionar os usuários?
 perfil e número de usuários
◦ Como ficar dentro de um orçamento apertado?
◦ Como não extrapolar o cronograma?
◦ Como encontrar avaliadores?
 alocação de pessoal para a realização da avaliação
◦ Como selecionar e preparar equipamentos?
◦ Quais tarefas serão avaliadas?
◦ Que material deve ser preparado para a avaliação?
DECIDE – Guia para o planejamento
de uma avaliação (Preece et al., 2002)
Decidir como lidar com questões éticas
◦ os avaliadores devem se certificar que os direitos dos
participantes do teste estão sendo respeitados

 Preparar um termo de consentimento

 Todo participante tem o direito de:


◦ saber exatamente o objetivo do estudo
◦ saber exatamente o que vai ser feito com os dados
◦ ter garantias de seus dados pessoais e privativos
◦ não ser citado ou mostrado em qualquer situação sem seu
consentimento prévio
◦ abandonar o estudo quando e por que bem entender
◦ exigir ser tratado com toda educação
Decidir como lidar com questões
éticas
 Preparar um termo de
consentimento, que:
◦ Informe o objetivo do estudo.
◦ Informe o que vai ser feito com os dados.
◦ Garanta que a anonimidade dos participantes.
◦ Informe que o participante pode abandonar o
estudo quando quiser.
◦ Forneça formas de contato com a equipe de
avaliação
Decidir como lidar com questões
éticas
DECIDE – Guia para o planejamento
de uma avaliação (Preece et al., 2002)
 E
Avaliar ( valuate), interpretar e apresentar os
dados
◦ confiabilidade dos dados: a técnica produz os mesmos
resultados nas mesmas circunstâncias?
◦ validade dos dados: a técnica permite medir o que
deveria?
◦ potenciais distorções: existe algum viés oculto?
 E.g. especialistas mais sensíveis a certos tipos de falhas; avaliadores
podem não notas certos tipos de comportamento por não o
considerarem importantes; influenciar respostas dos entrevistados, etc.
◦ validade “ecológica”: o quanto o ambiente em que a
avaliação é feita influencia ou distorce os resultados?
 Experimentos em laboratório têm baixa validade ecológica, pois não
representam o “mundo real”. – Também pode ser afetada quando os
participantes sabem que estão sendo estudados.
Exemplos de Avaliação
Avaliações analíticas
 Avaliação por Inquirity
 Avaliação por Inspeção
 Avaliação por Observação
Captura da opinião dos usuários
(Inquiry)
 Você costuma fazer perguntas aos usuários sobre
a interface antes de entregar o produto?

 Você faz perguntas a especialistas sobre a


interface?

 Qual é a melhor maneira de fazer perguntas a


usuários e especialistas sobre a interface?

 Como essas perguntas ajudariam a construir


melhores programas?
Captura da opinião dos usuários
(Inquiry)
 objetivo típico
◦ compreender o mundo em que a aplicação vai
funcionar
◦ preferências, desejos, necessidades dos usuários e sua
compreensão do sistema
 entrevistas, questionários
◦ Podem ser combinados com observação dos usuários
realizando o seu trabalho, com ou sem o sistema.
 entrevistas - dados qualitativos
 questionários - dados quali/quantitativos
 mais utilizado em avaliações formativas
◦ mas também pode ser usado em somativas (e.g.,
sistemas cujo alcance da meta é função da satisfação
dos usuários)
ENTREVISTAS
 Podem ser entendidas como “conversações
com um propósito”
◦ Dependem das questões para serem entrevistas
◦ Dependem do tipo de método usado para serem
entrevistas

 Tipos
◦ Não-estruturadas (open-ended)
◦ Estruturadas
◦ Semi-estruturadas
◦ Entrevistas em grupo
ENTREVISTAS
 Metas e questões definem os tipos escolhidos
◦ Qual seria o tipo adequado para obter as primeiras
impressões do usuário sobre uma nova idéia de design?
◦ Qual seria o tipo adequado para obter retorno do usuário
sobre uma características particular do layout?

 Cuidados para uma entrevista


◦ Evitar perguntas longas
◦ Evitar perguntas compostas
◦ Evitar jargões e linguagens técnicas
◦ Evitar perguntas tendenciosas
◦ Ter cuidado com tendências inconscientes
ENTREVISTAS
 Passos
◦ 1) Introdução – esclarecer os porquês e assegurar
questões éticas
◦ 2) Aquecimento – perguntas fáceis e diretas
◦ 3) Sessão principal – sequência lógica e progressiva
quanto à dificuldade
◦ 4) Sessão de descanso – para aliviar a tensão
◦ 5) Sessão de encerramento

 Condução
◦ Comportamento e hábitos adequados
◦ De acordo com a carta de consentimento
◦ Cuidados com o equipamento
◦ Registro exato de como as respostas foram dadas
ENTREVISTAS
 Entrevistas não-estruturadas
◦ Perguntas abertas...
◦ mas de acordo com um plano ou uma agenda
◦ Vantagem: geram dados muito ricos
◦ Limites: a análise exige mais tempo e é mais
complicada
◦ Pontos principais:
 Certificar-se do uso de uma agenda ou framework
 Estar preparado para novas linhas de investigação
 Cuidar da aceitação do entrevistado
 Cuidar das questões éticas
 Cuidado para não colocar idéias
 Indicar o início e o final de uma entrevista
 Ordenar logo os dados
ENTREVISTAS
 Entrevistas estruturadas
◦ Com perguntas pré-determinadas
◦ Úteis quando as metas são entendidas
◦ Questões podem ser lidas e selecionadas

 Entrevistas semi-estruturadas
◦ Combina estruturadas e não-estruradas
◦ Para ter consistência é preciso um roteiro básico
◦ Cuidados para não influenciar, mas ao mesmo tempo deve-se sondar
e encorajar
◦ O entrevistador inicia com questões pré-planejadas e faz com que o
entrevistado estenda a fala:
 “Que sites você frequenta com mais frequência?”...
 “Por que?”... (resposta ressalta outro site)...
 “Por que você citou este?”
ENTREVISTAS
 Entrevistas em grupo
◦ Uso de grupos focais (3 a 10 pessoas)
◦ Amostra de um grupo que compartilha características
semelhantes
◦ Como seria a formação de grupos de usuários que
usam o site da UFT?
◦ Vantagem: possibilitar que questões diferentes e
sensíveis sejam levantadas (assume-se que indivíduos
desenvolvem opiniões dentro de um contexto social
conversando com outros)
◦ Uma agenda é pré-determinada
◦ Grupos de foco parecem ter validade maior porque o
método é estendido e as descobertas parecem
confiáveis
◦ Limites: administração da condução e dificuldades de
reunião
QUESTIONÁRIOS
 Técnica bem estabelecida de coleta de
dados demográficos e de opiniões do
usuário

 Vantagem: grande número de pessoas

 Elaboração
◦ Inicia com dados demográficos e progride
com informações mais específicas
QUESTIONÁRIOS
 Técnica bem estabelecida de coleta de
dados demográficos e de opiniões do
usuário

 Vantagem: grande número de pessoas

 Elaboração
◦ Inicia com dados demográficos e progride
com informações mais específicas
QUESTIONÁRIOS
 Recomendações sobre o uso de questionários
◦ Perguntas claras
◦ Em questões que há opinião sempre considerar a
opção “não tenho opinião”
◦ Verificar o impacto através da ordem das perguntas
◦ Evitar perguntas múltiplas e complexas
◦ Quando usar escalas, verificar se há variação
apropriada e sobreposição
◦ Verificar ordem das escalas
 Em uma escala de 1 a 5 é normalmente mais intuitivo baixa
concordância por 1, mas...
 Se usar, ter cuidado para não usar 1 para baixa concordância
em umas perguntas e alta em outras
 Cuidados com afirmações positivas e negativas
QUESTIONÁRIOS
 Formato das perguntas e respostas
◦ Quadrinhos e escalas. Ex.:
15-20

◦ Escalas Likert. Ex.:


O emprego das cores está excelente (onde 1
representa concordância total e 5 discordância
total):
1⃞ 2⃞ 3⃞ 4⃞ 5⃞

◦ Escalas de diferencial semântico. Ex.:


Atraente _ _ _ _ _ Feio
Avaliação por inspeção
(Inspection)
Avaliação por inspeção (Inspection)
(1/2)
 avaliadores examinam aspectos de uma interface
◦ relacionados à sua qualidade de uso
◦ tentativa de prever problemas que os usuários
poderão ter ao utilizar o sistema
 avaliadores = especialistas em avaliação de IHC
 requer um projeto de interface (storyboard,
protótipo)
 principais objetivos:
◦ identificação dos problemas de usabilidade
◦ seleção dos problemas que devem ser corrigidos e
recomendações de como solucioná-los
Avaliação por inspeção (Inspection)
(2/2)
 Características
◦ formativa
◦ verificar conformidade com um padrão, comparar
alternativas de design
◦ informal
 Métodos de inspeção comumente utilizados
◦ avaliação heurística (heuristic evaluation)
◦ walkthrough cognitivo (cognitive walkthrough)
◦ conformidade com diretrizes e padrões (standards
inspection e guidelines checklists)
◦ inspeções de consistência, de características e formais
(consistency inspection, feature inspection e formal
usability inspections)
Avaliação heurística
 Um pequeno grupo de avaliadores examina a
interface e julgam o atendimento a um conjunto
de princípios de usabilidade (heurísticas)
 Pessoas diferentes encontram problemas
diferentes
 Resultados: problemas de usabilidade
 Diferenças entre o teste de usabilidade e a AH
◦ Um observador pode assistir os avaliadores,
fornecendo as informações e explicações necessárias
◦ A interpretação das ações do usuário é de
responsabilidade dos observadores, no caso do teste.
Na AH, o observador apenas anota os comentários
do usuário
Heurísticas de usabilidade
(Nielsen)
 1. Diálogo simples e natural
 2. Usar a linguagem do usuário
 3. Minimizar carga de memória
 4. Ser consistente
 5. Fornecer realimentação
 6. Apresentar saídas claras
 7. Fornecer atalhos e defaults
 8. Dar mensagens de erro claras e construtivas
 9. Evitar erros
 10. Fornecer ajuda e documentação
Mais heurísticas
 Visibilidade do estado do sistema
 Objetos devem ter correspondência com o mundo
real
 Controle do usuário
 Atendimento a normas e padrões
 Desenho estético e minimalista
 Preservar trabalho do usuário
 Internacionalização

 Podem ser definidas heurísticas próprias do


domínio da aplicação
Outras técnicas de inspeção
 Observação
 Questionários
 Entrevistas
 Registro automático de uso (“logging”)
 Inspeções de conformidade
 Grupos de foco
 Walk though pluralístico
Processo de Avaliação –
Primeiros Passos
Processo de avaliação
 1. Treinamento pré-avaliação
 2. Avaliação
 3. Debriefing
 4. Avaliação de gravidade
1. Treinamento pré-avaliação
 Explicação sobre o processo de avaliação
heurística
 Sessão de treinamento para explicar o
domínio para os avaliadores
 Apresentação do cenário específico sobre
o qual eles vão trabalhar, identificando o
que os usuários deveriam fazer e por quê.
2. Avaliação
 Cada avaliador examina a interface
separadamente, justificando seus comentários.
 Os avaliadores recebem um tempo determinado
para avaliação e percorrem a interface em dois
passos:
◦ um primeiro para ter noção do fluxo da interação
◦ um segundo para focar em elementos específicos da
interface
 Os problemas de usabilidade são comunicados ao
observador, identificando qual princípio de
usabilidade foi violado.
3. Debriefing
 Reunir os observadores, desenvolvedores
e avaliadores para:
◦ discutir os problemas encontrados
◦ as possíveis soluções
A discussão deve ser livre e as idéias não
devem ser rebatidas (“brainstorm”)
 Classificação subjetiva de severidade
pelos avaliadores
Determinação do número de
avaliadores
Análise de custo-benefício para
identificar número de avaliadores
 Análise de custo-benefício para identificar
o no. De avaliadores:V. Nielsen & Mack,
Usability Inspection Methods: Heuristic
Evaluation
Regras de sucesso
(todas devem ser garantidas)
 Usuários sabem qual efeito alcançar:
◦ porque é parte da sua tarefa original
◦ porque têm experiência de uso no sistema
◦ porque o sistema manda fazer
 Usuários sabem que a tarefa está
disponível
◦ por experiência
◦ porque vêem algum recurso (ex. botão)
◦ porque vêem uma representação da ação
(menu, ícone)
Regras de sucesso
 Usuários sabem que a ação é adequada ao
efeito desejado
◦ por experiência
◦ porque a interface dá uma indicação que conecta
a ação ao que se deseja fazer
◦ porque todas as outras ações parecem erradas
 Usuários sabem que as coisas deram certo
após a ação
◦ por experiência
◦ reconhecendo uma relação entre uma resposta
do sistema e o que eles estavam tentando fazer
Exemplos de falha (basta não
atender a uma das regras)
 Usuário está tentando obter o efeito correto?
◦ O usuário deveria limpar um campo antes de entrar
um novo dado, mas nunca percebeu a necessidade de
limpar o campo, portanto nunca encontrou a função
para fazê-lo.
 O usuário encontra a função necessária?
◦ Usuário deseja obter um arquivo, mas não sabe o
comando necessário em uma linguagem de comandos
◦ Em um sistema de resposta audível, um comando de
voz diz para o usuário apertar a tecla sustenido. O
usuário não reconhece a tecla sustenido.
Mais exemplos de falha
 Usuário sabe que a ação correta obterá o
efeito desejado?
◦ Em um sistema antigo, a impressão era obtida de
um menu que aparecia mediante uma tecla
funcional REQ. O usuário não reconhecia que
deveria apertar a tecla para obter o menu de
impressão
 Se a ação correta for feita, o usuário verá o
efeito?
◦ Em um sistema, não se apresentava nenhuma
informação de que um arquivo havia sido copiado.
O usuário tinha que pedir a lista dos arquivos
para se certificar do cumprimento da meta.
Trabalho
 Ler e resumir sobre o sistema HutchWorld no Capítulo 10 do livro texto (seção 10.3);
 Descreva como foi a avaliação do sistema. (Quaios paradigmas e técnicas foram utilizadas)
 Responda as sequintes questoes:

 Trabalho individual
 Enviar por email: uft.eduardo@gmail.com
 Assunto: 3º Trabalho de Interfaces Homem Máquina

Você também pode gostar