Você está na página 1de 61

Métodos e Técnicas de Avaliação de Interface

Natália Sales Santos

2020
Métodos e Técnicas de Avaliação de Interface
Natália Sales Santos
© Copyright do Instituto de Gestão e Tecnologia da Informação.
Todos os direitos reservados.

Métodos e Técnicas de Avaliação de Interface – Página 2 de 61


Sumário

Capítulo 1. Introdução ........................................................................................... 5

Objetivos da avaliação de interface ........................................................................ 5

Razões para fazer avaliação de interface ............................................................... 7

Como avaliar ........................................................................................................... 8

O framework DECIDE ........................................................................................... 10

Capítulo 2. Avaliação de Interface ....................................................................... 14

Paradigmas de avaliação ...................................................................................... 14

Avaliação rápida e rasteira .............................................................................. 14

Teste em ambiente controlado ........................................................................ 15

Estudos em campo .......................................................................................... 15

Avaliação preditiva ........................................................................................... 16

Características dos métodos de avaliação ........................................................... 17

Etapa do ciclo de design .................................................................................. 18

Técnicas de coleta de dados ........................................................................... 19

Tipo de dados coletados .................................................................................. 20

Base dos métodos ........................................................................................... 21

Abordagem dos métodos ................................................................................. 21

Capítulo 3. Avaliação Analítica ............................................................................ 23

Avaliação heurística .............................................................................................. 23

Métodos e Técnicas de Avaliação de Interface – Página 3 de 61


As heurísticas de Nielsen ................................................................................ 23

Atividades principais da avaliação heurística ................................................... 24

Exemplo das heurísticas de Nielsen ................................................................ 29

Capítulo 4. Avaliação em Ambiente Controlado .................................................. 39

Visão geral ............................................................................................................ 39

Passos para execução de testes em ambientes controlados .......................... 39

Geração do material para o teste .................................................................... 44

Ambiente de testes e equipamentos ................................................................ 47

Teste de usabilidade ............................................................................................. 49

Capítulo 5. Microtestes de Usabilidade Pré-programados................................... 53

Visão geral ............................................................................................................ 53

Ambiente de teste e equipamentos ................................................................. 54

Passos para execução de microteste .............................................................. 55

Diferenças entre o teste de usabilidade e o microteste de usabilidade ........... 58

Referências................. ............................................................................................. 60

Métodos e Técnicas de Avaliação de Interface – Página 4 de 61


Capítulo 1. Introdução

A avaliação de uma interface é uma atividade fundamental em qualquer


processo de desenvolvimento que busque produzir um sistema interativo com alta
qualidade de uso. A avaliação é o momento onde o avaliador faz um julgamento de
valor sobre a qualidade de uso da solução e identifica problemas na interação e na
interface que prejudiquem a experiência particular do usuário durante o uso do
sistema. Assim, é possível corrigir os problemas relacionados a usabilidade antes de
inserir o sistema no cotidiano dos usuários, seja um sistema novo ou uma nova versão
de algum sistema existente. (BARBOSA, 2010).

A avaliação de interfaces não deve ser vista como uma fase única no
processo de design e muito menos como uma atividade a ser feita somente no final
do processo. Idealmente, a avaliação de interfaces deve ocorrer durante todo ciclo de
vida do design e seus resultados utilizados para melhorias gradativas da interface.

A avaliação é um passo importante do processo de design porque:

 Permite apreciar se o sistema apoia adequadamente os usuários, nas tarefas


e no ambiente em que será utilizado.

 A utilização de métodos e princípios de projeto de interfaces não é suficiente


para garantir uma alta usabilidade de seu software.

 A avaliação permite estimar o sucesso ou insucesso das hipóteses de designer


sobre a solução que ele está propondo, tanto em termos de funcionalidade,
quanto de interação.

Objetivos da avaliação de interface

Existe uma grande variedade de produtos interativos com uma


vasta lista de características que necessitam ser avaliadas.

Métodos e Técnicas de Avaliação de Interface – Página 5 de 61


Figura 1 – Exemplos de produtos interativos que podem ser avaliados.

Para garantir que uma avaliação obtenha sucesso, é de extrema importância


definir quais são os objetivos da avaliação, a quem eles interessam e por quê. Os
objetivos de uma avaliação determinam quais aspectos relacionados ao uso do
sistema devem ser investigados. Alguns objetivos de avaliação comuns são:

 Avaliar a funcionalidade do sistema: O design da interface do sistema deve


permitir ao usuário efetuar a tarefa de modo fácil e eficiente. A avaliação nesse
nível envolve também mediar o desempenho do usuário junto ao sistema para
realizar a tarefa pretendida.

 Avaliar o efeito da interface junto ao usuário: Nesse contexto deve-se avaliar a


usabilidade da interface; o quão fácil é aprender a usar a interface; a atitude do
usuário com relação a interface e identificar áreas do design as quais
sobrecarregam o usuário de alguma forma, por exemplo, exigindo que uma
série de informações sejam relembradas.

 Identificar problemas específicos do sistema: Identificar aspectos do design os


quais, quando usados no contexto-alvo, causam resultados inesperados ou
confusão entre os usuários.

Métodos e Técnicas de Avaliação de Interface – Página 6 de 61


Razões para fazer avaliação de interface

Um sistema interativo deve ser avaliado na perspectiva de


quem concebe, constrói e de quem o utiliza.

Considerando aspectos do projeto de interface, para quem constrói o sistema,


a avaliação se faz necessária para:

 Verificar o entendimento dos projetistas sobre as necessidades dos usuários.

 Comparar alternativas de projeto de interface.

 Verificar se o sistema funciona de acordo com especificação de requisitos.

 Identificar “estratégias” de design para um determinado domínio.

Considerando aspectos da interação usuário-sistema, para quem utiliza o


sistema, a avaliação se faz necessária para:

 Investigar como uma interface afeta a forma de trabalhar dos usuários.

 Verificar se o sistema apoia adequadamente os usuários a atingirem seus


objetivos em um contexto de uso.

 Identificar problemas de interação ou de interface.

As diferenças entre quem concebe e quem utiliza o sistema


não podem ser desprezadas. Os usuários podem ou não compreender e concordar
com a lógica do designer, julgar a solução apropriada melhor do que as soluções
existentes e incorporá-la no seu dia a dia, quando tiverem escolha. Por essa razão é
importante avaliar um sistema interativo do ponto de vista dos usuários,
preferencialmente com a participação deles.

Métodos e Técnicas de Avaliação de Interface – Página 7 de 61


Como avaliar

Antes de começar a se preparar para uma avaliação, o avaliador deve


aprender sobre a situação atual, que inclui o domínio do problema, os papéis e perfis
dos usuários, seus objetivos e atividades, e o contexto em que o sistema é ou será
utilizado.

O avaliador também deve conhecer as interfaces dos sistemas


complementares ou semelhantes com os quais os usuários estejam acostumados a
utilizar, e também a interface do próprio sistema ou protótipo a ser avaliado. (Barbosa,
2010).

Sempre que possível, o avaliador deve buscar saber quais são os


comportamentos e as dificuldades típicas dos usuários durante o uso de sistemas
interativos semelhantes. Esse conhecimento é necessário para planejar a avaliação
adequadamente e facilita a coleta e análise dos dados.

A seguir serão apresentadas as atividades básicas dos métodos de avaliação,


conforme ilustrado na Figura 2.

Figura 2 - Atividades básicas dos métodos de avaliação de interface.

Na atividade de preparação o avaliador deve definir: os objetivos com base


em requisições, reclamações ou comportamento dos stakeholds do sistema e
questões específicas de investigação; o escopo da avaliação (quais partes da

Métodos e Técnicas de Avaliação de Interface – Página 8 de 61


interface, caminhos de interação, tarefas devem fazer parte da avaliação); os métodos
de avaliação a serem utilizados; e os perfis e o número de participantes.

Nessa atividade também é preciso refletir sobre as questões éticas e definir


os cuidados que devem ser tomados; alocação de pessoal, recursos e equipamentos;
preparar e imprimir o material de apoio; preparar todo ambiente (hardware e
software); realizar um teste-piloto e recrutar participantes.

A atividade de coleta de dados deve ocorrer conforme o planejamento


realizando e o método de avaliação selecionado. Se o método selecionado for por
inspeção, haverá somente a participação dos avaliadores que vão fazer o uso do
material preparado para seguir o método e vão examinar a interface para tentar prever
a experiência de uso que os usuários terão ou para tentar identificar inconsistências
com padrões.

Se o método selecionado for por observação ou investigação, haverá a


participação dos usuários que vão relatar experiências de uso vivenciadas ou permitir
a observação de experiências reais de uso.

Na atividade de interpretação será realizada a análise do material registrado


para atribuir significado aos dados coletados. Essa análise deve ser orientada pelo
método de avaliação selecionado e pelo planejamento da avaliação. Os métodos de
avaliação costumam apontar os focos de analise (por exemplo, quais os dados dever
ser analisados sobe quais perspectivas de analise) e os tipos de interpretações mais
frequentes, por exemplo, a avaliação heurística enfatiza a analise de um conjunto de
heurísticas.

Na atividade de consolidação os resultados obtidos individualmente serão


consolidados e analisados em conjunto. Na consolidação buscam-se recorrências
nos resultados de todos os participantes de acordo com o método selecionado. Os
resultados comuns a vários participantes de um grupo permitem fazer uma distinção
entre características representativas do grupo e das características específicas de
cada participante.

Métodos e Técnicas de Avaliação de Interface – Página 9 de 61


Busca-se também responder ou justificar por que alguma resposta não foi
encontrada para as questões de investigação. A generalização dos resultados exige
cuidado, pois pode ser influenciada pelo ambiente de avaliação e pelas
características, preferências, interesses e necessidades dos participantes individuais.

Caso não sejam encontrados problemas durante a avaliação, não se pode


afirmar que o sistema tenha alta qualidade de uso, significando que o estudo não
revelou problemas num determinado escopo do sistema avaliado com base em um
planejamento.

Na atividade relato dos resultados os avaliadores irão criar um documento


no qual deverão incluir os objetivos e escopo da avaliação; a forma como a avaliação
foi realizada (método de avaliação empregado); o número e o perfil de usuários e
avaliadores que participaram da avaliação; um sumário dos dados coletados,
incluindo tabelas e gráficos; um relato da interpretação e análise dos dados; uma lista
dos problemas encontrados e um planejamento para o reprojeto do sistema, caso
necessário.

O framework DECIDE

Para que uma avaliação seja bem planejada, ela deve ser guiada por metas
e objetivos claros e adequados ao contexto e ao ambiente em que o sistema está
inserido. A fim de facilitar o planejamento de uma avaliação de um sistema interativo,
Preece et al., (2002) propõem o framework DECIDE para orientar a avaliação.

O framework DECIDE é um guia para auxiliar os avaliadores a organizar as


decisões que devem ser tomadas com respeito a uma avaliação, ou seja, o framework
ajuda no planejamento e na realização de uma avaliação de interface.

A Figura 3 mostra as etapas do framework DECIDE:

Métodos e Técnicas de Avaliação de Interface – Página 10 de 61


Figura 3 - O Framework DECIDE.

D • Determinar os objetivos gerais que a avaliação deverá tratar

E • Explorar perguntas específicas a serem respondidas.

C • Escolher (Choose) o paradigma e as técnicas de avaliação que


responderão as perguntas.

I • Identificar questões práticas que devem ser tratadas.

D • Decidir como lidar com questões éticas.

E • Avaliar (Evaluate), interpretar e apresentar os dados.

Determinar os objetivos gerais que a avaliação deverá tratar: Nessa


etapa o avaliador deve determinar os objetivos e identificar o por quê e para quem
tais objetivos são importantes. Os objetivos devem estar relacionados ao uso do
sistema a ser investigado motivado por solicitações ou reclamações dos usuários ou
interessados no sistema. É importante ressaltar que essa fase fornece subsídios para
todas as outras e, principalmente, para tomada de decisões durante a execução,
portanto, a sua correta execução permite aumentar as chances de sucesso da
avaliação.

Explorar perguntas específicas a serem respondidas: Nessa etapa, para


cada objetivo definido na etapa anterior, o avaliador deve elaborar perguntas
especificas a serem respondidas durante a avaliação considerando os usuários-alvo
e suas atividades. Essas perguntas são responsáveis por transformar os objetivos
iniciais em objetivos operacionais.

Escolher (Choose) o paradigma e as técnicas de avaliação que


responderão às perguntas: Nessa etapa o avaliador deve escolher os métodos de
avaliação de interface mais adequados para responder as perguntas e atingir os
objetivos esperados, para isso, deve considerar o prazo, o custo, os equipamentos

Métodos e Técnicas de Avaliação de Interface – Página 11 de 61


disponíveis e o grau de conhecimento e experiência dos avaliadores exigidos por
cada técnica.

Identificar questões práticas que devem ser tratadas: Essa etapa deve
abordar aspectos relacionados à realização dos testes, considerando fatores como:
perfil e número de usuários que vão participar da avaliação; a preparação e o uso dos
equipamentos necessários, seleção de tarefas, planejamento e preparação do
material; alocação de material e recursos para conduzir a avaliação.

Decidir como lidar com questões éticas: Nessa etapa quando uma
avaliação envolve pessoas como participantes de testes, o avaliador deve tomar os
cuidados éticos necessários, certificando-se de que os direitos dessas pessoas sejam
respeitados.

Avaliar (Evaluate), interpretar e apresentar os dados: Essa etapa envolve


questões relacionadas a quais dados coletar, como analisar e como apresentá-los.
Sendo assim é importante considerar aspectos como:

 A confiabilidade dos dados – se a técnica produz os mesmos resultados nas


mesmas circunstâncias;

 A validade - se o método de avaliação mede o que deveria medir; potenciais


distorções; escopo (o quanto as descobertas podem ser generalizadas);

 E a validade ecológica - o quanto o ambiente em que a avaliação é realizada


influência nos resultados.

O avaliador deve estar atento às características do método e à técnica


escolhida e concentrar em responder às questões definidas na segunda etapa do
framework DECIDE. (BARBOSA, 2010).

Neste capitulo, foi apresentada a importância, os principais objetivos e as


razões para realizar uma avaliação em um sistema interativo, bem como as atividades
para realizar uma avaliação e o framework DECIDE.

Vimos que:

Métodos e Técnicas de Avaliação de Interface – Página 12 de 61


 Um sistema interativo deve ser avaliado na perspectiva de
quem concebe, constrói e de quem o utiliza.

 Uma avaliação tem como objetivos avaliar a funcionalidade do sistema, avaliar


o efeito da interface junto ao usuário e identificar problemas específicos do
sistema.

 As atividades para realizar uma avaliação são: preparação, coleta de dados,


interpretação, consolidação e relato dos resultados.

 O framework DECIDE auxilia os avaliadores a planejar uma avaliação


fornecendo uma lista de verificação útil para o planejamento de uma avaliação.

Métodos e Técnicas de Avaliação de Interface – Página 13 de 61


Capítulo 2. Avaliação de Interface

Toda avaliação de interface é conduzida por crenças frequentemente


originadas de teorias ou experiências empíricas. A associação dessas crenças aos
métodos de avaliação é conhecida como paradigma de avaliação.

Paradigmas de avaliação

Os quatro paradigmas para avaliação de interface são: avaliação rápida e


suja, testes de usabilidade, estudos em campo e avaliação preditiva.

Avaliação rápida e rasteira

A avaliação rápida e rasteira é realizada de forma bem superficial. Esse tipo


de avaliação visa fazer uma tomada rápida de opinião e oferecer aos interessados
indicações gerais sobre a qualidade da experiência do usuário. Para a geração
desses indicadores podem ser consultados especialistas, colegas, usuários reais ou
potenciais. Avaliações deste tipo podem ser realizadas em qualquer estágio do
desenvolvimento de software, porque a ênfase dessa avaliação está em uma
contribuição rápida, não em descobertas cuidadosamente documentadas (PREECE
et al., 2005).

Este tipo de avaliação pode ser realizado no próprio local de trabalho dos
usuários, em uma sala de reunião ou em um laboratório. Os dados coletados são
geralmente qualitativos e são registrados de forma simples através de esboços ou
relatórios descritivos e então passados para equipe de design.

A avaliação rápida e rasteira não substitui um processo de avaliação formal


no qual se produz resultados mais completos e confiáveis, mas a adoção deste
paradigma é uma prática muito comum, devido às restrições orçamentárias e de
cronograma dos projetos.

Métodos e Técnicas de Avaliação de Interface – Página 14 de 61


Teste em ambiente controlado

Os testes em ambiente controlado são procedimentos que têm como objetivo


avaliar o desempenho dos usuários reais na realização de tarefas preparadas pelos
avaliadores. Esse desempenho é avaliado no que diz respeito ao número de erros e
ao tempo para completar uma determinada tarefa.

Esse tipo de avaliação normalmente é realizado em laboratório em condições


controladas pelos avaliadores. Os usuários não podem ser interrompidos durante a
execução do teste e enquanto realizam as tarefas, eles são observados e filmados e
suas interações são registradas por meio de softwares. Esses registros capturam
vários aspectos comportamentais do usuário, tais como comentários verbais,
expressões físicas, pausas, log da interação na interface (captura das telas,
movimentos do mouse, cursor, teclas pressionadas), entre outros.

Os dados de observação podem ser quantitativos ou qualitativos. Quando o


fator de usabilidade investigado é a satisfação do usuário, os dados são medidos
através da coleta da opinião dos usuários, por meio de entrevistas ou questionários,
para identificação se estão ou não satisfeitos com o software e o grau de satisfação.

Os dados coletados nos testes de usabilidade são enviados para os designers


sob a forma de um relatório de desempenho e erros, sendo que as descobertas
identificadas podem servir de parâmetros para as versões futuras do sistema
(PREECE et al., 2005). Os relatórios são elaborados pelos avaliadores através da
verificação das metas definidas para as medidas que foram coletadas e a
classificação dos problemas pela sua gravidade.

Estudos em campo

O estudo de campo é realizado no ambiente real do usuário e tem como


objetivo aumentar o entendimento do que os usuários fazem naturalmente e de como
a tecnologia causa impacto nessas atividades. Esse tipo de avaliação requer um
contato com o usuário nas situações comuns de sua rotina, onde as interrupções são
frequentes e o comportamento do usuário é mais natural.

Métodos e Técnicas de Avaliação de Interface – Página 15 de 61


O avaliador pode atuar na avaliação de duas formas: sendo apenas um
observador e não interferir nas atividades do usuário ou pode fazer parte das
atividades dos usuários atuando como participante delas. Neste caso, é empregado
o uso da etnografia1, que consiste em um tipo particular de avaliação cujo objetivo é
explorar os detalhes do que acontece em um ambiente social particular. (PREECE et.
al. 2005).

Esse estudo emprega técnicas qualitativas como entrevistas e observação


participativa, e os resultados obtidos são registrados através de descrições
acompanhadas de esboços, cenários, anotações ou qualquer outro recurso que o
avaliador considere conveniente, por exemplo, gráficos e tabelas.

Avaliação preditiva

Nesse tipo de avaliação, os especialistas aplicam seu conhecimento a respeito


de usuários típicos, normalmente guiados por heurísticas ou modelos de base teórica,
visando prever problemas de usabilidade. (PREECE et al., 2005).

Normalmente os usuários não precisam estar presentes, tornando esse


processo muito mais atrativo e barato. Nesse caso os avaliadores assumem o papel
dos usuários e indicam os possíveis problemas que os usuários possam ter durante
a interação com a tecnologia em questão.

Para a realização da avaliação é necessário que se tenha um protótipo do


sistema que será avaliado, esse protótipo não necessariamente precisa ser funcional.
Os problemas são coletados, revisados e enviados para os designers a partir de uma
lista de problemas geralmente acompanhada de sugestões e soluções.

Na Tabela 1 é apresentado um panorama sobre as características principais


dos paradigmas de avaliação apresentados acima.

1 A etnografia é um método oriundo da antropologia e significa “descrever a cultura” (Hammersley &


Atkinson, 1983).

Métodos e Técnicas de Avaliação de Interface – Página 16 de 61


Tabela 1 - Características dos paradigmas de avaliação.

Teste em
Rápida e Estudos de Avaliação
Paradigma ambiente
Rasteira campo Preditiva
controlado
Papel dos Comportamento Realizar um Comportamento Não são
usuários natural conjunto de tarefas natural envolvidos
Quem Avaliadores Avaliadores Avaliadores e Avaliadores
controla (mínimo) (máximo) Usuários experientes
Ambiente
Ambiente Ambiente natural
Local natural ou Laboratório
natural ou laboratório
laboratório
Início do design, Revisões
Quando é A qualquer verificar especialistas a
Com um protótipo
usado momento necessidades qualquer
dos usuários. momento
Geralmente Lista de
Quantitativos e
Tipo de dados qualitativos e Qualitativos problemas, dados
qualitativos
informais quantitativos.
Relatório de
Esboços, Descrições, Problemas e
Relatório desempenho, de
citações citações, logs sugestões
erros, etc.
Abordagem
Abordagem Observação Heurísticas e
aplicada a
Filosofia centrada no objetiva ou experiências dos
engenharia de
usuário pratica etnográfica profissionais
usabilidade

Características dos métodos de avaliação

Diferentes tipos de avaliação podem ser implementados de acordo com o


estágio de desenvolvimento do projeto. Geralmente, os recursos disponíveis, sendo
eles principalmente tempo e dinheiro, têm um grande impacto no tipo de avaliação a
ser feita. (ROCHA e BARANAUSKAS, 2003)

Métodos e Técnicas de Avaliação de Interface – Página 17 de 61


Etapa do ciclo de design

A avaliação de uma interface é uma atividade que pode ser realizada em


diferentes etapas do ciclo de desenvolvimento de software (PRATES et.al. 2003).
Existem dois processos que se destacam:

A avaliação formativa ocorre durante o processo de design e tem como


objetivo verificar se o produto está de acordo com as necessidades dos usuários. Este
termo também é usado quando as avaliações são utilizadas para ajudar os designers
na escolha de designs alternativos. A vantagem da avaliação formativa é que os
problemas de interação são identificados e consertados antes de o sistema ficar
pronto e ser liberado para uso.

A avaliação formativa pode ser feita no início, no meio ou perto do final do


ciclo de desenvolvimento de software. No início do projeto, normalmente é realizada
em esboços em papel sobre representações preliminares. No meio do projeto é
realizada sobre representações um pouco mais elaboradas. E perto do final do projeto
é realizada sobre protótipos funcionais não necessariamente completos.

Ela também pode envolver usuários em diferentes momentos do ciclo de vida.


No início acontecem as entrevistas e o levantamento de requisitos, nesse momento
é a primeira vez que o usuário é considerado e, se ele for consultado nesta etapa,
muitas questões podem ser solucionadas mais rapidamente. Esta investigação pode
ser considerada a primeira avaliação quando algumas soluções já foram
estabelecidas e precisam ser validadas.

A avaliação somativa ocorre no final processo de design e tem como objetivo


avaliar o sucesso do produto finalizado. Esta avaliação acontece depois de uma
versão funcional estar totalmente pronta.

A utilização de usuários na avaliação somativa é opcional uma vez que


realizar uma avaliação utilizando especialista também é uma forma válida de
encontrar problemas na realização da tarefa. Esta avaliação independe de usuários,
mas depende de um bom profissional que incorpore o usuário nos procedimentos de
reconhecimento e interação com o sistema.

Métodos e Técnicas de Avaliação de Interface – Página 18 de 61


Técnicas de coleta de dados

Existem várias técnicas disponíveis para se coletar dados sobre a interface


de um software e se fazer a análise da sua qualidade de uso. A decisão sobre que
técnica utilizar depende principalmente da disponibilidade dos recursos que se tem e
objetivos da avaliação a ser feita. A seguir serão apresentadas as principais
características das técnicas de coleta da opinião de especialistas, coleta da opinião
de usuários, observação e monitoramento de usuários e registro de uso.

A coleta de opinião de especialistas consiste em considerar a opinião de


especialistas no domínio da aplicação. A opinião dos usuários é muito importante e
em algumas situações não pode ser substituída, mas alguns fatores como as
restrições de custo e orçamento, a dificuldade de envolvimento de usuários reais pode
levar a equipe de avaliadores a optar pela coleta da opinião de especialistas. Os
especialistas examinam a interface e identificam possíveis dificuldades que os
usuários podem vir a ter ao utilizar o software.

A coleta da opinião de usuários tem por objetivo obter uma apreciação dos
usuários em relação ao sistema interativo. Nesta técnica deseja-se identificar o nível
de satisfação dos usuários com o sistema, o que inclui aspectos como: se eles gostam
do sistema, se a aparência estética do sistema é satisfatória, se o sistema faz aquilo
que eles desejam, se tiveram algum problema ao usá-lo, e/ou se eles gostariam de
(ou pretendem) usá-lo novamente. (PRATES et. al., 2003)

As principais técnicas utilizadas para se coletar a opinião de usuários são


questionários e entrevistas, que podem ser feitos pessoalmente ou por telefone, e-
mail ou web, com um pequeno grupo de pessoas ou com centenas de pessoas, com
cada usuário individualmente ou com grupos de usuários, e utilizando perguntas bem
estruturadas ou livres.

A observação e monitoramento dos usuários permite aos avaliadores


identificar os problemas reais vivenciados pelos usuários. Através desta técnica as
necessidades dos usuários podem ser identificadas ou confirmadas, a adaptação dos
usuários a uma tecnologia nova pode ser acompanhada, o avaliador pode conhecer
as atividades desempenhadas pelos usuários e em qual contexto elas acontecem e

Métodos e Técnicas de Avaliação de Interface – Página 19 de 61


assim por diante. A observação pode ser registrada usando anotações do observador,
gravação de vídeo, áudio e logs de interação, ou uma combinação destas.

Os desafios dessa técnica são: observar sem atrapalhar os usuários e como


analisar o grande volume de dados coletados principalmente quando se obtém várias
horas de vídeo gravadas, ou quando diferentes tipos de registro feitos durante o uso
devem ser integrados. O avaliador pode desejar observar o usuário em ambientes
mais controlados, como laboratórios. Neste caso o avaliador tem controle sobre o
tempo de duração, a concentração do usuário e as tarefas a serem executadas.

O registro de uso é uma técnica que permite coletar informações sobre o uso
em um período de tempo mais longo, sem a necessidade de o usuário e o avaliador
estarem presentes em um mesmo local. Esse registro é feito através de um arquivo
log que armazena as ações executadas em um sistema, através da gravação da
interação do usuário utilizando o sistema. Geralmente, os registros de uso geram uma
grande quantidade de informação e a análise destes dados pode ser bastante custosa
para avaliadores.

Tipo de dados coletados

Dependendo do tipo de avaliação, o avaliador pode coletar dados sobre a


situação atual do uso da tecnologia, aspectos positivos e negativos identificados
durante esse uso, necessidades e oportunidades de intervenção entre outros. Os
dados coletados e produzidos em avaliação podem ser classificados de diferentes
maneiras, as mais comuns são os dados qualitativos e os dados quantitativos.

Os dados qualitativos representam conceitos que não são representados


numericamente, tais como: expectativas, explicações, críticas, sugestões, listas de
problemas. Normalmente estes dados permitem caracterizar os problemas
encontrados relacionados à interação ou a interface. Esses dados também podem ser
categorizados e depois quantificados.

Os dados quantitativos representam numericamente uma quantidade, ou


seja, uma grandeza resultante de uma contagem ou medição, tais como: o tempo e
número de passos necessários para alcançar determinado objetivo ou quantas vezes

Métodos e Técnicas de Avaliação de Interface – Página 20 de 61


a ajuda on-line e o manual de uso foram consultados. Normalmente são utilizados
para avaliar eficiência e produtividade de um sistema. A análise desses dados é feita
utilizando cálculos simples como medias e desvio padrão.

Base dos métodos

Os métodos de avaliação de interface podem ser classificados em: métodos


baseados em teoria ou métodos empíricos.

A primeira classificação diz respeito a métodos fundamentados em alguma


teoria que fornece explicações e previsões para fenômenos de interação entre o
usuário e o sistema e ajudam a subsidiar resultados práticos para o design da
interface de usuário. Alguns exemplos são: o Percurso Cognitivo que é baseado na
teoria cognitiva e o MIS (método de inspeção semiótica) e o MAC (método de
avaliação da comunicabilidade), ambos baseados na teoria da Engenharia Semiótica.

Já os métodos de avaliação de base empírica dizem respeito aos métodos


propostos a partir de resultados e conhecimento coletados através de experimentos.
Alguns exemplos são o Teste de Usabilidade e a Avaliação Heurística.

Abordagem dos métodos

Os avaliadores podem analisar os dados coletados de forma analítica,


experimental ou interpretativa.

A abordagem analítica (inspeção ou preditiva) é baseada na análise da


interface por especialistas e tem como objetivo identificar potenciais problemas que
os usuários podem experimentar. A vantagem dessa abordagem é o fato de ser mais
barata do que o teste com usuários e a desvantagem é que não analisa experiência
do usuário

A abordagem experimental (ambiente controlado) é executada em ambiente


controlado e envolve usuários na execução da tarefa, e especialistas na preparação
e análise dos dados. A vantagem é que essa abordagem é baseada em experiência
real do usuário, e as desvantagens são que o ambiente não é natural para o usuário
e é mais caro que avaliações analíticas.

Métodos e Técnicas de Avaliação de Interface – Página 21 de 61


A abordagem interpretativa (estudo de campo) envolve a observação do
uso feito pelo usuário em seu contexto natural. A vantagem dessa abordagem é que
o especialista pode levar em consideração aspectos reais que influenciam no uso do
sistema, e as desvantagens são que pode ser difícil comparar dados coletados e o
custo de implementação é alto.

A Figura 4 apresenta um resumo das características dos métodos de


avaliação de interface apresentados acima.

Figura 4 - Características dos métodos de avaliação de interface.

O objetivo deste capítulo foi apresentar os principais paradigmas de avaliação


e as características dos métodos de avaliação de interface. Várias questões devem
ser consideradas antes de realizar uma avaliação em um sistema interativo, tais
como:

 Os diferentes momentos do processo de desenvolvimento em que uma


avaliação pode ser aplicada;

 Qual método de avaliação escolher;

 Que tipo de dados que podem ser coletados;

 E como os dados vão ser coletados, analisados e interpretados.

Métodos e Técnicas de Avaliação de Interface – Página 22 de 61


Capítulo 3. Avaliação Analítica

A avaliação analítica é o tipo de avaliação baseada na análise da interface


por especialistas e tem como objetivo identificar potenciais problemas que os usuários
podem experimentar durante a utilização de um sistema. Neste tipo de avaliação não
há participação de usuários.

Avaliação heurística

A avaliação heurística é um método de avaliação que tem como objetivo


identificar problemas de usabilidade conforme um conjunto de heurísticas ou
diretrizes (guidelines) (NIELSEN, 1994). Ele é um método de base empírica, ou seja,
se baseia em melhores práticas definidas por profissionais experientes e especialistas
em IHC (interação humano-computador), ao longo de vários anos de trabalho nesta
área.

A avaliação heurística não envolve usuários e é realizada através da inspeção


da interface por especialistas. Normalmente, é recomendado que 3 a 5 especialistas
realizem essa avaliação. Esses especialistas vão identificar os problemas de
usabilidade conforme um conjunto de heurísticas ou diretrizes, percorrendo a
interface através de tarefas, fazendo a inspeção de padrões e consistência verificando
a conformidade da interface com o conjunto de heurísticas que descrevem
características desejáveis da interação e da interface.

As heurísticas de Nielsen

Nielsen propôs um conjunto inicial de dez de heurísticas (NIELSEN, 1993),


que podem ser complementadas ou adaptadas conforme o avaliador julgar
necessário e/ou domínio do sistema. Cada elemento ou conjunto de elementos da
interface deve ser analisado a fim de verificar sua conformidade com cada uma das
heurísticas.

A Figura 5 apresenta as heurísticas propostas por Nielsen.

Métodos e Técnicas de Avaliação de Interface – Página 23 de 61


Figura 5 – Heurísticas de Nielsen.

H1 - visibilidade do estado do sistema

H2 - correspondência entre o sistema e o mundo real

H3 - controle e liberdade do usuário

H4 - consistência e padronização

H5 - prevenção de erro

H6 - ajuda aos usuários para reconhecerem, diagnosticarem e se


recuperarem de erros

H7 - reconhecimento em vez de memorização

H8 - flexibilidade e eficiência de uso

H9 - design estético e minimalista

H10 - ajuda e documentação

Atividades principais da avaliação heurística

Avaliação heurística contém quatro atividades principais, que serão descritas


a seguir, conforme a Figura 6.

Figura 6 – Atividades do método de avaliação heurística.

Na atividade de preparação os avaliadores vão criar os cenários para as


tarefas da avaliação, ou seja, uma narrativa textual concreta e rica em detalhes reais
ou plausíveis. Um cenário tem como objetivo permitir ao usuário se identificar com a

Métodos e Técnicas de Avaliação de Interface – Página 24 de 61


situação e tomar a motivação apresentada como própria. Além disso, a apresentação
da tarefa de forma uniforme a todos os participantes garante que todos terão as
mesmas informações ao executar a tarefa. (PRATES, 2010).

Um cenário completo contém os seguintes elementos:

 Contexto: são detalhes, circunstâncias que motivam ou explicam objetivos,


ações e reações dos atores do cenário.

 Evento: uma ação ou reação externa produzida pelo computador ou outras


características do ambiente.

 Avaliação: uma atividade mental voltada para interpretar características de


uma situação.

 Ação: é o um comportamento observável.

 Atores: são pessoas que interagem com o computador ou com o contexto,


descrição de um ator no cenário deve incluir as características pessoais que
forem relevantes ao cenário.

 Objetivos: são os efeitos na situação que motivam as ações que os atores


realizam.

 Plano: é uma atividade mental voltada para converter um objetivo em


comportamento.

Um exemplo de cenário é apresentado na Figura 7, contento todos os


elementos citados acima.

Métodos e Técnicas de Avaliação de Interface – Página 25 de 61


Figura 7 – Exemplo de um cenário e seus elementos.

Os avaliadores também devem organizar as interfaces do sistema ou do


protótipo que será avaliado, conforme os cenários definidos para avaliação e a lista
de heurísticas que serão consideradas. A interface a ser avaliada pode ser o próprio
sistema funcionando ou protótipos executáveis ou não, em vários níveis de fidelidade
de detalhes.

Na atividade da seção de avaliação cada avaliador vai inspecionar


individualmente cada interface com o objetivo de identificar se as heurísticas foram
respeitadas ou não. Normalmente, a sessão de avaliação costuma durar entre uma a
duas horas. Para interfaces muito complexas, pode-se dividir a avaliação em sessões
menores, em que cada uma se concentra em uma parte da interface.

É importante que as avaliações sejam realizadas individualmente para que os


avaliadores não sejam influenciados pela opinião dos outros. Durante a avaliação, o
avaliador deve percorrer a interface pelo menos duas vezes: uma para ganhar uma
visão geral da interface e outra pra examinar cuidadosamente cada elemento da
interface.

Métodos e Técnicas de Avaliação de Interface – Página 26 de 61


Ao decorrer da avaliação, os avaliadores vão gerar um relatório em que, para
cada problema encontrado, deve-se anotar: a descrição ou justificativa do problema;
a heurística(s) violada(s) – um mesmo problema pode violar mais de uma heurística;
a localização do problema (imagem da interface indicando o problema); a gravidade
e a severidade do problema e se possível incluir recomendações de soluções que
possam ajudar a resolver o problema encontrado.

A localização do problema encontrado indica quais partes da interface devem


ser modificadas. O problema pode estar em um único local na interface; em dois ou
mais locais na interface, casualmente; na estrutura geral da interface, de
forma sistemática; ou pode ser algo que “não está lá”, ou seja, precisa ser incluído na
interface.

A gravidade dos problemas deve ser julgada pelos avaliadores de forma a


facilitar a análise do custo/benefício da correção do problema. De acordo com Nielsen
(1994), o julgamento da gravidade de um problema envolve três fatores:

 Frequência em que o problema ocorre: O problema é comum ou raro?

 Impacto do problema quando/se ele ocorre: será fácil ou difícil para o usuário
superá-lo?

 Persistência do problema: o problema ocorre uma vez e poderá ser superado


pelo usuário, ou vai incomodar o usuário repetidamente?

Para auxiliar a compreensão dos problemas encontrados, Nielsen (1994)


sugere a seguinte escala de severidade:

4 – Catastrófico: é obrigatório corrigir este problema antes do


lançamento do produto. Se não for corrigido, muitos usuários não
conseguirão atingir seus objetivos (para eles, o produto não funciona).

3 – Problema grande: importante ser corrigido e deve receber alta


prioridade, vários usuários ficarão muito insatisfeitos se o problema for
mantido.

Métodos e Técnicas de Avaliação de Interface – Página 27 de 61


2 – Problema pequeno: a correção deste problema é desejável, mas
deve receber baixa prioridade. Alguns usuários ficarão insatisfeitos em
momentos específicos.

1 – Problema cosmético: não precisa ser consertado a menos que haja


tempo extra no projeto.

0 – Não concordo que isso seja um problema (este valor pode resultar
da avaliação de um especialista sobre um problema apontado por
outro especialista).

Na atividade de consolidação os avaliadores vão se reunir para consolidar


as informações encontradas por cada um. Nessa atividade cada avaliador vai expor
seu relatório de problemas encontrados durante a avaliação da interface e juntos vão
realizar um novo julgamento sobre o conjunto global dos problemas encontrados.
Após esse julgamento em conjunto os avaliadores vão decidir quais problemas e
sugestões devem fazer parte do relatório unificado de problemas de usabilidade.

Um relatório consolidado contendo o consenso dos especialistas deve conter:

 Breve descrição do sistema;

 Lista de problemas:

‒ Problemas que acham que os usuários vão encontrar (indicando a(s)


heurística(s) violada(s)), e por quê;

‒ Grau de severidade de cada problema (a escala normalmente usada é


de 1 (menos severo) a 4 (mais severo);

 Indicadores de usabilidade;

‒ Recomendações sobre:

‒ Como resolver os problemas prioritários (ou seja, mais severos);

‒ Como resolver problemas fáceis e rápidos de eliminar;

Métodos e Técnicas de Avaliação de Interface – Página 28 de 61


‒ Alternativas de encaminhamento de solução de outros problemas;

‒ Conclusão sobre usabilidade.

Na atividade de seleção dos problemas a serem corrigidos é realizada


uma análise de custo/benefício das correções dos problemas encontrados na
avaliação heurística. Essa análise é realizada junto ao cliente ou ao gerente de
projeto, a fim de priorizar os problemas que serão corrigidos.

Exemplo das heurísticas de Nielsen

H1 - Visibilidade do estado do sistema: O sistema deve sempre manter os


usuários informados sobre o que está acontecendo, através de feedback adequado e
no tempo certo.

Um exemplo prático de um recurso que auxilia o usuário a identificar o estado


do sistema é a utilização de uma barra de progresso que exibe para o usuário
andamento de uma tarefa (Figura 8).

Figura 8 – Exemplo de uma barra de progresso que exibe o tempo restante


para conclusão de uma tarefa.

Métodos e Técnicas de Avaliação de Interface – Página 29 de 61


Outro exemplo é o bread crums, que serve como um guia para sinalizar ao
usuário de onde ele veio e para onde está indo (Figura 9).

Figura 9 – Exemplo de bread crums que permite ao usuário saber de onde veio
e os passos restantes para finalizar uma tarefa.

H2 - Correspondência entre o sistema e o mundo real: O princípio do


mapeamento entre o sistema e o mundo real é aproximar a forma de apresentação
do sistema à forma física do mundo real. Para isso o sistema deve falar a língua do
usuário com conceitos, vocabulário e processos que lhe são familiares.

Um exemplo é apresentado na Figura 10. Através da interface desse sistema,


o designer cria a metáfora do mundo real. Ele cria uma interface que representa um
tocador de CD físico, que facilita rapidamente o uso de usuários que já conhecem um
CD Player fisicamente.

Figura 10 – Exemplo de player de música fazendo uma comparação


entre os ícones do software e ícones de um aparelho que toca CDs.

Métodos e Técnicas de Avaliação de Interface – Página 30 de 61


H3 - Controle e liberdade do usuário: O usuário deve estar no controle das
ações que ocorrem no sistema, pois em algum momento ele pode escolher uma
função do sistema por engano e precisar de uma saída de emergência, visivelmente
marcada para sair do estado indesejado. A interface deve possibilitar aos usuários
desfazer e refazer tarefas.

A imagem abaixo (Figura 11) traz um exemplo simples de como o usuário


pode tem controle sobre um programa para compactar arquivos, pois o sistema
permite que ele pare de compactar os arquivos a qualquer momento.

Figura 10 – Exemplo de um programa para compactar arquivos.

H4 - Consistência e padronização: Os usuários não devem ser obrigados a


perguntar se palavras, situações ou ações diferentes significam a mesma coisa.
Palavras, situações e ações semelhantes devem significar conceitos ou operações
semelhantes. O design deve sempre seguir as convenções da plataforma ou do
ambiente.
As Figuras 12 e 13 mostram um exemplo de consistência e padronização de
forma bem simples, em que para cada tipo de área de notícia do site é atribuída uma
cor diferente, e tudo referente a essa área está com a mesma cor.

Métodos e Técnicas de Avaliação de Interface – Página 31 de 61


Figura 11 – Exemplo de consistência e padronização utilizando cores.

Figura 12 – Exemplo de consistência e padronização utilizando cores: mesmo


quando entramos em um subtítulo de uma área de notícia a cor é mantida.

H5 - Prevenção de erro: Tentar evitar que o erro aconteça, informando o


usuário sobre as consequências de suas ações ou, se possível, impedindo ações que
levariam a uma situação de erro.

A Figura 14 apresenta um exemplo de prevenção de erro quando o usuário


aciona a função para fechar um documento do Word sem salvar as alterações.

Métodos e Técnicas de Avaliação de Interface – Página 32 de 61


Figura 13 – Exemplo de prevenção de erro do Word.

Outra forma de prevenir erro é apresentada na Figura 15, onde o design criou
um layout apropriado para cada campo a ser preenchido pelo usuário, desta forma o
usuário consegue preencher os campos com os dados corretos.

Figura 14 – Exemplo de um cadastro que dá dicas durante o preenchimento de


um novo cliente (os campos de CPF, de data de nascimento e telefone).

H6 - Ajuda os usuários a reconhecerem, diagnosticarem e se


recuperarem de erros: As mensagens de erro devem estar em linguagem simples,
sem códigos, indicando precisamente o problema e sugerindo de forma construtiva
um caminho remediador.

O Google (Figura 16) faz isso de uma forma muito inteligente. Mesmo quando
o usuário escreve a busca com uma ortografia errada, ele realiza a busca e pergunta
se estamos procurando outra informação com a ortografia correta.

Métodos e Técnicas de Avaliação de Interface – Página 33 de 61


Figura 15 – Exemplo de quando o Google não encontra resultado para uma
pesquisa. São expostas algumas sugestões para que o usuário consiga
realizar a pesquisa de forma correta.

H7 - Reconhecimento em vez de memorização: O design deve tornar


objetos, ações e opções visíveis e compreensíveis. O usuário não deve ter que se
lembrar de informações de uma parte do diálogo em outra parte. As instruções para
uso do sistema devem estar visíveis ou facilmente recuperáveis sempre que
necessário.

Um exemplo é a exibição das fontes do tema do Word. Ao clicar na seta à


direita é exibida uma lista com todas as fontes disponíveis, cada fonte é apresentada
com o seu nome e com a fonte tipográfica que representa. Desta forma o usuário não
precisa lembrar a tipografia de cada fonte. Figura 17.

Métodos e Técnicas de Avaliação de Interface – Página 34 de 61


Figura 16 – Exemplo dos tipos de fonte do Word.

H8 - Flexibilidade e eficiência de uso: Oferecer aceleradores e caminhos


alternativos para uma mesma tarefa, para tornar a interação do usuário mais rápida
e eficiente, permitindo que o sistema consiga servir igualmente a usuários experientes
e novatos. O design deve permitir que os usuários customizem as ações mais
frequentes.

A pesquisa do Google permite que usuários experientes e novatos consigam


realizar uma busca de forma simples e rápida. Para os novatos é disponibilizada uma
busca mais simples de página, que contém somente o campo para realizar a pesquisa
e um botão para pesquisar como pode ser vista na Figura 18.

Já para os usuários mais experientes o Google disponibiliza uma pesquisa


avançada que permite ao usuário configurar várias opções de pesquisa conforme a
Figura 19. O fato de o Google disponibilizar duas formas de pesquisa não impede de
que os usuários experientes utilizem a pesquisa mais simples ou vice e versa.

Figura 17 – Exemplo da pesquisa do Google.

Métodos e Técnicas de Avaliação de Interface – Página 35 de 61


Figura 18 – Exemplo da pesquisa avançada do Google.

H9 - Design estético e minimalista: O design deve evitar porções de


informação irrelevantes. Cada unidade extra de informação em um diálogo compete
com as unidades de informação relevantes e reduz sua visibilidade relativa.

A Figura 20 mostra a tela de localizar e substituir do Word. Essa tela é simples


e bem objetiva, pois exibe exatamente as informações que o usuário precisa para
poder localizar e substituir uma palavra em seu documento. Não tem nenhuma
informação irrelevante que possa fazer com que o usuário não consiga realizar a
tarefa.

Figura 19 – Exemplo da pesquisa no Word.

Métodos e Técnicas de Avaliação de Interface – Página 36 de 61


Já o exemplo da Figura 21 é o oposto. Ele mostra uma tela que contém várias
abas com desenhos e marcações que podem acabar fazendo com que o usuário
cometa erros ao utilizar ou até mesmo não consiga realizar uma tarefa.

Figura 20 – Exemplo da pesquisa avançada do Google.

H10 - Ajuda e documentação: Ainda que seja melhor que o sistema possa
ser usado sem documentação, pode ser necessário prover ajuda aos usuários.
Qualquer informação deste tipo deve ser fácil de buscar, focada na tarefa do usuário,
relacionar passos concretos a serem desenvolvidos, e não ser muito longa.

O Word disponibiliza uma ajuda em forma de tópicos, conforme mostra a


Figura 22. O usuário pode optar por realizar uma pesquisa dentro da ajuda ou procurar
o que precisa através dos tópicos apresentados.

Figura 21 – Exemplo da ajuda do Word.

Métodos e Técnicas de Avaliação de Interface – Página 37 de 61


Outro tipo de ajuda pode ser visto na Figura 23. O formulário de pagamento
do Walmart tem um campo para preencher o código de segurança do cartão. Como
não é algo muito óbvio, tem uma imagem próxima ao campo mostrando onde fica o
código de segurança do cartão.

Figura 22 – Exemplo da forma de pagamento do Walmart.

Este capítulo apresentou o método de avaliação heurística, realizado por


especialistas que desempenham o papel dos usuários nas interações com o sistema
e dão sua opinião sobre os possíveis problemas que o usuário pode ter durante a
interação com o sistema.

A execução da avaliação heurística se resume em:

 Cada avaliador individualmente:

‒ Inspecionar a interface;

‒ Listar os problemas encontrados;

 Todos os avaliadores:

‒ Revisam os problemas encontrados e geram um relatório;

 Os avaliadores discutem os problemas com o cliente ou ao gerente de projeto,


a fim de analisar o custo/benefício das correções aos problemas encontrados.

Métodos e Técnicas de Avaliação de Interface – Página 38 de 61


Capítulo 4. Avaliação em Ambiente Controlado

A avaliação em ambiente controlado é o tipo de avaliação baseada na


experiência real do usuário. O registro e a análise dos dados permitem identificar
problemas reais que os usuários enfrentam durante a utilização de um sistema.

A avaliação é executada em um ambiente controlado, por exemplo um


laboratório, e envolve tanto usuários (para a execução das tarefas) quanto
especialistas (na preparação, no acompanhamento e na análise dos dados).

Nesse tipo de avaliação o avaliador tem um controle tanto sobre o ambiente


de teste quanto sobre as atividades que serão realizadas, desta forma o avaliador
não precisa se preocupar com fatores externos que possam vir a atrapalhar o usuário
na execução das atividades. Recomendam-se cinco usuários e pelo menos dois
avaliadores, uma para acompanhar o usuário durante o teste e outro para observar o
teste.

A principal desvantagem de testes em ambientes controlados é justamente o


fato de ser uma avaliação em um ambiente fora do contexto em que o sistema é
utilizado.

Visão geral

A realização de uma avaliação em ambiente controlado requer um


planejamento minucioso para que o avaliador tenha controle sobre todas as
condições da avaliação. O avaliador deve garantir que as condições da avaliação
sejam as mesmas para todos os usuários participantes e que a avaliação consiga
atingir seu objetivo.

Passos para execução de testes em ambientes controlados

O teste em ambiente controlado contempla três etapas principais para sua


realização. Essas etapas serão descritas a seguir, conforme a Figura 24:

Métodos e Técnicas de Avaliação de Interface – Página 39 de 61


Figura 23 – Etapas da execução de um teste em ambiente controlado.

Na etapa de preparação do teste o avaliador deve determinar os objetivos


principais da avaliação, a seleção das tarefas e dos participantes, considerar os
aspectos éticos, realizar um teste piloto e definir a quantidade de testes. Cada uma
dessas atividades será descrita a seguir, conforme a Figura 25:

Figura 24 – Atividades da etapa de preparação de teste em ambiente


controlado.

Na atividade para determinar o objetivo do teste o avaliador irá determinar


os critérios relevantes ou os pontos críticos que deverão ser considerados na
avaliação, a fim de verificar se o objetivo desejado está sendo alcançado. Geralmente
os critérios são definidos na etapa de design como sendo aspectos da qualidade de
uso que será avaliada. Por exemplo, a satisfação do usuário ou o desempenho caso

Métodos e Técnicas de Avaliação de Interface – Página 40 de 61


deseja verificar se o usuário consegue realizar uma tarefa em um determinado
período de tempo.

Na etapa de design são levantadas tarefas essências para o sucesso do


sistema e/ou tarefas frequentes que os usuários irão realizar durante a interação com
o sistema. Pode incluir também estruturas de acesso, hierarquia e caminhos de
navegação. Um exemplo de determinação do objetivo do teste é apresentado na
Figura 26.d

Figura 25 – Objetivo da avaliação (PRATES et. al. 2003).

Na atividade de seleção das tarefas para teste o avaliador deve determinar


as tarefas que os usuários irão realizar na avaliação. Essas tarefas devem ser típicas
e realistas para que se possa prever o uso do sistema.

Ao determinar as tarefas o avaliador deve tomar cuidado com o tempo de


execução de cada uma delas. Geralmente o tempo máximo para a realização de uma
tarefa é de 20 minutos, deve-se manter um tempo inferior a uma hora para a
realização de todo o teste para que não se torne cansativo para o usuário. Um
exemplo de seleção de tarefas é apresentado na Figura 27.

Métodos e Técnicas de Avaliação de Interface – Página 41 de 61


Figura 26 – Tarefas a serem realizadas no teste (PRATES et. al. 2003).

Na atividade de seleção dos participantes o avaliador deve definir o perfil e


a quantidade de usuários que vão participar da avaliação. Geralmente o objetivo é
encontrar participantes com perfil semelhante aos usuários reais do sistema. Para
identificar os participantes com o perfil desejado é necessário realizar um questionário
breve de seleção.

Após definir o perfil dos participantes, o avaliador deve definir a quantidade de


participantes na avaliação. Tipicamente em testes com usuários se envolve de cinco
a doze participantes (DUMAS e REDISH, 1999). Nielsen, por sua vez, recomenda que
cinco usuários participem da avaliação (NIELSEN, 2000). Segundo ele, esse número
de participantes apresenta a melhor relação de custo/benefício. Com cinco
participantes encontram-se 85% dos problemas de aplicação e o benefício dos novos
erros encontrados valem o custo do teste executado. Um exemplo de seleção de
usuários é apresentado na Figura 28.

Métodos e Técnicas de Avaliação de Interface – Página 42 de 61


Figura 27 – Seleção dos participantes (PRATES et. al. 2003).

A atividade de considerações sobre aspectos éticos diz respeito ao


cumprimento da regulamentação brasileira (LEITÃO & ROMÃO-DIAS, 2003), a saber
da resolução 196/96 do Conselho Nacional de Saúde [CNS,1996]2, que estabelece
normas para a pesquisa envolvendo seres humanos. Os principais aspectos dessa
resolução para a aplicação do método são: o caráter voluntário e consentido dos
participantes (por escrito), a preservação do anonimato e proteção de grupos
vulneráveis; a garantia de bem-estar e o direito de interromper os testes dos
participantes.

O usuário deve consentir por escrito na execução do teste e o documento de


consentimento deve especificar as condições acordadas do teste, devendo ser
assinado tanto pelo participante do teste, quanto pelo avaliador. Além disso, o
formulário deve permitir ao usuário acrescentar novas condições ao acordo, caso o
deseje. (PRATES et. al, 2003)

A atividade de execução do teste-piloto tem como objetivo principal a


apreciação do material gerado para a avaliação. Durante a execução do teste é
importante observar se os participantes conseguiram entender corretamente todo o

2 [CNS, 1996] Conselho Nacional de Saúde. Resolução número 196/96 sobre pesquisas envolvendo
seres humanos. 1996. Disponível de maneira on-line em
http://conselho.saude.gov.br/docs/Reso196.doc.

Métodos e Técnicas de Avaliação de Interface – Página 43 de 61


material gerado, se o tempo de execução do teste está dentro do previsto, se as
tarefas propostas conseguem atingir os objetivos da avaliação. O teste-piloto também
serve para praticar a habilidade do avaliador, para verificar se os equipamentos estão
funcionando corretamente. O interessante é executar o teste piloto até que se
identifique que não há necessidade de alteração no material.

Geração do material para o teste

Após a definição dos objetivos, das tarefas e dos perfis desejados dos usuários
do teste, deve-se então gerar o material a ser utilizado durante o teste. Este material
inclui:

 Questionário para seleção de participantes do teste: Através desse


questionário é possível identificar as características do perfil de usuário do
sistema e selecionar os candidatos de acordo com perfil desejado.

 Scripts de apresentação e explicação do processo de teste aos usuários: Têm


por objetivo garantir que todos os usuários serão tratados da mesma forma e
receberão as mesmas informações.

 Formulários de consentimento do usuário: Para se executar testes com o


usuário deve-se ter um formulário de consentimento formal que deve ser
preenchido e assinado antes do teste. (Esse item será discutido com mais
detalhes na próxima seção)

 Texto de descrição da tarefa: As tarefas a serem executadas devem ser


apresentadas aos usuários por escrito, na forma de um cenário.

 Roteiros de entrevista ou questionários: Após a realização do teste são


realizadas entrevistas ou questionários que buscam entender melhor as ações
do usuário ou avaliar sua percepção e satisfação com
a aplicação.

Na Figura 29 é apresentada a relação do material gerado de acordo com cada


atividade apresentada acima.

Métodos e Técnicas de Avaliação de Interface – Página 44 de 61


Figura 28 – Material gerado em cada uma das atividades da etapa de
preparação do teste.

A etapa de execução é quando o usuário irá realizar o teste do sistema. Os


usuários serão observados enquanto os avaliadores registram seu desempenho e
sua opinião durante a execução do teste.

Para isso, essa etapa contempla seis passos, os quais auxiliam no controle e
na realização do teste. A Figura 30 apresenta os passos a serem seguidos e em
seguida uma explicação sobre cada um desses passos.

Figura 29 – Passos para a execução de teste em ambiente controlado.

O primeiro passo é o recebimento do usuário, onde o avaliador deve deixar


o usuário o mais à vontade possível, uma vez que muitos tendem a ficam ansiosos e

Métodos e Técnicas de Avaliação de Interface – Página 45 de 61


nervosos por se tratar de um teste em um ambiente controlado. É preciso explicar
que o teste que está sendo realizado é para avaliar o sistema e não o usuário, e que
ele pode interromper o teste a qualquer momento.

O próximo passo é a apresentação do trabalho e sistema, em que o


avaliador deve ler para o usuário o script de apresentação, reforçar que a avaliação
é sobre o sistema e não sobre o usuário.

Após apresentar o trabalho e o sistema, o avaliador deve solicitar o


consentimento formal do usuário pedindo para que ele leia e assine o formulário
de consentimento da execução do teste.

O próximo passo é a aplicação do questionário pré-teste. Esse questionário


tem a finalidade de conhecer as especificidades do usuário.

Finalizado o questionário pré-teste é iniciada a execução das tarefas, em


que, num primeiro momento, é apresentado o material correspondente às tarefas e
solicitado que o usuário leia e verifique se conseguiu compreender todo o material.
Quando o usuário começa a realizar as tarefas, o observador também começa a
realizar as anotações sem interromper ou interferir a concentração do usuário.

Caso o usuário faça alguma pergunta sobre o sistema ou sobre a realização


de alguma tarefa, as mesmas não devem ser respondidas. O avaliador só responde
perguntas que não estão relacionadas com o software que está sendo testado, por
exemplo, perguntas sobre o sistema operacional.

Terminado a execução das tarefas é realizada a entrevista ou o


questionário pós-teste. A entrevista ou o questionado tem como objetivo tirar dúvida
sobre algumas ações observadas do usuário e também colher sua opinião sobre a
experiência de utilizar o sistema e/ou sugestões que possam ajudar a melhorar o
sistema.

A etapa de análise consiste em analisar os dados obtidos no teste. Os dados


no teste de usabilidade podem ser coletados de várias formas, tais como registro de
uso, observações, anotações, preenchimento de questionários, entrevistas. Após

Métodos e Técnicas de Avaliação de Interface – Página 46 de 61


coletar os dados de todos os usuários que participaram do teste, os avaliadores vão
gerar um relatório do teste. Neste relatório são apresentados os testes realizados e
os problemas encontrados.

Ambiente de testes e equipamentos

O ambiente de testes é composto por duas salas: a sala de teste e a sala de


observação. A sala de teste é onde o usuário vai utilizar o sistema, a sala de
observação é local onde o avaliador vai observar os usuários durante o teste.

Normalmente as salas são separadas por um vidro espelhado onde os


avaliadores enxergam os usuários, mas estes não enxergam os avaliadores. Um
exemplo de ambiente de testes é apresentado na Figura 31.

Figura 30 – Exemplo de um ambiente de teste (BARBOSA, 2010).

A sala de teste deve possuir um computador e um espaço suficiente para


acomodar o usuário e um avaliador. Geralmente existem duas ou três câmeras de
vídeos fixas que tem o objetivo de registar o comportamento dos usuários, como os
movimentos das mãos, expressões faciais e linguagem corporal. O microfone também
é colocado próximo ao usuário para gravar suas palavras. Os vídeos e outros dados
são transmitidos para a sala de observação.

Métodos e Técnicas de Avaliação de Interface – Página 47 de 61


A sala de observação deve possuir um monitor que irá replicar o que está
sendo visto no monitor do usuário (meio de um software de compartilhamento de tela)
e outro computador para anotações importantes.

Nas Figuras 32 e 33 são apresentados alguns exemplos de ambientes de teses


reais.

Figura 31 – Laboratório de comunicabilidade do Grupo de Pesquisa em


Engenharia Semiótica (SERG / PUC-Rio).

Figura 32 – Laboratório de Usabilidade do Instituto Recôncavo de Tecnologia


(IRT).

Os laboratórios de usabilidade podem ser muitos caros e demandar muito


trabalho de funcionamento e manutenção (PREECE et. al. 2005). Para contornar

Métodos e Técnicas de Avaliação de Interface – Página 48 de 61


esses problemas uma alternativa é realizar o teste com a ajuda de um equipamento
portátil (como câmeras de vídeo, ou sistemas de registro de interação) e utilizar uma
sala (de reunião ou de conferencia) disponível como um laboratório de usabilidade
temporário, conforme a Figura 34.

Uma vantagem de utilizar um equipamento portátil é que os mesmos podem


ser levados aos ambientes de trabalho, permitindo que os testes possam ser
realizados no local, tornando-o menos artificial e até mais convenientes para os
usuários. (PREECE et. al. 2005).

Figura 33 – Laboratório portátil (nmgroup.com).

Teste de usabilidade

O teste de usabilidade é realizado em ambiente controlado e tem como


objetivo principal avaliar a qualidade da interface em termos de sua usabilidade, ou
seja, medir o valor alcançado pelo sistema em cada um dos aspectos de usabilidade
de interesse: facilidade de aprendizado, facilidade de uso, eficiência de uso e
produtividade, satisfação do usuário, flexibilidade, utilidade e segurança no uso.
(NIELSEN 1993; PREECE et. al., 2002).

Por exemplo, pode-se avaliar a facilidade de aprendizado medindo:

Métodos e Técnicas de Avaliação de Interface – Página 49 de 61


 A quantidade de erros que os usuários cometeram nas primeiras sessões de
uso;

 A quantidade de usuários que conseguiram completar com sucesso


determinadas tarefas;

 A quantidade de vezes que os usuários consultaram a ajuda on-line, caso


exista, ou o manual de usuário.

Essas medidas são definidas na atividade de seleção das tarefas para o teste
no passo de preparação da avaliação. Lembrando que, o teste de usabilidade possui
os mesmos passos e atividades contidos em um teste realizado em um ambiente
controlado.

As medidas são definidas a partir dos requisitos de usabilidade levantados


pelos clientes e pelas metas de usabilidade propostas pela equipe de design. Para
cada uma das medidas a serem observadas, deve-se definir os limites mínimos
aceitáveis (pior caso), os limites máximos possíveis (melhor caso) e o valor almejado
para a medida no projeto.

Na tabela 2 é apresentado um exemplo de medidas que podem ser


observadas durante um teste de usabilidade.

Tabela 34 – Exemplo de medidas que podem ser observadas a cada


tarefa durante a realização da tese de usabilidade.

Método de Nível Melhor


Fator Pior Caso
Medição Almejado Caso
Facilidade Número de erros Mais de 10 No máximo 3 Nenhum
de uso cometidos erros erros erro
Porcentagem de Para cada Apenas a 1ª
Facilidade
vezes que o usuário tarefa vai pelo vez que realiza Nunca
de uso
vai ao sistema de menos 1 vez uma

Métodos e Técnicas de Avaliação de Interface – Página 50 de 61


ajuda tarefa
complexa

Uma vez a
cada
Mais de uma
Utilidade Frequência de uso três dias ou Uma vez ao dia
vez ao dia
menos
frequente
Porcentagem das
Eficiência vezes que usuário
Acima de 90% 100% das
do sistema encontrou o que Nunca
das vezes vezes
de ajuda procura no sistema
de ajuda
Consegue resolver o
Eficiência
problema com base Acima de 90% 100% das
do sistema Nunca
no conteúdo de das vezes vezes
de ajuda
ajuda
Avaliação Questionário Muito
Negativa Positivo
inicial (subjetivo) positivo

Essas medidas devem ser objetivas e confiáveis. Objetivas no sentido de


realmente medir aquilo a que se propõem e confiáveis de modo que se obtenham os
mesmos resultados ao tornar a medir o atributo em condições similares às do objeto
ou indivíduo em questão. Os resultados obtidos por meio das medidas devem ser
reproduzíveis e significativos para a avaliação.

Durante o teste, o avaliador acompanha o usuário na execução das tarefas e


analisa se as medidas alcançadas pelo usuário são compatíveis com as medidas
esperadas para que a usabilidade do sistema seja satisfatória.

Durante a análise dos dados coletados o avaliador deve classificar a


gravidade dos problemas (NIELSEN, 1998):

 Problema catastrófico: impede que o usuário termine sua tarefa;

Métodos e Técnicas de Avaliação de Interface – Página 51 de 61


 Problema sério: atrapalha a execução da sua tarefa;

 Problema cosmético: atrasa a execução e/ou irrita usuários.

O relatório do teste deve conter a descrição dos testes feitos, os problemas


encontrados, as análises sobre as medidas definidas para cada tarefa e, se solicitado,
hipóteses sobre causas dos problemas. Se os problemas identificados se referem a
requisitos de usabilidade, eles devem ser corrigidos, uma vez que são requisitos do
cliente. Já as metas de usabilidade devem ser analisadas quanto à prioridade de
correção, uma vez que foram estipulados pela equipe de desenho.

O objetivo deste capítulo foi apresentar como realizar testes em ambiente


controlado e o teste de usabilidade.

Os testes realizados em ambiente controlado permitem que os avaliadores


tenham controle sobre todo o processo de avaliação (através dos materiais gerados
em cada uma das atividades de preparação do teste), o que garante que as condições
do teste serão as mesmas para todos os usuários.

O teste de usabilidade avalia a usabilidade de um sistema a partir de


observações de experiências de uso. Os objetivos deste teste determinam quais
critérios de usabilidade deverão ser medidos.

Para cada tarefa que será realizada pelos usuários é importante definir as
medidas que serão observadas durante o teste. A ênfase do teste de usabilidade é
no desempenho dos participantes durante a realização das tarefas (através da
observação é possível ver se as medidas estão sendo alcanças ou não) e de suas
opiniões e sentimentos decorrentes de suas experiências de uso do sistema avaliado.

Métodos e Técnicas de Avaliação de Interface – Página 52 de 61


Capítulo 5. Microtestes de Usabilidade Pré-programados

É de conhecimento de todos que, para verificar a usabilidade de um sistema,


o teste de usabilidade é um método muito eficaz. Mas a grande realidade é que de
fato é muito difícil empresas investirem dinheiro e tempo em recursos para realizar
um teste usabilidade.

A aplicação de um teste de usabilidade é relativamente simples, porém,


quando executado com um tempo e uma frequência inadequada, torna-se complexo
e pode gerar mudanças significativas em todo um projeto. Steve Krug (2006) afirma
que quando um teste de usabilidade é executado no início e com frequência
adequada, pode-se tirar o máximo de proveito a um custo baixo, economizando tempo
e desgastes refazendo o projeto.

Nesse sentido esse capitulo vai apresentar um microteste de usabilidade que


qualquer um pode aplicar facilmente em um sistema interativo ou outro produto
através de uma abordagem direta apresentada por KRUG (2010).

Visão geral

Steve Krug (2010) utiliza o termo “teste de usabilidade do tipo faça você
mesmo” para denominar um microteste de usabilidade. Este tipo de teste é qualitativo,
pois o seu objetivo não é provar algo e sim ter ideias que permitam melhorar o que
está sendo criado.

Como resultado, esses testes tentem ser mais informais do que científicos,
ou seja, o teste pode ser realizado por alguns usuários e haver a necessidade de
alterar o protocolo no meio do teste. Por exemplo, se o primeiro usuário não conseguiu
completar uma determinada tarefa e o motivo para isso for óbvio, a tarefa pode ser
alterada ou até mesmo excluída da lista de tarefas para os demais usuários do teste.
Essa alteração não pode ser aplicada em um teste quantitativo porque invalidaria os
resultados.

Métodos e Técnicas de Avaliação de Interface – Página 53 de 61


O microteste de usabilidade pode ser facilmente integrado a metodologias
ágeis de desenvolvimento de software, uma vez que essa metodologia é baseada na
produção rápida de partes de um sistema e essas partes precisam ser testadas. O
único cuidado que deve ser tomado é que em muitos casos os usuários dos testes
podem ser membros da equipe que estão desenvolvendo o sistema. O maior desafio
do microteste de usabilidade em uma metodológica ágil é planejar o microteste à
frente dos desenvolvedores que muitas vezes fazem mudanças no sistema, mas não
têm tempo para fazer a prototipagem.

De acordo com Krug (2010), o microteste de usabilidade funciona porque:

 Todos os sites têm problemas: geralmente os problemas são significativos e


podem frustrar seriamente o usuário ou até mesmo impedir o usuário de
realizar uma tarefa.

 A maioria dos problemas sérios tende a ser facilmente encontrada: os


problemas do sistema podem ser óbvios para os projetistas e desenvolvedores,
porque eles sabem como o sistema funciona ou deveria funcionar, mas a
maioria dos usuários não sabe.

 Observar os usuários aprimora o projetista: no sentido de saber como as


pessoas utilizam um sistema e como o sistema pode ser criado e utilizado.

Ambiente de teste e equipamentos

O ambiente de teste possui duas salas, uma sala de teste e uma sala de
observação. Estas não precisam ser separadas por uma parece de vidro, pois o
interessante para o microteste é que as salas não fiquem próximas para não
atrapalhar o usuário com as conversas e discussões que podem acontecer entre os
observadores.

Para a sala de teste é necessário um espaço tranquilo com mesa e cadeiras,


normalmente uma sala do próprio escritório ou numa sala de reunião. Os
equipamentos necessários são um computador para a realização do teste, uma
câmera, softwares de gravação e monitoramento de tela, microfone e um alto falante.

Métodos e Técnicas de Avaliação de Interface – Página 54 de 61


Uma sala de conferencia normalmente é o ideal para os observadores
(KRUG, 2010). Caso a sala de conferência seja grande demais, pode-se usar uma
sala de treinamento ou qualquer outro lugar onde as pessoas possam ver a tela do
usuário e ouvir o áudio do teste. A sala de observação deve conter um monitor (ou
projetor), alto falante e um comunicador viva-voz.

Um exemplo de uma sala de teste e de uma a sala de observação,


respectivamente, é apresentado na Figura 35.

Figura 35 – Exemplo de ambiente de teste para a realização de um microteste


de usabilidade.

Passos para execução de microteste

O microteste de usabilidade possui as mesmas etapas e atividades principais


de um teste realizado em um ambiente controlado (preparação, execução e análise),
por exemplo o teste de usabilidade.

O microteste de usabilidade conta com a realização de uma rodada de teste


uma vez por mês sempre na parte da manhã. É importante que a rodada de teste seja
limitada a um período do dia para que seja possível realizar o teste com menos
usuários (o que simplifica o recrutamento) e que mais pessoas possam vir e observar
o teste.

O fato de o teste acontecer uma vez no mês também é importante, pois é a


frequência com que a maioria das equipes consegue fazer os testes e identificar os
problemas suficientes para mantê-los ocupados consertando o sistema, para que ele
possa ser testado novamente no mês seguinte. Designar um dia da semana por mês

Métodos e Técnicas de Avaliação de Interface – Página 55 de 61


para a realização do teste estabelece uma expectativa das pessoas em comparecer
para participar do teste e garante que a equipe de desenvolvimento tenha algo pronto
para ser testado (KRUG, 2010).

Para a seleção dos usuários, pode-se recrutar à vontade. Não é necessário


ficar preso em tentar encontrar usuários que reflitam o público-alvo do sistema, pois
para Krug (2010) muitos dos problemas de usabilidade encontrados não estão
relacionados com o conhecimento do domínio e sim com aspectos como navegação,
layout da página, hierarquia visual, ou seja, problemas que quase todos os usuários
podem encontrar.

Para Krug (2010) três usuários para cada rodada de teste são suficientes por
alguns motivos:

 É provável que os três primeiros usuários encontrem muitos dos problemas


significativos relacionados às tarefas selecionadas.

 Encontrar três usuários é menos trabalhoso.

 É mais importante realizar várias rodadas de teste do que tentar encontrar


todos os problemas em uma única rodada.

 Possibilita que o teste e o relatório sejam realizados no mesmo dia.

A execução do teste é bem simples. Basicamente, o avaliador acompanha o


usuário até a sala onde irá ocorrer o teste e passa para ele as tarefas que serão
realizadas.

Durante a realização das tarefas é necessária a aplicação do protocolo verbal


de pensar alto (think aloud). Neste protocolo o usuário executa as tarefas e narra o
que está pensando à medida que as realiza. Se o usuário ficar em silêncio por um
longo período de tempo, o avaliador pode lembra-lo de continuar dizendo o que está
pensando. Enquanto isso, os demais participantes observam a sessão do teste e
realizam anotações (se necessário) na sala de observação.

Métodos e Técnicas de Avaliação de Interface – Página 56 de 61


Ao final do teste os envolvidos têm uma sessão conjunta na qual podem
analisar as anotações realizadas por cada participante. Essa análise deve acontecer
assim que a sessão de teste acabar, enquanto o que aconteceu durante o teste possa
ser lembrado mais facilmente por todos os envolvidos. O foco dessa etapa é a
priorização dos problemas mais graves encontrados pelos usuários

Para isso, Krug (2010) propõe alguns passos a serem seguidos para realizar
uma análise dos dados coletados:

 A partir da lista de problemas de usabilidade encontrados durante o teste, os


avaliadores devem revisar essa lista e cada um deve eleger três problemas
que consideram os mais graves.

 Deve ser feita uma consolidação dos problemas mais graves, para ver se não
há redundâncias, e a priorização de cada um dos problemas.

 Cria-se então uma nova lista ordenada por importância dos problemas mais
graves.

 A equipe deve discutir brevemente como cada problema pode ser consertado
até o próximo mês, para a nova sessão de teste.

Após a análise a equipe gera um relatório pequeno. Esse relatório vai resumir
o teste do mês em um breve e-mail, que não deve ter mais do que dois minutos de
leitura e não mais do que 30 minutos para ser escrito. O relatório deve conter:

 O que foi testado.

 A lista de tarefas realizadas.

 A lista de problemas que deverão ser consertados para o próximo mês.

No e-mail também é preciso avisar às pessoas que podem assistir a


gravações dos testes caso elas se interessarem, e quando será realizado o próximo
teste.

Métodos e Técnicas de Avaliação de Interface – Página 57 de 61


Diferenças entre o teste de usabilidade e o microteste de usabilidade

O microteste tem algumas características diferentes do teste de usabilidade.


Na Tabela 3 é apresentado um panorama sobre as principais diferenças entre o teste
de usabilidade e o microteste de usabilidade.

Tabela 3 – Principais diferenças entre teste de usabilidade e microteste de


usabilidade.

Teste do tipo faça você


Teste de usabilidade
mesmo
1- 2 dias de teste, +/- uma
Tempo gasto em Uma manhã por mês inclui o
semana de preparação, mais o
cada rodada de teste e a análise e geração
tempo para análise e geração do
teste do relatório
relatório.
Continuamente, por todo o
Quanto o teste é Quando o sistema está quase
processo de
realizado completo
desenvolvimento.
Tipicamente só uma ou duas por
Número de
projeto, devido ao tempo e à Uma vez por mês
rodadas de teste
despesa
Número de
participantes em De 5 a 8 3
cada rodada
Recruta-se à vontade, fazer o
Perfil dos Pessoas com mesmo perfil dos
teste com mais frequência é
usuários usuários reais do sistema
mais importante
Local do teste Um laboratório Uma sala
Relatório Um documento amplo Um e-mail de 1-2 pagina
A equipe de
Quem identifica desenvolvimento, ou
Os avaliadores
os problemas qualquer agente interessado
em participar.

Métodos e Técnicas de Avaliação de Interface – Página 58 de 61


Uma breve lista dos
Uma lista de muitos problemas, problemas mais graves e um
Objetivo primário categorizados e priorizados sem comprometimento em
severidade. arrumá-los antes da próxima
rodada de teste.

Neste capítulo foi apresentado um microteste de usabilidade mais simples


que o teste de usabilidade, o que facilita a sua realização com mais frequência. O
microteste além de ser qualitativo, pois está interessado em criar ideias que permitam
melhorar o que está sendo criado, é informal, pois alterações podem acontecer
durante uma sessão de teste.

A análise do microteste está interessada em prover uma lista de problemas


graves com suas respectivas correções para a próxima rodada de teste. O relatório é
um simples e-mail contendo os problemas graves levantados pela análise dos
resultados.

O microteste não faz tudo que o teste de usabilidade faz, mas produz os
resultados necessários por um valor mais fácil de assumir pelas empresas. (KRUG,
2010).

Métodos e Técnicas de Avaliação de Interface – Página 59 de 61


Referências

BARBOSA, S.; SILVA, B. Interação humano-computador. Elsevier Brasil, 2010.

CARROLL, J.M. Introduction to this Special Issue on “Scenario-Based System


Development”. In: Interacting with Computers, nº 1, v. 3, p. 41–42, 2000.

DUMAS, J. S E REDISH, J. C. A Practical Guide to Usability Testing (Revised Edition).


Exeter, UK: Intellect, 1999.

KRUG, S. Não me faça pensar. Rio de Janeiro: Alta Books, 2006.

KRUG, S. Simplificando coisas que parecem complicadas. Rio de Janeiro, Altabooks,


2010.

KUNIAVSKY, M. Observing the user experience: a practitioner’s guide to user


research. Morgan kaufmann, 2003.

LEITÃO, C. & ROMÃO-DIAS, D. Pesquisas em IHC: um debate interdisciplinary sobre


a ética. CLIHC 2003, p. 1.

NIELSEN, J. Cost of User Testing a Website, Alertbox. Disponível em


<https://www.nngroup.com/articles/cost-of-user-testing-a-website/>. Acesso em: 20
abr. 2020.

NIELSEN, J. Finding usability problems through heuristic evaluation. Proceedings of


the SIGCHI conference on Human factors in computing systems. ACM, 1992.

NIELSEN, J. Heuristic Evaluation, in Mack, R. & Nielsen, J. (eds.) Usability Inspection


Methods. New York, NY: John Wiley &amp; Sons, 1994, 25-62.

NIELSEN, J. Test with 5 Users, Alertbox. Disponível em:


<http://www.useit.com/alertbox/20000319.html>. Acesso em: 20 abr. 2020.

NIELSEN, J. Usability Engineering. Chestnut Hill, MA, Academic Press, 1993.

Métodos e Técnicas de Avaliação de Interface – Página 60 de 61


NIELSEN, J.; MOLICH, R. Heuristic evaluation of user interfaces. In: Proceedings of
the SIGCHI conference on Human factors in computing systems. ACM, 1990. p. 249-
256.

PRATES, R. O., BARBOSA, S. D. J. Avaliação de Interfaces de Usuário - Conceitos


e Métodos. Jornada de Atualização em Informática, SBC, 2003. – versão revista.

PRATES, R. O.; SOUZA, C. S; CAREY, T.; MULLER, M. J. Evaluating beyond


usability evaluation. Presented as SIG at CHI 2001, Seattle, USA. Disponível em:
<http://www.serg.inf.puc-rio.br>. Acesso em: 20 abr. 2020.

PREECE, J.; ROGERS, Y.; SHARP, E. Interaction Design: Beyond Human-computer


Interaction. New York, NY: John Wiley & Sons. 2002.

PREECE, J.; ROGERS, Y.; SHARP, E.; BENYON, D.; HOLLAND, S.; CAREY, T.
Human Computer Interaction. England: Addison-Wesley, 1994.

PREECE, J.; ROGERS, Y.; SHARP, H. Design de Interação: Além da interação


homem-computador. John Wiley e Sons. São Paulo, 2005.

ROBSON, C. Real World Research. Oxford, UK: Blackwell, 1993.

TEIXEIRA, F. Introdução e boas práticas em UX Design. Editora Casa do Código,


2014.

Métodos e Técnicas de Avaliação de Interface – Página 61 de 61

Você também pode gostar