Você está na página 1de 13

Produção, v. 19, n. 3, set./dez. 2009, p.

445-457

Avaliação de material didático digital centrada no


usuário: uma investigação de instrumentos
passíveis de utilização por professores
Katia Alexandra de Godoi UFPR
Stephania Padovani UFPR

Resumo
Neste artigo, discute-se a importância da avaliação de materiais didáticos digitais centrada no usuário. Primeiramente, apresentam-se as abordagens
de avaliação passíveis de aplicação a esses materiais, assim como suas definições e classificações. Em seguida, revisam-se conceitos de usabilidade
em materiais didáticos digitais. Por fim, descreve-se uma série de instrumentos avaliativos passíveis de serem utilizados por professores.

Palavras-chave
Instrumentos avaliativos, material didático digital.

User-centred evaluation of digital learning materials: an


investigation of instruments subject to use by teachers

abstract
In this study, we discuss the importance of user-centered evaluation of digital learning materials. First of all, different evaluation approaches are introduced,
as well as their definitions and classifications. Then, concepts of usability in digital learning materials are surveyed. Finally, a range of evaluation tools
subject to use by teachers are described.

Keywords
Evaluation tools, digital learning material.

445
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.

1. INTRODUÇÃO No contexto de avaliação de materiais didáticos digi-


tais, o professor participa como usuário direto e indireto.
Antes do início do ano letivo, os professores das escolas Considerado usuário direto na fase de planejamento de
brasileiras são convocados para escolher o material didá- suas atividades, quando está selecionando/avaliando o
tico impresso (livro didático) que será utilizado durante o ­software educativo; e usuário indireto na fase de aplicação,
ano. O processo de escolha do livro didático, para as escolas quando participa como um facilitador/mediador da intera-
públicas, acontece através do PNLD (Programa Nacional ção alunos-software educativo.
do Livro Didático/MEC). Apesar do professor não ser o público alvo principal
Os PCN (Parâmetros Curriculares Nacionais) reco- dos softwares educativos, ele julgará se o software é viável
mendam que o livro didático não seja o único material uti- para utilização no contexto educacional utilizando instru-
lizado pelo professor, propondo diretrizes e, a partir delas, mentos avaliativos.
boas situações de aprendizagem utilizando computadores. Desta forma, entendemos que é importante identificar
Entretanto, essas diretrizes não fazem menção a como os instrumentos avaliativos de material didático digital utili-
professores podem selecionar/avaliar material didático záveis pelo usuário professor. Daí este artigo ter como fi-
digital. Mais ainda, a rapidez da evolução das tecnologias nalidade discutir a importância da avaliação de materiais
desafia pesquisadores a estabelecer critérios que auxiliem o didáticos digitais. Primeiramente, apresentaremos as abor-
professor a escolher, classificar e avaliar materiais didáticos dagens de avaliação. Em seguida, os instrumentos avaliati-
apresentados sob a forma digital. vos passíveis de utilização por professores.
Um trabalho de avaliação contínua centrada no usuá-
rio pode ser uma boa estratégia para assegurar a qualidade
do material didático digital. Existem instrumentos oficiais 2. ABORDAGENS DE AVALIAÇÃO NO CONTEXTO
(base científica) e não oficiais (base empírica) que estabe- EDUCACIONAL
lecem normas, critérios, recomendações e requisitos para
avaliação da qualidade e usabilidade do material didático Dix et al. (1998) esclarecem que a avaliação de um sis-
digital no processo de design (tanto no desenvolvimento do tema tem três objetivos principais: avaliar a funcionalidade
projeto quanto no do produto). desse sistema; avaliar o efeito de sua interface sobre o usuá-
De acordo com Cybis (2003), o envolvimento do usu- rio; e identificar algum problema específico com o sistema.
ário pode trazer benefícios importantes para o design. O Observa-se, assim, que a avaliação de materiais didáticos
mesmo autor esclarece que existem três tipos básicos de digitais deve acontecer de forma diferente e em momentos
envolvimento do usuário no processo de design: distintos. Desta forma, pode-se inferir que a avaliação de
• Informativo – o usuário como fonte de informações material didático digital é uma tarefa complexa e deve ser
para o projeto através de entrevistas, questionários ou efetuada tanto na fase de desenvolvimento quanto na fase
observações. de utilização do software educativo.
Antes de enfocar especificamente as abordagens de ava-
• Consultivo – o usuário é consultado sobre decisões de liação no contexto educacional, é importante entender as
projeto, para que as verifique e emita opinião sobre elas. interações que ocorrem nesse contexto, para então identifi-
Essa consulta também pode ser realizada através de en- car as diversas situações de avaliação que ocorrem.
trevistas, questionários e observações. A partir das considerações de Anderson (2004) é possível
• Participativo – considerado o nível mais elevado de en- identificar seis formas de interação em educação: aluno-alu-
volvimento do usuário no desenvolvimento do projeto, no, aluno-professor, aluno-conteúdo, ­professor-professor,
a responsabilidade pelo projeto é transferida a ele. Cabe professor-conteúdo e conteúdo-conteúdo (Figura 1).
ao designer recolher e tratar adequadamente os dados Interação aluno-aluno – vista como uma exigência na
coletados através das técnicas possíveis. educação à distância, ou seja, a interação entre pares é cru-
Rocha e Baranauskas (2003) esclarecem que o design cial para o desenvolvimento de comunidades de aprendi-
participativo caracteriza-se pelo envolvimento ativo dos zagem, permitindo aos alunos desenvolverem habilidades
usuários finais do sistema ao longo de todo o ciclo de de- interpessoais e compartilharem conhecimento como mem-
sign e desenvolvimento. Mais do que servir como fontes de bros de uma comunidade.
informação, ou ser observados em sua rotina de trabalho, Interação aluno-professor – é apoiada por uma grande
os usuários finais contribuem em todas as fases do ciclo, variedade de formatos de aprendizagem, as quais incluem
revelando suas perspectivas e necessidades. comunicação síncrona e assíncrona.

446
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.

Interação aluno-conteúdo – fornece novas oportuni- avaliando ou tomando decisões a respeito do software que
dades ao aluno, incluindo a imersão em microambientes, será utilizado.
exercícios em laboratórios virtuais, desenvolvimento de Avaliação contextual – refere-se à interação professor-
conteúdos interativos, entre outras possibilidades. professor, aluno-professor, aluno-aluno. Desta forma, este
Interação professor-professor – cria a oportunidade tipo de avaliação precisa necessariamente estar num con-
de desenvolvimento profissional, incentivando os profes- texto de uso, no qual aluno e professor discutem (juntos ou
sores a tirar vantagem da descoberta de novos conheci- individualmente) sobre o software educativo.
mentos em seus próprios assuntos e dentro da comunidade
Avaliação de codescoberta – ocorre durante a intera-
acadêmica.
ção professor-professor, aluno-professor, aluno-aluno. De
Interação professor-conteúdo – o foco desta interação
acordo com Anderson (2004), a teoria construtivista enfa-
está na criação de conteúdos e atividades de aprendizagem
por parte dos professores, permitindo a eles monitorar e tiza a importância da interação em pares na investigação e
atualizar continuamente os conteúdos das atividades que no desenvolvimento de perspectivas múltiplas. Desta forma
criaram para seus alunos. auxilia também professores e/ou alunos em suas relações
Interação conteúdo-conteúdo – novo modo de intera- interpessoais enquanto contribui na avaliação dos softwares
ção educacional no qual o conteúdo está programado para educativos.
interagir com outras fontes de informação automatizadas, Avaliação interativa/participativa – enfatiza a intera-
de modo a atualizar-se constantemente a si próprio. ção professor-professor, aluno-professor, aluno-aluno, alu-
Acreditamos que ao modelo de Anderson (2004) po- no-conteúdo, ou seja, permite aos alunos e/ou professores
dem-se associar as modalidades de avaliação passíveis de ter uma postura crítica e colaborativa diante dos conteúdos
ocorrer em cada uma das interações (Figura 2). e participar ativamente do processo ensino-aprendizagem.
Avaliação prognóstica – acontece na interação profes-
sor-conteúdo, considerada por Squires e Preece (1996) uma
avaliação feita antes do uso do software educativo, ou seja,
quando os professores estão fazendo seu planejamento.
Avaliação em grupo – está na interação professor-
professor, aluno-professor, aluno-aluno, ou seja, quan- aluno - aluno
do professores e/ou alunos estão juntos discutindo,
aluno

aluno - aluno
alu
r
sso

no
e
rof

-c
-p

aluno
on
no

teú
alu

do

avaliação
co
r
alu

esso
r

nt
so


n
es

do conte
r- prof
o-
rof

professor conteúdo
-
co
-p

professor - conteúdo
so
nte

es
no

údo
of
úd
alu

pr
o

conteúdo - conteúdo
professor - professor

Avaliação em grupo
professor conteúdo Avaliação contextual
Avaliação codescoberta
professor - conteúdo
Avaliação participativa/interativa
Avaliação prognóstica

Figura 1: Formas de interação na educação à distância. Figura 2: Formas de avaliação no contexto educacional.
Fonte: Anderson, 2004. Fonte: com base em Anderson, 2004.

447
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.

2.1 Critérios de avaliação de softwares educativos • Adaptabilidade – capacidade do sistema de reagir con-
Autores de diversas áreas do conhecimento propõem forme o contexto, as necessidades e preferências do
uma série de critérios de diferentes naturezas. Neste tópico, usuário;
optamos por apresentar os critérios identificados na litera- • Gestão de erros – mecanismos que evitam ou reduzem
tura conforme as três categorias de critérios propostas por a ocorrência de erros e, quando eles ocorrem, favore-
Silva (2002): ergonômicos, pedagógicos e comunicacionais. cem sua correção;
A Figura 3 sintetiza o conjunto de critérios priorizados nes- • Homogeneidade/coerência – forma como as escolhas,
te artigo, os quais convergem para um único ponto: avalia- na concepção da interface (p. ex., códigos, denomina-
ção de material didático digital. ções, formatos, procedimentos), são conservadas;
Critérios ergonômicos – asseguram que o usuário pos- • Significado de códigos e denominações – diz respeito à
sa utilizar o software educativo com segurança, conforto e adequação entre o objeto ou a informação apresentada
produtividade. Desta forma, são apresentadas a seguir a de- ou pedida e sua referência;
composição e breve definição dos critérios ergonômicos: • Compatibilidade – acordo entre as características do
usuário (p. ex., memória, percepção, hábitos, compe-
• Condução – meios disponíveis para orientar, informar
tências, idade, expectativas), as tarefas e a organização
e conduzir o usuário na interação com o computador das saídas, das entradas e do diálogo de uma dada apli-
(p. ex., mensagens, alarmes); cação. Diz respeito, ainda, ao grau de similaridade entre
• Carga de trabalho – relaciona todos os elementos da in- diferentes ambientes e aplicações.
terface que têm papel importante na redução da carga Critérios pedagógicos – asseguram que as estratégias
cognitiva e perceptiva do usuário e no aumento da efi- didáticas de apresentação das informações e tarefas cogni-
ciência do diálogo; tivas estejam em conformidade com o objetivo educacional
e as características do usuário. A categoria critérios peda-
• Controle explícito do usuário – refere-se tanto ao pro-
gógicos reúne um conjunto de quatro grandes grupos de
cessamento explícito das ações do usuário pelo sistema, critérios principais, cada um deles dividido em diferentes
quanto ao controle que este tem sobre o processamento subcritérios.
de suas ações pelo sistema;
• Critérios de ensino-aprendizagem – didáticos e de
conteúdo (condução do aprendiz; estruturação do
conteúdo; sistemas de ajuda; objetivos de aprendi-
Interface pedagógica zagem; clareza dos conteúdos; validade do conteú-
• Ensino-aprendizagem
Interface ergonômica
do); emocionais e afetivos (autonomia; motivação
• Dispositivo de formação
• Controle e gestão • Condução, ­intrínseca/­extrínseca; maturação/experiência); compo-
de processo e validade • Carga de trabalho, nente cognitiva (carga mental; experiência do aprendiz;
político-pedagógica. • Controle explícito,
• Adaptabilidade,
estilos de aprendizagem);
• Gestão de erros, • Critérios de dispositivos da formação – conformidade,
• Homogeneidade,
• Significação, aceitabilidade, compatibilidade, coerência;
• Compatibilidade. • Critérios de controle e gestão do processo – ­componente
Avaliação de
prática, avaliação, tutoria;
material • Critérios de validade político-pedagógica – pertinência,
didático digital
coerência, filosofia pedagógica.
Critérios comunicacionais – asseguram que os dispo-
sitivos midiáticos de comunicação sejam eficazes do ponto
de vista da interatividade e da qualidade da informação.
Interface comunicacional São critérios intermediários entre a tarefa e a ação.
• Documentação,
• Navegação, • Documentação e material de apoio – informações refe-
• Interatividade, grafismo e
rentes ao produto e suas condições de uso (p. ex., mate-
organização da informação.
rial impresso, manual on-line);
Figura 3. Categorias de critérios de avaliação de • Navegação – permite ao usuário saber onde onde ele
softwares educativos. está no ambiente do programa, aonde pode ir, como re-
Fonte: com base em Silva, 2002. tornar, qual o caminho percorrido até então;

448
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.

• Interatividade – refere-se a grau de controle sobre o sis- • Desempenho – tempo suficiente para executar um con-
tema no momento em que o aprendiz se depara com a junto especificado de tarefas;
possibilidade de tomar iniciativas partilhadas; • Contagem de erros – número de erros cometidos, ou
• Grafismo – habilidade da interface na comunicação ao tempo necessário para corrigir erros;
usuário do funcionamento dos objetos gráficos que o • Versatilidade ou funcionalidade – número de diferentes
guiam em sua interação;
procedimentos que o sistema pode adotar;
• Organização das mensagens – equilíbrio de mensagens
• Avaliação geral – combinações de duas ou mais avalia-
linguísticas e audiovisuais, favorecendo a construção
ções anteriores.
das representações pertinentes.
Por fim, Nielsen (1993) associa os seguintes atributos
operacionais de usabilidade:
2.1.1 Usabilidade de material didático digital
• Facilidade de aprendizagem – o sistema deve ser fácil de
Squires e Preece (1996) ressaltam a importância de a
aprender, de modo que o usuário possa começar rapi-
avaliação de material didático digital levar em conta tanto
damente algum trabalho;
a aprendizagem quanto a usabilidade, buscando a integra-
ção dos dois aspectos. Por isso, enfocamos de forma mais • Eficiência – uma vez o usuário treinado, o sistema deve
detalhada neste tópico a usabilidade de material didático ser eficiente para ser utilizado de forma a atingir níveis
digital. de produtividade elevados na realização das tarefas;
De acordo com Jokela et al. (2003) a definição de usa- • Facilidade de memorização – a operação do sistema
bilidade da ISO 9241-11 tornou-se a principal referência. deve ser fácil de lembrar, de forma que após um perío-
Usabilidade é definida por essa norma como sendo a efi- do de tempo sem utilizá-lo o usuário consiga retornar e
cácia, a eficiência e a satisfação com que os usuários alcan-
realizar suas tarefas sem a necessidade de reaprender a
çam seu objetivo executando uma tarefa em determinado
interagir com ele;
ambiente.
Alguns autores propuseram definições mais operacio- • Baixa taxa de erros – o sistema deve ter um índice de er-
nais do termo, utilizando a avaliação de sistemas informati- ros baixo, de modo que os usuários realizem suas tare-
zados. Nesse sentido, Shackel (1991), por exemplo, propôs fas sem dificuldades, cometendo poucos erros durante
a seguinte definição operacional de usabilidade: sua utilização;
• Eficácia – uma gama especificada de tarefas deve ser • Satisfação – o sistema deve ser agradável de usar, de
cumprida por uma porcentagem especificada de usuá- forma que os usuários considerem satisfatória a sua
rios dentro de uma proporção determinada de ambien- utilização.
tes de uso; No contexto educacional, por exemplo, essas medi-
• Habilidade de aprendizado – as tarefas devem ser das de usabilidade de Shackel (1991), Chapanis (1991) e
aprendidas pelo usuário do sistema dentro de um de- Nielsen (1993) seriam:
terminado tempo; • Facilidade de aprendizado – ocorre quando o aluno
• Flexibilidade – o sistema deve ser passível de adaptação consegue explorar o software educativo e realizar suas
para algumas variações de tarefa e de ambientes não tarefas;
usuais;
• Eficiência de uso – ocorre quando o aluno, tendo apren-
• Atitude do usuário – a utilização do sistema deve ocor- dido a interagir com o software educativo, consegue
rer dentro de níveis aceitáveis de cansaço, desconforto,
atingir níveis altos de produtividade na realização de
frustração e esforço do usuário; o atendimento aos usu-
suas tarefas;
ários fará com que a utilização do sistema seja melho-
rada progressivamente, de modo a despertar entre esses • Facilidade de memorização – ocorre quando, após um
usuários o desejo de utilizar o sistema. período de tempo sem utilizar o software educativo, o
Um outro exemplo de operacionalização é sugerido por aluno consegue retornar e realizar suas tarefas sem a
Chapanis (1991): necessidade de reaprender a interagir com ele;
• Fácil de abrir – tempo necessário para instalar e iniciar • Baixa taxa de erros – ocorre quando o aluno realiza suas
um sistema (programa instalado e funcionando); tarefas, no software educativo, sem maiores dificuldades
• Fácil de aprender – tempo necessário para aprender ou constrangimentos e é capaz de recuperar erros, caso
como realizar um conjunto de tarefas; eles ocorram;

449
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.

• Satisfação subjetiva – ocorre quando o aluno considera CSEI – Children’s Software Evaluation Instrument
agradável a utilização do software educativo e sente-se (BUCKLEITNER, 1998)
bem utilizando-o novamente. • O que é – ferramenta de avaliação usada para fazer toda
a inspeção do sistema. As seis categorias ajudam a ter
2.2 Instrumentos avaliativos de material didático em mente o que é qualidade de software infantil. Este
digital instrumento permite identificar se o software é fácil
Conforme verificado durante a revisão de literatura con- de usar, se é possível ser controlado pelas crianças, se
duzida no desenvolvimento deste artigo, os instrumentos o conteúdo educacional é sólido, se é divertido e se o
concebidos para a avaliação de materiais didáticos digitais design corresponde às expectativas do usuário.
podem ser classificados em: checklists, diretrizes, escalas de • Quando se aplica – considerado um método de avalia-
avaliação, formulários, questionários e sistemas (Tabela 1). ção somativo, pode ser utilizado antes, durante e depois
Estes instrumentos podem ainda apresentar-se de forma da utilização do software educativo.
híbrida, ou seja, utilizando agrupamentos de técnicas para
• Por quem deve ser aplicado – deve ser utilizado por
identificação dos problemas de usabilidade.
professores.
A seguir apresentamos uma síntese das categorias dos
MAEP – Método de Avaliação Ergopedagógico (SILVA,
instrumentos avaliativos direcionados para materiais didá-
2002)
ticos digitais.
• O que é – instrumento interativo que serve como fer-
2.2.1 Checklists
ramenta de ajuda à avaliação ergopedagógica de PEIs
(Produtos Educacionais Informatizados). Sua concep-
São listas detalhadas de itens a serem checados na pro- ção é baseada na sistematização de um conjunto de cri-
dução de eventos, procedimentos de segurança etc. Podem térios ergonômicos, pedagógicos e comunicacionais.
ser utilizadas para verificação, referência ou como auxílio
na tomada de decisões (CAMBRIDGE INTERNATIONAL • Quando se aplica – aplica-se numa avaliação somativa
DICTIONARY OF ENGLISH, 1995). e prognóstica, ou seja, recomenda-se que seja aplicado
As definições encontradas na área de Ergonomia tam- antes da utilização do software educativo. De acordo
bém fazem referência às listas. Para Stanton (1998), checklist com Silva (2002), se os educadores possuem competên-
é a lista de itens que podem aparecer na forma de questões cia em relação a critérios de aprendizagem, o mesmo
ou ações a serem realizadas. Podem apresentar um siste- não ocorre em termos de usabilidade. Nesse contexto, é
ma de pontuação ou coletar comentários qualitativos. Para necessário dispor de uma ferramenta que lhes permita
Cybis (2003), checklist também pode ser considerado uma efetuar uma avaliação a priori do programa, de maneira
lista de verificação através da qual profissionais, não neces- que tenham uma orientação clara na identificação de
sariamente especialistas em ergonomia, diagnosticam pro- como o dispositivo trata a aprendizagem e de como os
blemas das interfaces. usuários irão compreendê-lo e operá-lo, ou seja, trata-
Durante o desenvolvimento do presente trabalho iden- se de avaliar a integração da usabilidade com o conteú-
tificaram-se os seguintes checklists para avaliação de sof- do e a forma de aprender.
twares educativos: • Por quem deve ser aplicado – sua aplicação foi pensada
para ajudar profissionais de diferentes áreas (educação,
designers, engenheiros, programadores e outros) na
Tabela 1: Instrumentos direcionados para avaliação avaliação de PEIs.
de material didático digital PROINFO – Programa Nacional de Informática na
Categorias de instrumento Quantidade Educação (PROINFO, 2007)
Checklists 4 • O que é o instrumento – relatório apresentado no III
Diretrizes 3 Encontro Nacional do PROINFO proposto pelo MEC,
Escala de avaliação 1 contendo 20 perguntas que orientam o professor numa
Formulários 5 avaliação sobre software educativo.
Híbridos 2 • Quando se aplica – método somativo e prognóstico, de-
Questionários 2 vendo ser utilizado antes da utilização do software edu-
cativo em sala de aula. De acordo com o relatório, todo
Sistemas 5
recurso utilizado em sala de aula (incluindo o software
Total 22
educativo) deve passar por análise prévia do professor.

450
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.

• Por quem deve ser aplicado – deve ser aplicado por com o impacto do software. Desta forma, entende-se que
professores. pode ser aplicado em softwares em desenvolvimento e já
TICESE – Técnica de Inspeção de Conformidade concluídos, e também antes, durante e depois da utiliza-
Ergonômica de Software Educacional (GAMEZ, 1998) ção do software educativo em sala de aula.
• O que é – segundo Gamez (1998), diferentemente de • Por quem deve ser aplicado – dependendo do estágio,
outras técnicas, a TICESE tem um enfoque particular pode ser aplicado por profissionais de diferentes áreas
sobre a ergonomia de software aplicada a produtos edu- do conhecimento: educadores, pesquisadores, gerentes,
cacionais informatizados. De acordo com o autor, a téc- programadores, designers, público alvo e outros.
nica orienta o avaliador para a realização de inspeção Hanna, Risben e Alexander (1997) – diretrizes para
de conformidade ergonômica do software. Desta forma, teste de usabilidade com crianças.
são considerados tanto os aspectos pedagógicos como • O que é – a aplicação do conjunto de diretrizes visa fa-
os aspectos referentes à interface do produto. cilitar a realização de testes de usabilidade com crianças
• Quando se aplica – considerada uma técnica somativa das seguintes faixas etárias: pré-escolares (2 a 5 anos);
(software já concluído), pode ser aplicada antes e duran- do ensino fundamental (6 a 10 anos); e do ensino fun-
te a utilização do software educativo em sala de aula. damental e médio (11 a 14 anos).
• Por quem deve ser aplicado –

U
sugere-se que a TICESE seja
aplicada por avaliadores, pre-
m trabalho contínuo de avaliação centrada no
ferencialmente uma equipe
multidisciplinar, com alguma
usuário pode ser uma boa estratégia para assegurar
experiência na utilização de
PEIs em ambiente escolar. O
a qualidade do material didático digital.
autor sugere também que na
equipe de avaliação haja um
profissional com conhecimentos em ergonomia de IHC • Quando se aplica – os autores defendem a idéia de en-
(Interação Humano-Computador), tendo em vista o volver o usuário (criança) no processo de design, mas é
enfoque sobre a usabilidade. possível também aplicar o instrumento ao uso de pro-
2.2.2 Diretrizes dutos já concluídos.
São conjuntos de instruções ou indicações para se levar • Por quem deve ser aplicado – acredita-se que tanto na
a termo um plano ou uma ação. São informações com a avaliação formativa quanto na somativa o avaliador (de-
intenção de orientar as pessoas sobre o que deve ser feito e signers, desenvolvedores, psicólogos, pedagogos, profes-
como (PROCHTER, 1995). sores e outros profissionais) precisa ter conhecimentos e
Perry, Andrade Neto e Amaral (2005) esclarecem que, experiência em usabilidade para poder aplicar o teste.
para a área de ergonomia, diretrizes são recomendações as Squires e Preece (1999) – prognóstico de qualidade em
quais cabe ao avaliador seguir, elas podem ser encontradas software educacional.
sob a forma de recomendações gerais ou tratando de algum • O que é – o objetivo de Squires e Preece (1999) é sugerir
item específico. diretrizes de uma avaliação antecipada (­prognóstico de
Durante o desenvolvimento deste trabalho identifica- avaliação) para professores, a qual tira partido de ex-
ram-se alguns autores que propuseram diretrizes para con- periências anteriores, trazendo uma visão sociocons-
duzir o processo de avaliação de softwares educativos: trutivista da aprendizagem. A abordagem dos autores
Cronje (1998) – processo de avaliação de software e seu é adaptar noções de “avaliação heurística” introduzidas
efeito na aprendizagem. por Molich e Nielsen (1990) como parte de um exercí-
• O que é – modelo de sistematização de projeto que en- cio de avaliação de usabilidade.
volve não apenas critérios da concepção mas também • Quando se aplica – de acordo com Squires e Preece (1999),
de avaliação em todas as etapas de desenvolvimento do as heurísticas podem ser aplicadas somente como uma
projeto de softwares interativos. avaliação adiantada, ou seja, como um instrumento
• Quando se aplica – é um processo de avaliação de softwa- prognóstico de avaliação, antes da utilização no contex-
re envolvendo vários estágios, ou seja, desde o reconhe- to educacional.
cimento das necessidades da avaliação, passando pela • Por quem deve ser aplicado – direcionado para pro-
avaliação formativa e avaliação somativa e finalizando fessores. O propósito das heurísticas é encorajar os

451
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.

avaliadores a focarem sistematicamente todos os as- usuário possa introduzir ou modificar informações (NOVO
pectos de design do software educacional. O processo DICIONÁRIO ELETRÔNICO AURÉLIO, 2004).
da avaliação heurística requer que os professores revi- Conforme Cervo e Bervian (1996), o formulário é uma
sem o ­software, o seu conhecimento de como deveriam lista informal, catálogo ou inventário, destinado à coleta de
apresentar o software a seus alunos e de como os alunos dados resultantes de observações ou interrogações, cujo
aprendem, assim o professor faz um julgamento do sof- preenchimento é feito pelo próprio investigador. De acor-
tware pelos seus propósitos educacionais. do com SILVA (2005), o formulário é muito semelhante ao
questionário. O que diferencia um do outro é o modo de
2.2.3 Escalas de avaliação aplicação. Enquanto o questionário é entregue para o in-
formante responder sozinho, o formulário é preenchido
Segundo Lakatos e Marconi (2002), escala é um instru-
pelo pesquisador, o qual pergunta e assinala as alternativas
mento científico de observação e mensuração dos fenôme-
dadas pelo respondente.
nos sociais. É importante destacar que a escala de avaliação
Durante o desenvolvimento do trabalho, identifica-
considerada nessa classificação pode ser comparada à es-
ram-se os seguintes formulários para avaliar softwares
cala de diferencial semântico, ou seja, o avaliador mostra
educativos:
a posição de sua atitude em relação ao objeto da pesqui-
ASE – Avaliação de Software Educativo – Ficha de
sa em uma escala na qual as extremidades são compostas
Registro (VIEIRA, 1999)
por pares de adjetivos/frases bipolares. A aplicação das
escalas de diferencial semântico para produtos diferentes • O que é o instrumento – o formulário ASE é uma su-
permite a construção de gráficos de análise comparativos. gestão para auxiliar os professores a registrarem suas
Mattar (2001) lembra que se pode atribuir ou não valores observações sobre avaliação de um software de uso edu-
numéricos a esse tipo de escala. cacional, levando em consideração aspectos pedagógi-
No desenvolvimento do trabalho identificou-se apenas cos e técnicos.
uma obra que propõe a avaliação de software educativo • Quando se aplica – instrumento de avaliação somativa
utilizando-se de uma escala: e prognóstica. Deve ser aplicado antes da utilização do
Reeves e Harmon (1996) – avaliação para multimídia software educativo em sala de aula.
educacional. • Por quem deve ser aplicado – o formulário deve ser uti-
• O que é – Reeves e Harmon (1996) descrevem duas lizado por professores.
dimensões complementares para avaliar programas ESEF – Educational Software Evaluation Form
multimídia interativos para educação e treinamento. (ISTE, 2002)
A primeira abordagem é baseada em um conjunto • O que é o instrumento – o objetivo deste formulário é
de 14 dimensões pedagógicas. A segunda é baseada fornecer aos professores um guia de avaliação focado
em um conjunto de dez dimensões da utilização da no uso educacional do meio tecnológico. Este formu-
interface. Os autores acreditam que explicações so- lário pode ser usado para software, site, CR-ROM ou
bre dimensões pedagógicas e de interface de mul-
qualquer outro meio baseado em tecnologia para ser
timídia interativa podem beneficiar todas as partes
usado com estudantes.
envolvidas no design, reconhecimento e uso desses
sistemas. • Quando se aplica – avaliação somativa. Deve ser aplica-
da antes da utilização do software educativo em sala de
• Quando se aplica – considerado um método somativo,
aula.
visto que o exemplo de aplicação do método tratado
pelos autores é para softwares já concluídos. Deve ser • Por quem deve ser aplicado – o formulário deve ser
aplicado antes da utilização do software educativo em aplicado por professores.
sala de aula. PCEM – Plantilla para la Catalogación y Evaluación
• Por quem deve ser aplicado – por ter dimensões pe- Multimedia (GRAELLS, 2001)
dagógicas como critério no método, acredita-se que a • O que é o instrumento – o formulário está estruturado
aplicação seja recomendada para professores, mas tam- em três partes: identificação do contexto; avaliação dos
bém para desenvolvedores. aspectos técnicos, pedagógicos e funcionais; quadro de
avaliação geral.
2.2.4 Formulários • Quando se aplica – instrumento de avaliação somativa,
Janela ou documento que apresenta informações pode ser usado antes da aplicação do software educativo
de forma diagramada e que possui campos para que o no contexto educacional.

452
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.

• Por quem deve ser aplicado – direcionado para para a definição da qualidade durante o processo de de-
professores. senvolvimento do software educacional e na seleção de
SEF – Software Evaluation Form (SCHROCK, 2000) um produto de software disponível no mercado, ou seja,
• O que é o instrumento – segundo o autor, o formulário recomenda-se a utilização antes da utilização em sala de
SEF foi criado para abranger os aspectos mais usados aula.
pelo professor no momento da escolha de um software • Por quem deve ser aplicado – o autor esclarece que
educativo. o Manual para Avaliação da Qualidade de Software
• Quando se aplica – instrumento de avaliação somativa, Educacional tem como objetivo orientar os desenvol-
pode ser usado antes da aplicação do software educativo vedores de software e os usuários (professores, alunos e
em sala de aula. mantenedores), que, criticamente, poderão selecionar o
software adequado a seus propósitos.
• Por quem deve ser aplicado – direcionado para MAQSEI – Metodologia de Avaliação de Qualidade de
professores. Software Educacional Infantil (ATAYDE, 2003)
SK – SuperKids – Sample Teacher Review Form
• O que é o instrumento – segundo o autor, a Metodologia
(SuperKids Educational Software Review, 1998)
de Avaliação de Qualidade de Software Educacional
• O que é o instrumento – desenvolvido para atender pro- Infantil denominada MAQSEI fundamenta-se em um
fessores no contexto educacional, não para ser utilizado conjunto de heurísticas, abrangendo aspectos peda-
em condições de laboratório. O objetivo do formulário gógicos e técnicos do programa.

N
Ou seja, inclui tanto os aspectos
o contexto de avaliação de materiais didáticos da usabilidade quanto de ensino-
aprendizagem.
digitais, o professor participa como usuário direto e • Quando se aplica – de acordo
com Atayde (2003), a metodologia e
indireto. as heurísticas podem ser utilizadas
em avaliações formativas, colabo-
rando para que o desenvolvimento
é trazer o avaliador (professor) o mais perto possível descubra defeitos e modificações necessárias no pro-
do ambiente real em que os softwares educativos são grama, ou em avaliações somativas, como ferramenta
utilizados. de apoio a escolas, pais ou interessados na escolha do
• Quando se aplica – ­instrumento de avaliação somativa, software educacional infantil a ser utilizado pelas crian-
pode ser usado antes da aplicação do software educativo ças. Recomenda-se que seja utilizado antes e durante a
no contexto educacional. utilização em sala de aula.
• Por quem deve ser aplicado – direcionado para • Por quem deve ser aplicado – pode ser usada por pro-
professores. fissionais da área de educação, informática e afins que
desejem avaliar a qualidade de software educacional in-
2.2.5 Híbridos fantil. Os testes devem ser aplicados por profissionais
mas o software deve estar sendo utilizado por crianças.
Consideramos como instrumentos avaliativos híbridos
os agrupamentos de técnicas diferentes para identificação 2.2.6 Questionários
dos problemas de usabilidade.
Questionário é uma série de questões ou perguntas,
No desenvolvimento deste trabalho identificaram-se
um interrogatório (NOVO DICIONÁRIO ELETRÔNICO
os seguintes instrumentos avaliativos híbridos para avaliar
AURÉLIO, 2004). Para Silva (2005) e Marconi e Lakatos (2002),
softwares educativos:
questionário é um instrumento de coleta de dados constituí-
MAQSE – Metodologia para Avaliação da Qualidade
do por uma relação de perguntas que o entrevistado responde
de Software Educacional (CAMPOS, 1994)
sozinho, assinalando ou escrevendo as respostas.
• O que é o instrumento – metodologia para avaliação Na literatura da ergonomia, Hom (1998) acrescenta
da qualidade do software educacional em duas fases: (a) que os questionários são listas de questões distribuídas
desenvolvimento e (b) utilização do produto. aos usuários, exigindo mais esforço por parte deles, pois é
• Quando se aplica – o Manual para Avaliação da necessário que preencham o questionário e o devolvam ao
Qualidade de Software Educacional oferece subsídios pesquisador.

453
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.

Durante o desenvolvimento do trabalho, identificaram- maior preparação dos professores para a análise crítica,
se os seguintes questionários para avaliação de softwares avaliação e utilização de produtos multimídia.
educativos: • Quando se aplica – aplica-se a softwares educativos já
IAQSEM – Instrumento de Avaliação da Qualidade concluídos, antes da sua utilização em sala de aula.
para Software Educacional de Matemática (GLADCHEFF,
2001) • Por quem deve ser aplicado – a avaliação concentra-se
nos professores por trazer questões pedagógicas, entre-
• O que é o instrumento – o objetivo de Gladcheff (2001) tanto percebe-se que pode ser utilizado por profissio-
foi propor uma ferramenta de avaliação na forma de nais de outras áreas do conhecimento.
questionários, baseando-se tanto em aspectos técni-
cos como em conceitos e princípios de qualidade de
2.2.7 Sistemas
­software ligados à educação. A autora procurou nes-
Sistemas são programas destinados a realizar funções
te questionário envolver isoladamente produtos de
específicas. A partir dessa definição, consideramos os sis-
­software direcionados ao aprendizado de matemática temas como ferramentas multimídia para avaliação de
para alunos do ensino fundamental. Procurou, tam- produtos educativos com o propósito de auxiliar o usuário
bém, enfocar aspectos específicos para diferentes tipos no processo da avaliação qualitativa e seleção de software
de software educacionais (tutorial, exercício e prática,educacional. Geralmente são disponibilizados através de
jogo pedagógico, simulação e sistema hipermídia). ­CD-ROMs ou pela web, podendo apresentar perguntas
abertas e fechadas.

S
No decorrer deste trabalho,
quires e Preece (1996) ressaltam a importância da identificaram-se os seguintes sis-
temas para avaliação de softwares
avaliação de material didático digital levar em conta educativos:
CASE – Comunidade de Análise
tanto a aprendizagem quanto a usabilidade de Software Educativo (LYRA et al.,
2003)
• Como funciona o sistema – o CASE permite a criação
• Quando se aplica – avaliação somativa. Deve ser aplica- de um ponto de encontro para uma comunidade de
da antes da utilização do software educativo em sala de profissionais (educadores e designers) interessados na
aula. A utilização do instrumento possibilitará a avalia- análise (classificação e avaliação) e design de softwares
ção de produtos de software educacional, a fim de que educativos. Esses profissionais poderão apreciar e ana-
seja reconhecido o quão aplicável este produto pode ser, lisar avaliações de diversos softwares educativos.
dentro dos objetivos traçados pelo professor, de forma • Quando se aplica – a softwares já concluídos, pode ser
a agregar valor ao ambiente de ensino-aprendizagem de utilizado antes, durante e depois no contexto educacio-
matemática no ensino fundamental. nal. Um usuário cadastrado no sistema poderá fazer o
cadastramento de um software educativo relevante. Esse
• Por quem deve ser aplicado – o instrumento não é exclu- software é cadastrado pela informação da URL na qual
sivamente dirigido a professores, uma vez que também ele se encontra disponível. Após o cadastro, o mesmo
se pode ter como prováveis consumidores e, portanto, ficará disponível para consultas e posteriores análi-
interpretadores da avaliação, outros perfis, como pe- ses (classificação, avaliação e relatos de experiência de
dagogos, administradores escolares ou mesmo pais. A qualquer usuário).
autora espera que seja mais efetivo numa classificação • Por quem deve ser aplicado – designers e professores.
elaborada sob a ótica dos professores de matemática, De acordo com Lyra et al. (2003), o ambiente poderá
tendo em vista que os vários questionamentos abordam atrair tanto professores como designers de software. Os
conceitos ligados à área educacional, dificultando o en- primeiros relatando experiências próprias e adquirindo
tendimento por parte de público menos especializado. as de colegas; os segundos observando a forma de uso e
PEDACTICE (COSTA, 1999) a análise crítica de profissionais que usam esse material
para informar-se e produzir melhores aplicações.
• O que é o instrumento – tem como objetivo ajudar MEMI – Méthode pour l’Évaluation de Multimedia
os professores na avaliação, seleção e uso de progra- Interactive (HÛ; CROZAT; TRIGANO, 2001)
mas multimídia numa perspectiva multidimensional. • Como funciona o sistema – instrumento de avaliação de
Através da Descrição Detalhada da Aplicação e Ficha aplicações multimídia cujo princípio consiste em obter
de Síntese do Potencial Pedagógico espera-se uma a opinião subjetiva de usuários não especialistas sobre

454
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.

as características das interfaces. O objetivo do instru- SOFTMAT – Repositório de softwares para matemática
mento é encontrar um equilíbrio entre a avaliação, con- do ensino médio (BATISTA, 2004)
siderando os dados objetivos e aqueles orientados para • Como funciona o sistema – o SOFTMAT é um repositó-
os critérios subjetivos. rio de softwares cujo intuito é contribuir para o trabalho
• Quando se aplica – acredita-se ser uma avaliação so- dos professores, incentivando atitudes mais abertas e ao
mativa devido ao detalhe de obter a opinião subjetiva mesmo tempo mais conscientes e críticas com relação à
dos usuários não especialistas sobre as características utilização das TIC em educação.
das interfaces. Desta forma, deve ser utilizado antes e • Quando se aplica – método de avaliação somativo dire-
durante a aplicação do software em sala de aula. cionado para a utilização antes da aplicação do software
• Por quem deve ser aplicado – segundo Silva (2002), o educativo em sala de aula.
público alvo é o professor não especialista ou qualquer
• Por quem deve ser aplicado – professores de matemáti-
pessoa que deseje aprender a avaliar.
ca do ensino médio.
MEDA – Sistema Multimídia para Avaliação de
Produtos Educativos (MEDA, 2002)
• Como funciona o sistema – o MEDA 97 é um sistema 3. DISCUSSÃO
multimídia de ajuda à avaliação de produtos educativos.
Permite a cada avaliador (projetista, difusor, usuário/ De modo geral, os instrumentos avaliativos podem
professor) construir uma grade de avaliação adaptada às ser empregados em três ciclos do processo de design: no
necessidades de averiguação identificadas por cada um. projeto propriamente dito (no qual, p. ex., o designer está
• Quando se aplica – pode ser utilizado na avaliação so-
mativa e formativa assim como antes, durante e depois
da aplicação do software educativo em sala de aula. De
acordo com Silva (2002), os resultados são produtivos
para as práticas de concepção, de utilização e de difusão
do produto, elementos constitutivos dos polos de inte-
resse para a realização de avaliação.
Design
• Por quem deve ser aplicado – professores, especialistas
em conteúdo, especialistas em comunicação, avalia-
dores, diretores de centros de recursos, responsáveis
institucionais, consultores, produtores, distribuidores, MAEP
diretores de marketing, designers, programadores. PROINFO
SASE – Sistema de apoio à avaliação de software educa- Squires & Preece
Reeves & Harmon
cional (BEAUFOND; CLUNIE, 2000) ASE
ESEF
• Como funciona o sistema – tem o propósito de auxiliar PCEM
o usuário no processo de avaliação da qualidade para a SEF
Implementação
SK
seleção de software educacional que será incorporado à IAQSEM
escola. PEDACTICE
SOFTMAT
• Quando se aplica – pode ser utilizado na avaliação so-
mativa e formativa. E está direcionado para a utiliza- Planejamento
ção antes da aplicação do software educativo em sala de MAQSE
Aplicação SASE
aula.
• Por quem deve ser aplicado – a ferramenta visa ajudar TICESE MAQSEI
MEMI Avaliação
professores e equipe pedagógica de instituições de en-
CSEI Uso Cronje
sino na avaliação e seleção dos diversos produtos de CASE Hanna
software educacional (tutoriais, exercícios e práticas, MEDA
simulações, jogos e sites na web) que conformarão o Professor
Desenvolvedor
acervo escolar considerando quatro visões: a do profes- Especialista
sor ou especialista de conteúdo, a do orientador peda-
gógico, a do especialista em comunicação visual e a do Figura 4: Instrumentos avaliativos utilizados no processo
especialista em informática. de design e utilização do material didático digital

455
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.

trabalhando no desenvolvimento de um software educativo Vale ressaltar que o foco deste trabalho não está na
de acordo com recomendações ergonômicas), na imple- avaliação da aprendizagem mas no processo de esco-
mentação (na qual, p. ex., o designer precisa de instrumentos lha de instrumentos avaliativos/critérios de avaliação
avaliativos capazes de avaliar softwares na fase de imple- do material didático digital, a qual ocorre na unidade de
mentação, ou seja, no desenvolvimento das especificações planejamento.
finais do produto/sistema) e na utilização (p. ex., desenvol- Com base no estudo descritivo realizado, verificamos
vimento de mecanismos de teste com usuários, neste caso que os 22 instrumentos contemplam a fase de utilização do
específico envolve o planejamento, a aplicação e avaliação produto. Desses 22, 16 estão concentrados na fase de uti-
realizada na prática docente do usuário professor). lização do produto e somente 6 podem ser utilizados em
Zabala (1998) explica que esses estágios estão forte- todo o processo de design (Figura 4).
mente interrelacionados, constituindo as unidades nome-
adas pelo autor como planejamento, aplicação e avaliação.
O autor afirma ser preciso entender que a prática não pode 4. CONCLUSÕES E DESDOBRAMENTOS
se reduzir ao momento em que se reproduzem os processos
educacionais de aula, ou seja, a intervenção pedagógica tem
um antes, um durante e um depois. O objetivo deste estudo foi discutir a importância da
A unidade de planejamento no contexto educacional avaliação de materiais didáticos digitais apresentando as
caracteriza-se pela preparação antecipada de um conjunto abordagens de avaliação aplicada a esses materiais, assim
de ações, as quais serão aplicadas pelo professor em sala de como mostrar os instrumentos avaliativos passíveis de uti-
aula, tendo em vista atingir determinados objetivos. A uni- lização por professores.
dade de aplicação, por sua vez, visa a execução na prática do Com base nesse estudo descritivo, os desdobramentos
planejamento estabelecido pelo professor. E, por fim, a unida- dessa pesquisa envolvem, em um primeiro momento es-
de de avaliação da aprendizagem, que pode ser considerada colher e testar instrumentos de avaliação com professores
um processo contínuo e sistemático, realiza-se em função dos de áreas distintas. Com base nesses resultados, objetiva-se,
objetivos propostos no planejamento. De acordo com Zabala em um segundo e último momento, propor diretrizes para
(1998), o planejamento e a avaliação dos processos educacio- avaliação de material didático digital, tendo em vista pro-
nais são atividades indissociáveis da atuação docente. fessores do ensino fundamental e médio.

Artigo recebido em 23/01/2009


Aprovado para publicação em 28/06/2009

REFERÊNCIAS
ANDERSON, T. Toward a Theory of Online BEAUFOND, C. E. C.; CLUNIE, G. T. SASE: uma CHAPANIS, A. Evaluating usability. In: SHACKEL,
Learning. Theory and Practice of Online Learning. ferramenta de apoio à avaliação de software educa- B.; RICHARDSON, S. Human factors for infor-
Canadá: Athabasca University, 2004. Disponível cional. In: CONGRESSO IBEROAMERICANO DE matics usability. Cambridge: Cambridge University
INFORMÁICA EDUCATIVA, 5, 2000, Chile. Anais Press, 1991. p. 359-395.
em: <http://cde.athabascau.ca/online_book/ch2.
eletrônicos... Disponível em: <http://www.c5.cl/
html> Acesso em: agosto 2007.
ieinvestiga/actas/ribie2000/>. Acesso em: março COSTA, F. Pedactice: educational multimedia
2007. in school. 1999. Disponível em: <http://www.
ATAYDE, A. P. R. Metodologia de avaliação de quali- fpce.ul.pt/projectos/pedactice> Acesso em:
dade de software educacional infantil – MAQSEI. BUCKLEITNER, W. Children´s Software Evaluation junho 2007.
Belo Horizonte, 2003. 250 f. Dissertação (Mestrado Instrument. 1998. Disponível em: <http://www.
em Ciência da Computação) - Universidade childrenssoftware.com/rating.html> Acesso em: CRONJE, J. The process of evaluating software
Federal de Minas Gerais. novembro 2007. and its effect on learning. Pretoria: Department of
Didactics, University of Pretoria, 1998. Disponível
CAMPOS, G. H. B. Metodologia para avaliação em: <http://hagar.up.ac.za/catts/learner/eel/
BATISTA, S. C. F. Softmat: um repositório de soft- Conc/conceot.htm>. Acesso em: abril 2007.
da qualidade de software educacional. Diretrizes
wares para matemática do ensino média – um
para desenvolvedores e usuários. Rio de Janeiro,
instrumento em prol de posturas mais conscientes 1994. 232 f. Tese (Doutorado em Engenharia CYBIS, W. A. Engenharia de usabilidade: uma abor-
na seleção de softwares educacionais. Campos de Produção) - Universidade Federal do dagem ergonômica. Florianópolis: Laboratório de
Goytacazes, 2004. 202 f. Dissertação (Mestrado Rio de Janeiro. Utilizabilidade de Informática/UFSC, 2003.
em Engenharia de Produção) – Centro de Ciência
e Tecnologia, Universidade Estadual do Norte CERVO, A. L.; BERVIAN, P. A. Metodologia DIX, A. et al. Human-Computer Interaction.
Fluminense. Científica. 4 ed. São Paulo: Makron Books, 1996. London: Prentice Hall, 1998.

456
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.

GAMEZ, L. TICESE: técnica de inspeção de LYRA, A. et al. Ambiente virtual para análise de SCHROCK, K. Software evaluation form.
conformidade ergonômica de software educa- software educativo. In: WIE 2003 WORKSHOP 2000. Disponível em: < http://courses.csusm.
cional. Manual do avaliador. Porto, 1998. 45 f. BRASILEIRO DE INFORMÁTICA EDUCATIVA, 23, edu/educ422dh/wordfiles/ Software%20
Dissertação (Mestrado em Engenharia Humana) 2003, Campinas. Anais... Campinas: SBC, 2003. v. Evaluation%20Form.doc> Acesso em: outubro
- Universidade do Minho. (Parte da Dissertação) V, p. 227-238. 2007.

GLADCHEFF, A. P. Um instrumento de avaliação MATTAR, F. N. Pesquisa de marketing. 3 ed. São SHACKEL, B. Usability – context, framework, defi-
da qualidade para software educacional para Paulo: Atlas, 2001. nition, design and evaluation. In: SHACKEL, B.;
software educacional de matemática. São Paulo, RICHARDSON, S. Human factors for informatics
2001. 212 f. Dissertação (Mestrado em Ciência MEDA - Média Screen CR-ROM, Université de Liége. usability. Cambridge: Cambridge University Press,
da Computação) – Instituto de Matemática e 1997. In: SILVA, C. R. O. MAEP: um método ergope- 1991. p. 21-37.
Estatística, Universidade de São Paulo. dagógico interativo de avaliação para produtos
educacionais informatizados. Florianópolis, 2002. SILVA, C. R. O. MAEP: um método ergopedagógico
224 f. Tese (Doutorado em Engenharia de Produção) interativo de avaliação para produtos educacio-
GRAELLS, P. M. Ficha de Catalogación y Evaluación - Universidade Federal de Santa Catarina. nais informatizados. Florianópolis, 2002. 224 f.
Multimedia. 2001. Disponível em: <http://dewey.
Tese (Doutorado em Engenharia de Produção) -
uab.es/pmarques/dim/revistadigital/dimavam0.
NIELSEN, J. Usability engineering. San Diego, Universidade Federal de Santa Catarina.
rtf> Acesso em: setembro 2007. USA: Academic Press, 1993.
SILVA, M. A. F da. Métodos e Técnicas de Pesquisa.
HANNA, L.; RISBEN, K.; ALEXANDER, K. NOVO Dicionário Eletrônico Aurélio. Curitiba: Curitiba: Ibpex, 2005.
Guidelines for usability testing with children. Editora Positivo, 2004.
Interactions, v. 4, n. 5, p. 9-14, set./out. 1997.
PERRY, G. T.; ANDRADE NETO, A. S.; AMARAL, F. SQUIRES, D.; PREECE, J. Usability and learning:
G. Integrado conhecimentos, aproximando disci- evaluating the potential of educational software.
HOM, J. The usability methods toolbox handbook. Computer and Education, v. 27, n. 1, p. 15-22,
plinas: a importância do design e da ergonomia
1998. Disponível em: <http://jthom.best.vwh.net/ 1996.
no projeto e no desenvolvimento de softwares
usability/> Acesso em: maio 2007. educacionais. Revista Novas Tecnologias na
Educação, v. 3, n. 1, maio 2005. SQUIRES, D.; PREECE, J. Predicting quality in
HÛ, O.; CROZAT, S.; TRIGANO, P. E.M.P.I.: Une educational software: evaluating for learning,
méthode pour l´évaluation de multimedia inter- PROCHTER, P. Cambridge International Dictionary usability and synergy between them. Interacting
active pédagogique. Sciences et techniques of English. Cambridge: Cambridge University with Computers, v. 11, n. 5, p. 467-483, maio
éducatives, v. 8, n. 3-4, 2001. Press, 1995. 1999.

International Society for Technology in Education PROGRAMA NACIONAL DE INFORMÁTICA STANTON, N. Human factors in consumer prod-
– ISTE. Educational Software Evaluation Form. 2002. NA EDUCAÇÃO - PROINFO. Checklist. In: ucts. London: Taylor & Francis, 1998.
Disponível em: <http://cnets.iste.org/teachers/ ENCONTRO NACIONAL DO PROINFO, 3, 1998,
web/t_form_software-eval.html> Acesso em: Pirenópolis. Disponível em: < http://www2.uel.br/
Superkids Educacional Software Review. 1998.
abril 2007. seed/nte/analisedesoftwares.html> Acesso em:
Disponível em: < http://www.superkids.com/
outubro 2007.
aweb/pages/reviews/teacher.html> Acesso em:
JOKELA, T. et al. The standard of user-centered outubro 2007.
REEVES, T. C.; HARMON, S. W. Systematic evalu-
design and the standard definition of usability:
ation procedures for interactive multimedia
analyzing ISO 13407 against ISO 9241-11. In: for education and training. In: REISMAN, S. VIEIRA, F. M. S. Avaliação de software educa-
LATIN AMERICAN CONFERENCE ON HUMAN- Multimedia Computing: preparing for the 21st tivo: reflexões para uma análise criteriosa. 1999.
COMPUTER INTERACTION, 1, 2003, Rio de Century. Hershey, PA: Idea Group Publishing, Disponível em: <http://www.edutecnet.com.br/
Janeiro. Anais... Rio de Janeiro: PUC - Rio, 2003. 1996. p. 472-582. Textos/Alia/MISC/edmagali2.htm>. Acesso em:
p. 53-60. março 2007.
ROCHA, H. da; BARANAUSKAS, M. C. Design
LAKATOS, E. M.; MARCONI, M. A. Fundamentos e avaliação de interfaces humano-computador. ZABALA, A. A prática educativa: como ensinar.
de metodologia científica. São Paulo: Atlas, 1993. Campinas, SP: NIED/Unicamp, 2003. Porto Alegre: Artmed, 1998.

SOBRE OS AUTORES

Katia Alexandra de Godoi


Universidade Federal do Paraná – UFPR
Curitiba - PR, Brasil
e-mail: kategodoi@hotmail.com

Stephania Padovani
Universidade Federal do Paraná – UFPR
Curitiba - PR, Brasil
e-mail: s_padovani2@yahoo.co.uk

457

Você também pode gostar