Escolar Documentos
Profissional Documentos
Cultura Documentos
445-457
Resumo
Neste artigo, discute-se a importância da avaliação de materiais didáticos digitais centrada no usuário. Primeiramente, apresentam-se as abordagens de
avaliação passíveis de aplicação a esses materiais, assim como suas definições e classificações. Em seguida, revisam-se conceitos de usabilidade em
materiais didáticos digitais. Por fim, descreve-se uma série de instrumentos avaliativos passíveis de serem utilizados por professores.
Palavras-chave
Instrumentos avaliativos, material didático digital.
abstract
In this study, we discuss the importance of user-centered evaluation of digital learning materials. First of all, different evaluation approaches
are introduced, as well as their definitions and classifications. Then, concepts of usability in digital learning materials are surveyed. Finally, a
range of evaluation tools subject to use by teachers are described.
Keywords
Evaluation tools, digital learning material.
445
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.
446
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.
Interação aluno-conteúdo – fornece novas oportuni- avaliando ou tomando decisões a respeito do software que
dades ao aluno, incluindo a imersão em microambientes, será utilizado.
exercícios em laboratórios virtuais, desenvolvimento de Avaliação contextual – refere-se à interação
conteúdos interativos, entre outras possibilidades. professor-professor, aluno-professor, aluno-aluno. Desta
Interação professor-professor – cria a forma, este tipo de avaliação precisa necessariamente estar
oportunidade de desenvolvimento profissional, num con-texto de uso, no qual aluno e professor discutem
incentivando os profes-sores a tirar vantagem da (juntos ou individualmente) sobre o software educativo.
descoberta de novos conheci-mentos em seus próprios
Avaliação de codescoberta – ocorre durante a
assuntos e dentro da comunidade acadêmica.
intera-ção professor-professor, aluno-professor, aluno-
Interação professor-conteúdo – o foco desta
aluno. De acordo com Anderson (2004), a teoria
interação está na criação de conteúdos e atividades de
aprendizagem por parte dos professores, permitindo a eles construtivista enfa-tiza a importância da interação em
monitorar e atualizar continuamente os conteúdos das pares na investigação e no desenvolvimento de
atividades que criaram para seus alunos. perspectivas múltiplas. Desta forma auxilia também
Interação conteúdo-conteúdo – novo modo de intera- professores e/ou alunos em suas relações interpessoais
ção educacional no qual o conteúdo está programado para enquanto contribui na avaliação dos softwares educativos.
interagir com outras fontes de informação automatizadas, de Avaliação interativa/participativa – enfatiza a intera-
modo a atualizar-se constantemente a si próprio. ção professor-professor, aluno-professor, aluno-aluno, alu-
Acreditamos que ao modelo de Anderson (2004) po- no-conteúdo, ou seja, permite aos alunos e/ou professores ter
dem-se associar as modalidades de avaliação passíveis de uma postura crítica e colaborativa diante dos conteúdos e
ocorrer em cada uma das interações (Figura 2). participar ativamente do processo ensino-aprendizagem.
Avaliação prognóstica – acontece na interação profes-
sor-conteúdo, considerada por Squires e Preece (1996) uma
avaliação feita antes do uso do software educativo, ou seja,
quando os professores estão fazendo seu planejamento.
Avaliação em grupo – está na interação professor-
professor, aluno-professor, aluno-aluno, ou seja, quan-do aluno - aluno
professores e/ou alunos estão juntos discutindo, aluno
professor
aluno
aluno - aluno
aluno aluno
-
-
conteúdo
professor avaliação
aluno
profe ssor
professor conteúdo
aluno
-
- conteúdo
conteúdo
-
conteúdo
professor
- professor - conteúdo
- professor
professor conteúdo
-conteúdo
Avaliação em grupo
Avaliação contextual
rprofesso
Avaliação participativa/interativa
Avaliação prognóstica
Figura 1: Formas de interação na educação à distância. Figura 2: Formas de avaliação no contexto educacional.
Fonte: Anderson, 2004. Fonte: com base em Anderson, 2004.
447
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.
448
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.
• Interatividade – refere-se a grau de controle sobre o • Desempenho – tempo suficiente para executar
sis-tema no momento em que o aprendiz se depara com a um con-junto especificado de tarefas;
possibilidade de tomar iniciativas partilhadas; • Contagem de erros – número de erros
• Grafismo – habilidade da interface na cometidos, ou tempo necessário para corrigir erros;
comunicação ao usuário do funcionamento dos • Versatilidade ou funcionalidade – número de
objetos gráficos que o guiam em sua interação;
diferentes procedimentos que o sistema pode adotar;
• Organização das mensagens – equilíbrio de
• Avaliação geral – combinações de duas ou mais
mensagens linguísticas e audiovisuais, favorecendo
avalia-ções anteriores.
a construção das representações pertinentes.
Por fim, Nielsen (1993) associa os seguintes atributos
operacionais de usabilidade:
2.1.1 Usabilidade de material didático digital
• Facilidade de aprendizagem – o sistema deve
Squires e Preece (1996) ressaltam a importância de a
avaliação de material didático digital levar em conta tanto ser fácil de aprender, de modo que o usuário possa
a aprendizagem quanto a usabilidade, buscando a integra- começar rapi-damente algum trabalho;
ção dos dois aspectos. Por isso, enfocamos de forma mais • Eficiência – uma vez o usuário treinado, o sistema
detalhada neste tópico a usabilidade de material didático deve ser eficiente para ser utilizado de forma a atingir
digital. níveis de produtividade elevados na realização das tarefas;
De acordo com Jokela et al. (2003) a definição de usa- • Facilidade de memorização – a operação do
bilidade da ISO 9241-11 tornou-se a principal sistema deve ser fácil de lembrar, de forma que após
referência. Usabilidade é definida por essa norma como
um perío-do de tempo sem utilizá-lo o usuário consiga
sendo a efi-cácia, a eficiência e a satisfação com que os
usuários alcan-çam seu objetivo executando uma tarefa retornar e realizar suas tarefas sem a necessidade de
em determinado ambiente. reaprender a interagir com ele;
Alguns autores propuseram definições mais operacio-nais • Baixa taxa de erros – o sistema deve ter um
do termo, utilizando a avaliação de sistemas informati-zados. índice de er-ros baixo, de modo que os usuários
Nesse sentido, Shackel (1991), por exemplo, propôs a realizem suas tare-fas sem dificuldades, cometendo
seguinte definição operacional de usabilidade: poucos erros durante sua utilização;
• Eficácia – uma gama especificada de tarefas • Satisfação – o sistema deve ser agradável de
deve ser cumprida por uma porcentagem usar, de forma que os usuários considerem
especificada de usuá-rios dentro de uma proporção satisfatória a sua utilização.
determinada de ambien-tes de uso; No contexto educacional, por exemplo, essas medi-
• Habilidade de aprendizado – as tarefas devem das de usabilidade de Shackel (1991), Chapanis (1991) e
ser aprendidas pelo usuário do sistema dentro de um Nielsen (1993) seriam:
de-terminado tempo; • Facilidade de aprendizado – ocorre quando o
• Flexibilidade – o sistema deve ser passível de aluno consegue explorar o software educativo e
adaptação para algumas variações de tarefa e de
realizar suas tarefas;
ambientes não usuais;
• Eficiência de uso – ocorre quando o aluno, tendo
• Atitude do usuário – a utilização do sistema deve ocor-
apren-dido a interagir com o software educativo,
rer dentro de níveis aceitáveis de cansaço, desconforto,
frustração e esforço do usuário; o atendimento aos usu- consegue atingir níveis altos de produtividade na
ários fará com que a utilização do sistema seja melho- realização de suas tarefas;
rada progressivamente, de modo a despertar entre • Facilidade de memorização – ocorre quando, após
esses usuários o desejo de utilizar o sistema. um período de tempo sem utilizar o software educativo,
Um outro exemplo de operacionalização é sugerido por o aluno consegue retornar e realizar suas tarefas sem a
Chapanis (1991): necessidade de reaprender a interagir com ele;
• Fácil de abrir – tempo necessário para instalar e • Baixa taxa de erros – ocorre quando o aluno
iniciar um sistema (programa instalado e funcionando); realiza suas tarefas, no software educativo, sem
• Fácil de aprender – tempo necessário para maiores dificuldades ou constrangimentos e é capaz de
aprender como realizar um conjunto de tarefas; recuperar erros, caso eles ocorram;
449
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.
450
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.
451
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.
avaliadores a focarem sistematicamente todos os as- usuário possa introduzir ou modificar informações
pectos de design do software educacional. O processo (NOVO DICIONÁRIO ELETRÔNICO AURÉLIO, 2004).
da avaliação heurística requer que os professores revi- Conforme Cervo e Bervian (1996), o formulário é uma
sem o software, o seu conhecimento de como deveriam lista informal, catálogo ou inventário, destinado à coleta
apresentar o software a seus alunos e de como os alunos de dados resultantes de observações ou interrogações,
aprendem, assim o professor faz um julgamento do sof- cujo preenchimento é feito pelo próprio investigador. De
tware pelos seus propósitos educacionais. acor-do com SILVA (2005), o formulário é muito
semelhante ao questionário. O que diferencia um do
2.2.3 Escalas de avaliação outro é o modo de aplicação. Enquanto o questionário é
entregue para o in-formante responder sozinho, o
Segundo Lakatos e Marconi (2002), escala é um instru-
formulário é preenchido pelo pesquisador, o qual pergunta
mento científico de observação e mensuração dos fenôme-
e assinala as alternativas dadas pelo respondente.
nos sociais. É importante destacar que a escala de avaliação
Durante o desenvolvimento do trabalho, identifica-
considerada nessa classificação pode ser comparada à es-cala
ram-se os seguintes formulários para avaliar softwares
de diferencial semântico, ou seja, o avaliador mostra a
educativos:
posição de sua atitude em relação ao objeto da pesqui-sa em
ASE – Avaliação de Software Educativo – Ficha
uma escala na qual as extremidades são compostas por pares
de adjetivos/frases bipolares. A aplicação das escalas de de Registro (VIEIRA, 1999)
diferencial semântico para produtos diferentes permite a • O que é o instrumento – o formulário ASE é uma
construção de gráficos de análise comparativos. Mattar su-gestão para auxiliar os professores a registrarem
(2001) lembra que se pode atribuir ou não valores numéricos suas observações sobre avaliação de um software de
a esse tipo de escala. uso edu-cacional, levando em consideração aspectos
No desenvolvimento do trabalho identificou-se apenas pedagógi-cos e técnicos.
uma obra que propõe a avaliação de software educativo • Quando se aplica – instrumento de avaliação
utilizando-se de uma escala: somativa e prognóstica. Deve ser aplicado antes da
Reeves e Harmon (1996) – avaliação para utilização do software educativo em sala de aula.
multimídia educacional. • Por quem deve ser aplicado – o formulário deve ser uti-
• O que é – Reeves e Harmon (1996) descrevem lizado por professores.
duas dimensões complementares para avaliar ESEF – Educational Software Evaluation Form
programas multimídia interativos para educação e (ISTE, 2002)
treinamento. A primeira abordagem é baseada em um • O que é o instrumento – o objetivo deste
conjunto de 14 dimensões pedagógicas. A segunda é formulário é fornecer aos professores um guia de
baseada em um conjunto de dez dimensões da avaliação focado no uso educacional do meio
utilização da interface. Os autores acreditam que tecnológico. Este formu-lário pode ser usado para
explicações so-bre dimensões pedagógicas e de
software, site, CR-ROM ou qualquer outro meio
interface de mul-timídia interativa podem beneficiar
baseado em tecnologia para ser usado com estudantes.
todas as partes envolvidas no design, reconhecimento
• Quando se aplica – avaliação somativa. Deve ser
e uso desses sistemas.
aplica-da antes da utilização do software educativo
• Quando se aplica – considerado um método
somativo, visto que o exemplo de aplicação do em sala de aula.
método tratado pelos autores é para softwares já • Por quem deve ser aplicado – o formulário deve
concluídos. Deve ser aplicado antes da utilização do ser aplicado por professores.
software educativo em sala de aula. PCEM – Plantilla para la Catalogación y Evaluación
• Por quem deve ser aplicado – por ter dimensões Multimedia (GRAELLS, 2001)
pe-dagógicas como critério no método, acredita-se • O que é o instrumento – o formulário está
que a aplicação seja recomendada para professores, estruturado em três partes: identificação do contexto;
mas tam-bém para desenvolvedores. avaliação dos aspectos técnicos, pedagógicos e
funcionais; quadro de avaliação geral.
2.2.4 Formulários • Quando se aplica – instrumento de avaliação
Janela ou documento que apresenta informações de somativa, pode ser usado antes da aplicação do
forma diagramada e que possui campos para que o software educativo no contexto educacional.
452
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.
2.2.5 Híbridos
Consideramos como instrumentos avaliativos híbridos
os agrupamentos de técnicas diferentes para identificação
dos problemas de usabilidade.
No desenvolvimento deste trabalho identificaram-se os
seguintes instrumentos avaliativos híbridos para avaliar
softwares educativos:
MAQSE – Metodologia para Avaliação da Qualidade
de Software Educacional (CAMPOS, 1994)
• O que é o instrumento – metodologia para
avaliação da qualidade do software educacional em duas
fases: (a) desenvolvimento e (b) utilização do produto.
• Quando se aplica – o Manual para Avaliação da
Qualidade de Software Educacional oferece subsídios
para a definição da qualidade durante o processo de
de-senvolvimento do software educacional e na
seleção de um produto de software disponível no
mercado, ou seja, recomenda-se a utilização antes da
utilização em sala de aula.
• Por quem deve ser aplicado – o autor esclarece que
o Manual para Avaliação da Qualidade de Software
Educacional tem como objetivo orientar os desenvol-
vedores de software e os usuários (professores, alunos e
mantenedores), que, criticamente, poderão selecionar o
software adequado a seus propósitos.
MAQSEI – Metodologia de Avaliação de Qualidade de
Software Educacional Infantil (ATAYDE, 2003)
• O que é o instrumento – segundo o autor, a
Metodologia de Avaliação de Qualidade de Software
Educacional Infantil denominada MAQSEI fundamenta-
se em um conjunto de heurísticas, abrangendo aspectos
peda-gógicos e técnicos do programa.
2.2.6 Questionários
Questionário é uma série de questões ou perguntas, um
interrogatório (NOVO DICIONÁRIO ELETRÔNICO AURÉLIO,
2004). Para Silva (2005) e Marconi e Lakatos(2002),
questionário é um instrumento de coleta de dados constituí-do por
uma relação de perguntas que o entrevistado responde sozinho,
assinalando ou escrevendo as respostas.
Na literatura da ergonomia, Hom (1998)
acrescenta que os questionários são listas de questões
distribuídas aos usuários, exigindo mais esforço por parte
deles, pois é necessário que preencham o questionário e o
devolvam ao pesquisador.
453
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.
454
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.
455
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.
trabalhando no desenvolvimento de um software educativo Vale ressaltar que o foco deste trabalho não está
de acordo com recomendações ergonômicas), na imple- na avaliação da aprendizagem mas no processo de esco-
mentação (na qual, p. ex., o designer precisa de instrumentos lha de instrumentos avaliativos/critérios de avaliação do
avaliativos capazes de avaliar softwares na fase de imple- material didático digital, a qual ocorre na unidade de
mentação, ou seja, no desenvolvimento das especificações planejamento.
finais do produto/sistema) e na utilização (p. ex., desenvol- Com base no estudo descritivo realizado, verificamos
vimento de mecanismos de teste com usuários, neste caso que os 22 instrumentos contemplam a fase de utilização
específico envolve o planejamento, a aplicação e avaliação do produto. Desses 22, 16 estão concentrados na fase de
realizada na prática docente do usuário professor). uti-lização do produto e somente 6 podem ser utilizados
Zabala (1998) explica que esses estágios estão em todo o processo de design (Figura 4).
forte-mente interrelacionados, constituindo as unidades
nome-adas pelo autor como planejamento, aplicação e
avaliação. O autor afirma ser preciso entender que a prática
4. CONCLUSÕES E DESDOBRAMENTOS
não pode se reduzir ao momento em que se reproduzem os
processos educacionais de aula, ou seja, a intervenção
pedagógica tem um antes, um durante e um depois. O objetivo deste estudo foi discutir a importância da
A unidade de planejamento no contexto educacional avaliação de materiais didáticos digitais apresentando as
caracteriza-se pela preparação antecipada de um conjunto de abordagens de avaliação aplicada a esses materiais, assim
ações, as quais serão aplicadas pelo professor em sala de aula, como mostrar os instrumentos avaliativos passíveis de uti-
tendo em vista atingir determinados objetivos. A uni-dade de lização por professores.
aplicação, por sua vez, visa a execução na prática do Com base nesse estudo descritivo, os desdobramentos
planejamento estabelecido pelo professor. E, por fim, a unida-de dessa pesquisa envolvem, em um primeiro momento es-
de avaliação da aprendizagem, que pode ser considerada um colher e testar instrumentos de avaliação com professores
processo contínuo e sistemático, realiza-se em função dos de áreas distintas. Com base nesses resultados, objetiva-
objetivos propostos no planejamento. De acordo com se, em um segundo e último momento, propor diretrizes
Zabala (1998), o planejamento e a avaliação dos processos para avaliação de material didático digital, tendo em vista
educacio-nais são atividades indissociáveis da atuação docente. pro-fessores do ensino fundamental e médio.
REFERÊNCIAS
ANDERSON, T. Toward a Theory of Online BEAUFOND, C. E. C.; CLUNIE, G. T. SASE: uma CHAPANIS, A. Evaluating usability. In:
Learning. Theory and Practice of Online Learning. ferramenta de apoio à avaliação de software educa- SHACKEL, B.; RICHARDSON, S. Human
Canadá: Athabasca University, 2004. Disponível cional. In: CONGRESSO IBEROAMERICANO DE factors for infor-matics usability. Cambridge:
em: <http://cde.athabascau.ca/online_book/ch2.
INFORMÁICA EDUCATIVA, 5, 2000, Chile. Anais Cambridge University Press, 1991. p. 359-395.
eletrônicos... Disponível em: <http://www.c5.cl/
html> Acesso em: agosto 2007.
ieinvestiga/actas/ribie2000/>. Acesso em: março
COSTA, F. Pedactice: educational multimedia
2007. in school. 1999. Disponível em: <http://www.
ATAYDE, A. P. R. Metodologia de avaliação de quali- fpce.ul.pt/projectos/pedactice> Acesso em:
dade de software educacional infantil – MAQSEI. BUCKLEITNER, W. Children´s Software junho 2007.
Belo Horizonte, 2003. 250 f. Dissertação (Mestrado Evaluation Instrument. 1998. Disponível em:
em Ciência da Computação) - Universidade <http://www. childrenssoftware.com/rating.html> CRONJE, J. The process of evaluating software
Federal de Minas Gerais. Acesso em: novembro 2007. and its effect on learning. Pretoria: Department of
Didactics, University of Pretoria, 1998. Disponível
CAMPOS, G. H. B. Metodologia para avaliação em: <http://hagar.up.ac.za/catts/learner/eel/
BATISTA, S. C. F. Softmat: um repositório de soft-
da qualidade de software educacional. Conc/conceot.htm>. Acesso em: abril 2007.
wares para matemática do ensino média – um
Diretrizes para desenvolvedores e usuários.
instrumento em prol de posturas mais conscientes
Rio de Janeiro, 1994. 232 f. Tese (Doutorado CYBIS, W. A. Engenharia de usabilidade: uma abor-
na seleção de softwares educacionais. Campos em Engenharia de Produção) - Universidade dagem ergonômica. Florianópolis: Laboratório
Goytacazes, 2004. 202 f. Dissertação Federal do Rio de Janeiro. de Utilizabilidade de Informática/UFSC, 2003.
(Mestrado em Engenharia de Produção) –
Centro de Ciência e Tecnologia, Universidade CERVO, A. L.; BERVIAN, P. A. Metodologia DIX, A. et al. Human-Computer Interaction.
Estadual do Norte Fluminense. Científica. 4 ed. São Paulo: Makron Books, 1996. London: Prentice Hall, 1998.
456
Godoi, K. A. Padovani, S. Avaliação de material didático digital centrada no usuário: uma investigação de instrumentos passíveis
de utilização por professores. Produção, v. 19, n. 3, p. 445-457, 2009.
GAMEZ, L. TICESE: técnica de inspeção de LYRA, A. et al. Ambiente virtual para análise de SCHROCK, K. Software evaluation form. 2000.
conformidade ergonômica de software educa- software educativo. In: WIE 2003 WORKSHOP Disponível em: < http://courses.csusm.
cional. Manual do avaliador. Porto, 1998. 45 f. BRASILEIRO DE INFORMÁTICA EDUCATIVA, edu/educ422dh/wordfile s/ Software%20
Dissertação (Mestrado em Engenharia Humana) - 23, 2003, Campinas. Anais... Campinas: SBC, Evaluation%20Form.doc> Acesso em: outubro
Universidade do Minho. (Parte da Dissertação) 2003. v. V, p. 227-238. 2007.
GLADCHEFF, A. P. Um instrumento de avaliação MATTAR, F. N. Pesquisa de marketing. 3 ed. SHACKEL, B. Usability – context, framework,
da qualidade para software educacional para São Paulo: Atlas, 2001. defi-nition, design and evaluation. In:
software educacional de matemática. São Paulo, SHACKEL, B.; RICHARDSON, S. Human
2001. 212 f. Dissertação (Mestrado em Ciência da MEDA - Média Screen CR-ROM, Université de Liége. factors for informatics usability. Cambridge:
Computação) – Instituto de Matemática e 1997. In: SILVA, C. R. O. MAEP: um método ergope- Cambridge University Press, 1991. p. 21-37.
Estatística, Universidade de São Paulo. dagógico interativo de avaliação para produtos
educacionais informatizados. Florianópolis, 2002. 224 SILVA, C. R. O. MAEP: um método ergopedagógico
f. Tese (Doutorado em Engenharia de Produção) - interativo de avaliação para produtos educacio-nais
GRAELLS, P. M. Ficha de Catalogación y Evaluación
Universidade Federal de Santa Catarina. informatizados. Florianópolis, 2002. 224 f. Tese
Multimedia. 2001. Disponível em: <http://dewey.
(Doutorado em Engenharia de Produção) -
uab.es/pmarques/dim/revistadigital/dimavam0. rtf>
NIELSEN, J. Usability engineering. San Diego, Universidade Federal de Santa Catarina.
Acesso em: setembro 2007. USA: Academic Press, 1993.
SILVA, M. A. F da. Métodos e Técnicas de Pesquisa.
HANNA, L.; RISBEN, K.; ALEXANDER, K. NOVO Dicionário Eletrônico Aurélio. Curitiba:
Curitiba: Ibpex, 2005.
Guidelines for usability testing with children. Editora Positivo, 2004.
Interactions, v. 4, n. 5, p. 9-14, set./out. 1997.
PERRY, G. T.; ANDRADE NETO, A. S.; AMARAL, SQUIRES, D.; PREECE, J. Usability and
F. G. Integrado conhecimentos, aproximando learning: evaluating the potential of educational
HOM, J. The usability methods toolbox handbook. software. Computer and Education, v. 27, n. 1,
disci-plinas: a importância do design e da
1998. Disponível em: <http://jthom.best.vwh.net/ p. 15-22, 1996.
ergonomia no projeto e no desenvolvimento de
usability/> Acesso em: maio 2007. softwares educacionais. Revista Novas
Tecnologias na Educação, v. 3, n. 1, maio 2005. SQUIRES, D.; PREECE, J. Predicting quality in
HÛ, O.; CROZAT, S.; TRIGANO, P. E.M.P.I.: educational software: evaluating for learning,
Une méthode pour l´évaluation de multimedia PROCHTER, P. Cambridge International Dictionary usability and synergy between them.
inter-active pédagogique. Sciences et of English. Cambridge: Cambridge University Interacting with Computers, v. 11, n. 5, p. 467-
techniques éducatives, v. 8, n. 3-4, 2001. Press, 1995. 483, maio 1999.
International Society for Technology in Education PROGRAMA NACIONAL DE INFORMÁTICA NA STANTON, N. Human factors in consumer
– ISTE. Educational Software Evaluation Form. 2002. EDUCAÇÃO - PROINFO. Checklist. In: prod-ucts. London: Taylor & Francis, 1998.
Disponível em: <http://cnets.iste.org/teachers/ ENCONTRO NACIONAL DO PROINFO, 3, 1998,
web/t_form_software-eval.html> Acesso em: abril Pirenópolis. Disponível em: < http://www2.uel.br/
Superkids Educacional Software Review. 1998.
2007. seed/nte/analisedesoftwares.html> Acesso em:
Disponível em: < http://www.superkids.com/
outubro 2007.
aweb/pages/reviews/teacher.html> Acesso em:
JOKELA, T. et al. The standard of user-centered outubro 2007.
REEVES, T. C.; HARMON, S. W. Systematic
design and the standard definition of usability:
evalu-ation procedures for interactive
analyzing ISO 13407 against ISO 9241-11. In: VIEIRA, F. M. S. Avaliação de software educa-
multimedia for education and training. In:
LATIN AMERICAN CONFERENCE ON REISMAN, S. Multimedia Computing: tivo: reflexões para uma análise criteriosa. 1999.
HUMAN-COMPUTER INTERACTION, 1, preparing for the 21st Century. Hershey, PA: Disponível em: <http://www.edutecnet.com.br/
2003, Rio de Janeiro. Anais... Rio de Janeiro: Idea Group Publishing, 1996. p. 472-582. Textos/Alia/MISC/edmagali2.htm>. Acesso em:
PUC - Rio, 2003. p. 53-60. março 2007.
SOBRE OS AUTORES
Stephania Padovani
Universidade Federal do Paraná –
UFPR Curitiba - PR, Brasil
e-mail: s_padovani2@yahoo.co.uk
457