Você está na página 1de 156

Estatística

para

Psicólogos
(que não gostam de números)
Copyright © desta edição:
ESETec Editores Associados, Santo André, 2007.
Todos os direitos reservados

Morais, P. R.

Estatística para psicologos (que não gostam de números).


Paulo Rogério Morais. 1a ed. Santo André, SP: ESETec
Editores Associados, 2007.
156p. 21cm
1. Estatística
2. Psicologia

ISBN 85 88303 83 - 3

ESETec Editores Associados

Solicitação de exemplares: comercial@uol.com.br


Trav. João Rela, 120 B – Vila Bastos – Santo André – SP
CEP 09041-070
Tel. 4990 56 83/ 4438 68 66
www.esetec.com.br
Paulo Rogério Morais

Estatística
para

Psicólogos
(que não gostam de números)

ESETec
2007
SUMÁRIO

Apresentação 7
arte
Par ara conhecer a Estatística 11
Para
te 1 – P
Capitulo 1 – Conceitos Básicos 13
– O que é Estatística 13
– População e amostra 15
– Tipos de variáveis 26
– Níveis de mensuração 28
– Fases do método estatístico 36
Capitulo 2 – Estatística Descritiva 42
– Descrevendo variáveis qualitativas 42
– Descrevendo variáveis quantitativas 45
– Descrevendo a simetria de um conjunto
– Descrevendo correlações 62
– Apresentação dos resultados: tabelas e gráficos 64
Capítulo 3 – Estatística Inferencial 67
– Teste de hipóteses 80
– Decisão e erro 84
– Nível de significância 87
– A escolha de um teste estatístico 89
– Testes de significância estatística 92
Par te 2 – P
arte ara empregar a Estatística 111
Para
Capítulo 4 – Psicologia, avaliação em psicologia e estatística: por
que esta união é fundamental? 113
Makilim Nunes Baptista
Capitulo 5 – Análise fatorial 123
Altemir José Gonçalves Barbosa
Capitulo 6 – Análise de dados com o computador: breve descrição
dos programas atualmente disponíveis 137
Marcos Aguiar de Souza e Israel Souza
APRESENTAÇÃO

Com quase toda certeza (e a Estatística lida com “quase


certezas”) você, assim como eu e tantos outros psicólogos e estu-
dantes de Psicologia, deve ter ficado no mínimo surpreso ao se
deparar com a disciplina de Estatística em um curso que é tido por
alguns como ligado às ciências humanas ou considerado por ou-
tros como relacionado às ciências biológicas, mas nem de longe
um curso associado às ciências ditas exatas.
Só bem mais tarde, quase terminando a graduação, quando
preparava meu trabalho de conclusão de curso, pude perceber por-
que um psicólogo, da mesma forma que muitos outros profissio-
nais, precisa saber lidar com os conceitos estatísticos. Mas, perce-
ber que se necessita um dado conhecimento não é o mesmo que,
de fato, possuir tal conhecimento. Ao longo de toda a graduação, e
também durante boa parte do meu curso de mestrado, os termos e
conceitos estatísticos pareciam-me uma linguagem esotérica, à qual
somente alguns poucos iluminados poderiam ter acesso.
Infelizmente, em muitos cursos de Psicologia, a Estatística
é uma disciplina ministrada por um professor que, embora domine
os conceitos e cálculos, não consegue estabelecer a ligação entre
a Estatística e a Psicologia, sendo na maior parte dos casos um
professor “emprestado” de outros cursos, como a Matemática ou
alguma outra área que “realmente” lida com números. A conseqü-
ência disto são aulas com linguagem fortemente matemática, com
grande ênfase às fórmulas e pouca atenção ao significado dos con-
ceitos apresentados e, principalmente, nenhuma conexão com a
prática profissional do psicólogo.
Como muitos que se engajam na Psicologia, eu nunca mor-
ri de amores pela Matemática e, quando fui aprender Estatística na
minha graduação, tive aulas justamente com um professor ligado
muito mais à Matemática do que à Psicologia. Resultado: aprendi
Paulo Rogério Morais

fazer alguns dos cálculos, mas não sabia como usar (e interpretar) os
resultados de tais cálculos. A isso alguns dão o nome de “efeito papa-
gaio” – repete muito bem o que se ouve (ou “aprende”), mas não tem
qualquer critica sobre o que está repetindo.
Felizmente, mais tarde, tive a oportunidade de ter aulas de Esta-
tística não com um matemático ou estatístico, mas com um profissio-
nal ligado à área da saúde, na verdade um dentista. O Professor Neil F.
Novo, da UNIFESP, apresentou a mim e a muitos outros a Estatística
não como um amontoado de fórmulas, testes, jargões e conceitos pu-
ramente abstratos, mas como uma ferramenta bastante útil e também
fácil de ser utilizada.
No entanto, simplesmente dispor de uma ferramenta não é o
suficiente. Como qualquer ferramenta, a Estatística precisa ser
“manuseada”, da mesma forma que um martelo ou um alicate. Assim
como um marceneiro precisa saber utilizar suas ferramentas, quem vai
utilizar a Estatística também precisa conhecê-la. Imagine como ficaria
um armário se, no lugar onde deveriam ser fixados parafusos este
marceneiro martelasse alguns pregos. Lamentavelmente, quando o
assunto o é Estatística, parafusos são martelados e poucos se dão
conta disso. Quem não tem nenhum conhecimento da natureza da Es-
tatística ou dos parafusos não é capaz de notar qualquer diferença.
Atualmente, quem precisa utilizar a Estatística em sua vida pro-
fissional ou acadêmica não é mais obrigado a decorar fórmulas gigan-
tescas e saber aplicar tais fórmulas aos seus dados, embora este co-
nhecimento seja algo muito interessante e auxilia a compreensão dos
conceitos estatísticos. Com uma simples calculadora de bolso pode-se
aplicar, de maneira simples e rápida, fórmulas que permitem saber a
média e a dispersão de um conjunto de dados. Além disso, a
popularização dos recursos da informática associada à criação de di-
versos softwares estatísticos, tornou a utilização dos laboriosos recur-
sos da Estatística algo relativamente fácil. Testes estatísticos, com suas
fórmulas assustadoras, podem ser executados rapidamente com o au-
xílio do computador, bastando que os dados sejam introduzidos ade-
quadamente e que sejam dadas as instruções corretas.
Mas de nada adianta dispor de todos estes recursos quando
não se conhecem os conceitos básicos subjacentes. O computador
executa e apresenta os resultados, mas ainda cabe ao humano intro-
duzir os dados em um programa estatístico, dar as instruções a este
programa, entender e interpretar os resultados fornecidos pelo compu-
tador. Ou seja, o computador é somente um executor de cálculos e
nada mais. O mundo ainda precisa de pessoas que saibam interpretar
os resultados apresentados pelo computador.

-8-
Estatística para o curso de Psicologia

Embora existam muitos livros ótimos sobre Estatística, o merca-


do nacional carece de títulos direcionados especificamente a psicólogos
e estudantes de Psicologia, uma parcela da população caracterizada
pela sua aversão a números, fórmulas e tudo mais que seja ligeiramente
ligado à Matemática. O típico profissional ou estudante de Psicologia, ao
consultar um livro clássico de Estatística assusta-se com as fórmulas e
equações e, usando um termo comum a estes profissionais, sofrem um
“bloqueio” generalizado também aos conceitos estatísticos.
Ao contrário de outros profissionais que podem não gostar de
números e exercer suas atividades profissionais sem maiores proble-
mas, constantemente os psicólogos se deparam com situações que
lhes exigem, pelo menos, conhecimentos básicos de Estatística. Seja
lendo o manual de algum instrumento de avaliação psicológica, ou um
artigo em que são apresentados resultados de alguma pesquisa, ou
realizando a análise dos dados de sua pesquisa, ou simplesmente as-
sistindo uma palestra, lá estão os conceitos estatísticos que necessi-
tam ser compreendidos adequadamente. No exercício da profissão,
são relativamente poucas as situações em que o psicólogo está imune
aos números e à Estatística. Da mesma forma que outros profissionais
ligados às ciências da vida, o psicólogo não pode mais se dar ao luxo
de negligenciar o poder da Estatística.
Há algum tempo, leciono Estatística para estudantes de Psico-
logia e, todos os anos, me deparo com alunos assustados ou até hostis
com esta disciplina. É freqüente a indagação: “Mas por que um Psicó-
logo precisa saber disso?”. Como poderá ser constatado na Introdução
deste livro, o relacionamento semântico entre Estatística e Matemáti-
ca, associado aos métodos amplamente utilizados na apresentação
desta última disciplina nos ensinos fundamental e médio, certamente
podem ajudar a explicar esta aversão generalizada.
Neste livro, procurei apresentar a Estatística com uma lingua-
gem desprovida de jargões e, sempre que possível, usando exemplos
ligados aos objetivos práticos da Psicologia. Além disso, não enfatizei
os cálculos (as fórmulas apresentadas nem precisam ser lidas), uma
vez que atualmente o usuário da Estatística precisa dominar seus con-
ceitos e aplicações – como já citei, os cálculos podem ser deixados por
conta do computador. Trata-se de um livro que é propositalmente de
caráter introdutório, mas são apresentadas as indicações bibliográfi-
cas para aqueles leitores que desejarem conhecer de maneira mais
profunda os temas aqui abordados.
Este livro foi dividido em 2 partes, cada uma delas subdivididas
em capítulos. Nos capítulos que compõem a primeira são apresenta-
dos os conceitos básicos da Estatística e as formas de utilizar a Esta-
tística para descrever e analisar conjuntos de dados.

-9-
A segunda parte é composta por capítulos que abordam te-
mas mais específicos. O texto de Makilim N. Baptista aborda a uti-
lização da Estatística na Psicologia, mais exatamente na avaliação
psicológica. Na següência, o capítulo escrito por Altemir J. G. Bar-
bosa descreve um tipo de análise bastante utilizado em pesquisas
psicológicas e também na elaboração de instrumentos de avalia-
ção psicológica, a análise fatorial. E, para finalizar, Marcos A. de
Souza e Israel Souza apresentam e descrevem alguns dos muitos
programas de computador que podem ser empregados para o tra-
tamento estatístico de conjuntos de dados.
Espero que o conteúdo deste livro sirva tanto para mostrar
que a Estatística não é necessariamente só matemática, como tam-
bém auxiliar o leitor a compreender e aplicar melhor os conceitos
estatísticos necessários ao seu exercício profissional ou acadêmico.

Paulo R. Morais
Prof. titular do curso de Psicologia
da UNESC – União das Escolas Superiores de Cacoal
Parte 1

Para conhecer
a Estatística
I. Conceitos básicos

1. O QUE É ESTATÍSTICA?

A palavra estatística tem sua origem no termo em latim


status (estado), empregado originalmente para descrever
assuntos de interesse do Estado. Ainda que a palavra “estatística”
tenha sido empregada da maneira como a conhecemos somente
no final do século XVIII, sabe-se que, cerca de 5000 anos a.C.,
algumas civilizações já efetuavam levantamentos populacionais
com finalidades militares e tributárias. Por caracterizar a estatística
como uma ciência que agrupava as informações de
recenseamentos socioeconômicos e políticos que, em última
análise, eram informações que diziam respeito ao Estado, o então
universitário alemão Gottfried Achenwall ficou conhecido como o
“Pai da Estatística”.
Em um de seus usos mais corriqueiros, o termo pode
significar um conjunto qualquer de dados numéricos, como, por
exemplo, as estatísticas de desemprego, inflação, natalidade,
acidentes e mortes nas estradas em um final de semana
prolongado. De fato, tal significado parece estar fortemente ligado
à origem histórica do termo.
A palavra “estatística” pode ser utilizada em diferentes
contextos e com diferentes significados. De modo geral, o termo
é utilizado com dois significados:
a) estatística – é uma parte da Matemática Aplicada que
fornece métodos e técnicas para coletar, organizar, resumir,
analisar e apresentar conjuntos de informações numéricas.
Neste sentido, a Estatística, é uma ferramenta utilizada por
Paulo Rogério Morais

várias ciências, entre elas a Psicologia, para, entre outras coisas,


tornar compreensíveis e mais confiáveis os resultados de
pesquisas; e
b) estatística – o termo também é empregado (geralmente com
letra minúscula) para referir-se a qualquer parâmetro utilizado para
descrever um conjunto de dados. Por exemplo, a média das
estaturas de um grupo de estudantes é uma estatística, ou as taxas
oficiais de inflação, as estatísticas de desemprego, entre outras.
Por muito tempo, o emprego das técnicas estatísticas ficou
restrito aos recenseamentos estatais. Somente na segunda metade
do século XVII, a estatística foi aplicada para a descrição e análise
de variáveis biológicas. John Graunt, matemático inglês, fez o
levantamento e análise acerca dos nascimentos e mortes ocorridos
em Londres no qual observou, entre outras coisas, que o número de
nascimentos de meninas era maior do que o de meninos e que a
taxa de mortalidade era maior entre as pessoas do sexo masculino
em todas as faixas etárias pesquisadas. Desde então, os biologistas
passaram a dar grande importância à mensuração objetiva dos dados
em suas pesquisas, sofisticando cada vez mais a análise quantitativa
dos fenômenos biológicos. Nas Ciências Biológicas e da Saúde,
costuma-se fazer referência à Bioestatística ao tratar do emprego
de técnicas e métodos da estatística para as Ciências Biológicas.

A Estatística pode ser subdividida com base em seus dois


principais usos:
Estatística Descritiva – é a parte da Estatística usada com o objetivo
de descrever conjuntos de dados utilizando-se de técnicas adequadas
para o resumo e apresentação de tais dados. A Estatística Descritiva
não tem a função, nem o objetivo, de extrapolar as conclusões tiradas
de um pequeno conjunto de dados para conjuntos maiores. Ainda
que muitas pessoas não compreendam adequadamente o significado
de alguns conceitos da Estatística Descritiva, diariamente temos
contato com conceitos como “média”, “normal”, “porcentagens”, e
outros. É raro um jornal ou uma revista semanal não empregar
gráficos ou tabelas para ilustrar as notícias e tornar mais atraentes e
compreensíveis alguns de seus artigos.

Estatística Inferencial – trata-se da parte da estatística que é utilizada


para auxiliar o pesquisador na tomada de decisões, na comparação
de dados de diferentes grupos e generalização de resultados obtidos
de amostras para toda a população. Embora a Estatística Inferencial
seja de fundamental importância na atividade científica e na vida de

- 14 -
Estatística para o curso de Psicologia

qualquer pesquisador, raramente temos contato com este tipo de


Estatística em meios de comunicação de massa ou em nosso dia-a-
dia fora do ambiente científico ou acadêmico. Podemos dizer, sem
corrermos grandes riscos, que as únicas vezes que temos contato
com este tipo de Estatística, fora de tais ambientes, são nas pesquisas
eleitorais. Sempre que são apresentadas as porcentagens de intenções
de votos para o candidato A ou B, são também apresentadas as
margens de erro de tais dados. Estas margens de erro são obtidas
por meio do emprego de técnicas da Estatística Inferencial.

2. POPULAÇÃO E AMOSTRA

Nos mais diferentes campos, o emprego de técnicas estatísticas


baseia-se no tratamento de dados que podem ser obtidos de dois
diferentes conjuntos de elementos: população ou amostra.

2.1 – População (ou universo)


Em Estatística, define-se população como o conjunto
composto por todos os elementos, adequadamente definidos em
função de tempo e espaço, que possuem com uma ou mais
características comuns. Desta forma podemos ter populações
formadas por pessoas, animais de laboratório, dados experimentais,
prontuários, canetas produzidas por uma empresa etc. O número
de elementos que compõe uma população é representado por N
(maiúsculo). Logo, um arquivo contendo os 3.152 prontuários de
pacientes atendidos em um determinado hospital ao longo do mês
de agosto de 2005 é uma população com N= 3.152.
Com base nesta definição, é virtualmente impossível tomar
contato com muitas populações, a menos que seus elementos sejam
definidos em função de tantas características em comum que torne o
N consideravelmente pequeno. Por exemplo, quando se faz referência
à população de estudantes, será impossível se realizar uma pesquisa
com tal população, pois ela é composta por todos os estudantes do
mundo e por todos os indivíduos que, um dia, foram estudantes, no
momento em que possuíam este atributo (ser estudante). Mas se a
população é definida como os estudantes do curso X, matriculados
no ano Y, na escola Z, o número de elementos que possuirão tais
características é limitado e passível de estudo. No entanto, quanto
mais características são empregadas para se definir a população,
mais restritos à tal população são os resultados obtidos.

- 15 -
Paulo Rogério Morais

Além disso, podemos ter populações infinitas, que são


compostas por um número indeterminado de elementos, ou
populações finitas, que são aquelas compostas por um número
claramente delimitado de elementos. Para fins práticos, populações
finitas com N muito grande podem ser consideradas infinitas. Imagine
os estudantes matriculados em escolas públicas no estado de São
Paulo no ano de 2005. Esta população possui um N finito, mas tão
grande e de tão difícil acesso que é mais conveniente considerar
que esta população é virtualmente infinita.

2.2 – Amostra
Independentemente de se pretender estudar características
de populações finitas ou infinitas, geralmente as pesquisas possuem
vários elementos que limitam, ou mesmo, impedem que seja
estudada toda a população. Limitações relacionadas ao tempo,
recursos econômicos e humanos, entre outras, fazem com que os
pesquisadores estudem apenas uma parte da população.
Esta parcela da população que é estudada recebe o nome
de amostra. Conceitualmente, uma amostra é um subconjunto
composto por um número limitado e conhecido de elementos
extraídos da população (o tamanho da amostra, isto é, o número de
elementos ou observações que a compõe, é representado por n –
minúsculo). Na grande maioria das vezes, tal subconjunto é estudado
com o objetivo de tirar conclusões que possam ser generalizadas
para toda a população que o originou.
Para que se possam generalizar as conclusões tiradas de
um pequeno grupo para toda a população, a amostra deve ser
representativa da população que a originou. Para tanto alguns
preceitos devem ser obedecidos:
1. Com base no conhecimento que o pesquisador possui acerca
das características tanto quantitativas quanto qualitativas da
população a proporção de tais características deve ser respeitadas
na constituição da amostra. Como exemplo, imagine a distribuição
por gênero entre os estudantes de Psicologia brasileiros. Vários
levantamentos têm demonstrado que nas universidades brasileiras,
algo em torno de 90% dos estudantes de Psicologia são do sexo
feminino e os cerca de 10% restantes são do sexo masculino. Uma
amostra com n=20, para ser representativa da população de
estudantes de Psicologia brasileiros, precisaria ser constituída por
algo em torno de 18 garotas e 2 rapazes.

- 16 -
Estatística para o curso de Psicologia

2. Os elementos que irão compor a amostra devem ser extraídos


da população aleatoriamente, isto é, ao acaso. A seleção dos
elementos ao acaso deve possibilitar que cada elemento que
compõe a população tenha a mesma chance de ser incluído na
amostra. Com isto, a amostra também se torna imparcial. O
princípio da imparcialidade também deve ser aplicado quando se
pretende alocar elementos em diferentes grupos (por exemplo,
grupo controle e grupo tratado). Este cuidado evita a distribuição
tendenciosa dos elementos nos grupos.
Além disso, a amostra deve ter tamanho adequado. Ainda que,
como regra geral, quanto maior o n, maior seja a chance de se ter uma
amostra representativa da população, muitas vezes o pesquisador
trabalha com uma amostra de tamanho mínimo, seja por questões
éticas, econômicas ou outras. Devemos, ainda, considerar que o uso
de amostras com n de tamanho inadequado podem mascarar os
resultados. Amostras muito pequenas podem deixar que diferenças
importantes não sejam detectadas, e amostras muito grandes podem
fazer com que diferenças que não tenham quaisquer significados
práticos sejam interpretadas como estatisticamente significantes.
Algumas questões importantes devem ser consideradas para
se estabelecer o tamanho das amostras:
a) Variabilidade dos dados: quanto maior a variabilidade dos
dados, maior deve ser o tamanho da amostra.
b) Tamanho da diferença que se pretende localizar: quanto mais sutil
for a diferença que se pretende localizar, maior deve ser a amostra.
c) Tamanho do risco que o pesquisador se dispõe a correr: quanto
menor o risco que o pesquisador pretende correr ao tomar suas
decisões, maior deve ser o tamanho de sua amostra.
Existem técnicas estatísticas que permitem ao pesquisador
estabelecer quantos elementos são necessários para compor sua
amostra. Dado o caráter introdutório deste livro, tais técnicas não
serão abordadas.
Além das limitações já citadas no início desta seção, o uso
de amostras também se justifica por outros motivos, tais como:
– populações finitas com n muito grande só podem ser estudadas
por meio de amostras. Por exemplo, embora o número de ratos
existentes no mundo no momento que se vai fazer um experimento
seja finito, o pesquisador jamais terá acesso a todos os ratos que
existem para que possa sorteá-los e distribuí-los em diferentes grupos.
– o estudo pode acabar com a população, ou inviabilizar estudos
futuros com a mesma população.

- 17 -
Paulo Rogério Morais

– o estudo de uma amostra pode ter mais valor científico do que o


estudo de toda a população. Se um pesquisador pretende estudar
as variáveis relacionadas à prevenção do consumo de drogas entre
estudantes do ensino médio de uma região, as conclusões obtidas
a partir da avaliação cuidadosa de uma amostra serão muito mais
confiáveis do que aquelas obtidas em um levantamento superficial
de dados de toda a população.
O uso de amostras possibilita um tipo de raciocínio científico
bastante utilizado: o raciocínio indutivo. Com este tipo de raciocínio,
podemos chegar a conclusões sobre o todo (a população) a partir
da observação somente de uma fração deste todo (a amostra). Por
exemplo, a partir da observação dos sintomas de estresse presentes
em alguns profissionais que trabalham em uma empresa, podemos
ter uma idéia geral do estresse entre todos os funcionários desta
empresa. É certo que este tipo de raciocínio pode gerar conclusões
equivocadas, mas, com o auxílio de técnicas da estatística inferencial,
podemos pelo menos saber qual o grau de confiança que podemos
depositar em tais conclusões.
Uma crítica feita, à forma indutiva de se fazer ciência, é que
premissas verdadeiras não garantem a verdade de sua conclusão,
uma vez que não foram observadas todas as possibilidades de um
dado fenômeno. Durante a Segunda Guerra Mundial, cães foram
treinados para explodirem tanques de guerra. O treino consistia em
alimentar, repetidas vezes, os animais próximos a tanques. No
entanto, em combate, os cães carregavam consigo, presas às costas,
bombas que eram detonadas quando se aproximavam do tanque
inimigo. Se tivessem a possibilidade de acrescentar mais uma
observação à sua amostra do comportamento “aproximar-se de
tanques”, certamente tais cães teriam outra idéia acerca de tanques
de guerra. Desta mesma maneira, o estresse observado em alguns
funcionários da empresa anteriormente citada, pode não ser
verdadeiro para todos os funcionários da mesma, mas, quando
compreendemos os significados dos conceitos estatísticos e as
limitações da própria Estatística, somos capazes de avaliar mais
criteriosamente as conclusões que nos são apresentadas.

2.2.1 – Seleção de elementos para a(s) amostra(s)

Um dos passos mais importantes em qualquer pesquisa é a


obtenção dos dados a partir de elementos com características que
representem adequadamente a população. Na Psicologia, bem como

- 18 -
Estatística para o curso de Psicologia

em outras ciências, a validade das conclusões de uma pesquisa, e as


generalizações possíveis, estão fortemente ligadas à representatividade
das amostras das quais os dados foram coletados.
Imagine uma pesquisa na qual se fez o levantamento de
consumo de álcool, tabaco e outras substâncias psicoativas entre jovens,
na qual os dados foram coletados junto a um grupo de indivíduos com
características bastante específicas como, por exemplo, freqüentadores
de bares e danceterias. Certamente, a generalização das conclusões
obtidas com tal grupo para a população de jovens terá sérias restrições,
dada à especificidade da amostra utilizada que não contempla
importantes características da população que se pretendeu representar.
Para maximizar a chance de se obter amostras representativas
da população, são utilizadas as técnicas de amostragem. Tais técnicas
são procedimentos utilizados para se extrair da população os elementos
que irão compor a amostra e podem ser divididas em:
• Casuais: com o emprego das técnicas casuais todos os elementos
da população devem ter a mesma probabilidade de serem
selecionados para compor a amostra. Tal definição, muitas vezes,
pode tornar inviável o emprego de amostras obtidas de forma
estritamente casual. Para fins práticos, pode ser considerada casual
toda amostra em que o pesquisador ou o responsável pela coleta
dos dados não tem o poder de “escolher” que elemento irá ou não
fazer parte da amostra.
• Não-casuais: nas amostras obtidas de forma não-casual, os
elementos que compõem a amostra serão aqueles que, de alguma
forma, convém ao pesquisador. A chance de serem incluídos na
amostra não é igual para todos os elementos da população.

Como já foi citado, nas amostras obtidas a partir de técnicas casuais,


todo elemento da população deve ter a mesma chance de ser incluído
na amostra. Isto implica na necessidade de se identificar todos os
elementos que compõem a população, o que nem sempre é uma tarefa
possível ou viável. Como exemplo, imagine que você pretende fazer o
screening (detecção de casos) de sintomas psicopatológicos entre os
habitantes de uma pequena cidade. Onde poderia ser encontrada uma
listagem de todos os habitantes desta cidade? E, se tal lista fosse
encontrada, o que garantiria que ela está atualizada? Será que nesta
lista estão incluídos os eventuais moradores de rua, ou as pessoas que
se mudaram recentemente para esta cidade, foram excluídos os
indivíduos que faleceram ou que se mudaram?

- 19 -
Paulo Rogério Morais

Desta forma, a menos que se disponha de tempo e recursos


humanos e financeiros suficientes para se identificar todos os
elementos da população, quase sempre o uso de amostras obtidas
de maneira rigorosamente casual não é possível. Mas, para respeitar
o princípio da imparcialidade, as técnicas de amostragem casuais
são preferíveis às não-casuais.
A seguir são apresentadas duas técnicas para se obter
amostras de forma casual:

Amostra casual simples


Neste tipo de amostra, os elementos da população são
literalmente sorteados. Com uma listagem contendo todos os
elementos da população, o pesquisador estabelece qual será o
tamanho de sua amostra e faz o sorteio dando a cada elemento a
mesma chance de ser sorteado. Este procedimento é bem parecido
com os sorteios de nomes nas brincadeiras de amigo secreto (ou
oculto), em que pedaços de papel com os nomes dos participantes
são colocados em uma caixa e sorteados. Com populações
pequenas, este pode ser um procedimento bastante prático, mas,
quando trabalhamos com populações compostas por um grande
número de elementos, o mais indicado é o uso de uma tabela de
números aleatórios como a apresentada no quadro 1.1:
Quadro 1.1: Exemplo de tabela de números aleatórios
Colunas 1 2 3 4 5 6 7 8 9 10
Linhas
1 9 8 9 6 9 9 0 9 6 3
2 3 5 6 1 7 4 1 3 2 6
3 4 0 6 1 6 9 6 1 5 9
4 6 5 6 3 1 6 8 6 7 2
5 2 4 9 7 9 1 0 3 9 6
6 7 6 1 2 7 5 6 9 4 8
7 8 2 1 3 4 7 4 6 3 0
8 6 9 5 6 5 6 0 9 0 7
9 6 2 5 7 9 4 3 0 6 6
10 9 6 9 2 6 8 0 7 1 3

Para se utilizar tal tabela, cada elemento que compõe a


população deve ser identificado com um (e somente um) número e
o pesquisador estabelece algum método para buscar na tabela,
aleatoriamente, os números de identificação dos elementos que irão
compor a amostra (por exemplo, fechar os olhos e colocar o dedo
sobre a tabela). No entanto, o uso de algum programa de
computador que faça o sorteio de elementos a partir de uma listagem
pode poupar bastante trabalho.

- 20 -
Estatística para o curso de Psicologia

Amostra sistemática
Esta técnica de amostragem apresenta uma grande vantagem
sobre a técnica casual simples: não é necessário ter a identificação
de cada elemento da população para posterior sorteio. Mesmo assim,
o princípio da imparcialidade é mantido, pois o pesquisador não tem o
poder de “escolher” qual elemento irá compor ou não sua amostra.
Para se obter este tipo de amostra o pesquisador estabelece
uma regra, geralmente numérica, que ira obedecer para realizar a
seleção dos elementos que irão compor a sua amostra. O pesquisador
pode, por exemplo, estabelecer que ira coletar os dados de um a cada
cinco elementos. Desta forma, todo quinto elemento contado terá seus
dados coletados. Imagine um pesquisador que pretende fazer o
levantamento do tempo médio de espera de pacientes para serem
atendidos em uma clínica escola usando uma amostra composta por
25% dos pacientes que estão na lista de espera. Com os prontuários
de tais pacientes em mãos, o pesquisador pode coletar os dados de
um a cada 4 prontuários contados. A figura 1.1 ilustra este sistema:

Prontuário
23
Prontuário
22
Prontuário Prontuário
21 20
Prontuário
19
Prontuário
18 Prontuário
Prontuário
17 16
Prontuário
15
Prontuário
14
ProntuárioProntuário
13 12
Prontuário
11
Prontuário
10
Prontuário
Prontuário
9 8
Prontuário
7
Prontuário
6
ProntuárioProntuário
5 4
Prontuário
3
Prontuário
2
Prontuário
1

Figura 1.1 – Exemplo de amostragem sistemática

- 21 -
Paulo Rogério Morais

A partir da regra estabelecida, o pesquisador coletará dados


somente dos prontuários em destaque na figura. Ele não tem qualquer
poder sobre a escolha de qual prontuário estará, por exemplo, na
quarta ou na décima segunda posição. É claro que, neste caso,
para usar tal regra o pesquisador deverá saber como tais prontuários
foram ordenados. Se estiverem ordenados de acordo com a data
de entrada, o pesquisador irá obter resultados que podem não refletir
a realidade, pois os primeiros estarão a mais tempo esperando
atendimento do que os últimos.
Com o uso de uma técnica sistemática, o pesquisador não
necessita que os elementos estejam identificados. Além disso, o
pesquisador não tem o poder de determinar qual elemento estará
ocupando a posição determinada pelo seu sistema, o que confere
imparcialidade na composição de amostras obtidas de maneira
sistemática. Um pesquisador que pretende avaliar a sintomatologia
depressiva de puérperas em um posto de vacinação pode, por exemplo,
estabelecer que irá coletar os dados de toda oitava mãe que chegar ao
posto e concordar em participar da pesquisa. O pesquisador não tem
qualquer controle sobre quem será esta oitava mãe a chegar ao posto.
Vale lembrar que, usando ainda este exemplo, nem toda
oitava mãe estará obrigada a aceitar participar da pesquisa e, na
impossibilidade de se coletar os dados de um dos elementos que a
regra pré-determinou, devemos sempre estabelecer também uma
regra que corrija esta situação, isto é, uma regra que será empregada
caso a primeira falhe ou mostre-se inviável. Esta regra de correção
deve ser estabelecida no mesmo momento em que se estabelece a
regra para a obtenção dos elementos amostrais.
Da mesma forma que na amostragem casual simples, os
elementos que irão compor uma amostra sistemática não são, a
priori, escolhidos por quem coleta os dados.
A seguir são apresentados dois tipos de amostras que nem
sempre serão representativas da população, mas que são bastante
utilizadas e, quando compostas com o uso de alguma técnica casual,
podem produzir resultados válidos para os objetivos de muitos estudos.

Amostra estratificada (ou proporcional)


Neste tipo de amostra, a população é dividida em subgrupos
(estratos) dos quais os elementos que formarão a amostra poderão
ser extraídos de forma casual ou sistemática. Como exemplo, imagine
que um pesquisador deseja avaliar a aceitação da liberação do aborto
pelos estudantes de Psicologia de uma universidade. O pesquisador
pode julgar que o sexo do sujeito pode ser uma variável que

- 22 -
Estatística para o curso de Psicologia

influenciará seus resultados. Desta forma, o pesquisador pode


estabelecer que sua amostra será dividida em diferentes estratos:
rapazes e garotas. Após identificar os estratos, os elementos que
irão compor cada estrato podem ser selecionados da população por
meio de um sorteio ou obedecendo algum sistema.
Vale salientar que, para ser uma amostra rigorosamente
representativa da população, as proporções dos estratos devem ser
semelhantes às da população. Se, no Brasil, somente 10% dos
estudantes de Psicologia são do sexo masculino, o estrato da amostra
composto pelos rapazes deverá corresponder a algo em torno dos
10% do número total de elementos da amostra.
Entretanto, para os objetivos da pesquisa proposta, seria
muito mais razoável o pesquisador utilizar uma amostra com um
número semelhante de rapazes e de garotas. Tais adequações ficam
sempre a critério de quem realiza a pesquisa.

Amostra de conveniência
Este tipo de amostra é composto por elementos que estão
facilmente disponíveis ao pesquisador. As amostras de conveniência
são tidas por muitos estatísticos como o exemplo clássico da
amostragem não-casual e fonte de amostras tendenciosas ou
enviesadas, por este motivo é alvo de sérias restrições.
No entanto, a utilização deste tipo de amostra é bastante
comum na área de saúde. Muitas pesquisas são feitas com pacientes
atendidos em um só hospital ou clínica e, não raro, estudantes são
usados como sujeitos controle. Além disso, algumas pesquisas na
área de saúde só são possíveis de serem realizadas quando são
utilizadas amostras que, a rigor, são de conveniência. Se um
pesquisador pretende avaliar aspectos familiares das famílias de
indivíduos esquizofrênicos, ele certamente não terá como listar todos
os elementos que compõem esta população para fazer um sorteio ou
estabelecer um sistema para selecionar os elementos de sua amostra.
Neste caso, o pesquisador poupara tempo, dinheiro e energia
buscando seus sujeitos em algum centro especializado em tratar esta
patologia ou em algum ambulatório de saúde mental. Mesmo dispondo
de todos os recursos necessários, o pesquisador jamais teria contato,
por exemplo, com indivíduos que possuem a doença, mas são
considerados excêntricos ou têm seus sintomas interpretados como
sinal de possessão demoníaca, encosto ou coisas do gênero.
Mas, mesmo trabalhando com amostras que são por definição
de conveniência, o pesquisador pode, e deve, empregar alguma técnica

- 23 -
Paulo Rogério Morais

que priorize a aleatoriedade na seleção dos elementos dos quais que


irá coletar os dados. Do mesmo modo, o pesquisador também precisa
especial prudência na interpretação e apresentação de resultados
obtidos a partir de amostras de conveniência. No exemplo do
pesquisador que pretendia estudar aspectos familiares de portadores
de esquizofrenia, é razoável inferir que famílias que têm um dos seus
membros sendo tratado como portador de uma doença mental deve
possuir aspectos bastante diferentes de uma outra família que interpreta
os sintomas de esquizofrenia de um de seus membros como castigo
divino ou coisa parecida.
Com o uso de amostras de conveniência, aumentam as
chances de o pesquisador obter, consciente ou inconscientemente,
uma amostra não-representativa da população. Quando a amostra
não representa adequadamente a população, é comum dizer que este
tipo de amostra se trata de uma amostra enviesada ou tendenciosa.
O uso deste tipo de amostra pode dar origem a resultados que podem
representar interpretações equivocadas quando extrapoladas para a
população, como pode ser visto nos seguintes exemplos:
– coletar dados com idosos em dois locais, um posto de saúde e
em um grupo atividades para a terceira idade, e concluir que a
sintomatologia depressiva do primeiro grupo é maior do que a do
segundo. Provavelmente os idosos que foram abordados no posto
de saúde estavam se tratando de algum problema de saúde, o
que já é um fator de risco para o surgimento de sintomas da
depressão.
– coletar dados de um grupo de alunos indicados pela diretoria de
uma escola para avaliar o uso de substâncias entre os estudantes.
A direção pode indicar os alunos que já apresentaram algum
problema relacionado ou que têm muitas queixas disciplinares dos
professores, como também o contrário, isto é, classes ou alunos
com comportamento exemplar. Em ambos os casos, os resultados
poderão não representar adequadamente a realidade da população
dos estudantes, nem mesmo da pequena população de estudantes
daquela escola na qual os dados foram coletados.
Com o uso de amostras enviesadas qualquer pesquisador
pode provar qualquer coisa que deseje. Por exemplo, para demonstrar
que o uso de cigarro esta relacionado ao surgimento de tumores na
garganta, o pesquisador poderá coletar seus dados em um centro de
tratamento para câncer na garganta e perguntar aos pacientes se
estes são (ou foram) fumantes. Certamente a proporção de pacientes
com câncer na garganta que são ou foram fumantes será bem maior

- 24 -
Estatística para o curso de Psicologia

do que a de fumantes que desenvolveram câncer na garganta.


Conhecer alguns fundamentos estatísticos pode evitar graves erros
metodológicos ou, pelo menos, auxiliar a identificação de tais erros
permitindo que avaliemos mais criticamente os resultados e conclusões
de uma pesquisa.

Critérios de Inclusão e de Exclusão


Além de tomar o cuidado de empregar alguma técnica
adequada (sempre que possível que privilegie a imparcialidade na
escolha dos elementos, pelo menos) para selecionar os elementos
que irão compor a amostra, o pesquisador poderá economizar muito
tempo, dinheiro e energia, além de obter resultados mais confiáveis,
se estabelecer, previamente, e com base em seus objetivos e outras
informações que possui acerca do fenômeno que está sendo
estudado, algumas características que os elementos da população
devem ou não possuir para que possam fazer parte da amostra.
Para limitar e também controlar algumas características dos
elementos que irão compor a amostra, tornando-a mais homogênea,
é recomendado que sejam estabelecidos, previamente à coleta dos
dados, os critérios de inclusão e os de exclusão.
• Critérios de inclusão: são características que o elemento deve
possuir para que possa ser um dos componentes da amostra.
Cada um dos elementos da amostra deve possuir todas as
características estabelecidas como critérios de inclusão. Uma
forma bastante prática para se estabelecer tais características é
responder à questão: “Quais as características que um elemento
deve possuir para poder responder de forma confiável ao meu
problema de pesquisa?”.
• Critérios de exclusão: são características que, se o elemento
possuir, o mesmo não poderá fazer parte da amostra. Os
elementos não podem ter nenhuma destas características para
serem incluídos na amostra. Normalmente, os critérios de
exclusão são características que podem gerar resultados dúbios
ou difíceis de serem interpretados. A questão que auxilia o
pesquisador estabelecer os critérios de exclusão é: “Quais
características que, se o elemento possuir, poderão enviesar a
pesquisa ou impossibilitar a correta interpretação dos meus
resultados?”.
É bom lembrar que os critérios de exclusão não são as negativas ou
os antônimos dos critérios de inclusão. Por exemplo, se o pesquisador

- 25 -
Paulo Rogério Morais

estabelece como critério de inclusão “possuir diagnóstico de distimia”,


não possuir tal diagnóstico não é critério de exclusão, pois os sujeitos
sem o diagnóstico de distimia sequer foram inclusos na amostra.
No entanto, os resultados poderão ser difíceis de serem interpretados
se, além do diagnóstico de distimia, o individuo também possuir o
diagnóstico de transtorno de ansiedade. Neste caso, “apresentar
co-morbidade” seria um critério de exclusão. Pois, quando o
pesquisador se deparar com os dados de um indivíduo com distimia
e ansiedade que apresenta, por exemplo, dificuldades de
relacionamento inter-pessoal, será difícil definir o que produziu este
resultado. As dificuldades de relacionamento estariam associadas
à distimia, à ansiedade ou a ambas?

3. TIPOS DE VARIÁVEIS

Como o próprio nome sugere, variável é qualquer fenômeno,


elemento ou atributo da natureza que seja passível de mensuração,
contagem ou classificação e que pode assumir diferentes valores
nas diferentes observações que são feitas, isto é, que variam. Por
exemplo, a estatura é um atributo que pode adquirir diferentes valores
em diferentes indivíduos e até no mesmo indivíduo, quando
observado em diferentes momentos.
De modo geral, as variáveis estudadas pelos psicólogos e
outros biologistas são chamadas de variáveis aleatórias, pois seus
valores são influenciados por um ou mais fatores não controlados. Os
pesquisadores em Psicologia dependem da observação de fenômenos
que, mesmo se acompanhados em todas as suas etapas, produzem
resultados imprevisíveis. Imagine um biotério que crie somente ratos
da linhagem Wistar (os populares ratos brancos), todos sendo
submetidos às mesmas condições de alimentação, manipulação e
alojamento. Mesmo com todas estas condições de controle, o valor
da variável peso, por exemplo, não será necessariamente o mesmo
em todos os animais. Alguns fatores, como, por exemplo, o sexo, a
idade, características genéticas ou mesmo a posição hierárquica dos
animais em suas gaiolas, podem explicar tal variabilidade.
De acordo com a sua natureza, as variáveis podem ser
classificadas em:
Variáveis qualitativas: a variável é considerada qualitativa quando
seus valores somente são passiveis de classificação e são expressos
em categorias mutuamente exclusivas, com ou sem alguma
ordenação lógica e, mesmo que sejam utilizados códigos numéricos
para representar tais categorias, os mesmos não têm valor real para

- 26 -
Estatística para o curso de Psicologia

operações matemáticas. Imagine que, para a variável gênero, sejam


estabelecidos os códigos numéricos 1=masculino e 2=feminino, uma
mulher dividida ao meio não resulta em dois homens.
São exemplos de variáveis qualitativas: gênero, grau de
instrução, diagnóstico psiquiátrico, nível sintomatológico (leve –
moderado – grave), estado civil, nível socioeconômico, entre outras.
A descrição de variáveis qualitativas é feita por meio dos
valores absolutos (freqüência absoluta) observados em cada categoria
da variável e/ou de seus valores percentuais (freqüência relativa).
Variáveis quantitativas: estas variáveis são passiveis de contagem
e/ou mensuração, tendo seus valores expressos em números com
real valor para as diferentes operações matemáticas.
As variáveis quantitativas são ainda divididas em:
Discretas = o valor é passível de contagem, com claro limite entre um
e outro valor da variável. Por exemplo, número de alunos em uma
sala, número de palavras recordadas em um teste de memória,
pontuação obtida em um inventário de estresse, número de vezes
que um rato pressiona uma barra em uma caixa de Skinner etc.
Contínuas = os possíveis valores das variáveis continuas estão
localizados em intervalos que possuem infinitos valores, sendo
que o valor que será atribuído a uma variável contínua depende
do grau de precisão do instrumento utilizado para a medição.
Um exemplo é a estatura de uma pessoa que pode ser expressa
em metros, centímetros, milímetros etc. dependendo do grau de
precisão do instrumento e da técnica utilizados para a
mensuração. Quando se pergunta a idade de uma pessoa,
geralmente a resposta é dada em anos, embora pudesse ser em
meses, dias, horas, minutos, segundos, e por ai vai... Entre 20 e
21 anos existem infinitos valores, mas para fins práticos as
variáveis contínuas são trabalhadas como se fossem discretas.
A descrição das variáveis quantitativas deve ser feita usando-
se uma medida capaz de representar todas as medidas observadas
(medida de tendência central) e também uma medida que represente
a variação dos valores no conjunto (medida de dispersão).
Uma forma prática de diferenciar as variáveis qualitativas das
quantitativas é: As variáveis qualitativas são mais claramente
representadas por palavras, e as quantitativas são representadas mais
precisamente por meio de números do que por palavras. Por exemplo,
é mais simples avaliar a cor dos olhos de uma pessoa pelos nomes
das cores (castanho, azul, verde, etc) do que pelo valor dos
comprimentos de ondas do espectro eletromagnético refletidos por
tais cores. Da mesma forma, é mais preciso dizer que uma pessoa
tem 1,70 m do que dizer que é uma pessoa com estatura mediana.

- 27 -
Paulo Rogério Morais

4. NÍVEIS DE MENSURAÇÃO

4.1 Quantificação
Dados arqueológicos indicam que a medição e a quantificação
há muito tempo fazem parte da vida do ser humano. Desde épocas
muito remotas, o ser humano já utilizava sistemas numéricos para
representar as características quantificáveis de informações relevantes
do seu dia-a-dia. Antes mesmo de existirem os símbolos numéricos,
outros recursos (coleções de conchas ou pedras, por exemplo) já eram
empregados com a finalidade de quantificar aspectos importantes para
a nossa espécie.
Conhecer e descrever a natureza somente em seus aspectos
puramente qualitativos é bastante útil, mas a informação que temos, a
partir de tal conhecimento, é bastante limitada e, muitas vezes,
controverso. Eu posso qualificar uma cidade como violenta só por que
presenciei ou fui vítima de algum ato violento nesta cidade, mas a minha
impressão pessoal pode não ser uma informação que deva ser
generalizada para toda a cidade. Saber que uma cidade é violenta é
uma informação bastante proveitosa, mas se tivermos dados
quantitativos que substanciem o porquê de tal rótulo para esta cidade,
certamente teremos maior conhecimento e poderemos fazer afirmações
menos vagas ou puramente emocionais acerca da realidade.
O conhecimento qualitativo de algo é melhor do que
conhecimento nenhum. Mas, se a esse conhecimento pudermos
acrescentar alguma forma de quantificação, teremos um
conhecimento mais refinado. Da mesma forma que para nossos
antepassados não deveria ser muito funcional saber somente que
possuía “muito” gado ou que dispunha de “pouca” comida. Assim
como nós, eles necessitavam de informações quantitativas acerca
de suas vidas. A quantificação de muitos aspectos da nossa vida foi
útil no passado e é uma condição necessária para os dias atuais.
Como afirmou o astrônomo Carl Sagan: “Ter medo da quantificação
equivale a renunciar aos nossos direitos civis (...)”.
Para as ciências, a quantificação oferece duas grandes
vantagens: a) índices numéricos possibilitam que os resultados de
uma pesquisa sejam apresentados com fineza de detalhes que não
seria possível de outra forma; além disso, b) a quantificação também
permite o uso de diferentes técnicas matemáticas, que são essenciais
para o desenvolvimento de teorias e na análise de dados de pesquisa.
A mensuração nada mais é do que regras empregadas para
atribuir números ou categorias aos elementos da natureza de forma
a representar numericamente seus atributos. Estas regras podem

- 28 -
Estatística para o curso de Psicologia

ser baseadas em critérios bastante simples e até mesmo intuitivos,


como contar quantas pessoas estão dentro de uma sala, ou podem
exigir procedimentos mais complexos para os quais usar de simples
intuição não contribuiria em nada, como, por exemplo, mesurar a
sintomatologia depressiva de alguém ou a extensão exata de uma
lesão no córtex cerebral de uma pessoa vítima de um acidente. Os
fenômenos psicológicos (como inteligência, atenção, aprendizagem,
sintomas psicopatológicos, entre outros) são ótimos exemplos para
os quais o uso de procedimentos pouco rigorosos ou meramente
intuitivos podem gerar mensurações equivocadas.
Mas, independente de utilizar procedimentos rudimentares
ou complexos, as mensurações, para serem realmente úteis, devem
basear-se em critérios padronizados que permitem a diferentes
pessoas mensurar um dado elemento ou fenômeno e obterem
resultados muito parecidos.
Além das já citadas, a utilização de métodos de mensuração
padronizados apresenta outras vantagens para as ciências:
• Objetividade: o uso de linguagem meramente qualitativa pode
representar fonte de controvérsias e dificultar, ou mesmo
impossibilitar, que se chegue a alguma conclusão. Se não há
forma de quantificar um dado fenômeno como, por exemplo, a
personalidade, dois psicólogos podem discordar em muitos
aspectos ao avaliarem separadamente a personalidade de uma
mesma pessoa. Quando um dado fenômeno é mensurado por
métodos padronizados que envolvem procedimentos que dão
pouco espaço para interpretações ambíguas, o espaço para
divergência também é reduzido.
• Comunicabilidade: a comunicação de resultados de pesquisas
é muito facilitada quando são empregadas formas padronizadas
de mensuração. Existe uma máxima afirmando que o progresso
em uma determinada área de conhecimento está diretamente
relacionado à eficiência e exatidão com que os pesquisadores
desta área conseguem se comunicar. Se um psicólogo pretende
apresentar aos seus pares uma técnica para o tratamento da
ansiedade, ele será muito mais facilmente compreendido se
utilizar dados numéricos que, de alguma forma, quantifiquem o
fenômeno em questão do que se utilizasse o relato das
experiências subjetivas da ansiedade.
• Economia: a quantificação permite que grandes quantidades
de informações sejam resumidas e apresentadas de forma
bastante clara e não menos precisa. No exemplo anterior, se o
psicólogo apresentar as medidas de ansiedade apresentadas
pelos seus pacientes em uma escala padronizada irá gastar muito

- 29 -
Paulo Rogério Morais

menos tempo (ou espaço em uma publicação) do que se ele se


propusesse a descrever as diferentes particularidades da
ansiedade experimentada por seus pacientes.

Embora, para muitas áreas do conhecimento humano, a


conversão dos atributos estudados em valores numéricos seja algo
relativamente tranqüilo (a temperatura de uma superfície, quantos
glóbulos vermelhos existem em uma amostra de sangue, qual a área
de um terreno), na Psicologia a quantificação não é uma tarefa tão
fácil e seus instrumentos de mensuração são constantemente
questionados quanto às suas validade e confiabilidade.

4.2 – Níveis de mensuração


Diferentes tipos de mensuração podem ser feitos de acordo com
as características do fenômeno que se pretende quantificar. O nível de
mensuração utilizado determina a quantidade de informação
disponibilizada acerca do que foi mensurado. Além disso, o tipo de
mensuração feita de um determinado fenômeno irá determinar quais
as técnicas estatísticas podem ou não ser empregadas na descrição e
análise dos dados.

Nível Nominal
É a escala de mensuração mais simples e rudimentar, permitindo
somente a classificação dos elementos de acordo com algum de seus
atributos. Os valores numéricos ou outros símbolos só são utilizados
para classificar o elemento em diferentes categorias. Pode-se, por
exemplo, usar o número 1 para representar o diagnóstico de depressão
e o número 2 para representar o diagnóstico de ansiedade, como é
mostrado na tabela 1.1:
Tabela 1.1: Diagnósticos de pacientes atendidos em uma clínica-escola.

Sujeito Diagnóstico
João 1
Claudia 1
Pedro 2
Olavo 1
Ana 1
Marcos 2
Mara 2

Neste caso, podemos dizer que:


4 X 1 = 4 deprimidos
3 X 2 = 3 ansiosos

- 30 -
Estatística para o curso de Psicologia

Como pode ser visto, o valor numérico utilizado para representar


os diagnósticos não tem sentido matemático. Os valores da coluna de
diagnóstico não representam quantidades, mas sim categoria.
Muitas variáveis qualitativas são nominais, pois a única
informação possível de se obter observando os diferentes valores
que a variável assume é se os valores são iguais ou diferentes entre
si. No exemplo acima, só podemos afirmar que o diagnóstico de
depressão é diferente do diagnóstico de ansiedade, não existindo
sequer uma ordem natural entre estas categorias.
São exemplos de variáveis que têm seus “valores”
classificados em nível nominal: sexo, estado civil, cor da pele,
profissão, diagnóstico psiquiátrico, condição experimental (tratado
ou controle), entre muitas outras.
Dados nominais não são passiveis de graduação ou ordenação.
Se classificarmos homens com 1 e mulheres com 2, isso não quer
dizer que os homens sejam melhores, superiores ou anteriores às
mulheres, diz somente que são diferentes para o atributo sexo.

Nível Ordinal
Esta escala fornece um pouco mais de informação do que
a escala nominal, pois, além de informar que os elementos são iguais
ou diferentes entre si, também existe uma ordem de grandeza entre
os valores atribuídos à variável. Os elementos podem ser ordenados
em termos de “maior”, ou “melhor que”, e “menor”, ou “pior que”.
Desta forma, se atribuímos os seguintes códigos numéricos ao nível
de sintomatologia depressiva:
1 – sintomatologia leve
2 – sintomatologia moderada
3 – sintomatologia severa
E temos a seguinte situação:

Tabela 1.2: Níveis da sintomatologia depressiva em um grupo de pacientes

Sujeito Nível da sintomatologia


depressiva
João 3
Claudia 1
Olavo 2
Ana 2

De acordo com os dados apresentados na tabela 1,2,


podemos afirmar que a sintomatologia de João é maior do que a de

- 31 -
Paulo Rogério Morais

Pedro, que é maior do que a de Claudia. Mas não podemos afirmar


que a Ana tem duas vezes mais sintomas do que a Claudia ou que a
sintomatologia apresentada por João é três vezes mais grave do
que a apresentada por Marcos. Uma pessoa com sintomatologia
severa de depressão, apresenta mais sintomas do que uma outra
pessoa com sintomatologia leve, mas não é, de modo algum, três
vezes mais deprimida.
Quando são empregados códigos numéricos em uma escala
ordinal, os números indicaram postos ou ordem, mas não indica a
magnitude das diferenças entre os valores. Por exemplo, sabendo
que uma pessoa é considerada como “classe baixa” e outra é rotulada
de “classe alta”, segundo algum critério de classificação sócio-
econômica, não dá para saber o quanto uma é mais rica do que a
outra para receber classificação diferente, só temos a informação de
que uma é mais rica, ou possui mais bens, do que a outra.
Em Psicologia, mensurações em escala ordinal são muito
populares. Um exemplo bastante comum são os instrumentos que
avaliam um determinado fenômeno por meio de instrumento com
escalas do tipo Likert.

As escalas nominal e ordinal são empregas na


mensuração de variáveis qualitativas. Lembre-se sempre:
quando são utilizados números para classificar ou indicar
ordem dos atributos mensurados nestas duas escalas,
tais números não têm valor para operações matemáticas.

Escala Intervalar
Nesta escala, são atribuídos valores numéricos para as
observações feitas e tais valores têm representação real e podem
ser submetidos à algumas operações matemáticas. A escala
intervalar tem como principais características:
• a existência de unidades constantes e intervalos fixos e
conhecidos entre as unidades;
• o ponto zero (ponto de início da mensuração) e a unidade de
medida são arbitrários.
Como exemplo, podemos citar duas escalas muito utilizadas
para a avaliação da sintomatologia de depressão, as escalas de

1
A comparação destas duas escalas foi utilizada somente para o exemplo, pois ambas possuem
diferenças relacionadas tanto ao conteúdo, objetivo e à forma de aplicação.

- 32 -
Estatística para o curso de Psicologia

Hamilton e de Beck. Embora ambas se prestem a avaliar o mesmo


fenômeno, as pontuações brutas fornecidas em cada uma das escalas
não tem o mesmo significado, como pode ser visto na tabela 1.3:
Pontos de corte propostos para duas Escalas para avaliação
de sintomas de depressão1
Na tabela 1.4 são apresentadas as pontuações obtidas por
dois indivíduos avaliados em cada uma das escalas:

Tabela 1.3: Comparação das classificações atribuídas aos pacientes de acordo


com as pontuações obtidas em duas diferentes escalas para avaliar sintomas de
depressão

Escala
Classificação Beck Hamilton
Não sintomático 0 -12 0-6
Sintomatologia leve 13 -20 7 - 17
Sintomatologia moderada 21 -25 18 -24
Sintomatologia severa 26 – 36 > 25

Tabela 1.4: Pontuação obtida por dois pacientes nas escalas de Hamilton e de
Beck para depressão

Sujeito Pontuação na Pontuação na


Escala Hamilton Escala Beck
Nelson 4 7
Luciano 18 21

De acordo com as pontuações de corte de ambas as


escalas, a sintomatologia de Nelson não é clinicamente relevante e
Luciano apresenta sintomatologia moderada. Mas, a pontuação de
Luciano na escala de Beck é quase o dobro da obtida na escala de
Hamilton, enquanto que a pontuação de Nelson na escala de Beck
não é nem 15% maior do que a obtida na escala de Hamilton.
Ao contrário da escala ordinal, na qual sabemos somente
que uma medida é maior do que a outra, mas não sabemos o quanto,
na escala intervalar nós conhecemos o tamanho do intervalo. Podemos
dizer que na escala de Beck Luciano pontuou mais do que Nelson,
mas não podemos afirmar que a sintomatologia de depressão de
Marcos é três vezes maior do que a de João. Isto acontece por que o
ponto zero de ambas as escalas é relativo, isto é, não existe um ponto
zero absoluto para a sintomatologia de depressão.
De modo geral, quando são atribuídos valores numéricos
para fenômenos subjetivos, tais como os sintomas depressivos,
inteligência, ansiedade, medo, alegria e outros, podemos afirmas

- 33 -
Paulo Rogério Morais

que se tratam de medidas intervalares. Existem autores que afirmam


que a estratégia de atribuir valores numéricos a tais fenômenos é
uma tentativa de intervalizar medidas que são, no máximo, ordinal.
Versiani (1989) chama isso de “pseudoquantificação”.
Por este motivo, em Psicologia e também em outras ciências,
há a necessidade de um senso crítico mais apurado ao se fazer
afirmações com base em resultados obtidos a partir de instrumentos
que utilizam este nível de mensuração. Se um clínico avalia a
sintomatologia depressiva de um paciente com a escala de Beck em
dois momentos, na primeira e na décima sessão de psicoterapia. Se
a pontuação do paciente foi 24 na primeira avaliação e 12 na segunda,
o clínico jamais poderá dizer que o paciente, depois de dez sessões
de psicoterapia, só tem a metade da sintomatologia que tinha no início.
Tem sim 12 pontos a menos na escala de Beck, e só.

Nível Proporcional (ou de Razão)


Esta escala é muito parecida com a escala intervalar,
contudo, possui um ponto zero absoluto, isto é, o ponto de início da
mensuração é constante. Os números utilizados para expressar os
valores das variáveis avaliadas neste nível possuem valor empírico,
isto é, os números representam verdadeiras quantidades. Mesmo
que sejam utilizadas diferentes escalas para expressar a idade de
duas pessoas, como mostra a tabela 1.5:
Tabela 1.5: Idades de dois indivíduos usando diferentes unidades de medida

Sujeito Idade em anos Idade em meses


Marcos 6 72
João 12 144

Independente da escala (anos ou meses) João tem o dobro


da idade de Marcos, pois a medida começa em um ponto zero que
é o mesmo para ambas as escalas - os respectivos nascimentos de
João ou de Marcos.
Nenhuma escala que avalie fenômenos psicológicos atinge
o nível proporcional de mensuração, que é tido como o nível ideal
de quantificação. Este nível de medida é utilizado em Psicologia
quando são feitas contagens de comportamentos, acertos em uma
determinada tarefa ou medido o tempo utilizado para realizar tal
tarefa, por exemplo.

- 34 -
Estatística para o curso de Psicologia

Conhecer os diferentes níveis de mensuração e suas


características é fundamental tanto para a descrição
como também para a escolha de testes apropriados
para a análise de dados e teste de hipóteses.

Existe um acumulo de informações do nível nominal até o nível


proporcional. Isto permite que avaliações feitas em nível proporcional
sejam reduzidas a categorias nominais, mas não o contrario.
Imaginando os diferentes níveis de mensuração como degraus de
uma escada, percebe-se que as medidas podem descer degraus,
mas nunca subir. Por exemplo, se avaliamos a sintomatologia
depressiva de um indivíduo com o inventário de Beck, e ele obtém 23
pontos (intervalar), podemos dizer que:

Intervalar = 23 pontos

Ordinal = sintomatologia moderada

Nominal = deprimido

Figura 1.2 – Esquema de conversão dos níveis de mensuração

No entanto, se a avaliação inicial foi feita em uma escala


nominal (deprimidos X saudáveis), não podemos transformá-la,
sequer, em uma medida ordinal. Se soubermos somente que Nelson
é deprimido, não temos como saber se sua sintomatologia é leve,
moderada ou severa. Como se pode observar na figura 1.2, se for
necessário, podemos converter a pontuação obtida em uma escala
intervalar à uma classificação ordinal e até mesmo nominal.
Esta é uma característica que deve ser sempre levada em
consideração ao se fazer o planejamento de uma pesquisa, pois, se
a variável for avaliada em escala nominal, algumas manipulações
estatísticas não serão possíveis. Uma dica: sempre utilize a escala
de mensuração mais alta possível.

- 35 -
Paulo Rogério Morais

Os níveis intervalar e proporcional são empregado na


mensuração de variáveis de natureza quantitativa. Para
fins de descrição e de análise, varáveis mensuradas nestes
dois níveis recebem o mesmo tipo de tratamento estatístico.

5. FASES DO MÉTODO ESTATÍSTICO

O trabalho estatístico confunde-se com o trabalho de pesquisa


científica, uma vez que o passo inicial em ambos é a existência de um
problema de pesquisa, isto é, precisa haver uma questão
adequadamente formulada que, para ser respondida, necessita da
busca de informações em diferentes fontes. Além disso, o trabalho
estatístico também é composto por etapas que podem ser, da mesma
forma que em uma pesquisa científica, claramente delimitadas.
As etapas que compõe o trabalho estatístico são:
1. planejamento: após ter estabelecido claramente qual é o
problema que se deseja responder, deve-se estabelecer alguns
pontos fundamentais para que a pesquisa redunde em resultado que
seja uma resposta válida para tal problema. Com base nos
conhecimentos disponíveis acerca dos aspectos relacionados direta
ou indiretamente ao problema de pesquisa, deve-se estabelecer de
antemão a maior quantidade possível de elementos que podem
exercer alguma influência sobre o bom andamento do trabalho e
também sobre a confiabilidade dos resultados.
Na fase de planejamento algumas questões devem ser
respondidas:
– Quais informações são necessárias para se responder o
problema? (quais são as variáveis que precisam ser avaliadas /
mensuradas)
– Qual a natureza das variáveis em questão?
(tipo da variável e seu nível de mensuração)
– Como tais informações podem ser obtidas?
(escolha do instrumento ou meio que será utilizado para se
coletar os dados)
– Quem ou o que pode fornecer as informações necessárias?
(estabelecer os critérios de inclusão e de exclusão para a
composição da amostra)
– Quantas medições de cada variável serão feitas?
(definir o tamanho da amostra)

- 36 -
Estatística para o curso de Psicologia

– Qual será o método empregado para extrair os elementos


da população para compor a amostra? (definir a técnica de
amostragem que será utilizada)
– Os elementos que irão compor a amostra serão alocados
em grupos diferentes? Se sim, como será feita a alocação
dos diferentes elementos nos grupos de estudo?
– Onde será feita a coleta dos dados? (condições para o
acesso ou a necessidade de se buscar autorizações)
– Como será feita a coleta dos dados? (definição do
procedimento)
– Quais são as hipóteses de trabalho, ou respostas possíveis
para o problema pesquisado? (hipóteses nula e alternativa)
– Quais as relações entre as variáveis serão estudadas?
– Quais tratamentos estatísticos os dados receberão?
– Qual será o tamanho do risco que o pesquisador assume
correr ao expor suas conclusões? (nível de significância)
– E assim por diante.

Além destes aspectos diretamente envolvidos com a solução


do problema de pesquisa, também é necessário pensar em alguns
pontos de ordem prática, como por exemplo, os custos da pesquisa,
cronograma de execução, treinamento dos pesquisadores, questões
éticas relacionadas à coleta dos dados, e quaisquer outros fatores
que poderão ter algum impacto sobre o andamento ou resultado da
pesquisa.
É importante salientar que todas as decisões tomadas nesta
etapa terão conseqüências nas fases que a seguem. Um
planejamento mal feito pode comprometer todo o trabalho, enquanto
que um planejamento feito de maneira cuidadosa poderá evitar
muitos contratempos. O tempo gasto para se fazer o planejamento
dificilmente será um tempo perdido.
2. coleta dos dados: neste ponto, o pesquisador, ou indivíduos
especialmente treinados para este fim, irá a campo coletar as
informações necessárias para a solução do problema. É a coleta de
dados que fornece a matéria-prima para o trabalho estatístico
subseqüente. A coleta dos dados deve seguir as determinações
estabelecidas no planejamento. Esta etapa do trabalho deve ser feita
de maneira padronizada, com atenção e cuidadoso controle das
variáveis envolvidas, pois, como ressalta Padovani (2000:155),

- 37 -
Paulo Rogério Morais

“dados coletados de forma descuidada podem ser tão inúteis que


não haverá procedimento estatístico capaz de salvá-los”.
A coleta dos dados pode ser:
• direta: quando o pesquisador obtém seus dados em uma
fonte primária como, por exemplo, aplicando um questionário
ou fazendo ele mesmo as observações e medições;
• indireta: quando o pesquisador obtém seus dados a partir
de dados já publicados. Neste tipo de coleta, o pesquisador
deve ser rigoroso na escolha das publicações de onde irá
obter seus dados.

Vale ressaltar que, no Brasil, as pesquisas que envolvem a


coleta de dados com seres humanos direta ou indiretamente
(informações de prontuários ou materiais biológicos, por exemplo),
devem observar as normas constantes na Resolução CNS/MS no 196/
96. Esta resolução estabelece que , entre outras coisas, para a
realização da coleta dos dados, o indivíduo que os fornecerá (ou seu
representante legal) deverá assinar um termo de consentimento livre
e esclarecido. Isto significa que os dados somente poderão ser
coletados se o participante concordar em fornecê-los e se tal
concordância ocorrer de forma livre (sem o uso de qualquer forma de
coerção ou garantias de privilégios por parte do pesquisador ou das
instituições envolvidas) e esclarecida (conhecendo plenamente todos
os procedimentos aos quais será submetido). Aliás, as pesquisas
envolvendo seres humanos deverão, antes de tudo, ter seus protocolos
submetidos à análise de um Comitê de Ética em Pesquisa.
Embora atualmente não exista, no Brasil, nenhuma resolução
acerca das pesquisas que envolvam a coleta de dados em animais
não humanos, nestes casos também devem ser tomados alguns
cuidados. Além de toda orientação feita por algumas sociedades
científicas acerca dos cuidados envolvendo alimentação, manuseio,
procedimentos cirúrgicos e pós-operatórios, o pesquisador que
trabalha com animais também deve tomar o cuidado de utilizar
somente o número de animais necessários para se obter resultados
válidos, isto é, não se deve utilizar mais animais do que o necessário.
Neste ponto, o emprego de técnicas estatísticas para se definir o
tamanho da amostra pode ser de grande utilidade.
Independentemente de coletar seus dados de maneira direta
ou indireta, o pesquisador deve criar uma forma de identificação dos
elementos que compõe a amostra que lhe permita rastrear os dados
de qualquer um dos elementos de maneira fácil e rápida quando for
necessário. A numeração crescente dos elementos da amostra é
uma forma prática e fácil de criar tal identificação.

- 38 -
Estatística para o curso de Psicologia

3. organização (ou tabulação) dos dados: dezenas de


questionários respondidos ou pilhas de formulários com dados
coletados não têm muita utilidade prática. Embora todas as
informações necessárias para se responder ao problema de pesquisa
estejam contidas em tais questionários e formulários, se não forem
minimamente organizadas de alguma maneira, o pesquisador terá
grande dificuldade em extrair tais informações. Geralmente, pilhas
de questionários ou formulários não possibilitam o acesso aos
elementos úteis neles contidos. Atualmente a maneira mais fácil de
se fazer a organização dos dados é dispô-los em uma planilha de
algum programa estatístico de computador.
As planilhas de muitos programas estatísticos são compostas
por colunas e linhas nas quais os dados devem ser dispostos. Em
programas como o SPSS e o Statistica, cada coluna representa uma
variável mensurada e cada linha corresponde aos dados de um dos
elementos da amostra.
O quadro 1.2 representa uma planilha contendo os dados de
10 sujeitos para as variáveis sexo, idade, escolaridade e desempenho
em um teste de memória.
Quadro 1.2 – Modelo de planilha

Sujeito Sexo idade escolaridade memória


1 masculino 23 ensino médio 10
2 masculino 21 ensino médio 9
3 feminino 19 ensino médio 10
4 masculino 23 ensino médio 8
5 feminino 29 ensino médio 8
6 feminino 32 ensino superior 7
7 masculino 19 ensino médio 9
8 masculino 24 ensino superior 10
9 feminino 20 ensino médio 8
10 masculino 35 ensino superior 8

Embora não seja uma variável a ser analisada, é bastante útil


se reservar a primeira coluna da planilha para o número de
identificação dos sujeitos. Seguindo esta dica, torna-se fácil e rápida
a identificação de qualquer informação contida na planilha.
Também é importante lembrar que o preenchimento da
planilha deve ser feito com bastante rigor e cuidado, pois se os dados
originais dos questionários ou formulários forem digitados de maneira
equivoca, o programa estatístico irá trabalhar com informações que
não correspondem à realidade.
Os programas estatísticos de computadores são recursos que
poupam muito trabalho. Aliás, as etapas posteriores à organização

- 39 -
Paulo Rogério Morais

dos dados são feitas quase totalmente com a utilização deste recurso,
não exigindo do pesquisador conhecimentos acerca das fórmulas e
cálculos, muitas vezes complexos, que tanto assustam muitos
estudantes e até profissionais da Psicologia que necessitam utilizar
a estatística em seu trabalho.

4. avaliação crítica dos dados: nesta fase, são procurados e, sempre


que possível, corrigidas as possíveis imperfeições ou erros que podem
ter ocorrido na transcrição dos dados dos questionários para a planilha,
valores absurdos para as variáveis, omissões (ausência de dados) e
outros elementos que podem gerar resultados errôneos.
Por exemplo, ao avaliar sua planilha, o pesquisador encontra
um indivíduo com 344 anos. Para a variável idade, este valor é
absurdo. Qual seria a origem de tal dado, alguém teria respondido
ter esta idade ou ocorreu um erro de digitação?
Se os elementos que compõe a amostra foram devidamente
identificados, torna-se fácil o rastreamento da informação. Quando
o pesquisador se depara, durante a avaliação critica dos dados, com
uma idade de 344 anos, basta verificar na planilha onde está este
dado. Depois é só consultar o questionário correspondente ao sujeito
que apresenta este dado absurdo na planilha.
Se o dado absurdo se deve a um erro de digitação, basta
que seja feita a correção. Mas se o dado absurdo é o mesmo que
consta no instrumento no qual o dado foi originalmente coletado, o
pesquisador deve estabelecer algum critério para fazer tal correção.
O mesmo procedimento deve ser empregado para corrigir as
eventuais omissões de dados.

5. resumo dos dados: mesmo depois de organizados, seja manual


ou eletronicamente, os dados coletados, em seu estado bruto têm
pouco a oferecer. Mesmo quando se possui as informações de
poucos elementos, como é apresentado no quadro 1.2, não é muito
funcional conhecer os valores da variável obtidos por cada um dos
elementos avaliados. Imagine uma pesquisa que tenha coletado os
dados de duzentas pessoas.
Existem maneiras de se sintetizar tais informações a valores
capazes de representar o comportamento da variável em todo o
grupo. O resumo dos dados será feito de acordo com a natureza de
variável em questão:
Variáveis qualitativas: são resumidas com a apresentação dos
valores absolutos e/ou relativos obtidos para cada categoria
da variável.

- 40 -
Estatística para o curso de Psicologia

Variáveis quantitativas: o resumo deste tipo de variável deve


ser feito por meio de uma medida de tendência central e uma
medida de variabilidade, no mínimo.
O próximo capítulo abordará mais detalhadamente as
diferentes maneiras de se fazer o resumo dos dados.
6. análise dos dados: nesta fase, são empregadas as técnicas da
estatística inferencial. Somente após executar a análise dos dados
é que o pesquisador poderá interpretar adequadamente o significado
dos seus achados. Não é raro se encontrar artigos publicados em
periódicos da área de Psicologia cujos autores negligenciaram a
necessidade de submeter seus dados à rigorosa análise estatística,
apresentando aos leitores conclusões baseadas tão somente em
dados descritivos que podem não representar a realidade.
Menos freqüentes, mas não tão raros, são os artigos que
apresentam ou erros nos testes empregados para análise ou a
interpretação equivocada dos resultados da análise. Mais adiante,
no capítulo “Estatística Inferencial”, serão apresentadas as
implicações associadas à tomada de decisões (e subseqüentes
conclusões) sem que os dados sejam adequadamente analisados e
também quais os critérios para se escolher um teste estatístico e
como interpretar seus resultados.
7. apresentação dos resultados: os resultados, dados devidamente
resumidos, analisados e interpretados, devem ser apresentados de
maneira clara e direta. O uso de tabelas e/ou gráficos possibilita
que o leitor faça um rápido exame e possa compreender quais são
as informações que dão sustentação às afirmações feitas a partir do
conjunto de dados coletados.
No final do próximo capítulo são apresentadas em detalhes
as diferentes maneiras de se fazer a apresentação dos resultados

- 41 -
Paulo Rogério Morais

II - Estatística descritiva

Uma das funções da Estatística é fornecer meios para


que possamos descrever, de maneira simples e precisa, conjuntos
de dados numéricos que, se descritos sem o uso de técnicas
estatísticas, pouca informação forneceriam tanto a quem coletou
os dados quanto a quem necessita consultar tais dados. A descrição
deve ser feita de tal maneira que forneça informações suficientes
para que o leitor possa ter o panorama mais completo e fidedigno
possível dos dados originais sem, contudo, perder a objetividade.
A descrição dos dados corresponde às etapas de
“Resumo”, quando escolhemos e calculamos os parâmetros de
um conjunto e de “Apresentação”, quando dispomos estes
parâmetros em gráficos ou tabelas. A Estatística Descritiva
fornece os meios para se resumir e apresentar de maneira
simples, clara e adequada conjuntos de dados que não teriam
seu significado compreendido se fossem apresentados em sua
forma bruta (como foram coletados).
Para fazer a descrição dos dados, deve-se considerar qual
o tipo de variável a ser descrita. A descrição de variáveis de natureza
qualitativa é diferente da descrição de variáveis quantitativas.

1. DESCREVENDO VARIÁVEIS QUALITATIVAS

A descrição de variáveis qualitativas (variáveis com


mensuração nominal ou ordinal) é bastante simples, não exigindo
cálculos muito elaborados. De fato, a descrição deste tipo de
dados se dá pela freqüência absoluta observada para cada
categoria da variável e/ou pela sua respectiva porcentagem.

- 42 -
Estatística para o curso de Psicologia

Imagine que um pesquisador fez a contagem e classificação


de 1.400 prontuários de um ambulatório de saúde mental para
conhecer a incidência das diferentes psicopatologias nos pacientes
atendidos ao longo de um ano. Não é nada funcional apresentar o
resultado citando a classificação de prontuário por prontuário, como
mostrado no quadro 2.1:

Quadro 2.1.
Número do prontuário Classificação
0001 Esquizofrenia
0002 Depressão maior
0003 Esquizofrenia
0004 Transtorno alimentar
0005 Esquizofrenia
(...) (...)
1.398 Depressão maior
1.399 Transtorno bipolar
1.400 Dependência química

Esta forma de apresentação somente será útil se o objetivo


do pesquisador for ter rápido acesso ao diagnóstico constante em
cada um dos prontuários. Mas, se seu objetivo é saber qual a
incidência das diferentes patologias entre os pacientes atendidos
pelo ambulatório, será mais útil fazer a descrição dos dados como
visto na tabela 2,2, apresentando quantos pacientes tem determinado
diagnóstico e qual a porcentagem correspondente:

Tabela 2.1 – Diagnósticos de pacientes atendidos em um ambulatório durante o


ano de 2004.

Diagnósticos Freqüência %
Dependência química 397 28,4
Transtornos de ansiedade 280 20,0
Transtornos de humor 170 12,1
Esquizofrenia 141 10,0
Outros diagnósticos 253 18,1
Sem diagnóstico 159 11,4
Total 1.400 100

Com esta forma de apresentação dos dados, fica muito mais


fácil verificar que a psicopatologia com maior incidência foi a
dependência química. Esta mesma informação estaria presente no
quadro 2.1, mas para ser localizada exigiria tempo e paciência por
parte do interessado.

- 43 -
Paulo Rogério Morais

O cálculo das porcentagens é bastante simples:

Total de X observados no conjunto


Porcentagem de X = x 100
Total de observações

Desta forma, para os diagnósticos de transtornos de humor,


temos:
Total de diagnósticos de “transtornos de
Porcentagem de humor”
“transtornos de = x 100
Total de prontuários
humor”

Porcentagem de 170 x 100


“transtornos de =
1400
humor”

A vantagem de se apresentar a freqüência absoluta e a


respectiva porcentagem é possibilitar a comparação de grupos com n
diferentes. Por exemplo, no ambulatório A 45 pacientes tem diagnóstico
de distimia, enquanto que no ambulatório B somente 15 pacientes
tem este mesmo diagnóstico. No entanto, no ambulatório A foram
atendidos 200 pacientes (22,5% deles com distimia) e no ambulatório
B foram atendidos somente 50 pacientes (30% com distimia). No
ambulatório A a freqüência absoluta de diagnósticos de distimia é maior,
mas o número total de pacientes também é.
Os valores percentuais somente podem ser utilizados quando
trabalhamos com amostras com um número de observações que
justifiquem este tipo de descrição. Um pesquisador menos atento
poderá fazer a seguinte descrição:

“Trinta e três por cento dos prontuários apresentavam


diagnóstico de esquizofrenia, 33% tinham depressão
e o terceiro prontuário não tinha diagnóstico.”

Usualmente, a representação gráfica de variáveis qualitativas


é feita com os gráficos de coluna ou de setores.

- 44 -
Estatística para o curso de Psicologia

2. DESCREVENDO VARIÁVEIS QUANTITATIVAS

Para a descrição de variáveis quantitativas (mensuração


intervalar ou proporcional) devemos apresentar pelo menos duas
informações: uma medida de tendência central e uma medida de
dispersão (ou de variabilidade).

2.1 – MEDIDAS DE TENDENCIA CENTRAL


As medidas de tendência central representam o valor da
variável em torno do qual os outros valores observados tendem a se
distribuir, isto é, são valores capazes de representar qual é a medida
típica de um conjunto de valores. Tais medidas são utilizadas para
resumir um conjunto de dados a um único valor capaz de representar
adequadamente todo o conjunto.
As medidas de tendência central mais comuns são:
a) média aritmética (ou somente média);
b) mediana, e
c) moda
Existem outras medidas como a média ponderada, média
geométrica, média harmônica e média quadrática, mas tais medidas
são pouco utilizadas e não serão abordadas neste livro.
É importante lembrar que as medidas de tendência central
são meros conceitos estatísticos que têm pouco ou nenhum valor
em si quando não se conhece o significado prático de tais medidas.
Além disso, a descrição de conjuntos de dados utilizando-se somente
sua medida de tendência central, embora muito comum na mídia
em geral e em artigos de pesquisa, é incompleta. Sempre que uma
medida de tendência central é utilizada para descrever um conjunto
de valores, deve-se também apresentar alguma forma de descrição
de qual foi a variabilidade dos valores deste conjunto.

Média aritmética
A média pode ser definida como o resultado da soma de todos
os valores de um conjunto, dividido pelo número de valores somados.
Ela representa o valor da variável que cada elemento do conjunto teria
se não houvesse variação, ou seja, se todas as observações da variável
tivessem o mesmo valor este valor seria igual à média.
O cálculo da média é bastante conhecido e simples, embora
a fórmula possa assustar quem não gosta de matemática.

- 45 -
Paulo Rogério Morais

Onde:
Σ = somatório
xi = valores individuais
n = número de valores somados (tamanho da amostra)
_
x = Σ xi
Símbolos: n
µ (letra grega mu) = média da população

x (xis barra) = média da amostra
Exemplo: Dados os seguintes valores dos tempos (em segundos)
que 10 indivíduos gastaram para executar uma tarefa manual:

35 22 48 130 104 65 76 28 82 110

Para se obter o tempo médio do grupo para executar a


tarefa basta:

_ 35 + 22 + 48 + 130 + 104 + 65 + 76 + 28 + 82 + 110


X= = 700 = 70 segundos
10 10

Logo, o tempo médio do grupo para realizar a tarefa foi de 70


segundos. Se todas as 10 pessoas que compõem esta amostra
tivessem gasto o mesmo tempo para realizar a tarefa, cada pessoa
teria gasto 70 segundos.
A média possui algumas propriedades que devem ser levadas
em consideração antes de escolhê-la para descrever um conjunto de valores:
• Em seu cálculo, todos os valores do conjunto são
considerados;
• A soma dos desvios, isto é, o quanto cada elemento
se afasta da média, é sempre zero;
• A média é uma medida fortemente influenciada por
valores discrepantes do conjunto, ou seja, é muito
sensível às medidas conhecidas como outliers. Um
único elemento do conjunto pode influenciar
consideravelmente o valor da média. Recalcule a
média do exemplo anterior incluindo um indivíduo
que gastou 630 segundos para realizar a tarefa;
• É uma medida bastante útil para se comparar
superficialmente o comportamento de uma variável
em diferentes grupos;
• Não é possível se calcular a média de valores
agrupados em classes se alguma das classes não
tiver seu limite estabelecido.

- 46 -
Estatística para o curso de Psicologia

Possivelmente, a média seja a medida de tendência central


mais popular. Muitas informações cotidianas são representadas com
o uso do valor médio do conjunto de valores. Geralmente, quando
temos contato com informações estatísticas nos meios de
comunicação, as mesmas são apresentadas ou em porcentagens ou
de valores médios. Média das notas de um aluno ao longo do período
letivo, média dos salários dos trabalhadores formais, média de
consumo de energia elétrica ao longo do ano, e muitas outras.
Contudo, nem sempre a média é a medida mais adequada
para descrever alguns dados. A média só representa adequadamente
os valores de um conjunto quando o mesmo possui distribuição
simétrica ou moderadamente assimétrica (quando os valores do
conjunto se distribuem de modo mais ou menos uniforme em torno
do valor médio). Mais adiante será apresentada uma medida utilizada
para se verificar a simetria de conjuntos de valores.

Mediana

A mediana (Md) é um valor que divide um conjunto de valores


ordenados ao meio, formado uma parte contendo 50% dos valores
do conjunto que são iguais ou menores ao valor da mediana e outra
parte com os 50% que são iguais ou maiores do que a mediana. A
mediana é a medida que sempre estará no centro da distribuição
dos valores do conjunto, independentemente de se tratar de uma
distribuição simétrica ou assimétrica, homogênea ou heterogênea.
O mesmo pode não acontecer com a média ou com a moda.
Para se localizar a mediana de um conjunto de dados, deve-
se seguir alguns passos:
1o deve-se ordenar os valores do conjunto. A ordenação pode
ser tanto de forma crescente ou decrescente.
2o atribuir postos a cada um dos valores ordenados
3o localizar o posto mediano seguindo uma das seguintes
fórmulas de acordo com o número de elementos ordenados:

n impar:
PMd= n + 1
2
n par:
P1 + P2
P1= n . P2= n + 2 PMd= ________
2 2 2

- 47 -
Paulo Rogério Morais

Onde:
P1 = primeiro posto
P2 = segundo posto
n = número de elementos ordenados
PMd = posto mediano

4o converter o valor do posto mediano em valor mediano (Md).

Exemplo: Para se calcular a mediana dos valores dos tempos (em


segundos) que 10 indivíduos gastaram para executar uma tarefa manual:

35 22 48 130 104 65 76 28 82 110

O 1o passo é ordenar os valores do conjunto, e, em seguida,


atribuir postos a cada um dos valores ordenados:
Valor 22 28 35 48 65 76 82 104 110 130
Posto 1o 2o 3o 4o 5o 6o 7o 8o 9o 10o

A partir da aplicação da formula adequada (n par), obtemos


os postos centrais do conjunto (P1= 5o posto e P2= 6o posto). A posição
mediana é o 5,5o posto. Para se descobrir o valor da mediana, basta
calcular a média dos valores que ocupam P1 e P2 [(65+76) ÷2].
O tempo mediano do grupo para realizar a tarefa foi de 70,5
segundos. Isto significa que metade dos sujeitos realizou a tarefa
manual em 70,5 segundos ou menos e metade realizou a tarefa em
70,5 segundos ou mais.

A mediana também possui algumas características que


devem ser sempre lembradas:
• Seu valor é pouco influenciado pelos valores
extremos do conjunto. É pouco sensível às medidas
outliers . Recalcule a mediana do exemplo
adicionando um elemento que gastou 630 segundo
para realizar a tarefa.
• Por não utilizar todos os valores do conjunto para
seu cálculo, a mediana pode não ser um valor
representativo do conjunto – particularmente
quando o conjunto é composto por muitos valores
repetidos.
• Dados agrupados em classes sem limites definidos
podem ter calculada a mediana, ao contrário do
que acontece com a média.

- 48 -
Estatística para o curso de Psicologia

• É a medida que representa melhor conjuntos de


valores com distribuição assimétrica.
• Pode-se, eventualmente, utilizar a mediana para
descrever variáveis com mensuração ordinal.
• A mediana não permite manipulações matemáticas.
Por exemplo, se as medianas de dois grupos são
conhecidas, a mediana unificada dos dois grupos
não é necessariamente a média das medianas
isoladas de cada grupo.

Moda
Conceitualmente, a moda (Mo) é o valor da variável que
apresenta a maior freqüência, isto é, é o valor mais observado em um
conjunto. Pode-se fazer analogia da moda estatística com o que é
chamado de moda no dia-a-dia: diz-se que um corte de cabelo está
na moda por que a freqüência de observação deste tipo de corte é
alta em comparação com as outras possibilidades de cortes de cabelo.
Em alguns conjuntos de valores pode não haver moda
alguma ou mesmo existirem vários valores modais, como é mostrado
nos conjuntos a seguir:
Estaturas (em cm) de um grupo de estudantes:
Amostra A: 160, 160, 164, 165, 165, 165, 168, 172.

Nesta amostra o valor que mais se repete é 165 cm, logo é


a moda desta amostra.

Amostra B: 160, 161, 164, 164, 165, 165, 169, 175.

Nesta amostra, dois valores da variável são observados com


freqüência maior do que os demais (164 e 165 cm), portanto esta
amostra possui duas modas – é uma distribuição bimodal. Dependendo
do número de modas que um conjunto possui pode-se ter conjuntos
multimodais, o que pode não ser muito útil do ponto de vista prático.

Amostra C: 160, 161, 163,165,166,170,172,176.

No conjunto de valores da amostra C nenhum valor


prevalece sobre os demais. Trata-se de uma distribuição amodal.

Podem existir situações nas quais há a necessidade de se


obter um único valor para a moda do conjunto como, por exemplo,
quando se deseja fazer o cálculo do índice de assimetria. Nestes

- 49 -
Paulo Rogério Morais

casos, e também em amostras amodais, pode-se localizar uma


estimativa da moda. Para tanto se utiliza a seguinte fórmula:
_
Mo = 3 Md - 2 x

No exemplo utilizado para os cálculos da média e da


mediana tínhamos uma distribuição amodal. Mas, aplicando a fórmula
acima, podemos obter uma moda teórica para o conjunto:

Mo= (3 . 70,5) – (2 . 70) = 211,5 – 140 = 71,5 segundos


São características da moda:
• Pode ser obtida mesmo em conjuntos de dados com
mensuração em nível nominal. No exemplo utilizado
para a descrição de variáveis qualitativas, o diagnóstico
modal foi “dependência química”;
• Geralmente fornece pouca informação, pois não
considera todos os elementos do conjunto na sua
constituição.
• Uma única repetição, mesmo que casual, de qualquer
valor pode redundar em moda.
• Não há nenhuma medida de variabilidade compatível
com a moda, exceto quando a variável é qualitativa
e são apresentadas todas as diferentes categorias
da variável.
Embora possa ser uma medida facilmente localizável em
um conjunto de dados organizados, a moda não é muito utilizada.

2.2 – MEDIDAS DE DISPERSÃO (OU VARIABILIDADE)


Somente a apresentação de um valor representativo do
conjunto por meio de alguma medida de tendência central, embora
bastante comum tanto nos meios de comunicação em geral quanto
em artigos de pesquisa, é uma descrição incompleta. Conjuntos de
dados bastante diferentes podem apresentar a mesma média, como
pode ser verificado nos exemplos apresentados a seguir.
Uma característica das variáveis aleatórias é que elas podem
assumir diferentes valores e, como o próprio nome sugere, elas
variam. As medidas de dispersão, ou de variabilidade, devem ser
apresentadas para se informar o leitor o grau de variabilidade, isto
é, quanto os elementos que compõe o conjunto se afastam da medida
de tendência central utilizada para descrevê-los. Estas medidas são

- 50 -
Estatística para o curso de Psicologia

úteis para indicar o grau de confiança que se pode depositar nas


medidas de tendência central apresentadas, pois quanto menor a
variabilidade mais estáveis são as medidas. Além disso, com os
valores da medida de tendência central e de dispersão em mãos, o
pesquisador poderá avaliar se está trabalhando com amostras
homogêneas ou heterogêneas em relação a uma dada variável.
As medidas de dispersão mais empregadas são:
a) Amplitude total
b) Desvio-padrão
c) Coeficiente de variação
d) Intervalo interquartil
Imagine que um pesquisador fez um experimento para
avaliar se uma determinada substância tem efeito sobre as respostas
comportamentais de ratos em uma tarefa de medo condicionado.
Como parâmetro da resposta de medo, o pesquisador mensurou o
tempo (em segundos) que os animais permaneciam em freezing2
após ouvirem um som previamente associado a um estímulo aversivo.
Os resultados foram:
Tabela 2.2 - Tempo de freezing (em segundos)
Grupo controle Grupo experimental
125 63
113 162
105 79
137 176

Nos dois grupos a média de permanência em freezing foi de


120 segundos. Sendo apresentadas somente as médias dos grupos
fica a impressão de que os grupos tiveram o mesmo padrão de
resposta na tarefa. Contudo, pode-se observar que enquanto no grupo
controle as medidas individuais apresentam afastamentos pequenos
em relação à média, no grupo experimental o mesmo não acontece.
Na figura 2.1, que ilustra tais afastamentos, os valores acima da linha
são do grupo experimental e os valores abaixo são do grupo controle:

Figura 2.1 – Afastamentos individuais em relação às médias dos grupos


_
X experimental
63 79 162 176

60 105 113 125 137 180


_
X controle

2
Em situações de risco potencial e na impossibilidade de escapar, o rato tende a apresentar um
comportamento bastante peculiar, ficando completamente imóvel, com os olhos abertos, com tre-
mor da mandíbula, ranger dos dentes e sua respiração se torna irregular. Freqüentemente, faz-se
referência a este comportamento como freezing ou congelamento.

- 51 -
Paulo Rogério Morais

Como se pode constatar, embora a média dos grupos tenham


o mesmo valor, os dados do grupo experimental são muito mais
dispersos do que os do grupo controle. Para mostrar esta variação,
as medidas de tendência central sempre devem ser acompanhadas
de uma medida de dispersão ou de variabilidade.

AMPLITUDE TOTAL
Está é a mais simples das medidas de variabilidade, e
também a mais fácil de ser calculada. É uma medida que vai informar
qual a diferença existente entre o maior e o menor valor do conjunto,
isto é, trata-se de uma medida que representa a maior variação
observada nos valores de um conjunto.
Sua fórmula é bem simples:
AT = V max – V m
Onde:
AT = amplitude total
Vmax = maior valor observado no conjunto
Vmin= menor valor observado no conjunto
Aplicando esta fórmula aos dados dos grupos controle e
experimental do exemplo acima, têm-se os seguintes resultados:

AT Grupo controle= 137 – 105 = 32 segundos

AT Grupo experimental = 176 – 63 = 113 segundos

A amplitude total, neste caso, indica que o rato do grupo


controle que ficou menos tempo em freezing precisaria ficar mais
32 segundos imóvel para ter o mesmo desempenho do rato que
ficou mais tempo em freezing.
Conhecendo a amplitude total dos grupos já é possível
verificar que o grupo controle teve uma variação menor do que o
grupo experimental.
Ainda que seja uma medida fácil de se calcular e forneça
uma informação interessante do ponto de vista prático, a amplitude
total não é a melhor medida de dispersão a ser empregada. Algumas
das suas características, mostradas a seguir, justificam a escolha
de uma outra medida de variabilidade.
Características da amplitude total:
• Não utiliza todos os elementos do conjunto em seu
cálculo. Somente os valores extremos são considerados.

- 52 -
Estatística para o curso de Psicologia

Um único valor extremo no grupo controle poderia igualar


a amplitude total dos dois grupos.
• Situações muito diferentes do ponto de vista prático
podem receber o mesmo valor para a amplitude total.
Por exemplo, as idades (em anos) de dois grupos:
Grupo A: 2, 3, 3, 4, 4, 4, 5, 6
Grupo B: 62, 63, 63, 63, 65, 66, 66

Nos dois grupos o valor da amplitude total é de 4 anos. No


entanto, o significado destes quatro anos não é o mesmo nos dois
grupos, basta pensar nas diferenças relacionadas ao desenvolvimento
cognitivo, emocional e motor de uma criança de 2 anos e em uma de
6 anos. Não parece razoável afirmar que tais diferenças sejam as
mesmas para adultos com 62 ou 66 anos.
Mesmo com estes inconvenientes, não é raro encontrar
pesquisas publicadas nas quais os autores descrevem a variabilidade
de seus dados utilizando a amplitude total. Alias, é mais comum a
apresentação dos valores utilizados para a sua obtenção do que o
valor da amplitude total. Por exemplo, uma pesquisadora pode citar
que foram avaliados em sua amostra indivíduos com idades entre
15 e 20 anos, no lugar de informar que a amplitude total de variação
das idades foi e 5 anos.

DESVIO-PADRÃO
O desvio-padrão é a medida de variabilidade mais empregada
em trabalhos de pesquisa. É uma medida que possui diversas
propriedades que a torna uma medida muito útil para demonstrar a
dispersão dos valores de um conjunto.
Para entender melhor as propriedades que tornam o desvio-
padrão tão útil e interessante, bem como seu cálculo (uma fórmula
que, embora simples, assusta quase a totalidade dos estudantes e
também muitos profissionais de Psicologia), é interessante conhecer
outras medidas de variabilidade relacionadas ao desvio-padrão. Na
verdade, pode-se dizer que tais medidas são passos para se chegar
ao desvio-padrão.

Desvio médio
Se um dos inconvenientes da amplitude total é só considerar
os valores extremos, o desvio médio contorna este problema, pois
seu calculo envolve cada elemento que compõe o conjunto.

- 53 -
Paulo Rogério Morais

_
Σ__________
|xi - x |
DM =
n
Onde:
Σ = somatório
|xi – | = o valor absoluto da diferença de cada valor individual
x
em relação à média.
n = número de valores somados
Por exemplo, o desvio médio do grupo controle é
apresentado a seguir:
xi xi – x |xi- x |
125 125 – 120 = 5 5
113 113 – 120 = -7 7
105 105 – 120 = -15 15
137 137 – 120 = 17 17
Σ 0 44

44
DM Grupo controle = = 11 segundos
4
Como já foi abordado, uma das características da média é
que a soma dos desvios de cada elemento é sempre igual a zero.
Por isso, o cálculo do desvio médio vai utilizar o valor absoluto dos
afastamentos (| |), isto é, o sinal negativo dos desvios é desprezado.
O desvio médio vai expressar a média dos afastamentos de
todos os elementos em relação à média do conjunto. Se todos os
sujeitos que compõe o grupo controle estivessem afastados
igualmente da média, ou teriam ficado em freezing 11 segundos a
mais ou 11 segundos menos do que a média. Mas na verdade não é
isso que se observa, um dos sujeitos ficou em freezing 7 segundos a
menos do que a média do grupo, outro ficou 17 segundos a mais em
freezing, e assim por diante.
Este é uma desvantagem do desvio médio: ele iguala os
desvios de todos os elementos, não diferenciando desvios pequenos
de desvios grandes.

VARIÂNCIA
A variância é uma medida de variabilidade que utiliza todos
os elementos do conjunto em seu cálculo, com uma grande vantagem
sobre o desvio médio: é uma medida que considera o tamanho de
cada afastamento.

- 54 -
Estatística para o curso de Psicologia

_
Σ (xi -
_________x)
2
s2 =
n
Onde:
Σ = somatório
(xi – x )2 = o valor da diferença de cada valor individual em
relação à média elevado ao quadrado.
n = número de valores somados

Aplicando esta fórmula aos dados do grupo controle, temos:

xi xi - x (xi- )2
125 125 – 120 = 5 52= 25
113 113 – 120 = -7 -72=x49
105 105 – 120 = -15 -152= 225
137 137 – 120 = 17 172= 289
Σ 0 588

2 2
s Grupo controle = 588 = 53 segundos
4
Sua fórmula é muito parecida com a do desvio médio, a
diferença é que para se chegar à variância deve-se elevar cada
afastamento ao quadrado, ao invés de considerar seu valor absoluto.
Com isto, elimina-se o problema do resultado nulo da soma dos
desvios e atribuem-se valores pequenos para desvios pequenos e
valores maiores para os desvios grandes. No entanto, o resultado é
expresso em unidades ao quadrado que, na maioria das vezes, não
tem uma tradução real. O que significa dizer que o afastamento dos
elementos em relação à média é de 53 segundos ao quadrado? Por
causa desta característica, a variância tem pouca utilidade para a
descrição da dispersão de conjuntos de valores.
Mas, com o valor da variância em mãos, podemos finalmente
chegar ao desvio-padrão. Para tanto basta calcular a raiz quadrada
positiva da variância, como mostra a fórmula abaixo:
__________


_
Σ (xi - x )2
_________
s=
n

Σ = somatório
(xi – x )2 = o valor da diferença de cada valor individual em
relação à média elevado ao quadrado.
n = número de valores somados

- 55 -
Paulo Rogério Morais

Como já foi citado, o desvio-padrão possui propriedades que


o torna uma medida de dispersão muito útil para se descrever a
variação observada nos valores de um conjunto e informar a
homogeneidade de tal conjunto.
As características do desvio-padrão são:
• Todos os valores do conjunto são utilizados em seu cálculo;
• Seu valor é afetado pelo tamanho de cada um dos
afastamentos, ao contrário do desvio médio;
• Diferente da variância, seu valor é expresso em uma unidade
linear, o que torna mais fácil a sua interpretação.
• O valor do desvio-padrão é um ótimo indicativo da
homogeneidade do conjunto de valores. Assim:
ð quando o desvio-padrão é pequeno
(“DPzinho”) = amostra homogênea
ð quando o desvio-padrão é grande
(“DPzão”) = amostra heterogênea
• Em conjuntos com distribuição simétrica, o desvio-padrão
estabelece claros limites de variabilidade. Conhecendo os
valores da média e do desvio-padrão pode-se saber se a
distribuição é homogênea ou não e também especular quais
seriam os valores mínimos e máximos observados no
conjunto. O quadro seguinte mostra os limites de variação
dos valores contidos entre a média e a soma e subtração
de até três vezes o valor do desvio-padrão:

Média ± DP Proporção de elementos Proporção aproximada


inclusos no intervalo
Média ± 1 DP 68,26 % 2/3 dos casos
Média ± 2 DP 95,44 % 95 % dos casos
Média ± 3 DP 99,73 % 100 % dos casos
Freqüência de xi

68 %

95 %

99,7 %
_
-3 DP -2 DP -1 DP X +1 DP +2 DP +3 DP
Valores de xi

Figura 2.2 – Proporção da amostra incluída nos afastamen-

- 56 -
Estatística para o curso de Psicologia

Por exemplo, em um teste de QI como o WAIS (Wechsler


Adults Intelligence Scale), a média obtida por um grupo de estudantes
foi de 100 pontos, com um desvio-padrão de 15 pontos; é muito
provável que algo em torno de 68% dos sujeitos que compõem a
amostra tenha pontuação igual ou maior a 85 pontos (média – 1 DP)
e igual ou menor a 115 pontos (média + 1 DP). Também se pode
inferir que será muito difícil, mas não impossível, encontrar um sujeito
que tenha obtido menos do que 55 (média – 3 DP) ou mais do que
145 pontos (média + 3 DP), pois, teoricamente, somente 0,27% dos
casos ultrapassariam estes limites (0,13 para menos e 0,13 para mais).
Está última propriedade do desvio-padrão é muito utilizada
nas áreas de saúde para se estabelecer padrões de normalidade.
Por exemplo, veja as classificações da escala WAIS:
Tabela 2.3 - Classificação de acordo com a pontução obtida na escala WAIS
Pontuação (QI) Clasificação
130 ou mais Muito superior
120-129 Superior
110-119 Normal brilhante
90-109 Normal
80-89 Subnormal
70-79 Limítrofe (borderline o fronteiriço)
50-69 Deficiência mental superficial
49-30 Deficiência mental médio
29 ou menos Deficiência mental profundo

Apesar de suas ótimas qualidades, o desvio-padrão só


descreve adequadamente a dispersão dos valores de um conjunto
com distribuição normal, isto é, distribuições que se comportem sob
uma curva de Gauss. Além disso, o desvio–padrão só tem alguma
utilidade prática quando também conhecemos a média do conjunto.
Um ponto a ser lembrado: o desvio-padrão não deve ser
confundido com o “erro-padrão”. Embora muitos artigos científicos
utilizem o erro-padrão com o objetivo de representar a variabilidade
dos dados obtidos a partir de amostras, esta medida não cumpre
tal função. Na verdade, o erro-padrão, na maior parte das vezes,
é utilizado para mascarar uma grande variabilidade.3

COEFICIENTE DE VARIAÇÃO
Como foi citado anteriormente, o valor do desvio-padrão
indica a homogeneidade dos valores de um conjunto, sendo que um

3
Dada a fórmula do erro padrão (DP dividido pela raiz quadrada de n), DPzões são apresentados
como se fossem DPzinhos.

- 57 -
Paulo Rogério Morais

“DPzinho” indica uma amostra homogênea e um “DPzão” uma


amostra heterogênea. Mas como saber se o desvio-padrão é grande
ou pequeno? O Coeficiente de variação (CV) é uma medida de
dispersão relativa, pois expressa a relação percentual do desvio-
padrão em relação à média.
Seu cálculo é bastante simples, basta dividir o desvio-padrão
pela média e multiplicar o resultado por 100, como mostra a seguinte
fórmula:
____
DP
_ X 100
CV =
x
Onde:
DP = valor do desvio-padrão
x = valor da média

O coeficiente de variação pode ser interpretado da seguinte


forma:
ð CV d” 20% = trata-se de amostra homogênea (DPzinho)
ð CV > 20% = trata-se de amostra heterogênea. (DPzão)

Quanto maior o valor do coeficiente de variação, maior é a


dispersão dos valores do conjunto e quanto menor o valor do
coeficiente de variação, mais homogêneo é o conjunto.
Além de indicar o grau de homogeneidade de um conjunto de
valores, o coeficiente de variabilidade pode ser útil para se comparar
a variabilidade de diferentes conjuntos de dados em duas situações:
a) médias muito diferentes, mas provenientes de uma mesma
variável
b) comparar a homogeneidade de variáveis diferentes

Para exemplificar estas aplicações do coeficiente de


variação, imagine a seguinte situação: em dois grupos, foram
mensuradas a idade e a pontuação em um teste de inteligência
(WAIS). Os resultados observados foram:

Tabela 2.4 – Médias de dois grupos para a idade e a pontuação obtida na escala
WAIS
Grupo Idade (média±DP) WAIS (média±DP)
Controle 31± 7 103 ± 15
Pacientes 46 ± 9 99 ± 8

A primeira impressão que se tem destes resultados é que o


grupo de pacientes apresentou maior variação na idade. Mas, quando
são calculados os coeficientes de variação dos grupos, a realidade é

- 58 -
Estatística para o curso de Psicologia

outra. Enquanto o grupo controle tem um coeficiente de variação de


22,6% para a variável idade, o coeficiente de variação desta mesma
variável do grupo de pacientes foi de 19,6%. Logo, pode-se afirmar
que o grupo controle é heterogêneo para a variável idade, enquanto
que o grupo de pacientes é homogêneo para esta mesma variável.
Com o coeficiente de variação também é possível comparar
a homogeneidade de variáveis mensuradas em diferentes unidades
de medida. No exemplo, a idade dos grupos está expressa em anos
e o teste de inteligência tem seu resultado expresso em pontos. São
magnitudes diferentes que não podem ser comparadas diretamente.
No entanto, se pode comparar a homogeneidade das duas variáveis.
Embora o grupo controle seja heterogêneo em relação à idade, o
mesmo não é observado para o teste de inteligência (CV= 14,6%).
O coeficiente de variação deve ser interpretado com especial
atenção quando aplicado a variáveis com mensuração em nível intervalar
(como é o caso de muitos testes e inventários utilizados em Psicologia).

Intervalo interquartil
Como foi citado, o desvio-padrão só representa adequadamente
a dispersão de conjuntos de dados com distribuição simétrica. Para
descrever a variação de um conjunto de valores com distribuição que
não se comporta sob uma curva de Gauss, o intervalo interquartil é
uma medida bastante útil.
O intervalo interquartil compreende a distância entre o primeiro
e o terceiro quartil. Para compreender o que é um quartil, é necessário
conhecer as separatrizes, que nada mais são do que valores que dividem
um conjunto ordenado de valores em n partes de igual tamanho.
As principais separatrizes são:
Quartil (Q) à divide uma distribuição em quatro partes iguais,
cada uma com ¼ dos valores do conjunto.
Decil (D) à divide a distribuição em dez partes iguais, cada uma
com 1/10 dos valores do conjunto.
Centil ou percentil (P) à divide uma distribuição em cem partes
iguais, cada uma com 1/100 dos valores do conjunto.

A figura 2.3 representa um conjunto de valores ordenados


crescentemente e dividido em quartis:
Q1 Md ou Q2 Q3

Figura 2.3 – Conjunto ordenado dividido em quartis.

- 59 -
Paulo Rogério Morais

Da mesma forma que a mediana (que também é uma


separatriz na ordem de ½), a localização dos quartis também segue
alguns passos simples:
1o ordenar os valores do conjunto;
2o atribuir postos aos valores ordenados
3o aplicar a seguinte fórmula para localizar a posição do
quartil desejado: ____
n
Qj = 4 Xj
Onde:
j = quartil que se deseja saber o valor ( 1, 2, ou 3)
n = número de valores ordenados
Tabela 2.5 – Pontuações do grupo
4o transformar o posto em no Inventário Beck de Depressão
valor da distribuição. Sujeito Pontuação BDI
1 10
2 28
Para exemplificar são 3 05
4 02
apresentadas as pontuações 5 29
obtidas por 15 indivíduos em um 6 11
inventário para avaliar a 7 08
sintomatologia depressiva 8 12
(Inventário de Depressão de Beck 9 21
10 16
- BDI): 11 03
12 26
Inicialmente, os valores devem ser 13 10
ordenados e, em seguida, devem 14 14
ser atribuídos postos a eles. 15 06

Valores 02 03 05 06 08 10 10 11 12 14 16 21 26 28 29
Postos 1o 2o 3o 4o 5o 6o 7o 8o 9o 10o 11o 12o 13o 14 o 15o
Para localizar o primeiro (Q1) e o terceiro (Q3) quartis basta
aplicar as seguintes fórmulas:

Q1 = (15 / 4) x 1 = 3,75o posto


Q3 = (15/4) x 3 = 3,75 x 3 = 11,25o posto.

Agora é necessário converter os postos em valores do


conjunto. No exemplo, os postos que representaram Q1 e Q3 não
existem na distribuição, pois são intermediários entre um posto e
outro. Nestes casos, há a necessidade de se descobrir quais os
valores que teoricamente ocupariam tais postos.

- 60 -
Estatística para o curso de Psicologia

No caso de Q1 que corresponde a um valor entre o 3o e o 4o


posto, o primeiro passo é descobrir qual é o intervalo em valores
entre estes dois postos:
3o posto = 5
4o posto = 6
intervalo entre postos = 1 ponto.

O próximo passo é calcular o valor o correspondente a 0,75


(distância além do 3o posto onde está Q1). Basta multiplicar o valor do
intervalo pelo valor decimal do primeiro posto em questão, no caso o 3o.

1 x 0,75 = 0,75 pontos

O valor do 3o posto já é conhecido (5 pontos), agora basta somar


o valor que corresponde a 0,75 postos e descobriu-se o valor de Q1:

Q1 = 5 pontos + 0,75 pontos = 5,75 ou 6 pontos

Para descobrir o valor de Q3 o procedimento é o mesmo, mudando


somente o valor do intervalo entre 11o e o 12o posto (5 pontos) e também
o valor decimal além do posto já conhecido (0,25 postos). Logo:

5 x 0,25 = 1,25 pontos


Q3 = 16 pontos + 1,25 pontos = 17,25 ou 17 pontos.

Para este conjunto de valores Q1 = 6 pontos e Q3 = 17 pontos.


Isto significa que algo em torno de 50% dos elementos que compõe
a amostra obtiveram pontuações entre 6 e 17 pontos. Somente 25%
da amostra teve menos do que 6 pontos e 25% dos elementos que
compõe a amostra obtiveram pontuação superior a 17.
A rigor o intervalo interquartil corresponde a diferença entre
Q3 e Q1, isto é, o valor de Q3 menos o valor de Q1. No entanto, o valor
resultante fornece pouca informação, pois assume que a distribuição
dos valores se comporta sob uma curva de Gauss e que a distância
entre a mediana e Q1 é a mesma que entre a mediana e Q3. No
exemplo, o intervalo interquartil é de 17 – 6 = 11 pontos. Considerando
que a mediana (ou Q2) está entre Q1 e Q3, a informação que o intervalo
interquartil fornece é que os escores centrais da distribuição estão 5,5
pontos abaixo ou acima do valor da mediana. Contudo, para se
descrever distribuições simétricas o desvio-padrão já é uma medida
adequada e o emprego de dos valores de Q1 e Q3 justifica-se apenas
para as distribuições assimétricas.

- 61 -
Paulo Rogério Morais

Portanto, para descrever a variabilidade de conjuntos com


distribuição assimétrica, o ideal é apresentar os valores de Q1 e Q3.
O intervalo interquartil, da mesma forma que o desvio-
padrão, fornece informações quanto a homogeneidade a amostra.
Quanto mais próximos estiverem Q1 e Q3 do valor da mediana, mais
homogênea é a amostra, ou seja, 50% dos escores centrais são
medidas semelhantes.
Além disso, os valores de Q 1 e Q 3 também fornece
informações quanto a assimetria do conjunto. Se o resultado de Q3
– Md for inferior ao resultado de Md – Q1 a distribuição apresenta
assimetria negativa, caso contrário, a assimetria é positiva.
Uma outra qualidade do intervalo interquartil é que, assim
como para a mediana, valores discrepantes não provocam grandes
alterações em seu valor.

3. DESCREVENDO A SIMETRIA DE UM CONJUNTO

Dependendo das características da variável que está sendo


avaliada, ou mesmo do instrumento utilizado para a avaliação, os
valores desta variável podem se distribuir ao redor de um valor central
representativo do conjunto ou se concentrar em um ponto extremo.
Considere os seguintes conjuntos de valores:

Conjunto A: 1, 2, 2, 3, 3, 3, 4, 4, 5
Conjunto B: 1, 1, 1, 1, 1, 2, 4, 6, 9

Se os valores destes conjuntos forem apresentados graficamente


teremos:

4
A
3
FREQÜÊNCIA

0
0 1 2 3 4 5 6
VALORES OBSERVADOS

- 62 -
Estatística para o curso de Psicologia

B
4

FREQÜÊNCIA 3

0
0 1 2 3 4 5 6 7 8 9 1 1
VALORES OBSERVADOS

Figura 2.4 – Distribuição de dois conjuntos de dados

Como se pode notar, enquanto no conjunto A os valores


distribuem-se tanto acima quanto abaixo de um ponto central, no
conjunto B os valores concentram-se em um dos extremos da curva.
Dizemos que um conjunto possui distribuição simétrica
quando a distribuição de seus valores possui uma configuração
semelhante a da figura 2.4a. Distribuições com esta configuração
também são chamadas de distribuição normal, indicando que os
dados comportam-se sob uma curva de Gauss.
Para saber se os valores de um conjunto distribuem-se ou
não sob uma curva de Gauss, isto é, se possui distribuição simétrica
ou não, existe uma medida bastante simples que pode ser utilizada
para este fim, o índice de assimetria, que pode ser obtido a partir
da seguinte fórmula: _
A = ______
x - Mo
S
Este índice poderá assumir valores positivos ou negativos,
sendo que:
Índice de assimetria negativo: significa que a distribuição é enviesada
para a direita, ou seja, os valores se concentram no extremo superior
da distribuição. Um exemplo deste tipo de distribuição seriam as notas
obtidas por um grupo de alunos em uma prova muito fácil na qual muitos
alunos obtêm a nota máxima e alguns poucos tiram notas menores.
Índice de assimetria for positivo: significa que a distribuição é
enviesada para a esquerda com os valores se concentrando no extremo
inferior da distribuição. A distribuição de renda brasileira é um ótimo
exemplo deste tipo de enviesamento, com a esmagadora maioria das
pessoas com rendimentos baixos e alguns poucos indivíduos com
rendimentos estratosféricos.
Quanto mais próximo de zero for o valor do índice de assimetria,
menos assimétrica é a distribuição, sendo que em uma curva de Gauss

- 63 -
Paulo Rogério Morais

perfeita o valor deste índice é zero (o valor da média é igual ao da


moda do conjunto). No entanto, quando o índice de assimetria é maior
do que 1,00 ou menor do que -1,00, significa que a distribuição é
assimétrica. Nestes casos a média e o desvio-padrão não podem ser
utilizados para descrever o conjunto de valores. A descrição de conjuntos
com distribuição assimétrica deve ser feita por meio da mediana e do
intervalo interquartil.

4. DESCREVENDO CORRELAÇÕES

Muitas pesquisas realizadas na área de Psicologia buscam


estudar se uma variável se relaciona com outra como, por exemplo,
se o suporte familiar percebido por uma puérpera tem alguma relação
com a presença ou intensidade de sintomatologia depressiva ou se
a quantidade de cenas violentas assistidas em programas televisivos
tem alguma relação com comportamentos agressivos emitidos por
crianças, entre outras.
Nas pesquisas correlacionais, o pesquisador esta interessado
em saber se alterações nos valores de uma variável x (suporte familiar
ou quantidade de cenas violentas na TV) são acompanhadas de
mudanças nos valores de outra variável y (sintomas de depressão ou
comportamentos agressivos, respectivamente). Embora os estudos
de correlação não esclareçam a relação de causa e efeito entre as
variáveis, estes estudos são úteis para a compreensão das relações
existentes entre variáveis e podem também fornecer subsídios para
investigações que empreguem delineamentos experimentais.
A medida estatística utilizada para descrever a relação entre
duas variáveis é o coeficiente de correlação. O coeficiente de
correlação fornece duas informações acerca da associação das
variáveis em questão:
• o sentido da correlação: as correlações podem ser positivas ou
negativas. Se uma correlação é positiva, isto significa que, quando
os valores de uma das variáveis aumenta, em média, também
são observados aumentos nos valores da outra variável (quanto
maior a quantidade de cenas violentas crianças assistem na TV,
maior é a taxa de comportamentos agressivos). Uma correlação
negativa indica que o relacionamento entre as variáveis é inverso,
ou seja, à medida que são observados valores elevados em uma
das variáveis, na média, são observados valores baixos para a
outra variável (puérperas que obtém pontuação alta em uma escala

- 64 -
Estatística para o curso de Psicologia

que avalia sintomatologia depressiva tendem a ter pontuações


baixas em uma escala que avalia o suporte familiar);
Podemos dizer resumidamente:
Correlações positivas: os valores de x aumentam e os
valores de y, na média, aumentam também.
Correlações negativas: enquanto os valores de x
aumentam, na média, os valores de y diminuem.

• a força da correlação: independente de ser positiva ou


negativa, as variáveis podem se relacionar com maior ou
menor consistência, isto é, as variações simultâneas podem
ocorrer em muitos ou em poucos casos. O valor do coeficiente
de correlação varia entre -1,00 e +1,00. Por exemplo, um
coeficiente de correlação com valor +1,00 indica que todos
os casos variaram simultaneamente e no mesmo sentido.

Conforme o valor do coeficiente de correlação, temos:

Coeficiente de Interpretação
correlação
-1,00 Correlação negativa perfeita
-0,75 Correlação negativa forte
-0,50 Correlação negativa moderada
-0,25 Correlação negativa fraca
0,00 Ausência de correlação
+0,25 Correlação positiva fraca
+0,50 Correlação positiva moderada
+0,75 Correlação positiva forte
+1,00 Correlação positiva perfeita

Por exemplo, se uma pesquisa que pretendeu verificar


a relação entre a quantidade de cenas violentas assistidas
na TV e a expressão de comportamentos agressivos por
crianças observou um r= 0,37, significa que existe uma
correlação positiva moderada (mais precisamente, de
moderada à fraca) entre estas variáveis, isto é, quanto
maior o número de cenas violentas assistidas maior é a
expressão de comportamentos violentos

A seguir são apresentadas duas fórmulas para se determinar


o coeficiente de correlação

- 65 -
Paulo Rogério Morais

Coeficiente de correlação de Pearson


nΣxy – (Σx).(Σy)
___________________________
r=

2 2 2 2
[nΣx – (Σx) ] . [nΣy – (Σy) ]

onde:
r = coeficiente de correlação de Pearson
n = número de pares de medidas
x = total da soma dos valores da variável x
y = total da soma dos valores da variável y
ou
Coeficiente de correlação de postos de Spearman
6ΣD2
__________
rs = 1 -
n(n2 – 1)
onde:
rs= coeficiente de correlação de postos de Spearman
D = diferença entre os postos de cada elemento amostral nas
duas variáveis
n = número de pares de medidas (tamanho da amostra válida4)

Embora as fórmulas sejam assustadoras, atualmente


programas estatísticos se encarregam de fazer tais cálculos e,
além de apresentar o valor do coeficiente de correlação,
informando a força e o sentido da correlação, também informam
qual a chance de, em n observações, a correlação ter ocorrido
simplesmente por acaso.
O coeficiente de correlação de Pearson é empregado para
medidas intervalares ou proporcionais, enquanto que o
coeficiente de correlação de Spearman é utilizado quando se
trabalha com medidas com mensuração ordinal ou medidas
intervalares ou proporcionais que não se comportam sob uma
curva de Gauss.

Um ponto a ser lembrado: a existência de correlações,


positivas ou negativas, fortes ou fracas, não devem ser
interpretadas como uma relação de causa-efeito, isto é,
alterações em uma variável não são a causa nem a
conseqüência de mudanças nos valores da outra variável.

4
Nas amostras de estudos correlacionais são considerados somente os elementos amostrais que
têm avalições na variável x e na variável y. Elementos com avaliação em somente uma das variá-
veis são descartados.

- 66 -
Estatística para o curso de Psicologia

5. APRESENTAÇÃO DOS RESULTADOS: TABELAS


E GRÁFICOS

Depois de devidamente resumidos, os resultados precisam


ser apresentados de maneira clara, precisa e objetiva. Para este fim
é muito comum o uso de tabelas e gráficos (figuras), que fornecem
à qualquer pessoa minimamente familiarizada com dados numéricos
as principais informações acerca das variáveis estudadas. Mesmo
que exista um texto que explique detalhadamente os resultados, as
tabelas e figuras permitem a visualização rápida das relações
numéricas relevantes dos resultados.
Vale ressaltar que a apresentação por meio de tabelas ou de
gráficos atende a objetivos diferentes, mas que se complementam.
Enquanto as tabelas fornecem um resumo detalhado e preciso acerca
dos dados, os gráficos possibilitam visualização rápida e facilita a
compreensão dos dados apresentados. O uso de uma tabela não
exclui necessariamente a possibilidade de se utilizar também um gráfico
e vice-versa. Muitas vezes, para economizar espaço na publicação,
somente uma das alternativas é utilizada, em geral tabelas.

TABELAS
As tabelas são quadros, compostos por linhas e colunas,
que apresentam o resumo organizado dos resultados obtidos a partir
dos dados brutos. A finalidade maior das tabelas é fornecer o máximo
de informações em um mínimo de espaço.
Uma tabela é composta pelos seguintes elementos
essenciais:
• Titulo: frase curta que fornece informações acerca do
conteúdo da tabela. Deve ser colocado acima da tabela
• Corpo: é o conjunto de linhas e colunas que contém os
dados da tabela
• Cabeçalho: é a primeira linha do corpo da tabela e indica
o conteúdo das colunas;
• Coluna indicadora: é a primeira coluna da tabela e
especifica o conteúdo de cada linha. Tabelas de dupla
entrada podem apresentar mais de uma coluna
indicadora;

- 67 -
Paulo Rogério Morais

• Casela ou célula: é cada espaço localizado na


intersecção entre uma linha e uma coluna. O ideal é
que em cada casela seja colocada somente uma
informação.

Além dos elementos essenciais citados acima, as tabelas


também podem conter elementos complementares:
• Fonte: indica qual a origem dos dados apresentados
(pesquisador, instituição, publicação, ou outros). Deve
figurar no rodapé da tabela
• Notas: informações apresentadas para esclarecer
questões gerais acerca do conteúdo da tabela ou método
utilizado para a coleta dos dados. São indicadas por
algarismos arábicos, sobrescritos e dispostos entre
parênteses à direita quando colocada na coluna
indicadora e à esquerda quando aparecer no corpo da
tabela. As notas figuram no rodapé da tabela, abaixo da
fonte (se houver) e são colocadas em ordem crescente.
• Chamadas: são esclarecimentos específicos acerca de
determinada informação contida na tabela. As
chamadas são feitas com o uso de algarismos arábico,
sobrescritos, dispostos entre parênteses, e são
colocadas à direita da coluna. Da mesma forma que as
notas, as chamadas também devem ser colocadas no
rodapé da tabela (entre a fonte e as notas, casos
existam) em ordem numérica crescente.
Ao se apresentar os dados em uma tabela, alguns critérios
devem ser seguidos na confecção da mesma:
• o corpo da tabela deve ser delimitado por traços horizontais;
• o corpo da tabela não deve ser delimitado por traços
verticais à esquerda ou à direita
• traços verticais podem ser empregados, no interior da
tabela, para separar as colunas;
• todas as caselas devem conter um número ou um sinal,
não podendo haver caselas “em branco”. Os sinais utilizados
para preencher as caselas em branco devem ser utilizados
conforme a seguinte norma:
– (traço): dado inexistente
? (sinal de interrogação): dúvida quanto a fidedignidade
da informação
x (xis): informação omitida;
... (três pontos): dado indisponível;

- 68 -
Estatística para o curso de Psicologia

• no corpo da tabela não pode haver mais caselas com sinais


do que caselas com informações;
• as tabelas são numeradas em algarismos arábicos, (por
exemplo, “Tabela 2.7”) e devem possuir chamada ao longo
do texto;
• as tabelas devem figurar próximas de sua chamada no texto;
• tabelas longas que necessitem ser apresentadas em mais
do que uma página devem ter seu cabeçalho repetido a
cada nova página, mas seu título só deve ser colocado na
primeira página;

A seguir, é apresentada uma tabela como exemplo:

Tabela 2.6 - Experiências e comportamentos relatados por grupo de jovens após


ingerir bebidas alcoólicas:

Comportamento Freqüência absoluta Freqüência %


Dirigir automóvel 17 47
Faltar a compromissos 9 25
Envolver-se em brigas 3 8
Experimentar delírios ou alucinações 2 6
Envolver-se em acidentes 0 0
Ter desmaiado 0 0
Ter precisado de socorro médico 0 0
Outros 5 14

GRÁFICOS
Os gráficos são figuras que tem como função representar
de forma geométrica ou pictográfica as principais informações de
um ou mais conjuntos de dados. Certamente, são os instrumentos
estatísticos mais conhecidos. A maior parte das pessoas tem contato
com alguma informação estatística por meio de algum tipo de gráfico.
Dadas as suas características, que serão abordadas a seguir,
diferentes meios de comunicação empregam diferentes tipos de
gráficos para fazer a apresentação de informações estatísticas.
Representar uma determinada informação por meio de
gráficos exige rigor e ética por parte de quem os confecciona.
Experimente comparar as informações contidas em um croqui
ilustrativo de algum anúncio de imóvel (desses que geralmente são
entregues nos semáforos das grandes cidades) com o mapa de um
guia de ruas que represente a mesma área. Embora as duas figuras
se prestem a representar basicamente a mesma informação,
freqüentemente os anúncios de imóveis apresenta a informação de

- 69 -
Paulo Rogério Morais

maneira tão rudimentar que o leitor pode inferir que o


empreendimento imobiliário fica bem próximo de uma estação do
Metrô, ou de um grande centro comercial. Mas, quando a mesma
informação é enriquecida com mais detalhes e obedece critérios
mais rigorosos de apresentação (a indicação da escala, por exemplo),
a conclusão deste mesmo leitor pode ser outra.
Embora as informações contidas em um gráfico possam,
às vezes, carecer de exatidão, são mais facilmente assimiladas do
que se fossem apresentadas em um texto e são mais atraentes do
que se apresentadas em tabelas. Os gráficos têm a vantagem de
facilitar a visualização das relações numéricas obtidas,
proporcionando uma rápida leitura e compreensão de seu conteúdo.
Ao se construir um gráfico para representar um determinado
fenômeno ou o comportamento de uma ou mais variáveis, devemos
lembrar de atender a três requisitos básicos:
• simplicidade: o gráfico não deve conter detalhes ou minúcias
de importância secundária ao fenômeno em questão, a
presença de detalhes que não sejam essenciais poderá
tornar morosa a leitura do gráfico;
• clareza: os dados apresentados no gráfico devem possibilitar
uma interpretação rápida, correta e desprovida de
ambigüidades ou dúvidas;
• veracidade: o gráfico deve representar da forma mais fidedigna
possível o fenômeno ou medidas que se pretende representar.

Assim como as tabelas, a confecção dos gráficos também segue


algumas normas gerais:
• Qualquer gráfico deve possuir um título que pode ser
colocado tanto acima como abaixo do gráfico;
• Em trabalhos acadêmicos, os gráficos recebem o nome de
“Figura” e são identificados por números arábicos;
• Os eixos do gráfico devem apresentar as escalas (e também
a unidade de medida empregada) dos eixos, que cresce de
baixo para cima (eixo das ordenadas - horizontal) e da
esquerda para a direita (eixo das abcissas – vertical);
• No eixo vertical escreve-se o nome da variável abaixo da
escala e no eixo horizontal o nome da variável é colocado
na extremidade do mesmo;
• Cores podem ser utilizadas de forma criteriosa, pois podem
produzir ilusões de ótica ou poluir o gráfico;

- 70 -
Estatística para o curso de Psicologia

• O efeito 3D (profundidade) deve ser utilizado somente em


gráficos que necessitem de mais uma dimensão para
representar adequadamente o fenômeno em questão;
• Fonte, notas e chamadas também podem ser utilizadas e
seguem as mesmas regras das tabelas;

Conhecer estas características para a confecção dos gráficos


também é útil para a leitura proveitosa do seu conteúdo. Para a melhor
compreensão dos dados que são representados em um gráfico, a leitura
deve começar pelo título e eixos. Pode-se dizer que ler um gráfico é
como comer mingau quente: deve-se começar pelas beiradas. Podemos
fazer uma avaliação totalmente equivocada dos dados de um gráfico
se não observarmos o que representam seus eixos, bem como quais
as unidades de medida que estão sendo representadas.
Existem muitas formas de representar o comportamento de
uma ou mais variáveis empregando diferentes tipos de gráficos. A
seguir serão apresentados exemplos, características e indicações
de uso daqueles gráficos que são mais comumente utilizados na
Psicologia e outras ciências da Saúde.

Gráfico de barras e de colunas simples


Os gráficos de barras e os de coluna são elaborados
segundo o mesmo princípio: retângulos colocados sobre um eixo de
coordenadas cartesianas com tamanho proporcional às grandezas
a serem representadas. Além disso:
• As bases dos retângulos devem ter o mesmo tamanho;
• Os espaços entre um retângulo e outro também devem ser iguais
• Os dados numéricos representados pelos retângulos não
devem ser colocados no interior dos mesmos;
A diferença entre estes dois tipos de gráficos é que no de
colunas a base dos retângulos se localiza no eixo horizontal (abcissas)
enquanto que no gráfico de barras as bases dos retângulos ficam no
eixo vertical (ordenadas). Embora as relações de grandeza entre os
dados sejam mais facilmente visíveis nos gráficos de coluna, os
gráficos de barra podem ser empregados quando as legendas
utilizadas em cada retângulo forem muito longas.
Estes tipos de gráficos podem ser utilizados tanto para
representar as freqüências observadas para as diferentes categorias
de variáveis qualitativas, como também para representar as medidas
de tendência central e de dispersão de variáveis quantitativas. A
seguir, é apresentado um gráfico de colunas como exemplo:

- 71 -
Paulo Rogério Morais

FIGURA 2.5 - TESTE DE ESQUIVA

600

500
*
400
*
mediana (Q1– Q3)
latência (seg.)

300

200

100

0
Gsal PLsal PEsal PEatro PEpilo
GRUPOS
*= p<0,05 comparado com grupos Gsal e PEpilo
Neste gráfico, o autor apresentou a medida de tendência central
(mediana) e também a dispersão (Q1 e Q3) de seus dados. Além disso,
também indica com os asteriscos quais diferenças foram, a partir da
análise inferencial, consideradas estatisticamente significante.
Quando o objetivo é representar valores proporcionais de
uma ou mais variáveis, uma variação do gráfico de colunas (e de
barras também) pode ser utilizada. No gráfico de colunas (ou barras)
compostas, o tamanho total dos retângulos representa 100% e os
mesmos são divididos em partes de tamanho proporcional ao da
grandeza a ser representada, como mostra o exemplo a seguir:
Figura 2.6 – Distribuição segundo o tipo de droga
utilizada pelos pacientes

100

80
Porcentagem

só outras drogas
60
álcool + outras drogas
40
só álcool

20

0
ambulatório hospital
Local de Atendimento

Gráficos de colunas ou barras compostas são interessantes


alternativas à apresentação de dois ou mais gráficos setoriais (os
gráficos pizza).

- 72 -
Estatística para o curso de Psicologia

Colunas (e barras) combinadas podem ser utilizadas


quando se pretende representar o comportamento de uma dada
variável em momentos ou grupos diferentes. Com as colunas
combinadas, o leitor pode fazer uma rápida comparação visual do
comportamento da variável em estudo.
Figura 2.7 - Consumo de drogas*, entre estudantes em quatro
levantamentos, segundo sexo

35
30
Porcentagem

25
20 masculino
15 feminino
10
5
0
1987 1989 1993 1997
Ano do levantamento
* uso na vida (exceto álcool e tabaco).

Gráficos lineares

Os gráficos de linha também são feitos sobre um eixo de


coordenadas cartesianas, mas no lugar dos retângulos são utilizados
pontos conectados por uma linha.
Os gráficos lineares representam muito bem situações nas
quais se deseja fornecer ao leitor a idéia de continuidade temporal
ou de acompanhamento longitudinal de uma determinada variável.
Neste tipo de gráfico:
• A distância entre um ponto e outro do eixo das abcissas
deve ser sempre o mesmo
• Os valores da variável dependente devem ser expressos
no eixo das coordenadas e o momento / tempo da
mensuração deve ser colocado no eixo das abcissas.
• Os pontos que serão conectados pela linha são marcados
nas intersecções do momento de avaliação e valor
observado para a variável dependente.

- 73 -
Paulo Rogério Morais

15

% de canhotos 10

0
10 20 30 40 50 60 70 80 90

idade em anos
Figura 2.8 - Porcentagem de indivíduos canhotos na população segundo idade

Também é possível a utilização de linhas combinadas para


representar o comportamento de dois ou mais grupos diferentes em
um mesmo gráfico.

450
Total de Respostas acumuladas

400
350
300 CRF

250 VR
200 FI
150
VI
100
50
0
1 4 7 10 13 16 19 22

Tempo (minutos)
Figura 2.9 - Freqüência de respostas de à barra em diferentes esquemas de reforçamento

Gráfico setorial
Este tipo de gráfico também é conhecido como gráfico pizza
ou torta (pie), pois a base para a sua confecção é um circulo que é
dividido em setores (fatias) correspondentes à grandezas observadas
para diferentes categorias de uma variável qualitativa.
O total de observações é representado pelo circulo (360o ou
100%) que é dividido em setores com tamanhos proporcionais aos
valores observados para cada uma das categorias em questão. O
tamanho de cada setor é determinado por regra de três simples.

- 74 -
Estatística para o curso de Psicologia

médicos
especialistas em saúde mental
outros (padres,terapeutas holísticos, etc)

Figura 2.10 - A quem as pessoas recorrem quando necessitam de ajuda para dificuldades
psicológicas

Muito embora o uso de gráficos setoriais seja comum, este


tipo de gráfico é contra-indicado, pois da mesma forma que não
sabemos por qual fatia devemos começar a comer uma pizza, não
existe um ponto específico para que o leitor inicie a leitura do gráfico.
Por apresentar os valores proporcionais das categorias da
variável, este tipo de gráfico só deve ser empregado quando os
dados a serem apresentados forem de natureza qualitativa (níveis
nominal ou ordinal de mensuração). Nos gráficos setoriais não é
possível representar medidas de tendência central ou de dispersão.

Gráficos polares
Este tipo de gráfico, embora pouco utilizado, é bastante útil
para representar variações cíclicas de uma variável ao longo de
determinado período.
O gráfico polar também é confeccionado sobre um circulo,
mas a coordenada angular (tamanho dos setores) é constante e o
que varia são as coordenadas lineares (raio) de acordo com os valores
em cada intervalo da variável.
jan
dez fev

nov mar

out abr

set mai

ago jun
jul
Figura 2.11 - Incidência do diagnóstico de transtornos de humor ao longo do ano de 2003
em um ambulatório.

- 75 -
Paulo Rogério Morais

Pictograma
O pictograma é um tipo de gráfico bastante atraente e
sugestivo, pois emprega figuras semanticamente relacionadas ao
fenômeno em questão para representar os valores numéricos da
variável. Este tipo de gráfico é bastante comum em revistas e jornais,
mas pouco usado em publicações cientificas.

28

24

20
porcentage

16

12

0
1983 1984 1986 1988 1990 1992
1984 1985 1987 1989 1991

Figura 2.12 - Proporção de usuários de drogas injetáveis entre os pacientes com AIDS.

Note que os desenhos das seringas dão impressão de que o


aumento na proporção de usuários de drogas injetáveis entre os
pacientes portadores de HIV foi gigantesco. Mas quando consultamos
a escala do gráfico, verificamos que houve um aumento, mas não tão
assustador quando o aumento que visualizamos nos tamanhos dos
desenhos. Por este motivo, tanto a confecção quanto a leitura deste
tipo de gráfico merecem especial atenção.
Embora a confecção manual de gráficos exija certa habilidade
por parte de quem os constrói, atualmente os gráficos podem ser
elaborados com o auxilio de softwares específicos para esta finalidade
como, por exemplo, os programas Microcal Origin, SPSS, Statistica, e
até pelo Excel da Microsoft. Mesmo assim, é importante lembrar que
os computadores só fazem aquilo que for adequadamente solicitado,
por isso é necessário que se conheça os tipos de gráficos, suas principais
características e empregos para se possa tirar vantagem deste recurso.
Os recursos da informática proporcionaram grande comodidade e
economia de tempo, mas a mão e cabeça humanas ainda são
necessárias para a boa execução do trabalho estatístico.

- 76 -
III - Estatística inferencial

Em nosso dia-a-dia, é comum o contato com a parte


descritiva da Estatística, mas, raramente, tomamos contato com
uma parte da Estatística que é essencial para a execução de
pesquisas e indispensável para a compreensão dos resultados
apresentados em artigos científicos. Sem conhecimentos básicos
de Estatística Inferencial, dificilmente uma pessoa consegue ler
e compreender de maneira satisfatória os resultados e conclusões
de uma pesquisa. Expressões como “estatisticamente
significante”, “p d” 0,05", “teste t de Student”, “ANOVA”, “teste
não-paramétrico”, entre outros, não dizem muito àqueles que
não possuem qualquer conhecimento de Estatística inferencial.
Inferir significa chegar a alguma conclusão a partir das
informações (muitas vezes incompletas) que se dispõe acerca de
um evento ou fenômeno. Imagine que você esteja em sua casa
calmamente lendo este livro e um amigo seu chegue molhado da
cabeça aos pés. A partir desta única informação (amigo molhado)
você pode concluir que esta chovendo, embora existam muitas outras
formas de uma pessoa ficar molhada. Qual a chance de você estar
errado ao afirmar que esta chovendo? Sempre que fazemos uma
inferência estamos correndo o risco de cometer um erro.
Em nossas pesquisas também estamos constantemente
fazendo inferências. A menos que tenhamos em mão os dados
de toda uma população, após coletar, organizar e resumir os dados
de uma pesquisa qualquer, o que temos em mãos é apenas uma
pequena fração das informações possíveis. Quando dispomos
apenas de dados amostrais, nossas conclusões sempre serão
inferências e, portanto, passiveis de estarem erradas. Com o uso
dos procedimentos e cálculos da Estatística Inferencial podemos
Paulo Rogério Morais

chegar a uma conclusão, correndo o risco de errar, mas conhecendo


qual a chance de estarmos errados ao fazer uma afirmação. Como
se pode ver, a Estatística Inferencial não elimina a possibilidade de
erro, mas nos informa, a partir de um modelo probabilístico, qual a
chance de se estar cometendo um erro ao fazer esta ou aquela
afirmação.

As duas principais aplicações da Estatística Inferencial são:


1 – fazer a estimativa de parâmetros populacionais a partir
das características obtidas com uma amostra; e
2 – auxiliar nos testes de hipóteses estatísticas, fornecendo
subsídios para que o pesquisador possa rejeitar ou não uma
determinada hipótese.

Nas pesquisas realizadas nas ciências da saúde, depois de


ter os dados coletados, organizados e resumidos, muitas vezes, o
pesquisador precisa decidir se as características observadas em uma
amostra podem ser generalizadas para toda a população ou se
diferenças observadas em seus resultados se devem a algum motivo
ou se são produtos da simples oscilação aleatória dos valores da
variável em questão. Dadas as conseqüências práticas que os
resultados de tais pesquisas podem gerar, os pesquisadores precisam
saber qual a chance de estar cometendo algum erro.
Como já foi citado no primeiro capítulo deste livro, os
psicólogos e outros biologistas estudam variáveis aleatórias. Este
tipo de variável tem como principal característica produzir resultados
imprevisíveis, que podem tanto terem sido produzidos por algum
motivo conhecido como também podem ter sido gerados pela simples
obra do acaso1. Mesmo acompanhando todo o processo de coleta,
organização, avaliação crítica e resumo dos dados, o pesquisador
nunca terá certeza absoluta acerca do que realmente produziu tais
resultados. Sempre ficará a dúvida: o que foi observado se deve a
algum motivo ou foi obra do acaso?
Um simples jogo de moeda (cara ou coroa) pode ilustrar como
as situações imprevisíveis podem gerar dúvidas acerca dos resultados
observados e das conclusões tiradas a partir de tais resultados. Imagine
que dois amigos joguem uma moeda. Sérgio escolhe cara e Marcos
“escolhe” coroa. Em dez arremessos o resultado foi:

1
Entende-se por “acaso” a variável, ou o conjunto de variáveis, que não foi controlada, seja por não
ser conhecida, seja por conveniência. Às vezes, os possíveis efeitos de uma variável são tão pe-
quenos, que tentar controlá-la poderia inviabilizar a pesquisa.

- 78 -
Estatística para o curso de Psicologia

7 caras
3 coroas

Resultado = Sérgio ganhou!

Qual seria a explicação para a vitória de Sérgio? Há pelo


menos duas possibilidades:
a) Sérgio trapaceou: a moeda utilizada era viciada, isto é,
apresenta uma probabilidade maior de cair com a face
“cara” voltada para cima.
b) Sérgio teve sorte: a moeda utilizada era uma moeda
honesta, ou seja, a probabilidade de cair com a face
“cara” para cima é a mesma de cair a face “coroa”.
Se, por qualquer motivo, a moeda não puder ser conferida,
permanecerá a dúvida quanto à justificativa dada para a vitória de
Sérgio. Seja qual for a nossa decisão, esta sempre estará
acompanhada do risco de estar errada. Além disso, como pode ser
visto no quadro que segue, cada erro possui um significado diferente:
decisão
Sérgio trapaceou Sérgio teve sorte
verdade

A moeda era ERRO: chama de honesto


tendenciosa ACERTO alguém que, na verdade,
trapaceou.

A moeda era ERRO: classifica uma


honesta pessoa honesta como ACERTO
trapaceiro.

Se decidirmos que foi utilizada uma moeda honesta, isto é,


com uma face “cara” e outra “coroa” e ambas com o mesmo peso, e na
verdade a moeda possuía uma face mais pesada do que a outra
(tendenciosa), nós cometemos um erro ao chamar de honesto alguém
que, na verdade, trapaceou. Como pode ser visto no quadro, o contrário
também é verdadeiro. A menos que a moeda seja conferida, nunca
teremos certeza de estarmos certos ou errados em nossa decisão.
Normalmente, a Natureza não nos dá o direito de conferir suas moedas.
Utilizando-se das técnicas da Estatística Inferencial, que emprega
em seus testes a teoria das probabilidades, o pesquisador não irá eliminar
a incerteza, mas vai tomar sua decisão conhecendo o risco de estar
cometendo um erro ao fazer uma afirmação qualquer, seja acerca de
suas hipóteses de trabalho seja nas generalizações feitas a partir de
dados amostrais. Se, antes de chegar a alguma conclusão acerca da

- 79 -
Paulo Rogério Morais

honestidade ou não de Sérgio, nós submetêssemos os resultados destes


dez arremessos a um teste da Estatística Inferencial chamado teste
binomial, tomaríamos nossa decisão sabendo que a chance de ocorrem
casualmente sete caras gira em torno dos 12%.

1. TESTE DE HIPÓTESES

1.1 Noções de probabilidade


Embora esteja presente em várias situações de nossas vidas,
o conceito de probabilidade não é claro para muitas pessoas. A
probabilidade é o ramo da Matemática que trata do estudo dos
fenômenos aleatórios. Embora os fenômenos aleatórios caracterizam-
se pela sua imprevisibilidade, o estudo sistemático dos mesmos pode
ser útil para que se estabeleçam modelos probabilísticos que nos
permitem conhecer com certo grau de confiança qual a chance de um
evento ocorrer ou não. A probabilidade nos permite prever, com
diferentes graus de confiança, o comportamento de variáveis que são,
à rigor, imprevisíveis.
A chance de ocorrência de um determinado evento é o produto
da divisão do número de eventos favoráveis pelo número total de
possibilidades. Por exemplo, a chance de uma moeda lançada cair
com a face “cara” para cima é de 1 ÷ 2, e a chance cair um valor par
quando arremessamos um dado é de 3 ÷ 6.
Conforme a natureza da variável estudada (qualitativa ou
quantitativa), bem como do modelo matemático empregado, são obtidas
diferentes distribuições probabilísticas (distribuição binomial, distribuição
F, distribuição de χ2, distribuição t, entre outras)2.

1.2 – Teste de hipóteses


Já na fase de planejamento de uma pesquisa, mesmo não
dispondo ainda de nenhum dado, o pesquisador é capaz de fazer
suposições relativas às possíveis respostas para o problema que

2
O cálculo de probabilidades envolve outras questões, como a dependência entre eventos, isto é, a
ocorrência de um evento estar vinculada a ocorrência de outro evento. Devido a característica introdutória
do presente texto, este tema não será abordado em detalhes. Os leitores que desejarem conhecer um
pouco mais sobre probabilidade poderão consultar os textos de Downing e Clark (2000), Costa (1998) e
Levin (1987).

- 80 -
Estatística para o curso de Psicologia

esta investigando. As hipóteses são justamente estas respostas


provisórias que podem ser dadas a um problema de pesquisa.
Ao final do seu trabalho de pesquisa, caberá ao pesquisador,
com base nas evidências obtidas a partir dos dados coletados, rejeitar
ou não uma dada hipótese. No entanto, essa não é uma tarefa que
o pesquisador poderá fazer usando apenas seu bom senso, intuição
ou conhecimentos teóricos acerca do problema pesquisado. Como
já foi citado, os resultados obtidos a partir de variáveis aleatórias
são a soma de dois fatores:

RESULTADO = motivo + acaso

A principal função dos testes de hipótese é informar ao


pesquisador qual é a participação do acaso na composição do
resultado final. Com o uso de procedimentos específicos, o
pesquisador pode calcular qual é a probabilidade da diferença
observada entre duas ou mais medidas (ou dois ou mais valores
brutos) ter ocorrido por mero acaso. Se a chance de um dado
resultado ter ocorrido por simples acaso for grande, o pesquisador
irá preferir não correr o risco de afirmar que existem diferenças entre
as medidas ou valores.
O teste de hipóteses é feito seguindo os seguintes passos:
1o determinar qual será a hipótese a ser testada (hipótese
nula) e qual hipótese tomará seu lugar caso esta seja rejeitada
(hipótese alternativa);
2o fixar o tamanho do risco que o pesquisador se dispõe a
correr ao afirmar que a hipótese nula é falsa (nível de significância);
3o escolher qual teste estatístico irá empregar para testar a
validade da hipótese nula;
4o submeter seus dados ao teste escolhido;
5o com base no resultado do teste utilizado e no nível de
significância adotado, decidir se rejeita ou não a hipótese nula.
É bom lembrar que os três primeiros passos já devem ser dados
na fase de planejamento da pesquisa, antes mesmo da coleta dos dados.

1.3 – Hipóteses Estatísticas


O primeiro passo no processo de teste de hipóteses é definir
uma hipótese a ser testada, a hipótese nula.

- 81 -
Paulo Rogério Morais

Hipótese nula (H0)

A hipótese nula, ou H0 (agá-zero), é a afirmativa de que não


há diferença entre as medidas que estão sendo comparadas e que
as eventuais diferenças observadas são produto do acaso.
Um pesquisador com o seguinte problema de pesquisa:
“Pacientes com depressão, que estão em tratamento, apresentam
maior ou menor risco de cometerem suicídios do que deprimidos
não tratados?”.
Neste caso, a hipótese nula seria:
A taxa de suicídio entre os deprimidos em tratamento é igual
(nem maior, nem menor) à taxa de suicídio entre os deprimidos não
tratados.
A hipótese nula é sempre a hipótese que terá sua validade
testada e, por mais estranho que possa parecer, normalmente, esta
hipótese é formulada com o propósito consciente de que seja
rejeitada. Isto acontece, pois, em ciência, é mais fácil rejeitar uma
hipótese de que provar que ela é verdadeira (se os dados disponíveis
não são coerentes com a hipótese, podemos rejeitá-la, mas se as
observações são coerentes com a hipótese isto não prova que a
mesma seja verdadeira, pois as mesmas observações podem ser
coerentes com outras hipóteses). Além disso, os pesquisadores são
ávidos por localizar diferenças em seus dados, pois no meio editorial
científico existe um viés de publicação que dificulta a publicação de
artigos com resultados “negativos”, isto é, pesquisas nas quais não
foram observadas diferenças estatisticamente significantes,
pesquisas que não rejeitam a hipótese nula. Dificilmente você
encontrará um artigo publicado no qual o autor afirma não ter
observado alguma diferença estatística.
Em qualquer pesquisa deverá ser estabelecida uma hipótese
nula, mesmo que a afirmação de H0 pareça absurda. Pode parecer
estranho, mas se um pesquisador se dispor a avaliar se as pernas dos
ratos têm alguma influência sobre a velocidade usada por ratos para
percorrer uma pista, sua hipótese nula será algo parecido com isto: Ao
percorrer uma pista, a velocidade dos ratos com pernas é idêntica à
velocidade de ratos com as pernas amputadas. Embora esta afirmação
pareça bastante incoerente, ela é que será colocada à prova. Se os
dados não forem coerentes com a hipótese nula a mesma será rejeitada
e uma outra hipótese deverá ser adotada, a hipótese alternativa

- 82 -
Estatística para o curso de Psicologia

Hipótese alternativa (H1)

Caso os dados disponíveis não sejam compatíveis com a


hipótese que afirma não haver diferença entre as medidas
comparadas, uma outra hipótese deverá ser tratada como verdadeira.
Esta hipótese que toma o lugar de H0 quando a mesma mostra-se
falsa é chamada de hipótese alternativa, ou H1 (agá-um).
Se H0 prega a igualdade entre as medidas comparadas, a
hipótese alternativa é uma afirmativa que a contraria, isto é, H1 afirma
que existe diferença entre as medidas observadas e que tal diferença
não pode ser explicada simplesmente pelo acaso.
Para o exemplo dado anteriormente, a hipótese alternativa
poderia ser escolhida entre as três afirmativas seguintes:
a) A taxa de suicídio entre os deprimidos em tratamento é
diferente da taxa de suicídio entre os deprimidos não tratados.
b) A taxa de suicídio entre os deprimidos em tratamento é
menor da taxa de suicídio entre os deprimidos não tratados.
c) A taxa de suicídio entre os deprimidos em tratamento é
maior da taxa de suicídio entre os deprimidos não tratados.
Como se pode notar, a alternativa [a] afirma simplesmente que
há diferenças entre as taxas, mas não indica qual é a direção da diferença.
Por este motivo é chamada de hipótese bicaudal, o que indica que o
risco de se cometer um erro ao aceitar tal hipótese estará repartido.
Já as alternativas [b] e [c], além de afirmarem que as taxas são
diferentes ainda indicam em qual sentido ocorrerá a diferença. Por
indicarem a direção da diferença estas hipóteses são chamadas de
unicaudais. Quando o pesquisador adota uma hipótese alternativa
unicaudal, ele aumenta a chance de rejeitar H0 e também o risco de se
cometer um erro em sua conclusão. Por exemplo, você tem mais chances
de acertar o resultado final de um jogo de futebol se você afirmar que o
jogo não terminará empatado do que afirmar que um dos times vencerá.
Como somente uma hipótese pode ser assumida como
alternativa (ou [a] ou [b] ou [c]), o que vai determinar qual das três
hipóteses o pesquisador irá escolher como alternativa é natureza da
pesquisa que esta sendo realizada. Se as diferenças podem ocorrer
somente em uma direção, ou se a teoria prediz com segurança qual o
sentido da diferença, adota-se uma hipótese alternativa unicaudal. Caso
contrário é sempre mais seguro trabalhar com uma hipótese bicaudal.
Para fins práticos é sempre mais prudente se adotar
hipóteses bicaudais. Alias, muitos programas de computador
utilizados para a análise estatística dos dados já vêm configurados
para análises bicaudais.

- 83 -
Paulo Rogério Morais

2 – DECISÃO E ERRO

Quando se submete a afirmação de H 0 a algum teste


(lembre-se: sempre H0 é a hipótese submetida ao teste), para decidir
qual será sua conclusão, o pesquisador esta sujeito a dois tipos de
erros, cada um acompanhado com sua respectiva probabilidade e
também diferentes conseqüências práticas. Independente de decidir
rejeitar ou não rejeitar3 a hipótese nula, e mesmo tomando todos os
cuidados possíveis, o pesquisador sempre corre o risco de tomar
uma decisão errada. Isto ocorre por dois motivos: a) toda e qualquer
decisão é acompanhada do risco de erro; b) porque a os testes
empregados na prova de hipótese baseia-se na teoria probabilística,
e probabilidades sempre estão acompanhadas do risco de erro.
Os dois tipos de erro que podem ser cometidos ao se tomar
uma decisão acerca dos resultados observados são:
Erro do tipo I: comete-se este erro quando H0 é rejeitado e, na verdade,
H0 é verdadeira, isto é, o pesquisador decide que há diferença com
base em dados que, na verdade, são iguais e a diferença observada foi
mera obra do acaso. A probabilidade de se cometer este tipo de erro,
que só pode ocorrer quando H0 é rejeitada, é chamada de á(alfa). Por
este motivo este tipo de erro também é conhecido como erro-alfa.
A probabilidade á também é, equivocadamente, chamada
de “nível de significância” (o “famoso” valor de p). Mais adiante serão
abordados o nível de significância e o valor p.
Erro do tipo II: este erro ocorre quando o pesquisador não rejeita H0
e esta, de fato, é falsa, ou seja, o pesquisador decide que não existe
diferença onde, na verdade, há diferenças não casuais. â (beta) é a
probabilidade associada a este tipo de erro, também chamado de
erro-beta.
A probabilidade â esta relacionada ao poder que um determinado
teste estatístico tem de rejeitar H0 quando esta é, de fato, falsa.(4)

3
Note que não rejeitar é diferente de aceitar. Quando se aceita uma hipótese, se fecha a questão.
Mas, quando “não rejeitamos” isso mantém a questão em aberto, indicando que os dados disponí-
veis não são suficientes para rejeitar uma hipótese, mas mantém a questão aberta para que novas
evidências que eventualmente rejeitem tal hipótese sejam apresentadas.
4
A probabilidade b também esta relacionada ao calculo do tamanho da amostra. À medida que o n
aumenta, diminui a chance de se cometer o erro do tipo II e também aumenta o poder do teste
estatístico. Devido o caráter introdutório deste livro, sugere-se a leitura de Levin (1987) e Jekel,
Elmore e Katz (1999) para os leitores interessados neste tópico.

- 84 -
Estatística para o curso de Psicologia

Imagine que um grupo de pesquisadores propõe um novo


modelo de tratamento de fobia social. Para testar se este novo modelo
psicoterápico deve ser adotado, os pesquisadores comparam dois
grupos: um submetido ao novo modelo de terapia e outro submetido
ao tratamento tradicionalmente utilizado para o tratamento de fobia
social. Antes de decidirem se a nova abordagem é melhor do que a já
existente, os pesquisadores colocam sua H0 à prova. A hipótese testada
afirma que o novo procedimento terapêutico tem a mesma taxa de
sucesso que tratamento já utilizado.

Para esta situação, temos as quatro possibilidades que são


apresentadas no quadro:
decisão
Adotar nova técnica Continuar utilizando o
verdade
tratamento tradicional

A nova técnica ERRO: deixa de adotar um


é melhor do que ACERTO modelo de tratamento que
o tratamento poderia ser promissor
tradicional

A nova técnica ERRO: gasta-se tempo e


tem o mesmo dinheiro para treinar os
efeito que o terapeutas em uma técnica ACERTO
tratamento já com efeito semelhante ao do
utilizado tratamento já existente

FIGURA 3.1 –

A situação ideal para os pesquisadores seria ter uma


probabilidade muito pequena de cometer o erro do tipo I (em geral
até 5%) e uma probabilidade alta de não cometer o erro do tipo II (â
entre 10 e 20%), uma vez que cada erro tem diferentes
conseqüências, como pode ser visto a seguir:
• Cometer o erro do tipo I: ao afirmar que o novo procedimento
terapêutico possui taxa de sucesso superior a outras
abordagens já existentes, quando na verdade o
procedimento proposto apresenta taxa de sucesso igual a
dos tratamentos já existentes, pode resultar, por exemplo,
em investimentos no treinamento de terapeutas em uma
técnica que não apresenta resultados superiores aos das
técnicas já conhecidas.
• Cometer o erro do tipo II: se os pesquisadores decidem que
a taxa de sucesso da nova abordagem é igual às taxas de

- 85 -
Paulo Rogério Morais

técnicas já existentes, quando na verdade a abordagem


proposta tem taxa de sucesso superior às demais
abordagem, eles podem abandonar uma nova técnica que
seria útil para o tratamento da fobia social.
Por existir um viés de publicação (é muito difícil encontrar
um artigo no qual o autor afirma não ter encontrado diferenças
estatisticamente significantes), na prática os pesquisadores têm
grande preocupação com o erro do tipo I. Isto redunda no aumento
da probabilidade de cometer erros do tipo II, pois existe uma relação
inversa nas probabilidades de se cometer um ou outro tipo de erro,
isto, é reduzindo-se a probabilidade á aumenta-se a probabilidade
â. A única forma de evitar os dois erros ao mesmo tempo é privar-se
de tomar uma decisão, o que não é nada funcional.
Embora não possamos nos livrar do risco de errar, como já
foi citado anteriormente, com o uso da Estatística inferencial podemos
conhecer qual a chance de estamos cometendo um erro quando
tomando uma decisão acerca dos nossos dados. Além disso, são
conhecidos alguns dos fatores que aumentam a probabilidade de se
cometer cada tipo de erro. Os fatores que aumentam a chance de
se cometer os erros do tipo I e do tipo II são:
a) Tamanho da amostras: o uso de amostras com n mal
dimensionado pode facilitar a ocorrência tanto dos erros
do tipo I quanto dos erros do tipo II. Diferenças entre
medidas observadas em amostras pequenas podem ser
um simples produto da variabilidade da amostra. Por
outro lado, amostras muito grandes podem tornar
significativas diferenças muito pequenas e, muitas vezes,
sem qualquer significado prático.
b) Submeter os mesmos dados a muitas análises: como já
foi citado, freqüentemente existe o propósito consciente
de se rejeitar H0. Por este motivo, muitas vezes, os
pesquisadores submetem seus dados aos testes de
hipótese e acrescentam casos em suas amostras até
que o teste detecte uma diferença estatisticamente
significante. Além disso, quando são feitas múltiplas
comparações entre muitas medidas ou grupos, ocorre o
aumento na probabilidade de se encontrar uma diferença
significante por simples acaso. Muitas análises aumentam
a chance de se cometer o erro do tipo I.
c) Variabilidade das amostras: quando trabalhamos com
dados com grande dispersão, isto é, dados heterogêneos,

- 86 -
Estatística para o curso de Psicologia

esta variabilidade diminui as chances do teste estatístico


detectar uma diferença significativa (erro do tipo II). Em
muitos testes estatísticos, alguma medida de dispersão
faz parte da fórmula do teste.
Como se vê, os principais motivos que aumentam as chances
de se cometer algum erro ao se decidir rejeitar ou não rejeitar H0, se
não são totalmente evitáveis, são, no mínimo, passíveis de controle.

3 – NÍVEL DE SIGNIFICÂNCIA

Como afirmou a professora Geraldina P. Witter (1996), embora


sejam amplamente utilizados em artigos científicos, apresentações em
congressos, defesas de teses e dissertações e em muitas outras
situações, as expressões “nível de significância” ou “estatisticamente
significante” são muitas vezes empregadas de maneira inadequada e
até mesmo fora de qualquer contexto que justifique seu uso. Tais
expressões estão relacionadas à aplicação de um teste estatístico e
também ao grau de confiança que o pesquisador tem em seus dados
para chegar a uma conclusão acerca dos mesmos.
Conceitualmente, o nível de significância está relacionado à
probabilidade α (probabilidade de se cometer o erro do tipo I, isto é,
afirmar que situações são iguais quando, na verdade, são diferentes).
Por este motivo, o nível de significância freqüentemente também é
chamado de valor de p, quase sempre equivocadamente.
Na verdade, o valor de p nada mais é do que o valor descritivo
associado ao teste de hipóteses. Quando submetemos nossos dados a
algum teste estatístico, este teste irá nos dar um resultado que está
associado a uma dada probabilidade do mesmo ter ocorrido por acaso.
Este valor oscila entre 0 e 1 e reflete a chance das eventuais diferenças
existentes nos dados analisados terem ocorrido em decorrência de
variações aleatórias dos valores da variável, ou seja, indica qual a chance
de um determinado resultado ter ocorrido por mera obra do acaso.
Já o nível de significância representa o grau de confiança
que o pesquisador deposita em seus dados para rejeitar uma hipótese
nula. Se um pesquisador escreve no item “Análise Estatística” de
seu artigo comparando o desempenho de dois grupos em um teste
de memória que “O nível de significância utilizado neste estudo foi
de 5% (pd” 0,05)”. Em bom português, o que ele esta dizendo é:
“Se eu afirmar que existe alguma diferença entre os grupos,
a chance de eu estar enganado é de 5%”.

- 87 -
Paulo Rogério Morais

Como já foi citado na primeira parte deste livro, o nível de


significância de uma pesquisa deve ser estabelecido pelo pesquisador
já na fase de planejamento da pesquisa. Não é o teste estatístico que
determina se um resultado é significante ou não, mas o pesquisador.
O teste estatístico nos informa somente o valor de p, mas quem vai
decidir se tal valor representa um resultado estatisticamente significante
é o pesquisador. Por ser a quantificação da confiança ou segurança
que o pesquisador deposita em seus resultados, a escolha do nível de
significância não se trata de um problema estatístico.
Embora nas ciências da área da Saúde, seja quase que
uma tradição adotar-se níveis de significância de 5% (ou pd” 0,05),
cabe ao pesquisador avaliar uma série de fatores relativos à sua
pesquisa para então decidir qual será efetivamente o nível de
significância que empregará. O valor do nível de significância é
inversamente proporcional à exigência que o pesquisador tem para
rejeitar H0, isto é, quanto maior a exigência menor será o nível de
significância. Se o pesquisador estabelece para seu estudo o nível
de significância de 1% (pd” 0,01) ele estará sendo mais exigente do
que se escolhesse um nível de significância de 5%. Por causa desta
aparente arbitrariedade, um mesmo resultado que foi considerado
significante a 5% (pd” 0,05) pode não sê-lo a 1% (pd” 0,01).
De acordo com Witter (1996), o pesquisador pode se apoiar
nos seguintes critérios para a escolha do nível de significância de
sua pesquisa:
• Conhecimento já disponível na área – quando se faz uma
pesquisa sobre algum assunto novo ou relativamente pouco
estudado é mais sensato escolher um nível de significância
menos exigente.
• Instrumento de medida – quando os dados são obtidos com
a utilização de instrumentos precisos e fidedignos (que
avaliam corretamente aquilo que se propõe a avaliar) o risco
de ocorrer erros é menor e por isso pode-se se usar um
nível de significância mais exigente.
• Controle de variáveis – quando se realizam pesquisas em
que o controle das variáveis que podem interferir nos
resultados não é totalmente possível, não é recomendado
que se adote um nível de significância superior a 5%, uma
vez que está aumentada a chance de variações ocorrerem
por obra do acaso.
• Uso que será feito dos resultados - se os resultados do
estudo implicarem em decisões que envolvam grandes
riscos (por exemplo, concluir que usar ou não preservativo

- 88 -
Estatística para o curso de Psicologia

nas relações sexuais não tem qualquer efeito sobre a


transmissão do vírus da AIDS) o pesquisador deverá ser
mais exigente para rejeitar H 0.
É bastante comum que, na apresentação dos resultados, não
seja expresso o valor exato de p, mas um asterisco, quando o valor
de p é menor ou igual ao estabelecido pelo pesquisador para rejeitar
H0, ou as letras “n.s.”, quando o valor de p não atinge o valor mínimo
para se rejeitar Ho. Contudo, este tipo de descrição freqüentemente
omite informações que são importantes para a interpretação adequada
dos resultados apresentados. Se só existe a simples indicação de que
um resultado não foi estatisticamente significante, o leitor não tem
como saber o quão consistente é a não rejeição de H0. Por exemplo,
em um estudo com nível de significância de 5%, o pesquisador poderá
afirmar que seus resultados não são significantes com valores de iguais
a 0,071 ou 0,97. No primeiro caso, o resultado pode não ser
estatisticamente significante, mas o valor de p está muito próximo do
que foi estabelecido como significante, que justificaria, por exemplo,
um estudo com n maior, enquanto que um valor de p= 0,97 indica que
assumir uma diferença implicaria em um risco de quase 100%. Da
mesma forma um resultado pode ser considerado estatisticamente
significante com p= 0,048 ou p= 0,0001.5
A compreensão da significância estatística não é algo
simples, pois, muitas vezes, resultados aparentemente muito
diferentes entre si são estatisticamente iguais (não significantes) e
vice-versa. Para compreender o que vai determinar o valor de p, e
conseqüentemente a significância ou não das diferenças observadas
entre diferentes medidas, é necessário saber o que faz o teste
estatístico. Isto será abordado a seguir.

4 – A ESCOLHA DE UM TESTE DE HIPÓTESE

Atualmente, os cálculos necessários para o teste de hipótese,


são feitos com o auxílio de softwares específicos para este fim. No
entanto, ainda cabe ao ser humano a árdua tarefa de informar ao
computador qual teste deve ser aplicado. Quando clicamos o
íconezinho “Analisys” ou “Statistics” de algum software estatístico o
que vemos é algo parecido com o quadro abaixo:

5
Embora seja comum, não é adequado afirmar que um p= 0,0001 refere-se a um resultado mais
significativo do que um p= 0,048. O correto é afirmar que a rejeição de H 0 é mais consistente no
primeiro caso do que no segundo.

- 89 -
Paulo Rogério Morais

Statistic
Sumamarize 4
Custon tables 4
General Linear Model 4
Correlate 4
Regression 4
Loglinear 4
Classify 4
Data reduction 4
Nonparametric Tests 4 Chi-Square...
Time Series 4 Binomial...
Survival 4 Runs...
Multiple Response 4 1 – Sample K-S...
Missing Value Analysis 4 2 Independent Samples...
K independent Samples...
2 Related Samples...
K Related Samples...

Frente a uma lista como esta, contendo alguns dos muitos


testes estatísticos que existem para se analisar os dados obtidos
em uma pesquisa, é mais do que natural a sensação de estar
desnorteado quanto à identificação daqueles que são ou não
aplicáveis a cada situação. A escolha de um teste inadequado pode
redundar na não execução do teste pelo computador ou, pior, o
computador poderá executar normalmente o teste e apresentar um
resultado que não terá qualquer significado para o problema em
questão e que poderá ser aceito como verdadeiro pelo pesquisador
que não é familiarizado com os testes. Por este e outros motivos, o
pesquisador precisa ter conhecimentos básicos acerca do que o
computador esta executando para não aceitar passivamente os
resultados fornecidos por um programa de computador.
Embora esta seja uma tarefa que normalmente assusta
quem esta começando a se familiarizar com os conceitos e métodos
da estatística, escolher entre tantos testes estatísticos existentes qual
deve ser utilizado para analisar os dados de uma determinada
pesquisa não é algo tão complicado. Na verdade é uma tarefa que
pode ser operacionalizada, pois existem critérios lógicos que
determinam quais os testes podem ou não ser empregados em uma
dada situação de análise.

- 90 -
Estatística para o curso de Psicologia

Para se poder escolher o teste de hipótese (ou de


significância) adequado, devemos considerar as seguintes
características dos dados a serem submetidos à análise:
a) Nível de mensuração: a primeira característica a ser
observada é qual o nível de mensuração dos dados (nominal,
ordinal ou contínuo6). Para a análise de dados de variáveis
com mensuração nominal ou ordinal são empregados testes
não-paramétricos, já a análise de variáveis com mensuração
contínua pode ser feita tanto com testes paramétricos como
também não-paramétricos.
b) Número de amostras: os testes estatísticos baseiam-se em
diferentes pressupostos, dependendo do número de amostras
que estão sendo analisadas. Quando trabalhamos com dados
de uma só amostra, o teste irá verificar se a distribuição dos
dados desta amostra são compatíveis com uma distribuição
específica (prova de aderência) ou se os valores observados
em cada categoria da variável difere ou não do que a hipótese
nula estabelece; os testes aplicados a duas amostras irá
determinar qual a probabilidade das medidas destes dois grupos
serem ou não oriundas da mesma população; quando três ou
mais amostras são comparadas, devem ser empregadas as
análises de variância que levam em consideração as variações
que existem dentro de cada grupo (variabilidade intragrupos) e
entre um grupo e outro (variabilidade intergrupos).
c) Relações entre amostras: deve ser verificado se duas ou mais
amostras consistem ou não de múltiplas medidas dos
mesmos elementos amostrais ou de entidades relacionadas
(serem ou não emparelhadas). Muitos estudos tentam evitar
a variabilidade entre amostras fazendo o emparelhamento
(pares de elementos tão semelhantes quanto possível em
que cada elemento é submetido a um tratamento diferente,
como, por exemplo, nos estudos caso-controle) ou usando
cada elemento da amostra como seu próprio controle (neste
caso, o mesmo indivíduo é submetido aos diferentes
tratamentos e avaliado em momentos diferentes). Também
são comuns os estudos com amostras independentes, isto
é, os elementos amostrais não têm qualquer relação entre si,

6
Para fins de análise, dados intervalares e proporcionais são tratados da mesma forma e são
chamados de contínuos.

- 91 -
Paulo Rogério Morais

como no caso de estudos experimentais que utilizam um grupo


de sujeitos submetidos a um dado tratamento e um grupo
composto por outros elementos que não foram submetidos
ao mesmo tratamento (controle).
d) Distribuição dos dados: quando trabalhamos com dados
contínuos, a forma como tais dados se distribuem (distribuição
normal ou não) deve ser considerada, pois alguns testes
estatísticos pressupõem que os dados têm distribuição normal
(comportam-se sob uma curva de Gauss). Sempre que
trabalhamos com variáveis mensuradas em nível contínuo,
devemos submeter os dados a um teste de aderência, como,
por exemplo, o teste de Kolmogorov-Smirnov, para saber se
os dados se distribuem ou não sob uma curva de Gauss.
Quando os dados possuem distribuição normal, podemos
utilizar testes paramétricos na análise. Mas, se os dados não
se comportarem sob uma curva de Gauss, os testes não-
paramétricos devem ser utilizados.
A observância destes os fatores permite que o pesquisador
determine quais os procedimentos analíticos possíveis para cada
situação de pesquisa. Mas é bom ter em mente que a escolha do
teste estatístico não depende somente das características
matemáticas dos dados a serem analisados, mas também dos
objetivos da pesquisa. Muitas vezes, em uma única pesquisa pode
existir a combinação de diferentes níveis de mensuração, números
e relação entre as amostra, uma variável com distribuição normal e
outra com distribuição assimétrica. Tais situações exigem especial
atenção por parte do pesquisador, pois o teste adequado para um
dos objetivos de pesquisa pode não ser aplicável a outro objetivo.
Além disso, o que acontece na prática, é nos familiarizarmos
com alguns testes e utilizá-los não só pela sua adequação a nossa
pesquisa, mas também pela nossa preferência por este ou aquele
teste. Por exemplo, em uma mesma situação de pesquisa, um
pesquisador pode optar por usar o “teste t” e um outro pesquisador
analisar os mesmos dados com o “teste U”.

5 – TESTES DE SIGNIFICÂNCIA ESTATÍSTICA

Os testes estatísticos podem ser divididos em dois grandes grupos:


• Provas paramétricas – baseiam-se em um modelo que
pressupõe certas exigências acerca dos dados que serão

- 92 -
Estatística para o curso de Psicologia

submetidos à análise. Pelo menos duas condições são


necessárias para a aplicação dos testes paramétricos:
a) Os valores devem ter sido extraídos de populações
com distribuição normal (distribuição simétrica, ou
seja, comportam-se sob uma curva de Gauss);
b) As variáveis devem ser mensuradas, pelo menos,
em nível intervalar. Por ter seus cálculos baseados
na média aritmética, variáveis mensuradas em níveis
nominal ou ordinal não fornecem parâmetros para a
execução dos cálculos dos testes paramétricos.
Os testes paramétricos são mais poderosos, isto é, tem
maior capacidade de detectar diferenças entre as medidas
comparadas. No entanto, a significância obtida a partir de provas
paramétricas depende da validade dos seus pré-requisitos. A
comprovação de tais pré-requisitos nem sempre é possível, por
isto o pesquisador supõe que tais condições são válidas para os
seus dados, ou então submete seus dados a algum teste de
aderência para verificar se os dados comportam-se ou não sob
uma curva de Gauss.
• Provas não-paramétricas – os testes estatísticos não-
paramétricos dispensam a adequação dos dados a uma curva
de distribuição normal e também podem ser aplicados em
dados mensurados em qualquer nível (nominal, ordinal ou
contínuo). Algumas características envolvidas nos cálculos
dos testes não-paramétricos (como transformar valores
numéricos em postos ou diferenças numéricas em meros
sinais positivos ou negativos) tornam tais testes menos
poderosos do que os paramétricos, o que torna mais difícil
detectar diferenças entre as medidas comparadas (aumenta
a probabilidade de considerar verdadeira uma H0 que na
verdade é falsa, isto é, a aplicação de testes não paramétricos
aumenta a chance de se cometer o erro do tipo II).
Independente de ser paramétrico ou ser não-paramétrico,
basicamente, o teste estatístico irá comparar os dados coletados com
um determinado modelo probabilístico e informar ao pesquisador se, de
acordo com tal modelo, as eventuais diferenças entre medidas ou valores
brutos têm pequena ou grande chance de ter acontecido ao acaso.
A seguir são descritos alguns testes estatísticos comumente
empregados na análise de dados. Também serão apresentadas
situações de pesquisas que exemplificam as diferentes condições
que justificam a aplicação deste ou daquele teste, mas não serão

- 93 -
Paulo Rogério Morais

apresentadas as fórmulas dos testes, uma vez que atualmente os


cálculos são praticamente todos feitos com o auxílio de softwares
estatísticos (BioEstat, SPSS, Statistica, NCSS, entre outros) e
também porque as fórmulas certamente assustariam mesmo aqueles
leitores mais familiarizados com números e expressões algébricas7.
A seguir serão apresentados os testes com base no número
de amostras (e a relação entre elas) e no nível de mensuração das
variáveis. No final do capítulo é apresentado um gabarito para a
escolha do teste.

5.1 – Testes para uma amostra


Muitas vezes, os dados são coletados de uma única amostra
como, por exemplo, quando um pesquisador necessita saber se as
diferenças observadas em algumas variáveis de um grupo de
pacientes atendidos em um ambulatório de saúde mental podem ou
ser atribuídas ao acaso ou não. Nestes casos, podem ser aplicados
testes de hipóteses para responder a questões como:
• A média da amostra é estatisticamente diferente de alguma
outra média conhecida? (A média da renda familiar do grupo
atendido no ambulatório é estatisticamente diferente da
média da renda familiar da população em geral?);
• Existe diferença significante entre as freqüências observadas
nas diferentes categorias de uma dada variável? (O número
de pacientes com diagnóstico de transtorno de humor difere
do número de pacientes com diagnóstico de síndrome do
pânico, ou de dependência química?);
• Existem diferenças entre os valores observados e os valores
esperados para as diferentes categorias de uma variável?
(Considerando cada dia da semana um elemento amostral, o
número de atendimentos realizados é maior em algum dia?);
• - a distribuição dos valores de uma variável contínua da
amostra é normal? (A variável “renda familiar” comporta-se
sob um curva de Gauss não?);
Muitos dos testes empregados para analisar uma única
amostra também são chamados de “testes de aderência”, pois têm
como função verificar se um conjunto de dados se ajusta a um
determinado modelo de distribuição probabilística.

7
O leitor interessado em conhecer as fórmulas poderão consultar Levin (1987) e Siegel (1975),
entre outros.

- 94 -
Estatística para o curso de Psicologia

Quando trabalhamos com uma única amostra podemos


empregar diferentes testes, dependendo do nível de mensuração
da variável estudada. A seguir são apresentadas breves descrições
dos testes empregados para os diferentes níveis de mensuração,
além de exemplos de situações de pesquisa em que tais testes
podem ser empregados.

Teste Binomial
Este teste é aplicável quando se pretende analisar uma
amostra que teve seus dados coletados em nível nominal dicotômico,
isto é, a variável assume somente dois valores como, por exemplo:
“masculino” ou “feminino”, “sim” ou “não”, “saudável” ou “doente”,
entre outras.
Exemplo: um pesquisador pretende saber se existe diferença
significativa um grupo de pacientes atendidos em um ambulatório
quanto a variável sexo, isto é, quer saber se entre os pacientes deste
ambulatório existem mais homens ou mulheres, ou se o número de
homens e de mulheres é estatisticamente o mesmo.
Algumas variáveis ordinais ou contínuas podem ser
arbitrariamente dicotomizadas (por exemplo, a idade mensurada em
anos pode ser reduzida a classes dicotômicas de “jovens” e “adultos”).
Nestes casos, pode-se empregar o teste binomial, mas tal
procedimento resulta em desperdício de informações contidas nos
dados originais.
Para descrever os resultados deste teste devemos citar que
para a análise dos dados foi utilizado o teste binomial e a
probabilidade α dada pelo teste (valor de p).

Teste Qui-quadrado (χ χ2) para uma amostra


O teste χ para uma amostra é empregado quando a variável
2

nominal que possuí duas ou mais categorias (estado civil, por


exemplo). Este teste vai comparar o número de observações feitas
em cada uma das categorias com o número de observações que
seriam esperadas se a hipótese nula fosse verdadeira,
Exemplo: o pesquisador pretende saber se, quanto ao diagnóstico, há
diferença significativa no número de pacientes atendidos no ambulatório,
ou seja, ele quer saber se são atendidas mais pessoas com diagnóstico
de transtornos de humor, transtornos de ansiedade, dependência
química, transtorno obsessivo-compulsivo, ou outros diagnósticos.
A aplicação do teste χ2 tem algumas restrições:

- 95 -
Paulo Rogério Morais

• Quando se trabalha com variáveis com somente duas


categorias (dicotômicas), o número de observações esperadas
para cada categoria não pode ser inferior a cinco. Isto implica
em uma amostra com, pelo menos, n= 10 elementos.
• Se a variável possui mais do que duas categorias, não mais
do que 20% dos valores esperados para cada categoria
deve ser menor do que cinco e nenhuma das freqüências
esperadas deve ser inferior a um.
Quando os valores esperados para as categorias da variável
não respeitam tais restrições, o pesquisador poderá empregar
algumas estratégias para viabilizar a aplicação do teste (fazer
combinações de categorias, por exemplo) ou empregar outro teste,
como, por exemplo, o teste binomial no caso de variáveis dicotômicas.
Uma prática razoavelmente comum é aplicação do teste χ2
para se comparar não as freqüências efetivamente observadas para
cada categoria da variável, mas às respectivas porcentagem. Isto
não é adequado, por dois motivos:
a) se o n é menor do que 100, os valores com os quais o teste irá
trabalhar são superestimados e uma amostra de 10 elementos
e tratada como se fosse constituída por 100 observações;
b) se o n é maior do que 100, ocorre o desperdício de informação,
pois o teste será executado considerando um n de 100
observações.
Quando se utiliza o teste χ2, usualmente são apresentados o
valor de χ2, o número de graus de liberdade8 e também o valor de p.

Teste de Kolmogorov-Smirnov para uma amostra


Este teste é utilizado quando se pretende verificar o quanto
um conjunto de valores, com mensuração pelo menos ordinal, se

8
Os graus de liberdade (gl ou df – do inglês degrees of freedom) indicam o quanto os valores
observados em um conjunto poderiam variar quanto a sua localização no conjunto, isto é, onde um
dado valor poderia estar se não estivesse onde esta. Por exemplo, se vou colocar meus sapatos
antes de colocar o primeiro sapato, posso escolher calçar tanto o direito quanto o esquerdo. Mas,
depois de calçar o sapato esquerdo, não tenho mais liberdade para escolher qual colocar. Neste
caso, meu grau de liberdade é 1 (n-1). Um ferreiro teria 3 graus de liberdade ao colocar ferraduras
em um cavalo e quem inventar de calçar sapatilhas em uma centopéia terá 99 graus de liberdade.
O cálculo do o número de graus de liberdade não é o mesmo para todas as situações:
Uma única amostra: gl= n – 1
Amostras relacionadas: gl = número de pares – 1
Amostras independentes: gl = somatória dos graus de liberdade de cada amostra [(n1 – 1) + (n2
– 1) + (...) + (nx – 1)]
Tabelas de contingência: gl = (número de linhas – 1) X (número de colunas – 1)

- 96 -
Estatística para o curso de Psicologia

ajusta a uma determinada distribuição teórica específica.


Freqüentemente, este teste é utilizado para avaliar se um
determinado conjunto de valores com mensuração contínua se ajusta
ou não à distribuição normal, o que permitiria a utilização de um
teste estatístico paramétrico.
Exemplo: o pesquisador deseja saber qual a probabilidade da renda
familiar dos pacientes atendidos no ambulatório se ajustar a uma
curva com distribuição normal, para decidir se analisa tal variável
com um teste paramétrico ou não-paramétrico.
O teste de Kolmogorov-Smirnov irá trabalhar com os valores
individuais e não com os valores agrupados em categorias de
respostas como fazem os testes binomial e χ2. Esta particularidade
evita o desperdício de informações.
A descrição dos resultados deste teste é feita com a
apresentação do valor de Z dado pelo teste e o valor de p associado
ao mesmo.

Teste t de Student para uma amostra


Este é um teste paramétrico empregado para verificar se a média
de alguma variável com mensuração contínua pode ser considerada
estatisticamente diferente de alguma outra média conhecida, ou seja,
verifica a probabilidade se a média observada na amostra pode ou
não ser igual uma média já conhecida (extraída de outros estudos,
por exemplo).
Exemplo: O pesquisador quer saber se um grupo de pacientes com
diagnóstico de dependência química difere da população em um
teste de inteligência. Para tanto, o pesquisador aplicado o teste WAIS
neste grupo e compara a média observada no grupo com a média
já conhecida da população.
A descrição dos resultados do teste t é feita com a apresentação
do valor de t dado pelo teste, o número de graus de liberdade da
amostra (n-1) e o valor de p associado ao valor de t.

5.2 – Testes para duas amostras


O objetivo de muitas pesquisas é determinar se dois tratamentos,
duas condições ou se grupos com duas características diferentes
diferem entre si em relação a alguma variável e se a diferença
observada pode ser atribuída ao acaso.

- 97 -
Paulo Rogério Morais

Nestes casos, geralmente, são comparados dois grupos:


um que recebeu o tratamento e outro que não recebeu o mesmo
tratamento ou que recebeu tratamento diferente do primeiro; ou,
ainda, um grupo com uma característica diferente de outro. Uma
outra estratégia é avaliar um mesmo grupo em dois momentos
diferentes para evitar que variáveis não controladas interfiram no
resultado, como é o caso das amostras relacionadas das amostras
ou emparelhadas.

5.2.1 Amostras Relacionadas ou Emparelhadas


A comparação de duas amostras exige atenção, pois a
diferença eventualmente observada entre as amostras pode não ser
necessariamente resultante dos diferentes tratamentos, condições
ou características das amostras. Imagine um pesquisador que
pretende comparar dois métodos de intervenção psicoterápica para
o tratamento de dependência química e aplica os métodos a dois
diferentes grupos de indivíduos com este diagnóstico. Mesmo que
sejam observadas diferenças entre os dois métodos, tais diferenças
podem resultar não do método de tratamento, mas de outras
características, como, por exemplo, um os elementos que compõem
um dos grupos estar mais motivado para o tratamento do que os
elementos do outro grupo.
Existem duas estratégias que podem ser aplicadas com o objetivo
de minimizar o efeito de variáveis amostrais sobre o resultado final:
a) Amostras relacionadas: neste caso, cada indivíduo serve como
seu próprio controle, isto é, o mesmo indivíduo é avaliado em
duas ou mais ocasiões diferentes, geralmente antes e depois
de ser submetido a alguma intervenção. Esta condição também
é chamada de auto-emparelhamento. Neste caso, cada
avaliação feita do grupo é considerada uma amostra. Se forem
feitas 5 avaliações, teremos 5 amostras relacionadas.
b) Emparelhamento: neste caso, são formados pares de
indivíduos tão semelhantes quanto possível, mesmo sexo,
idade, estado civil, altura e peso, mesma pontuação em um
inventário que avalia motivação para o tratamento, entre
muitas outras. Em algumas situações, o emparelhamento
pode ser obtido de forma natural, como por exemplo, estudos
com gêmeos univitelinos. Pesquisas com delineamento caso-
controle são exemplos de emparelhamento.
A seguir, são apresentados alguns dos testes estatísticos
aplicáveis na análise de dados obtidos a partir de duas amostras
relacionadas ou emparelhadas:

- 98 -
Estatística para o curso de Psicologia

Teste de McNemar

Este é um teste que pode ser empregado na comparação


de duas amostras relacionadas e com mensuração em nível
nominal. É um teste particularmente útil para comparar situações
do tipo “antes” e “depois”, nas quais cada indivíduo serve como seu
próprio controle. O teste de Mcnemar segue o mesmo princípio do
teste χ2, mas é aplicável a amostras relacionadas.

Exemplo: Um pesquisador pretende avaliar o efeito de uma palestra


abordando as doenças sexualmente transmissíveis sobre o
comportamento de usar preservativos em um grupo de adolescente.
Para tanto, em um primeiro momento avaliou um grupo de estudantes
do ensino médio classificando-os como “usuários” e “não usuários”
de preservativo. Um mês após a apresentação da palestra, os mesmo
sujeitos foram novamente avaliados e classificados de acordo com
o uso ou não de preservativos.

A descrição do resultado da aplicação deste teste é feita


com a apresentação do valor de χ2 dado pelo teste, o número de
graus de liberdade e o valor de p.

Teste de Wilcoxon
Quando trabalhamos com duas amostras relacionadas ou
emparelhadas, e a variável a ser analisada possui mensuração no
mínimo ordinal, este teste pode ser empregado para se determinar
a probabilidade das diferenças observadas terem ocorrido por mera
obra do acaso. Este teste é uma alternativa ao teste t pareado quando
trabalhamos com conjuntos de valores com mensuração contínua
e distribuição assimétrica.
O teste de Wilcoxon irá comparar as diferenças observadas
entre os pares de dados, atribuindo-lhes postos que consideram o
tamanho da diferença e também o sentido da diferença (positivo ou
negativo).

Exemplo: Um psicólogo organizacional elaborou um projeto de


intervenção que tinha como objetivo reduzir os índices de estresse
ocupacional apresentado por um grupo de trabalhadores. Para tanto,
avaliou a sintomatologia destes trabalhadores em dois momentos,
um mês antes da aplicação da intervenção e um mês após a
aplicação da mesma. Para certificar-se de que as diferenças
apresentadas pelos indivíduos poderiam ou não ser atribuídas ao

- 99 -
Paulo Rogério Morais

acaso, este psicólogo estabeleceu um nível de significância de 5% e


comparou seus dados com o teste de Wilcoxon.

Os resultados do teste de Wilcoxon são apresentados o valor


Z dado pelo teste e o respectivo valor de p.

Teste t de Student para amostra relacionadas


O teste t pareado é um teste paramétrico aplicável em situações
nas quais se pretende comparar duas amostras relacionadas ou
emparelhadas com mensuração contínua e distribuição simétrica.
Este teste compara as médias das duas amostras.

Exemplo: uma pesquisadora, interessada em verificar se a introdução


de um tranqüilizante reduz o tempo de latência para dormir em
pacientes que queixam-se de ter dificuldade para iniciar o sono. Com
o uso de um questionário que os pacientes preenchiam diariamente,
foi estabelecido o tempo médio para tais pacientes dormirem após ir
para a cama. Tal questionário foi aplicado uma semana antes e uma
semana após a introdução do tranqüilizante.

Quando se utiliza o teste t pareado, a descrição dos resultados


deve incluir o valor observado de t, os graus de liberdade e o valor de p.

5.2.2 – Amostras Independentes


Muitas vezes, seja por motivos práticos, seja por características
metodológicas intrínsecas à própria pesquisa, a utilização de amostras
relacionadas ou emparelhadas mostra-se inviável. Nestes casos, são
utilizadas duas amostras independentes, isto é, são utilizados dois grupos
extraídos aleatoriamente da mesma população (ou de duas populações
diferentes como, por exemplo, casados e solteiros) cujas características
sejam as mais parecidas possíveis, mas sem haver o cuidado de formar
pares e que a coleta de dados de um dos grupos seja totalmente
independente do outro grupo.
Uma outra característica do emprego de amostras
independentes é que não há a necessidade de que as amostras
sejam exatamente do mesmo tamanho, embora seja sensato utilizar
amostras com n’s não muito discrepantes entre si.

Teste do χ2 para duas amostras


O teste χ2 pode também ser aplicado para se comparar as
características observadas em uma variável com mensuração
nominal de dois grupos independentes. Assim como faz com apenas

- 100 -
Estatística para o curso de Psicologia

uma amostra, o χ2 irá verificar a probabilidade das diferenças entre


as freqüências observadas e as freqüências esperadas para cada
categoria da resposta terem ocorrido por acaso.
Quando aplicado a duas amostras independentes, o χ 2
também precisa obedecer atender a alguns requisitos:
• as amostras devem ser independentes e obtidas de maneira
aleatória
• as freqüências esperadas para cada categoria de resposta
não pode ser inferior a 5 e a amostra não pode ser de
tamanho menor do que 30 elementos.

Exemplo: Um pesquisador deseja saber se a abordagem teórica


do professor (comportamental-cognitiva ou psicodinâmica) exerce
algum efeito nas explicações dadas por estudantes primeiranistas
do curso de Psicologia à alguns fenômenos psicológicos. Para tanto,
solicitou a dois grupos de estudantes, um que teve aula com um
professor com orientação psicodinâmica e outro com abordagem
comportamental-cognitiva, que respondessem a seguinte questão:
“Para você, o que a Psicologia estuda?”, e classificou a resposta
dos estudantes em quatro categorias: a) com referências somente
a processos psicodinâmicos; b) com referências somente a
comportamentos e cognições; c) fazendo referências a processos
psicodinâmicos e comportamentais; e d) resposta que não fazem
referência as abordagens psicodinâmica ou comportamental. As
freqüências observadas em ambos os grupos para cada uma das
categorias de respostas foram analisadas com o teste χ2 para se
verificar a existência de diferença significativa entre os dois grupos.

A descrição dos resultados do teste χ2 para duas amostras é a


mesma que a utilizada para uma única amostra (valor do χ2 dado
pelo teste, o número de graus de liberdade e o valor de p).

Teste de Fisher
Este teste é uma alternativa para a comparação de uma
variável nominal dicotômica em dois grupos com n inferior a 30
observações. O teste de Fisher pode ser empregado em situações
em que os dados podem ser dispostos em uma tabela de
contingência do tipo 2 X 2 (duas linhas por duas colunas).

- 101 -
Paulo Rogério Morais

Exemplo: um pesquisador comparou a presença ou não de sintomas


depressivos em dois grupos (casados e solteiros). Os seus resultados
poderiam ser dispostos em uma tabela 2 X 2:
condição
Com sintomas Sem sintomas
Grupo
significativos significativos Total
Casados A B
8 2 10
Solteiros C D
4 6 10
Total
12 8 20
A= número de casados que apresentam sintomatologia significante
B= número de casados que não apresentam sintomatologia
significante
C= número de solteiros que apresentam sintomatologia.
D= número de solteiros que não apresentam sintomatologia.

A descrição do resultado do teste de Fisher é feita utilizando-


se somente o valor de p e citando qual teste foi empregado na análise

Teste U de Mann-Whitney
A aplicação deste teste é adequada para a comparação de
dois grupos em variáveis com mensuração ordinal ou contínua com
distribuição assimétrica. Este teste pode não ser tão poderoso para
rejeitar a hipótese de nulidade, uma vez que não trabalha com os
valores absolutos observados, mas sim com postos que são atribuídos
a cada um dos valores dos dois grupos. No entanto, o teste U de
Mann-Whitney é a alternativa não-paramétrica mais freqüentemente
utilizada para conjuntos de valores que não possuem os requisitos
exigidos para o emprego do teste t para amostras independentes.

Exemplo: uma pesquisadora tem como objetivo comparar o


desempenho de ratos tratados e não tratados com uma droga
ansiolítica em uma tarefa de memória. Para tanto, submete os dois
grupos (tratado e controle) a uma tarefa de esquiva passiva, na qual
os animais recebem um choque ao emitir um comportamento
específico, e algum tempo depois mensura o tempo de latência para
que os animais emitam o comportamento que foi punido
anteriormente.
A descrição do teste U de Mann-Whitney é feita através do
valor de U observado e o valor de p.

- 102 -
Estatística para o curso de Psicologia

Teste t de Student para amostras independentes


Este é um teste que pode ser aplicado para a comparação
de dois grupos independentes, quando os dados obedecerem aos
seguintes critérios:
a) variável com mensuração contínua
b) distribuição normal dos dados
Na hipótese de um destes critérios não ser atingido, deve-
se optar por um teste não-paramétrico, como, por exemplo, o teste
U de Mann-Whitney.
Exemplo: Na situação apresentada no exemplo anterior, o teste t
para amostras independentes poderia ser aplicado caso os critérios
citados forem obedecidos.
Neste caso, o resultado do teste t é descrito com a
apresentação do valor de t observado no teste, o número de graus
de liberdade e o valor de p associado ao valor de t observado.

5.3 – Testes para três ou mais amostras


Em muitas situações de pesquisa, a comparação de
somente dois grupos não é uma estratégia metodológica interessante,
seja por que naturalmente existem mais do que duas categorias para
os grupos, seja por que um mesmo grupo precisa ser avaliado em
mais do que duas ocasiões.
De modo geral, os testes geralmente empregados para a
análise de três ou mais amostras, os dois elementos que podem
explicar as diferenças observadas entre os grupos, as variações
observadas dentro de cada uma das amostras (variação intragrupo)
e a variação entre as medidas das amostras (variação intergrupos)
são comparadas. Se as variações intragrupo forem pequenas em
comparação à variação intergrupos, eventuais diferenças entre os
grupos não poderiam ser atribuídas às diferenças individuais
observadas em cada um dos grupos. Desta forma, se a variação dentro
dos grupos for suficientemente inferior à variação observada entre os
grupos há grande chance de se rejeitar a hipótese que estabelece
igualdade entre as amostras (H0).
Em situações que são utilizadas três ou mais amostras, fazer
a simples comparação de pares de amostras aumenta as chances
de se cometer o erro do tipo I (rejeitar H0 quando esta é verdadeira).
Por exemplo, quando comparamos desta forma os dados de cinco
amostras, um nível de significância estabelecido em 5% torna-se
efetivamente 40%, ou seja, neste caso uma diferença estatística

- 103 -
Paulo Rogério Morais

encontrada em comparações de pares de amostras (um total de 10


comparações) tem 40% de chances de ter ocorrido por mera obra
do acaso.
A comparação de pares de amostras só se justifica após
ser feita a comparação global de todas as amostras, uma vez que
os testes para três ou mais amostras somente irá indicar que as
amostras são diferentes, mas não especifica quais amostras diferem
entre si.

5.3.1 Amostras Relacionadas


No caso de três ou mais amostras, usualmente tais amostras
tratam-se de avaliações dos mesmos elementos em diferentes
momentos ou diferentes situações. Também pode ocorrer o
emparelhamento de três ou mais amostras, mas, às vezes, tal
emparelhamento se mostra inviável (se já é difícil encontrar um par de
indivíduos com características bastante parecidas, imagine um trio).

Teste Q de Cochran
Este teste é uma extensão do teste de McNemar e como tal
pode ser empregado em situações em que uma variável nominal
dicotômica de um mesmo indivíduo é avaliada em três ou mais
situações diferentes

Exemplo: Da mesma forma que no exemplo dado para o teste de


McNemar, o pesquisador pretende avaliar o efeito de uma palestra
sobre doenças sexualmente transmissíveis sobre o comportamento
de usar preservativos por adolescente. Para tanto, em um primeiro
momento avaliou um grupo de estudantes do ensino médio
classificando-os como “usuários” e “não usuários” de preservativo.
Ao fazer a mesma avaliação um mês após apresentação da palestra,
o pesquisador detectou mudança significativa no comportamento
de uso de preservativos. Visando avaliar se tal mudança se mantém
ao longo do tempo, o pesquisador decidiu repetir avaliações mesmos
sujeitos 6, 12 e 24 meses após a apresentação da palestra. Para a
análise dos dados, o pesquisador poderá empregar o teste Q, seguido
de comparações dois a dois com o teste de McNemar, caso o teste
Q indique haver diferença signficativa entre as amostras.
Para se descrever os resultados do teste Q de Cochran,
apresentam-se o valor de χ2 dado pelo teste, o número de graus de
liberdade e o valor de p.

- 104 -
Estatística para o curso de Psicologia

Teste de Friedman
O teste de Friedman presta-se à análise de variáveis com
mensuração ordinal ou contínua de três ou mais amostras
relacionadas. Trata-se de uma generalização do teste de Wilcoxon.

Exemplo: Uma professora de Psicologia Geral acredita que ao longo


do ano, as notas dos alunos melhoram, isto é, as notas obtidas nas
provas dadas ao final do ano são maiores do que as obtidas nas
primeiras provas. Para testar esta hipótese, ela decide aplicar cinco
provas ao longo do ano letivo e, em seguida, aplicar o teste de
Friedman para comparar as notas obtidas por cada aluno nas
diferentes avaliações. Se for observada diferença significativa pelo
teste de Friedman, a professora aplicará o teste de Wilcoxon aos
pares de notas para saber quais avaliações diferem entre si.
A descrição dos resultados do teste de Friedman também é
feita com a apresentação do valor de χ2 dado pelo teste, o número
de graus de liberdade e o valor de p.

ANOVA com repetições


A análise de variância com repetição, também conhecida
como teste F ou ANOVA (do inglês Analysis of Variance), é alternativa
paramétrica ao teste de Friedman. Deste modo, exige que os dados
coletados tenham distribuição normal e mensuração contínua.
Da mesma forma que o os demais testes para três ou mais
amostras, a ANOVA indica se há diferença, mas não especifica qual
amostra difere de qual, sendo necessária a aplicação de testes que
analisem as amostras aos pares (testes a posteriori). Embora não
seja o mais adequado, alguns pesquisadores fazem análises dois a
dois empregando o teste t.
Exemplo: No exemplo anterior, a professora poderia aplicar a ANOVA
de duas vias se os seus dados possuírem distribuição normal.
A descrição dos resultados da ANOVA é feita com a
apresentação do valor de F, seguido dos graus de liberdade inter e
intragrupo entre parênteses, e o valor de p.

5.3.2 – Amostras Independentes

Existem situações de pesquisas em que três ou mais grupos


distintos necessitam ser comparados em relação a uma ou mais
variáveis. Para estes casos existem testes que levam em
consideração tal independência entre as amostras.

- 105 -
Paulo Rogério Morais

Teste χ2 para n amostras


Neste caso, o teste χ2 é uma generalização do teste χ2 para
duas amostras, seguindo o mesmo princípio de comparar as
freqüências observadas com as freqüências esperadas sob H0 .
Quando o teste χ2 para n amostras indica haver diferença significativa
entre as amostras, é necessário a aplicação do teste χ2 para duas
amostras para se especificar qual(is) amostra(s) difere(m) entre si.
Exemplo: um pesquisador pretende saber se grupos de pacientes
com diferentes diagnósticos atendidos em um ambulatório de saúde
mental diferem em relação à variável “estado civil”. Para tanto irá
comparar os estados civis de pacientes agrupados segundo o
diagnóstico psiquiátrico.
A descrição dos resultados é feita como nos demais casos
em que se emprega o teste χ2, ou seja, apresenta-se o valor do χ2, o
número de graus de liberdade e o valor de p.

Análise de Variância de Kruskal-Wallis


O teste Kruskal-Wallis é uma extensão do teste de Mann-Whitney,
sendo útil para a comparação de variáveis com mensuração ordinal
ou contínua de três ou mais grupos e o pesquisador não tem certeza
de que a distribuição dos dados comporta-se sob uma curva de Gauss.
Exemplo: Ao apresentar seus resultados, mostrando que um grupo de
ratos tratados com uma droga ansiolítica apresenta desempenho inferior
ao grupo controle em uma tarefa de memória, a pesquisadora foi
questionada quanto a possibilidade dos resultados não refletirem o efeito
da droga, mas sim do estresse gerado pela simples manipulação e
injeção da substância e não peã substância em si. Para contornar este
problema, a pesquisadora introduziu um terceiro grupo, o controle salina,
que passava por manipulação semelhante ao grupo tratado com a droga
ansiolítica, mas recebia uma injeção de solução salina. Caso este grupo
apresentasse desempenho semelhante ao do grupo controle, isto seria
um indicativo de que os efeitos da manipulação e injeção não explicam
a diferença observada entre o grupo tratado e o grupo não tratado com
o ansiolítico. Para saber se as diferenças observadas entre os grupos
podem ou não serem atribuídas ao acaso, a pesquisadora usará o teste
de Kruskal-Wallis, seguido de comparações dois a dois dos grupos com
o teste de Mann-Whitney, se necessário.
A descrição dos resultados do teste de Kruskal-Wallis é feita
por meio do valor de H dado pelo teste, seguido dos graus de liberdade
intrer e intragrupos entre parênteses, e o respectivo valor de p.

- 106 -
Estatística para o curso de Psicologia

ANOVA sem repetições


A ANOVA sem repetições é a alternativa paramétrica para o
teste de Kruskal-Wallis. Da mesma forma que a ANOVA com
repetições, este teste exige mensuração contínua e distribuição
normal dos dados.
Exemplo: um pesquisador avaliou os escores de quatro grupos de
crianças (nascidas a termo e prematuramente sem histórico de
hospitalização até o primeiro ano de vida , e nascidas a termo e
prematuras com histórico de hospitalização antes de completarem
o primeiro ano de vida) em um teste de inteligência. Se, a ANOVA
indicar a existência de diferença significativa entre os grupos, o
pesquisador empregará um teste a posteriori para especificar qual(is)
grupo(s) difere(m) entre si.
A descrição dos resultados também é feita apresentando-
se o valor de F, seguido dos graus de liberdade intrer e intragrupos
entre parênteses, e o valor de p

- 107 -
Gabarito para a escolha do este estatístico
Alguns testes para análise inferencial

Nível de Descrição dos 3 ou mais 3 ou mais


1 amostra 2 amostras 2 amostras amostras amostras
mensuração dados independentes relacionadas independentes relacionadas

Freqüência absoluta e Teste do Teste do Teste de Teste do Teste “Q” de


porcentagem de cada qui- qui-quadrado McNemar qui-quadrado Cochran
Nominal categoria quadrado
- 108 -

Freqüência absoluta e Teste de Teste “U” de Teste de Análise de Teste de


porcentagem de cada Kolmogorov- Mann-Withney Wilcoxon Variância de Friedman
Ordinal categoria1 Smirnov Kruskal-Wallis

Distribuição
simétrica assimétrica Teste “t” de Teste “t” de Teste “t” ANOVA de ANOVA de
Contínuo Média e Mediana e Student (*) Student (*) pareado (*) uma via (*) duas vias (*)

Paulo Rogério Morais


desvio- intervalo
padrão inter-quartil
(*) = testes paramétricos. Para que tais testes possam ser empregados na análise dos dados há a necessidade de que os
mesmos se distribuam sob uma curva de Gauss. Quando esta exigência não é cumprida, a alternativa é analisar os dados
com testes não paramétricos para variáveis com mensuração ordinal.
Estatística para o curso de Psicologia

Referências (da primeira parte)

Costa, S. F. Introdução ilustrada à estatística. São Paulo: Harbra, 1998.


Downing, D. & Clark, J. Estatística aplicada. São Paulo: Saraiva, 2000.
Jekel, L. F., Elmore, J. G. & Katz, D. Epidemiologia Bioestatística e Medicina Preven-
tiva. Porto Alegre: Artmed, 1999.
Lenin, J. Estatística aplicada às ciências humanas. 2a ed. São Paulo: Harbra, 1987.
Padovani, C. A. Noções básicas de bioestatística. In: A.O. Campana et al.
Investigaçãocientífica na área médica. São Paulo: Manole, 2000. p. 153 – 186.
Siegel, S. Estatística não-paramétrica para as ciências do comportamento. São Paulo:
McGraw-Hill, 1975.
Versiani, M. Princípios gerais básicos das escalas de avaliação (histórico, diferentes
tipos de escala, problemas de avaliação. In: Centro de Pesquisa em Psicobiologia
Clínica. Escalas de avaliação para monitorização de tratamento com
psicofármacos. AFIP, 1989. p. 1- 20.
Witter, G. P. Pesquisa cientifica e nível de significância. Estud. psicol., 13(1):55-63,
1996

- 109 -
Paulo Rogério Morais

- 110 -
Parte 2

Para empregar
a Estatística
Paulo Rogério Morais

- 112 -
IV – Psicologia, avaliação
em Psicologia e Estatística:
por que essa união é
fundamental?
Prof. Dr. Makilim Nunes Baptista1

Estatística: a matéria ingrata

Diz a lenda, confirmada por observações de senso


comum, que muitos alunos de Psicologia escolhem esta carreira
como uma forma de fugir de qualquer possibilidade de passar
perto de cálculo, matemática, estatística ou quaisquer que sejam
as áreas afins. De certa forma, a fuga desenfreada de algumas
pessoas por cálculos é nítida, mas sabe-se que a indisposição
com a tal matemática é um produto histórico que começa na
nossa infância.
Matemática geralmente é uma das matérias mais
odiadas de qualquer grade do ensino básico e fundamental, além
do que, muitas vezes os mestres não possuem a habilidade
especial de construir no aluno a curiosidade para efetuar cálculos
e, o quanto esta prática nos auxilia no cotidiano, desde contas
simples até análises mais pormenorizadas, como por exemplo
avaliar qual o tipo de investimento é mais adequado para a sua
aplicação. Inclusive a desmotivação dos próprios mestres do
ensino básico e fundamental também está baseada na
matemática dos salários microscópicos e no descaso para com
tal profissional tão fundamental na nossa vida. A coisa toda é
muito lógica e matemática: o governo não paga salários decentes

1
Programa de Estudos Pós-Graduados em Psicologia da Universidade São Francisco – Itatiba/
SP.
Paulo Rogério Morais

aos professores e, estes por sua vez não se sentem motivados (ou
poderiam estar muito mais) para ensinar matemática para as
pessoas, constituindo-se em uma relação de pura subtração, ou seja
todos perdem.
Sabe-se também que, se as pessoas fossem mais hábeis
em matemática, não haveriam tantas manipulações e falcatruas dos
bancos, governo (e seus cálculos para diversos impostos), comércio,
crediário ou outras instituições financeiras. Quantas pessoas não
acabam se endividando por não saber matemática?
O fato é que uma das matérias mais odiadas no ensino superior
também acaba sendo a estatística, que pode-se denominar como um
conjunto de métodos utilizados na avaliação de dados, como por
exemplo a exploração de dados epidemiológicos (ex. número de óbitos
ou nascimentos em uma determinada região ou época do ano).
Me lembro de várias ocasiões em que os alunos de
Psicologia me perguntavam para que teriam que estudar estatística,
já que a opção era para uma ciência considerada como humana. E
é claro que este tipo de pergunta não é tão fácil de ser respondida
para alguém que está entrando em um curso novo e geralmente
não possui conhecimentos técnicos suficientes para conseguir
equacionar os motivos do porque a estatística faz parte da grade de
um curso de Psicologia. Provavelmente alguns alunos até podem
chegar a acreditar que é um erro da coordenação ter colocado
matéria tão ingrata no curso, ou mesmo que a grade curricular está
desatualizada ou ultrapassada.
Em seu artigo sobre atitudes em relação à estatística e à
matemática, Silva e cols. (2002) comentam que o aluno que parte do
pressuposto de que a estatística é uma área importante e estimulante,
tenderá relacionar tais crenças com o comportamento, ou seja, estará
mais disposto para aprender e aplicar seus princípios. Do contrário, o
aluno que crê que estatística é matemática e, as experiências anteriores
relacionadas à matemática tenham sido aversivas, associará este
aprendizado com o estímulo atual, ou seja, a estatística se torna um
conceito também aversivo, o que acabará dificultando a sua
aprendizagem, motivação, atenção seletiva, memória, raciocínio,
dentre outros fenômenos e processos básicos psicológicos.
As autoras anteriormente citadas encontraram como
resultados principais de sua pesquisa uma relação entre escolha de
área correlacionada com relação afetiva que o aluno possui com a
matemática e com a estatística. Dessa forma, os alunos pertencentes
á área de exatas apresentaram atitudes mais positivas em relação à

- 114 -
Estatística para o curso de Psicologia

matemática do que alunos das áreas de biológicas e humanas.


Conclui-se que os alunos de áreas humanas necessitam de um
planejamento especial por parte dos docentes de estatística, já que
apresentam atitudes mais negativas, tanto em relação à matemática,
quanto à estatística.
Em uma outra pesquisa realizada por Vendramini e Brito
(2001), com 319 universitários das áreas exatas, humanas e ciências
da saúde, observou-se uma tendência dos alunos referenciarem a
estatística mais como descritiva (ex. média, moda, mediana) do que
inferencial (ex. Qui-quadrado, Pearson, Spearman, Kruskal-Wallis),
talvez porque este seja o enfoque principal dos professores de
estatística nos diferentes cursos. Um outro dado interessante é que
os alunos que tinham que cursar a matéria de estatística no primeiro
ano da graduação avaliavam a matéria de forma menos positiva do
que aqueles que deveriam cursar a matéria no segundo ano,
ocorrendo o mesmo do segundo para o terceiro ano, hipotetizando-
se que, com o aumento de conhecimento e maturidade, os alunos
começam a avaliar a estatística de forma mais positiva. Por último,
apenas 24,5% da amostra demonstrou conhecer o conceito de
estatística, mesmo tendo passado quase o período de um ano
fazendo a matéria.

A Metodologia, a Estatística e a Comprovação

Sabe-se que a estatística é uma ferramenta que pode auxiliá-


lo a encontrar respostas para diversas perguntas, entretanto, qualquer
ferramenta pode ser utilizada de maneira inadequada. Por exemplo,
uma batedeira é uma ferramenta importante para fazer bolos, no
entanto cada tipo de acessório (ex. tipo de pá) deve ser utilizado de
forma correta, pois seria impossível bater claras em neve com a pá
de bater massa de pão.
Já que a estatística é uma ferramenta de auxílio, se o
experimento que você vai montar não estiver livre de erros, ou seja,
bem planejado, os resultados serão imprecisos não por causa da
estatística, mas por causa da forma como foi conduzida a pesquisa.
Baptista, Baptista e Dias (2003) apontam a necessidade da
pesquisa deve ser a mais adequada forma na constatação de que a
Psicologia é eficaz em tratar problemas relacionados à saúde física
e mental, sendo assim, os psicólogos poderiam ser mais respeitados
e mais bem avaliados em ambientes médicos.

- 115 -
Paulo Rogério Morais

A importância da Estatística na avaliação


psicológica

Nos últimos meses estamos acompanhando, através de


discussões suscitadas pelo Conselho Federal de Psicologia, a
problemática enfrentada pelos testes psicológicos, principalmente
no que se refere à validade e precisão dos mesmos. Diversos
processos jurídicos vêm sendo acionados por usuários, questionando
o poder dos testes em avaliação psicológica dentro dos mais diversos
contextos, como por exemplo recrutamento e seleção de pessoal. A
área de psicodiagnóstico também vem sendo questionada, no sentido
de que há dúvidas sobre quais testes são realmente confiáveis no
auxílio ao profissional de saúde detectar diversos tipos de transtornos
psicológicos (Noronha e Archieri, 2002).
Também vêm se questionando se os instrumentos possuem
estudos científicos recentes, que avaliem suas qualidades
psicométricas, principalmente em relação à validade dos
instrumentos. Ou seja, será que realmente determinado instrumento
avalia aquilo que se propõe estudar, ou mesmo, será que se pode
confiar neste instrumento, para avaliar, por exemplo, se um indivíduo
possui realmente sintomas expressivos de depressão, que denotem
uma avaliação clínica mais aprofundada?
O psicólogo necessita, na sua prática profissional, de
instrumentos indicadores dos mais diversos fenômenos e processos
humanos, pois somente assim, poderemos avaliar, através de
parâmetros bem sinalizados, os mais variados problemas e
fenômenos das pessoas. Se uma das maiores críticas à Psicologia
se concentra na sua cientificidade (pelo menos de algumas linhas
teóricas ou áreas), temos que nos concentrar no desenvolvimento e
validação de instrumentos que realmente meçam fenômenos
pertencentes ao campo psicológico.
Mas a pergunta que o estudante deve estar fazendo, desde
o começo deste tópico é: Mas o que a estatística tem a haver com
a avaliação psicológica?
É simples, é através da estatística, que o cronstrutor de
testes valida e padroniza um instrumento de medida, através de
poderosas análises, tais como a análise fatorial, que organiza
dimensões coesas dentro dos instrumentos ou mesmo é a estatística
que dará suporte para validar ou adaptar um teste internacional aos
padrões culturais do nosso País.

- 116 -
Estatística para o curso de Psicologia

Como afirmam Alchieri e Bandeira (2002), já se foi o tempo


em que os professores de testes não precisavam se preocupar com
a fidedignidade, confiabilidade, precisão, validade de face, validade
de construto, precisão, dentre outras propriedades psicométricas,
no ensino da avaliação psicológica. Hoje, percebe-se que os
professores de matérias associadas a testes, bem como
pesquisadores, necessitam destes conhecimentos, que estão
diretamente associados à estatística para poderem dominar suas
áreas de estudo e pesquisa, pois de nada adianta se ensinar como
aplicar ou corrigir um teste, se este não possui propriedades que
garantam o seu uso na prática psicológica.

A Psicologia e a Estatística Descritiva

Imaginemos a seguinte situação: você foi convidada (o) a


fazer parte do quadro de funcionários de um importante hospital da
sua região para chefiar uma equipe de três psicólogos desta
instituição. O trabalho desenvolvido é clínico, ou seja, de atendimento
em um ambulatório de Psicologia de um hospital-escola, onde são
encaminhados pacientes dos mais diferentes setores deste hospital,
principalmente vindos do pronto-socorro e das várias enfermarias e
ambulatórios (oncologia, unidade renal, cardiologia), com queixas
as mais diversas, tais como medo de morrer, dificuldades em tomar
as medicações prescritas, depressão, ansiedade, problemas de
relacionamento com a equipe de saúde, tentativas de suicídio, dentre
outras.
Você sabe que, com tantas queixas diferentes, há a
necessidade em se criar um sistema de triagem, também chamado
de protocolo, para otimizar os atendimentos, além do que, conhecer
o tipo de clientela do seu serviço fará com que você consiga planejar
os atendimentos de forma mais eficaz, inclusive levando em
consideração quais os setores que mais encaminham, as queixas mais
freqüentes, o número de atendimentos por dias da semana, o número
de atendimentos por psicólogas do serviço, dentre outras informações
valiosas.
Com estes números em mãos, você poderá também planejar
a possibilidade de atendimentos em grupo por queixas, para otimizar
os atendimentos e conseguir ajudar mais pessoas em um espaço de
tempo menor. Também poderá saber, com um acompanhamento
constante, se o número de encaminhamentos aumenta em determinada

- 117 -
Paulo Rogério Morais

época do ano ou se vem aumentando nos últimos meses, podendo


discutir com seu supervisor a contratação de estagiários ou outros
profissionais para darem conta da demanda.
Somente com a estatística descritiva você poderá levantar
uma série de dados que possibilitarão o desenvolvimento de
estratégias que melhorem os atendimentos e consequentemente o
seu papel social e ético, mesmo porque, se você conseguir otimizar
os atendimentos, beneficiando mais pessoas com o suporte
psicoterápico, mais estará respeitando o sofrimento alheio e o bem-
estar do ser humano.

A Psicologia e a Estatística Inferencial

Já que começamos a falar sobre hospital, vamos supor que


agora você foi chamada (o) para atender pacientes da oncologia
que estão prestes a sofrer uma cirurgia e, o médico chefe lhe expõe
o seguinte problema: “Através das estatísticas descritivas do meu
departamento, venho percebendo que, em 20% dos pacientes que
vão sofrer uma cirurgia de extirpação total de mama, há o
cancelamento das cirurgias devido a ansiedade, que acaba causando
pressão alta e interrupção da cirurgia. No que você, enquanto
psicóloga (o), pode me ajudar ?”
Agora, você tem um problema grande nas mãos e, é a sua
chance de tentar provar que a Psicologia é uma ciência que funciona.
Mesmo sabendo que todos os seus amigos dizem o contrário e,
mesmo sabendo que uma parcela dos médicos do hospital que você
trabalha também acredita nesta hipótese.
Mas, como fazer isto sem o auxílio da estatística? A resposta:
IMPOSSÍVEL.
Vamos então começar a pensar um pouco sobre a
importância da pesquisa, e consequentemente da estatística, neste
problema, já que podemos falar que ambas são indissociáveis aqui.
Você deve prever uma forma de descobrir se a psicologia
pode realmente diminuir a taxa de ansiedade dos pacientes, sem se
basear no senso comum ou mesmo nos relatos dos pacientes, equipe
de enfermagem ou do próprio médico, já que em ciência devemos
nos preocupar com a imparcialidade e objetividade dos fatos. Não
adianta, por exemplo, você fazer duas sessões de psicoterapia com o
paciente pré-cirúrgico e perguntar a ele se está mais calmo, pois,
com muita chance de acerto (está é uma premissa minha), uma grande
parte deles falaria que está mais calmo, não necessariamente porque

- 118 -
Estatística para o curso de Psicologia

está, mas porque é uma resposta socialmente esperada. Em primeiro


lugar porque é você, o próprio psicólogo que está perguntando e,
muitos pacientes vão se sentir desconfortáveis em falar que não estão
mais calmos, sugerindo indiretamente que os seus esforços, tempo
perdido e muita saliva não serviram para nada. Em segundo lugar, o
paciente até pode expressar que está mais calmo do ponto de vista
subjetivo, no entanto, seus sinais psicofisiológicos ainda estão alterados
(ex.quando você pede para a enfermaria utilizar um esfignomanômetro
para avaliar sua pressão, esta não decaiu).
Perguntar para a equipe de enfermagem também pode não
ser apropriado, já que, se a equipe souber que você está atuando na
tentativa de diminuição de ansiedade pré-operatória, pode ocorrer de
enviarem informações distorcidas (também no intuito de as enfermeiras
quererem agradar ou de estarem influenciadas pelo viés de percepção
– acharem que houve alteração porque estão pré-dispostas a acreditar
que um profissional com diploma universitário tem que cumprir os
objetivos do trabalho para o qual foi chamado a cumprir). Este
fenômeno, chamado de influência social, pode estar ocorrendo nesta
situação, bem como em outras diversas situações, como por exemplo,
quando você pede para que a faxineira do seu escritório limpe a sua
mesa; você vê a faxineira saindo da sua sala, olha a mesa e infere
que ela foi limpa e que está muito melhor, mas na verdade a faxineira
esqueceu de limpar a sua mesa e só jogou o seu lixo fora.
Então, o que fazer?
Em primeiro lugar, mesmo não sendo o objetivo principal
deste livro descrever alguns princípios de metodologia, vamos nos
dispor a dar alguns palpites, mesmo porque, como vimos antes, pelo
fato de a estatística ser uma ferramenta, pode ser utilizada de
maneira errada, se a metodologia da pesquisa não estiver adequada
aos objetivos propostos pelo pesquisador.
Vamos supor que você aprendeu, na matéria de Psicologia
da Saúde, na universidade, que a melhor forma de diminuir a ansiedade
de um paciente é utilizando relaxamento progressivo muscular de
Jacobson, aquele tipo de relaxamento pelo qual o paciente vai
relaxando grupos musculares específicos (pela contração e
relaxamento consecutivos) através do comando do psicoterapeuta
(para mais informações técnicas deste procedimento, favor consultar
bibliografia mais técnica, tal como a de Caballo). Mas as enfermeiras
disseram a você, que foi investigar se havia algum protocolo pré-
operatório, que a melhor forma de relaxar o paciente é dando
informações, passo a passo, de como ocorrerá a cirurgia.
Bem, agora você tem outro problema nas mãos, pois são
duas as formas de procedimentos que você deverá testar para avaliar

- 119 -
Paulo Rogério Morais

qual é a mais eficaz, ou seja, qual delas (ou as duas juntas ou


nenhuma delas) pode realmente, na maior parte dos casos, diminuir
a ansiedade do paciente, interferindo direta ou indiretamente na
oscilação de sua pressão arterial.
Para um bom pesquisador, o melhor seria investigar, antes
mesmo de delinear uma metodologia para esta avaliação, se existem
outros trabalhos (que também vão fornecer dados estatísticos sobre
eficácia) que apontam outras formas ou protocolos para o trabalho
psicoterápico pré-operatório. E para o bem deste capítulo, para não
“complexificarmos” muito, suponhamos que estas duas técnicas são
as mais citadas nos trabalhos internacionais sobre controle de
ansiedade em pacientes oncológicos, no pré-operatório.
Em primeiro lugar, você precisa de um instrumento válido e
adaptado à nossa cultura, para realmente saber que estará avaliando
a ansiedade das pessoas na pesquisa, e não outro conceito similar
(ex. burnout). Você também precisa de conhecimentos extensos em
metodologia, principalmente em delineamentos experimentais
(lembram-se daquela matéria, que muitas vezes também é tida como
ingrata, chamada Metodologia de Pesquisa?), também chamados
de ensaios clínicos randomizados, para poder montar uma pesquisa
confiável, além de especificar todos os critérios e passos da pesquisa,
para que esta também seja reprodutível por qualquer outro
pesquisador, em qualquer lugar do mundo.
Você irá coordenar a pesquisa, logo, deve ter critérios objetivos
para limitar os seus participantes (ex. idade, sexo, medicamentos que
está tomando, tempo de espera para a cirurgia, se já houveram outras
cirurgias canceladas, que tipo de cirurgia será avaliada, medicamentos
consumidos no ato do procedimento, etc), com critérios de inclusão e
exclusão claros e precisos; deverá também Ter critérios para treinar
seus auxiliares de pesquisa na aplicação dos dois procedimentos, que
deve seguir padrões de tempo de duração, instruções específicas,
tom de voz, o sexo dos auxiliares, o tempo de formado, o tipo de
treino nas técnicas específicas, qual o tipo de informação que se deverá
dar ao paciente, quais os passos do relaxamento que deverão ser
seguidos, dentre outras.
Você também deve se preocupar em como fará o sorteio
aleatório (que também dependerá da estatística) dos pacientes,
também chamado de randomização, ou seja, quais os pacientes
que serão sorteados para o grupo somente de relaxamento, somente
para o grupo das informações, um terceiro grupo que terá os dois
procedimentos, e pode ainda haver um quarto grupo, chamado de
grupo placebo, no qual não receberá nenhum dos procedimentos

- 120 -
Estatística para o curso de Psicologia

(pelo menos para a avaliação da ansiedade), pois pode ocorrer de,


contrariamente ao que o pesquisador tem de pressuposto, o paciente
que não receba procedimento sentir menos ansiedade do que
aqueles que receberam algum procedimento, ou até mesmo não
haver diferença entre receber e não receber algum procedimento.
Bem, onde quero chegar? Não basta, no final das contas, o
pesquisador se basear aqui em estatística descritiva, pois necessitará
de testes estatísticos adequados para avaliar suas hipóteses iniciais,
sempre baseado na possibilidade destes resultados serem
encontrados com alguma chance de serem por acaso, o que se
expressaria pelo valor da significância ou p, que é padronizado, nas
ciências sociais, como sendo de 5% ou 0,05 dos resultados terem
sido encontrados por acaso.
A partir dos testes, e só a partir deles, é que o pesquisador
poderá inferir que tipo de procedimento (ou não) é mais eficaz no
tratamento de ansiedade em pacientes oncológicos, no pré-cirúrgico.
Suponhamos que, neste caso, o relaxamento foi o
procedimento mais eficaz, quando comparado com os outros grupos.
Com este tipo de pesquisa, o psicólogo poderá demonstrar
(literalmente por A+B), ao médico-chefe, que a Psicologia pode ser
capaz de auxiliá-los a diminuir o nível de ansiedade de seus pacientes
e, assim, diminuir substancialmente os cancelamentos de cirurgias,
evitando o dispêndio de tempo e dinheiro do hospital, além de diminuir
o sofrimento do paciente de “ter que passar” 24 horas se preparando
física e psicologicamente para a cirurgia (jejuns, pensamentos
disfunciuonais, sofrimento etc).

A Utilização da Probabilidade e da Estatística no


Processo de Tomada de Decisão

A estatística, aliada à metodologia, pode então, nos fornecer


uma série de dados para que nós, Psicólogos e demais profissionais
da área, possam tomar decisões a respeito de sua prática
profissional.
É engraçado, no entanto, por mais que você tente fugir da
estatística, mais longe ficará da ciência, o que acaba sendo uma
das maiores críticas à Psicologia. Do contrário, quanto mais se
interessar e entender de estatística, mais condições terá de
compreender pesquisas, fazer pesquisas e aplicar os resultados das
pesquisas em sua prática cotidiana.

- 121 -
Paulo Rogério Morais

Particularmente, eu acho que uma das formas de você,


aluno, profissional ou professor tem de auxiliar sua profissão, é
justamente transformar a estatística em uma poderosa aliada e,
não em uma potencial inimiga.

Referências

Alchieri, J. C. e Bandeira, D. R. (2002). Ensino da Avaliação Psicológica no Bra-


sil. In: R. Primi. Temas em Avaliação Psicológica. Instituto Brasileiro de Ava-
liação Psicológica: Campinas, p.35-39.
Baptista, M. N.; Baptista, A. S. D. e Dias, R. R. A Psicologia da Saúde no Mundo
e a Pesquisa no Contexto Hospitalar. In Baptista, M. N. e Dias, R. R. (2003).
Psicologia Hospitalar: teoria, aplicações e casos clínicos. Ria de Janeiro:
Guanabara-Koogan.
Noronha, A. P. P. e Alchieri, J. C. (2002). Reflexões sobre os Instrumentos de
Avaliação Psicológica. In: R. Primi. Temas em Avaliação Psicológica. Institu-
to Brasileiro de Avaliação Psicológica: Campinas, p.7-16.
Silva, C. B.; Brito, M.R.F.; Cazorla, I.M. e Vendramini, C.M.M. (2002). Atitudes
em Relação à Estatística e à Matemática. Psico-USF, 7(2):219-228.
Vendramini, C. M. M. e Brito, M. R. F. (2001). Relações entre Atitude, Conceito e
Utilidade da Estatística. Psicologia Escolar e Educacional, 5(1):59-73.

- 122 -
V - Análise fatorial

Altemir José Gonçalves Barbosa1

A análise fatorial (AF) consiste em um procedimento


estatístico que “identifica grupos de variáveis similares” (SPSS,
2003), isto é, resume um elevado número de variáveis originais
num número limitado de variáveis (Latif, 1994). A AF busca
identificar fatores num conjunto de medidas realizadas (Pereira,
1999).
Hair (1995 apud Almeida, 2004: Internet) estabelece um
objetivo geral para a AF eqüivalente ao que foi descrito no
parágrafo anterior e indica, ainda, quatro objetivos específicos:

1. Observar um conjunto de dimensões latentes num


grande conjunto de variáveis - Análise Fatorial do tipo
R.
2. Combinar ou condensar um grande número de
observações em grupos - Análise Fatorial do tipo
Q.
3. Identificar variáveis apropriadas para uma posterior
regressão, correlação ou Análise Discriminante.
4. Criar um novo conjunto de novas variáveis em menor
número, para substituir outro conjunto.

Assim, a AF é um tipo de análise multivariada porque


considera o comportamento de muitas variáveis ao mesmo tempo
(Pereira, 1999; Bryant & Yarnold, 1995). “(…) O fator (ou os
fatores) identificado(s) pela AF é(são) uma descoberta que o

1
Mestre em Psicologia Escolar; Doutor em Psicologia como Profissão e Ciência; Coordenador
de Núcleos de Pesquisa da USJT; professor e supervisor de estágio em Psicologia na USJT e
UBC.
Paulo Rogério Morais

pesquisador faz: inicialmente ele tem várias medidas e não se


apercebe ainda que elas podem ser reunidas num fator (ou indicador),
e é a AF que descobre isto para ele. (…)” (Pereira, 1999: 123). “A
análise fatorial é uma das técnicas mais usuais do que se
convencionou chamar de análise multivariada” (Camargo, 1996:
Internet).

No âmbito da AF, o que se pretende é a


identificação de possíveis associações entre variáveis
observacionais, de modo que se defina a existência de
um fator comum (latente) entre elas. Assim, pode-se dizer
que a AF, ou análise do fator comum, tem como objetivo
a identificação de fatores ou constructos subjacentes às
variáveis observacionais, o que, sem dúvida, contribui
para facilitar sobremaneira a interpretação dos dados.
Isto porque, por exemplo, ao invés de buscar entender o
comportamento de 20 variáveis observacionais, o
analista deverá entender o comportamento de 3 ou 4
fatores latentes por meio do comportamento dos seus
escores fatoriais (…). (Rodrigues, 2002: 76)

A AF pode ser dividida em exploratória e confirmatória. No


primeiro caso, dispõe-se apenas de variáveis e deseja-se “identificar
quantos e quais fatores latentes podem ser extraídos do conjunto
das variáveis por meio da associação entre elas” (Rodrigues, 2002:
77). A AF confirmatória parte de fatores e seus indicadores já
conhecidos a priori, “e o que se pretende é testar a adequação desses
fatores” (Balassiano, 2000: 1 apud Rodrigues, 2002: 77).
A AF foi desenvolvida no início do século 20 por
pesquisadores como Karl Pearson e Charles Spearman que estavam
interessados em medidas psicométricas “inteligentes”. Contudo,
somente com o advento dos computadores rápidos é que essa
técnica tomou impulso. (Artes, 1998; Latif, 1994)
Atualmente, dispensar o uso de informática para fazer AF é
algo praticamente inimaginável ou, no mínimo, irracional. Há muitos
softwares que permitem efetuar a AF. Todavia, como identificou
Barbosa (2003), o SPSS – Statistical Package for Social Sciences
– tem sido o programa mais utilizado no âmbito da Psicologia para
efetuar este e outros tipos de tratamento estatístico de dados.
“Com o advento das facilidades de computação providas
pela revolução tecnológica dos últimos 30 anos, a aplicação de
análises multivariadas cresceu expressivamente (…)” (Pereira, 1999:
101). Contudo, como ressalta este autor, há que se tomar cuidado

- 124 -
Estatística para o curso de Psicologia

com o uso para “fins cosméticos” de técnicas multivariadas como a


AF. Desta forma, a AF deve ser empregada como uma forma de
cautela contra erros de interpretação e, também, porque pode revelar
“informações não imediatamente aparentes numa análise mais
simples”. (Pereira, 1999: 106)
Se a AF for realmente necessária, recomenda-se a utilização
do SPSS por se tratar de, provavelmente, o mais completo e
amigável programa para efetuar estatística no âmbito da Psicologia.
No sítio na Internet da SPSS Brasil (2004), encontra-se que a AF
com o suporte do SPSS permite que se

identifique variáveis ou fatores que expliquem correlações


dentro de um conjunto de variáveis. Por exemplo, use
esse procedimento na redução de dados para identificar
um pequeno número de fatores que explique muitas das
variações observadas em um número muito maior de
variáveis. A AF possui um alto grau de flexibilidade,
fornecendo a você diversos métodos para extração de
fator, rotação e cálculo de escoragem do fator.

Em seus tópicos de ajuda (Help – Topics), o programa


ressalta que há um alto grau de flexibilidade quando se utiliza o SPSS
para efetuar a análise fatorial, pois, entre outras facilidades, são
disponibilizados sete métodos de extração de fatores, cinco métodos
de rotação, três métodos para calcular os escores dos fatores (SPSS,
2003). Ressalta-se que, devido ao caráter introdutório deste capítulo,
somente os procedimentos mais úteis aos analistas serão enfatizados
neste texto.

Como efetuar AF utilizando o SPSS


Para ilustrar o uso do SPSS para realizar uma AF, será usada
a pesquisa desenvolvida por Alvarenga (2003). Entre outros objetivos,
este estudo verificou as atitudes de professores em relação à inclusão
escolar de 11 necessidades educativas especiais [1. superdotação,
2. deficiência visual, 3. deficiência auditiva, 4. autismo, 5. Síndrome
de Down, 6. deficiência mental, 7. paralisia cerebral, 8. deficiência
física e problemas de saúde crônicos (9. infecção por HIV, 10. câncer,
e 11. problemas renais crônicos)]. As necessidades educativas
especiais foram distribuídas aleatoriamente em uma questão do
instrumento, resultando em uma escala de 11 itens com quatro pontos

- 125 -
Paulo Rogério Morais

de resposta: 1 – Concordo totalmente; 2 – Concordo; 3 – Discordo;


e 4 – Discordo totalmente.
Após tabulação na planilha eletrônica do SPSS, foi feita a
AF exploratória para identificar grupos de necessidades educativas
especiais (variáveis) que tendem a receber o mesmo padrão de
resposta por parte dos professores. Desta forma, cada necessidade
especial foi considerada um item (variável) de uma escala.

Pré-requisitos
Para efetuar uma AF utilizando o SPSS, alguns pré-requisitos
são fundamentais:
1. Possuir dados com nível de mensuração de razão fixa,
intervalar ou, no mínimo, ordinal;
2. Ter, no mínimo, 50 participantes ou, preferencialmente,
100 ou mais sujeitos;
3. Ter uma amostra com quatro ou cinco vezes o número
de variáveis (itens) analisadas;
4. Ter os dados tabulados corretamente na planilha do
software; e
5. Efetuar o teste de normalidade.
Quanto ao primeiro pré-requisito, o próprio SPSS recomenda
somente os níveis de mensuração intervalar ou razão fixa (SPSS,
2003). Contudo, como demonstram Latif (1994) e o exemplo que foi
adotado neste capítulo, é possível obter resultados confiáveis na AF
com nível de mensuração ordinal.
“As observações devem ser, no mínimo, de 50 casos e
preferencialmente de 100 ou mais” (Hair, 1995 apud Almeida, 2004:
Internet). No estudo de Alvarenga (2003), 172 professores
responderam a escala que aqui é analisada. É necessário, também,
que o número de observações seja igual a 4 ou 5 vezes o número
de variáveis (Hair, 1995 apud Almeida, 2004). Como 11 necessidades
educacionais especiais foram analisadas (itens), houve
aproximadamente 15 observações para cada variável.
No que diz respeito ao teste de normalidade, existe um con-
junto de técnicas que permite verificar se um determinado conjunto
de dados está normalmente distribuído, ou seja, avaliar se os dados
têm distribuição normal na amostra pesquisada. Para tanto, é possí-
vel utilizar exames rigorosos de distribuição normal ou, simplesmen-
te, examinar curvas de distribuição em, por exemplo, um gráfico de
dispersão (scatterplot)2 (Figura 1).

- 126 -
Estatística para o curso de Psicologia

Figura 1: Scatterplot da variável “superdotado”.

Com o SPSS, é possível realizar os dois procedimentos simul-


taneamente. Para tanto, é necessário, no menu de análises (Analize),
mais especificamente na opção de estatística descritiva (Descriptive
Statistics), acionar a caixa de diálogo Explore. Assim que ela estiver
ativada, escolha as variáveis que devem ser analisadas, configure para
que sejam exibidos (Display) somente diagramas (Plots) e selecione,
na opção diagramas (Plots), somente diagramas de normalidade com
testes (Normality plots with tests). Após estes procedimentos, o softwa-
re abrirá uma janela de saída onde constarão, entre outros, o resultado
do teste de Komolgorov-Smirnov e o scatterplot das variáveis selecio-
nadas para análise.
Ao aplicar a prova de Komolgorov-Smirnov, um valor de
significância (p valor – Sig.) baixo (geralmente menor que 0,05) indica
que a distribuição dos dados difere de forma significante da
distribuição normal. Todas as variáveis (necessidades educativas
especiais) analisadas por Alvarenga (2003) não apresentaram
distribuição normal. No caso de superdotação, por exemplo, obteve-
se Komolgorov-Smirnov igual a 0,30, com 172 graus de liberdade
(df) e p valor (Sig.) de 0,00.
Assim como recomenda Pereira (1999: 125), partiu-se para
a análise de um gráfico de dispersão (Figura 1) de “quartis contrastando
valores observados e esperados numa distribuição normal…”. Este
autor ressalta que, mesmo que um teste mais rigoroso negue às
variáveis propriedades de uma distribuição normal, caso se trate de
medidas intervalares, o pesquisador pode decidir continuar a AF a
partir do contraste entre quartis observados e esperados. Ressalta-se

- 127 -
Paulo Rogério Morais

que estas ponderações valem não só no caso de medidas intervalares


mas também para medidas ordinais. Neste último caso é ainda mais
difícil obter distribuição normal. Em caso de normalidade, os pontos
da Figura 1 cairiam exatamente sobre a diagonal.
Reitera-se que é adequado efetuar AF com nível ordinal de
mensuração, ainda que ele não seja o ideal (ver Latif, 1994).
Assim que os pré-requisitos tenham sido examinados, parte-
se para a AF propriamente dita.

Configurando o SPSS para AF

Os passos necessários para realizar uma AF com o SPSS


encontram-se resumidos no fluxograma da Figura 2. A caixa de
diálogo fundamental para estabelecer os parâmetros da análise
aparece no centro da figura. Para acessá-la, é necessário selecionar
no menu do programa o link para as análises estatísticas (Analyze)
e optar por Data Reduction. Somente a opção Factor aparecerá e,
ao clicar nela, será aberta a caixa de diálogo para a AF.
Uma vez que o analista esteja na caixa de diálogo do SPSS
para AF, o primeiro procedimento é selecionar as variáveis a serem
analisadas. No exemplo proposto, selecionaram-se as 11 necessidades
educativas especiais citadas anteriormente.
A seguir, há que se programar o tipo de estatística descritiva
desejado (Descriptives). Uma nova janela será aberta e o analista
deve ativar os comandos Initial solutions (solução inicial) e KMO
and Bartlett’s test of sphericity . O primeiro, como evidenciado,
fornecerá ao pesquisador uma primeira solução da AF. Quanto ao
segundo procedimento, tratam-se de duas medidas de adequação
dos dados para a AF (Pereira, 1999). Devido ao caráter introdutório
deste texto, não serão fornecidas explicações mais aprofundadas
sobre a Kaiser-Meyer-Olkin Measure of Sampling Adequacy (KMO)
e o Bartlett’s Test of Sphericity (BTS), porém, ressalta-se que são
medidas fundamentais para a AF.
O passo seguinte é fundamental para a AF com o suporte
do SPSS. Trata-se de definir a forma como será efetuada a extração
dos fatores. Além de outros procedimentos (ver Figura 2), é
fundamental determinar o método de extração (Method) e o autovalor
(Eigenvalues) que será adotado.
Como já foi indicado, as variáveis analisadas não têm
distribuição normal. Neste caso, optou-se pelo método de extração

- 128 -
Estatística para o curso de Psicologia
- 129 -

Figura 2: Fluxograma de comandos para efetuar AF com o SPSS.


Paulo Rogério Morais

(Method) denominado componentes principais (Principal components).


“Um dos métodos mais utilizados é o baseado na análise de
componentes principais (ver Johnson e Wichern, 1992, por exemplo).
A vantagem desse método é que não há a pressuposição da
normalidade das variáveis envolvidas” (Artes, 1998: Internet). Ainda
que diferenças entre AF e Análise de Componentes Principais sejam
indicadas por alguns autores (ver, por exemplo, Artes, 1998 e Landim,
2000), neste capítulo a segunda será considerada um método de
extração da primeira como o faz o SPSS.
Quanto ao autovalor, há diferentes critérios para determiná-
lo (ver, por exemplo, Fleck & Bordel, 1998). Neste exemplo, optou-
se por considerar o critério de Kaiser, pois “é provavelmente o critério
mais usado” e “propõe considerar apenas os autovalores superiores
a um, demonstrando que esses seriam os valores estatisticamente
significativos” (p. 268).
Algo semelhante ao exposto no parágrafo anterior ocorre
quanto ao método (Method) de rotação (Rotation) a ser adotado. O
SPSS apresenta várias possibilidades, mas a Varimax, como indicam
Almeida (2004), Briant & Yarnold (1995) e Landim (2000), é a mais
comum.. Aplicar um método de rotação é fundamental para facilitar
o entendimento dos fatores (Latif, 1994). Nesta etapa, o analista
ainda deve programar o software para que seja exibido um diagrama
com os fatores rotacionados (Loading Plots), facilitando, desta forma,
a visualização dos fatores.
Também é necessário programar o SPSS para, no que se
refere aos escores (Scores), exibir uma matriz de coeficientes com
os escores dos fatores (Display factor score coefficient matrix). Por
fim, o software dispõe de algumas opções (Options) que facilitam o
trabalho do analista. Nesta etapa, é recomendável que os valores
em branco (Missing values) sejam excluídos (Exclude cases listwise)
e que a forma de exibição dos coeficientes (Coefficient display format)
seja organizada por tamanho (Sorted by size) e que as cargas
fatoriais inferiores a 0,30 sejam suprimidas (Suppress absolute
values less than: 0,30). Estas opções facilitam sobremaneira a
visualização e, conseqüentemente, a interpretação dos fatores.
Assim que se clicar em “OK”, o SPSS gerará na janela de
saída uma série de gráficos e tabelas com o resultado da AF. A despeito
da importância de todos eles, somente alguns serão efetivamente
usados em um artigo, dissertação ou tese. Assim, optou-se neste
capítulo por exibir e analisar somente os mais relevantes.

- 130 -
Estatística para o curso de Psicologia

Interpretando os resultados da AF
Dentre as múltiplas informações disponíveis, a primeira a
ser considerada abrange os resultados da KMO e da BTS (Approx.
Chi-Square - χ2o). No caso da pesquisa de Alvarenga (2003), foram
obtidos KMO igual a 0,872 e χ2o igual a 1249,281, com 55 graus de
liberdade (df) e p valor (Sig.) de 0,000. Reitera-se que tratam-se
dois testes fundamentais para avaliar se as premissas quanto à
natureza dos dados para AF são atendidas.
O resultado do χ 2 o do BTS deve ser interpretado
considerando o nível de significância de 0,05 e o de KMO adota os
valores críticos a seguir (Pereira, 1999: 124):
• Valores na casa dos 0,90: adequação ótima dos dados
à AF.
• Valores na casa dos 0,80: adequação boa dos dados
à AF.
• Valores na casa dos 0,70: adequação razoável dos
dados à AF.
• Valores na casa dos 0,60: adequação medíocre dos
dados à AF.
• Valores na casa dos 0,50 ou menores: adequação
imprópria dos dados à AF.
Em ambos os casos os resultados obtidos indicam que as
premissas da AF estão sendo atendidas no estudo em questão.

Scree Plot
6,00

5,34
5,00

4,00
Eigenvalue

3,00

2,00 2,33

1,00

,73
,59
0,00 ,46 ,43

1 2 3 4 5 6 7 8 9 10 11

Component Number

Figura 3: Componentes extraídos e seus autovalores.

- 131 -
Paulo Rogério Morais

A seguir, há que se considerar o número de fatores com


autovalor (valor próprio – Eigenvalues) superior ou igual a um e a
porcentagem de variância das respostas por eles explicados (Tabela
3). Isto é facilmente perceptível na Figura 3 e na Tabela 1, assim como
em outras tabelas que aparecem na janela de saída (SPSS Viewer).
Verifica-se que somente dois fatores (Components) possuem
autovalor superior ou igual a um. Ressalta-se que o número de fatores
sempre será igual ao número de variáveis. Desta forma, por serem
11 necessidades educativas especiais as variáveis, 11 fatores
aparecem na Figura 3, Tabela 1 e em outros resultados do SPSS
Viewer. Não obstante, reitera-se que, por opção, somente aqueles
que possuem autovalor igual a, no mínimo, um serão considerados.
Estas mesmas informações constam na Tabela 1, porém
acrescidas do percentual de variância explicada por cada fator e da
percentagem acumulada. Verifica-se que os dois fatores extraídos
possuem elevado poder de explicação já que eles são responsáveis
por 69,737% da variação das respostas, isto é, aproximadamente 70%
das atitudes dos professores em relação à inclusão de necessidades
educativas especiais podem ser explicadas por estes fatores.
O passo seguinte na interpretação dos dados é considerar
os itens que compõem cada fator e explicá-los de maneira
fundamentada. Mais uma vez é possível recorrer a uma tabela e a
um gráfico da janela de saída do SPSS.
A Tabela 2 apresenta os dois fatores extraídos, os itens que
compõem cada um e carga fatorial de cada item. Há que se relembrar
que foram suprimidas da matriz cargas fatoriais que apresentam
valor absoluto baixo (< 3).
As relações entre fatores e itens (variáveis) que os compõem
aparecem expressas também na forma de gráfico (Figura 4). Percebe-
se que as variáveis que compõem cada fator tendem a se agrupar.
Desta forma, os itens do Fator 1 (Autismo, Deficiência Mental,
Síndrome de Down, Paralisia Cerebral, Deficiência Auditiva, Deficiência
Visual e Superdotação) aparecem congregados à direita do plano
enquanto os do Fator 2 (Câncer, Problemas Renais Crônicos,
Deficiência Física e Infecção por HIV) aglutinaram-se no alto.
Compete ao pesquisador, agora, buscar explicações
fundamentadas para os fatores extraídos. Recomenda-se, inclusive,
que a explicação adotada para cada fator seja racional, objetiva,
coerente com o referencial teórico da pesquisa, consonante com os
demais resultados obtidos e, conseqüentemente, provida de significado.
Caso não consiga, a AF é pouco útil. No entanto, se os fatores forem
passíveis de interpretação, a AF pode ser considerada bem sucedida.

- 132 -
Estatística para o curso de Psicologia
Tabela 1: Total de variância explicada pelos fatores extraídos.

Total Variance Explained

Initial Eigenvalues Extraction Sums of Squared Loadings Rotation Sums of Squared Loadings
Component Total % of Variance Cumulative % Total % of Variance Cumulative % Total % of Variance Cumulative %
1 5,341 48,558 48,558 5,341 48,558 48,558 4,454 40,490 40,490
2 2,330 21,179 69,737 2,330 21,179 69,737 3,217 29,247 69,737
3 ,726 6,602 76,339
- 133 -

4 ,588 5,342 81,681


5 ,460 4,185 85,866
6 ,431 3,917 89,783
7 ,288 2,621 92,403
8 ,254 2,308 94,711
9 ,224 2,039 96,749
10 ,187 1,697 98,446
11 ,171 1,554 100,000
Extraction Method: Principal Component Analysis.
Paulo Rogério Morais

Tabela 2: Matriz dos fatores extraídos com rotação Varimax e normalização de


Kaiser.

Rotated Component Matrixa

Component
1 2
Autismo ,867
Deficiência mental ,854
Síndrome de Down ,836
Paralisia cerebral ,805
Deficiência auditiva ,781
Deficiência visual ,766
Superdotação ,577 ,369
Câncer ,908
Problemas renais crônicos ,883
Deficiência física ,865
Infecção por HIV ,744
Extraction Method: Principal Component Analysis.
Rotation Method: Varimax with Kaiser Normalization.
a. Rotation converged in 3 iterations.

Component Plot in Rotated Space


1,0 câncer
Component 2

problemas renais crô


deficiência física
infecção por hiv

,5
superdotação
deficiência
síndrome
deficiência visual
de mental
deficiência down
auditiva

auti smo
paralisia cerebral
0,0

-,5

-1,0
-1,0 -,5 0,0 ,5 1,0

Component 1
Figura 4: Relações entre fatores e variáveis num espaço de Factor Loadings.

- 134 -
Estatística para o curso de Psicologia

No que concerne ao exemplo utilizado neste capítulo,


Alvarenga (2003) considerou, fundamentando-se na literatura
científica sobre inclusão escolar e nos demais resultados obtidos
pelo estudo, que o fator 1 é composto por necessidades educativas
especiais que enfrentam mais resistências para freqüentar sala de
aula regular, pois demandam alterações significativas no processo
de ensino-aprendizagem tradicional, e que o fator 2 engloba
necessidades educativas especiais que facilmente são inclusas, já
que não são necessárias alterações pedagógicas significativas na
forma como os docentes têm trabalhado.
Pelo exposto nos parágrafos anteriores, fica evidente que a
AF é, simultaneamente, um tratamento quantitativo e qualitativo de
dados extremamente útil aos psicólogos, pois permite ao mesmo
tempo a mensuração objetiva, própria da estatística, e a interpretação
dos significados, algo fundamental em psicologia.

Referências

Almeida, T. L. (2004). Análise fatorial. Porto Alegre: Departamento de Matemática da


FURG. Recuperado em 10 de abril de 2004: http://lula.dmat.furg.br/~taba/
posanafat.htm.
Alvarenga, I. G. (2003). Atitudes de professores de escolas públicas e privadas em
relação à inclusão escolar. Trabalho de Conclusão de Curso, Universidade Braz
Cubas, Mogi das Cruzes/SP.
Artes, R. (1998). Aspectos estatísticos da análise fatorial de escalas de avaliação.
Revista de Psiquiatria Clínica, 25 (5). Recuperado em 10 de abril de 2004: http:/
/www.hcnet.usp.br/ipq/revista/r255/conc255d.htm.
Barbosa, A. J. G. (2003). Psicologia e computadores: ensino, pesquisa e prática
profissional. Tese de Doutorado, Programa de Pós-graduação em Psicologia do
Centro de Ciências da Vida da Pontifícia Universidade Católica de Campinas,
Campinas/SP.
Bryant, F. B. & Yarnold, P. R. (1995). Principal-components analysis aand exploratory
and confirmatory factor analysis. In Grimm, L. G. & Yarnold, P. R. (eds.) Reading
and understanding multivariate statistics . Washington/DC: American
Psychological Association.

- 135 -
Paulo Rogério Morais

Camargo, C. C. B. (1996). Gerenciamento pelo lado da demanda: metodologia


para identificação do potencial de conservação de energia elétrica de consu-
midores residenciais. Tese de Doutorado, Programa de Pós-graduação em
Engenharia de Produção da Universidade Federal de Santa Catarina,
Florianópolis. Recuperado em 25 de abril de 2004: http://www.eps.ufsc.br/
teses96/camargo/index/.
Fleck, M. P. A. & Bordel. M. C. (1998). Método de simulação e escolha de fatores
na análise dos principais componentes. Revista de Saúde Pública, 32 (3),
267-72.
Landim, P. M. B. (2000). Análise estatística de dados geológicos multivariados.
Rio Claro/SP: DGA, IGCE, UNESP, Lab. Geomatemática, Texto Didático
03, 96 pp. Recuperado em 19 de abril de 2004: http://www.rc.unesp.br/igce/
aplicada/textodi.html.
Latif, S. A. (1994). A análise fatorial ajudando a resolução de um problema real de
pesquisa de marketing. Cadernos de Pesquisas em Administração, 00(0), 1-
10.
Pereira, J. C. R. (1999). Análise de dados qualitativos: estratégias metodológicas
para as ciências da saúde, humanas e sociais. São Paulo: EDUSP/FAPESP.
Rodrigues, M. C. P. (2002). Potencial de desenvolvimento dos municípios
fluminenses: uma metodologia alternativa ao IQM, com base na análise
fatorial exploratória e na análise de clusters. Cadernos de Pesquisas em
Administração, 9(1), 75-89.
SPSS (2003). SPSS 12.0.1 for Windows. Chicago: Autor.
SPSS Brasil (2004). SPSS® Base for Windows®. São Paulo: Autor. Recupera-
do em 15 de abril de 2004: http://www.spss.com.br/spss/
analisedosdados.htm.

- 136 -
VI - Análise de dados com o
computador: breve
descrição dos programas
atualmente disponíveis
Marcos Aguiar de Souza
Universidade Federal Rural do Rio de Janeiro

Israel Souza
Escola Nacional de Ciências Estatísticas

A utilização da estatística vem sendo uma das


características mais marcantes de diversas áreas do conhecimento,
sobretudo a partir do século XIX. A importância do uso da estatística
é bastante justificada, uma vez que, oferece recursos seja para
descrever uniformidade ou regularidades acerca de um
determinado fenômeno, no caso da estatística descritiva, seja para
fazer previsões, como no caso da estatística inferencial.
O reconhecimento da importância da estatística fez com
que muitos cientistas privilegiassem o uso de uma metodologia
quantitativa para analisar seus dados. Para alguns cientistas,
inclusive, a pesquisa genuinamente científica é aquela que se
baseia numa objetividade só possível de ser alcançada com o
apoio da estatística. Sobretudo nas ciências humanas, o debate
qualitativo vs. quantitativo tem ocupado lugar de destaque em
muitas das discussões e críticas metodológicas, fazendo surgir
duas posições extremas: os que não dão nenhuma importância
à utilização da estatística e os que consideram que a utilização
da estatística é o que genuinamente caracteriza a ciência (Ander-
Egg, 1969). Para Stevens (1946), por exemplo, o valor da ciência
é medido pela capacidade que tem de utilizar a linguagem
matemática.
Paulo Rogério Morais

De acordo com Silva e colaboradores (2002), em geral os


alunos da área de humanas, comparados com os de outras áreas,
são os que apresentam atitudes mais negativas em relação à
matemática e à estatística.
A apresentação detalhada dos argumentos daqueles que
defendem metodologias qualitativas ou quantitativas não é nosso
objetivo neste capítulo. A conclusão a que os diversos argumentos
permitem chegar é que em pesquisa utilizamos a metodologia que
julgamos mais apropriada para responder às questões julgadas
pertinentes. Cada metodologia permitirá responder a um conjunto de
indagações, significando uma forma específica de analisar os dados,
os quais não são, necessariamente, quantitativos ou qualitativos.
Deixemos, portanto, o debate de qual metodologia é melhor e mais
abrangente para aqueles que insistem nessa disputa.
A crescente utilização de metodologias quantitativas fez surgir
nas diversas áreas do conhecimento subáreas específicas, a exemplo
do que ocorreu na economia, biologia, psicologia e sociologia, com a
econometria, biometria, psicometria e sociometria, respectivamente.
Sobretudo na Psicologia, a relutância de muitos profissionais e
estudantes talvez se deva ao fato de que os primeiros psicometristas
tenham sido estatísticos e não psicólogos (Pasquali, 2004) ou mesmo
pelo exagero que, em alguns momentos, se observa por parte de
profissionais que atribuem à estatística o poder de um oráculo.
É importante se ter clareza de que por mais sofisticado que
seja o recurso estatístico utilizado, as conclusões extraídas da análise
dos dados não podem deixar de considerar a teoria. Assim, a
discussão de uma pesquisa em psicologia deve ser realizada com
base em teorias psicológicas, ainda que apoiadas na estatística.
A utilização dos procedimentos estatísticos na pesquisa
científica evoluíu na mesma medida em que foram sendo criados os
computadores. De fato, a revolução proporcionada pelos
computadores abriu espaço para uma rápida evolução de softwares
ou programas estatísticos. Mesmo sendo hoje considerados
antiquados, os computadores de grande porte permitiram a utilização
de diversas análises de dados que anteriormente eram por demais
laboriosas e expostas aos erros humanos.
Nos termos de Kerlinger (1980), atualmente o pesquisador fica
livre para conceber uma enorme variedade de problemas de pesquisa
que, digamos, na década de 50 ele nem pensaria, simplesmente porque
não havia meios de fazer os cálculos necessários (p. 271).
Com o surgimento dos computadores pessoais ou
microcomputadores, a evolução chegou a um nível muito mais

- 138 -
Estatística para o curso de Psicologia

promissor. O próprio pesquisador tem agora condições de realizar os


cálculos, permitindo, também, uma melhor análise de seus dados.
Adicionalmente ao desenvolvimento dos computadores, cada vez mais
potentes e menores, podemos citar as leitoras óticas, que tornam
quase que nulos os erros cometidos na passagem dos dados obtidos
para as planilhas eletrônicas.
Atualmente são diversos os recursos de que dispõem os
pesquisadores. Programas de estatística a baixo custo ou mesmo
gratuitos possibilitam que alunos de graduação e de pós-graduação
realizem em suas casas os cálculos necessários. Essa facilidade,
entretanto, trouxe também alguns problemas. O computador acelera
tudo, inclusive o erro. Se o estudante tem maior facilidade no acesso
aos programas de estatística, o entendimento da lógica que orienta
os procedimentos a serem executados não acompanhou tal evolução.
Assim, é comum encontrarmos alunos, mesmo de doutorado que
executam os cálculos, concluem o trabalho, mas não têm clareza dos
procedimentos que utilizou na análise dos dados.
Para Nie e colaboradores (1975), se podemos afirmar que
os cientistas estão fazendo uso dos complexos procedimentos
estatísticos disponíveis, também é certo que muitos alunos e
pesquisadores utilizam esses recursos sem ter o mínimo entendimento
das bases estatísticas e matemáticas desses mesmos procedimentos.
Um outro problema da existência de recursos para análise
de dados cada vez mais sofisticadas, é que em muitas pesquisas
termina-se por dar papel de destaque, muitas vezes injustificado, à
estatística. Para alguns, a própria elaboração da hipótese é
postergada até que se tenha exaustivamente analisado os dados,
de modo a se obter um relatório de pesquisa bastante organizado e
com as hipóteses corroboradas.
Os usos e desusos da estatística nas ciências humanas, e
especificamente na Psicologia, têm por vezes alimentado as críticas
de que na pesquisa em que se utiliza uma metodologia quantitativa
apenas coletam-se dados e discute-se aquilo que os cálculos indicam,
sem uma reflexão do objeto de estudo.
A facilidade de acesso aos programas estatísticos, entretanto,
deve ser encarada como um grande avanço, principalmente na
formação de pesquisadores. As limitações vêm sendo cada vez
menores e atualmente existe uma preocupação por parte de empresas
e grupos responsáveis por programas estatísticos de cada vez mais
torná-los adequados para públicos específicos, sejam alunos de
graduação, de pós-graduação ou mesmo cientistas que necessitam
de tratamentos estatísticos recentes e bastante avançados.

- 139 -
Paulo Rogério Morais

Os argumentos até aqui apresentados justificam o objetivo


neste capítulo de apresentar alguns dos programas de estatística
disponíveis. É interessante notar que seria um esforço imenso e
infrutífero descrever todos os programas atualmente existentes. São
diversos os programas. Alguns de uso amplo, disponibilizando
ferramentas para os procedimentos estatísticos mais comuns e
gerais. Outros, direcionados especificamente para um ou outro tipo
de análise. Alguns programas permitem apenas análise quantitativa
ou qualitativa de dados. Outros permitem ambas as análises.
Existem ainda programas que são destinados a apenas uma
área do conhecimento, apesar de serem igualmente úteis para outras
áreas. Outros programas são destinados para várias áreas. Alguns
programas são gratuitos e de livre utilização. Outros, requerem
pagamento de licença anual. Existem programas que são amplamente
utilizados em diversos países e outros que são pouco conhecidos por
profissionais da área e que são utilizados por grupos restritos.
Antes de iniciarmos a apresentação de alguns dos
programas de estatística, existe mais um detalhe que merece
atenção. Boa parte dos programas apresentados, ou talvez todos,
estão em constante processo de aperfeiçoamento. Assim, o presente
capítulo deve ser considerado como tendo um tempo de vida útil,
podendo em breve estar incompleto na descrição das características
do programas aqui apresentados.

AMOS
O AMOS é um programa desenvolvido especificamente para
modelagem de equações estruturais (SEM), permitindo a construção
de modelos que refletem melhor as relações complexas entre as
variáveis.
O AMOS vem sendo utilizado em diversas áreas do
conhecimento humano como nas ciências sociais e do comportamento
(como psicologia, sociologia, psiquiatria, ciência criminal, família,
ciência política, pesquisa, antropologia, ou trabalho social); Pesquisa
médica (alimentação, farmácia, epidemiologia, gerontologia,
cinesiologia, ciência desportiva, e outros campos); Educação (em
administração, política, análise de testes); Pesquisa empresarial
(comércio, administração, economia, organização); Ciência ambiental
(inclusive administração de recursos e pesquisa longitudinal).
Já na sua versão 6.0, o AMOS é produzido pela mesma
empresa que comercializa o SPSS, o que para muitos significa que
trata-se de um programa é uma forma de complementar o SPPS.

- 140 -
Estatística para o curso de Psicologia

BIOESTAT
O pacote estatístico BIOESTAT foi desenvolvido
originalmente para estudantes de graduação e pós-graduação das
áreas médica e biológica por Manuel Ayres, Manoel Ayres Jr, Daniel
Lima Ayres e Alex de Assis Santos dos Santos, sendo distribuído
pela Sociedade Civil Mamirauá (Belém – Pará).
Sua distribuição é gratuita, porém a versão mais recente, a
3.0 (2005) já está esgotada. A previsão é de que a versão 4.0 já
esteja disponível em breve para downloads na página da Sociedade
Civil Mamirauá (www.mamiraua.org.br). Maiores informações podem
ser obtidas através do e-mail: loja@mamiraua.org.br.
Embora tenha sido desenvolvido para as áreas médica e
biológica os testes estatísticos presentes no BIOESTAT podem ser
empregados nas mais diversas áreas da ciência, podendo ser
executado em sistema operacional Windows 95 ou superior, e em
computadores pessoais 486 ou superior com no mínimo 8 mb de
memória RAM.
Uma dos fatores mais interessantes do BIOESTAT é que, além
de ser totalmente em português por ser um programa brasileiro, possui
um sistema de sugestões, no qual o usuário é auxiliado na escolha do
teste estatístico apropriado após informar o número de amostras, o
número de variáveis e o nível de medida dos dados a serem analisados.
Sua interface gráfica é semelhante às planilhas do tipo Excel.
Dentre as estatísticas realizadas pelo BIOESTAT 3.0
destacamos a amostragem (simples, sistemáticas, estratificadas, por
conglomerados e aleatória dos escores); análise multivariada
(componentes principais, distância multivariada, teste de Hotelling,
teste de Bartlett); análise de sobrevivência; análise da variância
(anova, teste de Friedman, Kruskal-Wallis, Q de Cochran); bootstrap;
correlação (Pearson, parcial, Kendall, phi, Spearman, coeficiente de
contingência, coeficiente de concordância); distribuição de
probalidades; teste t; teste Z; Kolmogorov-Smirnov; qui-quadrado;
teste de Poisson; odds ratio; teste Kappa; meta-análise; testes de
normalidade e regressão múltipla entre outros (Ayres e
colaboradores, 2003).
Com todas essas utilidades apenas dois detalhes diminuem
o brilho deste pacote: (1) os dados só podem ser analisados em
colunas. Assim, a planilha com o banco de dados original deve ser
alterada a cada procedimento estatístico realizado; e (2) os resultados
e os gráficos devem ser salvos em outro aplicativo (Word, por
exemplo) antes de uma nova análise.

- 141 -
Paulo Rogério Morais

EPI INFO
Desenvolvido para utilização por profissionais de saúde pública
o EPI INFO, é de domínio do Centro para Controle e Prevenção de
Doenças (CDC – Atlanta, Geórgia, EUA). O EPI INFO, na verdade é
composto por uma série de programas voltados para análise de dados
epidemiológicos e para a administração de bancos de dados de vigilância
de saúde pública, sendo, entretanto, útil para realização de uma série
de análises estatísticas com aplicações em diversas outras áreas.
O programa foi desenvolvido inicialmente para ser executado
em ambiente DOS, com a primeira versão lançada em 1985 e já em
1997 estimava-se haver mais de 145.000 cópias em 117 países
(Decano e colaboradores, 2000).
Sua versão mais recente (EPI INFO 2000) foi totalmente
remodelada, sendo executado diretamente no sistema operacional
Windows (95, 98, NT e 2000).
Seu diferencial inclui um Sistema de Informação Geográfico
(SIG), chamado Epi Map 2000. O programa mantém as vantagens
do EPI INFO para DOS, além de oferecer vantagens como a interface
gráfica amigável do Windows com a facilidade de apontar-e-clicar,
gráficos, fontes e impressão fácil (Decano e colaboradores, 2000).
O grande atrativo do EPI INFO consiste em ser um pacote
estatístico de domínio público, assim como a documentação e os
materiais pedagógicos, podendo ser copiados, distribuídos ou
traduzidos livremente.
O pacote estatístico EPI INFO 2000 encontra-se disponível
para download na página http://www.cives.ufrj.br/cdc/epi2000/
arq2000.html. Já as versões do EPI INFO em DOS podem ser
encontradas na página: http://www.lampada.uerj.br/epiinfo/
download.htm. Uma outra opção é acessar diretamente a página do
Centro para Controle e Prevenção de Doenças (CDC): http://
www.cdc.gov/epiinfo/downloads.htm
O EPI INFO 2000 requer as seguintes configurações para
sua instalação:
- Microsoft Windows 95, 98, NT ou 2000
- 32 mb RAM - mais é recomendado para o Windows NT
- 50 mb de espaço de disco rígido livre
- processador de pelo menos 200 MHz
Dentre os recursos do EPI INFO 2000 podem ser destacadas
as funções: listar, freqüências, tabelas, parear, médias, sumariar,
gráficos, mapa, regressão linear, regressão logística, análise de

- 142 -
Estatística para o curso de Psicologia

sobrevida de Kaplan-Meier, risco proporcional de Cox, freqüências


em amostras complexas, tabelas em amostras complexas, médias
em amostras complexas, entre outros.

EQS

O EQS foi desenvolvido para pesquisadores e estatísticos


com um método simples para utilização de modelos de equações
estruturais inclusive regressão múltipla, regressão de multivariada,
análise fatorial confirmatória e comparações múltiplas.
Alguns usuários afirmam que o EQS é mais completo e muito
mais fácil usar que outros produtos como LISREL, pois o EQS não
requer conhecimento específico de matrizes.
EQS provê as estatísticas mais conhecidas para análise em
dados que normalmente podem não ser multivariados. Estas
características não estão disponíveis em outros programas.
Já na sua versão 6.1 o EQS, acessível na página http://
www.mvsoft.com, disponibiliza uma versão demo, sendo necessário
o envio de e-mail solicitando a versão para sales@mvsoft.com.

EXCEL
O Microsoft EXCEL fornece um conjunto de ferramentas
para análise de dados que pode ser usado para pular etapas no
desenvolvimento de análises estatísticas ou de engenharia
complexas.
Após serem fornecidos os dados e os parâmetros para cada
análise, o EXCEL exibe os resultados em uma tabela de saída.
Algumas ferramentas geram gráficos além das tabelas de saída.
O EXCEL disponibiliza uma série de procedimentos
estatísticos, sendo possível ao usuário fazer uso de fórmulas para
realização de outras análises. Dentre os testes já disponíveis,
podemos destacar coeficiente de correlação linear de Pearson,
tabela, distribuição de Poisson, teste qui-quadrado, teste f, teste z,
teste t de Student para amostras independentes e para amostrar
pareadas, entre outros.
No entanto o EXCEL possui algumas limitações como, por
exemplo, o cálculo do nível de significância. Para resolver esses
problemas diversos pacotes ou extensões foram desenvolvidos com
o objetivo de suprir as deficiências na análise de dados do EXCEL,
nos diferentes procedimentos estatísticos.

- 143 -
Paulo Rogério Morais

Certamente, um dos grandes atrativos do EXCEL é seu


baixo custo e sua popularidade, sendo um programa comumente
encontrado mesmo o em computadores domésticos. Assim o EXCEL
constitui-se uma excelente ferramenta para a utilização por parte
de docentes que querem proporcionar treinamento em análise de
dados para os seus alunos.

LISREL
O LISREL é um pacote estatístico específico, oferecendo
principalmente recursos para modelagem de equações estruturais.
Com o LISREL é possível realizar análise fatorial exploratória e
confirmatória, análise de componentes principais e análise
multivariada. Na página www.ssicentral.com é possível adquirir uma
versão demo válida por 15 dias.
Atualmente é um dos programas mais utilizados para análise
fatorial confirmatória (Byrne, 1998), no entanto os programas AMOS
(da SPSS) e o EQS, vêm ganhando uma parte importante do
mercado.
As ferramentas do LISREL possuem aplicações de
grande uso nas ciências sociais e humanas.

MINITAB
O programa MINITAB foi criado em 1972 por professores de
estatística da Pennsylvania State University, para auxiliar professores
e alunos no ensino da Estatística. O Software era utilizado nas aulas
de análise de dados em estatística, facilitando a compreensão das
informações por parte dos alunos (MinitabBrasil, 2005).
O seu sucesso permitiu que, atualmente, o MINITAB seja
utilizado na aprendizagem de estatística em nível superior em mais de
4.000 universidades de mais de 80 países.
O sistema MINITAB, atualmente na versão 14, é semelhante
ao SPSS, permitindo que se nomeie variáveis (colunas) com palavras
de mais de oito caracteres e que texto sejam utilizados nas variáveis
categóricas (PROMMEPE, 2005). Os resultados gráficos podem ser
salvos nos formatos TIFF, PNG e JPEG.
Trata-se de um pacote comercial (pago). No entanto uma versão
demo é disponibilizada na página: http://www.minitabbrasil.com.br/
minitab/demo.asp. Entretanto é preciso fazer um cadastro. Após
instalada, a versão demo do MINITAB 14 poderá ser utilizada durante
30 dias.

- 144 -
Estatística para o curso de Psicologia

Além de fornecer suporte técnico em português, o MINITAB


realiza uma série de análise estatísticas como (MinitabBrasil, 2005)
estatística descritiva; regressão e ANOVA; gráficos novos e otimizados
com qualidade para apresentação; simulações e distribuições;
planejamento de experimentos; análise de confiabilidade; análise
multivariada; tamanho de amostra e cálculos de potência, entre outros.
Requisitos recomendados para instalação do MINITAB
Versão 14: Windows 2000, XP; 500 MHz processador; 160 MB RAM;
85 MB de disco rígido para instalação completa; Requer unidade de
disco CD-ROM e microcomputador com porta paralela ou USB
disponível (indispensável para licença permanente).

OPEN STAT
O OPENSTAT é um software gratuito construído com base
no SPSS, criado para uso de estudantes, professores e
pesquisadores de diferentes áreas. O programa está disponível para
download no endereço http://www.statpages.org/miller/openstat/. O
criador do programa no entanto não dá garantias sobre a precisão,
perfeição, confiabilidade ou outras características desejáveis em
pacotes estatísticos.
O OPENSTAT vem sofrendo uma evolução desde a primeira
versão que recebia o nome de Freestat criada por William G. Miller,
professor de psicologia educacional na universidade de Iowa.
Atualmente o OPENSTAT está disponível tanto para o Windows como
para o Linux.
Os recursos disponíveis no OPENSTAT são: estatísticas
descritivas que incluem medidas de tendência central e de dispersão,
distribuições de freqüência, coeficiente de correlação linear de Pearson,
correlação parcial, correlação canônica, coeficiente de correlação por
postos de Sperman, regressão linear simples e múltipla, regressão
logística; análise da variância e teste t de Student, entre outros.

R
O Programa R trata-se de uma linguagem e ambiente para
computação estatística e gráficos, que fornece uma variedade de
técnicas estatísticas como modelagem linear e não linear, testes
estatísticos clássicos, análise de séries temporais, classificação,
agrupamento, entre outros, gráficos, e que pode ser facilmente
ampliada (Beasley, 2004).

- 145 -
Paulo Rogério Morais

Na verdade o R não é um programa estatístico e sim um


ambiente no qual técnicas estatísticas são utilizadas.
Além de uma excelente qualidade gráfica, o que faz com
que os usuários do R sejam tão entusiastas na sua utilização, segundo
Beasley (2004) é que (1) R é disponível como Software Livre (gratuito
e com código fonte aberto, permitindo ao usuário total controle),
podendo ser livremente copiado e distribuído entre usuários e
instalado em diversos computadores; (2) o programa pode ser
executado em plataformas UNIX, Linux, Windows 9x/NT/2000 e
MacOS ; e (3) Por possuir código fonte aberto, a correção dos erros,
das falhas, bem como atualizações são disponibilizados na internet
rapidamente. Por esses motivos o R vem ganhando cada vez mais
adeptos.
No entanto uma das dificuldades dos novos usuários do R é
que a maioria dos seus comandos são digitados, o que inibe quem
prefere a facilidade de apontar-e-clicar das interfaces dos outros
pacotes estatístico.
O software R pode ser obtido, gratuitamente, a partir do
endereço de rede: http://cran.r-project.org. Na mesma página podem
ser encontrados manuais e tutoriais sobre o programa. Uma outra
possibilidade é obter a versão mais recente na página: http://
lmq.esalq.usp.br/CRAN/bin/windows/base/release.htm .Para os
usuários iniciantes recomendamos a utilização do material de apoio
disponível nas páginas citadas, bem como a utilização da Ajuda do
próprio software R.

SAEG
A versão atual do SAEG é a 9.0 que usa recursos de memória
virtual, possuindo, portanto, maior capacidade de processamento.
Produz dezenas de tipos de gráficos de duas e três dimensões,
acessíveis por produtos que trabalham em ambiente WINDOWS,
sendo composto por aproximadamente 70 procedimentos
responsáveis pela manipulação dos arquivos de dados e capaz de
gerar vários tipos de gráficos de alta qualidade (Ribeiro Jr, 2001).
O SAEG vem sendo bastante difundido e atualmente, mais
de 5000 cópias do SAEG estão instaladas em empresas públicas,
privadas e universidades brasileiras e sul-americanas. Uma versão
demo pode ser adquirida em www.ufv.br/saeg/SAEGD9.00.exe.
O SAEG permite uma série de ferramentas para análise
estatística, embora sua interface não seja tão amigável quanto o

- 146 -
Estatística para o curso de Psicologia

SPSS. Dentre os recursos existentes no SAEG podem ser


destacados: correlações paramétricas e não-paramétricas; testes
de normalidade; análise de variância multivariada, Análise fatorial,
regressão simples e múltipla e análise de confiabilidade, entre outros.

SAS/STAT
O SAS/STAT é considerado, juntamente com o SPSS, um
dos mais utilizados e melhores pacotes de estatística do mundo.
(CENAPAD, 2004).
Na verdade trata-se de um programa que possui diversos
módulos (mais de 20) em torno de um módulo base (SAS/Base).
Sendo o SAS/STAT o módulo responsável por análises estatísticas.
O SAS é um sistema integrado de aplicações para a análise
de dados, que consiste de: Recuperação de dados, Gerenciamento
de arquivos, Análise estatística, Acesso a Banco de Dados, Geração
de gráficos, Geração de relatórios. Trabalha com quatro ações
básicas sobre o dado: Acessar, Manipular, Analisar e Apresentar
(CENAPAD, 2004).
O módulo SAS/STAT possui diversas técnicas de estatísticas
avançadas, incluindo: análise de variância; análise de dados
categóricos; análise de sobrevivência; análise psicométrica; análise
de conglomerados; análise não-paramétrica; análise de componentes
principais; análise discriminante; correlação canônica; modelos de
redução multidimensional; modelagem por equações estruturais;
análise de fatores; análise de correspondência simples e múltipla, e
redução multidimensional, entre outras.
O SAS é um pacote comercial (pago), e possui suporte em
português que pode ser conferido na página http://www.sas.com/
offices/latinamerica/brazil/.

SISVAR

O programa SISVAR ou Sistema para Análise de Variância


compreende um pacote de análises estatísticas e planejamento de
experimentos.
Desenvolvido originalmente para atender, principalmente, a
finalidades didáticas, o programa SISVAR é utilizado, atualmente,
como suporte para as disciplinas de estatística experimental e
estatística básica dos cursos regulares de graduação da Universidade
Federal de Lavras - MG.

- 147 -
Paulo Rogério Morais

A versão atual do SISVAR para Windows vem sendo


largamente utilizada pelos pesquisadores da Universidade Federal de
Lavras, bem como de outras universidades e instituições de pesquisa.
É possível obter uma versão do SISVAR com utilização
máxima de 250 aberturas, ou seja, para ser utilizada 250 vezes no
endereço http://www.dex.ufla.br/danielff/sisvar.zip. Juntamente com
o programa pode se efetuar o download do manual em PDF (http://
www.dex.ufla.br/danielff/sisvarmanual.pdf).
O SISVAR possibilita a realização dos procedimentos
paramétricos e não paramétricos mais comumente utilizados, como:
análise da variância, distribuição de Poisson, estimação de
parâmetros, regressão linear, testes para comparação de médias e
testes post Hoc, entre outros.
Uma vantagem clara do SISVAR é o fato de ser brasileiro e
ser apresentado totalmente em português.

SPAD
O SPAD é um software francês que está na sua Versão 6.0.
O seu diferencial está na análise de correspondência múltipla, embora
ele forneça diversas ferramentas de análise estatística.
Seus gráficos são de fácil interpretação e de qualidade
excelente para publicação, exemplos podem ser obtidos na página
http://www.decisia.com ou http://www.decisia.fr
Na verdade são quatro programas em ordem crescente de
complexidade de análise de dados, sendo que os programas mais
avançados englobam as análises presentes dos anteriores: SPAD
Profiling; SPAD Scoring; SPAD Data Mining; SPAD CRM.
A amplitude desse software permite realizar análises
descritivas, gráficos para o estudo de distribuições de variáveis,
separadamente, através de pares (2D) e por trios (3D), caracterização
automática de variáveis designadas (contínua ou nominal) pelo resto
da informação, análises de fatorial (análise de componente principal –
PCA, análise de correspondência simples – SCA, análise de
correspondência múltipla – MCA, análise de correspondência múltipla
condicional – MCA e ajuda para a interpretação dos fatores .
O SPAD permite tratar diversos tipos de informação, inclusive
a informação textual, graças a técnicas de análise de texto utilizadas
na conduta de pesquisas.
A única dificuldade que o usuário iniciante poderá ter é a língua
do software (Francês). O SPAD é um pacote comercial e pode ser
comprado através da página www.decisia.fr.

- 148 -
Estatística para o curso de Psicologia

SPHINX
O SPHINX funciona como, todo sistema de base Windows,
com menus, cliques em botões e respostas a diálogos. As convenções
habituais do Windows são respeitadas, e avisos de proteções contra
operações ilícitas provenientes de falsas manipulações e instruções
são dadas, se necessário.
Existem 3 versões: o SPHINX Primo, o SPHINX Plus2 e o
SPHINX Léxica, os quais correspondem, respectivamente, aos níveis
de necessidades mínimo, intermediário e máximo.
Com o SPHINX Primo, é possível: conceber, digitar e tabular
enquetes, detalhar os dados de enquetes. Pode-se ainda facilmente
navegar nos dados, verificando resultados e corrigindo os dados,
preparando e editar listas, e procurar as especificidades ou
características de certos indivíduos (SphinxBrasil, 2005)..
O SPHINX Plus2, além dos recursos disponíveis no SPHINX
Primo, permite aprofundar análises graças às técnicas estatísticas
avançadas de análise multidimensional: análise fatorial, classificação,
tipologia, análise de variância; enriquecer sua base de dados iniciais
com a geração de novas variáveis; e abrir e analisar diversos arquivos
contendo valores ou textos.
Com o SPHINX Léxica possui os recursos de análise de
conteúdo e de análise léxica já presentes no Primo ou no Plus2. Com
os recursos nesta última versão do SPHINX é possível realizar análise
de conteúdo a partir de dados obtidos de questões abertas; gerar listas
de palavras e expressões; realizar análises temáticas; produzir extratos
de textos e restituir frases características; e calcular estatísticas léxicas
que permitam quantificar textos (SphinxBrasil, 2005).

S-PLUS
Considerado por alguns autores como um dos mais completos
pacotes estatísticos disponíveis comercialmente (Ripley, 1997), o S-
PLUS apresenta um ambiente de desenvolvimento para muitas
pesquisas quantitativas, incorporando resultados de pesquisas recentes
em visualização de dados.
O S-PLUS é um programa comercial, disponibilizado pela
empresa Insightful (http://www.insightful.com/), estando disponível para
sistemas UNIX, LINUX e Windows. Em sua versão S-PLUS 7.0, estão
disponíveis 2 edições: O S-PLUS 7.0 Professional Developer (que
atualiza o S-PLUS 6.2 Professional) e o novo membro da família S-
PLUS, o S-PLUS 7.0 Enterprise Developer.

- 149 -
Paulo Rogério Morais

Contendo mais de 4200 funções embutidas, o S-PLUS


oferece um ambiente de análise de dados com recursos de gráficos
interativos e modelagens estatísticas. O S-PLUS permite adicionar a
ele novas funções, adequando-o a necessidade do usuário além de
ter uma integração com o Excel muito amigável.
Complementa o S-PLUS módulos opcionalmente licenciados
com funções já prontas para atender a determinados segmentos
aplicativos como áreas de Finanças, Estatística Espacial, Séries
Temporais e Otimização, entre outros.

SPSS
O SPSS (Statistical Package for the Social Sciences) ou
Pacote Estatístico para Ciências Sociais, é um do pacote estatístico
que teve a sua primeira versão em 1968. É um dos programas de
análise estatística mais usados nas ciências sociais, sendo também
utilizado na pesquisa de mercado, na pesquisa relacionada com a
saúde, por governos, na educação e outros setores (Bisquerra,
Sarriera & Martinez, 2004; PROMMEPE, 2005).
Atualmente na sua versão 14.0, é possível obter uma versão
demo mediante cadastro na página http://www.spss.com.br/. É
interessante ressaltar que o SPSS conta com uma empresa ocupada
de um contínuo processo de evolução do programa.
O programa permite realizar cálculos estatísticos complexos,
visualizar resultados, de forma rápida permitindo assim aos seus
utilizadores uma apresentação e uma interpretação sucinta dos
resultados obtidos. Possui ainda uma grande variedade de gráficos e
seus resultados podem ser salvos num único arquivo (output) facilitando
muito as consultas posteriores.
O SPSS é considerado por muitos como um dos programas
mais completos, principalmente pelos recursos que disponibiliza para
a livre manipulação dos dados, permitindo a reorganização dos dados
sem a alteração da planilha original, combinar e criar novas variáveis
a partir dos dados.
Dentre os diversos recursos que possui destacam-se os
testes paramétricos e não paramétricos mais comumente utilizados
em pesquisa como o teste t, teste z, análise da variância, testes
post hoc, teste do qui-quadrado, teste de Wilcoxon, teste de Mann-
Whitney, correlação parcial, correlação linear de Pearson, correlação
por postos de Spearman, regressão linear simples e múltipla,

- 150 -
Estatística para o curso de Psicologia

multicolinearidade, análise fatorial exploratória e análise da


consistência interna, entre diversos outros recursos.
As amplas possibilidades que apontam o SPSS como um
dos mais completo pacote estatístico pode ser retratada pela sua
grande capacidade para analisar dados, sendo possível trabalhar
com planilhas com mais de 2 milhões de registros e 250.000 variáveis.
Uma outra vantagem do SPSS é que permite copiar arquivos
diretamente de diversos outros programas (Pérez, 2001).

STATISTICA
O STATISTICA é um pacote produzido pela empresa StatSoft,
fundada em 1984 por um grupo de professores universitários e
cientistas. Em 1990 foi iniciado um projeto mais ambicioso e avançado,
no qual o programa passa oferecer novos níveis de funcionalidade
ainda não disponíveis nos softwares então no mercado.
A sua Versão mais recente é a 6.1 e na página http://
www.statsoft.com.br/index.php é disponibilizada uma versão demo.
O programa conta com um sistema abrangente, envolvendo
análise de dados integrada, gráficos, gerenciamento de base de dados
e o desenvolvimento de aplicações customizadas, com o objetivo de
atender diretamente a usuários das áreas de Engenharia, Ciências e
Negócios. Além de procedimentos estatísticos e gráficos de propósito
geral, o sistema apresenta um conjunto de módulos especializados
para cientistas sociais, pesquisadores biomédicos e engenheiros.
Dispõe de processos apropriados para recolher, organizar,
classificar, apresentar e interpretar conjuntos de dados e oferece
estatísticas essenciais de forma amigável, com poder de análise e
facilidade de benefícios de uso, tais como: estatística/tabelas básicas,
regressão linear múltipla, ANOVA, estatística não paramétrica e
ajuste de distribuição.
O STATISTICA Base possui todas as técnicas para análise
descritiva de dados, intervalos de confiança, testes t para uma e
duas amostras e teste t pareado.
Disponibiliza também outras análises como kurtose, análise
de variância, desvio-padrão, erro-padrão, média harmônica, com a
mesma simplicidade e também com diversas estatísticas descritivas
específicas e de diagnósticos. Em todos os módulos do STATISTICA
estão disponíveis uma ampla variedade de gráficos, o que facilita a
exploração dos dados e visualização dos resultados.

- 151 -
Paulo Rogério Morais

STATA
O STATA (Statistical Software for Professionals) é um pacote
estatístico voltado para análise de dados, administração de dados,
e gráficos. Atualmente o programa encontra-se em sua nona versão.
O STATA dispõe de diversas ferramentas estatísticas e de
técnicas avançadas, como modelos de sobrevivência, dados
dinâmicos, regressões, cálculo de equações generalizadas,
estimação com amostras de pesquisa complexas; modelos lineares,
ANOVA/MANOVA, análise de agrupamento, padronização de taxas
e tabulações básicas, teste t de Student, teste Wilcoxon, Mann-
Whitney, análise fatorial, entre outros.
O programa pode ser adquirido comercialmente na página
da internet http://www.stata.com/products/overview.html. A empresa
não oferece versão demo.

SYSTAT
O SYSTAT foi desenvolvido no início da década de 70 pelo
Professor de estatística da Universidade de Illinois (Chicago-EUA) Leland
Wilkinson. A primeira versão era executada em DOS e foi produzida
em 1984. A meta de Wilkinson era oferecer para os pesquisadores um
programa no ambiente DOS para o desenvolvimento de estatísticas
descritivas e outros modelos estatísticos mais usados. Na ocasião havia
poucos pacotes estatísticos em DOS; os pacotes como SAS e SPSS
ainda eram voltados para mainframe.
O SYSTAT originalmente possui uma interface semelhante ao
SAS, tanto no seu uso como no seu funcionamento.
Trata-se de um pacote estatístico comercial que apresenta
quatro janelas: a principal onde as análises são realizadas e onde os
resultados são colocados; a janela gráfica, em que os gráficos são
colocados um após o outro com barras deslizantes para a movimentação
entre eles; uma janela de dados, que é uma planilha onde os dados
podem ser digitados ou carregados; e finalmente, uma janela para a
edição de comandos, que pode ser utilizada para a digitação de
comandos que não acessíveis através de menus. Estas janelas são
abertas de forma separada, ao invés de derivadas de uma janela mãe,
como costuma acontecer com outros programas, dando ao SYSTAT
uma aparência um pouco diferente dos demais programas de base
Windows.

- 152 -
Estatística para o curso de Psicologia

Possui um grande número de botões de atalho, que fornecem


acesso imediato a caixas de diálogos para a maioria das necessidades.
Isto faz com que seja fácil para o pesquisador se acostumar com o
pacote, mas também limita o leque de opções disponíveis.
O SYSTAT encontra-se na versão 11 e na página http://
www.systat.com é possível adquirir a uma versão demo mediante
cadastro, possui uma série de análises disponíveis como modelos de
regressão; ANOVA; analise de dados geoestatísticos em 2-D e 3-D;
estatística descritiva; correlações canônicas; Análise de correspondência,
entre outros, bem como uma grande variedade de gráficos.
Entre as suas vantagens encontra-se a possibilidade de
trabalhar com mais de 32000 variáveis, e (teoricamente) um número
ilimitado de casos. Outra possibilidade é importar arquivos dos
programas STATA, STATISTICA, MINITAB e S-PLUS e trabalhar com
arquivos nos formatos EXCEL, SAS e SPSS.

Considerações finais

No presente capítulo foram então apresentados alguns dos


diversos programas disponíveis atualmente. Com certeza muitas
foram a contribuição da existência desses e de outros programas
para a formação de pesquisadores, fazendo com que, cada vez
mais, a análise de dados deixe de ser uma caixa preta.
No caso de alguns programas, o alto custo ainda é empecilho
para que sejam adquiridos por profissionais e instituições. É nesse
sentido que merecem apoio iniciativas como a do Professor Manuel
Ayres e sua equipe (BIOESTAT) e do Professor William G. Miller
(OPENSTAT) que se empenham no oferecimento de programas
gratuitos. Todo esse esforço, entretanto, ainda não foi suficiente para
que muitos docentes abandonem a prática que tornou a estatística
uma das disciplinas por parte dos alunos, sobretudo os de graduação
e os da área de ciências humanas. Muitos docentes ainda insistem
em solicitar de seus alunos procedimentos adotados na década de
80, quando os cálculos eram feitos com a ajuda, no máximo, de
uma calculadora.
Como dito anteriormente, existem atualmente diversos
programas de estatística. Entretanto, os cursos para permitir o
adequado uso dessas ferramentas não ocorrem com a freqüência e
acessibilidade desejadas. Assim, um recurso que vem sendo utilizado
por muitos estudantes e profissionais são os grupos de estudo ou

- 153 -
Paulo Rogério Morais

mesmo os grupos virtuais de discussão, como forma de compartilhar


dúvidas e buscar uma forma coletiva de aprendizado.
Finalizando, é bom ressaltar mais uma vez que a grande
deficiência observada nos estudos que fazem uso de técnicas
quantitativas é a adequada compreensão do que está sendo feito na
pesquisa. Talvez uma palavra que sintetize a maior exigência numa
pesquisa seja coerência. Esta deve ser observada em todas as fases
da pesquisa. Transferir para a análise de dados a importância de cada
uma das fases da pesquisa não tem nos fornecido resultados
satisfatórios. Isso nos mostra que ainda há muito para se investir em
termos de formação de pesquisa.

Referências

Ander-Egg, E. Introdución a las técnicas de investigación social para trabajadores


sociales. Buenos Aires : Editorial Humanitas, 1969.
Ayres, M., Ayres, J. R. M., Ayres, D. L. & Santos, A. S. BIOESTAT 3.0 : Aplicações
estatísticas nas áreas biomédicas . : Sociedade Civil Mamirauá; Brasília: CNPq,
2003.
Beasley, C. R. BIOESTATística usando R - apostila de exemplos para o Biólogo.
Pará : UFP, 2004.
Bisquerra, R., Sarriera, J. C. & Martinez, F. Introdução à estatística: enfoque
informático com o pacote estatístico SPSS. Porto Alegre: ArtMed, 2004.
Byrne, B. M. Structural equation modeling with Lisrel, Prelis, and Simplis. Londres:
Lawrence Erlbaum, 1998.
CENAPAD . Introdução ao SAS - Nível Básico. UNICAMP/CENAPAD-SP, 2004
PROMMEPE - Programa de Melhoria e Modernização do Ensino de Probabilidade
e Estatística. Acessado http://www.pucrs.br/uni/poa/famat/statweb/ em out/2005.
Decano A. G., Arner T.G., Sangam, S., Sunki, G.G., Friedman,R., Lantinga, M.,
Zubieta, J.C., Sullivan, K. M. & Smith, D. C. Epi Info 2000, um banco de dados e
programa de estatística para profissionais de saúde pública para uso em Windows
95, 98, NT, e 2000. Geórgia, E. U. A : Centro para Controle e Prevenção de
Doenças, 2000.
Kerlinger, F. N. Metodologia da pesquisa em Ciências Sociais: um tratamento
conceitual. São Paulo: EPU/EDUSA, 1980.

- 154 -
Estatística para o curso de Psicologia

MINITABBRASIL. Minitab 14.0. Acessado em http://www.minitabbrasil.com.br/minitab/


em out/ 2005.
Nie, H. N., Hull, C. H., Jenkins, J. G., Streinbrenner, K. & Bent, D. H. SPSS : Statistical
Package for the Social Sciences : New York : McGraww Will, 1975.
Pasquali, L. Psicometria: teoria dos testes na psicologia e na educação . Petrópolis
: Vozes, 2004.
Pérez, C. Técnicas estadísticas con SPSS. Prentice Hall, 2001.
PROMMEPE – Programa de Melhoria e Modernização do Ensino de Probabilidade
e Estatística. Acessado em http://www.pucrs.br/uni/poa/famat/statweb/ em out/
2005.
Ribeiro Jr., J. I. Análises Estatísticas no SAEG . Viçosa : UFV, 2001.
Ripley, B. D. S-PLUS for Windows version 4.0. Maths&Stats Newsletter. Nov. 97.
acessado em http://www.stats.gla.ac.uk/cti/activities/reviews/97_11/splus4.html
em Nov/2005.
Silva, C. B., Brito, M. R. F. B., Cazorla, I. M. & Vendramini, C. M. M. Atitudes em
relação à estatística e à matemática . Psico-USF, 7 (2), p. 219-228, 2002.
SPHINXBRASIL, Tutoriais do Sphinx, acessão em www.sphinxbrasil.com/suporte/
arqsup.htm em Nov/2005.
Stevens, S. S. On the theory of scales of measurement . Science, 103, 677-680,
1946.

- 155 -
Paulo Rogério Morais

- 156 -

Você também pode gostar