Escolar Documentos
Profissional Documentos
Cultura Documentos
Os testes de hipótese usam dados de amostra para fazer inferências sobre as propriedades de
uma população . Você obtém enormes benefícios trabalhando com amostras aleatórias, porque
geralmente é impossível medir toda a população.
No entanto, existem trocas quando você usa amostras. As amostras que usamos são tipicamente
uma porcentagem minúscula de toda a população. Consequentemente, eles ocasionalmente
deturpam a população com gravidade suficiente para causar testes de hipóteses para cometer
erros.
Nesta postagem do blog, você aprenderá sobre os dois tipos de erros no teste de hipóteses, suas
causas e como gerenciá-los.
Os dados da amostra devem fornecer evidências suficientes para rejeitar a hipótese nula e
concluir que o efeito existe na população. Idealmente, um teste de hipótese falha ao rejeitar a
hipótese nula quando o efeito não está presente na população e rejeita a hipótese nula quando o
efeito existe.
Os estatísticos definem dois tipos de erros no teste de hipóteses. Criativamente, eles chamam
esses erros de Tipo I e Tipo II. Ambos os tipos de erro estão relacionados a conclusões incorretas
sobre a hipótese nula.
Agora, vamos dar uma olhada em cada tipo de erro com mais profundidade.
Por que esses erros ocorrem? Tudo se resume a erro de amostra. Sua amostra
aleatóriasuperestimou o efeito por acaso. Foi a sorte do sorteio. Esse tipo de erro não indica que
os pesquisadores fizeram algo errado. O design experimental, a coleta de dados, a validade
dos dados e a análise estatística podem estar corretos e, no entanto, esse tipo de erro ainda
ocorre.
https://statisticsbyjim.com/hypothesis-testing/types-errors-hypothesis-testing/ 2/6
25/09/2019 Types of Errors in Hypothesis Testing - Statistics By Jim
Mesmo que nós não sabemos com certeza que estudos têm resultados falsos positivos,
que não sabe sua taxa de ocorrência. A taxa de ocorrência de erros do tipo I é igual ao nível de
significância do teste de hipótese, também conhecido como alfa (α).
O nível de significância é um padrão probatório que você define para determinar se os dados da
amostra são fortes o suficiente para rejeitar a hipótese nula. Os testes de hipóteses definem esse
padrão usando a probabilidade de rejeitar uma hipótese nula que é realmente verdadeira. Você
define esse valor com base em sua disposição de arriscar um falso positivo.
Erros do tipo I são relativamente diretos. A matemática está além do escopo deste artigo, mas
os estatísticos projetaram testes de hipóteses para incorporar tudo o que afeta essa taxa de erro,
para que você possa especificá-la para seus estudos. Desde que seu projeto experimental seja
sólido, você coleta dados válidos e os dados satisfazem as premissas do teste de hipótese, a taxa
de erro Tipo I é igual ao nível de significância especificado. No entanto, se houver um problema
em uma dessas áreas, isso poderá afetar a taxa de falsos positivos.
Por que é esse o caso? Imagine que realizamos 100 estudos em uma população onde a hipótese
nula é verdadeira. Se usarmos um nível de significância de 0,05, esperaríamos que cinco dos
estudos produzissem resultados estatisticamente significativos - falsos positivos. Depois, quando
analisamos esses estudos significativos, qual é a probabilidade de cada um ser um falso
positivo? Não 5%, mas 100%!
Esse cenário também ilustra um argumento que afirmei anteriormente. A imagem verdadeira se
torna mais evidente após repetidas experiências. Dado o padrão de resultados
predominantemente não significativo, é improvável que exista um efeito na população.
Quando você executa um teste de hipótese e seu valor p é maior que seu nível de significância,
seus resultados não são estatisticamente significativos. Isso é decepcionante, porque sua amostra
fornece evidências insuficientes para concluir que o efeito que você está estudando existe na
população. No entanto, há uma chance de que o efeito esteja presente na população, mesmo que
os resultados do teste não o apóiem. Se for esse o caso, você acabou de experimentar um erro do
tipo II, também conhecido como beta (β).
O que causa erros do tipo II? Enquanto erros do tipo I são causados por uma coisa, erro de
amostra, há várias razões possíveis para erros do tipo II - tamanhos de efeito pequenos,
tamanhos de amostra pequenos e alta variabilidade de dados. Além disso, diferentemente dos
erros do tipo I, você não pode definir a taxa de erro do tipo II para sua análise. Em vez disso, o
melhor que você pode fazer é calculá-lo antes de iniciar seu estudo, aproximando as propriedades
da hipótese alternativa que você está estudando. Quando você faz esse tipo de estimativa, isso é
chamado de análise de potência .
Para estimar a taxa de erro do Tipo II, você cria uma distribuição de probabilidade hipotética que
representa as propriedades de uma hipótese alternativa verdadeira. No entanto, quando você está
realizando um teste de hipótese, normalmente não sabe qual hipótese é verdadeira, muito menos
as propriedades específicas da distribuição para a hipótese alternativa. Consequentemente, a
verdadeira taxa de erro do Tipo II é geralmente desconhecida!
Se você leu meu post sobre análise de potência e tamanho da amostra , sabe que os
três fatores que afetam a potência são o tamanho da amostra, a variabilidade na população e o
tamanho do efeito. Ao projetar seu experimento, você pode inserir estimativas desses três fatores
no software estatístico e ele calcula a potência estimada para o seu teste.
Suponha que você faça uma análise de energia para um próximo estudo e calcule uma potência
estimada de 90%. Para este estudo, a taxa de erro estimada do Tipo II é de 10% (1 -
0,9). Lembre-se de que a variabilidade e o tamanho do efeito são baseados em estimativas e
suposições. Conseqüentemente, a potência e a taxa de erro do Tipo II são apenas estimativas, e
não algo que você define diretamente. Essas estimativas são tão boas quanto as entradas em sua
análise de energia.
Baixa variabilidade e tamanhos de efeito maiores diminuem a taxa de erro do Tipo II, o que
aumenta o poder estatístico. No entanto, os pesquisadores geralmente têm menos controle sobre
os aspectos de um teste de hipótese. Normalmente, os pesquisadores têm o maior controle sobre
o tamanho da amostra, o que a torna a maneira crítica de gerenciar sua taxa de erro do tipo
II. Mantendo todo o resto constante, aumentar o tamanho da amostra reduz a taxa de erro do Tipo
II e aumenta a potência.
O gráfico abaixo ilustra os dois tipos de erros usando duas distribuições de amostragem. A linha
de região crítica representa o ponto em que você rejeita ou falha em rejeitar a hipótese
nula. Obviamente, quando você executa o teste de hipótese, não sabe qual hipótese está
correta. E, as propriedades da distribuição para a hipótese alternativa são geralmente
desconhecidas. No entanto, use este gráfico para entender a natureza geral desses erros e como
eles estão relacionados.
A distribuição à esquerda representa a hipótese nula. Se a hipótese nula for verdadeira, você só
precisa se preocupar com erros do Tipo I, que é a parte sombreada da distribuição da hipótese
nula. O restante da distribuição nula representa a decisão correta de não rejeitar a nula.
Por outro lado, se a hipótese alternativa for verdadeira, você precisa se preocupar com erros do
tipo II. A região sombreada na distribuição alternativa de hipóteses representa a taxa de erro do
tipo II. O restante da distribuição alternativa representa a probabilidade de detectar corretamente
um efeito - poder.
Mover a linha de valor crítico é equivalente a alterar o nível de significância. Se você mover a linha
para a esquerda, aumentará o nível de significância (por exemplo, α 0,05 a 0,10). Mantendo todo
o resto constante, esse ajuste aumenta a taxa de erro do Tipo I e reduz a taxa de erro do Tipo
II. Mover a linha para a direita reduz o nível de significância (por exemplo, α 0,05 a 0,01), o que
diminui a taxa de erro do Tipo I, mas aumenta a taxa de erro do tipo II.
Uma pergunta comum é se um tipo de erro é pior que o outro? Os testes de hipótese são
projetados para poder controlar erros do tipo I, enquanto os erros do tipo II são muito menos
https://statisticsbyjim.com/hypothesis-testing/types-errors-hypothesis-testing/ 5/6
25/09/2019 Types of Errors in Hypothesis Testing - Statistics By Jim
definidos. Consequentemente, muitos estatísticos afirmam que é melhor não detectar um efeito
quando ele existe do que concluir que existe um efeito quando não existe. Ou seja, há uma
tendência a supor que os erros do tipo I são piores.
No entanto, a realidade é mais complexa do que isso. Você deve considerar cuidadosamente as
consequências de cada tipo de erro para seu teste específico.
Suponha que você esteja avaliando a força de uma nova peça de motor a jato que está sendo
considerada. A vida das pessoas está montada com a força da parte. Um falso negativo nesse
cenário significa apenas que a peça é forte o suficiente, mas o teste falha em detectá-la. Esta
situação não coloca a vida de ninguém em risco. Por outro lado, erros do tipo I são piores nessa
situação porque indicam que a peça é forte o suficiente quando não é.
Agora, suponha que a peça do motor a jato já esteja em uso, mas há preocupações sobre a
falha. Nesse caso, você deseja que o teste seja mais sensível à detecção de problemas, mesmo
correndo o risco de falsos positivos. Os erros do tipo II são piores neste cenário porque os testes
falham em detectar o problema e deixam essas partes problemáticas em uso por mais tempo.
O uso eficaz de testes de hipóteses exige que você entenda as taxas de erro deles. Ao definir o
nível de significância e estimar o poder do seu teste, você pode gerenciar as duas taxas de erro
para que elas atendam aos seus requisitos.
As taxas de erro nesta postagem são para testes individuais. Se você precisar executar várias
comparações, como comparar médias de grupos na ANOVA, será necessário usar testes post hoc
para controlar a taxa de erro do experimento .
https://statisticsbyjim.com/hypothesis-testing/types-errors-hypothesis-testing/ 6/6