Você está na página 1de 6

Teste de Hipóteses

O teste de hipóteses é uma técnica que permite testar uma afirmação ou


suposição sobre um parâmetro populacional, chamada de hipótese nula (H0), que
geralmente assume que não há diferença ou relação entre os parâmetros populacionais,
usando informações da amostra. O objetivo do teste de hipóteses é avaliar se há
evidências estatísticas suficientes para rejeitar a hipótese nula em favor de uma hipótese
alternativa (H1), que é o oposto da hipótese nula e expressa a presença de alguma
diferença ou relação. A decisão de aceitar ou rejeitar H0 é tomada com base no valor do
teste estatístico dos dados disponíveis.
Existem basicamente 3 tipos de formulações para os testes de hipótese:
Situação A: Teste Bilateral, o nível de significância, α, é repartido de igual
modo para as 2 caudas da região crítica. H 1 contempla possibilidades à direita ou à
esquerda de H0, as hipóteses para esta situação são: H0: β1 = β*1 e H1: β1 ≠ β*1.
Situação B: Teste unilateral à direita, H1 apenas contempla possibilidades à
direita de H0, as hipóteses para esta situação são: H0: β1 = β *1 ou β1 ≤ β*1 e H1: β1 >
β*1.
Situação C: Teste unilateral à esquerda, H1 apenas contempla possibilidades à
esquerda de H0, as hipóteses para esta situação são: H0: β1=β*1 ou β1≥β*1 e H1: β1<β*1.
Teste de significância dos coeficientes de regressão: o teste t
Para ilustrar os testes de significância bilaterais ou bicaudais, situação A,
lembre-se de que, sob a hipótese de normalidade, a variável:

(1)
Segue a distribuição t com n - 2 graus de liberdade. Se o valor do verdadeiro β1
é especificado sob a hipótese nula, o valor t na Equação (1) pode ser facilmente
calculado para a amostra disponível e, portanto, pode servir como teste estatístico.
Para as situações B e C o procedimento de teste é o mesmo que o anterior,
exceto o limite de confiança superior/inferior ou valor crítico, que agora corresponde a
tα, conforme apresentado na Tabela 1 que resume as regras de decisão para o teste t de
significância.
Tabela 1 - Regras de decisão para o teste t de significância
Tipo de hipótese Ho: Hipótese Nula H1: Hipótese Regra de decisão:
Alternativa rejeitar Ho se:
Bicaudal β1 = β*1 β1 ≠ β*1 |t| > tα\2, gl
*
Cauda Direita β1 ≤ β 1 β1 > β*1 |t| > tα, gl
Cauda Esquerda β1 ≥ β*1 β1 < β*1 |t| < -tα, gl
Onde: β*1 é o valor numérico hipotético de β1; |t| é o valor absoluto de t; tα\2 ou tα
representa o valor crítico t no nível de significância α ou α/2; gl são os graus de
liberdade.
O mesmo procedimento aplica-se ao teste de hipótese para os demais βs.
A hipótese nula “zero”
Uma hipótese nula muito testada empiricamente é H0: β1 = 0, ou seja, o
coeficiente angular é igual a zero. Essa hipótese nula “zero” é uma espécie de testa de
ferro, cujo objetivo é descobrir se Y está relacionado de alguma forma a X, a variável
explanatória. Se a princípio não existe nenhuma relação entre Y e X, testar uma hipótese
como β1 = 0,3 ou qualquer outro valor não faz nenhum sentido. Essa hipótese nula pode
ser testada facilmente pelas abordagens do teste t, vista anteriormente.
Escolhendo α, o nível de significância
Rejeitar ou não a hipótese nula depende fundamentalmente de α, o nível de
significância ou a probabilidade de cometer um erro do Tipo I — a probabilidade de
rejeitar a hipótese verdadeira.
O Erro do tipo I (falso positivo) (α): É quando se rejeita a hipótese nula,
mesmo que ela seja verdadeira. Em termos práticos, isso significa concluir que existe
um efeito ou diferença estatisticamente significativa quando, na realidade, não há. Se o
nível de significância for muito alto, aumenta a probabilidade de cometer um erro do
tipo I.
E o Erro do tipo II (falso negativo) (β): É quando se aceita a hipótese nula,
mesmo que ela seja falsa. Nesse caso, significa falhar em identificar um efeito ou
diferença estatisticamente significativa quando ela realmente existe. Um teste com
baixo poder estatístico aumenta a probabilidade de cometer um erro do tipo II.
Geralmente, os erros do tipo I e II são inversamente proporcionais: reduzir um
tipo de erro aumenta o outro. Essa relação é geralmente conhecida como trade-off.
Felizmente, o dilema de escolher um valor de α adequado pode ser evitado usando o que
é conhecido como valor p do teste estatístico, que será discutido a seguir.
Cálculos dos p-valores dos testes t
Um p-valor é uma probabilidade, seu valor está sempre entre zero e um. O p-
valor de testar a hipótese nula Ho:βj=0 contra a hipótese alternativa bilateral, é:
P(|T|>|t|), (2)
Em que, T representa uma variável aleatória com distribuição t, com n-k-1 graus
de liberdade, e t é o valor numérico da estatística de teste.
Testes de Hipóteses sobre uma Combinação Linear dos Parâmetros
Anteriormente mostrou-se como usar o teste de hipótese clássico para testar
hipóteses sobre um único βj de cada vez. Nas aplicações, frequentemente devemos
testar hipóteses que envolvem mais de um dos parâmetros da população. Agora,
mostrarei como testar uma única hipótese envolvendo mais de um dos βj, como por
exemplo as seguintes hipóteses, nula e alternativa: H0: β1= β2 e H1: β1< β2
As hipóteses acima dizem respeito a dois parâmetros, β1 e β2, na qual não
podemos simplesmente usar as estatísticas t individuais de β^1 e β^2 para testar H0.
Entretanto, conceitualmente, não há dificuldades em construir uma estatística t para
testar H0: β1=β2. A fim de fazer isso, vamos reescrever a hipótese nula e a alternativa
como H0: β1-β2=0 e H1: β1-β2<0, respectivamente. A estatística t é baseada em se a
diferença estimada β^1- β^2 é suficientemente menor que zero para assegurar a rejeita
de H0 em favor de H1. Para considerar o erro de nossos estimadores, padronizamos essa
diferença ao dividi-la pelo erro-padrão:

(3)
Uma vez que temos a estatística t da equação 3, o teste segue o procedimento
anterior. Como a alternativa é da forma unicaudal a esquerda, a regra de rejeição é da
forma |t| < -tα, gl.
A única coisa que faz com que o teste de igualdade de dois parâmetros diferentes
seja mais difícil do que testar um único βj é a obtenção do erro-padrão do denominador
da equação. Para encontrar ep(β^1 - β^2), primeiro obtemos a variância da diferença:

(4)
O desvio-padrão de β^1-β^2 é exatamente a raiz quadrada de 4, e como, é
um estimador não-viesado de Var(β^1), e similarmente para , temos:

(5)
Em que st2 é uma estimativa de Cov(β^1, β^2).
Teste de Restrições de Exclusão
Já sabemos como testar se uma variável particular não tem efeito sobre a
variável dependente, usando a estatística t. Agora, queremos testar se um grupo de
variáveis não tem efeitos sobre a variável dependente. Mais precisamente, a hipótese
nula é que um conjunto de variáveis não tem efeito sobre y, já que outro conjunto de
variáveis foi controlado. Escrevendo o modelo irrestrito com k variáveis independentes
como:
(6)
O número de parâmetros no modelo irrestrito é k+1. Suponha que temos q
restrições de exclusão para testar, isto é, a hipótese nula afirma que q variáveis em (6)
tem coeficientes zero. Por simplicidade notacional, assuma que sejam q últimas

variáveis da lista de variáveis independentes, . A hipótese nula é


formulada como:

Que coloca q restrições de exclusão sobre o modelo (6). A hipótese alternativa é


simplesmente que H0 é falsa, isso significa que pelos um dos parâmetros listados em H0
é diferente de zero. Quando impomos as restrições sob H0, ficamos com o modelo
restrito:
(7)
Assumimos que ambos os modelos irrestrito e restrito contêm um intercepto. A
estatística F (ou razão F) é definida como:

(8)
Em que SQRr é a soma dos resíduos quadrados do modelo restrito, e SQRir é a
soma dos resíduos quadrados do modelo irrestrito. Observa-se que, como SQRr não
pode ser maior que SQRir, a estatística F é sempre não-negativa. A diferença entre os
SQRs no numerador de F é dividida por q, o qual é o número de restrições impostas aos
nos movermos do modelo irrestrito para o restrito, q variáveis independentes foram
retiradas. Portanto, podemos escrever:

(9)
O que também mostra que q é a diferença nos graus de liberdade entre os
modelos restrito e irrestrito. glr é sempre maior que glir.
O SQR no denominador de F é dividido pelos graus de liberdade do modelo
irrestrito:
(10)
De fato, o denominador de F é exatamente o estimador não-viesado de σ 2=
Var(µ) do modelo irrestrito.
Sob H0, F é distribuído como uma variável aleatória F com (q, n-k-1) graus de
liberdade, . Da definição de F, é bastante claro que rejeitamos H0 em favor de
H1, ao nível de significância escolhido se F> valor crítico.
Se H0 é rejeitada, dizemos que são estatisticamente significantes
conjuntamente ao nível de significância apropriado. Se a hipótese nula não for rejeitada,
as variáveis são conjuntamente não significantes, o que, em geral, justifica retirá-las do
modelo.
Cálculo dos p-valores para testes F:
Para apresentar os resultados dos testes F, os p-valores são especialmente úteis.
No contexto do teste F, o p-valor é definido como:
(11)
Em que representa uma variável aleatória F com (q, n-k-1) graus de liberdade,
e F é o valor real da estatística de teste. O p-valor ainda tem a mesma interpretação que
ele tinha para a estatística t. Um p-valor pequeno é evidência contra H0.
A forma R-quadrado da estatística F
Para testar restrições de exclusão é frequentemente mais conveniente ter uma
forma da estatística F que possa ser calculada usando os R-quadrados dos modelos
restrito e irrestrito. Usando o fato de que , podemos
substituir esses termos em (8) para obter:

(12)
Como R2ir>R2r, isso mostra novamente que F sempre será positivo.
Ao usar a forma R-quadrado para testar a exclusão de um conjunto de variáveis,
é importante não elevar ao quadrado o R-quadrado antes de colocá-lo na fórmula (12),
pois isso já foi feito. Todas as regressões informam o R2, e esses números são
colocados diretamente em (12).
A Estatística F para a Significância Geral de uma Regressão
No modelo com k variáveis independentes, podemos escrever a hipótese nula
como: . Expressa em termos dos parâmetros, a
hipótese nula é que todos os parâmetros de inclinação são zero.
(13)
E a hipótese alternativa é que pelos um dos βj seja diferente de zero. Há k
restrições em (13), e quando as impomos, obtemos o modelo restrito:
(14)
Todas as variáveis independentes foram retiradas da equação. Agora, o R-
quadrado da estimação de (14) é zero. Portanto, a estatística F para testar (13) pode ser
escrita como:

(15)
Em que R2 é exatamente o R-quadrado usual da regressão de y sobre x1, x2,...,
xk.
Se não for possível rejeitar H0, nesse caso não há evidência de que qualquer uma
das variáveis independentes ajude explicar y. Isso usualmente significa que devemos
procurar outras variáveis para explicar y.
Assim, os testes t e F oferecem duas formas alternativas, mas complementares,
de testar a hipótese nula de um modelo de regressão.

Você também pode gostar