Você está na página 1de 27

CEDERJ – CENTRO DE EDUCAÇÃO SUPERIOR A DISTÂNCIA

DO ESTADO DO RIO DE JANEIRO

CURSO:Engenharia de Produção
DISCIPLINA: Planejamento de Experimento
CONTEUDISTA: Weslley Luiz da Silva Assis

Aula 5 - ANOVA (Homocedasticidade, Normalidade, e


Independência)

Meta
Apresentar de forma mais aprofundada os conceitos de Análise de
Variância, o porquê do uso dessa ferramenta estatística bem como sua origem.
Mostra o uso da Tabela ANOVA com exemplos. Mostrar também os conceitos
de homocedasticidade, normalidade e independência dentro do contexto de
análise de Variância (ANOVA).

Objetivos
Esperamos que, ao final desta aula, você seja capaz de:

1. Conhecer os conceitos gerais associadas à análise de variância;


2. Entender como se elabora uma Tabela ANOVA;
3. Entender de diagnóstico de homocedasticidade;
4. Conhecer o tipo de dado amostral;
5. Entender da normalidade dos dados amostrais;
6. Entender da independência dos dados amostrais.

Pré-requisito

Para fazer as atividades desta aula você precisa ter conhecimento


específico prévio de estatística, conceitos de média, desvio padrão, além das
próprias experiências e conhecimentos empíricos, adquiridos ao longo do curso
até o presente momento.

1 Introdução

1.1 O porquê de usar estatística.


Considere o seguinte experimento: um pesquisador está interessado em
avaliar o status de conservação de duas espécies filogeneticamente próximas.
Tendo recursos limitados para ser gasto no manejo destas populações, ele
considera a possibilidade de medir sua variabilidade populacional natural para
escolher com qual delas vai gastar seus recursos. Aquela mais variável deve ser,
a longo prazo, mais ameaçada de extinção por estocasticidade demográfica. O
pesquisador escolhe utilizar estimativas do tamanho destas populações nos
últimos 5 anos e encontra que a população A é mais variável que a B. Existe
uma pergunta que gera toda a necessidade de serem utilizados métodos
estatísticos: se outro pesquisador repetisse o experimento, qual a probabilidade
de encontrar os mesmos resultados, a mesma conclusão? Tratando-se de
fenômenos biológicos, cuja natureza está ligada a múltiplas causas de variação,
é possível que os resultados particulares observados não sejam repetidos. Isto
quer dizer que suas conclusões podem ser falsas. Todo e qualquer problema
para o qual a pergunta do final do parágrafo anterior possa ser formulada com
significado, é um problema que exige uma solução estatística (JÚNIOR; PAGLIA,
2009).

1.2 Filosofia de testes estatísticos


Todos os métodos de inferência estatística (testes estatísticos) são iguais
no sentido de que se baseiam em uma mesma série de argumentos lógicos. O
que um teste estatístico faz é fornecer uma medida de incerteza ou as chances
de se tomar uma decisão errada. Para que tal rotina funcione, alguns
pressupostos devem ser cumpridos. Um primeiro cuidado envolve o desenho
amostral. É preciso garantir que as amostras sejam tomadas ao acaso e, a
menos que seja interesse explícito, que elas sejam independentes. Muitos dos
problemas na análise dos dados vêm da não observância desses pontos. Alguns
testes estatísticos dependem da distribuição dos dados ou, mais precisamente,
da distribuição da média amostral. Tais testes são classificados como
"paramétricos" e, para empregá-los, deve-se garantir que além da distribuição
ser normal as variâncias entre grupos (no caso ANOVA) devem ser iguais. De
maneira geral, os dois pressupostos: normalidade e homogeneidade de
variâncias, não são requisitados para os testes não paramétricos. O problema é
que nem sempre existe uma alternativa não-paramétrica para cada teste
paramétrico (JÚNIOR; PAGLIA, 2009).

Verbete
Paramétrico tudo aquilo que contém um ou mais parâmetros a serem
seguidos. Parâmetro pode ser descrito como um elemento ou característica que
pode ser usado para estabelecer comparações entre pessoas, comportamentos,
eventos, etc. (SIGNIFICADOS, 2014).
Fim do Verbete

As transformações dos dados geralmente são empregadas para tentar


corrigir a não normalidade ou a heterocedasticidade das variâncias. Como
exemplo de transformações temos a logarítmica (para corrigir distribuições
assimétricas e para remover a dependência 6 entre média e variância, além de
homogeneizar variâncias entre grupos), a raiz-quadrada (para dados de
contagens, por exemplo, número de filhotes por gestação) e a transformação
arco seno da raiz-quadrada ou angular (para dados em proporção).
Independente da transformação escolhida, um problema comum é que os dados
transformados perdem seu significado biológico, o que pode levar a
interpretações equivocadas das possíveis relações entre as variáveis.
Nesse contexto, estudaremos o conceito de ANOVA que é uma coleção
de modelos estatísticos no qual a variância amostral é particionada em diversos
componentes devido a diferentes fatores (variáveis), que nas aplicações estão
associados a um processo, produto ou serviço (PORTAL ACTION, 2019a).

2 ANOVA (Analysys of Variance)


Em algumas situações o pesquisador quer comparar não as médias de
dois grupos, mas de 3 ou mais. A alternativa de comparar as médias duas a duas
de cada grupo é pouco eficiente, uma vez que pode ser produzido um grande
número de pares. Se existirem 6 grupos, o pesquisador necessitaria de 15 testes
t para comparar as médias de todos os grupos. Para resolver essa situação,
Ronald Fisher desenvolveu, na década de 20, a técnica da Análise de Variância,
ou ANOVA (JÚNIOR; PAGLIA, 2009).

Figura 2.1: Grupos para comparação.


Fonte: Autor

Box multimídia
Para saber mais sobre teste t de Student veja o vídeo ou acesse o site
dos links respectivamente, https://www.youtube.com/watch?v=ZeU71yoXSJQ
ou https://www.youtube.com/watch?v=aHmui2Pr670. Ou acesse:

Fim Box multimídia

Análise de variância (ANOVA) testa a hipótese de que as médias de duas


ou mais populações são iguais. As ANOVAs avaliam a importância de um ou
mais fatores, comparando as médias de variáveis de resposta nos diferentes
níveis de fator. A hipótese nula afirma que todas as médias de população
(médias de nível de fator) são iguais, enquanto a hipótese alternativa afirma que
pelo menos uma é diferente. Ainda, a hipótese de variâncias iguais é a hipótese
de homoscedasticidade (mesma variação).

Para efetuar uma ANOVA, é necessário haver uma variável de resposta


contínua e pelo menos um fator categórico com dois ou mais níveis. As análises
ANOVA exigem dados de populações aproximadamente normalmente
distribuídas com variâncias iguais entre fatores. Entretanto, os procedimentos
ANOVA funcionam bem mesmo quando a pressuposição de normalidade é
violada, exceto quando uma ou mais distribuições são altamente assimétricas ou
quando as variâncias são muito diferentes. Transformações do conjunto de
dados original podem corrigir essas violações (PORTAL ACTION, ).

Por exemplo, você cria um experimento para avaliar a durabilidade de


quatro produtos experimentais de tapete. Você coloca uma amostra de cada tipo
de tapete em dez casas e mede a durabilidade após 60 dias. Como você está
examinando um fator (tipo de tapete) você usa uma ANOVA com um fator.

Para informações mais detalhadas sobre as diferenças entre médias


específicas, usa-se um método de múltiplas comparações como o método de
Tukey, que será apresentado na aula 7.

O nome "análise de variância" baseia-se na abordagem em que o


procedimento utiliza variâncias para determinar se as médias são diferentes. O
procedimento funciona através da comparação da variância entre as médias de
grupos versus a variância dentro dos grupos como uma maneira de determinar
se os grupos são todos parte de uma população maior ou populações distintas
com características diferentes (MINITAB, 2019).

O objetivo principal da análise de variância (analysis of variance - ANOVA)


é a comparação de mais do que dois grupos no que diz respeito à localização.
Para exemplificar, considere-se a situação em que se pretende avaliar a eficácia
de um novo medicamento no tratamento de determinada doença através da
administração de quatro tratamentos diferentes: o novo medicamento, outros
dois já existentes no mercado para tratar a doença em causa e um placebo. Os
diferentes tratamentos são usados em indivíduos que sofrem daquela doença
distribuídos aleatoriamente por quatro grupos. Será que se pode considerar que
os quatro tratamentos têm resultados diferentes? Será que o novo medicamento
é mais eficaz do que os já existentes no mercado? A análise de variância procura
dar resposta a questões deste tipo através da comparação das localizações dos
diferentes grupos. Esta comparação é feita a partir da análise da dispersão
presente no conjunto de dados; daí a designação de análise de variância
(COSTA, 2017).
No exemplo acima descrito, as observações provêm de grupos
classificados através de um só fator (a doença em causa); neste caso, fala-se
em análise de variância com um fator. Claro que só é legítimo considerar tal
fator como sendo a causa das diferenças entre as médias se puder garantir a
homogeneidade das populações em relação a todos os outros fatores que
poderiam ser relevantes para a explicação do fenômeno. Em muitas situações
práticas há mais do que um fator a influenciar os resultados das observações
(GUIMARÃES, R.C. E SARSFIELD CABRAL, 2007).

Considere-se outro exemplo: para tentar aumentar a duração de


determinado componente para sapatos foram experimentadas cinco matérias-
primas em três máquinas de tipos diferentes. Em cada máquina foi produzido um
componente utilizando cada uma das matérias-primas e ensaiou-se a duração
desses componentes. Coloca-se a questão de saber se a duração dos
componentes é influenciada pelo tipo de máquina e pelas matérias-primas.
Neste caso estamos perante uma análise de variância com dois fatores.
Por outro lado, diz-se que a análise de variância tem tantos níveis ou
efeitos quantos grupos distintos se considerem. Na maior parte das situações,
os grupos são determinados à partida; diz-se então que temos uma análise de
variância com efeitos fixos. Em alternativa, os grupos podem ser retirados
aleatoriamente de entre um conjunto alargado de possibilidades. Nesse caso
teremos uma análise de variância com efeitos aleatórios (GUIMARÃES, R.C. E
SARSFIELD CABRAL, 2007).
Verbete
Aleatoriedade exprime quebra de ordem, propósito, causa, ou
imprevisibilidade em uma terminologia não científica. Um processo aleatório é o
processo repetitivo cujo resultado não descreve um padrão determinístico, mas
segue uma distribuição de probabilidade. O termo aleatório é freqüentemente
utilizado em estatística para designar uma propriedade estatística bem definida
tal como um a quebra de uma neutralidade ou correlação (WIKIPEDIA, 2019).
Fim do Verbete

3 ANOVA

O modelo da ANOVA se baseia em três hipóteses fundamentais:


• Independência
Essa hipótese estabelece que deve haver independência entre as
observações dentro de cada grupo e entre grupos. No planejamento do
experimento é fundamental que a obtenção dos dados seja feita de forma
apropriada, pois a violação da hipótese de independência é um problema sério,
difícil de corrigir. A aleatorização do experimento é um passo importante para
obtenção da independência (MARIA; FARIAS, 2017).
• Normalidade
Os testes de normalidade já vistos devem ser aplicados a cada um dos
grupos.
• Homogeneidade de variâncias (Homocedasticidade)
A hipótese de homoscedasticidade pode ser verificada com alguns testes
de hipótese nula (Equação 1),
Equação 1

Contra a alternativa de que nem todas as variâncias são iguais:

Verbete
Homocedasticidade é o termo para designar variância constante dos
erros experimentais para observações distintas (PORTAL ACTION, 2019b).
Fim do Verbete

No caso da ANOVA de um fator, o valor ajustado é simplesmente a média


amostral do grupo
O modelo ANOVA básico pode descrever duas situações diferentes com
respeito aos efeitos de tratamento. Primeiro, a tratamentos poderiam ter sido
especificamente escolhidos pelo experimentador. Nesta situação, desejamos
testar hipóteses sobre as médias de tratamento, e nossas conclusões serão
aplicáveis somente aos níveis considerados na análise, não podendo ser
estendidas para tratamentos similares que não foram explicitamente
considerados. Este é chamado modelo de efeitos fixos, ou seja, cada nível em
teste representa uma população estatística por si só, com média própria
(PORTAL ACTION, 2019c).

Alternativamente, os a tratamentos poderiam representar uma amostra


aleatória de uma população de tratamentos. Nesta situação, deveríamos ser
capazes de estender as conclusões (que foram baseadas numa amostra de
tratamentos) para todos os tratamentos na população tendo sido ou não
explicitamente considerados na análise. Em vez disso, testamos hipóteses sobre
a variabilidade e tentamos estimar esta variabilidade. Este modelo é chamado
modelo de efeitos aleatórios (MONTGOMERY, 2008).
Nesse tópico serão apresentados os conceitos de ANOVA para modelo
de efeitos fixos, para melhor entendimento.

O que você entendeu por ANOVA de modelos com efeitos


aleatórios?

Fonte:http://www.freeimages.com/photo/what-s-that-1527433 - Adam Ciesielski

Box multimídia
Para saber mais sobre o modelo de efeitos aleatórios veja o vídeo ou
acesse o site dos links respectivamente,
https://www.youtube.com/watch?v=gO9Dc4G-KTQ e
https://www.youtube.com/watch?v=oQ-nw7fVzn0. Ou acesse:

Fim Box multimídia

3.1 ANOVA – Um fator

Os pressupostos exigidos são os seguintes (JORDÁN, 2008):


• Temos g grupos de observações independentes, sendo os grupos
independentes entre si.
• Cada grupo de observações deve provir de uma população com
distribuição normal.
• A variância das g populações deve ser a mesma (homogeneidade das
variâncias).
As observações são designadas por 𝑌𝑖𝑗 onde 𝑖 = 1, … , 𝑔 identifica o grupo
e 𝑗 = 1, … , 𝑛 identifica a posição de cada observação dentro do seu grupo, como
visto na Equação 2 (BORTOLINI, 2012).
𝑌𝑖𝑗 = 𝜇𝑖 + 𝜖𝑖𝑗 = 𝜇 + 𝜏𝑖 + 𝜖𝑖𝑗 Equação 2

Onde
• 𝜇𝑖 representa a média de cada grupo;
• 𝜇 representa a média de todos os grupos;
• 𝜏𝑖 representa a diferença entre a média total e média de cada grupo
𝑔
(∑𝑖=1 𝜏𝑖 = 0);
• 𝜖𝑖𝑗 representa um erro aleatório de cada observação.
Ainda, cada grupo provém de uma população normal com uma média 𝜇𝑖 ,
mas todos com a mesma variância 𝜎 2 .
Dessa forma, a hipótese a se testar é:
𝐻0 : 𝜇1 = 𝜇2 = ⋯ = 𝜇𝑔 = 𝜇 𝑣𝑠 𝐻1 : 𝜇𝑖 ≠ 𝜇

Para testar estas hipóteses recorre-se a uma análise das variâncias dos
vários grupos e daí o nome ANOVA. A ideia de base é a seguinte: Vamos estimar
a variância 𝜎 2 por dois métodos diferentes, um que não depende da veracidade
de 𝐻0 e outro que sim. Depois comparamos as duas estimativas. Se os grupos
tiverem todos a mesma média (𝐻0 verdadeiro) as duas estimativas deverão ser
próximas, senão deverão diferir significativamente (ANJOS, 2014).

Uma forma de estimar 𝜎 2 , sem depender da veracidade de 𝐻0 , consiste


em calcular para cada grupo a variância amostral corrigida (estimativa de 𝜎 2 ) e
tomar a média das várias estimativas que se obtêm.
Se pensarmos agora que as médias são todas iguais (𝐻0 verdadeiro)
estamos perante um conjunto de g amostras todas da mesma população.
Sabemos que 𝑉 𝑎𝑟[𝑋̅] = 𝜎 2 /𝑛 e podemos obter uma ”amostra” de g médias
amostrais (uma para cada grupo). Calculando a variância amostral desta
”amostra” de médias amostrais temos uma estimativa de 𝜎 2 /n. Multiplicando por
n temos uma estimativa de 𝜎 2 . Mas esta última estimativa só é boa se H0 for
verdadeira. Senão fica muito inflacionada. Assim, ao dividir a última estimativa
pela primeira devemos obter um valor próximo de 1 se 𝐻0 for verdadeiro e muito
maior que 1 caso contrário (ANCIA, 2007).
Vejamos agora, como se dá a base da tabela ANOVA do modelo básico:
A soma de quadrados total, como já visto em aulas anteriores, dada por
Equação 3:
𝑎
𝑛 2
𝑆𝑄𝑇 = ∑ ∑ (𝑌𝑖𝑗 − 𝑌̅. . ) Equação 3
𝑗=1
𝑖=1

Onde SQT é uma medida da variação total dos dados.


Somando e subtraindo a média amostral de cada tratamento (𝑌̅𝑖. ) obtemos
(Equação 4):
𝑎 𝑎
𝑛 2 𝑛 2
𝑆𝑄𝑇 = ∑ ∑ (𝑌𝑖𝑗 − 𝑌̅. . ) = ∑ ∑ (𝑌𝑖𝑗 − 𝑌̅𝑖. + 𝑌̅𝑖. − 𝑌̅. . ) =
𝑗=1 𝑗=1
𝑖=1 𝑖=1
𝑎 𝑎
𝑛 Equação 4
= 𝑛 ∑(𝑌𝑖. − 𝑌̅. . )2 + ∑ ∑ (𝑌𝑖𝑗 − 𝑌̅𝑖. )2
𝑗=1
𝑖=1 𝑖=1

Onde
• 𝑛 ∑𝑎𝑖=1(𝑌𝑖. − 𝑌̅. . )2 representa a soma de quadrados dos tratamentos
(𝑆𝑄𝑇𝑟𝑎𝑡 ) e
• ∑𝑎𝑖=1 ∑𝑛𝑗=1(𝑌𝑖𝑗 − 𝑌̅𝑖. )2 representa a soma de quadrados dos resíduos
(𝑆𝑄𝑅𝑒𝑠 ).

Esta decomposição é a base da tabela ANOVA do modelo básico.


Observe que o número de graus de liberdade total é 𝑎𝑛 − 1, o número de graus
de liberdade devido a tratamento é 𝑎 − 1 e, o número de graus de liberdade dos
resíduos é 𝑎(𝑛 − 1), ou seja (Equação 5):

𝑆𝑄𝑇 = 𝑆𝑄𝑇𝑟𝑎𝑡 + 𝑆𝑄𝑅𝑒𝑠


Equação 5

𝑎𝑛 − 1 𝑎 − 1 𝑎(𝑛 − 1)

Levando em consideração as hipóteses de interesse, diz-se que as somas


de quadrados não podem ser diretamente comparadas para testar a hipótese de
igualdade das médias. Mas, os quadrados médios (Equação 6 e Equação 7),
definidos pela razão entre a soma de quadrados e seus respectivos graus de
liberdade, podem ser comparados para testar essa hipótese.
𝑆𝑄𝑇𝑟𝑎𝑡
𝑄𝑀𝑇𝑟𝑎𝑡 = Equação 6
𝑎−1
E
𝑆𝑄𝑅𝑒𝑠
𝑄𝑀𝑅𝑒𝑠 = Equação 7
𝑎(𝑛 − 1)
Se as médias de tratamentos são iguais (𝜇1 = 𝜇2 = ⋯ = 𝜇𝑎 ), os valores
esperados dos quadrados médios de tratamentos e resíduos são iguais.
Se as médias de tratamentos diferem, o valor esperado do quadrado
médio de tratamento Serpa maior que o valor esperado do quadrado médio do
resíduo. Se não há efeito de tratamento, os valores de 𝜏𝑖 são todos nulos.
Como 𝑆𝑄𝑇𝑟𝑎𝑡 e 𝑆𝑄𝑅𝑒𝑠 são independentes, segue que, sob 𝐻0 , a razão F0
é apresentada na Equação 8.

𝑄𝑀𝑇𝑟𝑎𝑡 𝑆𝑄𝑇𝑟𝑎𝑡 ⁄(𝑎 − 1)


𝐹0 = = Equação 8
𝑄𝑀𝑅𝑒𝑠 𝑆𝑄𝑅𝑒𝑠 ⁄(𝑁 − 𝑎)

tem distribuição F com 𝑎 − 1 e 𝑁 − 𝑎 graus de liberdade 𝑁 = 𝑎𝑛.


Essas quantidades são devidamente organizadas na conhecida Tabela
ANOVA. A Tabela 3.1 expressa esse modelo de forma básica e a Tabela 3.2
expressa um modelo da tabela ANOVA a um fator fixo (PORTAL ACTION,
2019d).

Tabela 3.1 Modelo básico ANOVA a um fator

Tabela 3.2 Tabela ANOVA para o modelo a um fator fixo


Explique com suas próprias palavras, quais são os
elementos que compõem o modelo básico da tabela
ANOVA.

Fonte:http://www.freeimages.com/photo/what-s-that-1527433 - Adam Ciesielski

Box Explicativo
Vejamos um exemplo de aplicação do modelo ANOVA para um fator com
efeito fixo (MARIA; FARIAS, 2017).
Exemplo1: Considere os seguintes dados no contexto da ANOVA e construa
a tabela ANOVA, identificando os tamanhos amostrais.

Solução:
Organizando os cálculos em uma tabela para cálculos, temos
A tabela da ANOVA é:

Fim Box Explicativo

3.2 ANOVA – Dois fatores

Em muitas experiências interessa estudar o efeito de mais do que um fator


sobre uma variável de interesse. Quando uma experiência envolve dois ou mais
fatores diz-se que temos uma ANOVA múltipla. Uma ANOVA em que todas as
combinações de todos os níveis de todos os fatores são consideradas diz-se
ANOVA fatorial. Na maioria das situações, quando estamos interessados e m
estudar a influência de dois ou mais fatores numa variável, utilizamos uma
ANOVA fatorial (ANCIA, 2007).
O método da análise da variância de dois fatores é usado com dados
divididos em categorias de acordo com dois fatores. Primeiro, testamos em
relação a uma interação entre os dois fatores. Depois, testamos para determinar:
(1) se o fator linha tem algum efeito; e (2) se o fator coluna tem algum efeito. O
ponto central é que há uma interação entre dois fatores se o efeito de um dos
fatores muda para diferentes categorias do outro fator.

Para cada célula, os valores amostrais provêm de uma população com


distribuição que é aproximadamente normal. Populações têm mesma variância
σ2 (ou desvio padrão σ). As amostras são independentes umas das outras.
Enquanto que os valores amostrais são categorizados de duas maneiras. E
todas as células têm o mesmo número de valores amostrais (planejamento
balanceado) (AMARAL, 2012).

Muitas vezes, ao estudarmos um processo, produto ou serviço, temos


diversos fatores que podem influenciar na característica de interesse. A técnica
da ANOVA permite avaliar o impacto que estes fatores provocam na
característica de interesse. Para isto, considere um experimento com dois
fatores, denominados A e B, no qual o fator A tem a níveis e o fator B tem b
níveis. Para cada combinação de níveis, realizamos r réplicas. Na Tabela 3.3
abaixo, apresentamos os dados do experimento (PORTAL ACTION, 2019e):

Tabela 3.3 Apresentação dos dados para dois fatores.


Agora, vamos "quebrar" a variabilidade total dos dados, denominada
soma de quadrados total, em diversos componentes. Neste caso, mostramos
que, pela

𝑆𝑄𝑇 = 𝑆𝑄𝐴 + 𝑆𝑄𝐵 + 𝑆𝑄𝐴𝐵 + 𝑆𝑄𝑅𝑒𝑠 Equação 9

Onde, 𝑆𝑄𝑇 é a soma de quadrados total, 𝑆𝑄𝐴 é a soma de quadrados do


fator A, 𝑆𝑄𝐵 é a soma de quadrados do fator B, 𝑆𝑄𝐴𝐵 é a soma de quadrados da
interação A x B e 𝑆𝑄𝑅𝑒𝑠 é a soma de quadrados do erro.
Portanto, o equacionamento para a soma de quadrados é (PORTAL
ACTION, 2019d):
𝑎 𝑏
𝑟 2
𝑆𝑄𝑇 = ∑ ∑ ∑ (𝑌𝑖𝑗𝑘 − 𝑌̅. . . ) Equação 10
𝑘=1
𝑖=1 𝑗=1

𝑆𝑄𝐴 = 𝑏𝑟 ∑(𝑌𝑖.. − 𝑌̅. . . )2 Equação 11


𝑖=1

𝑏
2
𝑆𝑄𝐵 = 𝑎𝑟 ∑(𝑌.𝑗. − 𝑌̅. . . ) Equação 12
𝑗=1

𝑟𝑎 𝑏
2
𝑆𝑄𝐴𝐵 = ∑ ∑(𝑌𝑖𝑗. − 𝑌𝑖.. − 𝑌.𝑗. + 𝑌̅. . . ) Equação 13
𝑖=1 𝑗=1

𝑎 𝑏
𝑟 2
𝑆𝑄𝑅𝑒𝑠 = ∑ ∑ ∑ (𝑌𝑖𝑗𝑘 − ̅̅̅̅
𝑌𝑖𝑗. ) Equação 14
𝑘=1
𝑖=1 𝑗=1

Ou seja,
𝑆𝑄𝑇 = (𝑎 𝑏 𝑟 − 1)𝜎𝑔2 Equação 15

𝑆𝑄𝐴 = 𝑏𝑟(𝑎 − 1)𝜎𝐴2 Equação 16


𝑆𝑄𝐵 = 𝑎𝑟(𝑏 − 1)𝜎𝐵2 Equação 17

𝑎 𝑏

𝑆𝑄𝑅𝑒𝑠 = (𝑟 − 1) ∑ ∑ 𝜎𝑖𝑗2 Equação 18


𝑖=1 𝑗=1

𝑆𝑄𝐴𝐵 = 𝑆𝑄𝑇 − 𝑆𝑄𝐴 − 𝑆𝑄𝐵 − 𝑆𝑄𝑅𝑒𝑠 Equação 19

Sabendo que:
• 𝜎𝑔2 : representa a variância amostral com relação a todos os dados
(grupo),
𝑎 𝑏
1 𝑟 2
𝜎𝑔2 = ∑ ∑ ∑ (𝑌𝑖𝑗𝑘 − 𝑌̅... ) Equação 20
𝑎𝑏𝑟 − 1 𝑘=1
𝑖=1 𝑗=1

• 𝜎𝐴2 : representa a variância amostral com relação as médias dos níveis


do Fator A,
𝑎
1
𝜎𝐴2 = ̅̅̅
∑(𝑌 ̅ 2
𝑖.. − 𝑌... ) Equação 21
𝑎−1
𝑖=1

• 𝜎𝐵2 : representa a variância amostral com relação as médias dos níveis


do Fator B,
𝑎
1
𝜎𝐵2 = ∑(𝑌 ̅̅ − 𝑌̅... )2
̅̅.𝑗. Equação 22
𝑏−1
𝑖=1

• 𝜎𝑖𝑗2 : representa a variância amostral com relação a cada combinação


de A e B,
𝑟
1 2
𝜎𝑖𝑗2 = ∑(𝑌𝑖𝑗𝑘 − ̅̅̅̅
𝑌𝑖𝑗. ) Equação 23
𝑟−1
𝑘=1

O número de graus de liberdade em uma soma de quadrados é a


quantidade de elementos independentes nessa soma. Nesse sentido, os
respectivos graus de liberdade associados a cada soma de quadrados são
apresentados na Tabela 3.4:

Tabela 3.4 Graus de liberdade

Para cálculo dos quadrados médios tem-se cada soma de quadrados


dividido por seu respectivo grau de liberdade, ou seja:
𝑆𝑄𝐴
𝑄𝑀𝐴 = Equação 24
𝑎−1

𝑆𝑄𝐵
𝑄𝑀𝐵 = Equação 25
𝑏−1

𝑆𝑄𝐴𝐵
𝑄𝑀𝐴𝐵 = Equação 26
(𝑎 − 1)(𝑏 − 1)

𝑆𝑄𝑅𝑒𝑠
𝑄𝑀𝑅𝑒𝑠 = Equação 27
𝑎𝑏(𝑟 − 1)

O esperado é que o quadrado médio do Resíduo (erro) seja igual à


variância.
O teste estatístico para os fatores A e B está resumido na Tabela 3.5, abaixo:
Tabela 3.5 Tabela ANOVA para dois fatores com efeito fixo.

Box Explicativo
Veremos, agora, um exemplo de aplicação da ANOVA para um modelo
de dois fatores a efeito fixo (PORTAL ACTION, 2019f).
Exemplo 2: Uma empresa que produz limpadores de para-brisas para
automóveis quer saber como os fatores Tipo de Caixa Redutora e Tipo de Eixo,
utilizados na fabricação dos motores que acionam os limpadores, influenciam o
ruído produzido, quando da utilização destes. Para isso realizamos um
experimento com 54 motores, com 3 tipos de Eixo (Rolado, Cortado e
Importado) e 2 tipos de Caixas Redutora (Nacional e Importada). Para cada
motor (unidade experimental) medimos o ruído. Faça um estudo completo.
Solução

Na soma de quadrados, A representa o fator Tipo de Caixa Redutora e B


o fator Tipo de Eixo.
Os respectivos graus de liberdade associados a cada soma de quadrados
são:
Os quadrados médios são:

Assim, a tabela ANOVA ficará:

Fim do Box Explicativo

Box Explicativo
Vejamos um resumo sobre ANOVA para modelos com efeitos fixos
(MARÔCO, 2014):
Tabela 3.6 A tabela ANOVA

Solução: Rejeite H0 se F>FC:

Usar Tabela 3.7 como apoio para comparação do valor de F:


Tabela 3.7 F para α = 0,5

Fim do Box Explicativo

Início da atividade
Atividade (Atende aos objetivos1- 3)

1. Qual a finalidade do uso da estatística?


2. O que significa ANOVA? Como pode ser empregada? Cite exemplos.
3. Explique o que você entendeu por homocedasticidade.
4. Explique a diferença entre ANOVA para modelos fixos e modelos
aleatórios.
5. Explique a diferença entre ANOVA com um fator e dois fatores para
modelo com efeitos fixos?
6. Faça a análise de variância:
O tempo de resposta (em milissegundos) foi determinado para três
diferentes tipos de circuitos usados em uma calculadora eletrônica. Os dados
são os seguintes:

7. Breitling vende pulseiras para relógios masculinos em ouro, prata e titânio.


Obteve-se uma amostra aleatória de cada tipo (em estilos semelhantes),
e o peso de cada pulseira (em gramas) foi registrado. Os dados constam
da tabela que segue.
Realize um teste de análise de variância para determinar se há alguma
evidência de que os pesos médios de algum par de tipos de pulseira
sejam diferentes. Inclua uma tabela ANOVA. Use α = 0, 05.

8. . Realizou-se um estudo para se comparar a quantidade de sal em batatas


fritas. Obtiveram-se amostras aleatórias de quatro variedades e registrou-
se a quantidade de sal em cada porção de 1 onça (em mg de sódio). Os
dados são apresentados na tabela que segue.
Realize um teste de análise de variância para determinar se há alguma
evidência de que a quantidade populacional média de sal por porção seja
diferente para, pelo menos, duas variedades. Use α = 0, 05.

Fim da atividade
Informações sobre a próxima aula
Na próxima aula, estudaremos um pouco mais sobre a teoria do
delineamento completamente causado. Serão vistos conceitos mais detalhados
dos modelos estatísticos.

Referências Bibliográficas
AMARAL, E. F. L. AULA 19 Análise de Variância. v. 12, 2012.

ANCIA, D. E. V. Análise de Variância simples (One way ANOVA ). p. 1–32, 2007.

ANJOS, A. dos. Análise de Variância. In: [s.l: s.n.]

BORTOLINI, J. ESTUDO DE EXPERIMENTOS FATORIAIS 2 k APLICADOS EM UM


PROCESSO INDUSTRIAL. 2012.

COSTA, A. C. Inferência Estatística - Anova. v. e-book, 2017. Disponível em:


<https://pt.scribd.com/document/395542589/Sebenta-5-5>.

GUIMARÃES, R.C. E SARSFIELD CABRAL, J. A. Análise de Variância. p. 1–13, 2007.

JORDÁN, G. C. Aula 10. ANOVA Análise de Variância em SPSS. Métodos Estatísticos 2008,
2008.

JÚNIOR, P. D. M.; PAGLIA, A. P. Material de Apoio para Análises Estatísticas. Biologia, v.


30, n. 4, 2009.

MARIA, A.; FARIAS, L. De. Análise de Variância de Um Fator. 2017.

MARÔCO, J. Análise da Variância (ANOVA). Análise Estatística com o SPSS Statistics, p.


205–258, 2014.

MINITAB, S. ao. O que é anova? 2019. Disponível em: <https://support.minitab.com/pt-


br/minitab/18/help-and-how-to/modeling-statistics/anova/supporting-topics/basics/what-is-
anova/>.

MONTGOMERY, D. Guidelines for Designing Experiments. Eighth ed. [s.l: s.n.]

PORTAL ACTION. 3.2 DIAGNÓSTICO DE HOMOCEDASTICIDAD. v. 2019,


[s.d.]Disponível em: <http://www.portalaction.com.br/analise-de-regressao/32-diagnostico-de-
homocedasticidade>.

PORTAL ACTION. Anova. 2019a. Disponível em: <http://www.portalaction.com.br/anova>.

PORTAL ACTION. Homocedasticidade. 2019b. Disponível em:


<http://www.portalaction.com.br/analise-de-regressao/32-diagnostico-de-homocedasticidade>.

PORTAL ACTION. Anova um fator. 2019c. Disponível em:


<http://www.portalaction.com.br/anova/anova-um-fator>.
PORTAL ACTION. 1.2 Decomposição da soma de Quadrados. 2019d. Disponível em:
<http://www.portalaction.com.br/anova/12-decomposicao-da-soma-de-quadrados>.

PORTAL ACTION. 2. Anova- dois fatores. 2019e. Disponível em:


<http://www.portalaction.com.br/anova/anova-dois-fatores>.

PORTAL ACTION. ANOVA PARA ANÁLISE DO RUÍDO PRODUZIDO PELOS


LIMPADORES DE PARA-BRISAS. 2019f. Disponível em:
<http://www.portalaction.com.br/en/node/2022>.

SIGNIFICADOS. Significado de Parâmetro. 2014. Disponível em:


<https://www.significados.com.br/parametro/>.

WIKIPEDIA. Aleatoriedade. 2019. Disponível em:


<https://pt.wikipedia.org/wiki/Aleatoriedade>.

VIEIRA, Sonia. Fundamentos de Estatística. 6ª ed. Editora Atlas. 200p. 2018

DANA,Samy. Estatística Aplicada. 1ª ed. Editora Saraiva. 160p. 2012

FONSECA, Jairo Simon e MARTINS, Gilberto de Andrade. Curso de Estatística. 6ª ed. Editora
Atlas. 320p. 1996.

JAMES, Gareth, HASTIE, Trevor e TIBSHIRANI, Robert. An Introduction to Statistical


Learning: With Applications in R. 1st ed. Publishing Springer. 426p. 2014.

CALADO, Verônica e MONTGOMERY, Douglas C. – Planejamento de Experimentos Usando


o Estatística– Rio de Janeiro: EPapers Serviços Editoriais, 2003

COBB, George W. Introduction to Design and Analysis of Experiments.6th Edition. New York:
SpringerVerlag New York, Inc., 1998. 802p.

MONTGOMERY, Douglas C. – Design and Analysis of Experiments – 7thEdition – New York:


John Wiley & Sons, 2009. 657p.

VIEIRA, Sonia e HOFFMANN, Rodolfo – Estatística Experimental – São Paulo: Editora Atlas,
1989. 179p.

WERKEMA, Maria Cristina Catarino e AGUIAR, Sílvio – Planejamento e Análise


deExperimentos: ComoIdentificar as Principais Variáveis Influentes em um Processo – Volume
8 da Série Ferramentas da Qualidade Belo Horizonte, MG: Fundação Christiano Ottoni, Escola
de Engenharia da UFMG, 1996. 294p.