Você está na página 1de 21

MÉTODOS

ESTATÍSTICOS

Cristiane da Silva
Análise de variância
em modelos lineares
generalizados
Objetivos de aprendizagem
Ao final deste texto, você deve apresentar os seguintes aprendizados:

„„ Definir os coeficientes de um modelo linear generalizado.


„„ Estimar os coeficientes de um modelo linear generalizado.
„„ Resolver problemas aplicados à ciência de dados utilizando modelo
linear generalizado.

Introdução
Os modelos lineares generalizados (MLG) são uma forma de ampliar as
possibilidades de análises para outras distribuições de probabilidades
que vão além da distribuição normal. A regressão linear tradicional é um
caso particular do MLG, caracterizados por ter componente aleatória,
componente sistemática e função de ligação. Para pertencer a um MLG,
a distribuição de probabilidade precisa fazer parte da família exponencial.
A análise de resíduos é necessária quando tratamos desse tipo de modelo,
o que permite verificar o ajuste e a qualidade dele.
Neste capítulo, você estudará o MLG, verá que este é uma extensão
dos modelos de regressão simples e múltipla, e será capaz de estimar os
seus coeficientes. Também, conhecerá algumas áreas de aplicação para
o modelo e os benefícios que ele traz para os resultados das estimações.
2 Análise de variância em modelos lineares generalizados

1 Modelo linear generalizado


Quando fazemos uma estimação, desejamos ter o melhor estimador linear não
tendencioso (MELNT). No entanto, quando existe uma variabilidade muito
grande no conjunto de dados, isso nem sempre é possível pelo método dos
mínimos quadrados ordinários (MQO). O ideal seria realizar uma estimação
em que observações vindas de populações com maior variabilidade recebes-
sem menos peso daquelas vindas de populações com menor variabilidade.
Isso permitiria estimar a função de regressão da população (FRP) com mais
precisão (GUJARATI; PORTER, 2011).
O método dos MQO não segue essa estratégia e, sendo assim, não usa
as informações contidas na variabilidade desigual da variável dependente,
atribuindo pesos ou importâncias iguais para cada observação. Mas há um
método de estimação que considera esses dados e, por isso, é capaz de pro-
duzir o melhor MELNT. Esse método é conhecido como mínimos quadrados
generalizados (MQG) (GUJARATI; PORTER, 2011).
É importante lembrar-se de que uma hipótese relevante do modelo clássico
de regressão linear é que a variância de cada um dos termos de erro ui, que
aparecem na função de regressão populacional, é homocedástico. Isto é, todos
têm a mesma variância. Essa é a hipótese da homocedasticidade, ou, em
outras palavras: igual ou homogêneo (homo), espalhamento (cedasticidade),
ou seja, variância igual. Por outro lado, quando, por exemplo, as variâncias
condicionais de ui, condicionadas ao Xi dado, não forem as mesmas, haverá
heterocedasticidade (GUJARATI; PORTER, 2011).
Gujarati e Porter (2011, p. 376–377) voltam ao modelo de duas variáveis
para explicar o MQG como a equação:

Yi = β1 + β2 Xi + ui

que pode ser escrita como:

Yi = β1 X0i + β2 Xi + ui

onde X0i = 1 para cada i. Supondo que as variâncias heterocedásticas σi2 sejam
conhecidas, divide-se a equação Yi = β1 X0i + β2 Xi + ui por σi para obter:
Análise de variância em modelos lineares generalizados 3

que pode ser escrita como:

Yi* = β1*X*0i + β2*Xi* + ui*

onde as variáveis com asterisco (*) são as originais divididas por σi. As notações
β1* e β2* indicam os parâmetros do modelo transformado e os distinguem dos
parâmetros normais de MQO, β1 e β2. Para compreender o objetivo de trans-
formar o modelo original, vamos olhar para o termo de erro transformado ui*:

que é uma constante. A variância do termo de erro transformada passa a ser


homocedástica. Então, mantidas as demais hipóteses do modelo clássico,
constatar que u* é homocedástico sugere que, aplicando o MQO ao modelo
transformado:

ele produzirá estimadores MELNT β1* e β2* (GUJARATI; PORTER, 2011).


Dito isso, Gujarati e Porter (2011) explicam que no procedimento de trans-
formar as variáveis originais, de modo que as hipóteses do modelo clássico
sejam garantidas nas transformadas, ao aplicar o MQO às transformadas,
estaremos usando o método de MQG. Vamos acompanhar o mecanismo para
estimar β1* e β2* a partir da função de regressão amostral (FRA) da equação
:
4 Análise de variância em modelos lineares generalizados

que pode ser escrita como:

Yi* = β̂1*X*0i + β̂2*Xi * + ûi*

Para obter os estimadores MQG, minimizamos:

Ou seja:

O estimador de MQG para β2* é:

E sua variância é dada por:

onde:

Nesta seção, mostramos os MQG que são uma extensão dos modelos de
regressão simples e múltipla e, além disso, definimos os coeficientes desse
tipo de modelo, destacando sua relevância.

2 Coeficientes de modelo linear generalizado


Nos modelos de regressão múltipla, as estimativas β̂0, β̂1, …, β̂p são obtidas
pelo método dos mínimos quadrados, mesmo modo que ocorre no caso dos
modelos de regressão simples. Então, tomamos a equação ŷ = β̂0 + β̂1x1 + ⋯ +
β̂pxp como a de mínimos quadrados ou de regressão ajustada (NAVIDI, 2012).
Análise de variância em modelos lineares generalizados 5

Navidi (2012) define ŷi como a coordenada y da equação de mínimos qua-


drados que corresponde aos valores de x(x1i, …, xpi), em que os resíduos são
os valores ei = yi – ŷi, que são as diferenças entre os valores de y observados
e os de y dados pela equação. Busca-se calcular β̂0, β̂1, …, β̂p de tal forma que
seja possível minimizar a soma dos quadrados dos resíduos:

Para tanto, ei será expresso em termos de β̂0, β̂1, …, β̂p. Acompanhe:

ei = yi – β̂0 – β̂1x1i – … – β̂pxpi

A ideia é minimizar a soma:

Isso é possível fazendo a derivada parcial de:

em relação a β̂0, β̂1, …, β̂p, iguais a zero, e calculando o resultado de p + 1


equações com p + 1 incógnitas. As expressões que são obtidas para β̂0, β̂1, …,
β̂p são complicadas, mas os computadores auxiliam nessa tarefa, por meio de
pacotes de software. Além disso, é importante saber que, para cada coeficiente
estimado β̂i, existe um desvio padrão estimado sβ̂i (NAVIDI, 2012).
Conforme Navidi (2012), boa parte da análise em regressão múltipla baseia-
-se em três parâmetros fundamentais: a soma dos quadrados da regressão
(SSR), a soma dos quadrados dos erros (SSE) e a soma total dos quadrados
(SST). No modelo de regressão múltipla, as somas de quadrados são definidas
como exposto a seguir.

„„ Soma dos quadrados da regressão:


6 Análise de variância em modelos lineares generalizados

„„ Soma dos quadrados dos erros:

„„ Soma total dos quadrados:

É possível mostrar que SST = SSR + SSE, que é denominada identidade da


análise de variância. Dito isso, veremos como essas somas de quadrados são
utilizadas para deduzir as estatísticas usadas em regressão múltipla, conside-
rando que as suposições em relação aos erros sejam satisfeitas (NAVIDI, 2012).

Suposições para erros em modelos lineares


De acordo com Navidi (2012, p. 363), na situação mais simples, as suposições a seguir
são satisfeitas:
„„ os erros ε1, …, εn são aleatórios e independentes, e o módulo de qualquer erro εi
não influencia no valor do próximo erro, εi+1;
„„ os erros ε1, …, εn têm todos médias zero;
„„ os erros ε1, …, εn têm todos a mesma variância, indicada por σ2;
„„ os erros ε1, …, εn têm distribuição normal.

Essas suposições implicam que as observações yi são variáveis aleatórias


independentes, ou seja, cada yi tem uma distribuição normal com média
β0 + β1x1 + ⋯ + βpxpi e variância σ2. Cada coeficiente β̂i representa a variação
na média de y associada com um aumento de uma unidade no valor de xi,
considerando as outras variáveis x constantes (NAVIDI, 2012).
Trataremos, a partir de agora, das estatísticas mais utilizadas em regressão
múltipla: a variância do erro s2, o coeficiente de determinação R2 e a estatística
F. Ressalta-se que cada uma delas tem uma análoga na regressão linear simples.
Análise de variância em modelos lineares generalizados 7

Navidi (2012) explica que, na regressão simples, a variância do erro de


previsão é dada por:

Divide-se por n – 2 ao invés de n, pois os resíduos ei = yi – ŷi tendem a ser


um pouco menores do que os erros εi. A razão de eles serem um pouco menores
deve-se ao fato de que os dois coeficientes, β̂0 e β̂1, terem sido escolhidos para
minimizar:

Nos dois casos de regressão múltipla, estimamos p + 1 coeficientes em


vez de apenas dois. Assim, os resíduos tendem a ser ainda menores. Para isso,
dividiremos:

por um denominador ainda menor. O denominador apropriado é igual ao


número de observações n, menos o número de parâmetros no modelo (p + 1).
Então, a estimativa da variância do erro é:

A variância estimada de cada coeficiente de mínimos quadrados β̂i


é calculada multiplicando s por uma função complexa das variáveis xij.
2

Os computadores nos auxiliam nessa tarefa. Atendidas as suposições em


relação ao erro para modelos lineares, o valor de:

terá uma distribuição t de Student com n – p – 1 graus de liberdade. Utiliza-


-se essa estatística para calcular intervalos de confiança e realizar testes de
hipóteses sobre os valores βi (NAVIDI, 2012).
8 Análise de variância em modelos lineares generalizados

De acordo com Navidi (2012), enquanto na regressão linear simples utiliza-


-se o r2, que é o coeficiente de determinação para medir quão bem o modelo
se ajusta, na regressão múltipla, essa qualidade do ajuste é evidenciada por
R2, conhecido como coeficiente de determinação ou proporção de variância
explicada pela regressão. Ele pode ser calculado da seguinte forma:

Em uma regressão linear simples, é comum fazer um teste da hipótese


nula β1 = 0. Quando ela não for rejeitada, o modelo linear não pode ser útil.
Analogamente, na regressão múltipla, tem-se H0 = β1 = β2 = … = βp = 0,
que é uma hipótese nula muito forte, a qual diz que nenhuma das variá-
veis independentes tem qualquer relação linear com a variável dependente.
De modo geral, os dados costumam fornecer evidências suficientes para que
possamos rejeitar essa hipótese (NAVIDI, 2012). A estatística de teste para
a hipótese é dada por:

Essa é a estatística F, e a sua distribuição nula é Fp, n – p – 1. Observe que o


denominador da estatística é s2, como pode ser visto pela equação:

Os subscritos em Fp, n – p – 1, p e n – p – 1, correspondem aos graus de liberdade


para a estatística F (NAVIDI, 2012).
Doane e Seward (2014) destacam que se espera que a regressão se ajuste
bem a todos os dados. Quando as variâncias dos erros forem constantes, eles
serão homocedásticos. Por outro lado, quando elas não forem constantes, os
erros serão heterocedásticos. Na regressão múltipla, podemos fazer um teste
visual da homocedasticidade por meio do diagrama de dispersão dos resíduos
contra cada preditor ou contra os valores ajustados de Y. O esperado é que não
sejam observados padrões e que a dispersão vertical, ou seja, a variância dos
Análise de variância em modelos lineares generalizados 9

resíduos, seja similarmente indiferente aos valores de X. A hipótese nula, Ho,


é de que os erros têm variâncias constantes (homocedásticos), e a hipótese
alternativa, H1, é de que os erros não têm variâncias constantes (heteroce-
dásticos). Existem diversos padrões de variâncias não constantes, sendo o
“leque” de variâncias crescentes bastante comum, como pode ser visto na
Figura 1, a seguir.

(a) 100 (b) 100


Resíduo

0 Resíduo 0

100 100
X X

Figura 1. Gráficos de resíduos heterocedásticos: (a) padrão leque e (b) padrão funil.
Fonte: Adaptada de Doane e Seward (2014).

Note que a linha zero aparece aproximadamente no centro do gráfico dos


resíduos, uma vez que os resíduos sempre somam zero (DOANE; SEWARD,
2014).
Gujarati e Porter (2011), ao abordarem as hipóteses do modelo clássico
de regressão linear, enfatizam a importância de que os termos de erro ui e uj
não sejam correlacionados. Isso implica que, dado Xi, os desvios de quaisquer
dois valores de Y em relação à sua média não apresentam padrões, como os
da Figura 2, a seguir.
Na Figura 2a, existe uma correlação positiva entre os termos de erro:
um u positivo seguido de um u positivo, ou um u negativo seguido de um u
negativo. A Figura 2b mostra uma correlação negativa entre os termos de erro:
um u positivo seguido de outro negativo, e vice-versa. A Figura 2c mostra
que não existe um padrão sistemático nos termos de erro u, o que indica uma
correlação zero, atendendo à hipótese do modelo clássico de regressão linear
quanto à ausência de autocorrelação entre os termos de erro (GUJARATI;
PORTER, 2011).
10 Análise de variância em modelos lineares generalizados

(a) (b)

(c)

Figura 2. Padrões de correlação entre os termos de erro.


Fonte: Adaptada de Gujarati e Porter (2011).

Na seção seguinte, seguiremos aprofundando os MLG por meio de proble-


mas aplicados em ciência de dados e demais áreas de aplicação.

3 Aplicações dos modelos lineares


generalizados
Agora que conhecemos os MLG, definimos seus coeficientes e entendemos
como ele são estimados, vamos verificar algumas aplicações para esses mo-
delos, por Doane e Seward (2014).
Análise de variância em modelos lineares generalizados 11

Exemplo 1
Um modelo de regressão foi ajustado para a taxa de execução hipotecária,
em 2007, em função da proporção, por estado, de todos os créditos imobiliá-
rios novos negociados em 2005, que eram subprime — ou seja, empréstimos
hipotecários de alto risco em função do histórico de crédito do mutuário ou
do valor elevado do empréstimo.
Como resultados, encontrou-se que a variável explicativa justificou apro-
ximadamente 25% (R2 = 0,251) da variação na taxa de execução hipotecária
estadual, mas o gráfico de resíduos pela taxa de execução hipotecária prevista
apresenta um padrão de heterocedasticidade, conforme mostrado na a Figura 3,
a seguir.

Figura 3. Gráfico de resíduos heterocedástico.


Fonte: Doane e Seward (2014, p. 576).

O problema é que a heterocedasticidade pode tornar o intervalo de confiança


do coeficiente de regressão mais estreito do que deveria, pois o erro-padrão
da estimativa do coeficiente angular pode estar subestimado. Nesse exemplo,
tem-se o intervalo de confiança de 95% para inclinação da equação de regressão
estimada [43.8599, 131.9923]. Pode acontecer de o intervalo de confiança real
ser mais amplo do que esse.
12 Análise de variância em modelos lineares generalizados

Algumas das técnicas para reduzir os efeitos da heterocedasticidade são:


transformação da variável X ou da Y, e/ou a expressão das variáveis em termos
relativos. Deve-se, também, considerar outras variáveis explanatórias que
podem explicar melhor a variação em Y, em vez da variável X selecionada
(DOANE; SEWARD, 2014).
De acordo com Doane e Seward (2014), uma maneira de automatizar a
tarefa de ajustar a “melhor” regressão usando k preditores é por meio do
procedimento da regressão stepwise. Este, por meio de computador, ajusta
o melhor modelo, usando 1, 2, 3, ..., k preditores. Acompanhe, a seguir, um
exemplo disso.

Exemplo 2
Engenheiros aeroespaciais tinham um grande conjunto de dados de 469 ob-
servações sobre propulsão (na decolagem de um jato com turbinas) junto a
7 preditores potenciais: TurbTemp (temperatura da turbina), Airflow (fluxo
de ar), TurbSpeed (velocidade da turbina), OilTemp (temperatura do óleo),
OilPres (pressão do óleo), RunTime (tempo de funcionamento) e ThermCyc
(ciclo térmico). Na ausência de um modelo teórico, uma regressão stepwise
foi feita, com os resultados mostrados na Figura 4, a seguir.

Figura 4. Regressão stepwise do MegaStat para os dados da turbina.


Fonte: Doane e Seward (2014, p. 583)
Análise de variância em modelos lineares generalizados 13

São mostrados apenas os valores-p para cada preditor, junto a R2, Rajustado2
e o erro padrão. Nesse exemplo, muitos dos valores-p são pequenos devido ao
fato de n ser grande. Ainda que a regressão stepwise seja uma forma eficiente
de identificar o melhor modelo para k preditores, ela é indicada apenas quando
não existe um modelo teórico especificando os preditores que devem ser usados.
Outra automação dessa tarefa é efetuar a regressão dos melhores subcon-
juntos, usando todas as possíveis combinações de preditores. Muitos pacotes
computacionais oferecem essa possibilidade, mas não é recomendada, já que
ela produz saídas em excesso e pouco discernimento adicional (DOANE;
SEWARD, 2014)
Vejamos outra situação, agora elaborada por Freund (2007). Suponha que
seja aplicado um teste de compreensão de leitura a amostras aleatórias de
alunos da mesma série de quatro escolas, com os seguintes resultados.

Escolas Notas

A 87 70 92

B 43 75 56

C 70 66 50

D 67 85 79

Essas quatro amostras têm médias 83, 58, 62 e 77. Como as diferenças entre
elas são muito grandes, pode-se concluir que há algumas diferenças reais entre
os graus de compreensão dos alunos da série em questão das quatro escolas.
Mas não é o que aparece pela análise de variância de um critério, como vemos
a seguir (FREUND, 2007, p. 379).

Fonte de Graus de Soma de Quadrado


variação liberdade quadrados médio F

Tratamentos 3 1.278 426 2,90

Erro 8 1.176 147

Total 11 2.454
14 Análise de variância em modelos lineares generalizados

Como a estatística F = 2,90 é menor do que 4,07, o valor de F0,05 para 3 e


8 graus de liberdade, a hipótese nula de que as médias populacionais são todas
iguais não pode ser rejeitada a 5% de significância. Isso porque não existem
diferenças muito grandes entre os valores dentro das amostras. Note que, na
primeira amostra, os valores vão de 70 a 92; na segunda, de 43 a 75; na terceira,
de 50 a 70; e, na quarta amostra, de 67 a 85. Essa situação faz concluir que
as diferenças dentro das amostras podem ter sido causadas por desigualdade
de capacidade dos estudantes, o que seria um fator irrelevante, dado que a
amostra é aleatória de alunos em determinada série de cada escola. Então,
essas variações causadas pelas diferenças de capacidades foram incluídas no
erro experimental, o que acabou por “inflacionar” a soma de quadrados de
erros que está no denominador da estatística F. Portanto, os resultados não
foram significantes (FREUND, 2007).
Para evitar esse problema, Freund (2007) sugere limitar o estudo a alunos
da determinada série com nota média (NM) de 90 ou mais, o que restringiria
os resultados. Outra possibilidade é fazer a fonte conhecida de variabilidade
(o fator irrelevante) variar deliberadamente sobre um intervalo tão amplo
quanto necessário, de tal forma que a variabilidade causada possa ser medida
e, portanto, eliminada do erro experimental. Isso implica uma análise de va-
riância de dois critérios, em que a variabilidade total dos dados seja dividida
em três componentes atribuídos, respectivamente: aos tratamentos — que,
no exemplo mencionado, são as quatro escolas —, ao fator irrelevante e ao
erro experimental (FREUND, 2007).
Isso é possível selecionando aleatoriamente, em cada escola, um aluno da
referida série com NM baixa, um com NM típica e um com NM alta, supondo
que baixa, típica e alta sejam definidas rigorosamente, gerando os seguintes
resultados (FREUND, 2007, p. 380):

NM baixa NM típica NM alta

Escola A 71 92 89

Escola B 44 51 85

Escola C 50 64 72

Escola D 67 81 86
Análise de variância em modelos lineares generalizados 15

O procedimento realizado é conhecido como bloqueamento, e os três níveis


de NM são denominados blocos, que são os níveis em que um fator irrelevante
é mantido fixo, para que seja possível medir sua contribuição para a variabi-
lidade total dos dados por meio de uma análise de variância de dois critérios.
Nesse exemplo, utilizou-se blocos completos, que são aqueles em que cada
tratamento figura o mesmo número de vezes em cada bloco. Ou seja, há um
aluno de determinada série de cada escola em cada bloco (FREUND, 2007).
De acordo com Freund (2007), a análise de experimentos, em que se uti-
liza bloqueamento para reduzir a soma de quadrados dos erros, deve ser da
variância de dois critérios.

Você pode saber mais sobre a análise de variância consultando a obra Estatística
aplicada: economia, administração e contabilidade, de John E. Freund, publicada em 2017.

Então, seguiremos com o caso das notas dos alunos, apresentado por Freund
(2007), para entender esse processo.

Exemplo 3
Suponha que os dados do exemplo das notas dos alunos das quatro escolas
consistam em amostras aleatórias independentes de populações normais,
todas com o mesmo desvio-padrão teste, ao nível 0,05 de significância.
Se as diferenças entre as médias obtidas para as quatro escolas (que são nossos
tratamentos) são significantes e, também, se as diferenças entre as médias
obtidas para os três níveis de NM (que são nossos blocos) são significantes.
16 Análise de variância em modelos lineares generalizados

Solução:

1.

H0: α1 = α2 = α3 = α4 = 0
β1 = β2 = β3 = 0

HA: os efeitos de tratamento não são todos iguais a zero; os efeitos de blocos
não são todos iguais a zero.

2.

α = 0,05 para ambos os testes.

3. Para os tratamentos, rejeitar a hipótese nula, se F ≥ 4,76, onde F deve


ser determinado por uma análise de variância de dois critérios, e 4,76
é o valor de F0,05 para k – 1 = 4 – 1 = 3 e (k – 1)(n – 1) = (4 – 1)(3 – 1)
= 6 graus de liberdade. Para os blocos, rejeitar a hipótese nula, se
F ≥ 5,14, onde F deve ser determinado por uma análise de variância de
dois critérios, e 5,14 é o valor de F0,05 para n – 1 = 3 – 1 = 2 e (k – 1)(n – 1)
= (4 – 1)(3 – 1) = 6 graus de liberdade. Se alguma das duas hipóteses
nulas não pode ser rejeitada, devemos aceitá-la ou reservar julgamento.

4. Substituindo k = 4, n = 3, T1. = 252, T2. = 180, T3. = 186, T4. = 234, T.1 = 232,
T.2 = 288, T.3 = 332, T.. = 852 e ∑∑x2 = 63.414 nas fórmulas de cálculo
para as somas de quadrados, obtemos a soma total dos quadrados STQ:
Análise de variância em modelos lineares generalizados 17

A soma de quadrados de tratamentos SQ(Tr):

A soma de quadrados de erros SQE:

SQE = STQ – SQ(Tr)


SQE = 2.922 – (1.260 + 1.256)
= 406

Como os graus de liberdade são k – 1 = 4 – 1 = 3, n – 1 = 3 – 1 = 2, (k – 1)


(n – 1) = (4 – 1)(3 – 1) = 6 e kn – 1 = 4 · 3 – 1 = 11, obtemos, então:

para tratamentos, e:
18 Análise de variância em modelos lineares generalizados

para blocos. Todos esses resultados estão resumidos na tabela de análise


de variância a seguir (FREUND, 2007, p. 383):

Fonte de Graus de Soma de Quadrado


F
variação liberdade quadrados médio

Tratamentos 3 1.260 420 6,21

Blocos 2 1.256 628 9,28

Erro 6 406 67,67

Total 11 2.922

5. Como F = 6,21 excede 4,76, a hipótese nula para os tratamentos deve


ser rejeitada; e como F = 9,28 excede 5,14, a hipótese nula para os
blocos deve ser rejeitada. Ou seja, concluímos que o grau médio de
compreensão de leitura de alunos da referida série não é o mesmo para
as quatro escolas, e que o grau médio de compreensão de leitura de
alunos daquela determinada série não é o mesmo para os três níveis de
NM. Note que, com bloqueamento, obtivemos diferenças significativas
entre os graus médios de compreensão de leitura dos alunos da série
analisada nas quatro escolas, o que não ocorreu sem o bloqueamento
(FREUND, 2007, p. 382–384).

Nesta seção, identificamos algumas aplicações para os MLG, enfatizando


a análise de variância e seu impacto sobre os resultados. Além disso, o capí-
tulo aprofundou a análise da variância em MLG, definindo e estimando os
coeficientes de um MLG. Além disso, proporcionou dica de leitura para que
você tenha subsídios e ampliar o conhecimento. Diversos exemplos, gráficos,
figuras e tabelas foram utilizados como forma de facilitar a compreensão do
conteúdo.
Análise de variância em modelos lineares generalizados 19

DOANE, D. P.; SEWARD, L. E. Estatística aplicada à administração. 4. ed. Porto Alegre:


AMGH; Bookman, 2014. 840 p.
FREUND, J. E. Estatística aplicada: economia, administração e contabilidade. 11. ed.
Porto Alegre: Bookman, 2007.
GUJARATI, D. N.; PORTER, D. C. Econometria básica. 5. ed. Porto Alegre: AMGH; Bookman,
2011. 920 p.
NAVIDI, W. Probabilidade e estatística para ciências exatas. Porto Alegre: AMGH; Book-
man, 2012. 616 p.

Você também pode gostar