Você está na página 1de 478

Conselho Editorial Internacional

Presidente: Prof. Dr. Rodrigo Horochovski (UFPR – Brasil)


Profª. Dra. Anita Leocadia Prestes (ILCP – Brasil)
Profª. Dra. Claudia Maria Elisa Romero Vivas (UN – Colômbia)
Profª. Dra. Fabiana Queiroz (Ufla – Brasil)
Profª. Dra. Hsin-Ying Li (NTU – China)
Prof. Dr. Ingo Wolfgang Sarlet (PUC/RS – Brasil)
Prof. Dr. José Antonio González Lavaut (UH – Cuba)
Prof. Dr. José Eduardo Souza de Miranda (UniMB – Brasil)
Profª. Dra. Marilia Murata (UFPR – Brasil)
Prof. Dr. Milton Luiz Horn Vieira (Ufsc – Brasil)
Prof. Dr. Ruben Sílvio Varela Santos Martins (UÉ – Portugal)

Comitê Científico da área Ciências Agrárias


Presidente: Prof. Dr. Alexandre de Paula Peres (Ufla – Ciência dos Alimentos)
Prof. Dr. Antonio Waldir Cunha da Silva (UFPR – Medicina Veterinária)
Profª. Dra. Rita de Cássia Maria Garcia (UFPR – Medicina Veterinária)
Prof. Dr. Luis David Solis Murgas (Ufla – Zootecnia)
Prof. Dr. Davi Marcondes Rocha (UTFPR – Engenharia Agrícola)
Leonardo Lopes Bhering
Paulo Eduardo Teodoro

ESTATÍSTICA EXPERIMENTAL NO RBIO


© Brazil Publishing Autores e Editores Associados Associação Brasileira de Editores Científicos
Rua Padre Germano Mayer, 407 Rua Azaleia, 399 - Edifício 3 Office, 7º Andar, Sala 75
Cristo Rei - Curitiba, PR - 80050-270 Botucatu, SP - 18603-550
+55 (41) 3022-6005 +55 (14) 3815-5095

Associação Brasileira de Normas Técnicas Câmara Brasileira do Livro


Av. Treze de Maio, 13, 28ª andar Rua Cristiano Viana, 91
Centro - RJ - 20031-901 Pinheiros - SP - 05411-000
+55 (21) 3974.2324 + 55 (11) 3069-1300

Comitê Editorial
Editora-Chefe: Sandra Heck
Editor-Superintendente: Valdemir Paiva
Editora Científica: Kelly Miranda
Editor-Coordenador: Everson Ciriaco
Diagramação e Projeto Gráfico: Rafael Chiarelli
Arte da Capa: Paula Zettel
Revisão de Texto: Os autores

DOI: 10.31012/ 978-65-5861-360-2


Órgão Financiador: Obra financiada pela Capes

Dados Internacionais de Catalogação na Publicação (CIP)


Bibliotecária: Maria Isabel Schiavon Kinasz, CRB9 / 626

Bhering, Leonardo Lopes


B421e Estatística experimental no Rbio [recurso eletrônico]
Leonardo Lopes Bhering, Paulo Eduardo Teodoro –
1.ed. - Curitiba: Brazil Publishing, 2021.

ISBN 978-65-5861-360-2

1. Estatística. 2. Pesquisa experimental. I. Teodoro,
Paulo Eduardo. II. Título.

CDD 519.5 (22.ed)
CDU 519.2

[1ª edição – Ano 2021]


www.aeditora.com.br
Aos meus pais, José Antônio Bhering e Maria do Carmo
Lopes Bhering pelo exemplo de vida e educação;
À minha esposa Luana Vieira Toledo pelo
companheirismo e motivação diária.

Leonardo Lopes Bhering

Aos meus pais, Maria do Carmo Severino e João


Adamastor Teodoro, pessoas simples, que sempre
me apoiaram e me ensinaram que a coisa mais
importante na vida é o conhecimento e a educação;
À minha esposa, Larissa Pereira Ribeiro Teodoro, pelo
amor, carinho, companheirismo e compreensão.

Paulo Eduardo Teodoro


PREFÁCIO
Este material apresenta procedimentos estatísticos com larga
aplicação nas diversas áreas da pesquisa e em atividades de ensino,
graduação e pós-graduação na análise de delineamentos experimentais.
As análises estatísticas têm sido utilizadas para a comprovação proba-
bilística da veracidade de determinada hipótese formulada com base
em extensivos estudos e investigada a partir de resultados encontrados
na pesquisa, bem como apresentar suas descrições de forma resumida,
sem perda de informações relevantes.
Apresentam-se ao leitor os mais diversos procedimentos da esta-
tística experimental e os cálculos de todos os delineamentos experimen-
tais, de forma a oferecer um conteúdo capaz de auxiliar o pesquisador
a fazer a escolha correta do delineamento experimental a ser utilizado
bem como, através das análises, interpretar seus resultados, podendo
avaliar após isso se existe diferença entre os tratamentos, se o experi-
mento foi bem conduzido, se aquela população avaliada tem potencial
para seleção em um programa de melhoramento genético.
Além disso, devido à grande quantidade de dados gerados pelos
experimentos, normalmente torna-se difícil a sua execução sem um
auxílio de um computador, desta forma, o material contém ainda os
scripts para que o leitor possa repetir as análises realizadas no material
em computador. O script disponibilizado é para utilização do software
livre R, que é o mesmo utilizado pelo software Rbio (Bhering, L.L., 2017).
Os softwares são aplicativos computacionais capazes de reali-
zar tarefas com grande volume de informações, facilitando o processa-
mento de dados. Seu objetivo é substituir as atividades complexas, que
deveriam ser realizadas manualmente com auxílio de uma calculadora,
por computadores com alta capacidade de processamento, podendo
proceder análises complexas, tornando sua execução prática e eficien-
te, sem erros.
O desenvolvimento de aplicativos em todas as áreas de pesqui-
sa torna-se essencial, pois facilita e muito o processamento dos dados,
seja na área médica, humana, agrária, dentre outras.
O uso de softwares na análise de dados provenientes de deline-
amentos experimentais é de fundamental importância, pois possibilita
ao pesquisador analisar em curto prazo um grande volume de dados,
sendo necessário apenas a interpretação destes dados. Existem diver-
sos softwares estatísticos para este tipo de análise, alguns famosos
como SAS, ESTATISTICA, SPSS e STATA são excepcionais softwares,
porém, existe a necessidade de compra da licença. Dessa forma, será
apresentada aqui apenas os scripts para análise no software R / Rbio
(R Development Core Team, 2008). O software R é um software livre
para análise de dados criado em 1996. Além de livre, ou seja, o usuário
pode ter acesso ao código fonte de todas as rotinas, o software R é gra-
tuito, portanto o usuário não tem a necessidade de comprar a licença,
necessitando apenas fazer download do mesmo no website (https://
www.r-project.org/). Além da vantagem citada anteriormente, desta-
ca-se ainda que o usuário encontra diversos materiais na internet so-
bre como usar o software, desde o processo de download, instalação,
até realizar diferentes tipos de análises, e também é um software com
versões para sistema operacional Linux, Windows e MacOS.
Outra sugestão que se faz é que o usuário faça também down-
load do Rbio (Bhering, 2017) disponível no website (http://www.
biometria.ufv.br/). Esse é um software gratuito. No caso do Rbio ele faz
uso do R para proceder as análises. A grande vantagem para o usuário
fazer uso do Rbio é que ele fornece os scripts para as análises via R de
todo o seu conteúdo, então se torna um repositório de scripts R.
Encontram-se ainda neste material os scripts para cada tópico
abordado anteriormente, bem como as saídas correspondentes que
o usuário deve confrontar com a teoria já informada. Os arquivos de
exemplos para cada análise estão localizados numa pasta chamada
“ebook”, localizada dentro da pasta “_Rbio”. Esta pasta é baixada
junto com o software Rbio e deve ser colocado dentro do “c:”, de
forma que o caminho para acesso aos arquivos no Windows seja:
“c:\_Rbio\ebook”. Todos os arquivos aqui usados são com extensão
“.txt”, porém, os usuários podem criar seus arquivos em outras pastas
e com os nomes diferentes. Para várias análises, faz-se necessário a
instalação de pacotes específicos usados pelo software R, nesse caso
o comando “library(nome_pacote)” é realizado antes da realização
da análise para carregar o referido pacote. Caso esse pacote nunca
tenha sido instalado no computador, sua instalação faz-se necessária,
e para isso o usuário deve digitar “install.packages(“nome_pacote”)”.
Adicionalmente no final do ebook consta algumas tabelas estatísticas
comumente utilizadas nas análises estatísticas.
É importante enfatizar dois aspectos existentes no material.
Primeiro, todos os exemplos são com poucos tratamentos e repetições
de forma proposital, para que fosse fácil a realização das operações
matemáticas passo a passo, mesmo que devido a isso, o experimento
fosse de baixa qualidade por ter poucos graus de liberdade no resíduo.
O segundo aspecto, é que priorizou utilizar o “.” como símbolo decimal,
apenas para que pudesse ficar igual a saída dos softwares.
Os autores agradecem quaisquer críticas, sugestões e eventuais
correções que, certamente, irão contribuir para a melhoria desta obra.
ABSTRACT
This book deals with a set of analyzes that can help the student /
researcher to analyze the data of their academic and professional
research. With theory and application, in a small and didactic example.
Along with this presented step by step, it is shown how to proceed
with the analysis of the same example in the Rbio software, so that the
user is able to assimilate the theoretical and practical teachings at the
same time. As statistical software is used in practice, due to its speed
and convenience, this interface with the software was emphasized
in this material. The Rbio software presented is free software owned
by one of the authors of the work, with the capacity for several
biometric-statistical analyzes. In this work only those analyzes related
to experimentation were addressed.
SUMÁRIO
1 – ESTATÍSTICA DESCRITIVA. . . . . . . . . . . . . . . . . . . 12
1.1 Medidas de Posição . . . . . . . . . . . . . . . . . . . . 16
1.2 Medidas de Dispersão . . . . . . . . . . . . . . . . . . . . 21

2 – PRINCÍPIOS BÁSICOS DA EXPERIMENTAÇÃO. . . . . . . . . . . . 33

3 – ANÁLISE DE VARIÂNCIA (ANOVA) E SUAS PRESSUPOSIÇÕES. . . . . . . 36

4 – DELINEAMENTO EXPERIMENTAL INTEIRAMENTE CASUALIZADO . . . . . 82

5 – DELINEAMENTO EXPERIMENTAL EM BLOCOS AO ACASO. . . . . . . . 99

6 – COMPONENTES DE VARIÂNCIA . . . . . . . . . . . . . . . . 114

7 – DELINEAMENTO EXPERIMENTAL EM QUADRADO LATINO. . . . . . . 165

8 – TESTES DE COMPARAÇÕES MÚLTIPLAS E AGRUPAMENTOS . . . . . . 175


8.1. Teste t. . . . . . . . . . . . . . . . . . . . . . . . . 177
8.2. Teste de Tukey. . . . . . . . . . . . . . . . . . . . . . 185
8.3. Teste de Duncan . . . . . . . . . . . . . . . . . . . . . 189
8.4. Teste de Scheffé . . . . . . . . . . . . . . . . . . . . . 193
8.5. Teste de Fisher, LSD ou DMS t. . . . . . . . . . . . . . . . . 196
8.6. Teste de Bonferroni, LSDB . . . . . . . . . . . . . . . . . . 200
8.7. Teste SNK. . . . . . . . . . . . . . . . . . . . . . . . 205
8.8. Teste de Dunnet. . . . . . . . . . . . . . . . . . . . . 209
8.9. Teste de Scott-Knott . . . . . . . . . . . . . . . . . . . . 213
9 – ANÁLISE DE EXPERIMENTOS FATORIAIS. . . . . . . . . . . . . 228

10 – ANÁLISE DE EXPERIMENTOS EM PARCELAS SUBDIVIDIDAS . . . . . . 249

11 – ANÁLISE DE EXPERIMENTOS EM FAIXAS. . . . . . . . . . . . 260

12 – ANÁLISE DE EXPERIMENTOS HIERÁRQUICOS . . . . . . . . . . . 282

13 – ANÁLISE DE EXPERIMENTOS EM BLOCOS INCOMPLETOS . . . . . . . 297


13.1. Blocos aumentados. . . . . . . . . . . . . . . . . . . . 297
13.2. Látice. . . . . . . . . . . . . . . . . . . . . . . . . 313

14 – REGRESSÃO. . . . . . . . . . . . . . . . . . . . . . 341
14.1. Regressão Linear Simples. . . . . . . . . . . . . . . . . . 343
14.2. Regressão Múltipla . . . . . . . . . . . . . . . . . . . . 355
14.3. Regressão Polinomial. . . . . . . . . . . . . . . . . . . 366

15 – ANÁLISE DE COVARIÂNCIA (ANCOVA). . . . . . . . . . . . . 384

16 – CORRELAÇÃO . . . . . . . . . . . . . . . . . . . . . 403
16.1. Correlação de Pearson e Spearman . . . . . . . . . . . . . . 403
16.2. Correlação Parcial . . . . . . . . . . . . . . . . . . . . 413
16.3. Correlação: Análise de Trilha. . . . . . . . . . . . . . . . . 424
16.4. Correlação Fenotípica, Genotípica e Ambiental . . . . . . . . . . 431
16.5. Correlação Canônica . . . . . . . . . . . . . . . . . . . 439

LITERATURAS CITADAS. . . . . . . . . . . . . . . . . . . . 457


ANEXOS. . . . . . . . . . . . . . . . . . . . . . . . . 459
SOBRE OS AUTORES . . . . . . . . . . . . . . . . . . . . . 477
1

ESTATÍSTICA DESCRITIVA

Antes de qualquer tipo de análise de dados é importante co-


nhecer bem estes dados a serem utilizados. Inúmeros erros podem
ser evitados apenas verificando se os valores máximos e mínimos são
condizentes com as variáveis em estudo. Uma boa indicação antes de
proceder qualquer análise de dados é observar os valores máximos
e mínimos do conjunto de dados. Estes podem fazer com que sejam
identificados erros grosseiros.
Desta forma, nesse material, iniciamos analisando qualquer
conjunto de dados de forma geral, sem importar se estão ligados com
a experimentação (que será abordada a partir do tópico 2).
A estatística descritiva serve para resumir, organizar um conjun-
to de dados, e a partir disso tirar conclusões ou inferências dos mes-
mos. É bom ficar atento que sempre que resumimos um conjunto de
dados iremos perder a informação individual obtida, pois estas serão
condensadas, porém esta perda de informação é pequena comparada
ao ganho que se tem com a possibilidade da interpretação. De forma a
explorar melhor os dados algumas medidas para análise descritiva são:
medidas de posição e de dispersão.
Imagine que em uma avaliação de híbridos de milho verifica-se
uma produção média (valores considerando área em hectare) para um

12
estatística experimental no rbio

híbrido 1 de 8000 kg, de 7500 kg para o híbrido 2. Porém ao digitar os


dados coletados o usuário esbarre no teclado e digite 80000 kg, nesse
exemplo extremamente exagerado o valor errado seria facilmente vi-
sualizado, ao soltar a média daquele tratamento, porém as vezes não é
verificado casos assim tão grandes, como por exemplo, se no exemplo
anterior não houvesse possibilidade de um material produzir mais
de 10000 kg. Ao tomar a informação por repetição, tem-se repetição
1: 2000 kg, repetição 2: 3000 kg, e repetição 3: 15000 kg. Ao obter
a média deste tratamento tem-se o valor 6666 kg, valor este que se
encontra totalmente possível dentro do esperado para a produção dos
referidos materiais, porém, como informado não existe possibilidade
de produção acima de 10000 kg, e o que ocorreu foi um erro de digita-
ção na repetição 3, que era pra ser 1500 kg e ao digitar um “0” a mais
mudou totalmente a média do material, que deveria ter sido 2166 kg.
Dessa forma apenas o uso da média não ajudaria para descobrirmos
o tal erro, mas usando simplesmente máximo e mínimo observados,
conseguiríamos encontra-lo. Mais do que um simples erro matemático,
ele pode ter consequências maiores, pois provavelmente um material
com média de 2166 kg seria descartado do programa de melhoramen-
to, e um de 6666 kg, poderia ser selecionado, ou seja, iria ter gasto
financeiro e de tempo conduzindo este material em futuros blocos de
cruzamentos, ou avanços de gerações. Sendo assim, é conveniente
que a primeira ação a ser executada pelo usuário seja estimar médias,
máximos, mínimos, coeficientes de variação e gráficos do conjunto
de dados. Nesse momento será possível conhecer melhor o conjunto
de dados e identificar possíveis erros, que após o processamento das
análises, provavelmente não mais seriam observados.
Alternativas gráficas para apresentação dos dados são muito
úteis, como por exemplo, os histogramas que são gráficos de distribui-
ção de frequências, que é um agrupamento de classes, representadas
por barras, realizado após a contagem do número de observações
pertencentes as classes. O objetivo é obter a informação sobre o com-

13
estatística experimental no rbio

portamento dos dados. Para obter o número de classes normalmente


se utiliza a regra de Sturges, que é dada por: k = 1 + 3.3log (n), em que
n é o conjunto de dados. Sendo assim pega-se o maior valor - menor
valor e divide pelo número de classes. Dessa forma consegue-se obter
os valores que devem estar em cada intervalo.
Para proceder a maioria das análises deste material será con-
siderado um exemplo bem simples, com 3 tratamentos e 2 repetições
(ou blocos). Será visto mais adiante que este não atende os requisitos
mínimos para que seja um experimento de qualidade, porém de forma
didática, de forma a facilitar e agilizar os cálculos ele será usado nesse
material. Oportunamente dados provenientes de experimentos tam-
bém poderão ser usados, sobretudo para processamento e interpre-
tação. Os dados deste experimento são apresentados na Tabela 1.1.

Tabela 1.1 Avaliação de uma variável agronômica simulada em delineamento em


blocos ao acaso.
Blocos
Tratamentos Total Média
I II

1 66.98 75.61 142.59 71.295

2 113.77 126.24 240.01 120.005

3 71.87 87.53 159.4 79.7

Total 252.62 289.38 542

Média 84.20667 96.46 90.333

Para confecção do histograma, inicialmente deve-se obter o


número de classes do mesmo. Usando a expressão de Sturges, tem-se:

k = 1 + 3.3log (n) = 1 + 3.3x log (6) = 3.56 = 4 classes

Com base no número de classes pode-se obter o intervalo


constituído por cada classe: (Maior valor – Menor valor) / nº classes.
Sendo para o conjunto de dados apresentados, (126.24 – 66.98) /4

14
estatística experimental no rbio

= 14.815. Este é o intervalo de cada classe. Sendo assim, a classe 1


= 66.98 + 14.815 = 81.795; esse processo continua até obter todas
as classes, conforme apresentado na Tabela 1.2 abaixo. Após isso é
necessário apenas contar quantos valores estão dentro de cada um
dos intervalos, obtendo as respectivas ocorrências e confeccionar o
respectivo histograma (Gráfico 1.1).

Tabela 1.2 Intervalo compreendido entre classes e suas respectivas ocorrências


para avaliação de uma variável agronômica simulada.
Classes Ocorrência Frequência

66.98 – 81.8 3 50

81.8 – 96.61 1 16.667

96.61 – 111.43 0 0

111.43 – 126.24 2 33.333

Gráfico 1.1 Histograma realizado com base nos dados da Tabela 1.1.

15
estatística experimental no rbio

Alternativamente, alguns softwares, criam estes intervalos das


classes usando valores inteiros arredondados, de forma a ficar com
uma melhor visualização das classes. Esta é uma forma com que o
software R procede, nesse mesmo exemplo, o gráfico produzido será
mostrado no Gráfico 1.2, de forma que os intervalos existentes no eixo
x serão ligeiramente diferentes dos apresentados no gráfico anterior:

Gráfico 1.2. Histograma realizado no software R para os dados da Tabela 1.1.

1.1 Medidas de Posição

As medidas de posição são aquelas que posicionam um valor


referente a um conjunto de dados, em relação a determinada posição
da distribuição de frequência. As medidas de posição mais importantes
são: média, mediana e moda.

16
estatística experimental no rbio

A média é calculada somando todos os valores e dividindo pelo


tamanho da amostra (n) (ou da população). Em melhoramento está
associada a qualidade da população, ou seja, se a população possui
potencial a ser explorado.


n
xi =1 i x1 + x2 +…+ xn
=x =
n n

Para os dados da Tabela 1.1 a média é:

66.98 + 75.61 + 113.77 + 126.24 + 71.87 + 87.53


x = 90.33
6

A mediana é o valor central do conjunto de dados. Caso o número


de dados seja ímpar, a mediana será o valor central, considerando que
os dados estejam ordenados de menor para maior. Caso o conjunto de
dados seja par, a mediana será a média das duas observações centrais.
Para os dados da Tabela 1.1, são dispostos seis valores, por-
tanto, a mediana deverá ser a média dos valores centrais, ou seja, do
terceiro e quarto, após a ordenação. Ordenando os dados, tem-se:
66.98, 71.87, 75.61, 87.53, 113.77 e 126.24. Sendo assim a mediana
para esse conjunto de dados é:

75.61 + 87.53
=x = 81.57
2

Sendo assim, metade da amostra está localizada abaixo de


81.57 e metade está localizada acima de 81.57. A mediana portanto
deixa 50% dos dados acima e 50% abaixo do seu valor, e é chamada
também de segundo quartil (Q2).

17
estatística experimental no rbio

O primeiro quartil (Q1) é o número que deixa 25% das obser-


vações abaixo e 75% acima, enquanto o terceiro quartil (Q3) deixa
75% dos dados abaixo e 25% acima. Existem diferentes maneiras de se
calcular os valores de primeiro e terceiro quartil, e deve-se conhecer
como o software que está utilizando calcula para que possa obter
o mesmo valor num cálculo a mão, por exemplo, o Microsoft Excel,
possui três funções diferentes que calculam os quartis, sendo elas :
“quartil”, “quartil.inc” e “quartil.exc”, sendo que as duas primeiras
fornecem resultados iguais.
Pode-se encontrar na literatura formas rápidas de calcular,
mas estes resultados divergem dos softwares usados, um exemplo é o
apresentado a seguir que inicialmente coloca-se os dados em ordem e
divide em dois grupos:

66.98, 71.87, 75.61 87.53, 113.77, 126.24

O primeiro quartil seria o valor central do primeiro grupo ou seja


71.87. A mediana seria o valor central, portanto a média entre 75.61 e
87.53 e o terceiro quartil seria o valor central do terceiro grupo, portanto
113.77. É importante salientar que, por exemplo, caso o primeiro grupo
apresente 6 valores e o segundo grupo 6 valores, portanto um conjunto
de dados com 12 informações, o valor central do grupo 1 seria a média
dos valores 3 e 4, de tal forma que possua duas informações abaixo e 2
informações acima da mesma, da seguinte forma:

123456 7 8 9 10 11 12

Quartil 1: Média entre 3 e 4 = 3.5; quartil 2(mediana): Média


entre 6 e 7 = 6.5 e quartil 3: Média entre 9 e 10 =9.5
Alguns softwares, como é o caso do R, utilizam o método co-
nhecido como “interpolação com base N-1”, que é correspondente a
função do Excel “quartil.inc”. Normalmente esta é a forma mais usada

18
estatística experimental no rbio

quando se deseja fazer uma estatística descritiva dos dados. Nesse


caso, fala-se N-1 pois a contagem da posição dos valores inicia-se do 0,
sendo assim tem-se um total de N-1 posições. Considerando o nosso
exemplo com seis valores ordenados crescente teremos, as posições
variando de 0 a 5, conforme demostrado abaixo.

Posição 0 1 2 3 4 5

Valor 66.98 71.87 75.61 87.53 113.77 126.24

As posições K dos quartis são dadas:

 n −1   6 −1 
=K Q1 1=
x  1=
x  1.25
 4   4 

 n −1   6 −1 
=K Q 2 2=
x  2=
x  2.5
 4   4 

 n −1   6 −1 
=K Q 3 3=
x  3=
x  3.75
 4   4 

O valor do quartil 1, será o valor corresponde a 1.25 da nossa


posição. A posição 1 é 71.87, e a posição 2 é 75.61, portanto a diferença
desses valores é 3.74, e 0.25 desse valor é 0.935. Dessa forma o valor
do Q1 é 71.87 + 0.935 =72.81.
O valor do quartil 2, que é a mediana, será o valor corresponde
a 2.5 da nossa posição, ou seja, a média entre os valores da posição 2
e 3, que já foi calculado anteriormente e é 81.57.
O valor do quartil 3, será o valor corresponde a 3.75 da nossa
posição. A posição 3 é 87.53, e a posição 4 é 113.77, portanto a dife-
rença desses valores é 26.24, e 0.75 desse valor é 19.68. Dessa forma
o valor do Q3 é 87.53 + 19.68 =107.21.

19
estatística experimental no rbio

Outros softwares utilizam o método conhecido como “interpo-


lação com base N+1”, que é correspondente a função do Excel “quartil.
exc”. Nesse caso, fala-se N+1 pois a contagem da posição dos valores
inicia-se do 0, porém não existe nenhum valor associado a posição 0,
sendo assim tem-se um total de N+1 posições. Considerando o nosso
exemplo com 6 dados ordenados crescente teremos, as posições va-
riando de 0 a 6, conforme demostrado abaixo. Normalmente, esta é
a forma mais usada quando se deseja identificar outliers, pois possui
uma amplitude interquartil (IQR) maior, que é obtida subtraindo o
valor do Q3-Q1.

Posição 0 1 2 3 4 5 6

Valor 66.98 71.87 75.61 87.53 113.77 126.24

Os cálculos são semelhantes aos anteriores, mudando, portan-


to, apenas as posições, dessa forma tem:

 n +1   6 +1 
=K Q1 1=
x  1=
x  1.75
 4   4 

 n +1   6 +1 
=K Q 2 2=
x  2=
x  3.5
 4   4 

 n +1   6 +1 
=K Q 3 3=
x  3=
x  5.25
 4   4 

O valor do quartil 1, será o valor corresponde a 1.75 da nossa


posição. A posição 1 é 66.98, e a posição 2 é 71.87, portanto a diferen-
ça desses valores é 4.89, e 0.75 desse valor é 3.66. Dessa forma o valor
do Q1 é 66.98 + 1.22 = 70.64.

20
estatística experimental no rbio

O valor do quartil 2, que é a mediana, será o valor corresponde


a 3.5 da nossa posição, ou seja, a média entre os valores da posição
3 e 4, que já foi calculado anteriormente, e é 81.57. Note, mais uma
vez, que independentemente do método usado, a mediana fornecerá
o mesmo valor.
O valor do quartil 3, será o valor corresponde a 5.25 da nossa
posição. A posição 5 é 113.77, e a posição 6 é 126.24, portanto a dife-
rença desses valores é 12.47, e 0.25 desse valor é 3.11. Dessa forma o
valor do Q3 é 113.77 + 3.11 = 116.88.
Vale ressaltar novamente que não existe uma norma de como
é o correto para o cálculo destes quartis, portanto, outras expressões
podem ser usadas.
Outra medida de posição é a moda que corresponde ao valor que
ocorre com maior frequência em um determinado conjunto de dados.

1.2 Medidas de Dispersão

São medidas que avaliam a dispersão dos dados em relação à


média, sendo que dispersão é o mesmo que variação ou variabilidade.
Duas medidas são usadas frequentemente para mensurar a dispersão,
que são a amplitude e o desvio padrão.
A amplitude (R) é a diferença entre o maior e o menor valor de
um conjunto de dados.

=R X maior − X menor

Para o exemplo anterior, tem-se:

R = 126.24 − 66.98 = 59.26

21
estatística experimental no rbio

A variância de uma amostra de n elementos é definida como o


desvio em relação à média ao quadrado, ou seja, a soma de quadrados
dos desvios dos elementos em relação à sua média, dividido por n-1,
sendo dependente da amplitude de variação e distribuição dos dados.
Caso o cálculo seja da variância populacional será dividido por n.

∑ (x − x)
n 2
i
σˆ 2 = i =1
n −1

Considerando o conjunto de dados apresentados na Tabela 1.1,


tem-se a variância:

Como visto acima, a variância é uma medida de dispersão que


mede o desvio ao quadrado. Então esta terá magnitude ao quadrado,
por exemplo, se a medida for em metros (m), ao se calcular a variância
a medida é metros ao quadrado (m2). Este fato dificulta a interpretação
dos dados. Para solucionar tal problema é calculado o desvio padrão
(s) que é igual à raiz quadrada da variância, que faz com que os dados
voltem a escala original da variável.
Sendo assim o estimador do desvio padrão é dado por:

∑ (x − x)
n 2
i
=s σˆ
= 2 i =1
n −1

22
estatística experimental no rbio

Para o conjunto de dados tem:

=s 589.89 24.28
=

Muitas vezes ocorre um confundimento entre o que é o desvio


padrão e o que é o erro padrão e a aplicação destas duas medidas. O
desvio padrão como já apresentado é uma medida de dispersão em
relação à média, já o erro padrão é uma medida que ajuda avaliar a
confiabilidade da média calculada. Para tentar esclarecer o significado
e utilização de cada uma destas medidas considere o exemplo a seguir.
Imagine que um grande produtor de café envie sua produção para ser
embalada em duas empresas diferentes. Este produtor recebeu várias
reclamações que a embalagem do seu café possuía menos de 500g,
valor este o informado no rótulo do produto. Para tentar solucionar
tal dúvida ele resolveu pegar uma amostra de 10 embalagens de cada
empresa, conforme apresentado abaixo:

Empresa 1 2 3 4 5 6 7 8 9 10 Média(g) S (g)

1 540 531 528 487 424 477 453 439 606 515 500 55

2 505 507 502 499 494 493 500 500 494 506 500 5

Pode-se concluir que ambas empresas possuem em média


500g de café e apenas essa medida de posição não é suficiente para
tirar reais conclusões, sendo necessário analisar a variabilidade das
embalagens, para isso, usa-se uma medida de dispersão, no caso, o
desvio padrão, que indica a dispersão dos dados em relação à média.
Portanto, quanto menor esse valor, mais homogênea é a amostra,
sendo possível então verificar que a amostra da empresa 1 é mais
heterogênea, ou seja, o peso destas embalagens varia mais do que as
das embalagens da empresa 2.
Porém tivemos uma amostra de 10 embalagens amostrada. Será
que esta amostra realizada foi confiável? Repetindo este experimento

23
estatística experimental no rbio

seria obtido, a mesma média para ambas empresas? Para solucionar


essa questão usa-se o erro padrão da média, que é uma medida de
variação de uma média amostral em relação à média da população,
e serve, portanto, para verificar a confiabilidade da média amostral
calculada. Para obter o erro padrão:

Desvio padrão 55
Erro padrão da média ( Empresa
= 1) = = 17.39
n 10

Desvio padrão 5
Erro padrão da média ( Empresa=
2) = = 1.58
n 10

De posse do erro padrão pode-se obter o intervalo de confiança


para a média. Usando uma tabela de distribuição normal padrão e con-
siderando um intervalo de confiança de 95% obtêm-se o valor de 1.96
(ANEXO 1.1). Vale ressaltar aqui, que se o IC é de 95%, tem-se 2.5% dos
dados inferiores e 2.5% superiores, conforme o Gráfico 1.3, portanto,
na tabela o valor a ser observado é 0.975 correspondendo a 1.96. É
necessário enfatizar que se deve usar este método caso o tamanho da
população seja igual ou maior que 30 e/ou se o desvio padrão popula-
cional (não o amostral) é conhecido. Caso estes pré-requisitos não sejam
atendidos deve-se usar o teste t em vez da tabela padrão de estatística Z.

O Intervalo de confiança para a média é obtido por:


[Média – (1.96 x Erro Padrão); Média + (1.96 x Erro Padrão)]

Empresa 1:
[500– (1.96 x 17.39); 500 + (1.96 x 17.39)] = [465.9; 534.0]

Empresa 2:
[500– (1.96 x 1.58); 500 + (1.96 x 1.58)] = [496.9; 503.0]

24
estatística experimental no rbio

Sendo assim, com base nesse exemplo hipotético, concluímos


que a média das 2 amostras eram semelhantes, porém o desvio padrão
da amostra é muito maior para a empresa 1, e consequentemente o
erro padrão da média desta empresa também é muito maior. Portanto,
o produtor deverá focar em enviar sua produção de café para a em-
presa 2 que fornece melhores serviços, uma vez que o erro padrão da
média obtido em suas amostras é menor.

Gráfico 1.3. Representação de uma distribuição normal padrão.

No software R, para a obtenção do valor tabelado, usa-se a


tabela t de Student, (ANEXO 1.2), em que t(α/2; N-1), uma vez que não
foram seguidos os pré-requisitos, informados anteriormente, como o
tamanho da população que é menor que 30, portanto, para o conjunto
de dados apresentados na Tabela 1.1 e um nível de significância α = 5%
= 0.05, tem-se t(0.025; 5) = 2.571. Dessa forma o erro padrão da média
e o intervalo de confiança serão:

Desvio padrão 24.28


Erro padrão da média
= = = 9.91
n 6

[Média – (2.571 x Erro Padrão); Média + (2.571 x Erro Padrão)]

[90.33– (2.571 x 9.91); 90.33 + (2.571 x 9.91)] = [64.85; 115.80]

25
estatística experimental no rbio

Outra medida usada para mensurar a variabilidade dos dados


é o coeficiente de variação (CV), que está ligada a qualidade do ex-
perimento, sendo desejado menores valores deste parâmetro. Nesse
caso, ele tem uma grande vantagem em relação ao desvio padrão, pois
este último é muito afetado pela magnitude dos dados. Dessa forma
se o interesse é comparar a variabilidade existente entre diferentes
experimentos, para uma mesma variável, pode-se usar o coeficiente
de variação, que é definido como a razão entre o desvio padrão e a
média. Vale ressaltar que só se deve comparar coeficientes de variação
de uma mesma variável, e muitas pessoas, erroneamente, tentam
comparar esta medida para variáveis diferentes. Para a variável anali-
sada, obtêm-se um cv de 26.87, conforme mostrado abaixo.

s 24.28
CV
= (%) =x100 = x100 26.87%
x 90.33

Vale salientar um artifício muito utilizado em análise de dados.


Muitas vezes usa-se mais de uma variável ao mesmo tempo, e estas
têm escalas diferentes, sendo necessário fazer algum procedimento
para contornar tal inconveniente. Denota-se por codificação de uma
variável qualquer, quando subtrai os valores desta variável do valor ob-
tido para a média da mesma. Como consequência tem-se que a nova
média desta variável codificada será igual a 0, e a variância não irá se
alterar. Outro artifício utilizado é padronizar a variável, que é dividir
os valores desta variável pelo desvio padrão, e ao fazer isso terá uma
variável com variância igual a 1 e a nova média será dada pela média
original dividida pelo valor do desvio padrão. Muitas vezes usa-se os
dois artifícios ao mesmo tempo, ou seja, dividir pelo desvio padrão e
subtrair a média, a consequência disso é que esta variável agora terá
média igual a 0 e variância igual a 1.

26
estatística experimental no rbio

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para realizar tal procedimento o usuário deverá acessar o menu
Estatística Básica > Estatística Descritiva, conforme Figura 1.1.

27
estatística experimental no rbio

Figura 1.1. Software Rbio, e rotina de procedimentos para realizar análise de


estatística descritiva.

Os scripts para proceder a análise no R e as saídas das análises


são apresentadas a seguir.

# -----------------------------------
# Script 1: Estatísticas Descritivas
# -----------------------------------

# ----------------------
# 1.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X

Trat Rep Variavel


1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53

# ----------------------
# 1.2- Estatística Descritivas
# ----------------------
# 1.2.1- Resumida
# ----------------------
summary(X)

28
estatística experimental no rbio

Trat Rep Variavel


Min.:1.00 Min.:1.0 Min.: 66.98
1st Qu.:1.25 1st Qu.:1.0 1st Qu.: 72.81
Median:2.00 Median:1.5 Median: 81.57
Mean:2.00 Mean:1.5 Mean: 90.33
3rd Qu.:2.75 3rd Qu.:2.0 3rd Qu.:107.21
Max.:3.00 Max.:2.0 Max.:126.24

# ----------------------
# 1.2.2- Completa
# ----------------------
library(fBasics)
basicStats(X, ci = 0.95)

Trat Rep Variavel


nobs 6.000000 6.000000 6.000000
NAs 0.000000 0.000000 0.000000
Minimum 1.000000 1.000000 66.980000
Maximum 3.000000 2.000000 126.240000
1. Quartile 1.250000 1.000000 72.805000
3. Quartile 2.750000 2.000000 107.210000
Mean 2.000000 1.500000 90.333333
Median 2.000000 1.500000 81.570000
Sum 12.000000 9.000000 542.000000
SE Mean 0.365148 0.223607 9.915433
LCL Mean 1.061356 0.925200 64.844902
UCL Mean 2.938644 2.074800 115.821764
Variance 0.800000 0.300000 589.894827
Stdev 0.894427 0.547723 24.287751
Skewness 0.000000 0.000000 0.429522
Kurtosis -1.958333 -2.305556 -1.838679

# ----------------------
# 1.3- Histograma
# ----------------------
hist(X[,3], col=”gray”, main=”Histograma: Eixo x = Variavel “,ylab=”Amplitude”, xlab= colnames(X)[3] )

29
estatística experimental no rbio

ANEXO 1.1: Tabela da Distribuição Normal padrão reduzida (Z~N (0,1)) P(Z<z) e z
positivos.
z 0.0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995

30
estatística experimental no rbio

z 0.0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998
3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.8 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

ANEXO 1.2. Tabela da distribuição t de Student, com nível de significância α e gl


graus de liberdade.
Nível de significância
gl 0.1 0.05 0.025* 0.01 0.005
1 3.078 6.314 12.706 31.821 63.657
2 1.886 2.920 4.303 6.965 9.925
3 1.638 2.353 3.182 4.541 5.841
4 1.533 2.132 2.776 3.747 4.604
5 1.476 2.015 2.571 3.365 4.032
6 1.440 1.943 2.447 3.143 3.707

7 1.415 1.895 2.365 2.998 3.499

8 1.397 1.860 2.306 2.896 3.355

9 1.383 1.833 2.262 2.821 3.250

10 1.372 1.812 2.228 2.764 3.169


11 1.363 1.796 2.201 2.718 3.106

12 1.356 1.782 2.179 2.681 3.055

13 1.350 1.771 2.160 2.650 3.012

14 1.345 1.761 2.145 2.624 2.977


15 1.341 1.753 2.131 2.602 2.947
16 1.337 1.746 2.120 2.583 2.921
17 1.333 1.740 2.110 2.567 2.898
18 1.330 1.734 2.101 2.552 2.878
19 1.328 1.729 2.093 2.539 2.861
20 1.325 1.725 2.086 2.528 2.845
21 1.323 1.721 2.080 2.518 2.831

31
estatística experimental no rbio

Nível de significância
gl 0.1 0.05 0.025* 0.01 0.005
22 1.321 1.717 2.074 2.508 2.819
23 1.319 1.714 2.069 2.500 2.807
24 1.318 1.711 2.064 2.492 2.797
25 1.316 1.708 2.060 2.485 2.787
26 1.315 1.706 2.056 2.479 2.779
27 1.314 1.703 2.052 2.473 2.771
28 1.313 1.701 2.048 2.467 2.763
29 1.311 1.699 2.045 2.462 2.756
30 1.310 1.697 2.042 2.457 2.750
40 1.303 1.684 2.021 2.423 2.704
50 1.299 1.676 2.009 2.403 2.678
60 1.296 1.671 2.000 2.390 2.660
120 1.289 1.658 1.980 2.358 2.617
∞ 1.282 1.645 1.960 2.326 2.576
* mais usada. Entra-se com α/2; portanto se deseja teste a 5%, entra com 0.05/2=0.025

32
2

PRINCÍPIOS BÁSICOS DA EXPERIMENTAÇÃO

Nas diferentes áreas de pesquisa, incluindo a pesquisa na área


agropecuária e florestal, o pesquisador tem interesse em saber qual
ou quais variáveis afetam o nosso objeto de pesquisa, podendo assim
aumentar a chance de obtermos sucesso. Para estudar estas variáveis
e seus comportamentos na pesquisa deve-se realizar experimentos,
que são escolhidos pelo pesquisador de forma a entender essa
relação entre variáveis e tratamentos. Sendo assim, o planejamento
experimental serve para que o pesquisador determine as variáveis que
exercem maior influência no objeto de estudo.
Quando se realiza determinado experimento, deve-se ter uma
unidade onde serão tomados os dados referentes aos efeitos dos
tratamentos. Esta unidade é comumente chamada de unidade expe-
rimental ou parcela. Pode-se ter parcelas constituídas de uma única
planta, como é muito comum na área florestal em experimentos com
eucalipto, como pode-se ter parcelas constituídas de uma ou duas
linhas de um metro, como acontece por exemplo em experimentos
com feijão, ou duas linhas de cinco metros como ocorre em milho. É
importante salientar que esta constituição das parcelas pode alterar
conforme especificidades do experimento em avaliação.
Por exemplo, imagine que um pesquisador deseja saber se usar
ou não adubo afeta a produção de uma determinada espécie. O pes-

33
estatística experimental no rbio

quisador poderia, portanto, plantar uma linhagem de feijão qualquer,


e nela testar 2 tratamentos, com e sem adubo. Após a condução da
cultura nos 2 sistemas o pesquisador iria pesar a produção em ambos
tratamentos, e observar se existe diferenças entre estas produções. A
metodologia correta para montar tais experimentos será discutida a
seguir, e como comparar estas produções a determinado nível estatís-
tico será visto em capítulos posteriores.
Para a realização de experimentos três princípios básicos de-
vem ser seguidos: repetição, casualização e controle local.
A repetição é importante, pois com ela é possível obter o erro
experimental, que será utilizado em comparações dos tratamentos
para verificar se as diferenças entre os tratamentos serão ou não signi-
ficativas. Além disso, a repetição permite que o valor obtido para cada
parcela seja mais confiável, uma vez que os tratamentos terão mais
de uma medição, podendo assim obter médias mais precisas. Imagine
que ao testar duas linhagens de feijão a linhagem A produziu mais do
que a linhagem B. Porém o fato de produzir mais não significa que
ela seja realmente melhor. Essa superioridade em produção pode ser
devido ao fato da linhagem A ter sido cultivada numa região do solo
com mais disponibilidade de nutrientes, portanto a superioridade de
produção pode ser devido a adubação diferente e não devido realmen-
te a diferença entre as linhagens. Uma forma de solucionar isso seria
plantar várias parcelas com a linhagem A e com a B, considerando a
média entre elas. Isso seria considerar corretamente a repetição.
Porém, o simples fato de se repetir as parcelas não garante que
a diferença de produção observada seja devida realmente a diferença
entre as linhagens. Imagine que todas as parcelas da linhagem A sejam
plantadas na área do solo com maior disponibilidade de nutrientes, e
as parcelas de B sejam plantas em área deficiente de nutrientes, en-
tão apenas o fato de estarem repetidas não faria com que realmente
estivesse sendo feita uma comparação entre as linhagens. Para solu-
cionar tal problema deve-se realizar a casualização ou aleatorização,
que é dispor os diferentes tratamentos e suas repetições ao acaso no

34
estatística experimental no rbio

experimento. Isso faz com que não existam tratamentos que sejam
beneficiados por estarem em uma área mais favorável.
O controle local é comumente utilizado na experimentação, po-
rém no experimento no delineamento inteiramente ao acaso ele não está
presente, existindo apenas a repetição. O controle local permite aumen-
tar a precisão experimental. Pode-se exemplificar a avaliação de doença
num experimento feito por duas pessoas diferentes. Isso poderia levar a
uma não homogeneidade dos dados, e assim, cada pessoa poderia ser
considerada um bloco. Normalmente em experimentos agronômicos
o pesquisador determina o bloco como sendo uma área experimental
homogênea, seja por quantidade de nutriente recebido, declividade de
solo, ou outro fator que é de conhecimento a priori. Portanto, o impor-
tante é que a variação dentro do bloco seja a menor possível, podendo
as variações entre blocos serem grandes ou pequenas. Delineamentos
que possuem controle local são chamados delineamentos em blocos
ao acaso ou casualizados e serão tratados em capítulos posteriores. O
bloco não é simplesmente uma repetição, pois ele invoca os princípios
de repetição e controle local ao mesmo tempo.
O que se deseja com a experimentação é descrever da melhor
maneira possível o fenômeno de interesse. O planejamento experimen-
tal permite eficiência e economia no processo experimental e o uso de
métodos estatísticos na análise dos dados obtidos resulta em conclusões
mais objetivas. É de extrema importância que o pesquisador conheça
bem a espécie com que irá trabalhar, para realizar os tratos culturais
adequados, como também conhecer as variáveis de interesse. É prática
comum e errônea montar experimentos sem saber ao certo o objetivo
do experimento. A primeira coisa a se fazer é ter claro o objetivo que
se deseja. A partir desse momento, deve-se planejar o melhor arranjo
experimental para auxiliar na resposta acerca da questão chave do ob-
jetivo. Monta-se o experimento com todas as variáveis de interesse já
definidas. Faz-se a coleta dos dados, e a partir daí realiza-se a análise dos
dados, para concluir sobre a questão definida no objetivo.

35
3

ANÁLISE DE VARIÂNCIA (ANOVA)


E SUAS PRESSUPOSIÇÕES

Qualquer análise de variância (ANOVA) adota um modelo


matemático para descrever as fontes de variação e a aceitação de al-
gumas hipóteses básicas. Considere o modelo matemático abaixo para
um delineamento inteiramente ao acaso:

Yij=m + ti + eij

em que:
Yij é o valor observado relativo à parcela que recebe o trata-
mento i na repetição j
m é a média geral do experimento
ti é o efeito do tratamento i
eij é o erro aleatório, ou seja, contribuição ao acaso da variação
devida a fatores não controlados.

Para a realização da análise de variância, algumas pressuposi-


ções devem ser satisfeitas:

36
estatística experimental no rbio

i. Os diversos efeitos do modelo devem ser aditivos, como


pode ser visto no modelo matemático anterior;
ii. Os erros experimentais devem ser independentes, ou seja,
não correlacionados;
iii. Os erros devem ter a mesma variância σ2;
iv. Os erros devem ter distribuição normal.

Com base nos itens ii, iii e iv, normalmente se parte do princípio
de que os erros são aleatórios, independentes e normalmente distri-
buídos com média zero e variância σ2 e representado por eij ~ N (0, σ2).
Segundo Pimentel-Gomes (2000) estas hipóteses parecem muito
restritivas, mas não o são, pois em geral não há grande importância que
se verifiquem apenas aproximadamente. Por exemplo, os testes t e F
não se alteram muito se a distribuição for apenas aproximadamente
normal ou que se afaste bastante da normalidade. Do mesmo modo, a
desigualdade das variâncias traz problemas mais sérios, mas não deve
ser encarada com excessivo rigor, pois normalmente estas não são muito
grandes em sua maioria. Para verificar tal fato usa-se o teste de Bartlett
e o de F máximo que serão exemplificados mais adiante, mas desde já
se chama a atenção para o fato destes serem muito sensíveis à falta de
normalidade. Para caso de excessiva heterogeneidade das variâncias ou
não aditividade do modelo, pode-se tentar a transformação da variável
em estudo ou usar métodos não paramétricos de análise.
Considere um experimento simulado em delineamento em
blocos ao acaso segundo o modelo matemático Yij=m + bj + ti + eij. Os
dados deste experimento são apresentados na Tabela 3.1, e serão
testadas as pressuposições da análise de variância.

37
estatística experimental no rbio

Tabela 3.1. Avaliação de uma variável agronômica simulada em delineamento em


blocos ao acaso.
Blocos
Tratamentos Total Média
I II

1 66.98 75.61 142.59 71.295

2 113.77 126.24 240.01 120.005

3 71.87 87.53 159.4 79.7

Total 252.62 289.38 542

Média 84.20667 96.46 90.333

a) Pressuposição i: Aditividade do modelo

A pressuposição i informa que o modelo deve ser aditivo. Tal


pressuposição pode ser testada pelo teste de não aditividade de Tukey
(1949), descrito por Steel et al, 1997, em que a Hipótese H0 é a de
que os efeitos do modelo são aditivos. A Soma de Quadrados da não
aditividade (SQNA), é dada pela expressão:

( )( )
2
 t Y Yi. − Y.. Y. j − Y.. 
∑ i 1∑
r

SQNA = = =j 1 ij 
 t
(Y − Y ) x ∑ (Y − Y.. )
2 2

 ∑
r
i.
=i 1 = .. j 1 .j


ou, de forma alternativa

( )( )
2
n =∑ ∑ Y Yi. − Y.. Y. j − Y.. 
t r

SQNA =  i 1 =j 1 ij 
[ SQTxSQB ]

sendo que n, t e r referem-se ao número total de parcelas, de


tratamentos e blocos, respectivamente.
O quadrado médio da não aditividade (QMNA) é testado pelo
quadrado médio do resíduo (QMRNA) obtido pela expressão:

38
estatística experimental no rbio

SQErro − SQNA
QMRNA =
GLErro − 1

O quadro da ANOVA está apresentado na Tabela 3.2, os cálculos


detalhados da obtenção deste quadro no delineamento em blocos ao
acaso serão vistos em capítulo posterior.

Tabela 3.2. Resultado da análise de variância da variável agronômica simulada.


Fonte de Variação GL SQ QM F p-value

Blocos 1 225.22 225.22 36.353* 0.026422

Tratamentos 2 2711.87 1355.93 218.868** 0.004548

Erro 2 12.39 6.20

Não aditividade 1 0.5663 0.5663 0.0479 0.8628

Resíduo 1 11.8242 11.8242


*, **: Significativo pelo teste F a 5 e 1% respectivamente.

Para o conjunto de dados apresentados na Tabela 3.1 o cálculo


da SQNA é:

2
 t r 
( )(
 ∑∑Yij Yi. − Y.. Y. j − Y..  )
=i 1 =j 1 
2
 ( 66.98 ) x ( 71.295 − 90.3333) x ( 84.20667 − 90.3333)  
 
+ ( 75.61) x ( 71.295 − 90.3333) x ( 96.46 − 90.3333)  
 
+ (113.77 ) x (120.005 − 90.3333) x ( 84.20667 − 90.3333)  
=  = 57640.7447
+ (126.24 ) x (120.005 − 90.3333) x ( 96.46 − 90.3333)  
 
+ ( 71.87 ) x ( 79.7 − 90.3333) x ( 84.20667 − 90.3333)  
 
+ ( 87.53) x ( 79.7 − 90.3333) x ( 96.46 − 90.3333)  

39
estatística experimental no rbio

∑ (Y − Y )=
2
( 71.295 − 90.3333) + (120.005 − 90.3333)
2 2
i. ..
i =1

+ ( 79.7 − 90.3333) =
2
1355.933717

∑ (Y )
2
(84.20667 − 90.3333)
2
.j Y..
−= +
j =1

( 96.46 − 90.3333)
2
75.07209
=

Dessa forma tem-se:

SQNA 57640.7447
= 0.5663
(1355.933717 x75.07209 )

Alternativamente tem-se:

Vale ressaltar que:

( )
2
SQB t ∑ Y. j − Y..
=
j =1

( )
2
SQT r ∑ Yi. − Y..
=
i =1

t r

∑∑ (Y )
2
SQTotal
= ij − Y..
=i 1 =j 1

40
estatística experimental no rbio

A SQResíduo da não aditividade (SQRNA) é dada por SQErro -


SQNA, ou SQTotal - SQT-SQB-SQNA=11.8242
O teste F para não aditividade é dado por QMNA / QMRNA, e no
exemplo acima é dado por: F=0.5663/11.8242=0.0479, associado a 1
GL no numerador e [(t-1) (r-1) -1] no denominador. Portanto, nesse
caso, 1 GL no denominador. Como F tabelado (5%,1,1) = 161.45 (ANE-
XO 3.1) e o F calculado < F tabelado, não se rejeita a Hipótese H0 de que
os efeitos do modelo são aditivos, não violando a pressuposição i. Caso
o interesse seja realizar o teste a 1% de probabilidade então deve-se
consultar a tabela F a 1% (ANEXO 3.2).
Vale aqui ressaltar que este exemplo é simulado e, portanto,
o GL do Erro é 2, menor do que o desejado para a experimentação.
Segundo Pimentel-Gomes (2000), os experimentos devem conter pelo
menos 20 parcelas, e não menos do que 10 GL para o resíduo, ou seja,
caso um experimento possua 2 tratamentos, deve-se utilizar no míni-
mo 10 repetições.

b) Pressuposição ii: Independência dos erros

A pressuposição ii, refere-se à independência dos erros, isso


acontece quando os dados são tomados de forma independente, o
que normalmente é resolvido com a correta coleta dos dados. Porém,
caso as unidades sejam observadas ao longo do tempo, não se pode
afirmar que os erros são independentes, pois uma medida tomada
em uma unidade deverá estar correlacionada com a medida tomada
nesta mesma unidade em um segundo momento. Nesse caso, a não
independência é difícil de corrigir pois deve-se, em geral, à maneira
de coletar os dados. Caso haja a suspeita de não atendimento a esta
pressuposição, é necessário realizar a análise de resíduos. Esta análise
normalmente é gráfica, usando o desvio das observações em relação à
média padronizada para cada tratamento, segundo a expressão:

41
estatística experimental no rbio

ei
Zi =
QMR

Para o nosso exemplo tem-se:

66.98 − 71.295
Z11 = = −1.7329
6.20

75.61 − 71.295
=Z12 = 1.7329
6.20

113.77 − 120.005
Z 21 = = −2.5040
6.20

126.24 − 120.005
=Z 22 = 2.5040
6.20

71.87 − 79.7
Z 31 = = −3.1446
6.20

87.53 − 79.7
=Z 32 = 3.1446
6.20

Com os valores calculados, pode-se construir um gráfico de


dispersão dos valores de zi calculados (Gráfico 3.1).

42
estatística experimental no rbio

Gráfico 3.1. Dispersão gráfica dos valores Zi obtidos com base nos dados da Tabela 3.1.

Nessa situação, como se tem apenas duas repetições, e calcu-


la-se o desvio em relação à média, os valores serão sempre de mesma
magnitude e de sinais contrários. De toda forma, o gráfico acima
possui todos estes valores plotados e dispersos. Nota-se a dispersão
e independência dos valores, o que mostra a não correlação entre os
resíduos. Quando existe forte suspeita de não independência pode-se
aplicar ainda um teste estatístico como o de Durbin Watson. A estatís-
tica do teste é calculada por:

∑ (e − e )
T 2
t t −1
d= t =2

∑ (e )
T 2
t =1 t

sendo que et é o resíduo da regressão associado ao tempo t, e


T é o número de observações.
Para o conjunto de dados apresentados na Tabela 3.1, o pri-
meiro passo é realizar a análise de regressão dos dados (Y) em função
dos tratamentos (X), e após isso, obtém-se os seguintes valores de
resíduos: -19.151; -10.521; 23.437; 35.907; -22.666; -7.006.

43
estatística experimental no rbio

Para obtenção destes valores de resíduos, tem-se resumida-


mente a análise de regressão (Tabelas 3.3 e 3.4), considerando Y=B0
+ B1X +e (informações adicionais sobre regressão serão fornecidas no
capítulo 13 deste material):

Tabela 3.3. Tabela auxiliar, para proceder a análise de regressão considerando os


dados da Tabela 3.1.
Y X y = Y- Y x = X- x2 xy

66.98 1 -23.3533333 -1 1 23.35333

75.61 1 -14.7233333 -1 1 14.72333

113.77 2 23.43666667 0 0 0

126.24 2 35.90666667 0 0 0

71.87 3 -18.4633333 1 1 -18.4633

87.53 3 -2.80333333 1 1 -2.80333

Y = 90.33 X =2 ∑x2i = 4 ∑xiyi =16.81

Dessa forma pode-se obter os valores de B0 e B1, que são dados por:

cov ( x, y ) ∑ xi yi 16.81
Bˆ1
= = = = 4.2025
v ( x) ∑ xi2 4

Bˆ0 =−
Y Bˆ1 X =
90.33 − ( 4.2025 x 2 ) =
81.92

Sendo assim a equação de regressão é dada por: Yˆ = 81.92


+4.2025X. Com base nessa equação calculamos os desvios da regres-
são, ou seja, o resíduo, apresentados na Tabela 3.4.

44
estatística experimental no rbio

Tabela 3.4. Tabela com os resíduos da análise de regressão, considerando os dados


da Tabela 3.1.
Y X =Yˆ 81.92 + 4.2025 X e = Y - Ŷ

66.98 1 86.13083333 -19.150833

75.61 1 86.13083333 -10.520833

113.77 2 90.33333333 23.4366667

126.24 2 90.33333333 35.9066667

71.87 3 94.53583333 -22.665833

87.53 3 94.53583333 -7.0058333

Após apresentado como obter os valores dos resíduos, proce-


de-se a realização do teste estatístico, de tal forma que se tem:

∑ (e − e )
2
t t −1 =
t =2

( −10.521 − −19.151) + ( 23.437 − −10.521) + ( 35.907 − 23.437 )


2 2 2

+ ( −22.666 − 35.907 ) + ( −7.006 − −22.666 ) = 5059.15


2 2

∑ (e )
2
t =
t =1

( −19.151) + ( −10.521) + ( 23.437 ) + ( 35.907 )


2 2 2 2

+ ( −22.666 ) + ( −7.006 ) =2878.88


2 2

d = 1.7573

Os valores de d variam sempre de 0 a 4, sendo que valores


substancialmente menores que 2 evidenciam uma correlação positi-
va, e valores maiores que 2 indicam correlação negativa. Os valores
abaixo de 1 podem servir de alarme. O valor de d encontrado pode
ser confrontado com valores tabelados para verificar sua significância.

45
estatística experimental no rbio

Para o nosso exemplo, o valor de d encontrado foi não significativo e,


portanto, não se rejeita a hipótese de correlação = 0 para os resíduos,
indicando que os erros são independentes, uma vez que não existe
correlação entre eles.

c) Pressuposição iii: Homogeneidade de variância

Para testar a homogeneidade de variância (pressuposição iii),


diferentes procedimentos podem ser utilizados. Um deles é o teste de
Bartlett. Este teste é sensível em relação a hipótese de normalidade.
Com isso, se rejeitarmos a hipótese de normalidade dos dados, é mais
indicada a utilização de outro teste, como o proposto por Levene.
Para o cálculo da estatística de Bartlett deve-se utilizar as expressões
a seguir, em que N corresponde ao número total de observações, k ao
número de tratamentos e n o número de repetições

(y )
2
ni
ij − yi.
si2 = ∑
j =1 ni − 1

1 k
=sP2 ∑ ( ni − 1) si2
N − k i =1

k
( N − k ) *ln( s ) − ∑[( ni − 1) *ln si2 ]
q= 2
P ( )
i =1

1  k 1 1 
1+
c= ∑ − 
3 ( k − 1)  i =1 ni − 1 N − k 

46
estatística experimental no rbio

então

q
B0 =
c

sendo que
H0 é a igualdade das variâncias e B0 tem distribuição assintótica
de qui-quadrado com k-1 graus de liberdade. Portanto, se B0 > χ2(alfa; k-1),
rejeita-se H0.
Para o conjunto de dados apresentados na Tabela 3.1, o cálculo
do teste de Bartlett é:

( 66.98 − 71.295) ( 75.61 − 71.295)


2 2
2
s1 = + = 37.23845
2 −1 2 −1

(113.77 − 120.005) (126.24 − 120.005)


2 2
2
s2 = + = 77.75045
2 −1 2 −1

( 71.87 − 79.7 ) (87.53 − 79.7 )


2 2
2
s3 = + = 122.6178
2 −1 2 −1

1  ( 2 − 1) *37.23845 + ( 2 − 1) *77.75045



sP2 =   79.20223
6 − 3 + ( 2 − 1) *122.6178 
  

 ( 2 − 1) *ln ( 37.23845 )  


 
q = ( 6 − 3) *ln ( 79.20223) − + ( 2 − 1) *ln ( 77.75045 )   = 0.336095
 
+ ( 2 − 1) *ln (122.6178 )  

47
estatística experimental no rbio

1  1 1 1  1 
1+
c=  + + − 1.4444
=
3 ( 3 − 1)  2 − 1 2 − 1 2 − 1  6 − 3 

0.336095
=B0 = 0.23268
1.4444

Para o referido exemplo, = 5.99 (ANEXO 3.3), e sendo


B0 < χ , então não se rejeita a hipótese de nulidade, de forma que as
2

variâncias podem ser consideradas homogêneas.

d) Pressuposição iv: Normalidade dos erros

A pressuposição iv refere-se à normalidade dos erros, sendo


que quando os dados apresentam normalidade é esperado que os er-
ros também sejam normalmente distribuídos. Caso tal pressuposição
seja violada, o pesquisador deverá avaliar a possibilidade de transfor-
mação dos dados. Segundo Pimentel-Gomes (2000), os testes mais
frequentemente usados (t e F) não se alteram muito se a distribuição
for apenas aproximadamente normal, ou mesmo que a distribuição se
afaste bastante da normalidade. Esse autor salienta ainda que a nor-
malidade dos erros jamais é verificada nos experimentos, pois como
primeira condição deveria haver possibilidade de observações de -α
até +α, o que não ocorre, mas é razoável que haja uma aproximação,
principalmente quando existe repetição para todos os tratamentos.
Existem diferentes métodos para avaliar a normalidade. Po-
de-se realizar análises de simetria e curtose, verificando-se o quanto
a distribuição afasta-se da simetria e o grau de achatamento da dis-
tribuição, respectivamente. Alternativamente, pode-se utilizar testes
estatísticos, como Lilliefors, Kolmogorov-Smirnov e Shapiro-Wilk.

48
estatística experimental no rbio

Simetria

Para o cálculo da simetria, utiliza-se a expressão a seguir, em


que n é o tamanho da amostra, e s o desvio padrão dos dados:

3
1  Xi − X 
Simetria= ∑ 
n  s 

Em termos gráficos tem-se que os tipos possíveis de simetria


são apresentados na Figura 3.1.

Figura 3.1. Diferentes distribuições considerando os tipos de possíveis graus de simetria.

Para o conjunto de dados apresentados na Tabela 3.1, o cálculo


da simetria é:

 66.98 − 90.3333 3  75.61 − 90.3333 3 


  +  
 24.28775   24.28775  
 3
1   113.77 − 90.3333   126.24 − 90.3333  
3

Simetria = +  +  = 0.4295
6  24.28775   24.28775  
 3 3 
 +  71.87 − 90.3333  +  87.53 − 90.3333  
   
24.28775   24.28775  

49
estatística experimental no rbio

A hipótese H0 é de que os dados tenham distribuição simétri-


ca, portanto simetria = 0; este valor é testado via teste t, que usando
softwares encontra-se o valor de 0.4295 com p-value =1.31; como
p-value é >0.05, não se rejeita a Hipótese H0, logo os dados são con-
siderados simétricos.

Curtose

Para o cálculo da curtose, utiliza-se a expressão a seguir, em


que n é o tamanho da amostra, e s o desvio padrão dos dados:

4
1  Xi − X 
Curtose =∑  −3
n  s 

Em termos gráficos tem-se que os tipos possíveis de curtose


são apresentados na Figura 3.2.

Figura 3.2. Diferentes distribuições considerando os tipos de curtose existentes.

Para o conjunto de dados apresentados na Tabela 3.1 o cálculo


da curtose é:

50
estatística experimental no rbio

 66.98 − 90.3333 4  75.61 − 90.3333  4 


  +  
 24.28775   24.28775  
1   113.77 − 90.3333   126.24 − 90.3333  
4 4

Curtose = +   +  − 3 =−1.8386
6  24.28775   24.28775  
 4 4 
 +  71.87 − 90.3333  +  87.53 − 90.3333  
   
24.28775   24.28775  

A hipótese H0 é de que os dados tenham distribuição mesocúr-


tica, portanto curtose = 0. Este valor encontrado é testado via teste t,
que pelo uso de softwares encontra-se o valor de -0.9193 com p-value
=0.40; como p-value é >0.05, não se rejeita a Hipótese H0 e, portanto,
os dados são considerados normais.

Teste de Lilliefors e Kolmogorov-Smirnov

Os testes Lilliefors e Kolmogorov-Smirnov são semelhantes na


forma de obter seus valores, sendo que o Lilliefors infere se os dados
têm distribuição normal com média e variância amostral, enquanto o
Kolmogorov-Smirnov se tem média e variância populacional. A hipótese
H0 é de que os dados seguem distribuição normal. Estes testes devem
ser usados quando o tamanho da amostra for superior a 30. No caso
de amostras menores do que 30 sugere-se o uso do teste Shapiro-Wilk.
É importante deixar claro que é necessário obter os valores
dos resíduos dos dados (Tabela 3.5), uma vez que a normalidade a ser
verificada é em relação aos resíduos. Para a obtenção considerando o
conjunto de dados e considerando que o delineamento é o de blocos
ao acaso tem-se:

eij = X ij − X i. − X . j + X ..

51
estatística experimental no rbio

Em que:
X . j : Média da repetição j em que a observação pertence
X .. : Média Geral da variável

Tabela 3.5. Resultado com os resíduos considerando os dados apresentados na


Tabela 3.1 e delineamento em blocos ao acaso.
Observação Valores observados (X) Resíduo: eij = X ij − X i. − X . j + X ..
1 66.98 66.98 - 71.295 - 84.206 + 90.333 = 1.811
2 75.61 75.61 - 71.295 - 96.46 + 90.333 = -1.811
3 113.77 113.77 - 120 - 84.206 + 90.333 = -0.108
4 126.24 126.24 - 120-96.46 + 90.333 = 0.108
5 71.87 71.87 - 79.7 - 84.206 + 90.333 = -1.703
6 87.53 87.53 - 79.7 - 96.46 + 90.333 = 1.703

O teste realiza o cálculo de todos os zi, os quais devem ser


ordenados para as seguintes considerações.
Assim, são obtidos a partir de xi os dados transformados zi:

Xi − µ
zi = , em que:
σ

zi = valor da variável normal padronizada da classe i;


Xi = valor máximo da classe i;
µ = média da população que se pressupõe ter proporcionado
a amostra de dados;
σ desvio padrão da população.

Utilizando-se a tabela de distribuição normal reduzida, é possí-


vel determinar as probabilidades correspondentes a cada zi:
F(zi) = FEi = P ( −∞ ≤ Z ≤ zi ) = valor da tabela de distribuição
normal reduzida (área);
S(zi) = FOi = ni/n

52
estatística experimental no rbio

em que:
ni = número de valores observados em ordem crescente ≤ zi;
n = número total de observações da amostra.
D = máximo |F(zi) - S(zi)|.
O teste é bilateral, como segue:
H0: é razoável estudar os dados através da distribuição normal;
Ha: não é razoável estudar os dados através da distribuição normal.

Rejeita-se a hipótese de nulidade quando o valor de Dcal ≥ Dtab,


a um nível α de probabilidade com n observações, caso contrário não se
rejeita H0. Deve-se lembrar, porém, que a não rejeição de H0 indica ape-
nas que esta é uma razoável aproximação da distribuição desconhecida.
De forma resumida, a estatística do teste é a apresentada na
Tabela 3.6.

Tabela 3.6. Estatística do teste Kolmogorov-Smirnov e Lilliefors.

 x −x
x
(ordenados)
Fn ( x ) F
= ( x ) P  z( i ) ≤ ( i ) 
s 
( ) ( )
F x( i ) − Fn x( i ) ( ) (
F x( i ) − Fn x( i −1) )

1  x −x
x(1)
n
F
= ( x ) P  z(1) ≤ (1) 
s 
( )
F x(1) − Fn x(1) ( ) ( )
F x(1) − 0

 x −x
x( 2) 2
n
F
= ( x ) P  z( 2) ≤ ( 2) 
s 
( )
F x( 2) − Fn x( 2)( ) ( )
F x( 2) − Fn x(1) ( )

... ... ... ... ...

 x( n−1) − x 
x( n−1) n −1
n
F ( x ) P  z( n−1) ≤
=

 s


( ) (
F x( n−1) − Fn x( n−1) ) ( ) (
F x( n−1) − Fn x( n− 2) )
 x( n ) − x 
x( n ) 1 F ( x ) P  z( n ) ≤
=
 s 
 ( ) ( )
F x( n ) − Fn x( n ) ( ) (
F x( n ) − Fn x( n −1) )

53
estatística experimental no rbio

 xi −x 
O valor de P  z( ) ≤ ( ) s  é encontrado na tabela da distribuição
i
 
normal padrão (ANEXOS 3.4 e 3.5).
Por exemplo, considerando os dados da Tabela 3.5, cujo desvio
padrão (s) dos resíduos é = 1.574194, e a primeira linha da Tabela 3.7
abaixo, tem-se que:

−1.811 − 0 
( x ) P  z(1) ≤
F=

=
1.57 
(
 P z(1) ≤ −1.153 )
= 0.1246

Considerando que o valor da estatística é negativo (-1.153), por


meio da Tabela disponível no ANEXO 3.5 obtém-se o valor de 0,1246.
A Tabela 3.7 apresenta os cálculos do teste para o conjunto de dados
contidos na Tabela 3.1. Caso o valor fosse positivo usava-se o ANEXO 3.4.
Com isso, o Dn máximo (0.1937; 0.1937 =0.1937). Consideran-
do a Tabela de D (ANEXO 3.6), com alfa = 0.05 e n = 6, tem-se que
encontramos pela tabela valores críticos de 0.5193.
Como D=0.1937 <0.5193, não temos evidência para rejeitar a
hipótese de normalidade, portanto os dados podem ser considerados
com distribuição normal pelo teste Lilliefors.

54
estatística experimental no rbio

Tabela 3.7. Estatística do teste Kolmogorov-Smirnov e Lilliefors considerando os


resíduos apresentados na Tabela 3.5.

 x −x
x (ordenados) Fn ( x ) F
= ( x ) P  z( i ) ≤ ( i ) 
s 
( ) ( )
F x( i ) − Fn x( i ) ( ) (
F x( i ) − Fn x( i −1) )

1  −1.811 − 0 
-1.811 = 0.1667 F ( x) =
P  z(1) ≤ =0.1246 0.1246 − 0.1667 =
0.0419 0.1246 − 0 =
0.1246
6  1.57 

2  −1.703 − 0 
-1.703 = 0.3333 F ( x) =
P  z( 2) ≤ =0.1393 0.1393 − 0.3333 =
0.1937 0.1393 − 0.1667 =
0.0272
6  1.57 

3  −0.108 − 0 
-0.108 = 0.5 F ( x) =
P  z( 3) ≤ =0.4999 0.4999 − 0.5 =
0.0001 0.4999 − 0.3333 =
0.1666
6  1.57 

4  0.108 − 0 
0.108 = 0.6667 F ( x) =
P  z( 4) ≤ =0.50 0.50 − 0.6667 =
0.1666 0.50 − 0.5 =
0.0
6  1.57 

5  1.703 − 0 
1.703 = 0.8333 F ( x) =
P  z( 5) ≤ =0.8606 0.8606 − 0.8333 =
0.0272 0.8606 − 0.6667 =
0.1937
6  1.57 

6  1.811 − 0 
1.811 =1 F ( x) =
P  z( 6) ≤ =0.8753 0.8753 − 1 =0.1246 0.8753 − 0.8333 =
0.0419
6  1.57 

Máximo 0.1937 0.1937

Teste de Shapiro-Wilk

O teste Shapiro-Wilk, proposto em 1965, é baseada na estatís-


tica W, a qual é dada por:

b2
W=
( x( ) − x )
2

n
i =1 i

Em que x(i) são os valores da amostra ordenados (x (1) é o menor).


A constante b é determinada da seguinte forma:

55
estatística experimental no rbio

 n2

 ∑ ( )
a( n −i +1) x x( n −i +1)− x( i ) se n é par
b= i = 1

( n +1) /2
( )
 ∑ a( n −i +1) x x( n −i +1)− x( i ) se n é ímpar
 i =1

em que a(n-i+1) são constantes geradas pelas médias, variâncias


e covariâncias das estatísticas de ordem de uma amostra de tamanho
n de uma distribuição normal. Seus valores, tabelados, são dados no
ANEXO 3.7. A hipótese H0 é de que os dados provêm de uma distribui-
ção normal. Como mencionado anteriormente, o teste Shapiro-Wilk é
indicado quando o tamanho amostral é inferior a 30.
De forma simplificada, para calcular a estatística do teste, de-
ve-se ordenar os valores dos resíduos da amostra, calcular b, calcular
W e tomar a decisão sendo que se W calculado for < que W tabelado
(ANEXO 3.8), rejeita-se H0 ao nível α de significância. Este teste é nor-
malmente aplicado quando n <30.
O teste realizado com base no conjunto de resíduos apresenta-
dos na Tabela 3.5 é apresentado a seguir na Tabela 3.8:

∑ ( x( ) − x ) = ( −1.811 − 0 ) + ( −1.703 − 0 ) + ( −0.108 − 0 )


n 2 2 2 2
i
i =1

+ ( 0.108 − 0 ) + (1.703 − 0 ) + (1.811 − 0 ) =


2 2 2
12.3904

56
estatística experimental no rbio

Tabela 3.8. Estatística do teste Shapiro-Wilk considerando os resíduos (xi)


apresentados na Tabela 3.5.
x (ordenados) i xi n-i+1 x(n-i+1) a(n-i+1) tabelado (i\n) a(n-i+1) x (x(n-i+1) - xi)

-1.8116 1 -1.8116 6 1.8116 0.6431 2.33016

-1.7033 2 -1.7033 5 1.7033 0.2806 0.95591

-0.1083 3 -0.1083 4 0.1083 0.0875 0.01895

0.1083 Soma (b) 3.3050

1.7033

1.8116

3.30502
=W = 0.8816
12.3904

Sendo assim a decisão é, como W calculado=0.8816> W (0.05;6) =


0,788 (ANEXO 3.8), então pode-se afirmar com nível de significância de
5% que a amostra provém de uma população normal.
Alternativamente, pode-se utilizar opções gráficas para analisar
os pressupostos da análise de variância, via análise dos resíduos.
O resíduo pode ser obtido pela expressão para delineamentos
inteiramente casualizado:

e=
ij X ij − X i.

Em que:
eij : resíduo da observação ij do tratamento i na repetição j
X ij : Valor observado pela variável no tratamento i na repetição j
X i. : Média do tratamento i em que a observação pertence

O resíduo padronizado é obtido dividindo o resíduo pela raiz


quadrada do QMR ( QMR ) A expressão acima é válida para o expe-
rimento em delineamento inteiramente ao acaso, caso o experimento
seja em blocos ao acaso deve-se usar:

57
estatística experimental no rbio

eij = X ij − X i. − X . j + X ..

Em que:
X . j : Média da repetição j em que a observação pertence
X .. : Média Geral da variável
Uma opção gráfica importante é o diagrama de dispersão do re-
síduo versus valor predito. Com base nesse valor pode-se inferir sobre:

• Heterocedasticidade de ɛi
• Detectar prováveis dados atípicos

Em um modelo bem ajustado os resíduos são dispersos aleatoria-


mente, em torno de zero, com variância constante, concentrados entre -2
e 2 (desejado 95% dentro deste intervalo), e com poucos pontos acima
de 3 ou abaixo de -3. Resíduos fora do intervalo -3 a 3 pode ser conside-
rado dado discrepante. Nesse sentido é importante verificar a planilha de
dados se é um erro de digitação, ou se realmente é um evento típico já
observado pelo pesquisador. Só após isso devem ser descartados.
Diferentes possibilidades de dispersão de resíduos são apre-
sentadas na Figura 3.3.

58
estatística experimental no rbio

(a)

(b)

59
estatística experimental no rbio

(c)

(d)

Figura 3.3. Dispersão gráfica dos resíduos e valores preditos em diferentes cenários.

60
estatística experimental no rbio

Conforme Figura 3.3 as figuras são diferenciadas por letras,


portanto será:

a. Figura com a presença de alguns resíduos extremos, além


do intervalo -3 a 3.
b. Distribuição dos resíduos indicando boa qualidade de ajuste
c. Resíduos com distribuição assimétrica, pode-se notar que
os pontos estão na sua grande maioria entre -1 a 1. Não
existem pontos abaixo de -1.5, porém existe muitos pontos
acima de 1.5
d. Resíduos sem variância constante portanto heterocedásticos

Considerando o conjunto de dados da Tabela 3.1, e para um de-


lineamento em DIC, pode-se obter os valores de resíduos, bem como
os valores preditos. Nesse caso os valores preditos são exatamente os
valores da média, esses dados estão apresentados na Tabela 3.9.

Tabela 3.9. Resultado com os resíduos e os valores preditos considerando os dados


apresentados na Tabela 3.1.
Resíduo: Valores preditos (Xp)
Observação Valores observados (X)
e=
ij X ij − X i. X=
p X ij + eij

1 66.98 66.98 - 71.29 = -4.315 71.29

2 75.61 75.61 - 71.29 = 4.315 71.29

3 113.77 113.77 - 120 = -6.235 120

4 126.24 126.24 - 120 = 6.235 120

5 71.87 71.87 - 79.7 = -7.83 79.7

6 87.53 87.53 - 79.7 = 7.83 79.7

O Gráfico 3.2 representa os valores dos resíduos com os valores


preditos considerando o exemplo:

61
estatística experimental no rbio

Gráfico 3.2. Dispersão gráfica dos valores dos resíduos preditos e preditos com
base nos dados da Tabela 3.1 e delineamento inteiramente ao acaso.

Como são poucos dados experimentais, não se espera um bom


ajuste. Verifica-se pontos além de -3 e 3 que são indicativos de pontos
discrepantes. Vale salientar que o objetivo aqui é apenas para fins
didáticos, de cálculo e interpretação.
Para avaliação da normalidade uma opção é o uso do gráfico
QQplot. Para realizar este gráfico deve-se seguir os seguintes passos:

1. Ordenar em ordem crescente os dados


2. Estabelecer o nível de probabilidade de ocorrência de cada
1
j−
observação (j) pela expressão 2 em que n é o número
n
total de observações
3. Estimar o valor de Z da distribuição normal padronizada.
Por exemplo para o primeiro valor do exemplo abaixo, por-
1
j−
tanto j= 1, tem-se 2 = 0.083 : Como isso refere-se a 8.3%
n
da curva de distribuição normal, portanto, abaixo da média,

62
estatística experimental no rbio

que equivale a 50% da distribuição normal. Considerando


os dados da ANEXO 3.5 o valor equivalente a 0.083 é o z de
-1.38. É importante salientar que esse número é negativo
pois encontra-se abaixo do valor de 50%.
4. Traçar um gráfico utilizando no eixo x os valores de Z(j) e no
eixo y os valores de X(j). Se a distribuição for normal haverá
a tendência de formar uma linha reta no gráfico.
5. Estimar a correlação entre Z(j) e X(j) de forma a superar
a superficialidade na interpretação gráfica. Essa mede o
grau de ajustamento dos pontos a reta imaginária. Quanto
mais próximo de 1 maior o ajustamento e maior tendência
a normal.

Considerando o conjunto de dados apresentados na Tabela 3.1,


o cálculo para obtenção do QQplot é apresentado na tabela 3.10.

Tabela 3.10. Cálculos necessários para a obtenção do QQplot considerando os


dados apresentados na Tabela 3.1.
1
j−
j x (ordenados) 2 Z(j)
n

1
1−
1 66.98 2 = 0.083 -1.38
6

1
2−
2 71.87 2 = 0.25 -0.675
6

1
3−
3 75.61 2 = 0.416 -0.21
6

1
4−
4 87.53 2 = 0.583 0.21
6

63
estatística experimental no rbio

1
j−
j x (ordenados) 2 Z(j)
n

1
5−
5 113.77 2 = 0.75 0.675
6

1
6−
6 126.24 2 = 0.916 1.38
6

O Gráfico 3.3 representa o resultado do exemplo anterior

Gráfico 3.3. Quantil-qualtin (Q-Q) plot considerando o exemplo com base nos
dados da Tabela 3.1.

A correlação entre os valores de X(j) e Z(j) é de 0.945. Consi-


derando o valor te t tabelado, a n-2 graus de liberdade, tem-se valor
tabelado de t tabelado igual a 0.917. Como correlação calculada é
maior do que valor tabelado portanto aceita-se a hipótese de que os
dados da variável simulada seguem distribuição normal.

64
estatística experimental no rbio

Um terceiro gráfico útil é aquele obtido entre os resíduos pa-


dronizados no eixo y com os valores das observações no eixo x. Esse
gráfico é similar ao que foi apresentado aqui com resíduo vs predito.
Mas isso só acontece nesse caso uma vez que se trata de um experi-
mento em dic. Caso fosse outro delineamento, o predito seria diferente
da média, portanto seria um outro gráfico útil. Nesse caso se procede
a interpretação da mesma forma. Valores de resíduos além de -3 ou 3
evidenciam dados discrepantes que devem ser observados pelo pes-
quisador. Como aqui é o resíduo e o valor observado que são plotados,
o pesquisador consegue identificar diretamente o ponto discrepantes.
Normalmente quando os dados não possuem distribuição nor-
mal e/ou homogeneidade de variância, procede-se à transformação
dos dados. Porém, ao utilizar uma transformação de dados, todas as
comparações de médias entre os tratamentos deverão ser realizadas
na escala de transformação escolhida.
Nos exemplos realizados acima, a transformação dos dados não
seria necessária, uma vez que eles atenderam às pressuposições da
ANOVA. Caso fosse necessário, existem diferentes formas de escolher
a transformação dos dados a serem utilizadas. Uma delas é a utilização
o coeficiente de variação (o que será discutido no próximo capítulo).
Quando o valor do CV dos dados transformados for menor do que o
dos dados originais, a transformação foi válida. Se calcularmos o CV do
conjunto de dados da Tabela 3.1, tem-se o valor 26.886. Ao aplicar a
transformação log o valor obtido é de 5.78, e ao usar a transformação
de raiz quadrada tem-se o valor de 13.23 (Tabela 3.11). Portanto, se
fosse necessário realizar a transformação, haverá indícios de que a
utilização da log poderia ser eficiente.

65
estatística experimental no rbio

Tabela 3.11. Utilização do coeficiente de variação (CV) de forma a auxiliar na


transformação de dados, considerando os dados da Tabela 3.1.
Dados originais Log (dados) Raiz (dados)

66.98 1.825945143 8.184130986

71.87 1.856547645 8.47761759

75.61 1.878579238 8.695401083

87.53 1.942156928 9.355746897

113.77 2.056027758 10.66630208

126.24 2.101196986 11.23565752

CV= 26.88680872 CV= 5.781744502 CV= 13.23087198

Uma outra maneira de auxiliar a transformação dos dados é


obter a amplitude entre maior e menor valor observado para cada
tratamento, depois fazer a razão entre amplitude máxima e mínima
conforme Tabela 3.12.

Tabela 3.12. Razão entre maior e menor amplitude de médias de forma a auxiliar
na transformação de dados, considerando os dados da Tabela 3.1.
Tratamentos Log (dados) Raiz (dados)

Maior Menor Amplitude Maior Menor Amplitude

1 1.878579238 1.825945143 0.052634095 8.695401 8.184131 0.51127

2 2.101196986 2.056027758 0.045169228 11.23566 10.6663 0.569355

3 1.942156928 1.856547645 0.085609284 9.355747 8.477618 0.878129

Máximo 0.085609284 0.878129

Mínimo 0.045169228 0.51127

Razão 1.895301023 1.717545

Deve-se escolher aquele que fornece a menor razão, portan-


to, aparentemente a raiz seria a transformação a ser usada. Pode-se
observar que usando estes diferentes critérios, cada hora foi sugerida
uma transformação. Uma revisão de literatura acerca da característica
a ser transformada pode auxiliar nessa decisão.

66
estatística experimental no rbio

A transformação de raiz quadrada é própria para certos tipos de


dados em que a média é aproximadamente igual a variância, ou seja,
dados oriundos de uma distribuição de Poisson (tipo de distribuição
em que os dados apresentam uma probabilidade baixa de ocorrência
nos indivíduos).
Tais tipos de dados acontecem quando as variáveis são oriun-
das de contagem, como número de carrapatos por animal ou parcela.
Os dados oriundos de escala de notas também devem ser transfor-
mados através da raiz quadrada. Também os dados de porcentagens,
referentes às contagens, quando variam de 0 a 20% ou de 80 a 100%,
podem ser transformados através da raiz quadrada. Neste caso, as
porcentagens entre 80 e 100% devem ser, de preferência, subtraídas
de 100, antes de se fazer à transformação. A transformação da raiz
quadrada é, ainda, indicada no caso de porcentagens, fora dos limites
acima considerados, quando as observações estão claramente numa
escala contínua. Neste caso tem-se: x Quando nesse tipo de trans-
formação os dados variam de 0 a 10, trabalha-se com x + 0.5 x + 1
pois evita-se o problema dos valores de x iguais a zero.
A transformação logarítmica é usada quando os dados têm des-
vios padrão proporcionais às médias, ou seja, todas amostras apresen-
tam o mesmo coeficiente de variação. Também são aplicadas quando
os efeitos são multiplicativos em vez de aditivos. Essa transformação
é satisfatória quando os dados referem à contagem de bactérias, de
esporos, de ovos de insetos. É ainda utilizada quando os dados são
apresentados por porcentagens e abrangem uma grande amplitude
de variação, resolvendo tanto o problema da heterogeneidade de
variância quanto de falta de aditividade do modelo. Quando a amostra
possui dados iguais a zero ou perto de zero usa-se log(x+1), evitando
utilização de números negativos na análise. Deve ainda ressaltar que
esta transformação é utilizada quando as variâncias de cada amostra
possuem no mínimo 12 observações.

67
estatística experimental no rbio

A transformação arco seno ou angular é própria para dados em


que a média é proporcional a variância, ou seja, dados oriundos de
distribuição binomial. Observa-se este tipo de dados quando as vari-
áveis são oriundas de proporção como porcentagem de germinação
de sementes, porcentagem de mortalidade de plantas. A porcentagem
a ser aplicada é arco seno x ( % ) Se todos os dados estiverem entre
30 e 70% não precisa utilizar a transformação. Caso o número de
observações seja menor que 50 (N<50), a proporção 0% deverá ser
substituída por ¼ N e a proporção 100% por 100-¼ N, antes de realizar
a transformação.

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
No menu ANOVA > Pressuposições podem ser processadas
as análises para pressuposições da análise de variância, conforme na
Figura 3.4.

68
estatística experimental no rbio

Figura 3.4. Software Rbio, e rotina de procedimentos para realizar análise de


pressuposições de análise de variância.

69
estatística experimental no rbio

Os scripts usados pelo software, e as saídas fornecidas por ele,


via processamento no software R são apresentados a seguir.

# -----------------------------------
# Script 2: Pressuposições da ANOVA
# -----------------------------------
# ----------------------
# 2.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X
Trat Rep Variavel
1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53
# ----------------------
# 2.2- Anova DBC
# ----------------------
Trat<-as.factor(X[,1])
Rep<-as.factor(X[,2])
Modelo<-aov(X[,3]~Rep+Trat)
anova<-anova(Modelo)
anova
Analysis of Variance Table
Response: X[, 3]
Df Sum Sq Mean Sq F value Pr(>F)
Rep 1 225.22 225.22 36.353 0.026422 *
Trat 2 2711.87 1355.93 218.868 0.004548 **
Residuals 2 12.39 6.20
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
# ----------------------
# 2.3- Teste de não aditividade
# ----------------------
#install.packages(“agricolae”)
library(agricolae)
df<-df.residual(Modelo)
MSerror<-deviance(Modelo)/df
nonadditivity(X[,3], Trat, Rep, df, MSerror)
Tukey’s test of nonadditivity
Analysis of Variance Table
Response: residual
Df Sum Sq Mean Sq F value Pr(>F)
Nonadditivity 1 0.5663 0.5663 0.0479 0.8628
Residuals 1 11.8242 11.8242

# ----------------------
# 2.4- Independência dos erros
# ----------------------
Y<-X[,3]
regressao<-lm(Y~X[,1])
print(summary(regressao))

70
estatística experimental no rbio

Call:
lm(formula = Y ~ X[, 1])
Residuals:
1 2 3 4 5 6
-19.151 -10.521 23.437 35.907 -22.666 -7.006
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 81.928 28.977 2.827 0.0475 *
X[, 1] 4.202 13.414 0.313 0.7697
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 26.83 on 4 degrees of freedom
Multiple R-squared: 0.02395,Adjusted R-squared: -0.2201
F-statistic: 0.09816 on 1 and 4 DF, p-value: 0.7697
AnalRes <- aov(Y ~ X[,1])
AnalRes
Call:
aov(formula = Y ~ X[, 1])
Terms:
X[, 1] Residuals
Sum of Squares 70.644 2878.830
Deg. of Freedom 1 4
Residual standard error: 26.82737
Estimated effects may be unbalanced
par(mfrow=c(2,2))
plot(AnalRes)

#install.packages(“car”)
library(car)
durbinWatsonTest(lm(Y~X[,1]))
lag Autocorrelation D-W Statistic p-value
1 0.04911042 1.757333 0.348
Alternative hypothesis: rho != 0

71
estatística experimental no rbio

# ----------------------
# 2.5- Homogeneidade de Variância
# ----------------------
cat(“\n”, “Teste de Homogeneidade de variancias de Bartlett”,”\n”)
Teste de Homogeneidade de variancias de Bartlett
testeH<- bartlett.test(X[,3]~Trat, data = X)
print(testeH)
Bartlett test of homogeneity of variances
data: X[, 3] by Trat
Bartlett’s K-squared = 0.23268, df = 2, p-value =
cat(“\n”, “Teste de Homogeneidade de variancias de Bartlett”,”\n”)
Teste de Homogeneidade de variancias de Bartlett
testeH<- bartlett.test(X[,3]~Trat, data = X)
print(testeH)
Bartlett test of homogeneity of variances
data: X[, 3] by Trat
Bartlett’s K-squared = 0.23268, df = 2, p-value =
0.8902
# ----------------------
# 2.6- Normalidade dos erros
# ----------------------
# 2.6.1- Simetria
# ----------------------
#install.packages(“e1071”)
require(e1071)
dados<-X[,3]
skewness(dados,type=3)
[1] 0.429522
# ----------------------
# 2.6.2- Curtose
# ----------------------
kurtosis(dados,type=3)
[1] -1.838679
# ----------------------
# 2.6.3- Teste Lilliefors
# ----------------------
#install.packages(“nortest”)
library(nortest)
resid<-residuals(Modelo)
# Testes
# Lilliefors
t2 <- lillie.test(resid) # Lilliefors
t2
Lilliefors (Kolmogorov-Smirnov) normality test
data: resid
D = 0.19371, p-value = 0.6842
# ----------------------
# 2.6.4- Teste Shapiro-Wilks
# ----------------------
#Shapiro-Wilks
t3 <- shapiro.test(resid) # Shapiro-Wilk
t3
Shapiro-Wilk normality test
data: resid
W = 0.88163, p-value = 0.2766

72
estatística experimental no rbio

Resumidamente, pode-se constatar pelas saídas apresentadas


anteriormente:
O teste F para não aditividade é dado por QMNA / QMRNA, e no
exemplo é dado por: F=0.5663/11.8242=0.0479, associado a 1 GL no
numerador e 1 GL no denominador e p-value de 0.8628 que é maior
que 0.05, portanto, não se rejeita a hipótese H0 de que os efeitos do
modelo são aditivos, não violando a pressuposição i.
O teste Durbin Watson para independência dos erros tem p-value
de 0.39. A hipótese H0 é que a correlação é igual a 0, e a hipótese alter-
nativa é que a correlação dos resíduos é diferente a 0. Como o p-value é
maior que 0.05, então não se rejeita H0, portanto, não existe correlação
entre os erros, sendo assim, independentes (pressuposição ii).
O teste de Bartlett para homogeneidade de variância teve
p-value calculado de 0.8902, portanto, maior que 0.05, não rejeitando
a hipótese H0 de variâncias homogêneas, então as variâncias são ho-
mogêneas (pressuposição iii).
Para avaliar a normalidade quatro estatísticas foram realizadas.
O teste de Lilliefors, indica que os dados têm distribuição normal
(p-value=0.6842>0.05). Para o teste de Shapiro Wilk, verifica-se que
o valor obtido foi de 0.88163 associado a uma probabilidade de
p-value=0.2766, ou seja, maior do que 0.05, portanto não se rejeita
a hipótese de normalidade dos dados, sendo os dados considerados
normais. Os valores de simetria e curtose são testados se estes são
iguais a zero como os p-value obtidos para ambos são maiores do que
0.05 indicam que não deve rejeitar a hipótese que eles são iguais a 0.

73
estatística experimental no rbio

ANEXO 3.1. Tabela da Distribuição F ao nível de 5% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 161.45 199.5 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85
12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6
15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3
23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25
25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2
28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08

74
estatística experimental no rbio

ANEXO 3.2. Tabela da Distribuição F ao nível de 1% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 4052.2 4999.3 5403.5 5624.2 5763.9 5858.9 5928.3 5980.9 6022.4 6055.9
2 98.5 99 99.16 99.25 99.3 99.33 99.36 99.38 99.39 99.4
3 34.12 30.82 29.46 28.71 28.24 27.91 27.67 27.49 27.34 27.23
4 21.2 18 16.69 15.98 15.52 15.21 14.98 14.8 14.66 14.55
5 16.26 13.27 12.06 11.39 10.97 10.67 10.46 10.29 10.16 10.05
6 13.75 10.92 9.78 9.15 8.75 8.47 8.26 8.1 7.98 7.87
7 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.72 6.62
8 11.26 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.91 5.81
9 10.56 8.02 6.99 6.42 6.06 5.8 5.61 5.47 5.35 5.26
10 10.04 7.56 6.55 5.99 5.64 5.39 5.2 5.06 4.94 4.85
11 9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.63 4.54
12 9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.5 4.39 4.3
13 9.07 6.7 5.74 5.21 4.86 4.62 4.44 4.3 4.19 4.1
14 8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 4.03 3.94
15 8.68 6.36 5.42 4.89 4.56 4.32 4.14 4 3.89 3.8
16 8.53 6.23 5.29 4.77 4.44 4.2 4.03 3.89 3.78 3.69
17 8.4 6.11 5.19 4.67 4.34 4.1 3.93 3.79 3.68 3.59
18 8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71 3.6 3.51
19 8.18 5.93 5.01 4.5 4.17 3.94 3.77 3.63 3.52 3.43
20 8.1 5.85 4.94 4.43 4.1 3.87 3.7 3.56 3.46 3.37
21 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51 3.4 3.31
22 7.95 5.72 4.82 4.31 3.99 3.76 3.59 3.45 3.35 3.26
23 7.88 5.66 4.76 4.26 3.94 3.71 3.54 3.41 3.3 3.21
24 7.82 5.61 4.72 4.22 3.9 3.67 3.5 3.36 3.26 3.17
25 7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32 3.22 3.13
26 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29 3.18 3.09
27 7.68 5.49 4.6 4.11 3.78 3.56 3.39 3.26 3.15 3.06
28 7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23 3.12 3.03
29 7.6 5.42 4.54 4.04 3.73 3.5 3.33 3.2 3.09 3
30 7.56 5.39 4.51 4.02 3.7 3.47 3.3 3.17 3.07 2.98
35 7.42 5.27 4.4 3.91 3.59 3.37 3.2 3.07 2.96 2.88
40 7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99 2.89 2.8

75
estatística experimental no rbio

ANEXO 3.3. Valores de χ2 para diferentes níveis de probabilidade (α) e v graus de


liberdade.
v 0.5 0.25 0.1 0.05 0.025 0.01 0.005
1 0.455 1.323 2.706 3.841 5.024 6.635 7.879
2 1.386 2.773 4.605 5.991 7.378 9.210 10.597
3 2.366 4.108 6.251 7.815 9.348 11.345 12.838
4 3.357 5.385 7.779 9.488 11.143 13.277 14.860
5 4.351 6.626 9.236 11.070 12.832 15.086 16.750
6 5.348 7.841 10.645 12.592 14.449 16.812 18.548
7 6.346 9.037 12.017 14.067 16.013 18.475 20.278
8 7.344 10.219 13.362 15.507 17.535 20.090 21.955
9 8.343 11.389 14.684 16.919 19.023 21.666 23.589
10 9.342 12.549 15.987 18.307 20.483 23.209 25.188
11 10.341 13.701 17.275 19.675 21.920 24.725 26.757
12 11.340 14.845 18.549 21.026 23.337 26.217 28.300
13 12.340 15.984 19.812 22.362 24.736 27.688 29.819
14 13.339 17.117 21.064 23.685 26.119 29.141 31.319
15 14.339 18.245 22.307 24.996 27.488 30.578 32.801
16 15.338 19.369 23.542 26.296 28.845 32.000 34.267
17 16.338 20.489 24.769 27.587 30.191 33.409 35.718
18 17.338 21.605 25.989 28.869 31.526 34.805 37.156
19 18.338 22.718 27.204 30.144 32.852 36.191 38.582
20 19.337 23.828 28.412 31.410 34.170 37.566 39.997
21 20.337 24.935 29.615 32.671 35.479 38.932 41.401
22 21.337 26.039 30.813 33.924 36.781 40.289 42.796
23 22.337 27.141 32.007 35.172 38.076 41.638 44.181
24 23.337 28.241 33.196 36.415 39.364 42.980 45.558
25 24.337 29.339 34.382 37.652 40.646 44.314 46.928
26 25.336 30.435 35.563 38.885 41.923 45.642 48.290
27 26.336 31.528 36.741 40.113 43.195 46.963 49.645
28 27.336 32.620 37.916 41.337 44.461 48.278 50.994
29 28.336 33.711 39.087 42.557 45.722 49.588 52.335
30 29.336 34.800 40.256 43.773 46.979 50.892 53.672
40 39.335 45.616 51.805 55.758 59.342 63.691 66.766
50 49.335 56.334 63.167 67.505 71.420 76.154 79.490
60 59.335 66.981 74.397 79.082 83.298 88.379 91.952

76
estatística experimental no rbio

v 0.5 0.25 0.1 0.05 0.025 0.01 0.005


70 69.334 77.577 85.527 90.531 95.023 100.425 104.215
80 79.334 88.130 96.578 101.879 106.629 112.329 116.321
90 89.334 98.650 107.565 113.145 118.136 124.116 128.299
100 99.334 109.141 118.498 124.342 129.561 135.807 140.170

ANEXO 3.4: Tabela da Distribuição Normal padrão reduzida (Z~N (0,1)) P(Z<z) e z
positivos.
z 0.0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952

77
estatística experimental no rbio

z 0.0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998
3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.8 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

ANEXO 3.5: Tabela da Distribuição Normal padrão reduzida (Z~N (0,1)) P(Z<z) e z
negativos.
z 0.0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
-0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
-0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
-0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
-0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
-0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
-0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
-0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
-0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
-0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
-1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379
-1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
-1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
-1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
-1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681
-1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559

78
estatística experimental no rbio

z 0.0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
-1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
-1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
-1.8 0.0359 0.0351 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294
-1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233
-2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
-2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
-2.2 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110
-2.3 0.0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
-2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
-2.5 0.0062 0.0060 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
-2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
-2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
-2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
-2.9 0.0019 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
-3.0 0.0013 0.0013 0.0013 0.0012 0.0012 0.0011 0.0011 0.0011 0.0010 0.0010
-3.1 0.0010 0.0009 0.0009 0.0009 0.0008 0.0008 0.0008 0.0008 0.0007 0.0007
-3.2 0.0007 0.0007 0.0006 0.0006 0.0006 0.0006 0.0006 0.0005 0.0005 0.0005
-3.3 0.0005 0.0005 0.0005 0.0004 0.0004 0.0004 0.0004 0.0004 0.0004 0.0003
-3.4 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0002
-3.5 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002
-3.6 0.0002 0.0002 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001
-3.7 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001
-3.8 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001
-3.9 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

ANEXO 3.6: Tabela de valores críticos para a estatística do teste de Lilliefors e


Kolmogorov-Smirnov. considerando nível α de significância (5 e 1%) e tamanho de
amostra n de 1 a 100.
n 5% 1% n 5% 1% n 5% 1% n 5% 1% n 5% 1%

1 0.975 0.995 21 0.2872 0.3443 41 0.2076 0.249 61 0.1709 0.2051 81 0.1487 0.1784

2 0.8419 0.9293 22 0.2809 0.3367 42 0.2052 0.2461 62 0.1696 0.2034 82 0.1478 0.1773

3 0.7076 0.829 23 0.2749 0.3295 43 0.2028 0.2433 63 0.1682 0.2018 83 0.1469 0.1763

4 0.6239 0.7342 24 0.2693 0.3229 44 0.2006 0.2406 64 0.1669 0.2003 84 0.146 0.1752

5 0.5633 0.6685 25 0.264 0.3166 45 0.1984 0.238 65 0.1657 0.1988 85 0.1452 0.1742

79
estatística experimental no rbio

n 5% 1% n 5% 1% n 5% 1% n 5% 1% n 5% 1%

6 0.5193 0.6166 26 0.2591 0.3106 46 0.1963 0.2354 66 0.1644 0.1973 86 0.1444 0.1732

7 0.4834 0.5758 27 0.2544 0.305 47 0.1942 0.233 67 0.1632 0.1958 87 0.1435 0.1722

8 0.4543 0.5418 28 0.2499 0.2997 48 0.1922 0.2306 68 0.162 0.1944 88 0.1427 0.1713

9 0.43 0.5133 29 0.2457 0.2947 49 0.1903 0.2283 69 0.1609 0.193 89 0.1419 0.1703

10 0.4092 0.4889 30 0.2417 0.2899 50 0.1884 0.226 70 0.1597 0.1917 90 0.1412 0.1694

11 0.3912 0.4677 31 0.2379 0.2853 51 0.1866 0.2239 71 0.1586 0.1903 91 0.1404 0.1685

12 0.3754 0.449 32 0.2342 0.2809 52 0.1848 0.2217 72 0.1576 0.189 92 0.1396 0.1676

13 0.3614 0.4325 33 0.2308 0.2768 53 0.1831 0.2197 73 0.1565 0.1878 93 0.1389 0.1667

14 0.3489 0.4176 34 0.2274 0.2728 54 0.1814 0.2177 74 0.1554 0.1865 94 0.1382 0.1658

15 0.3376 0.4042 35 0.2242 0.269 55 0.1798 0.2157 75 0.1544 0.1853 95 0.1375 0.1649

16 0.3273 0.392 36 0.2212 0.2653 56 0.1782 0.2138 76 0.1534 0.1841 96 0.1368 0.1641

17 0.318 0.3809 37 0.2183 0.2618 57 0.1767 0.212 77 0.1524 0.1829 97 0.1361 0.1632

18 0.3094 0.3706 38 0.2154 0.2584 58 0.1752 0.2102 78 0.1515 0.1817 98 0.1354 0.1624

19 0.3014 0.3612 39 0.2127 0.2552 59 0.1737 0.2084 79 0.1505 0.1806 99 0.1347 0.1616

20 0.2941 0.3524 40 0.2101 0.2521 60 0.1723 0.2067 80 0.1496 0.1795 100 0.134 0.1608

ANEXO 3.7: Tabela com constantes geradas pelas médias, variâncias e covariâncias
da estatística de uma amostra de tamanho n de uma distribuição normal a ser
aplicada no teste de Shapiro Wilk.
i\n 2 3 4 5 6 7 8 9 10 11 12 13
1 0.7071 0.7071 0.6872 0.6646 0.6431 0.6233 0.6062 0.5888 0.5739 0.5601 0.5475 0.5359
2 0.1677 0.2413 0.2806 0.3031 0.3164 0.3244 0.3291 0.3315 0.3325 0.3325
3 0.0875 0.1401 0.1743 0.1976 0.2141 0.2260 0.2347 0.2412
4 0.0561 0.0947 0.1224 0.1429 0.1586 0.1707
5 0.0399 0.0695 0.0922 0.1099
6 0.0303 0.0539

80
estatística experimental no rbio

ANEXO 3.8: Valores críticos da estatística W de Shapiro Wilk com nível de


significância α e tamanho de amostra n.
Nível de significância
N 0.01 0.02 0.05 0.1 0.5 0.9 0.95 0.98 0.99
3 0.753 0.756 0.767 0.789 0.959 0.998 0.999 1.000 1.000
4 0.687 0.707 0.748 0.792 0.935 0.987 0.992 0.996 0.997
5 0.686 0.715 0.762 0.806 0.927 0.979 0.986 0.991 0.993
6 0.713 0.743 0.788 0.826 0.927 0.974 0.981 0.986 0.989
7 0.730 0.760 0.803 0.838 0.928 0.972 0.979 0.985 0.988
8 0.749 0.778 0.818 0.851 0.932 0.972 0.978 0.984 0.987
9 0.764 0.791 0.829 0.859 0.935 0.972 0.978 0.984 0.986
10 0.781 0.806 0.842 0.869 0.938 0.972 0.978 0.983 0.986
11 0.792 0.817 0.850 0.876 0.940 0.973 0.979 0.984 0.986
12 0.805 0.828 0.859 0.883 0.943 0.973 0.979 0.984 0.986
13 0.814 0.837 0.866 0.889 0.945 0.974 0.979 0.984 0.986
14 0.825 0.846 0.874 0.895 0.947 0.975 0.980 0.984 0.986
15 0.835 0.855 0.881 0.901 0.950 0.975 0.980 0.984 0.987
16 0.844 0.863 0.887 0.906 0.952 0.976 0.981 0.985 0.987
17 0.851 0.869 0.892 0.910 0.954 0.977 0.981 0.985 0.987
18 0.858 0.874 0.897 0.914 0.956 0.978 0.982 0.986 0.988
19 0.863 0.879 0.901 0.917 0.957 0.978 0.982 0.986 0.988
20 0.868 0.884 0.905 0.920 0.959 0.979 0.983 0.986 0.988

81
4

DELINEAMENTO EXPERIMENTAL
INTEIRAMENTE CASUALIZADO

O delineamento experimental pode ser definido como a forma


como os tratamentos são organizados. O delineamento inteiramente
casualizado (DIC) é considerado o mais simples dos delineamentos ex-
perimentais. Neste tipo de delineamento os tratamentos são alocados
no experimento (nas unidades experimentais ou parcelas) de forma
aleatória, ou seja, inteiramente ao acaso.
No DIC apenas os princípios da repetição e casualização estão
presentes, portanto, não existe o controle local. Normalmente ele é
adotado em situações onde as condições experimentais sejam unifor-
mes, ou seja, controladas, como é o caso de condução de experimen-
tos em casa de vegetação ou laboratórios. Também é aconselhado nos
casos em que se tem risco de perder repetições durante a condução
do experimento. Desta forma-se, tem-se que suas principais vanta-
gens são facilidade de montagem, além de que no caso de perda de
repetições não acarreta em grandes dificuldades de análises. Outro
fator que pode ser mencionado é o grande grau de liberdade que fica
para o resíduo, uma vez que existirá apenas uma fonte de variação
na ANOVA, que é o tratamento. Como desvantagem, tem-se a baixa
precisão experimental, pois se as condições experimentais não forem

82
estatística experimental no rbio

uniformes, haverá um elevado valor de quadrado médio do resíduo e


consequentemente uma baixa precisão experimental.
De forma esquemática, um experimento inteiramente ao acaso
com três tratamentos (T1, T2 e T3) e duas repetições pode ser montado
da seguinte forma:

T1 T2
T3 T2
T1 T3

Verifica-se que não existe necessidade de que cada tratamento


esteja dentro de cada coluna, uma vez que a coluna 1 não possui o
tratamento 2. Porém, todos os tratamentos estão repetidos duas ve-
zes no experimento. Tal disposição dos tratamentos é totalmente ao
acaso, por sorteio.
O modelo matemático para o delineamento inteiramente ca-
sualizado é:

Yij = m + ti + eij

em que:
Yij é o valor observado relativo à parcela que recebe o trata-
mento i na repetição j, sendo i =1, 2, ..., t e j= 1, 2, ..., r.
m é a média geral do experimento
ti é o efeito do tratamento i
eij é o erro aleatório associado a observação ij, ou seja, contri-
buição ao acaso da variação devido a fatores não controlados.

O quadro da ANOVA neste delineamento é apresentado na


Tabela 4.1.

83
estatística experimental no rbio

Tabela 4.1. Quadro da ANOVA considerando delineamento inteiramente


casualizado.
FV GL SQ QM F

Tratamento t-1 SQTrat QMTrat= SQTrat/glTrat QMTrat / QMRes

Resíduo tr-t = t(r-1) SQRes QMRes= SQRes/glRes

Total tr-1 SQTotal

Em que:

t r
SQTotal
= ∑∑Y
=i 1 =j 1
ij
2
−C

1 t 2
SQTrat
= ∑Yi. − C
r i =1

t r
1 t 2
SQRes = SQTotal − SQTrat = ∑∑Yij 2 −
=i 1 =j 1
∑Yi.
r =i 1

Y..2
eC= é denominada Correção.
tr

O Quadrado Médio é obtido dividindo a Soma de Quadrado da


Fonte de Variação em estudo por seu respectivo grau de liberdade. O
grau de liberdade total é dado pelo número total de parcelas (tr) me-
nos 1, e o grau de liberdade de tratamentos é dado pelo número total
de tratamentos menos 1. Em relação grau de liberdade ao resíduo,
este pode ser obtido pelo grau de liberdade total – grau de liberdade
dos tratamentos.
O teste F, por sua vez, é obtido dividindo o QMTrat pelo QMRes,
ou seja, F=QMTrat/QMRes. Ele é usado para avaliar se existe diferença
entra as médias dos tratamentos, uma vez que a hipótese H0 desse
modelo é a igualdade das médias H0: t1=t2=t3. Uma vez que o F é sig-

84
estatística experimental no rbio

nificativo, isto é um indicativo de que pelo menos uma média difere


das outras. Para verificar a significância do teste deve-se adotar um
nível de significância (normalmente 5 ou 1%), em que o valor obtido
na ANOVA (valor calculado) será comparado com um valor tabelado
(ANEXOS 4.1 e 4.2), sendo que este valor tabelado é obtido numa
tabela de dupla entrada em que são fornecidos os graus de liberdade
do numerador na horizontal e do denominador na vertical. Nesse
tipo de delineamento, tem-se o grau de liberdade de tratamentos na
horizontal e do resíduo na vertical. Se o valor calculado for maior que o
valor tabelado, rejeita-se H0, dizendo então que o teste foi significativo
ao nível de significância adotado, existindo, portanto, pelo menos uma
média que difere estatisticamente das outras. Para identificar qual é
esta média, aplica-se os testes vistos no capítulo de procedimentos de
comparações múltiplas.
Considerando um experimento com três tratamentos e duas
repetições, os dados devem ser arranjados conforme a Tabela 4.2 e
Tabela 4.3 para proceder a ANOVA.

Tabela 4.2. Tabela auxiliar considerando observações de três tratamentos e duas


repetições para proceder a anova.
Repetições
Tratamentos Total Média
1 2

r
1 Y11 Y12 Y1. = ∑Y j =1
1j Ȳ1.

r
2 Y21 Y22 Y2. = ∑Y j =1
2j Ȳ2.

r
3 Y31 Y32 Y3. = ∑Y j =1
3j Ȳ3.

t r
Total Y.1 Y.2 Y.. = ∑∑Yij
=i 1 =j 1

85
estatística experimental no rbio

Tabela 4.3. Avaliação de uma variável agronômica simulada em delineamento


inteiramente casualizado.
Repetições
Tratamentos Total Média
I II

1 66.98 75.61 142.59 71.295

2 113.77 126.24 240.01 120.005

3 71.87 87.53 159.4 79.7

Total 252.62 289.38 542

Média 84.20667 96.46 90.333

Considerando os valores da Tabela 4.3, para obtenção do qua-


dro da ANOVA tem-se:

Y..2 5422
C
= = = 48960.67
tr 3x2

t r
SQTotal
= ∑∑Y
=i 1 =j 1
ij
2
C 66.982 + 75.612 + 113.77 2
−=

+126.24 + 71.87 2 + 87.532 − 48960.6 =


2
2949.474

1 t 2 1 
SQ=
Trat ∑
r i =1
Yi. =
2
(
− C  x 142.592 + 240.012 + 159.42 

)
−48960.6 = 2711.867

SQRes = SQTotal − SQTrat = 2949.474 − 2711.867 = 237.6067

Os quadrados médios são obtidos dividindo as respectivas so-


mas de quadrados pelo grau de liberdade da fonte de variação, desse
modo tem-se:

86
estatística experimental no rbio

QM Trat SQ
= =Trat / 2 2711.867
= / 2 1355.9

QM Res SQ
= =Res / 3 237.6067
= / 3 79.2

o valor do teste F = QMTrat / QMRes= 1355.9/79.2 =17.11.


O valor tabelado de F a 5% de probabilidade e 2 graus de liber-
dade do numerador e 3 graus de liberdade do denominador (F5%;2;3) é
igual a 9.55 (ANEXO 4.1). Dessa forma, o F calculado (17.11) é maior
que F tabelado, então rejeita-se a hipótese H0 de que o componente
de variância σ2g é igual a zero, uma vez que o modelo é aleatório.
Para fazer a comparação considerando 1% de probabilidades, deve-se
usar o ANEXO 4.2 e o valor encontrado será 30.82. Caso o efeito de
tratamento fosse fixo a hipótese H0 seria de igualdade entre médias,
devendo haver pelo menos uma média que difere estatisticamente das
demais ao rejeitar a hipótese pelo teste F.
Dessa forma, o quadro da ANOVA está representado na Tabela 4.4:

Tabela 4.4. Resultado da análise de variância da variável agronômica simulada,


considerando delineamento inteiramente ao acaso.
FV GL SQ QM F E(QM)

Tratamento 2 2711.867 1355.9 17.11* σ2 + r σ2g

Resíduo 3 237.6067 79.2 σ2

Total 5 2949.474
*: significativo a 5% de probabilidade pelo teste F.

Neste exemplo, é possível avaliar a potencialidade geral dos


genótipos, por meio da média geral, e a precisão experimental, por
meio do coeficiente de variação (CV), como representado a seguir:

87
estatística experimental no rbio

Média = 542/6 = 90.33; e

100 QMR 100 79.2


CV%
= = = 9.8519%
média 90.33

É importante ressaltar que segundo Pimentel-Gomes (2000),


em experimentos usados na experimentação agrícola, pode-se con-
siderar baixos CV inferiores a 10%, médios quando o CV está entre
10 e 20%, altos quando está entre 20 e 30%, e muito alto quando
superiores a 30%.
Outra forma de avaliar a precisão experimental é através da
acurácia (Resende, 2002). A expressão para obtenção da acurácia,
como sua aplicação ao exemplo anterior, é dada por:

1 1
Acurácia = 1 − = 1− = 0.9703
F 17.11

em que F é o valor de F obtido na ANOVA para os efeitos dos


tratamentos.
Segundo Resende & Duarte (2007), acurácias inferiores a 0.40
estão associadas a uma baixa precisão experimental, entre 0.50 e 0.65
à moderada precisão, entre 0.70 e 0.85 à alta precisão, e valores acima
de 0.90 de acurácia referem-se a muito alta precisão experimental.
Em experimentos inteiramente ao acaso a variância residual
pode ser obtida de forma alternativa por meio da média das variâncias
de cada tratamento. Dessa forma tem-se:


t 2
S
i =1 i
σˆ QMR
= =2

88
estatística experimental no rbio

Para o exemplo dado tem-se:

Conhecidas as esperanças dos quadrados médios é possível


obter os estimadores dos componentes de variância e estimar parâ-
metros genéticos úteis ao melhorista. Para este caso tem-se:

σˆ 2 = QMR

QMT-QMR
σˆ g2 =
r

Quando se avalia um conjunto de genótipos é comum a pratica


de seleção tendo por base o desempenho médio de cada um deles.
Neste caso, para dois genótipos i e i’ são comparadas as médias:

89
estatística experimental no rbio

A variação fenotípica entre as unidades de seleção é expressa por:

em termos de variação fenotípica, tem-se:

1 QMT
σˆ 2f =σˆ g2 + σˆ 2 =
r r

Assim, pode ser obtida a herdabilidade dada por;

var iância genética entre as unidades de seleção


h2 =
var iância fenotípica entre as unidades de seleção

tendo-se:

2
σˆ g2
h =
σˆ 2
+ σˆ g2
r

A herdabilidade é um parâmetro muito útil ao melhorista, que


mede o quando da variação fenotípica é devido a causas genéticas.
Uma medida análoga à herdabilidade, quando se tem o efeito de
tratamento fixo, é o coeficiente de determinação genotípico (H2) que
expressa a proporção da variância fenotípica que é devida a variabili-
dade genética entre as médias dos tratamentos.
A herdabilidade é estimada por meio da expressão:

σˆ g2
h2 =
QMT
r

90
estatística experimental no rbio

Para o exemplo considerado, tem-se:

QMT-QMR 1355.9-79.2
=σˆ g2 = = 638.35
r 2

2
σˆ g2
638.35
=h = = 0.9415
= 94.15%
QMT 1355 / 2
r

O coeficiente de correlação intraclasse pode também ser obti-


do a partir destes componentes, considerando que:

Cov (Yij , Yij' ) = { }


E Yij − E (Yij )  Yij' − E (Yij' ) 

sendo

Yij − E (Yij ) =
gi + ε ij

Yij ' − E (Yij' ) =


gi + ε ij '

então

Cov (Yij , Yij=


') cov(m + gi + eij , m + gi + eij ')
V ( gi ) + cov(eij , eij ') + cov( gi, eij ) + cov( gi, eij ')
=
gi2 σ g2
= E= ( )

91
estatística experimental no rbio

Lembrando o fato de que a covariância entre efeitos diferentes


é igual a 0.
Sabe-se também que:

V (Yij =
) V (Yij' =) V ( m + gi + eij )
V ( gi ) + V ( eij ) + 2 cov( gi, eij ) =+
= σ 2 σ g2

Assim

Côv (Yij , Yij' ) σˆ g2


r= = 2
Vˆ (Yij ) V
ˆ (Y )
ij'
σˆ + σˆ g2

sendo r o coeficiente da correlação intraclasse.


Esta correlação intraclasse mede a repetibilidade do genótipo
ao longo das repetições, portanto valores altos de correlação intraclas-
se são indicativos que se pode usar menos número de repetições na
experimentação. Esta é usada para comparar as variações existentes
nos blocos (ou repetições) j e j’, sendo:

Portanto as variações dentro da repetição j são devido às varia-


ções genéticas e ambientais como mostrado anteriormente.

92
estatística experimental no rbio

Tomando novamente como ilustração os dados da Tabela 4.3


e os resultados da análise de variância apresentados na Tabela 4.4,
pode-se estimar para o modelo aleatório os seguintes parâmetros:

σˆ g2 638.35
r= 2
= = 0.8896
σˆ + σˆ g 79.2 + 638.35
2

Pode ainda ser de desejo do melhorista verificar o coeficiente


de variação genético (CVg), que é desejável ser o maior possível, mos-
trando variabilidade para a população. Outro parâmetro útil é a razão
Cvg/Cve que pode ser empregada como um índice indicativo do grau
de facilidade de seleção para o caráter avaliando, sendo que, segundo
Vencovsky (1987), com esta razão superior a 1,0 tem-se situação fa-
vorável a seleção pois a variação genética é a maior responsável pelos
valores de CVs estimados.
Considerando o exemplo, tem-se:

100 σˆ g2 100 638.35


CVg % =
= = 27.97%
média 90.33

e a razão CVg/CVe é: 27.97/9.85 = 2.83, mostrando condição


favorável a seleção.
Os modelos fixos e aleatórios, para delineamentos inteiramen-
te ao acaso, apresentam as mesmas estimativas para o coeficiente de
determinação (H2) e herdabilidade (h2) e para o componente quadráti-
co que expressa a variabilidade genotípica (ϕˆ g ) e a variância genotípi-
ca ( σˆ g ), porém cada valor tem seu significado biológico diferenciado.
2

93
estatística experimental no rbio

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Inteiramente ao acaso (DIC), conforme a Figura 4.1.

94
estatística experimental no rbio

Figura 4.1. Software Rbio, e rotina de procedimentos para realizar análise de


variância no delineamento inteiramente casualizado.

O arquivo usado aqui é o mesmo usado anteriormente. Como


a primeira linha contém o nome das fontes de variação e das variáveis,
deve-se marcar a opção “Sim. Arquivo possui nome das variáveis na
primeira linha”. Se o usuário deseja obter os parâmetros genéticos,
a opção “Calcular parâmetros genéticos” também deve ser marcada.
Nesse procedimento, e em vários outros do Rbio, existe mais de um
botão processar. Isso se deve ao fato destes terem processamento
diferentes. Veja que no botão da direita o usuário fará a análise via
pacote ExpDes que já permite inclusive que seja escolhido o teste de
média a ser realizado junto com a análise de variância.
No resultado da análise de variância, pode-se perceber que a
variável em análise possui um CV de 9.85% considerado baixo segundo
classificação de Pimentel-Gomes (2000). Cabe ao pesquisador fazer
uma revisão sobre a cultura, a variável e condição de cultivo para
concluir se realmente o CV está dentro do valor esperado. A fonte de

95
estatística experimental no rbio

variação tratamentos mostrou-se significativa, portanto, se esse for um


efeito fixo, existe diferença entre as médias dos tratamentos e deve-se
proceder um teste de média para identificar quais os genótipos dife-
rentes. Se esse efeito for aleatório, significa que existe variabilidade
genética nessa população e deverá ser explorada.

# -----------------------------------
# Script 3: Delineamento Inteiramente ao acaso (DIC)
# -----------------------------------
# ----------------------
# 3.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X
Trat Rep Variavel
1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53
# ----------------------
# 3.2- ANOVA DIC
# ----------------------
Trat<-as.factor(X[,1])
Bloco<-as.factor(X[,2])
saida<-aov(X[,3]~Trat)
print(summary(saida))
Df Sum Sq Mean Sq F value Pr(>F)
Trat 2 2711.9 1355.9 17.12 0.0229 *
Residuals 3 237.6 79.2
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

# ----------------------
# 3.3- Estatísticas Gerais
# ----------------------
cat(“-----Estatisticas Gerais:”,”\n”)

-----Estatisticas Gerais:

media <- mean(X[,3])


cat(“Media Geral:”, media,”\n”)

Media Geral: 90.33333

cvE <- (100*sqrt(summary(saida)[[1]][2,3]))/media


cat(“cv (%):”, cvE,”\n”)

cv (%): 9.851915

acuracia <- sqrt(1-(1/summary(saida)[[1]][1,4]))


cat(“Acuracia rgg:”, acuracia,”\n”)

Acuracia rgg: 0.9703548

96
estatística experimental no rbio

ANEXO 4.1. Tabela da Distribuição F ao nível de 5% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 161.45 199.5 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85
12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6
15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3
23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25
25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2
28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08

97
estatística experimental no rbio

ANEXO 4.2. Tabela da Distribuição F ao nível de 1% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 4052.2 4999.3 5403.5 5624.2 5763.9 5858.9 5928.3 5980.9 6022.4 6055.9
2 98.5 99 99.16 99.25 99.3 99.33 99.36 99.38 99.39 99.4
3 34.12 30.82 29.46 28.71 28.24 27.91 27.67 27.49 27.34 27.23
4 21.2 18 16.69 15.98 15.52 15.21 14.98 14.8 14.66 14.55
5 16.26 13.27 12.06 11.39 10.97 10.67 10.46 10.29 10.16 10.05
6 13.75 10.92 9.78 9.15 8.75 8.47 8.26 8.1 7.98 7.87
7 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.72 6.62
8 11.26 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.91 5.81
9 10.56 8.02 6.99 6.42 6.06 5.8 5.61 5.47 5.35 5.26
10 10.04 7.56 6.55 5.99 5.64 5.39 5.2 5.06 4.94 4.85
11 9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.63 4.54
12 9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.5 4.39 4.3
13 9.07 6.7 5.74 5.21 4.86 4.62 4.44 4.3 4.19 4.1
14 8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 4.03 3.94
15 8.68 6.36 5.42 4.89 4.56 4.32 4.14 4 3.89 3.8
16 8.53 6.23 5.29 4.77 4.44 4.2 4.03 3.89 3.78 3.69
17 8.4 6.11 5.19 4.67 4.34 4.1 3.93 3.79 3.68 3.59
18 8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71 3.6 3.51
19 8.18 5.93 5.01 4.5 4.17 3.94 3.77 3.63 3.52 3.43
20 8.1 5.85 4.94 4.43 4.1 3.87 3.7 3.56 3.46 3.37
21 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51 3.4 3.31
22 7.95 5.72 4.82 4.31 3.99 3.76 3.59 3.45 3.35 3.26
23 7.88 5.66 4.76 4.26 3.94 3.71 3.54 3.41 3.3 3.21
24 7.82 5.61 4.72 4.22 3.9 3.67 3.5 3.36 3.26 3.17
25 7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32 3.22 3.13
26 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29 3.18 3.09
27 7.68 5.49 4.6 4.11 3.78 3.56 3.39 3.26 3.15 3.06
28 7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23 3.12 3.03
29 7.6 5.42 4.54 4.04 3.73 3.5 3.33 3.2 3.09 3
30 7.56 5.39 4.51 4.02 3.7 3.47 3.3 3.17 3.07 2.98
35 7.42 5.27 4.4 3.91 3.59 3.37 3.2 3.07 2.96 2.88
40 7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99 2.89 2.8

98
5

DELINEAMENTO EXPERIMENTAL
EM BLOCOS AO ACASO

O delineamento em blocos casualizados (DBC) constitui o


mais utilizado de todos os delineamentos experimentais. Neste tipo
de delineamento, os três princípios básicos da experimentação estão
presentes, portanto, nesse caso, o controle local é realizado, havendo
restrição na aleatorização dos tratamentos, que deverão ser aleatori-
zados dentro de cada bloco, de forma que cada bloco contenha todos
os tratamentos.
Como na prática é quase impossível obter uma área experimental
homogênea, principalmente em experimentos agropecuários a campo,
procura-se que ela seja homogênea pelo menos dentro de cada bloco,
podendo ser heterogênea entre blocos. Para o sucesso deste tipo de
delineamento espera-se que os blocos sejam os mais homogêneos pos-
síveis. Pode acontecer, por exemplo, a montagem de blocos em locais
diferentes, desde que estes blocos sejam homogêneos.
Nem sempre bloco é sinônimo de repetição. O número de blo-
cos e repetições coincide apenas quando os tratamentos ocorrem uma
única vez em cada bloco, sendo esta forma a mais utilizada. Porém, há
casos onde cada bloco inclui todos os tratamentos duas ou mais vezes.

99
estatística experimental no rbio

Para que exista uma maior uniformidade dentro de cada bloco


é esperado que este delineamento não seja aplicado a um número
muito grande de tratamentos, porém este número varia com a espécie
em estudo.
De forma esquemática um experimento em blocos ao acaso
com três tratamentos (T1, T2 e T3) e dois blocos pode ser montado da
seguinte forma:

Bloco 1 Bloco 2
T1 T2
T3 T1
T2 T3

Verifica-se que cada tratamento está dentro de cada bloco,


portanto cada bloco contém todos os três tratamentos. Dentro de cada
bloco os tratamentos são dispostos de forma aleatória.
Alguns aspectos sobre este delineamento merecem destaque:
o controle local reduz grande parte da variação que iria para o erro,
melhorando a precisão experimental. Qualquer número de tratamen-
tos e repetições pode ser utilizado, desde que a área seja homogênea
para cada bloco e que estes possuam todos os tratamentos. Além disso
a análise de variância é fácil de ser realizada. Como desvantagem, po-
de-se relatar a dificuldade de obter áreas homogêneas quando se tem
muitos tratamentos.
O modelo matemático para o delineamento em blocos casua-
lizados é:

Yij=m + bj+ ti + eij

em que:
Yij é o valor observado relativo à parcela que recebe o trata-
mento i no bloco j, sendo i =1, 2, ..., t e j= 1, 2, ..., r.
m é a média geral do experimento

100
estatística experimental no rbio

ti é o efeito do tratamento i
bj é o efeito do bloco j
eij é o erro aleatório associado a observação ij, ou seja, contri-
buição ao acaso da variação devido a fatores não controlados.

O quadro da ANOVA neste delineamento é apresentado na


Tabela 5.1.

Tabela 5.1. Quadro da ANOVA considerando delineamento em blocos casualizados.


FV GL SQ QM F

Bloco r-1 SQBlocos QMBlocos = SQBlocos/glBlocos

Tratamento t-1 SQTrat QMTrat = SQTrat/glTrat QMTrat / QMRes

Resíduo (r-1) (t-1) SQRes QMRes= SQRes/glRes

Total tr-1 SQTotal

Em que:

t r
SQTotal
= ∑∑Y
=i 1 =j 1
ij
2
−C

1 t 2
SQTrat
= ∑Yi. − C
r i =1

1 r 2
SQ
= Bloco ∑Y. j − C
t i =1

SQRes = SQTotal − SQTrat − SQBloco


t r
1 t 2 1 r 2
= ∑∑Yij 2 −
=i 1 =j 1
∑Yi. − t =∑
r =i 1 j 1
Y. j

101
estatística experimental no rbio

Y..2
eC= é denominada por correção.
tr

Considerando um experimento com três tratamentos e dois


blocos, os dados devem ser arranjados conforme a Tabela 5.2 e Tabela
5.3 para proceder a ANOVA. Desta forma, tem-se:

Tabela 5.2. Tabela auxiliar considerando observações de três tratamentos e duas


repetições para proceder a ANOVA.
Blocos
Tratamentos Total Média
1 2

r
1 Y11 Y12 Y1. = ∑Y j =1
1j Ȳ1.

r
2 Y21 Y22 Y2. = ∑Y j =1
2j Ȳ2.

r
3 Y31 Y32 Y3. = ∑Y j =1
3j Ȳ3.

t t t r
Total Y.1 = ∑Yi1 Y.2 = ∑Yi 2 Y.. = ∑∑Yij
i =1 i =1 =i 1 =j 1

Média Ȳ.1 Ȳ.2

Tabela 5.3. Avaliação de uma variável agronômica simulada em delineamento em


blocos ao acaso.
Blocos
Tratamentos Total Média
I II

1 66.98 75.61 142.59 71.295

2 113.77 126.24 240.01 120.005

3 71.87 87.53 159.4 79.7

Total 252.62 289.38 542

Média 84.20667 96.46 90.333

102
estatística experimental no rbio

Considerando os valores da Tabela 5.3, para obtenção do qua-


dro da ANOVA tem-se:

Y..2 5422
C
= = = 48960.67
tr 3.2

t r
SQTotal
= ∑∑Y
=i 1 =j 1
ij
2
C 66.982 + 75.612 + 113.77 2
−=

+126.24 + 71.87 2 + 87.532 − 48960.6 =


2
2949.474

1 t 2 1 
SQ=
Trat ∑
r i =1
Yi. =
2
(
− C  x 142.592 + 240.012 + 159.42 

)
−48960.6 = 2711.867

1 r 2 1 
SQBlocos
= ∑
t j =1
Y. j . =
3
(
− C  x 252.622 + 289.382 

)
−48960.6 = 225.283

SQRes = SQTotal − SQTrat − SQBlocos =


2949.474 − 2711.867 − 225.283 =
12.3237

Os quadrados médios são obtidos dividindo as respectivas


somas de quadrado pelo grau de liberdade da fonte de variação, desse
modo tem-se:

QM Trat SQ
= =Trat / 2 2711.867
= / 2 1355.9

QM Blocos SQ
= =Blocos /1 225.283
= /1 225.283

QM Res SQ
= =Res / 2 12.3237
= / 2 6.2

103
estatística experimental no rbio

O valor do F calculado é dado pela razão QMTrat / QMRes, que


nesse caso é: 1355.9/6.2=218.87. O valor Tabelado do F a 5% de pro-
babilidade e 2 graus de liberdade do numerador e 2 graus de liberdade
do denominador (F5%;2;2) é igual a 19 (ANEXO 5.1). Dessa forma, o F
calculado é maior que F tabelado, então rejeita-se a hipótese H0, sendo
que caso tratamento seja considerado um efeito aleatório significa que
o componente de variância associado a fonte de variação tratamento é
diferente de zero, e, caso o tratamento seja considerado fixo, significa
que existe pelo menos um tratamento que difere dos demais. O quadro
da ANOVA é apresentado na Tabela 5.4.

Tabela 5.4. Resultado da análise de variância da variável agronômica simulada,


considerando delineamento em blocos ao acaso.
FV GL SQ QM F E(QM)

Blocos 1 225.283 225.283 σ2 + t σ2b

Tratamento 2 2711.867 1355.9 218.87* σ2 + r σ2g

Resíduo 2 12.32 6.2 σ2

Total 5 2949.474
*: significativo a 5% de probabilidade pelo teste F.

Neste exemplo coeficiente de variação (CV), e a acurácia (rgg) são:

100 QMR 100 6.2


CV%
= = = 2.7553%
média 90.33

1 1
Acurácia = 1 − = 1− = 0.9977
F 218.87

Percebe-se que ambas estatísticas para avaliação da precisão


experimental tiveram valores aprimorados no DBC em relação ao DIC.
O CV era de 9.85% no DIC e reduziu para 2.75%, enquanto a acurácia

104
estatística experimental no rbio

que era de 0.97 aumentou para 0.99, mostrando que a mudança de


delineamento se mostrou eficaz.
O estimador do componente da variância genética entre as
médias das famílias avaliadas, é dado por:

QMT-QMR
σˆ g2 =
r

O estimador da variância ambiental a nível de parcela é dado por:

σˆ 2 = QMR

O coeficiente de herdabilidade em nível de média de famílias é


dado por:

σˆ g2
h2 =
σˆ 2
+ σˆ g2
r

Para este caso o coeficiente de correlação intraclasse, que


quantifica a repetibilidade do desempenho dos genótipos no experi-
mento, é dado por:

Côv (Yij , Yij' )


r=
Vˆ (Yij ) V
ˆ (Y )
ij'

sendo

Coˆ v (Yij , Yij ' ) = σˆ g2

105
estatística experimental no rbio

Vˆ (Yij=
) Vˆ (Yij=
') σˆ 2 + σˆ g2

σˆ g2
Assim, tem-se r =
σˆ + σˆ g2
Sabe-se também que:

V (Yij =
) V (Yij' =) V ( m + gi + bj + eij )
= V ( gi ) + V ( bj ) + V ( eij ) + 2 cov( gi, eij )
σ 2 + σ g2
+2 cov( gi, bj ) + 2 cov(bj , eij ) =

Assim

Côv (Yij , Yij' ) σˆ g2


r= = 2
Vˆ (Yij ) V
ˆ (Y )
ij'
σˆ + σˆ g2

sendo r o coeficiente da correlação intraclasse.

Verifica-se que o estimador da correlação intraclasse no


delineamento em blocos casualizados é a mesma do delineamento
inteiramente casualizado. Mesmo que no modelo em blocos seja Yij =
m + gi + bj + eij e possua o efeito bj, no cálculo da variância ele não é
computado, uma vez que dentro de cada bloco j ou j’ só existe a varia-
ção de genótipo e ambientes, sendo assim a V (Yij= ) V (Yij'=) σ 2 + σ g2
como mostrada anteriormente.

106
estatística experimental no rbio

Para o exemplo em consideração, cujos dados são apresenta-


dos na Tabela 5.3 e o resultado da ANOVA apresentado na Tabela 5.4,
são obtidas as seguintes estimativas:

QMT-QMR 1355.9 − 6.2


=σˆ g2 = = 674.85
r 2

o valor da variância genotípica pode ser obtido alternativa-


mente por meio da média das covariâncias entre os valores obtidos
considerando pares de blocos. Assim, tem-se:

Pares de Blocos Covariância Correlação

1e2 674.86925 0.991314

Média 674.86925 0.991314

logo,

σˆ 2 = QMR= 6.2

107
estatística experimental no rbio

O coeficiente de herdabilidade é dado por:

σˆ g2 674.86
=h2 = = 99.54%
QMT / r (1355.9 / 2 )

O coeficiente de correlação intraclasse é dado por:

σˆ g2 674.86
=r = = 0.9909
σˆ + σˆ g 6.2 + 674.85
2 2

O coeficiente de variação genotípico e a razão CVg/CVe são:

100 σˆ g2 100 674.86


CVg % =
= = 28.75%
média 90.33

e a razão CVg/CVe é: 28.75/2.75 = 10.43, mostrando condição


favorável a seleção.
Pode-se ainda obter a eficiência relativa (ER) desse delinea-
mento em relação ao DIC. Se ER for maior que 1, conclui-se que o DBC
foi eficiente.
Dessa forma, a ER é dada por:

=ER
QM Erro DIC
=
( r − 1) QM Blocos + r ( t − 1) QM Erro
QM Erro DBC ( rt − 1) QM Erro

=ER
( 2 − 1) 225.283 + 2 ( 3=
− 1) 6.2 250.083
= 8.067
( 6 − 1) 6.2 10.08

Conclui-se que utilizar o DBC mostrou-se eficiente nessa situação.

108
estatística experimental no rbio

Alternativamente, a ER pode ser obtida conforme Khan et al


(2017). Para isso, tem-se

glBloco ( QM Bloco ) + glResiduo ( QM Residuo )


QM Res DIC =
glBloco + glResiduo

1( 225.283) + 2 ( 6.2 )
QM Res DIC
= = 79.22
1+ 2

e a ER é dada por:

QM Res DIC x ( glResiduoDBC + 1) x ( glResiduoDIC + 3)


ER ( DBC , DIC ) =
QM Res DBC x ( glResiduoDBC + 3) x ( glResiduoDIC + 1)

79.22 x (1 + 1) x ( 3 + 3)
ER ( DBC , DIC )
= = 9.58
6.2 x (1 + 3) x ( 3 + 1)

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
O acesso a análise é feito por: ANOVA> Blocos Casualizados
(DBC) > DBC, conforme Figura 5.1. A entrada dos dados é realizada da
mesma forma feita no DIC.

109
estatística experimental no rbio

Figura 5.1. Software Rbio, e rotina de procedimentos para realizar análise de


variância no delineamento de blocos ao acaso.

110
estatística experimental no rbio

# -----------------------------------
# Script 4: Delineamento Blocos ao acaso (DBC)
# -----------------------------------

# ----------------------
# 4.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X

Trat Rep Variavel


1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53

# ----------------------
# 4.2- ANOVA DBC
# ----------------------
Trat<-as.factor(X[,1])
Bloco<-as.factor(X[,2])
saida<-aov(X[,3]~Bloco+Trat)
print(summary(saida))

Df Sum Sq Mean Sq F value Pr(>F)


Bloco 1 225.2 225.2 36.35 0.02642 *
Trat 2 2711.9 1355.9 218.87 0.00455 **
Residuals 2 12.4 6.2
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

# ----------------------
# 4.3- Estatísticas Gerais
# ----------------------
cat(“-----Estatisticas Gerais:”,”\n”)

-----Estatisticas Gerais:

media <- mean(X[,3])


cat(“Media Geral:”, media,”\n”)

Media Geral: 90.33333

cvE <- (100*sqrt(summary(saida)[[1]][3,3]))/media


cat(“cv (%):”, cvE,”\n”)

cv (%): 2.755372

acuracia <- sqrt(1-(1/summary(saida)[[1]][2,4]))


cat(“Acuracia rgg:”, acuracia,”\n”)

Acuracia rgg: 0.9977129

Como verificado na saída a fonte de variação de tratamentos é


significativa (p-value <0.05), o que significa que existe pelo menos um
tratamento diferente dos demais. Para a identificação correta de qual
é este, ou estes tratamentos, deve ser utilizando um teste de compa-

111
estatística experimental no rbio

rações de médias, tal procedimento será explorado posteriormente.


Na saída, a fonte de variação blocos também se mostrou significativa.
Diversos autores não recomendam testar blocos, pois a princípio não
existe uma repetição dos blocos, visto que ao montar o experimento
em blocos o pesquisador assume que eles são diferentes, pois blocos
envolve mais do que simplesmente o princípio de repetição, ele envol-
ve o princípio de controle local. Como ao fazer a descrição do modelo
no R é informado que tem 2 fatores, ele coloca estas fontes de variação
e testa as mesmas, sendo assim ele não diferencia se esta é um bloco
ou outro fator qualquer a ser testado.

ANEXO 5.1. Tabela da Distribuição F ao nível de 5% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 161.45 199.5 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85
12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6
15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35

112
estatística experimental no rbio

v2 \ v1 1 2 3 4 5 6 7 8 9 10
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3
23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25
25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2
28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08

113
6

COMPONENTES DE VARIÂNCIA

Na experimentação agropecuária uma forma de obter os parâ-


metros genéticos é através dos componentes de variância obtido pela
esperança de quadrados médios da ANOVA. A esperança matemática
pode ser definida como o valor médio esperado para determinada
variável. Suas propriedades são:

E(k) = k, em que k é uma constante


E(X + k) = E(X) + E(k) = E(X) + k
E(kX) = k E(X)
E(X + Y) = E(X) + E(Y)
E(X Y) = E(X) . E(Y), se X e Y são independentes.

A variância de uma variável aleatória pode ser definida por:

V(X) = E[(X - E(X)]2 = E(X2) - [E(X)]2

E a covariância:

Cov(X,Y) = E{[(X - E(X)] [(Y - E(Y)]} = Cov(X,Y) = E(XY) - E(X)E(Y)

114
estatística experimental no rbio

Como consequência destas obtemos as propriedades de vari-


ância e covariância:

V(aX) = a2V(X), sendo a uma constante.


V(X + Y) = V(X) + V(Y) + 2Cov(X,Y)
V(X - Y) = V(X) + V(Y) - 2Cov(X,Y)
V(aX + bY) = a2V(X) + b2V(Y) +2abCov(X,Y), sendo a e b constantes.
V(aX - bY) = a2V(X) + b2V(Y) -2abCov(X,Y)
Cov(a, X) = 0
Cov(X, X) = V(X)
Cov(aX+bY, Z) = aCov(X,Z) + bCov(Y,Z)

Em muitos trabalhos de pesquisa realizam-se ensaios procu-


rando avaliar a influência de fatores sobre determinada característica
de interesse. Assim, o valor mensurado é consequência que os efeitos
previsíveis e imprevisíveis têm sobre a característica, de forma que
possa ser expresso em modelos. Um modelo descreve a observação
sendo determinada pelos efeitos avaliados e dois outros que são a
constante µ, geralmente a média geral da característica estudada, e o
erro (Ɛ). Os efeitos estudados são classificados como fixos e aleatórios,
de forma que se tenha:

Y = µ + Efeitos Fixos + Efeitos Aleatórios + ε

Assim, por exemplo, se o estudo tem por finalidade avaliar a


produção de grãos de um conjunto de genótipos (efeito gi), testados
em experimentos em blocos ao acaso (efeito bj) em vários anos (efeito
ak) e locais (efeito lm), pode-se adotar o seguinte modelo para descre-
ver os valores obtidos em cada indivíduo ou parcela:

Yijkm = µ + b j + gi + ak + lm + gaik + glim + alkm + galikm + ε ijkm

115
estatística experimental no rbio

Neste exemplo o modelo é determinado por µ, a média geral,


erro Ɛijkm, que é o erro, e os demais efeitos (gi, bj, ak e lm) que, depen-
dendo de sua natureza amostral, serão considerados fixos ou aleató-
rios. Assim, define-se componentes de variâncias como as variâncias
associadas aos efeitos aleatórios de um modelo estatístico.
Para o modelo considerado, o erro é aleatório e a constante µ
é fixa. Admitindo ser também aleatório o efeito de anos, serão encon-
trados os seguintes componentes de variância: σ2a, associada ao efeito
aleatório de anos, σ2al associada ao efeito aleatório da interação entre
anos e locais, σ2ga associada ao efeito aleatório da interação entre
genótipos e anos, σ2gal associada ao efeito aleatório da interação tripla
entre genótipos, anos e locais e σ2 associada ao erro aleatório. Note
que a interação entre efeitos é considerada aleatória se envolver pelo
menos um efeito aleatório.
A importância dos estudos dos componentes de variância
se dá em razão de ser um dos modos mais utilizados para obter o
estimador da variância genotípica, e de seus componentes aditivo
e não-aditivo, é por meio de esperança matemática dos quadrados
médios da análise de variância. Este método é frequentemente apli-
cado em modelos balanceados e denomina-se “Método da Análise
de Variância” ou dos momentos.
Assim, a obtenção dos componentes de variância tem sido de
grande interesse no melhoramento genético uma vez que é possível,
por meio de delineamentos experimentais, estimar a variância genotí-
pica a partir dos dados fenotípicos observados. Como ilustração, será
considerado um experimento de avaliação de genótipo em blocos ao
acaso, com r repetições, de forma que as esperanças dos quadrados
médios de tratamentos (ou genótipos) e de resíduo serão:

E ( QMT=) σ 2 + rσ g2

116
estatística experimental no rbio

E ( QMR ) = σ 2

sim, as variâncias ambientais e genotípicas podem ser obtidas


por meio de:

σˆ 2 = QMR

QMT-QMR
σˆ g2 =
r

Conhecidas estas estimativas o geneticista poderá gerar infor-


mações de grande utilidade para a predição de ganhos, alterações na
estrutura e predição da potencialidade das populações para diferentes
características avaliadas.

Efeitos fixos e aleatórios

Um efeito é considerado fixo quando as conclusões a seu


respeito forem válidas somente a ele próprio. Neste caso, o objeto
(tratamento, local, dose etc.) estudado não constitui uma amostra,
mas sim o próprio material de interesse.
Em estudos de genética e melhoramento geralmente consi-
dera-se que genótipo é um efeito fixo em ensaios de competição e
indicação de cultivares, em que o principal objetivo é eleger os de
melhores desempenhos, confrontados, estatisticamente, por teste de
comparação de médias.
Se gi é um efeito fixo, então se verifica:

E(gi) = gi

117
estatística experimental no rbio

E(gi) = gi

( )
E gi2 = g i2

∑ gi = k , tomando-se na maioria das vezes k igual a zero.

Um efeito é considerado aleatório quando o material avaliado se


constitui numa amostra de uma população, de forma que as informações
obtidas têm apenas o interesse de caracterizar a população de trabalho.
Em programas de melhoramento considera-se gi como sendo
um efeito aleatório em estudos de avaliação de progênies derivadas
de populações segregantes sob seleção. As progênies são utilizadas
para prover informações da variabilidade genética da população-base
e das unidades a serem recombinadas para formação da população
melhorada.
Se gi é um efeito aleatório, então se verifica:

E ( gi ) = 0

( )
E gi2 =σ g2

E ( g i ,g i ´ ) = 0

Geralmente trabalha-se com gi ~NID(0, σ g ) (lê-se gi tem distri-


2

buição normal e é independentemente distribuído, com média zero e


variância σ g2 ), sendo a pressuposição sobre a distribuição dos efeitos
disponível dispensáveis quando o interesse é apenas de se estimar
os componentes de variâncias, sem contudo testar hipótese ou obter
intervalos de confiança.

118
estatística experimental no rbio

Modelos aleatórios, fixos ou mistos

Um modelo estatístico se diz aleatório quando todos os seus


efeitos são aleatórios, excetuando a constante (geralmente a média
geral) que é sempre fixa. Um modelo estatístico se diz fixo quando
todos os seus efeitos são fixos, excetuando o erro que é sempre ale-
atório. Por fim, um modelo estatístico se diz misto quando alguns de
seus efeitos são aleatórios e outros são fixos. Excetua-se entre estes
efeitos considerados a média e o erro experimental.

Somatórios

Ao se fazer análise de variância é necessário obter somas de


quadrados e quadrados médios normalmente feito por expressões
que envolvem somatórios. Neste caso, o uso de simbologia adequada
facilita a representação dos estimadores utilizados e permite relacionar
os vários valores obtidos do ensaio experimental. Será considerado,
como ilustração, a avaliação de 5 genótipos em 4 blocos, cujos valores
são descritos a seguir. Será usada a simbologia Yij para designar a pro-
dução (total ou média) do genótipo i (i=1, 2,..,5) no bloco j (j=1,2,...,4).
Os dados são apresentados na Tabela 6.1.

Tabela 6.1 Valores obtidos para a produção de cinco genótipos avaliados em quatro
blocos.
Genótipos Bloco 1 Bloco 2 Bloco 3 Bloco 4 Total

1 Y11 Y12 Y13 Y14 G1

2 Y21 Y22 Y23 Y24 G2

3 Y31 Y32 Y33 Y34 G3

4 Y41 Y42 Y43 Y44 G4

5 Y51 Y52 Y53 Y54 G5

Total B1 B2 B3 B4 T

119
estatística experimental no rbio

Nesta tabela são utilizadas as representações:

Gi: total do genótipo i (i=1,2...g, g = 5)


Bj: total do bloco j (j=1,2,..r, r = 4)
T: total geral

Entretanto, admitindo que cada valor é representado por Yij


seria possível representar os totais por meio de:


r
Gi= Y=
i. Y
j =1 ij


g
Bj
= Y=
.j Y
i =1 ij

e,

∑ i 1Y= ∑ j 1Y= ∑ i 1∑ j 1 ij
g r g r
T= Y
=
=
.. =
i. .=
j =
Y

Algumas propriedades interessantes de somatório são:

∑ aY = a ∑ Y
g g
ij
=i 1 = i 1 ij

∑ (Y )= ∑ i 1Y=
ij + ∑ i 1X ij
g g g
=i 1 ij + X ij=

( ∑=
X )
2

∑ X i2 + 2∑ i < ∑ j X i X j
n n n n
i
=i 1 = i 1

120
estatística experimental no rbio

Considerando duas variáveis aleatórias X e Y com n valores


representativos, pode-se expressar a média, a variância e a covariância
por meio das expressões:
Médias:

Variâncias:

Covariância

Para a obtenção dos componentes de variância deve-se apli-


car as propriedades vistas anteriormente, nas expressões de somas

121
estatística experimental no rbio

de quadrados do modelo estatístico adotado. Apenas para fins de


aprendizado será enfatizado aqui o método prático de obtenção das
expressões de somas de quadrados, e também o método prático para
obtenção da Esperança de Quadrado Médio. Será ainda apresentada a
dedução para o delineamento inteiramente casualizado, considerando
tratamentos fixos e o delineamento em blocos ao acaso considerando
tratamento como efeito aleatório. É aconselhado ao leitor, que caso
deseje, procure alguma literatura com as deduções dos outros mode-
los estatísticos e situações não apresentadas.

Método Prático para Obtenção de Somas de Quadrados

As expressões para o cálculo de somas de quadrados são ob-


tidas a partir da minimização da soma de quadrado dos erros ou da
maximização da verossimilhança considerando uma dada distribuição
dos erros. Porém, elas também podem ser obtidas, de forma prática,
a partir das informações contidas em cada expressão dos graus de
liberdade associado a cada fonte de variação. Neste caso, os seguintes
procedimentos devem ser adotados:

a) Estabelecer o modelo estatístico

Como exemplo será considerado o modelo:

Yijk = m + Gi + Aj + GAij + B / Ajk + ε ijk

Este é o modelo aplicado à análise de um conjunto de genótipos


avaliados em vários ambientes em experimentos em blocos ao acaso.

122
estatística experimental no rbio

b) Esquematizar o quadro da análise de variância com as


fontes de variações e respectivos graus de liberdade

Uma propriedade importante no estabelecimento dos graus de


liberdade (GL) e somas de quadrado (SQ) é:

SQ(A/B) = SQA + SQAxB

GL(A/B) = GL(A) + GL(AxB)

Assim, para o caso considerado, tem-se:

FV GL GL expandidos

Bloco/Ambiente (r - 1)a ra –a

Genótipo (G) g–1 g–1

Ambiente (A) a–1 a–1

GxA (g - 1) (a -1) ga - a - g + 1

Resíduo a(r - 1) (g - 1) rga - ra - ga + a

Total rga – 1

sendo: i = 1,2 ...g ; j = 1,2 ...a ; k = 1,2 ...r

c) Associar as letras definidas nos graus de liberdade da fonte


de variação com os respectivos somatórios

Cada letra nos graus de liberdade significará um somatório em


relação ao indexador correspondente. Assim para ra tem-se somatório
em relação a j e k dos quadrados dos totais de Yikj em relação a jk.
Assim tem-se:

123
estatística experimental no rbio

Componente Total Num. observações Somatório

1
a Y. j . gr ∑ Y.j.2
gr j

1
g Yi.. ar ∑ Yi..2
ar i

1
ga Yij . r ∑ ∑ Yij.2
r i j

1
gr Yi.k a ∑ ∑ Yi.k2
a i k
1
ar Y. jk g ∑ j ∑ kY.jk2
g

gar Yijk 1 ∑∑ ∑Y
i j
2
k ijk

Y...2
1 Y... gar
gar

Desta forma obtém-se as somas de quadrados:

1 1
SQB/A=
g
∑ j ∑ k .jk
Y 2 − ∑ jY.j.2
gr

1
SQG=
ar
∑ Y2 −C
i i..

1
SQA=
gr
∑ Y2 −c
j .j.

1 1 1
SQGA=
r
∑ i ∑ j ij.
Y 2 − ∑ jY.j.2 − ∑ iYi..2 + C
gr ar

1 1 1
SQR= ∑ i ∑ j ∑ kYijk2 − ∑ j ∑ k .jk
Y 2 − ∑ i ∑ jYij.2 + ∑ jY. 2j .
g r gr

124
estatística experimental no rbio

Método Prático para Obtenção da E(QM)

a) Modelo fixo

A esperança do quadrado médio do resíduo é σ 2 a esperança dos


quadrados médios associadas às demais fontes de variação é dada por:

σ 2 + kϕ x

Em que:

ϕ x : é o componente quadrático que expressa a variabilidade


associada ao efeito considerados fixo. Sendo:

ϕx =
∑fi i
2

gl

em que fi é o efeito considerado e gl os graus de liberdade a


este associado.
k: produto dos coeficientes que são os limites dos indexadores
não incluídos nas descrições do efeito fixo considerado.
Para o exemplo considerado tem-se:

125
estatística experimental no rbio

FV QM E(QM)

Blocos/Ambientes QMBA σ 2 + gϕb/a

Genótipos (G) QMG σ 2 + raϕ g

Ambientes (A) QMA σ 2 + rgϕa

GxA QMGA σ 2 + rϕga

Resíduo QMR σ2

Pode ser verificado que, no modelo fixo, todo teste de hipótese


é feito pela estatística F dada pela razão entre o quadrado médio da
fonte de variação que se deseja testar e o quadrado médio do resíduo.

b) Modelo aleatório

Para se obter a E(QM) em um modelo aleatório adotam-se os


seguintes procedimentos:

1. Confecciona-se uma tabela de dupla entrada considerando-


-se os indicadores das fontes de variações na coluna e os
componentes de variância nas linhas.
2. Multiplica-se cada componente de variância pelos valores
superiores (limite) dos indexadores não incluídos no com-
ponente de variância.
3. Inclui-se o componente, multiplicado pelo coeficiente
apropriado, que contiver todas as letras utilizadas para
identificação da fonte de variação considerada.

126
estatística experimental no rbio

Assim, tem-se:

Componente

FV Indexador σ2 rσ ga2 raσ g2 grσ a2 gσ b/a


2

Blocos/
ra x x
Ambientes

Genótipos (G) g x x x

Ambientes (A) a x x x x

GxA ga x x

Resíduo - x

Desta forma, o esquema da análise de variância, com as respec-


tivas esperanças dos quadrados médios para o modelo considerado, é:

FV QM E(QM)

Blocos/Ambientes QMBA σ 2 +gσ b/a


2

Genótipos (G) QMG σ 2 +rσ ga2 + raσ g2

Ambientes (A) QMA σ 2 +rσ ga2 + gσ b/a


2
+ grσ a2

GxA QMGA σ 2 +rσ ga2

Resíduo QMR σ2

c) Modelo Misto

Para se obter a E(QM) em um modelo misto deve-se, inicialmen-


te, estabelecer os componentes considerando que o modelo é aleatório,
conforme procedimento descrito anteriormente. Posteriormente,
excluem-se alguns componentes de variância considerando os aspectos:

127
estatística experimental no rbio

1. Excluir do componente de variância os indexadores que


estão contidos nas fontes de variação.
2. Excluir o efeito aninhado após a “/”.

O componente de variância permanecerá como constituinte da


E(QM) da fonte de variação estudada se:

a. Não sobrar nenhum indexador no componente avaliado.


b. Se sobrar apenas indexadores associados a efeitos aleatórios.

Assim, o componente de variância será constituinte da E(QM)


da fonte de variação se ele incluir, após as eliminações citadas, pelo
menos um indexador associado a efeito fixo.
Será considerado, como ilustração, o modelo misto em que os
efeitos de ambientes são fixos. Assim tem-se o seguinte esquema:

Componente

FV Indexador σ2 rσ ga2 raσ g2 grσ a2 gσ b/a


2

Blocos/Ambientes ra x x

Genótipos (G) g x x

Ambientes (A) a x x x x

GxA ga x x

Resíduo - x

Tem-se ainda que:

• No componente fixo, substituir σ 2 por φ.


• No componente da interação que envolve efeito aleatórios e fi-
f
xos, acrescentar um coeficiente de multiplicação dado por ,
f-1
em que f representa o número limite do efeito fixo considerado.

128
estatística experimental no rbio

Assim tem-se:

FV QM E(QM)

Blocos/Ambientes QMBA σ 2 +gσ b2/ a

Genótipos (G) QMG σ 2 + raσ g2

ra 2
Ambientes (A) QMA σ2 + σ ga + gσ ba2 + grϕa
a-1

ra 2
GxA QMGA σ2 + σ ga
a-1

Resíduo QMR σ2

A seguir serão apresentados a forma usual de obtenção das Es-


peranças de Quadrados Médios considerando o modelo inteiramente ao
acaso com efeitos fixos e o de blocos casualizados com efeitos aleatórios:

Modelo Inteiramente ao Acaso - efeitos fixos

Modelo Estatístico

Será considerado a avaliação de g genótipos em experimento


com r repetições, segundo o modelo estatístico:

Yij=m + gi + eij

em que:
m : média geral (E(m) = m e E(m2 ) = m2 )
gi: efeito do i-ésimo genótipo, considerado fixo e, portanto, tem-se:

E(gi) = gi ( )
E gi2 = g i2 e ∑
g
g =0
i =1 i
i = 1,2 ... g

129
estatística experimental no rbio

ε ij efeito do erro aleatório do erro associado à observação de


ordem ij, sendo:

( )
E(eij) = 0, E eij =σ e que ε ij ~NID 0,σ
2 2 2
( ) j = 1,2 ...r

Esquema da Análise de Variância

Como pode ser visto na literatura de delineamentos expe-


rimentais o esquema da análise para este modelo é dado na Tabela
6.2. Uma ilustração de um experimento conduzido em delineamento
inteiramente ao acaso, envolvendo a avaliação de quatro genótipos
em três repetições é ilustrado na Figura 6.1.

Figura 6.1. Esquema ilustrativo de um experimento inteiramente ao acaso com


quatro tratamentos (genótipos) com três repetições. A parcela experimental está
representada por um vaso contendo uma única planta, de forma que Yij representa
o valor da característica mensurado nesta planta.

130
estatística experimental no rbio

Tabela 6.2. Esquema da análise de variâncias para o modelo inteiramente


casualizados com g genótipos e r repetições
FV GL SQ QM

Tratamento g–1 SQT QMT

Resíduo (r - 1)g SQR QMR

Total rg – 1 SQTo

em que:

∑ i 1∑
g r
SQTo == Y2 −C
=j 1 ij

1 g 2
SQT = ∑ Yi. − C
r i =1

1 g 2
∑ ∑ ∑ Yi.
g r 2
SQR = SQTo − SQT = Y −
=i 1 =j 1 ij
r =i 1
e

Y..2
C=
gr

Esperanças das Somas de Quadrados e Quadrado Médios

Apesar dos resultados da análise de variância serem importan-


tes como indicadores da potencialidade da população e da precisão
experimental ainda são deficientes, para o geneticista, por não
quantificar a magnitude da variância genética disponível. Entretanto,
as informações da análise de variância poderão ser ampliadas se for
acrescentada nesta tabela as esperanças dos quadrados médios.
A obtenção das esperanças das somas de quadrados e quadra-
dos médios será abordada a seguir.

131
estatística experimental no rbio

Soma de Quadrado Total

A esperança matemática da soma de quadrado total é dada por:

E ( SQTo ) = E ( ∑ ∑ Y ) − E (C )
i
2
j ij

Considerando o primeiro termo, tem-se:

em que DP representa duplo-produtos envolvendo diferentes


efeitos do modelo ou, em outros casos, também o produto entre dife-
rentes valores de um mesmo efeito. É importante salientar uma obser-
vação relativo à esperança dos DP, ou seja, E(DP). Caso tenhamos um
efeito aleatório e um fixo, como por exemplo, E(meij), isso será mE(eij),
e como eij é um efeito aleatório sua esperança será 0, e, portanto, a
Esperança desse duplo-produto será zero. Caso tenhamos a esperança
dos efeitos aleatórios, como por exemplo E(eij, eij’), essa também é
zero, portanto, a Esperança de 2 efeitos aleatórios diferentes também
é zero. Por fim, pode existir a situação o cálculo da esperança de 2
efeitos Fixos, como será observado abaixo E(mgi)= mE(gi)= mgi. Porém
esse mesmo termo aparecerá quando for realizado a E(c). Sendo assim
teremos ele no primeiro termo da E(SQTo) – ele novamente na E(c), as-
sim ele será cortado. Dessa forma fica claro que independente do que
está relacionado no duplo-produto, pode-se agrupá-lo e eliminá-lo das
expressões que serão demostradas abaixo tanto para E(SQTo) quanto
para E(SQTrat) e outras que por ventura existirem nos modelos.

132
estatística experimental no rbio

Assim,

E (∑ ∑ Y ) = ∑ ∑
i
2
j ij i j

( ) ( ) ( )
[ E m 2 + E gi2 + E ε ij2 + E ( DP )]

logo,

E(∑ i ∑ jYij2 ) =gr m 2 + r ∑ igi2 + rgσ 2


(1)

Por outro lado, considerando o segundo termo, tem-se:

E (C ) =
1
= E (Y.. ) 2
gr
1 
gr 
)
E ∑ i ∑ j (m + gi + ε ij ]2

1
= E (grm+∑ i ∑ jε ij ) 2
gr (2)

E(C) =gr m 2 + σ 2
Assim, com base nas expressões (1) e (2) tem-se:

E ( SQTo ) = r ∑ igi2 + ( rg - 1) σ 2

Soma de Quadrado e Quadrado Médio de Tratamento

A esperança matemática da soma de quadrado de tratamento


é dada por:

1
E ( SQT ) = E
r
( ∑ Y ) − E (C )
2
i i.

133
estatística experimental no rbio

Considerando o primeiro termo, obtém-se:

1
=
r
(
E ∑ iYi.2
1
r
E ) {∑ ∑ ( m + g
i j i + ε ij ) 

2

}
  
1   2 2 2 2 
2

= E ∑  r m + r gi +  ∑ε ij  + DP  
r  i   j  
  
1  2 2 2
= E gr m + r ∑ igi2 + ∑ i (∑ jε ij ) 2 + DP 
r  
= grm 2 + r ∑ gi2 + gσ 2
(3)

Assim, com base nas expressões (2) e (3) tem-se:

E (=
SQT ) ( g - 1) σ 2 + r ∑ gi2

e, consequentemente,

 SQT 
E ( QMT ) = E  = σ 2 + rϕ g
 g - 1

sendo

∑ gi2
ϕg = : é o componente quadrático que expressa a variabi-
g-1
lidade genotípica entre o material genético estudado, considerado de
efeito fixo.

Soma de Quadrado e Quadrado Médio do Resíduo

A esperança matemática da soma de quadrado do resíduo é


obtida por meio da expressão:

134
estatística experimental no rbio

E ( SQR ) = E ( SQTo ) - E ( SQT ) = ( r -1) gσ 2

logo

 SQR 
E ( QMR ) = E   =σ
2

 ( r - 1) 
g

Para o experimento inteiramente ao acaso, o esquema da análi-


se de variância, com as respectivas esperanças dos quadrados médios,
é apresentado na Tabela 6.3.

Tabela 6.3. Resumo da análise de variância do delineamento inteiramente casualizado


aplicado a um modelo fixo e respectivas esperanças dos quadrados médios.
FV GL QM E(QM)

Tratamento g–1 QMT σ 2 + rϕ g

Resíduo (r - 1)g QMR σ2


Total rg – 1

Modelo em Blocos ao Acaso - efeitos aleatórios

Modelo Estatístico

Será considerado o modelo que descreve as observações ob-


tidas da avaliação de g genótipo em experimento em blocos ao acaso
com r blocos (ou repetições). As observações obtidas na parcela são
dadas pelo modelo estatístico:

Y=
ij m+g i + b j + ε ij

135
estatística experimental no rbio

em que:
Yij : observação obtida na parcela de i-ésimo genótipo no j-é-
simo bloco.
m: média geral
gi: efeito do i-ésimo genótipo considerado aleatório.
( )
E(gi) =0; E gi = σ g E ( gi , gi ' ) = 0
2 2

bj: efeito do j-ésimo bloco considerado aleatório.


( )
E(bj) =0; E b j = σˆ b e E ( b j , b j ' ) = 0
2 2

ε ij : efeito aleatório do erro associado a observação de ordem ij.


= =
Sendo: ( () )
E ( εEij()ε ij )0=0;= 2 2
( )
; E; εEij ε ij σ σe ε ij ~ NID 0, σ
2 2 2

Considera-se que os efeitos aleatórios são independentes entre si.


O esquema da análise de variância para o delineamento em
blocos ao acaso considerando o ensaio de avaliação de g genótipos em
b blocos é dado na Tabela 6.4 e o croqui ilustrativo de um experimento
é apresentado na Figura 6.2

Figura 6.2. Esquema ilustrativo de um experimento em blocos ao acaso com cinco


tratamentos (genótipos) e quatro blocos. A parcela experimental está representada
por quatro plantas, de forma que Yij representa o total ou a média destas plantas
para uma dada característica.

136
estatística experimental no rbio

Tabela 6.4. Esquema da análise de variância para experimentos em blocos ao acaso


envolvendo g genótipo e r blocos.
FV GL SQ QM

Blocos r-1 SBQ QMB

Tratamento g–1 SQT QMT

Resíduo (r-1)(g-1) SQR QMR

Total rg-1 SQTo

em que:

1
SQB =
g
∑ Y2 −C
j .j

1
SQT =
r
∑ Y2 −C
j i.

SQTo = ∑ i ∑ jYij2 -C

SQR = SQTo – SQB – SQT e

Y..2
C=
rg

Esperanças das Somas de Quadrados e Quadrados Médios

Soma de Quadrados Total

A esperança matemática da soma de quadrados total é dada por:

E ( SQTo ) =E ( ∑ ∑ Y ) -E (C )
i
2
j ij

137
estatística experimental no rbio

Considerando inicialmente o primeiro termo da expressão,


tem-se:

E ( ∑ ∑ Y ) = E ∑ ∑ (m+g + b + ε ) 
i
2
j ij i j i j ij
2

=E[rgm 2 +r(∑ gi ) 2 +g(∑ jb j ) 2 + (∑ i ∑ jε ij ) 2 +DP]

= rgm 2 + rgσ g2 + rgσ b2 + rgσ 2


(1)

Considerando o segundo termo da expressão, temos:

1 1
E (C) E (Y.. ) E[r 2 g 2 m 2 + r 2 (∑ igi ) 2
2
= =
rg rg
+ g 2 (∑ jb j ) 2 + ( ∑ ∑ ε ) + DP
i j ij
2

(2)

Com base nas expressões (1) e (2), tem-se:

E ( SQTo ) =r ( g-1) σ g2 + g ( r-1) σ b2 + ( rg-1) σ 2

Soma de Quadrados e Quadrados Médios de Blocos

A esperança matemática da soma de quadrados de blocos é


dada por:

1 
E ( SQB ) =E  ∑ jY.j2  − E ( C )
g 

Considerando o primeiro termo da expressão, tem-se:

138
estatística experimental no rbio

1
=
g
(
E ∑ jY.j2
1 
E=
g 
∑ j)(∑ iYij ) 2 
1
 g ∑ j ∑i
E{ [ (m+g i + b j + ε ij )]2 }

=
1
g
{∑ [ g m + (∑ g ) + g b + ( ∑ ε ) + DP}
E j
2 2
i i
2 2 2
j i ij
2

E rg m + r ( ∑ g ) + g ∑ b + ∑ (∑ ε ) + DP 
1  2 2 2 2 2 2
=
g  i i  j j j i ij

= rgm 2 + rσ g2 + grσ b2 + rσ 2

Considerando agora as expressões (2) e (3), tem-se:

E ( SQB
= ) g ( r-1) σ b2 + ( r − 1) σ 2

 SQB 
E ( QMB ) =E  =  gσ b + σ
2 2

 r-1 

Soma de Quadrados e Quadrados Médios de Tratamentos


A esperança matemática da soma de quadrados de tratamen-
tos (genótipos) é dada por:

1 
E ( SQT ) =E  ∑ iYi.2  − E ( C )
r 

Considerando o primeiro termo da expressão, tem-se:

139
estatística experimental no rbio

1
( ∑ Y ) = 1r E {∑ ∑ (Y ) }
2
2
E i i. ij
r i j

1    
2

= E ∑  ∑ ( m + gi + b j + ε ij )  
r  i  j  

=
1
r
(
E{∑ i[r 2 m 2 + r 2 gi2 + (∑ jb j ) 2 + ∑ jε ij ) 2 + DP }

=
1
r
(
E[ gr 2 m 2 + r 2 ∑ igi2 + g ∑ jb j ) 2 + ∑ i (∑ jε ij ) 2 + DP 

= rgm 2 + rgσ g2 + gσ b2 + gσ 2 (4)

Assim, considerando as expressões (2) e (4), tem-se:

E ( SQT ) =r ( g-1) σ g2 + ( g-1) σ 2

 SQT 
E ( QMT ) =E  = σ + rσ g
2 2

 g-1 

Soma de Quadrados e Quadrado Médio do Resíduo

A esperança matemática da soma de quadrado do resíduo é


dada por:

E ( SQR ) =E ( SQTo ) −  E ( SQB ) + E ( SQT ) 


=r ( g-1) σ g2 + g ( r -1) σ b2 + ( rg-1) σ 2

{ }
−  g ( r-1) σ b2 + ( r − 1) σ 2 ]+[ r ( g-1) σ g2 + ( g-1) σ 2 

=σ 2 ( rg − 1 − r + 1 − g + 1) =( rg-r-g+1) σ 2

= ( r -1)( g-1) σ
2

140
estatística experimental no rbio

logo

 SQR 
E ( QMR ) =E   =σ
2

 ( r-1)( g-1) 

O esquema da análise de variância com as respectivas esperan-


ças dos quadrados médios para o experimento em blocos ao acaso,
admitindo ser o modelo aleatório, é descrito na Tabela 6.5.

Tabela 6.5. Esquema da análise de variância de um experimento em blocos ao


acaso envolvendo a avaliação de g genótipos em r blocos e respectivas esperanças
dos quadrados médios.
FV GL QM E(QM)

Blocos r-1 QMB σ 2 + gσ b2

Tratamentos g-1 QMT σ 2 + rσ g2

Resíduo (r - 1) (g - 1) QMR σ2

Noções de modelos mistos: REML/BLUP

Durante as fases iniciais de um programa de melhoramento, é


comum que os experimentos sejam balanceados, como por exemplo
avaliado no mesmo conjunto de lugar e anos. Essa situação simplifica
a seleção do melhor genótipo, uma vez que a seleção fenotípica é
eficaz. Porém, nem sempre essa é a situação corriqueira. Imagine que
o melhorista disponha de um número de populações para avaliação,
porém metade delas sejam avaliadas em 5 locais, e a outra metade
seja avaliada em outros 6 locais. A seleção dos melhores materiais
pode ser feita com base na sua performance média no ambiente que
foi avaliado. Mas suponha que o melhorista deseje selecionar de forma

141
estatística experimental no rbio

geral, porém, ele não avaliou todos os materiais nos 11 locais, nessa
situação temos um conjunto de dados desbalanceados, e as diferenças
entre os grupos de ambientes são confundidas com as diferenças entre
os materiais genéticos, não sendo recomendado portanto, a seleção
simplesmente pela performance média dos materiais.
O BLUP, Best Linear unbiased prediction, é um procedimento
que permite a comparação entre experimentos desbalanceados seja
no número de genótipos, de ambientes, ambos ou outra forma de des-
balanceamento. Portanto BLUP é muito importante no melhoramento
genético uma vez que situações de desbalanceamento são passíveis
de aparecer a todo instante. Além disso o BLUP permite fazer uso da
matriz de parentesco entre os indivíduos maximizando o processo se-
letivo. Suponha que deseja comparar o desempenho entre 2 materiais
genéticos. Pode-se apenas comparar o desempenho per se destes
materiais e decidir qual é o melhor material, porém alternativamente,
pode-se avaliar também o desempenho dos parentes destes materiais
de forma e inferir sobre qual desses materiais é superior. Um exemplo
clássico nesse sentido é visto no melhoramento animal, em que deseja
selecionar um boi para produção de leite. Como boi não produz leite,
sua capacidade de produção é avaliada através das suas descendentes,
de forma que é possível estimar o real potencial do boi para contribui-
ção na produção do leite.
No melhoramento vegetal utiliza-se os termos BLUP e BLUE,
sendo que os efeitos aleatórios são preditos através do BLUP e os
efeitos fixos são estimados pelo BLUE. Os efeitos fixos são constantes
e não variáveis aleatórias. Alguns efeitos fixos são, por exemplo, a
média geral, diferentes tipos de solos. No melhoramento o ambiente
é considerado aleatório, porém a média de um grupo de ambientes
é considerada um efeito fixo. Imagine que no exemplo anterior dado
tem-se que no grupo de 5 locais houve menos precipitação do que
o segundo grupo de locais com 6 locais, será necessário proceder a
correção para a precipitação antes de proceder a análise de compa-

142
estatística experimental no rbio

ração. Os efeitos aleatórios preditos pelo BLUP possuem estrutura de


covariância enquanto os efeitos fixos não possuem.
A presença de efeitos fixos e aleatórios no modelo fazem com
que este seja considerado um modelo misto. BLUP e BLUE tratam-se
de propriedade estatísticas de predição e estimação apesar de serem
informalmente associado aos procedimentos de análises. B de “Best”
significa que a variância amostral predita ou estimada é mínima. L de
“Linear” significa que as estimativas ou predições são funções lineares
das observações. U de “Unbiased” no BLUE significa que os valores
esperados das estimativas são iguais aos valores verdadeiros, já no
BLUP significa que a predição tem esperança igual a zero (média).
Os reais valores de variâncias e covariâncias dos efeitos ale-
atórios são requeridos no BLUP. Mas os reais valores das variâncias
genéticas e não genéticas são desconhecidos, sendo assim, faz-se uso
de aproximação destas estimativas.
O procedimento REML/BLUP passou a ser usado rotineiramen-
te no melhoramento animal no exterior a partir da década de 1980.
Algoritmos para escrever diretamente matriz de parentesco genético
aditivo foram apresentados por Henderson (1976) nos EUA e Thomp-
son (1977) na Inglaterra.
A avaliação genotípica compreende a estimação de compo-
nentes de variância (parâmetros genéticos) e a predição dos valores
genotípicos. As estimativas dos parâmetros genéticos tais quais a
herdabilidade e correlações genéticas são fundamentais para o deline-
amento de eficientes estratégias de melhoramento. A experimentação
de campo, pode ocorrer em situações de desbalanceamento de dados
devido a vários motivos tais quais perdas de plantas e parcelas, desi-
guais quantidades de sementes e mudas disponíveis por tratamento,
rede experimental com diferentes números de repetições por expe-
rimento e diferentes delineamentos experimentais, não avaliação de
todas as combinações genótipo-ambiente, dentre outros. Em função
disso o procedimento REML/BLUP (máxima verossimilhança residual

143
estatística experimental no rbio

ou restrita/melhor predição linear não viciada), também denominado


genericamente de metodologia de modelos mistos, lidam com o des-
balanceamento conduzindo a estimações e predições mais precisas de
parâmetros genéticos e valores genéticos, respectivamente.
O BLUP é o procedimento que maximiza a acurácia seletiva e,
portanto, é superior a qualquer outro índice de seleção combinada,
permitindo também o uso simultâneo de várias fontes de informação
tais quais aquelas advindas de vários experimentos instalados em
um ou vários locais e avaliados em uma ou várias colheitas. O BLUP
individual utiliza todos os efeitos do modelo estatístico, contempla o
desbalanceamento, utiliza o parentesco genético entre os indivíduos
em avaliação, e considera a coincidência entre unidade de seleção e
unidade de recombinação.
A análise de variância (ANOVA) e análise de regressão foram,
durante muito tempo, o principal esteio da análise e modelagem
estatística. Entretanto, estas técnicas têm limitação para lidar com da-
dos desbalanceados e com parentesco entre tratamentos. O método
REML permite lidar com essa situação permitindo maior flexibilidade
e eficiência na modelagem. Em experimentos agronômicos e flores-
tais, o REML tem substituído com vantagens o método ANOVA criado
pelo cientista inglês Ronald Fisher em 1925. Na verdade, o REML é
uma generalização da ANOVA para situações mais complexas. Para
situações simples, os dois procedimentos são equivalentes, mas para
as situações mais complexas encontradas na prática, a ANOVA é um
procedimento apenas aproximado. O REML é um método eficiente
no estudo das várias fontes de variação associadas à avaliação de
experimentos de campo, permitindo desdobrar a variação fenotípica
em seus vários componentes genéticos, ambientais e de interação
genótipo x ambiente.
As principais vantagens práticas do REML/BLUP são: permite
comparar Indivíduos ou variedades através do tempo (gerações, anos)
e espaço (locais, blocos); permite a simultânea correção para os efeitos

144
estatística experimental no rbio

ambientais, estimação de componentes de variância e predição de


valores genéticos; permite lidar com estruturas complexas de dados
(medidas repetidas, diferentes anos, locais e delineamentos); pode ser
aplicado a dados desbalanceados e a delineamentos não ortogonais.
No caso de dados desbalanceados, a ANOVA conduz a imprecisas
estimativas de componentes de variância e consequentemente a pre-
dições de valores genéticos que não são acurados.
Na análise de modelos mistos com dados desbalanceados os
efeitos do modelo não são testados via testes F tal como se faz no méto-
do da análise de variância. Nesse caso, para os efeitos aleatórios, o teste
cientificamente recomendado é o teste da razão de verossimilhança
(LRT). Para os efeitos fixos, um teste F aproximado pode ser usado. Um
quadro similar ao quadro da análise de variância pode ser elaborado. Tal
quadro pode ser denominado de Análise de Deviance (ANADEV).
A Anova e regressão possui como pressuposições básicas a inde-
pendência de erros, independência entre tratamentos e balanceamen-
tos para um correto teste F, já os modelos mistos permitem relaxar tais
pressuposições, principalmente no que se refere a desbalanceamento.
Na Análise tradicional os componentes de médias são as mé-
dias fenotípicas obtidas via método dos quadrados mínimos, sendo os
componentes de variância testados via teste F da Anova. Nos modelos
mistos os componentes de médias são as médias genéticas obtidas via
BLUP e os componentes de variância obtidos via REML com significân-
cia realizada via LRT – qui-quadrado da ANADEV (Análise de Deviance).
O objetivo das análises são ordenar os materiais genéticos com
base em seus valores genotípicos e não com base nos valores fenotípi-
cos, uma vez que médias fenotípicas não mais se repetem, dessa forma
o uso dos modelos mistos nunca se mostra pior do que o uso da anova.
O parâmetro mais importante é a acurácia seletiva, que é a cor-
relação entre o valor genotípico verdadeiro e aquele estimado a partir
das informações dos experimentos. Sendo que o estimador acurado é
aquele que apresenta a menor diferença entre estes valores.

145
estatística experimental no rbio

Fator de Efeitos Fixos: Níveis são constantes; níveis são esco-


lhidos; inferência é válida para os níveis em estudo; informação entre
níveis não afeta a estimação de cada nível. Fator de Efeitos Aleatórios:
Níveis são variáveis aleatórias amostradas de uma distribuição de
probabilidade; níveis são amostras aleatórias de uma população; infe-
rência é válida para toda a população; informação entre níveis afeta a
estimação de cada nível.
Qualquer análise em que se tenha menos do que 5 tratamentos
(T<5) a fonte de variação tratamentos devem ser considerada como de
efeito fixo. As análises em que possuam menos de 10 blocos (B<10)
a fonte de variação blocos devem ser considerada como fixo. Demais
casos estas fontes devem ser consideradas aleatória.
Modelo Fixo: Efeitos fixos, exceto o erro experimental (e): Com-
ponentes de Médias: Quadrados Mínimos; Componentes de Variância:
ANOVA. Teste de Significância: F
Modelo Aleatório: Efeitos aleatórios, exceto a média geral (u):
Componentes de Médias: BLP (SI) = BLUP; Componentes de Variância:
ML=REML (ANADEV); Teste de Significância: LRT (Qui-Quadrado).
Modelo Misto: Efeitos fixos, além da média geral; Efeitos Ale-
atórios além do erro experimental. Componentes de Médias: BLUP;
Componentes de Variância: REML (ANADEV); Teste de Significância:
LRT (Qui-Quadrado).
O procedimento REML/BLUP permite tratar adequadamente a
matriz de parentesco genético aditivo entres os indivíduos em avalia-
ção. No software há uma série de análises, de seleção individual ou
dialélicas, que podem ser realizadas considerando o parentesco entre
os materiais avaliados. Para isso, além do arquivo de dados fenotípicos
coletados, na estrutura experimental em foram avaliados, é também
necessário um segundo arquivo, esse relacionado ao pedigree, em que,
valores zeros são atribuídos a indivíduos cujos pais são desconhecidos.

146
estatística experimental no rbio

Equações de modelos mistos

As equações de modelos mistos desenvolvidas por Henderson


(1976) permitem a solução simultânea dos efeitos fixos (β) e dos efei-
tos genéticos aleatórios (u) considerando o modelo:

y = Xβ + Zu + e

em que
y: é o vetor das observações
β: é o vetor de parâmetros de efeitos fixos desconhecidos
u: é o vetor de parâmetros dos efeitos aleatórios desconhecidos
X: matriz de incidência do delineamento conhecida, sendo que
X é relaciona y a β
Z: matriz de incidência do delineamento conhecida, sendo que
Z relaciona y a u
As matrizes X e Z são constituídas de 1s e 0s.
e: refere-se ao efeito aleatório associado aos erros ou resíduos
não observáveis.

O objetivo é obter as soluções para β e para u. No modelo misto


assume-se que u e e são normalmente distribuídos com:

u   0 
Média: E   =  
 e  0 
u G 0
Variância: Var   = 
e  0 R 
Tem-se:
Var(u) = G; Var(e)=R, Cov (u, e) = 0
Var(y) = Var (Zu) + Var(e) = ZGZ’ + R
Cov (y, u’) = Cov (Zu, u’) = ZVar(u) = ZG
Cov (y, e’) = Cov (e, e’) = Var(e) = R

147
estatística experimental no rbio

Sendo assim, assumindo que y, u e e tenham distribuição nor-


mal multivariada, tem-se:

O modelo linear é um caso especial do modelo misto em que Z


= 0 e R =σ2I. A análise de modelos mistos permite que seja especificado
várias estruturas de covariância para ambas as matrizes G e R.
A solução das equações de modelos mistos é dada por:

−1
 βˆ   X'R −1 X X'R −1Z   X'R −1 y 
  =  −1   
 uˆ   Z'R X Z'R −1Z + A−1 (VR / VA )   Z'R −1 y 

nesse caso A é a matriz de covariância entre os genótipos. Se


o efeito de dominância e epistasia é considerado nulo, tem-se que
a matriz de covariância entre os genótipos é igual a 2rxyVA, em que
rxy se trata da matriz de parentesco entre os genótipos x e y, dessa
forma A é obtida por 2rxy. Caso não exista informação de parentesco,
a covariância entre eles será nula, de forma que esta matriz A se torna
uma matriz identidade.
A matriz R é a matriz de variância residual ou a matriz de repe-
tições ou número de experimentos que o experimento foi conduzido,
como por exemplo anos avaliados ou). Quando a informação experi-
mental é obtida com avaliação feita em mesmo número de ambientes,
então a matriz R se torna uma matriz identidade de forma que pode-
mos escrever de forma resumida:

148
estatística experimental no rbio

−1
 βˆ   X'X X'Z   X'y 
 =
 uˆ   Z'X Z'Z + A (VR / VA )   Z'y 
−1

Para estes cálculos são assumidos que os valores de variâncias


são conhecidos, porém na prática estes valores são desconhecidos
e é necessário que sejam estimados. O método REML, “Restricted
maximum likelihood” permite a estimação destes componentes de
variância. Por isso, muitas vezes é denotado como REML/BLUP, pois
para a realização da análise do BLUP é necessário obter os componen-
tes de variância via REML. Os estimadores de máxima verossimilhança
maximizam a verossimilhança dos dados segundo um específico
modelo, ou seja, estimam os parâmetros da população que deveriam
ocorrer para que fosse possível observar aqueles dados. A estimação
dos componentes de variância via o método da máxima verossimi-
lhança assume que os efeitos fixos são conhecidos e sem erros. Os
estimadores REML, em contraste, maximizam apenas uma porção da
verossimilhança que não dependem dos efeitos fixos. O método EM
“expectation-maximization, é um método muito usado para estimar as
variâncias no BLUP. De forma similar ao algoritmo REML, o método EM
é um processo interativo em que as estimativas da Variância Residual
(VR) e Variância Aditiva (VA) iniciais são usadas para calcular β̂ e û e
assim as estimativas de VR e VA são atualizadas.
De forma geral pode-se explicar o método da seguinte manei-
ra: O processo inicia com o pesquisador informando os valores de VR e
VA uma vez que a razão VR/VA é necessária para as análises (iteração
0). Resolvendo as equações de modelos mistos obtêm as estimativas
de β̂ e û . Estes valores de β̂ e û são usados para obter as novas es-
timativas das variâncias VR e VA (iteração 1), sendo que VR é calculado
antes de VA. A razão VR/VA é atualizada com os resultados obtidos na
iteração 1. Esses passos são repetidos sucessivamente até que ocorra a

149
estatística experimental no rbio

convergência, ou seja, que os valores da variância entre duas iterações


se diferem muito pouco (<0.01% ou <0,0001 ou 1/10000).
A variância residual, VR, é estimada segundo Henderson (1976):

y′R −1 y − ( vetor solução ) '* ( vetor direito )


VR =
( número de observações em y ) − rank ( X )

sendo o rank(X) o rank da matriz X, ou seja, o número de equa-


ções independentes para os efeitos fixos, que pode ser obtida pelo
número de colunas diferentes de zero da matriz.
A estimativa da Variância Aditiva, VA, é obtida por:

VA =
(
uˆ ' A−1uˆ + VˆR *traço A−1 A22 )
( número de genótipos )

O traço refere-se a soma dos elementos da diagonal da matriz


quadrada. O VˆR refere-se ao valor obtido na última iteração.
É necessário fornecer a razão VR/VA para o cálculo. Alternativa-
mente de posse da herdabilidade também é possível chegar nessa razão,
uma vez que VR/VA equivale a (1-h2) /h2, como pode-se demostrar:

VA VA + VR − VA VR
1 − h 2 =−
1 = =
VA + VR VA + VR VA + VR

VA
h2 =
VA + VR

150
estatística experimental no rbio

Dessa forma a razão (1-h2) /h2 fica:

VR
VA + VR = VR / VA
VA
VA + VR

Abaixo serão demostrados alguns exemplos com uso da equa-


ção de modelos mistos.
Exemplo 1. Considere a avaliação fenotípica de uma variável
simulada qualquer (y), em delineamento em blocos ao acaso com 3
tratamentos e 2 blocos (Tabela 6.6).

Tabela 6.6. Avaliação de uma variável agronômica simulada em delineamento


inteiramente casualizado.
Blocos
Tratamentos Total Média
I II

1 66.98 75.61 142.59 71.295

2 113.77 126.24 240.01 120.005

3 71.87 87.53 159.4 79.7

Total 252.62 289.38 542

Média 84.20667 96.46 90.333

Para este exemplo será considerado que a razão Vr/Va = 1.

1 0 1 0 0   66.98 
0 
1    75.61 
 1 0 0   
1 0 0 1 0  113.77 
X =  Z =  Y = 
0 1 0 1 0  126.24 
1 0 0 0 1  71.87 
     
0 1 0 0 1  87.53 

151
estatística experimental no rbio

Matrizes de incidência (X e Z), ordem n x p, sendo X 6x2 que


são os efeitos dos 2 blocos (fixos), e Z 6x3 que são os efeitos dos 3
tratamentos (aleatórios). A matriz X é a matriz dos efeitos fixos, e a
matriz Z é a matriz dos efeitos aleatórios
O modelo então fica: y= Xb + Zg + e, e matricialmente é dado por:

 66.98  1 0  1 0 0   e1 
 75.61  0 1  1 0 0  e2 
       g1   
113.77  1 0   b1  0 1 0   g 2  +  e3 
 =    +    e4 
126.24  0 1  b 2  0 1 0   g 3   
 71.87  1 0  0 0 1  e5 
       
 87.53  0 1  0 0 1  e6 

A solução do sistema pode ser dada por:

X ' X X 'Z   βˆ   X ' y 


Z 'X  =
 Z ′Z + A−1λ  
 ĝ   Z ' y 

em que A é a matriz de parentesco de dimensão de acordo com


os dados, como nesse caso não existe parentesco entre os tratamentos
esta é uma matriz identidade, e λ = (1-h2)/h2 sendo h2 a herdabilidade a
nível individual, caso ela não seja conhecida pode adotar valor de λ = 1

152
estatística experimental no rbio

Desta forma tem-se:

A matriz X’X é:

1 0
0 1 

 1 0 1 0 1 0  1 0 3 0
0 1 0 1 0 1  0 =
  1  0 3
1 0
 
0 1

A matriz X’Z é:

1 0 0
1 0 0 

1 0 1 0 1 0   0 1 0  1 1 1
0 1 0 1 0 1  0 =
  1 0  1 1 1
0 0 1
 
0 0 1

A matriz Z’X é:

1 0
0 1 
1 1 0 0 0 0   1 1
 0 0 1 1 0 0  1 0  
  0  = 1 1
1
0 0 0 0 1 1   1 1
1 0 
 
0 1

153
estatística experimental no rbio

A matriz Z’Z é:

1 0 0
1 0 0 
1 1 0 0 0 0   2 0 0
0 0 1 1 0 0  0 1 0  
  0  = 0 2 0
1 0 
0 0 0 0 1 1    0 0 2 
0 0 1 
 
0 0 1

Na ausência de parentesco a matriz A é uma matriz identidade


de ordem n, sendo n o número de genótipos, e a sua inversa é a mesma
matriz A, portanto, a matriz A e sua inversão são:

1 0 0 
A = 0 1 0 
0 0 1 

Considerando que a razão Vr/Va = λ =1, A-1 *λ é a própria identidade

1 0 0  1 0 0 
0 1 0  * λ = 0 1 0 
   
0 0 1  0 0 1 

Sendo assim, o termo Z’Z + A-1 (λ) é:

 2 0 0  1 0 0   3 0 0 
0 2 0  + 0 1 0  =  
    0 3 0 
 0 0 2  0 0 1  0 0 3

154
estatística experimental no rbio

Dessa forma com base nessas matrizes pode-se montar a matriz

3 0 1 1 1
0 3 1 1 1 
X ' X X 'Z  
Z 'X = 1 1 3 0 0
 Z ' Z + A−1 (VR / VA )   
1 1 0 3 0
1 1 0 0 3

O próximo passo é obter os vetores do lado direito para formar


a matriz necessária. O primeiro dele é o X’Y, que é:

 66.98 
 75.61 
 
1 0 1 0 1 0  113.77   252.62 
0 1 0 1 0 1  126.24  =  289.38
    
 71.87 
 
 87.53 

Do mesmo modo o Z’Y é:

 66.98 
 75.61 
1 1 0 0 0 0    142.59 
0 0 1 1 0 0  113.77   
  126.24  =  240.01

0 0 0 0 1 1    159.40 
 71.87   
 
 87.53 

155
estatística experimental no rbio

Com base nesses vetores pode-se montar a matriz:

 252.62 
 289.38
 X ' y  
Z ' y =  142.59 
   
 240.01
159.40 

Portanto, a solução do sistema é:

3 0 1 1 1  bˆ1   Soma B1 = 252.62 


0   
 3 1 1 1   bˆ2   Soma B 2 = 289.38

1 1 3 0 0  ˆ  =  Soma G1 = 142.59 
   g1   
1 1 0 3 0  gˆ 2   Soma G1 = 240.01 
1 1 0 0 3    Soma G3 = 159.40 
 gˆ 3   

O sistema de equações lineares fica:

3b1 + 0b2 + g1 + g2 + g3 = 252.62


0b1 + 3b2 + g1 + g2 + g3 = 289.38
b1 + b2 + 3g1 + 0 + 0 = 142.59
b1 + b2 + 0 + 3g2 + 0 = 240.01
b1 + b2 + 0 + 0 + 3g3 = 159.40

Alternativamente a solução é dada por:

−1
 βˆ   X ' X X 'Z   X ' y
 =
 uˆ   Z ' X Z ' Z + A (VR / VA )   Z ' y 
−1

156
estatística experimental no rbio

 bˆ1   3 0 1 11
−1
 Soma B1 = 252.62 
  
 bˆ2  0 3 1 1 
1  Soma B 2 = 289.38
 
 ˆ  = 1 1 3 00  Soma G1 = 142.59 
 g1     
 gˆ 2  1 1 0 03  Soma G 2 = 240.01
  
 gˆ 3  1 1 0 0 3  Soma G3 = 159.40 

 bˆ1   0.6667 0.3333 −0.3333 −0.3333 −0.3333


  
 bˆ2   0.3333 0.6667 −0.3333 −0.3333 −0.3333
ˆ  = 
 g1   −0.3333 −0.3333 0.5555 0.2222 0.2222 
 gˆ 2   −0.3333 −0.3333 
0.2222 0.5555 0.2222 
  
 gˆ 3   −0.3333 −0.3333 0.2222 0.2222 0.5555 

 252.62   bˆ1 = 84.2066 


 289.38  ˆ 
   b 2 = 96.4600 
142.59  =  
gˆ1 = −12.6922 
  
 240.01  gˆ 2 = 19.7811 
159.40   gˆ 3 = −7.0888 
 

Para a estimação dos componentes de variância via REML é


necessário um método iterativo, conforme a Figura 6.3.

Figura 6.3: Obtenção dos componentes de variância via REML.

157
estatística experimental no rbio

Tomando os dados do exemplo anterior, pode-se obter as esti-


mativas necessárias para a obtenção dos componentes de variância via
REML e a solução do sistema será atualizada
No exemplo anterior iniciou-se usando a razão Variância Resi-
dual / Variância Aditiva ou VR/VA =1. Esse foi o valor inicial. Com estes
valores foi obtida a saída do sistema:

bˆ1 = 84.2066
bˆ2 = 96.4600
gˆ1 = −12.6922
gˆ 2 = 19.7811
gˆ 3 = −7.0888

Proocede-se então a atualização das estimativas de VR e VA, sendo:

y′R −1 y − ( vetor solução ) '* ( vetor direito )


VR =
( número de observações em y ) − rank ( X )

Sendo assim as matrizes utilizadas são:

A matriz Y’Y é:

[66.98 75.61 113.77 126.24 71.87 87.53]


 66.98 
 75.61 
 
113.77 
  = 51910.4
126.24 
 71.87 
 
 87.53 

158
estatística experimental no rbio

O vetor solução transposto é:

[84.2066 96.4600 −12.6922 19.7811 −7.0888]

O vetor direito já calculado anteriormente é:

 252.62 
 289.38
 X ' y  
Z ' y =  142.59 
   
 240.01
159.40 

Portanto o produto do vetor solução transposto e o vetor direito é:

[84.2066 96.4600 −12.6922 19.7811 −7.0888]


 252.62 
 289.38
 
142.59  = 50993.79
 
 240.01
159.40 

O rank da matriz X é 2, uma vez que a matriz X é 6x2, seu rank


máximo seria 2 que é o menor entre número de colunas e linhas. Como
ambas colunas são independentes, o rank será 2.
Dessa forma, a equação para a obtenção do VR será:

y′R −1 y − ( vetor solução ) * ( vetor direito )


'

VR =
( número de observações em y ) − rank ( X )
51910.4 − 50993.79
= 229.0866
6−2

159
estatística experimental no rbio

Para a obtenção de VA tem-se:

VA =
(
uˆ ' A−1uˆ + VˆR *traço A−1 A22 )
( número de genótipos )

A matriz uˆ 'uˆ é aquela com os valores estimados para os trata-


mentos na primeira análise, portanto:

A matriz A22 é o a parte na matriz abaixo referente a Z’Z +


A (Vr/Va), já obtido anteriormente para a solução do sistema
-1

−1
X ' X X 'Z 
 Z ' X Z ' Z + A−1 V / V  =
 ( R A )
 0.6667 0.3333 −0.3333 −0.3333 −0.3333
 0.3333 0.6667 −0.3333 −0.3333 −0.3333
 
 −0.3333 −0.3333 0.5555 0.2222 0.2222 
 
 −0.3333 −0.3333 0.2222 0.5555 0.2222 
 −0.3333 −0.3333 0.2222 0.2222 0.5555 

Sendo assim,

 0.5555 0.2222 0.2222 


A22 = 0.2222 0.5555 0.2222 
0.2222 0.2222 0.5555

160
estatística experimental no rbio

O traço da matriz A22 é a soma de todos os elementos da sua


diagonal principal, portanto, 1.6667. Desta forma tem-se:

VA =
(
uˆ ' A−1uˆ + VˆR * traço A−1 A22 )
( número de genótipos )
602.6372 + ( 229.0866*1.6667 )
= 328.1494
3

De posse destes valores de VR e VA a solução do sistema é


novamente obtida e assim novas estimativas para VR e VA serão atu-
alizadas. Abaixo está demostrada a saída para as primeiras iterações,
e a convergência após 50 iterações foi atingida de forma que a dife-
rença entre os valores da iteração i e da iteração i-1 sejam inferiores a
0.00001 (1/100000) para VR e VA.

Iteração VR VA bˆ1 bˆ 2 gˆ1 gˆ 2 gˆ 3

1 1 1 84.2066 96.4600 -12.6922 19.7811 -7.0888

2 229.0866 328.1494 84.20667 96.46000 -18.95135 29.53610 -10.58475

3 178.5163 377.6911 84.20667 96.46000 -18.95135 29.5361 -10.58475

4 132.6921 425.0559 84.20667 96.46000 -18.95135 29.53610 -10.58475

5 94.6325 466.5018 84.20667 96.46000 -18.95135 29.53610 -10.58475

... ... ... ... ... ... ... ...

49 6.195218 674.8692 84.20667 96.46000 -18.95135 29.53610 -10.58475

50 6.195217 674.8692 84.20667 96.46000 -18.95135 29.53610 -10.58475

51 6.195217 674.8692 84.20667 96.46000 -18.95135 29.53610 -10.58475

É importante chamar a atenção para os valores encontrados ao


utilizar o método REML/BLUP e ao usar o método da anova convencional.
Os valores das médias dos 3 tratamentos para a anova con-
vencional foram: 41.295; 120.005 e 79.7. Já no método REML/BLUP

161
estatística experimental no rbio

foram: -18.95135; 29.53610 e -10.58475. Se for calculado a correlação


simples de Pearson entre estes valores encontra-se o valor de 1, ou
seja, para experimentos balanceados a utilização do Blup ou da Anova
fornecem estimativas de médias genotípicas e fenotípicas iguais, não
tendo diferença na utilização dos métodos.

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
O acesso a análise é feito por: ANOVA> Modelos Mistos, con-
forme Figura 6.4.

162
estatística experimental no rbio

Figura 6.4. Software Rbio, e rotina de procedimentos para realizar anova via
modelos mistos

163
estatística experimental no rbio

# -----------------------------------
# Script 5: Análise de Modelos Mistos
# -----------------------------------

# ----------------------
# 5.1- Leitura dos dados
# ----------------------
dados<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
dados

Trat Rep Variavel


1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53

# ----------------------
# 5.2- Análise
# ----------------------
Trat<-as.factor(dados[,1]) # ALEATÓRIO
Rep<-as.factor(dados[,2]) # FIXO
y=dados[,3]

library(lme4)

blup1=lmer(y~(1|Trat)+Rep, REML=TRUE)
blup1

Linear mixed model fit by REML [‘lmerMod’]


Formula: y ~ (1 | Trat) + Rep
REML criterion at convergence: 31.6208
Random effects:
Groups Name Std.Dev.
Trat (Intercept) 25.978
Residual 2.489
Number of obs: 6, groups: Trat, 3
Fixed Effects:
(Intercept) Rep2
84.21 12.25

ranef(blup1)

$Trat
(Intercept)
1 -18.95135
2 29.53610
3 -10.58475

fixef(blup1)

(Intercept) Rep2
84.20667 12.25333

164
7

DELINEAMENTO EXPERIMENTAL
EM QUADRADO LATINO

No delineamento em quadrado latino (QL) os tratamentos


devem ser aleatorizados de duas maneiras diferentes, na linha e na
coluna, assim haverá o controle local destas duas formas. Isso faz com
que ele seja mais restritivo, uma vez que o número de unidades experi-
mentais será o dobro do número de tratamentos avaliados. Nesse tipo
de delineamento o número de linhas e colunas deverá ser o mesmo,
sendo que os tratamentos aparecerão uma única vez em cada linha
e em cada coluna. O número de repetições deverá ser o mesmo do
número de tratamentos, e isso dificulta a sua utilização, uma vez que
normalmente os experimentos contam com muito mais tratamentos
do que repetições.
O uso do QL é mais frequente em experimentos onde se com-
param de 5 a 8 tratamentos. Como o número de repetições deve ser
igual ao número de tratamentos, o número de graus de liberdade para
o resíduo pode ser muito baixo nos delineamentos QL 4x4 ou menores
e, o número de repetições pode se tornar muito alto nos experimentos
com mais de 8 tratamentos, dificultando a obtenção de unidades expe-
rimentais com semelhança adequada. O controle local conduz sempre
a uma diminuição do número de graus de liberdade para o resíduo,

165
estatística experimental no rbio

o que é um fator indesejável. Portanto, com o aumento de fontes de


variação controladas pelo delineamento, é necessário que haja uma
expressiva redução na variância residual de forma a compensar o me-
nor número de graus de liberdade do resíduo, o que afeta a obtenção
da estimativa do teste F.
Considerando um experimento com três tratamentos, pode-se
montar o experimento da forma esquematizada na Tabela 7.1:

Tabela 7.1. Esquema para montagem de experimento em delineamento quadrado latino.


Linhas/Colunas I II II

1 T1 T2 T3

2 T3 T1 T2

3 T2 T3 T1

É importante salientar que as linhas e colunas poderão repre-


sentar diferentes locais, diferentes observadores, sistemas. Imagine
um experimento comparativos com 3 adubos diferentes, 3 variedades
de milho e 3 fases (semanas) de observações diferentes. Considerare-
mos que as variedades são as colunas (I, II e III) e as fases as linhas (1, 2
e 3). Dessa forma o adubo 1 (T1) será ofertado a variedade I na semana
1. Essa mesma variedade (I) receberia o adubo 3 (T3) na semana 2 e o
adubo 2 (T2) na semana 3.
Normalmente os experimentos em QL mais usados são de 5x5
a 8x8, e aqueles 3x3 e 4x4 possuem tão poucas parcelas que só podem
ser usados se o experimento incluir vários quadrados latinos.
O modelo matemático para o delineamento em quadrados
latinos é:

Yijk=m + Li+ Cj + Tk+ eijk

166
estatística experimental no rbio

em que:
Yijk é o valor observado relativo à parcela que recebe o trata-
mento k na linha i e na coluna j, sendo i =1, 2, ..., k e j= 1, 2, ..., k.
m é a média geral do experimento
Li é o efeito da linha i
Cj é o efeito da coluna j
Tk é o efeito do tratamento k
eijk é o erro aleatório associado a observação ijk.

O quadro da ANOVA neste delineamento é representado na


Tabela 7.2.

Tabela 7.2. Quadro da ANOVA considerando delineamento em quadrado latino.


FV GL SQ QM F

Linha k-1 SQLinhas QMLinhas = SQLinhas /glLinhas

Coluna k-1 SQColunas QMColunas = SQColunas /glColunas

Tratamento k-1 SQTrat QMTrat = SQTrat/glTrat QMTrat / QMRes

Resíduo (k-1) (k-2) SQRes QMRes= SQRes/glRes

Total k2-1 SQTotal

Em que:

t r
SQTotal
= ∑∑Y
=i 1 =j 1
ij
2
−C

1 t 2
SQ
=Linhas ∑Yi. − C
k i =1

1 t 2
SQ
=Colunas ∑Y. j − C
k i =1

167
estatística experimental no rbio

1 t 2
SQTrat
= ∑Yk . − C
k i =1

Y..2
C=
k2

Considerando um experimento com três tratamentos, os dados


devem ser arranjados conforme a Tabela 7.3 para proceder a ANOVA.
Desta forma, tem-se:

Tabela 7.3. Tabela auxiliar considerando observações de três linhas e três colunas
para proceder a ANOVA.
Coluna
Linha Total Média
1 2 3

1 Y11k Y12k Y13k Y1. = ∑Y1 jk Ȳ1..


j .k =1

2 Y21k Y22k Y23k Y2. = ∑ Y2 jk Ȳ2..


j , k =1

3 Y31k Y32k Y33 Y3. = ∑ Y3 jk Ȳ3..


j , k =1

k k k k k k

Total Y.1 = ∑Yi1k Y.2 = ∑Yi 2 k Y.3 = ∑Yi 3k Y.. = ∑∑∑Yijk i


i , k =1 i , k =1 i , k =1 =i 1 =j 1 =
k 1

Média Ȳ.1. Ȳ.2. Y...

De todo modo, apenas para facilidade de cálculo, será demos-


trado um exemplo hipotético considerando três variedades de milho
(T1, T2 e T3) dispostas em um QL 3x3. Os dados são todos simulados
apenas para fins didáticos. Na Tabela 7.4 está o esquema da disposição
dos tratamentos, e os valores entre parênteses são os valores da vari-
ável produção avaliada.

168
estatística experimental no rbio

Tabela 7.4. Avaliação de uma variável agronômica simulada, com três linhas e três
colunas a serem submetidas a ANOVA em quadrado latino.
Linhas/Colunas I II II Total das linhas

1 T1 (66.98) T2 (113.77) T3 (71.87) 252.62

2 T3 (87.53) T1 (75.61) T2 (126.24) 289.38

3 T2 (120) T3 (79.7) T1 (71.29) 270.99

Total de colunas 274.51 269.08 269.94 812.99

Em que:

t r
SQTotal
= ∑∑Y
=i 1 =j 1
ij
2
C 66.982 + 113.77 2 + 71.87 2 + 87.532
−=

+75.61 + 126.242 + 1202 + 79.7 2 + 71.292 − 73439.19 =


2
4305.302

1 t 2 1
SQLinhas
= ∑
c i =1
Yi. =
−C
3
(
x 252.622 + 289.382 + 270.992 )
−73439.19 = 225.2163

1 t 2 1
SQColunas
= ∑
l i =1
Y. j =
−C
3
(
x 274.512 + 269.082 + 269.42 )
−73439.19 = 6.1882

1 t 2 1
∑Yk . = x ( 66.98 + 75.61 + 71.29 ) + (120 + 113.77 + 126.24 )
2 2
SQ
=Trat −C
r i =1 3
+ ( 87.53 + 79.7 + 71.87 ) − 73439.19 =
2
4067.695

Y..2 812.992
C
= = = 73439.19
tr 3.3

SQRes =SQTotal − SQLinhas − SQColunas − SQTrat


= 4305.302 − 225.2163 − 6.1882 − 4067.695= 6.2025

169
estatística experimental no rbio

Os quadrados médios são obtidos dividindo as respectivas


somas de quadrado pelo grau de liberdade da fonte de variação, desse
modo tem-se:

QM BLinhas SQ
= =Linhas / 2 225.2163
= / 2 112.61

QM
= Colunas Colunas / 2
SQ= 6.1882
= / 2 3.1

QM Trat SQ
= =Trat / 2 4067.695
= / 2 2033.9

QM Res SQ
= =Res / 2 6.2025
= / 2 3.1

O valor do teste F = QMTrat / QMRes= 2033.9/3.1=656.07.


A hipótese H0 testada é que todos os tratamentos possuem
média igual. O valor tabelado do F a 5% de probabilidade e 2 graus de
liberdade do numerador e 2 graus de liberdade do denominador (F5%;2;2)
é igual a 19 (ANEXO 7.1). Dessa forma, o F calculado é maior que F
tabelado, então rejeita-se a hipótese H0 de igualdade entre as médias,
devendo haver pelo menos uma média que difere estatisticamente das
demais. O resumo da análise de variância desse delineamento experi-
mental está apresentado na Tabela 7.5.

Tabela 7.5. Resultado da análise de variância da variável agronômica simulada,


considerando delineamento em quadrado latino.
FV GL SQ QM F

Linha 2 225.2163 112.61

Coluna 2 6.1882 3.1

Tratamento 2 4067.695 2033.9 656.07*

Resíduo 2 6.2 3.1

Total 8 4305.302
*: significativo a 5% de probabilidade pelo teste F.

170
estatística experimental no rbio

Neste exemplo, coeficiente de variação (C.V.) é:

100 QMR 100 3.1


CV%
= = = 1.9491%
média 90.33

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para realizar tal procedimento o usuário deverá acessar o menu
ANOVA > Quadrado Latino (DQL), conforme Figura 7.1.

171
estatística experimental no rbio

Figura 7.1. Software Rbio, e rotina de procedimentos para realizar análise de


variância no delineamento de Quadrado Latino.

Os scripts para proceder a análise no R e as saídas das análises


são apresentadas a seguir.

172
estatística experimental no rbio

# -----------------------------------
# Script 6: Delineamento experimental em quadrado latino (DQL)
# -----------------------------------

# ----------------------
# 6.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo2.txt”, h=T) # Leitura dos dados
X

Linha Coluna Trat Variavel1


1 1 1 1 66.98
2 2 1 3 87.53
3 3 1 2 120.00
4 1 2 2 113.77
5 2 2 1 75.61
6 3 2 3 79.70
7 1 3 3 71.87
8 2 3 2 126.24
9 3 3 1 71.29
# ----------------------
# 6.2- ANOVA DQL
# ----------------------

Linha<-as.factor(X[,1])
Coluna<-as.factor(X[,2])
Trat<-as.factor(X[,3])
saida <- lm(X[,4]~Linha+Coluna+Trat)
anova(saida)

Analysis of Variance Table

Response: X[, 4]
Df Sum Sq Mean Sq F value Pr(>F)
Linha 2 225.2 112.61 36.3157 0.026798 *
Coluna 2 6.2 3.09 0.9979 0.500517
Trat 2 4067.7 2033.85 655.9082 0.001522 **
Residuals 2 6.2 3.10
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

saida<- aov(X[,4]~Linha+Coluna+Trat)
print(summary(saida))

Df Sum Sq Mean Sq F value Pr(>F)


Linha 2 225 112.6 36.316 0.02680 *
Coluna 2 6 3.1 0.998 0.50052
Trat 2 4068 2033.8 655.908 0.00152 **
Residuals 2 6 3.1
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

173
estatística experimental no rbio

ANEXO 7.1. Tabela da Distribuição F ao nível de 5% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 161.45 199.5 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85
12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6
15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3
23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25
25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2
28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08

174
8

TESTES DE COMPARAÇÕES
MÚLTIPLAS E AGRUPAMENTOS

Ao tomar uma decisão em relação a testes de significância,


podem ocorrer dois tipos de erro: O Erro tipo I, que consiste em aceitar
como diferentes médias de tratamentos que na verdade são iguais, e o
Erro tipo II, que consiste em aceitar como iguais médias de tratamen-
tos que são diferentes.
Os níveis que são mencionados para os testes estatísticos refe-
rem-se apenas ao Erro tipo I. Ao usarmos métodos ou testes para dimi-
nuir o Erro tipo I, automaticamente aumentamos a chance de ocorrer
o Erro tipo II, ou seja, aceitar como iguais médias estatisticamente
diferentes. Por outro lado, quando um teste de comparação de médias
não dá resultado significativo, isto não prova que as médias sejam
iguais, pois não existe teste para comparar a igualdade de médias. O
que significa é que o teste não comprovou diferença significativa entre
as médias.
Normalmente nas análises de variância utiliza-se o teste F, que
compara razões de variância. Admitindo que todos os tratamentos
sejam equivalentes, o quadrado médio de tratamento é uma estima-
tiva da variância, da mesma forma que o quadrado médio do resíduo.

175
estatística experimental no rbio

Sendo estimativas do mesmo parâmetro, e independentes, estas não


deveriam ser diferentes, e caso fossem, deveria ser ao acaso.
As tabelas de F para 2 e 3 graus de liberdade fornece um valor
de 9.55 para o nível de 5% de probabilidade e de 30.82 para o nível de
1% (ANEXOS 8.1 e 8.2). Isso quer dizer que há uma probabilidade de
5% de encontrar um valor de F superior a 9.55, ou seja, existe 95% de
probabilidade de encontrar valores de F inferiores a 9.55 meramente
ao acaso. De maneira análoga, existe 1% de probabilidade de encontrar
um valor de F superior a 30.82, ou seja, existe 99% de probabilidade de
encontrar valores de F inferiores a 30.74 meramente ao acaso.
Normalmente, uma vez identificado o teste F significativo na
análise de variância, o pesquisador deseja saber qual ou quais trata-
mentos diferiram dos demais. Para solucionar tal objetivo é comumen-
te aplicado os testes de médias, também chamados de procedimentos
de comparações múltiplas. Existem diversos testes disponíveis, sendo
que alguns deles serão retratados aqui. Eles normalmente diferem
pela filosofia do controle dos erros tipo I, por exemplo, os testes Dun-
can e LSD (baseado na distribuição t de Student) não controlam a taxa
de erro por experimento, e sim a taxa de erro por comparação. Por
outro lado, testes como Tukey e Scheffé controlam adequadamente as
taxas de erro por experimento e por comparação, preservando o nível
nominal de significância α adotado (Ramalho et al. 2012). Também
será tratado neste tópico o teste de agrupamento de Scott-Knott, que
apesar de não ser um teste de comparações múltiplas, portanto não
possui a diferença mínima significativa calculada, se trata de um teste
muito utilizado na experimentação.
Para as diversas análises a serem realizadas neste capítulo
serão considerados os valores da Tabela 8.1.

176
estatística experimental no rbio

Tabela 8.1. Avaliação de uma variável agronômica simulada em delineamento


inteiramente casualizado.
Repetição
Tratamentos Total Média
I II

1 66.98 75.61 142.59 71.295

2 113.77 126.24 240.01 120.005

3 71.87 87.53 159.4 79.7

Total 252.62 289.38 542

Média 84.20667 96.46 90.333

8.1. Teste t

O teste t é um teste clássico que é usado para comparar médias.


Para sua aplicação os contrastes das médias devem ser ortogonais e
serem feitos no máximo tantas comparações quanto são os graus de
liberdade para os tratamentos.
Para o caso de comparação entre duas médias deve-se
inicialmente saber se estas médias provêm de tratamentos com
variâncias iguais ou diferentes. Para isso realiza-se um teste F, sen-
do que a hipótese H0 é que as amostras possuem variâncias iguais
( H 0 : σ 12 = σ 22 ). Considerando s2 a variância de cada amostra, o teste F
pode ser obtido por:

s12
FCalculado =
s22

2 2
Nesta expressão anterior do F, s1 é a maior variância e s2 é a
menor variância.
O valor de F calculado deverá ser comparado com um valor de F
tabelado a um nível α de significância e com n1-1 e n2-1 graus de liber-
dade, em que n1 e n2 são os números de observações do tratamento

177
estatística experimental no rbio

1 e 2 respectivamente. Se Fcalculado > Ftabelado, rejeita-se a hipótese H0 de


igualdade das variâncias, logo as variâncias são heterogêneas.
Considerando que os tratamentos a serem comparados pos-
suem variâncias iguais a estatística do teste t é:

m1 − m2
t=
( n1 − 1) s12 + ( n2 − 1) s22 x 1 1
+
n1 + n2 − 2 n1 n2

em que:
m1 e m2: médias dos tratamentos 1 e 2
s21 e s22: variâncias dos tratamentos 1 e 2

os graus de liberdade nessa situação são dados por n1+n2 -2.


Considerando que os tratamentos a serem comparados pos-
suem variâncias diferentes, a estatística do teste t é:

m1 − m2
t=
s12 s22
+
n1 n2

O grau de liberdade nessa situação é dado por:

2
 s12 s22 
 + 
n n
gl =  12 2  2
 s12   s22 
   
 n1  +  n2 
n1 − 1 n2 − 1

178
estatística experimental no rbio

Se houver o interesse de comparar, por exemplo, se as médias


dos tratamentos 1 e 2 são iguais, pode-se realizar a comparação via
teste t. Testando a homogeneidade das variâncias para os referidos
2 2
tratamentos, e considerando s1 a maior variância e s2 a menor vari-
ância , usando os dados fornecidos na Tabela 1 tem-se:

(113.77 − 120.005) + (126.24 − 120.005)


2 2
s12
FCalculado
= =
( 66.98 − 71.295) + ( 75.61 − 71.295)
2 2
s22
77.75
= = 2.087
37.238

O valor tabelado do F a 5% de probabilidade e 1 grau de liber-


dade do numerador e 1 grau de liberdade do denominador (F5%;1;1) é
igual a 161.45 (ANEXO 8.1). Dessa forma, o F calculado é menor que F
tabelado, logo não se rejeita a hipótese H0 de igualdade das variâncias.
Uma vez obtida a informação de que as variâncias são homogê-
neas, procede-se ao teste t através da expressão:

m1 − m2
t=
( n1 − 1) s + ( n2 − 1) s22 x
2
1 1 1
+
n1 + n2 − 2 n1 n2
71.295 − 120.005
= = −6.424
( 2 − 1) 37.238 + ( 2 − 1) 77.75 x 1 1
+
2+2−2 2 2

O valor na tabela de distribuição t de Student a 5% de proba-


bilidade (T0.025%;2) e 2 graus de liberdade é igual a 4.30 (ANEXO 8.3).
Deve-se, portanto, rejeitar a hipótese H0 se o valor calculado for maior
que o valor tabelado 4.30 ou se o valor calculado for menor que – o
valor tabelado, ou seja, menor do que-4.30.

179
estatística experimental no rbio

Dessa forma, o t calculado (-6.42) é menor que t tabelado


(-4.30), então rejeita-se a hipótese H0 de igualdade das médias,
portanto as médias são diferentes. Vale aqui ressaltar que deve ser
considerada a tabela t com nível α/2, ou seja, 0.05/2 = 0.025.

Para realizarmos os testes de igualdade de variâncias e os testes


de médias, precisamos que as duas populações sejam independentes.
Porém, na prática, temos algumas situações onde as populações não
são independentes. Imagine por exemplo que determinados animais
são tratados com ração e deseja-se verificar se houve diferença de
peso entre antes e após esse tipo de alimentação. As observações
antes e depois são correlacionadas, devendo, portanto, fazer o uso do
teste t pareado.
A estatística do teste é:
D
t=
S D , que sob H0 segue uma distribuição t de Student
n
com n-1 graus de liberdade

180
estatística experimental no rbio

em que:
D : média dos desvios das observações dos tratamentos
SD é o desvio padrão dos desvios das observações dos tratamentos
n: número de observações de cada tratamento

Como exemplo, baseando-se nos dados da Tabela 8.1, conside-


re que os tratamentos 1 e 2 sejam as observações, antes e após a dieta,
respectivamente, conforme apresentado na Tabela 8.2.

Tabela 8.2. Avaliação de uma variável agronômica simulada, com dois tratamentos
avaliadas no tempo um e dois.
Observações (n) Tempo 1 Tempo 2 Diferença (D = t1-t2)

1 66.98 113.77 -46.79

2 75.61 126.24 -50.63

Média -48.71

Desvio Padrão 2.71

Para obter o valor de t calculado:


D1=66.98-113.77=-46.79
D2=75.61-126.24=-50.63
Média (D1, D2) =-48.71
Desvio Padrão (D1, D2) = ((-46.79--48.71)2+(-50.63--48.71)2)1/2=2.71

( 66.98 − 113.77 ) + ( 75.61 − 126.24 )  / 2


t= 
( −46.79 − −48.71) + ( −50.63 − −48.71)
2 2

2
−48.71
= = −25.37
2.71
2

181
estatística experimental no rbio

O valor na tabela de distribuição t de Student a 5% de probabili-


dade (T0.025%;1) e 1 grau de liberdade é igual a 12.71 (ANEXO 8.3). Dessa
forma, o t calculado é menor que o t tabelado, então rejeita-se a hipó-
tese H0 de igualdade das médias, portanto as médias são diferentes.

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Testes de Médias > Teste t, conforme a Figura 8.1.

182
estatística experimental no rbio

Figura 8.1. Software Rbio, e rotina de procedimentos para realizar o teste t.

# -----------------------------------
# Script 7: Testes de Médias
# -----------------------------------
# ----------------------
# 7.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X
Trat Rep Variavel
1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53
# ----------------------
# 7.2- Teste T
# ----------------------
variavel<-(X[,3])
alpha<- 0.05
cat(“\n”,”Teste para comparacoes entre as variancias das populacoes”, “\n”)
Teste para comparacoes entre as variancias das populacoes
variancia.teste1<-(var.test(variavel[X[,1]==pop1], variavel[X[,1]==pop2], alternative=”two.sided”))
variancia.teste2<-(var.test(variavel[X[,1]==pop2], variavel[X[,1]==pop1], alternative=”two.sided”))
if (variancia.teste1$statistic > variancia.teste2$statistic)
variancia.teste <- variancia.teste1
else
variancia.teste = variancia.teste2
print(variancia.teste)

183
estatística experimental no rbio

F test to compare two variances

data: variavel[X[, 1] == pop2] and variavel[X[, 1] == pop1]


F = 2.0879, num df = 1, denom df = 1, p-value = 0.7708
alternative hypothesis: true ratio of variances is not equal to 1
95 percent confidence interval:
3.223129e-03 1.352524e+03
sample estimates:
ratio of variances
2.087908

Conclusao:Variancias Homogeneas

### Teste T
if (variancia.teste$p.value > alpha) #variancias homogeneas
+ media.teste <- t.test(variavel[X[,1]==1], variavel[X[,1]==2], alternative=”two.sided”, var.equal =
TRUE, conf.level = 1-alpha)
if (variancia.teste$p.value < alpha) #variancias heterogeneas
+ media.teste <-t.test(variavel[X[,1]==1], variavel[X[,1]==2], alternative=”two.sided”, var.equal =
FALSE, conf.level = 1-alpha)
print(media.teste)

Two Sample t-test

data: variavel[X[, 1] == 1] and variavel[X[, 1] == 2]


t = -6.424, df = 2, p-value = 0.02339
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
-81.33491 -16.08509
sample estimates:
mean of x mean of y
71.295 120.005

if (media.teste$p.value > alpha) cat(“Conclusao: Medias iguais”, “\n”) else cat(“Conclusao: Medias
diferentes”,”\n”)

Conclusao: Medias diferentes

# ----------------------
# 7.2.1- Teste T pareado
# ----------------------
if (variancia.teste$p.value > alpha) #variancias homogeneas
+ media.teste <- t.test(variavel[X[,1]==1], variavel[X[,1]==2], alternative=”two.sided”, var.equal =
TRUE, conf.level = 1-alpha, paired=TRUE)
> if (variancia.teste$p.value < alpha) #variancias heterogeneas
+ media.teste <-t.test(variavel[X[,1]==1], variavel[X[,1]==2], alternative=”two.sided”, var.equal =
FALSE, conf.level = 1-alpha, paired=TRUE)
> print(media.teste)

Paired t-test

data: variavel[X[, 1] == 1] and variavel[X[, 1] == 2]


t = -25.37, df = 1, p-value = 0.02508
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
-73.10591 -24.31409
sample estimates:
mean of the differences
-48.71

if (media.teste$p.value > alpha) cat(“Conclusao: Medias iguais”, “\n”) else cat(“Conclusao: Medias
diferentes”,”\n”)

Conclusao: Medias diferentes

184
estatística experimental no rbio

8.2. Teste de Tukey

O teste de Tukey foi proposto por Tukey em 1953 e é um teste


exato em que, para todas as k(k-1) /2 comparações possíveis par a
par, a taxa de erro é exatamente α. Para tamanho de amostras iguais,
o teste declara duas médias significativamente diferentes se o valor
absoluto de suas diferenças amostrais ultrapassar a DMS (Diferença
Mínima Significativa):

QMR
DMSTukey = q∝ ( k , GlResíduo )
r

Em que:
qα (k; gl Resíduo): Valores da amplitude total estudentizada (q) a um
nível α de probabilidade com k e GLResíduo graus de liberdade (ANEXO 8.4);
r: número de repetições;
k: número de tratamentos;

Considerando os dados da Tabela 8.1, e a Anova considerando


um delineamento inteiramente ao acaso (Tabela 8.3), tem-se:

Tabela 8.3. Resultado da análise de variância da variável agronômica simulada,


considerando delineamento inteiramente ao acaso.
FV GL SQ QM F

Tratamento 2 2711.867 1355.9 17.11*

Resíduo 3 237.6067 79.2

Total 5 2949.474
*: Significativo a 5% pelo teste F.

185
estatística experimental no rbio

QMR
DMSTukey = q∝ ( k , GlResíduo )
r
79.2
= q5% ( 3,=
3) 5.9
= x 39.6 37.18
2

Considerando os tratamentos avaliados, procede-se às com-


parações. Para facilitar, ordenam-se os valores das médias da variável
avaliada de forma decrescente no exemplo m2, m3 e m1, e procede-se
as comparações:

m2 – m3 =120.005 – 79.7 = 40.305 > DMS


m2 – m1 =120.005 - 71.295 = 48.71 > DMS
m3 – m1 = 79.7 – 71.295 =8.405 < DMS

Portanto, o tratamento 2 difere dos tratamentos 3 e 1, e os tra-


tamentos 3 e 1 são estatisticamente iguais. Pode-se representar este
resultado utilizando letras, sendo assim, tem-se:

m1: 71.295 b
m2: 120.005 a
m3: 79.7 b

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Testes de Médias > Tukey, conforme a Figura 8.2.

186
estatística experimental no rbio

Figura 8.2. Software Rbio, e rotina de procedimentos para realizar o teste Tukey.

187
estatística experimental no rbio

# -----------------------------------
# Script 7: Testes de Médias
# -----------------------------------

# ----------------------
# 7.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X

Trat Rep Variavel


1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53

# ----------------------
# 7.3- Declaração
# ----------------------
#install.packages(“agricolae”)
library(agricolae)
A<-as.factor(X[,1])
Rep<-as.factor(X[,2])
saida<-aov(X[,3]~A, data=X)

# ----------------------
# 7.3.1- Tukey
# ----------------------
out<-HSD.test(saida,”A”, group=TRUE,console=TRUE)

Study: saida ~ “A”

HSD Test for X[, 3]

Mean Square Error: 79.20223

A, means

X...3. std r Min Max


1 71.295 6.102332 2 66.98 75.61
2 120.005 8.817622 2 113.77 126.24
3 79.700 11.073292 2 71.87 87.53

Alpha: 0.05 ; DF Error: 3


Critical Value of Studentized Range: 5.909663

Minimun Significant Difference: 37.18917

Treatments with the same letter are not significantly different.

X[, 3] groups
2 120.005 a
3 79.700 b
1 71.295 b

188
estatística experimental no rbio

8.3. Teste de Duncan

O teste Duncan também é um teste utilizado para avaliar dife-


renças entre tratamentos. A estatística dele é bem similar à do Tukey,
visto anteriormente. A diferença entre eles está na tabela utilizada para
encontrar os valores da amplitude estudentizada. Enquanto o teste de
Tukey usa a tabela q, o teste de Duncan usa a tabela z. Além disso, no
teste de Duncan o valor de k não é apenas o número de tratamentos,
mas sim o número de médias abrangidas pelo contraste. Como será
visto abaixo, o teste de Duncan é menos rigoroso do que o teste de
Tukey, ou seja, ele considera que 2 tratamentos são diferentes mais
facilmente do que o teste de Tukey devido à diferença entre os valores
tabelados utilizados.
Para tamanho de amostras iguais, o teste declara duas médias
significativamente diferentes se o valor absoluto de suas diferenças
amostrais ultrapassar a DMS (Diferença Mínima Significativa):

QMR
DMS Duncan = z∝ ( k , GlResíduo )
r

Em que:
zα (k; gl Resíduo): Valores da amplitude total estudentizada (z) a um
nível α de probabilidade com k e GLResíduo graus de liberdade (ANEXO 8.5);
r: número de repetições;
k: número de tratamentos abrangidos pelo contraste;
Com os dados do exemplo anterior, temos:

QMR
DMS Duncan = z∝ ( k , GlResisuo )
r
79.2
= z5% (=
2, 3 ) 4.501
= x 39.6 28.32
2

189
estatística experimental no rbio

QMR
DMS Duncan = z∝ ( k , GlResisuo )
r
79.2
( 3, 3 )
= z5% = 4.516
= x 39.6 28.41
2

Considerando os tratamentos avaliados:

m2 – m3 =120.005 – 79.7 = 40.305 > DMS


(2 médias envolvidas no contraste)
m2 – m1 =120.005 - 71.295 = 48.71 > DMS
(3 médias envolvidas no contraste)
m3 – m1 = 79.7 – 71.295 =8.405 < DMS
(2 médias envolvidas no contraste)

Portanto, o tratamento 2 difere dos tratamentos 3 e 1, e os tra-


tamentos 3 e 1 são estatisticamente iguais. Pode-se representar este
resultado utilizando letras, sendo assim, tem-se:

m1: 71.295 b
m2: 120.005 a
m3: 79.7 b

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Testes de Médias > Duncan, conforme a Figura 8.3.

190
estatística experimental no rbio

Figura 8.3. Software Rbio, e rotina de procedimentos para realizar o teste Duncan.

191
estatística experimental no rbio

# -----------------------------------
# Script 7: Testes de Médias
# -----------------------------------

# ----------------------
# 7.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X

Trat Rep Variavel


1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53

# ----------------------
# 7.3- Declaração
# ----------------------
#install.packages(“agricolae”)
library(agricolae)
A<-as.factor(X[,1])
Rep<-as.factor(X[,2])
saida<-aov(X[,3]~A, data=X)

# ----------------------
# 7.3.2- Duncan
# ----------------------
out<-duncan.test(saida,”A”, group=TRUE,console=TRUE)

Study: saida ~ “A”

Duncan’s new multiple range test


for X[, 3]

Mean Square Error: 79.20223

A, means

X...3. std r Min Max


1 71.295 6.102332 2 66.98 75.61
2 120.005 8.817622 2 113.77 126.24
3 79.700 11.073292 2 71.87 87.53

Alpha: 0.05 ; DF Error: 3

Critical Range
2 3
28.32238 28.41673

Means with the same letter are not significantly different.

X[, 3] groups
2 120.005 a
3 79.700 b
1 71.295 b

192
estatística experimental no rbio

8.4. Teste de Scheffé

O teste de Scheffé utiliza a tabela F usada na ANOVA. A estatís-


tica do teste para a comparação de pares de médias é calculada por:

QM Res
S
= ( k − 1) xF(∝;Gl trat ;Gl Res ) x 2 x
r

Em que:
F (α; gl Resíduo): Valores da tabela F a um nível α de probabilidade
com GLTratamento e GLResíduo graus de liberdade (ANEXO 8.1 e ANEXO 8.2);
r: número de repetições;
k: número de tratamentos;
QMRes: Quadrado Médio do Resíduo;

Vale ressaltar que o teste de Scheffé é utilizado para calcular


diversos contrastes, que podem ser montados pelo usuário. Aqui será
mostrada a comparação de todos os pares de médias apenas para
simplificar o procedimento.
Considerando o exemplo:

79.2 79.2
( 3 − 1) xF(5%;2;3) x 2 x
S= 2 x9.55 x 2 x
= 38.89
=
2 2

Considerando os tratamentos avaliados:


m2 – m3 =120.005 – 79.7 = 40.305 > DMS
m2 – m1 =120.005 - 71.295 = 48.71 > DMS
m3 – m1 = 79.7 – 71.295 =8.405 < DMS

193
estatística experimental no rbio

Portanto, o tratamento 2 difere dos tratamentos 3 e 1, e os tra-


tamentos 3 e 1 são estatisticamente iguais. Pode-se representar este
resultado utilizando letras, sendo assim, tem-se:

m1: 71.295 b
m2: 120.005 a
m3: 79.7 b

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Testes de Médias > Scheffé, conforme a Figura 8.4.

194
estatística experimental no rbio

Figura 8.4. Software Rbio, e rotina de procedimentos para realizar o teste Scheffé.

195
estatística experimental no rbio

# -----------------------------------
# Script 7: Testes de Médias
# -----------------------------------

# ----------------------
# 7.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X
Trat Rep Variavel
1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53

# ----------------------
# 7.3- Declaração
# ----------------------
#install.packages(“agricolae”)
library(agricolae)
A<-as.factor(X[,1])
Rep<-as.factor(X[,2])
saida<-aov(X[,3]~A, data=X)

# ----------------------
# 7.3.3- Scheffé
# ----------------------
out<-scheffe.test(saida,”A”, group=TRUE,console=TRUE)

Study: saida ~ “A”

Scheffe Test for X[, 3]

Mean Square Error : 79.20223

A, means

X...3. std r Min Max


1 71.295 6.102332 2 66.98 75.61
2 120.005 8.817622 2 113.77 126.24
3 79.700 11.073292 2 71.87 87.53

Alpha: 0.05 ; DF Error: 3


Critical Value of F: 9.552094

Minimum Significant Difference: 38.89851

Means with the same letter are not significantly different.

X[, 3] groups
2 120.005 a
3 79.700 b
1 71.295 b

8.5. Teste de Fisher, LSD ou DMS t

O método de Fisher, para comparar todos os pares de médias,


controla a taxa de erro ao nível de significância α para cada compara-
ção dois a dois, mas não controla a taxa de erro do experimento. Esse
procedimento usa a estatística t para testar a igualdade dos pares de
médias, e sua estatística é dada por:

196
estatística experimental no rbio

2 xQMR
DMSt = t ∝ ( GlResíduo )
2
r

em que t é um valor tabelado (ANEXO 8.3) que depende do


número de graus de liberdade dos erros (N-k) .
Para tamanhos de amostras diferentes tem-se:

1 1
=DMSt t ∝ ( GlResíduo ) QMR  + 
2  n1 n2 

Considerando o exemplo em que todos os tratamentos pos-


suem o mesmo número de repetições tem-se:

2 xQMR
DMSt = t ∝ ( GlResíduo )
2
r
2 x79.2
= t2.5 ( 3 )= 3.18 x 8.89 28.32
=
2

Considerando os tratamentos avaliados:

m2 – m3 =120.005 – 79.7 = 40.305 > DMS


m2 – m1 =120.005 - 71.295 = 48.71 > DMS
m3 – m1 = 79.7 – 71.295 =8.405 < DMS

Portanto, o tratamento 2 difere dos tratamentos 3 e 1, e os tra-


tamentos 3 e 1 são estatisticamente iguais. Pode-se representar este
resultado utilizando letras, sendo assim, tem-se:

m1: 71.295 b
m2: 120.005 a
m3: 79.7 b

197
estatística experimental no rbio

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Testes de Médias > Teste LSD (Fisher), conforme a Figura 8.5.

198
estatística experimental no rbio

Figura 8.5. Software Rbio, e rotina de procedimentos para realizar o teste LSD
(Teste de Fisher).

199
estatística experimental no rbio

# -----------------------------------
# Script 7: Testes de Médias
# -----------------------------------

# ----------------------
# 7.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X
Trat Rep Variavel
1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53

# ----------------------
# 7.3- Declaração
# ----------------------
#install.packages(“agricolae”)
library(agricolae)
A<-as.factor(X[,1])
Rep<-as.factor(X[,2])
saida<-aov(X[,3]~A, data=X)

# ----------------------
# 7.3.4- Teste t Fisher ou LSD
# ----------------------
out<-LSD.test(saida,”A”, group=TRUE,console=TRUE)

Study: saida ~ “A”

LSD t Test for X[, 3]

Mean Square Error: 79.20223

A, means and individual ( 95 %) CI

X...3. std r LCL UCL Min Max


1 71.295 6.102332 2 51.26805 91.32195 66.98 75.61
2 120.005 8.817622 2 99.97805 140.03195 113.77 126.24
3 79.700 11.073292 2 59.67305 99.72695 71.87 87.53

Alpha: 0.05 ; DF Error: 3


Critical Value of t: 3.182446

least Significant Difference: 28.32238

Treatments with the same letter are not significantly different.

X[, 3] groups
2 120.005 a
3 79.700 b
1 71.295 b

8.6. Teste de Bonferroni, LSDB

Este procedimento conhecido como procedimento de Bonfer-


roni consiste na realização de um teste t para cada par de médias a uma

200
estatística experimental no rbio

taxa de erro dada por α/c, em que α é o nível de significância adotado,


e c é a combinação dos k tratamentos 2 a 2, (k (k-1) /2), portanto,
o número de combinações par a par existentes. Usando este teste, o
nível de significância máximo será α. Assim, o teste protege a taxa de
erro do teste.
A estatística do teste é similar ao do teste t de Fisher, alterando
apenas o nível de significância a ser adotado, de tal forma que:

2 xQMR
DMSt = t∝ ( GlResíduo )
r

em que t é um valor tabelado (ANEXO 8.3) que depende do nú-


mero de graus de liberdade dos erros ( ) e do nível de significância
α que é α=1/2(α/c), e c é o número de comparações duas a duas.
Para tamanhos de amostras diferentes tem-se:

1 1
=DMSt t∝ ( GlResíduo ) QMR  + 
 n1 n2 

Considerando o exemplo em que todos os tratamentos pos-


suem o mesmo número de repetições tem-se:

c = 3 (2) /2 =3
α = 5/6 = 0.83

2 xQMR
DMSt = tα ( GlResíduo )
r
2 x79.2
= t0.83 ( 3 )= 4.85 x 8.89 43.22
=
2

201
estatística experimental no rbio

Considerando os tratamentos avaliados:

m2 – m3 =120.005 – 79.7 = 40.305 < DMS


m2 – m1 =120.005 - 71.295 = 48.71 > DMS
m3 – m1 = 79.7 – 71.295 =8.405 < DMS

Portanto, o tratamento 2 difere do tratamento 1, e os trata-


mentos 3 e 1 são estatisticamente iguais do mesmo modo que os tra-
tamentos 2 e 3. Pode-se representar este resultado utilizando letras,
sendo assim, tem-se:

m1: 71.295 b
m2: 120.005 a
m3: 79.7 ab

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Testes de Médias > Teste LSD (Fisher), conforme a Figura 8.6, marcando
a opção Bonferroni, abaixo do botão processar.

202
estatística experimental no rbio

Figura 8.6. Software Rbio, e rotina de procedimentos para realizar o teste de


Bonferroni (LSDB).

203
estatística experimental no rbio

# -----------------------------------
# Script 7: Testes de Médias
# -----------------------------------

# ----------------------
# 7.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X

Trat Rep Variavel


1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53

# ----------------------
# 7.3- Declaração
# ----------------------
#install.packages(“agricolae”)
library(agricolae)
A<-as.factor(X[,1])
Rep<-as.factor(X[,2])
saida<-aov(X[,3]~A, data=X)

# ----------------------
# 7.3.5- Bonferroni
# ----------------------
out<-LSD.test(saida,”A”,p.adj=c(“bonferroni”), group=TRUE,console=TRUE)

Study: saida ~ “A”

LSD t Test for X[, 3]


P value adjustment method: bonferroni

Mean Square Error: 79.20223

A, means and individual ( 95 %) CI

X...3. std r LCL UCL Min Max


1 71.295 6.102332 2 51.26805 91.32195 66.98 75.61
2 120.005 8.817622 2 99.97805 140.03195 113.77 126.24
3 79.700 11.073292 2 59.67305 99.72695 71.87 87.53

Alpha: 0.05 ; DF Error: 3


Critical Value of t: 4.856657

Minimum Significant Difference: 43.22213

Treatments with the same letter are not significantly different.

X[, 3] groups
2 120.005 a
3 79.700 ab
1 71.295 b

204
estatística experimental no rbio

8.7. Teste SNK

O Teste SNK é realizado da mesma forma que o de Tukey, com


exceção de que o valor crítico depende não do número de tratamentos
envolvidos no experimento (k), mas do número de médias incluídas na
amplitude das médias que está sendo testada, do mesmo modo visto
pelo teste de Duncan.
A estatística do teste é:

QMR
DMS SNK = q∝ ( k , GlResíduo )
r

Em que
qα (k; gl Resíduo): Valores da amplitude total estudentizada (q) a um
nível α de probabilidade com k e GLResíduo graus de liberdade (ANEXO 8.4);
r: número de repetições;
k: número de médias envolvidas;

Assim, no exemplo visto, os valores críticos seriam:


Considerando os tratamentos avaliados:

m2 – m3 =120.005 – 79.7 = 40.305 (k= 2)


m2 – m1 =120.005 - 71.295 = 48.71 (k=3, pois o valor 79.7 do
m3 está entre os valores de m2 e m1)
m3 – m1 = 79.7 – 71.295 =8.405 (k=2)

QMR
DMS SNK = q∝ ( k , GlResíduo )
r
79.2
= q5% (=
2, 3) 4.50
= x 39.6 28.32
2

205
estatística experimental no rbio

QMR
DMS SNK = q∝ ( k , GlResíduo )
r
79.2
= q5% ( 3,=
3) 5.9
= x 39.6 37.18
2

Logo:

m2 – m3 =120.005 – 79.7 = 40.305 (k= 2) > DMS


m2 – m1 =120.005 - 71.295 = 48.71 (k=3) >DMS
m3 – m1 = 79.7 – 71.295 =8.405 (k=2) <DMS

Portanto, o tratamento 2 difere dos tratamentos 3 e 1, e os tra-


tamentos 3 e 1 são estatisticamente iguais. Pode-se representar este
resultado utilizando letras, sendo assim, tem-se:

m1: 71.295 b
m2: 120.005 a
m3: 79.7 b

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Testes de Médias > SNK, conforme a Figura 8.7.

206
estatística experimental no rbio

Figura 8.7. Software Rbio, e rotina de procedimentos para realizar o teste SNK.

207
estatística experimental no rbio

# -----------------------------------
# Script 7: Testes de Médias
# -----------------------------------

# ----------------------
# 7.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X

Trat Rep Variavel


1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53

# ----------------------
# 7.3- Declaração
# ----------------------
#install.packages(“agricolae”)
library(agricolae)
A<-as.factor(X[,1])
Rep<-as.factor(X[,2])
saida<-aov(X[,3]~A, data=X)

# ----------------------
# 7.3.6- SNK
# ----------------------
out<-SNK.test(saida,”A”, group=TRUE,console=TRUE)

Study: saida ~ “A”

Student Newman Keuls Test


for X[, 3]

Mean Square Error: 79.20223

A, means

X...3. std r Min Max


1 71.295 6.102332 2 66.98 75.61
2 120.005 8.817622 2 113.77 126.24
3 79.700 11.073292 2 71.87 87.53

Alpha: 0.05 ; DF Error: 3

Critical Range
2 3
28.32238 37.18917

Means with the same letter are not significantly different.

X[, 3] groups
2 120.005 a
3 79.700 b
1 71.295 b

208
estatística experimental no rbio

8.8. Teste de Dunnet

O teste de Dunnet (1955) é um teste para comparações de mé-


dias com um controle, de forma que o objetivo é comparar as médias
de todos os tratamentos com o uso deste controle. Do mesmo modo
que os demais testes, a hipótese H0 é que o controle e o tratamento
testado possuem médias iguais.
A estatística do teste de Dunnet é uma modificação do teste t
usual, de forma que a Diferença Mínima Significativa (DMS) é obtida
através das expressões:

2 xQMR
DMS Dunnet = d∝ ( k , GlResíduo )
r

em que d é um valor tabelado (ANEXO 8.6) proposto por Dun-


net que depende do número de tratamentos k e do número de graus
de liberdade do Resíduo (N-k).
Para tamanhos de amostras diferentes tem-se:

1 1
=DMS Dunnet d∝ ( k , GlResíduo ) QMR  + 
 n1 n2 

Considerando o exemplo em que todos os tratamentos pos-


suem o mesmo número de repetições, tem-se:

2 xQMR
DMS Dunnet = d∝ ( k , GlResíduo )
r
2 x79.2
= d5 ( 3;3 )= 3.86 x 8.89 34.31
=
2

209
estatística experimental no rbio

Considerando que o tratamento 1 seja o controle, os demais


serão testados em relação a ele e aos tratamentos avaliados:

m2 – m1 =120.005 - 71.295 = 48.71 > DMS


m3 – m1 = 79.7 – 71.295 =8.405 < DMS

Portanto, o tratamento 2 difere do controle (1), e o tratamento


3 não difere do controle (1). Pode-se representar este resultado utili-
zando letras, sendo assim, tem-se:

m1: 71.295 a
m2: 120.005 b
m3: 79.7 a

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Testes de Médias > Dunnet, conforme a Figura 8.8.

210
estatística experimental no rbio

Figura 8.8. Software Rbio, e rotina de procedimentos para realizar o teste Dunnet.

211
estatística experimental no rbio

# -----------------------------------
# Script 7: Testes de Médias
# -----------------------------------
# ----------------------
# 7.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X
Trat Rep Variavel
1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53
# ----------------------
# 7.3- Declaração
# ----------------------
#install.packages(“multcomp”)
library(multcomp)
A<-as.factor(X[,1])
Rep<-as.factor(X[,2])
saida<-aov(X[,3]~A, data=X)
# ----------------------
# 7.3.7- Dunnet
# ----------------------
Dun = glht(saida, linfct = mcp(A = “Dunnett”))
print(summary(Dun))

Simultaneous Tests for General Linear Hypotheses


Multiple Comparisons of Means: Dunnett Contrasts

Fit: aov(formula = X[, 3] ~ A, data = X)


Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
2 - 1 == 0 48.710 8.900 5.473 0.0198 *
3 - 1 == 0 8.405 8.900 0.944 0.5972
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)
print(confint(Dun))

Simultaneous Confidence Intervals


Multiple Comparisons of Means: Dunnett Contrasts

Fit: aov(formula = X[, 3] ~ A, data = X)


Quantile = 3.8665
95% family-wise confidence level

Linear Hypotheses:
Estimate lwr upr
2 - 1 == 0 48.7100 14.2996 83.1204
3 - 1 == 0 8.4050 -26.0054 42.8154

212
estatística experimental no rbio

8.9. Teste de Scott-Knott

O procedimento de Scott e Knott (1974) é uma técnica que


utiliza o teste da razão de verossimilhança para agrupar n​ tratamentos
em k​ grupos. A grande vantagem desse método é a ausência de am-
biguidade que é comumente encontrada nos testes de médias. Porém
é importante enfatizar que este não é um teste de médias, e sim um
teste de agrupamento de médias, portanto, não haverá o cálculo da
diferença mínima significativa (DMS) que é encontrada nos testes de
médias. Nesse procedimento, outra estatística será usada para defini-
ção de quais médias serão agrupadas.
Para realização do procedimento proposto por Scott-Knott, de-
vemos inicialmente ordenar as médias, da maior para a menor média.
Uma vez ordenadas as médias, procede-se do seguinte modo:
i. Determina a partição entre os dois grupos que maximize a
soma de quadrado (B0) entre grupos. Considerado T1 e T2 os totais dos
2 grupos com k1 e k2 tratamentos em cada, tem-se:

T 2 T 2 (T + T )
2

B0 = 1 + 2 − 1 2
k1 k2 k1 + k2

em que

em que Yi é a média do tratamento da posição ordenada i.


Serão possíveis realizar g-1 partições, em que g são os números de
tratamentos envolvidos.

213
estatística experimental no rbio

ii. Determinar o valor da estatística l da seguinte forma:

π B
λ= x 02
2 (π − 2 ) σˆ 0

em que:

1  g QMR 
 ∑ (Yi − Y ) + v
2
=σˆ 02 
g + v  i =i r 

sendo g o número de tratamentos, v o número de graus de


liberdade do resíduo, QMR o quadrado médio do resíduo e r o número
de repetições.
iii. Se , (ANEXO 8.7), rejeita-se a hipótese de que
os dois grupos são idênticos em favor da hipótese alternativa de que
os dois grupos se diferem.
iv. Rejeitando a hipótese no passo iii, os dois grupos formados
serão independentemente submetidos aos passos i e iii novamente,
fazendo, respectivamente, g=k1 e g=k2. O processo de cada subgrupo
se encerra ao aceitar H0 no passo iii, ou se cada subgrupo contiver
apenas uma média.
Considerando o conjunto de dados da Tabela 11.1, tem-se:
Passo 1: Ordenar as médias: m2 (120.005); m3 (79.7) e m1
(71.295). Como temos 3 tratamentos (g), serão possíveis (g-1) par-
tições, ou seja, 2 partições, sendo que a primeira testa se m2 difere
das médias de m3 e m1. Caso ocorra esta partição, testa-se a segunda
partição, que é se m3 difere de m1.

214
estatística experimental no rbio

Passo 2: Calcular B0 para a partição m2 vs (m3 e m1)

T 2 T 2 (T + T ) 120.0052
2

B0 = 1 + 2 − 1 2 =
k1 k2 k1 + k2 1
( 79.7 + 71.295) (120.005 + 150.995)
2 2

+ − 1320.6117
=
2 1+ 2

Passo 3: Calcular l

1  g QMR 
 ∑ (Yi − Y ) + v
2
=σˆ 02 
g + v  i =i r 
1  79.2 
(120.005 − 90.333) + ( 79.7 − 90.333) + ( 71.295 − 90.333) +3
2 2 2
=
3 + 3  2 
1
= = x1474.7337 245.789
6

π B 1320.6117
=λ = x 02 1.3759=
x 7.392
2 (π − 2 ) σˆ 0 245.789

Passo 4: Se

λ ≥ χ 2 g 
Rejeita Ho; λ ≥ χ (25%;2.6279) =
λ ≥ 7.11
 α ; (π − 2 ) 
 

Assim, rejeita-se a hipótese H0 de que os 2 grupos são idênticos,


portanto, m2 é diferente das demais.
Agora, deve ser realizado o procedimento para verificar se os
tratamentos m3 e m1 são iguais estatisticamente, para isso repetem-
-se os passos 2, 3 e 4:

215
estatística experimental no rbio

T12 T22 (T1 + T2 )


2
79.7 2
B0 = + − =
k1 k2 k1 + k2 1
71.2952 ( 79.7 + 71.295 )
2

+ − 35.322
=
1 2

1  g QMR  1
 ∑ (Yi − Y ) + v =
2
=σˆ 02 
g + v  i =i r  2+3
 79.2  1
( 79.7 − 75.4975 ) + ( 71.295 − 75.4975 ) +3 2  = 5 154.12 = 30.825
2 2

Portanto não rejeita a hipótese H0 que os 2 tratamentos são


estatisticamente iguais, formando apenas um grupo. Dessa forma,
tem-se dois grupos a e b formados:

m1: 71.295 a
m2: 120.005 b
m3: 79.7 a

Uma modificação do teste de Scott-Knott (1974) foi proposto


por Bhering et al. (2007). A diferença dos 2 métodos é que a modi-
ficação proposta procede inicialmente os mesmos procedimentos do
teste original, porém no final descarta o(s) tratamento(s) do primeiro
grupo formado, e inicia novamente os procedimentos de análise com
os tratamentos remanescentes. Com isso, elimina a possível influência

216
estatística experimental no rbio

de tratamentos anteriores nas partições posteriores. Os dois procedi-


mentos possuem as mesmas características e vantagens.
Como foi visto anteriormente, os diferentes testes de com-
parações múltiplas possuem suas particularidades e servem para
comparar pares de tratamentos, ou todos os tratamentos ao mesmo
tempo. Como exemplos de comparações de pares de tratamentos,
tem-se o teste t, e o teste de Scheffé, quando o contraste montado é
realizado entre par de tratamentos. Além disso, o pesquisador pode
ter interesse de comparar todos os tratamentos conjuntamente ou
compará-los com um ou mais testemunhas como é o caso do teste
de Dunnet. Se observarmos as diferenças mínimas significativas (DMS)
dos testes, pode ser feita uma comparação entre eles e verificar qual é
aquele mais que necessita de uma maior diferença entre médias para
que realmente estas sejam consideradas diferentes, e a comparação
contrária também pode ser realizada. Na Figura 8.9 é possível verifi-
car tais comparações. Nota-se que ao comparar as DMS, a ordem do
poder do teste seria Tukey (DMS=37.18), SNK (37.18 e 28.32), Duncan
(28.32 e 28.41) e Fisher (28.32). Percebe-se que comparativamente o
teste de Tukey é aquele que mais dificilmente mostra diferença entre
os tratamentos, e que sua modificação, o teste SNK, possui um valor
abaixo do mostrado pelo teste de Tukey, fazendo com que em algumas
comparações seja menos rigoroso. Outro ponto interessante é que
ao usar o teste de Fisher com a proteção Bonferroni (LSDB), o teste
aumenta seu rigor, tendo, portanto, sua DMS aumentada.

217
estatística experimental no rbio

Figura 8.9. Comparação das diferenças mínimas significativas (DMS) considerando


alguns testes de médias.

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Testes de Médias > Scott Knott, conforme a Figura 8.10.

218
estatística experimental no rbio

Figura 8.10. Software Rbio, e rotina de procedimentos para realizar o teste Scott Knott.

219
estatística experimental no rbio

# -----------------------------------
# Script 7: Testes de Médias
# -----------------------------------

# ----------------------
# 7.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”, h=T) # Leitura dos dados
X

Trat Rep Variavel


1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53

# ----------------------
# 7.3- Declaração
# ----------------------
#install.packages(“ScottKnott”)
library(ScottKnott)
A<-as.factor(X[,1])
Rep<-as.factor(X[,2])
saida<-aov(X[,3]~A, data=X)

# ----------------------
# 7.3.8- Scott-Knott
# ----------------------
sk <- SK(saida, which=’A’, dispersion=’se’, sig.level=0.05)
summary(sk)
Levels Means SK(5%)
2 120.005 a
3 79.700 b
1 71.295 b

220
estatística experimental no rbio

ANEXO 8.1. Tabela da Distribuição F ao nível de 5% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 161.45 199.5 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85
12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6
15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3
23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25
25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2
28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08

221
estatística experimental no rbio

ANEXO 8.2. Tabela da Distribuição F ao nível de 1% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 4052.2 4999.3 5403.5 5624.2 5763.9 5858.9 5928.3 5980.9 6022.4 6055.9
2 98.5 99 99.16 99.25 99.3 99.33 99.36 99.38 99.39 99.4
3 34.12 30.82 29.46 28.71 28.24 27.91 27.67 27.49 27.34 27.23
4 21.2 18 16.69 15.98 15.52 15.21 14.98 14.8 14.66 14.55
5 16.26 13.27 12.06 11.39 10.97 10.67 10.46 10.29 10.16 10.05
6 13.75 10.92 9.78 9.15 8.75 8.47 8.26 8.1 7.98 7.87
7 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.72 6.62
8 11.26 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.91 5.81
9 10.56 8.02 6.99 6.42 6.06 5.8 5.61 5.47 5.35 5.26
10 10.04 7.56 6.55 5.99 5.64 5.39 5.2 5.06 4.94 4.85
11 9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.63 4.54
12 9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.5 4.39 4.3
13 9.07 6.7 5.74 5.21 4.86 4.62 4.44 4.3 4.19 4.1
14 8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 4.03 3.94
15 8.68 6.36 5.42 4.89 4.56 4.32 4.14 4 3.89 3.8
16 8.53 6.23 5.29 4.77 4.44 4.2 4.03 3.89 3.78 3.69
17 8.4 6.11 5.19 4.67 4.34 4.1 3.93 3.79 3.68 3.59
18 8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71 3.6 3.51
19 8.18 5.93 5.01 4.5 4.17 3.94 3.77 3.63 3.52 3.43
20 8.1 5.85 4.94 4.43 4.1 3.87 3.7 3.56 3.46 3.37
21 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51 3.4 3.31
22 7.95 5.72 4.82 4.31 3.99 3.76 3.59 3.45 3.35 3.26
23 7.88 5.66 4.76 4.26 3.94 3.71 3.54 3.41 3.3 3.21
24 7.82 5.61 4.72 4.22 3.9 3.67 3.5 3.36 3.26 3.17
25 7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32 3.22 3.13
26 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29 3.18 3.09
27 7.68 5.49 4.6 4.11 3.78 3.56 3.39 3.26 3.15 3.06
28 7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23 3.12 3.03
29 7.6 5.42 4.54 4.04 3.73 3.5 3.33 3.2 3.09 3
30 7.56 5.39 4.51 4.02 3.7 3.47 3.3 3.17 3.07 2.98
35 7.42 5.27 4.4 3.91 3.59 3.37 3.2 3.07 2.96 2.88
40 7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99 2.89 2.8

222
estatística experimental no rbio

ANEXO 8.3. Tabela da distribuição t de Student, com nível de significância α e gl


graus de liberdade.
Nível de significância
gl 0.1 0.05 0.025* 0.01 0.005
1 3.078 6.314 12.706 31.821 63.657
2 1.886 2.920 4.303 6.965 9.925
3 1.638 2.353 3.182 4.541 5.841
4 1.533 2.132 2.776 3.747 4.604
5 1.476 2.015 2.571 3.365 4.032
6 1.440 1.943 2.447 3.143 3.707
7 1.415 1.895 2.365 2.998 3.499
8 1.397 1.860 2.306 2.896 3.355
9 1.383 1.833 2.262 2.821 3.250
10 1.372 1.812 2.228 2.764 3.169
11 1.363 1.796 2.201 2.718 3.106
12 1.356 1.782 2.179 2.681 3.055
13 1.350 1.771 2.160 2.650 3.012
14 1.345 1.761 2.145 2.624 2.977
15 1.341 1.753 2.131 2.602 2.947
16 1.337 1.746 2.120 2.583 2.921
17 1.333 1.740 2.110 2.567 2.898
18 1.330 1.734 2.101 2.552 2.878
19 1.328 1.729 2.093 2.539 2.861
20 1.325 1.725 2.086 2.528 2.845
21 1.323 1.721 2.080 2.518 2.831
22 1.321 1.717 2.074 2.508 2.819
23 1.319 1.714 2.069 2.500 2.807
24 1.318 1.711 2.064 2.492 2.797
25 1.316 1.708 2.060 2.485 2.787
26 1.315 1.706 2.056 2.479 2.779
27 1.314 1.703 2.052 2.473 2.771
28 1.313 1.701 2.048 2.467 2.763
29 1.311 1.699 2.045 2.462 2.756
30 1.310 1.697 2.042 2.457 2.750
40 1.303 1.684 2.021 2.423 2.704
50 1.299 1.676 2.009 2.403 2.678
60 1.296 1.671 2.000 2.390 2.660
120 1.289 1.658 1.980 2.358 2.617
∞ 1.282 1.645 1.960 2.326 2.576
* mais usada. Entra-se com α/2; portanto se deseja teste a 5%, entra com 0.05/2=0.025

223
estatística experimental no rbio

ANEXO 8.4. Valores da amplitude total estudentizada (q) para teste de Tukey a 5% de
probabilidade em função do número de tratamentos e graus de liberdade do resíduo.
GL(resid) Número de grupos no tratamento
2 3 4 5 6 7 8 9 10
1 17.97 26.98 32.82 37.08 40.41 43.12 45.40 47.36 49.07
2 6.08 8.33 9.8 10.88 11.73 12.43 13.03 13.54 13.99
3 4.50 5.91 6.82 7.50 8.04 8.48 8.85 9.18 9.46
4 3.93 5.04 5.76 6.29 6.71 7.05 7.35 7.60 7.83
5 3.64 4.6 5.22 5.67 6.03 6.33 6.58 6.8 6.99
6 3.46 4.34 4.9 5.3 5.63 5.9 6.12 6.32 6.49
7 3.34 4.16 4.68 5.06 5.36 5.61 5.82 6 6.16
8 3.26 4.04 4.53 4.89 5.17 5.4 5.6 5.77 5.92
9 3.2 3.95 4.41 4.76 5.02 5.24 5.43 5.59 5.74
10 3.15 3.88 4.33 4.65 4.91 5.12 5.3 5.46 5.6
11 3.11 3.82 4.26 4.57 4.82 5.03 5.2 5.35 5.49
12 3.08 3.77 4.2 4.51 4.75 4.95 5.12 5.27 5.39
13 3.06 3.73 4.15 4.45 4.69 4.88 5.05 5.19 5.32
14 3.03 3.7 4.11 4.41 4.64 4.83 4.99 5.13 5.25
15 3.01 3.67 4.08 4.37 4.59 4.78 4.94 5.08 5.2
16 3 3.65 4.05 4.33 4.56 4.74 4.9 5.03 5.15
17 2.98 3.63 4.02 4.3 4.52 4.7 4.86 4.99 5.11
18 2.97 3.61 4 4.28 4.49 4.67 4.82 4.96 5.07
19 2.96 3.59 3.98 4.25 4.47 4.65 4.79 4.92 5.04
20 2.95 3.58 3.96 4.23 4.45 4.62 4.77 4.9 5.01
24 2.92 3.53 3.9 4.17 4.37 4.54 4.68 4.81 4.92
30 2.89 3.49 3.85 4.1 4.3 4.46 4.6 4.72 4.82
40 2.86 3.44 3.79 4.04 4.23 4.39 4.52 4.63 4.73
120 2.8 3.36 3.68 3.92 4.1 4.24 4.36 4.47 4.56
>120 2.77 3.31 3.63 3.86 4.03 4.17 4.29 4.39 4.47
∞ 3.64 4.12 4.4 4.6 4.76 4.88 4.99 5.08 5.16

224
estatística experimental no rbio

ANEXO 8.5. Valores da amplitude total estudentizada (z) para teste de Duncan a 5%
de probabilidade em função do número médias abrangidas pelo contraste (n1) e
graus de liberdade do resíduo (n2).
n2 \ n1 2 3 4 5 6 7 8 9 10
1 17.97 17.97 17.97 17.97 17.97 17.97 17.97 17.97 17.97
2 6.08 6.08 6.08 6.08 6.08 6.08 6.08 6.08 6.08
3 4.50 4.51 4.51 4.51 4.51 4.51 4.51 4.51 4.51
4 3.93 4.01 4.03 4.03 4.03 4.03 4.03 4.03 4.03
5 3.64 3.75 3.80 3.81 3.81 3.81 3.81 3.81 3.81
6 3.46 3.59 3.65 3.68 3.69 3.69 3.69 3.69 3.69
7 3.34 3.48 3.55 3.59 3.61 3.62 3.62 3.62 3.62
8 3.26 3.40 3.48 3.52 3.55 3.57 3.58 3.58 3.58
9 3.20 3.34 3.42 3.47 3.50 3.52 3.54 3.54 3.54
10 3.15 3.29 3.38 3.43 3.46 3.49 3.50 3.51 3.52
11 3.11 3.26 3.34 3.39 3.43 3.46 3.48 3.49 3.50
12 3.08 3.22 3.31 3.37 3.41 3.44 3.46 3.47 3.48
13 3.05 3.20 3.28 3.35 3.39 3.42 3.44 3.46 3.47
14 3.03 3.18 3.27 3.33 3.37 3.40 3.43 3.44 3.46
15 3.01 3.16 3.25 3.31 3.35 3.39 3.41 3.43 3.44
16 2.99 3.14 3.23 3.30 3.34 3.38 3.40 3.42 3.44
17 2.98 3.13 3.22 3.28 3.33 3.37 3.39 3.41 3.43
18 2.97 3.12 3.21 3.27 3.32 3.36 3.38 3.40 3.42
19 2.96 3.11 3.20 3.26 3.31 3.35 3.38 3.40 3.42
20 2.95 3.10 3.19 3.26 3.30 3.34 3.37 3.39 3.41
25 2.91 3.06 3.15 3.22 3.27 3.31 3.34 3.37 3.39
30 2.89 3.03 3.13 3.20 3.25 3.29 3.32 3.35 3.37
50 2.84 2.99 3.08 3.15 3.21 3.25 3.29 3.32 3.34
60 2.83 2.98 3.07 3.14 3.20 3.24 3.28 3.31 3.33
100 2.81 2.95 3.05 3.12 3.18 3.22 3.26 3.29 3.32

225
estatística experimental no rbio

ANEXO 8.6. Valores tabelados a 5% de probabilidade para o teste de Dunnet, com


k tratamentos e N-k graus de liberdade do resíduo.
Número de tratamentos
GL (N-K) 2 3 4 5 6 7 8 9 10
1 12.70 17.37 20.03 21.85 23.21 24.28 25.17 25.92 26.57
2 4.30 5.41 6.06 6.51 6.85 7.12 7.34 7.54 7.70
3 3.18 3.86 4.26 4.54 4.75 4.91 5.05 5.17 5.28
4 2.77 3.31 3.62 3.83 3.99 4.12 4.23 4.32 4.41
5 2.57 3.03 3.29 3.48 3.62 3.73 3.82 3.9 3.97
6 2.45 2.86 3.1 3.26 3.39 3.49 3.57 3.64 3.71
7 2.36 2.75 2.97 3.12 3.24 3.33 3.41 3.47 3.53
8 2.31 2.67 2.88 3.02 3.13 3.22 3.29 3.35 3.41
9 2.26 2.61 2.81 2.95 3.05 3.14 3.2 3.26 3.32
10 2.23 2.57 2.76 2.89 2.99 3.07 3.14 3.19 3.24
11 2.2 2.53 2.72 2.84 2.94 3.02 3.08 3.14 3.19
12 2.18 2.5 2.68 2.81 2.9 2.98 3.04 3.09 3.14
13 2.16 2.48 2.65 2.78 2.87 2.94 3 3.06 3.1
14 2.14 2.46 2.63 2.75 2.84 2.91 2.97 3.02 3.07
15 2.13 2.44 2.61 2.73 2.82 2.89 2.95 3 3.04
16 2.12 2.42 2.59 2.71 2.8 2.87 2.92 2.97 3.02
17 2.11 2.41 2.58 2.69 2.78 2.85 2.9 2.95 3
18 2.1 2.4 2.56 2.68 2.76 2.83 2.89 2.94 2.98
19 2.09 2.39 2.55 2.66 2.75 2.81 2.87 2.92 2.96
20 2.09 2.38 2.54 2.65 2.73 2.8 2.86 2.9 2.95
24 2.06 2.35 2.51 2.61 2.7 2.76 2.81 2.86 2.9
30 2.04 2.32 2.47 2.58 2.66 2.72 2.77 2.82 2.86
40 2.02 2.29 2.44 2.54 2.62 2.68 2.73 2.77 2.81
60 2 2.27 2.41 2.51 2.58 2.64 2.69 2.73 2.77

226
estatística experimental no rbio

ANEXO 8.7. Valores de χ2 para diferentes níveis de probabilidade (α) e v graus de


liberdade.
v 0.5 0.25 0.1 0.05 0.025 0.01 0.005
1 0,455 1.323 2.706 3.841 5.024 6.635 7.879
2 1.386 2.773 4.605 5.991 7.378 9.210 10.597
3 2.366 4.108 6.251 7.815 9.348 11.345 12.838
4 3.357 5.385 7.779 9.488 11.143 13.277 14.860
5 4.351 6.626 9.236 11.070 12.832 15.086 16.750
6 5.348 7.841 10.645 12.592 14.449 16.812 18.548
7 6.346 9.037 12.017 14.067 16.013 18.475 20.278
8 7.344 10.219 13.362 15.507 17.535 20.090 21.955
9 8.343 11.389 14.684 16.919 19.023 21.666 23.589
10 9.342 12.549 15.987 18.307 20.483 23.209 25.188
11 10.341 13.701 17.275 19.675 21.920 24.725 26.757
12 11.340 14.845 18.549 21.026 23.337 26.217 28.300
13 12.340 15.984 19.812 22.362 24.736 27.688 29.819
14 13.339 17.117 21.064 23.685 26.119 29.141 31.319
15 14.339 18.245 22.307 24.996 27.488 30.578 32.801
16 15.338 19.369 23.542 26.296 28.845 32.000 34.267
17 16.338 20.489 24.769 27.587 30.191 33.409 35.718
18 17.338 21.605 25.989 28.869 31.526 34.805 37.156
19 18.338 22.718 27.204 30.144 32.852 36.191 38.582
20 19.337 23.828 28.412 31.410 34.170 37.566 39.997
21 20.337 24.935 29.615 32.671 35.479 38.932 41.401
22 21.337 26.039 30.813 33.924 36.781 40.289 42.796
23 22.337 27.141 32.007 35.172 38.076 41.638 44.181
24 23.337 28.241 33.196 36.415 39.364 42.980 45.558
25 24.337 29.339 34.382 37.652 40.646 44.314 46.928
26 25.336 30.435 35.563 38.885 41.923 45.642 48.290
27 26.336 31.528 36.741 40.113 43.195 46.963 49.645
28 27.336 32.620 37.916 41.337 44.461 48.278 50.994
29 28.336 33.711 39.087 42.557 45.722 49.588 52.335
30 29.336 34.800 40.256 43.773 46.979 50.892 53.672
40 39.335 45.616 51.805 55.758 59.342 63.691 66.766
50 49.335 56.334 63.167 67.505 71.420 76.154 79.490
60 59.335 66.981 74.397 79.082 83.298 88.379 91.952
70 69.334 77.577 85.527 90.531 95.023 100.425 104.215
80 79.334 88.130 96.578 101.879 106.629 112.329 116.321
90 89.334 98.650 107.565 113.145 118.136 124.116 128.299
100 99.334 109.141 118.498 124.342 129.561 135.807 140.170

227
9

ANÁLISE DE EXPERIMENTOS FATORIAIS

Os experimentos fatoriais buscam avaliar se existe interação


entre os fatores testados. Eles geralmente envolvem dois ou três fato-
res, e cada fator, pode ter níveis qualitativos ou quantitativos. Para os
níveis qualitativos, quando os efeitos são considerados como fixos, é
necessário realizar a comparação de médias, de acordo com os testes
apresentados no capítulo anterior. Quando o experimento contém
pelo menos quatro níveis de um fator quantitativo, e esses efeitos são
considerados como fixos, é necessário realizar análise de regressão.
Outro exemplo importante de experimentos fatoriais é o caso
de um experimento conduzido em vários locais. Por exemplo, se um
pesquisador está interessado em descobrir se um conjunto de ge-
nótipos possui desempenho agronômico similar em um conjunto de
ambientes, será necessário avaliar a interação entre os dois fatores
(genótipos x ambientes). Nesse caso, o ambiente é considerado como
um fator e será realizada a ANOVA conjunta. Esse procedimento tam-
bém pode ser considerado como uma ANOVA fatorial.
Inicialmente, antes de proceder a ANOVA fatorial, é necessário
que o pesquisador realize as análises de variâncias para cada ambiente
separadamente, de forma a avaliar se tais ambientes são homogêneos,
isso porque, como já mencionado anteriormente, é necessário que

228
estatística experimental no rbio

exista homogeneidade de variância dos erros. Após realizada estas


análises individuais de variância, testa-se a homogeneidade com al-
guns testes estatísticos, como será visto a seguir.
Para julgar essa homogeneidade das variâncias é comumente
usado o teste de Bartlett (que será visto a seguir neste capítulo),
porém segundo relato de Box (1953), esse teste é tão sensível para
a falta de normalidade que deve ser abandonado. Este autor relata
ainda que se a razão entre as variâncias não for superior a 3, para ex-
perimentos com mesmo número de repetições, que os testes poderão
ser aplicados sem problemas. Caso o valor das variâncias ultrapasse
3, testes adicionais como o de Hartley (1956) deverão ser aplicados.
Pimentel-Gomes (2000) conclui que para experimentos com mesmo
número de repetições para os tratamentos, a análise conjunta poderá
ser realizada sem dificuldades se o quociente entre maior e menor
quadrado médio do resíduo for menor que 7.
Para isto, considere um experimento com dois fatores, denomi-
nados A e B, no qual o fator A tem t níveis, por exemplo tratamentos,
e o fator B tem l nível, por exemplo local. Para cada combinação de
níveis, realizamos r réplicas. Na Tabela 9.1 é apresentado esquema da
tabela com as observações do referido experimento.

Tabela 9.1. Tabela auxiliar considerando observações de t tratamentos, em l locais


e r repetições para proceder a anova.
Fator A Fator B (Locais)
Total Média
Tratamentos 1 2 ... l

1 Y111, ..., Y11r Y121, ..., Y12r ... Y1l1, ..., Y1lr Y1.. Ȳ1..

2 Y211, ..., Y21r Y221, ..., Y22r ... Y2l1, ..., Y2lr Y2.. Ȳ2..

... ... ... ...

t Yt11, ..., Yt1r Yt21, ..., Yt2r ... Ytl1, ..., Ytlr Yt.. Ȳt..

Total Y.1. Y.2. Y.l.

Média Ȳ.1. Ȳ.2. Ȳ.l. Ȳ...

229
estatística experimental no rbio

Consideremos agora um exemplo simulado com 3 tratamentos,


2 locais com 2 repetições em cada local apresentado na Tabela 9.2.

Tabela 9.2. Avaliação de uma variável agronômica simulada, em arranjo fatorial com
três tratamentos, avaliada em dois locais com duas repetições num delineamento
inteiramente casualizado.
Local

Tratamentos 1 2 Total Média

Rep 1 Rep 2 Rep 1 Rep 2

1 66.98 75.61 86.71 83.95 313.25 78.3125

2 113.77 126.24 110.35 110.29 460.65 115.1625

3 71.87 87.53 93.26 98.44 351.1 87.775

Total 252.62 289.38 290.32 292.68

Total 542 583 1125

Média 90.33 97.17 93.75

Primeiramente deve-se realizar as análises individuais para


cada experimento, ou seja, realizar duas análises considerando um
experimento no delineamento inteiramente casualizado. O resultado
desta análise se encontra na Tabela 9.3.

Tabela 9.3. Resultado da análise de variância da variável agronômica simulada,


considerando dois ambientes em delineamento inteiramente casualizado.
Local 1 Local 2
FV GL
SQ QM F SQ QM F

Tratamento 2 2711.9 1355.9 17.12* 629.7 314.85 54.83**

Resíduo 3 237.6 79.2 17.2 5.74

Total 5 2949.5 646.9


*, **: Significativo a 5 e 1% de significância, respectivamente, pelo teste F.

Com base nas análises individuais testa-se a homogeneidade


de variância, segundo diferentes metodologias como:

230
estatística experimental no rbio

a) Razão entre maior e menor QMR (variância) - Teste de Hartley

A hipótese H0 testada é que as variâncias sejam homogêneas, e


a estatística do teste é dada segundo a expressão abaixo, considerando
todos os ambientes avaliados:

maior QMR
H=
menor QMR

Considerando os dados da Tabela 8.3, temos:

79.2
H
= = 13.79
5.74

Esse valor encontrado deve ser confrontado com o valor da


tabela de distribuição H, denominado de F máximo (ANEXOS 9.1 e 9.2).
Para testar esta estatística, entra-se com o número de graus de liberda-
de associado ao resíduo, que nesse caso é 3, e o número de ambientes
avaliado, que nesse caso é 2. Considerando os valores da tabela de F
máximo a 5% (ANEXO 9.1), encontra-se o valor de 15.40. Como o valor
de H calculado é menor que o valor de H tabelado, conclui-se que as
variâncias são homogêneas.

b) Teste de Bartlett

O teste de Bartlett, proposto em 1937, utiliza a estatística a


seguir, para experimentos conduzidos em a ambientes (j=1,2,...,a).

231
estatística experimental no rbio

  a SQRes 


2,3026 x 
(∑
a
)
GLRes j x log  aj =1

j


 ∑ j =1
j =1
GLRes j
 
 
 ∑ j =1
a
− (GLRes j x log( SQRes j ))
Bartlet = 
 
1 1 1
x  ∑ j =1 
a
1+ − a
3 ( a − 1)  GLRes j ∑ GLRes j 
 j =1 

Para o exemplo anterior tem-se:

a
A = ∑GLRes j = 3 + 3 = 6
j =1

 a SQRes 
=
∑ j =1
s  =
j
 237.6 + 17.2
= 42.46
 GLRes j 
 ∑ j =1
a
6

a
C = ∑(GLRes j x log( SQRes j ))
j =1

= ( 3xlog 237.6 ) + ( 3xlog17.2 ) = 10.83

a
1 1 1
D=∑ = + = 0.667
j =1 GLRes j 3 3

2,3026 x 6 x log ( 42.46 ) − 10.83


Bartlet =
1  1
1 + x  0.667 − 
3  6
−2.44
= = −2.10
1.16

232
estatística experimental no rbio

O teste de Bartlett segue distribuição de χ2 considerando a-1


graus de liberdade e nível de significância α. Considerando os valores
disponíveis no ANEXO 9.3, o valor tabelado considerando 5% de proba-
bilidade e 1GL = 3,84, dessa forma, o valor calculado é menor que o valor
tabelado, então pode-se considerar que as variâncias são homogêneas.
Segundo Pimentel-Gomes (2000), em caso de não haver
homogeneidade entre as variâncias dos experimentos, pode-se
descartar ambientes heterogêneos da análise ou agrupá-los em
subgrupos de forma que tal heterogeneidade não aconteça. Outra
alternativa é realizar o ajuste dos graus de liberdade da interação e
resíduo, conforme metodologia adaptada de Cochran (1954), porém
se as discrepâncias entre os quadrados médios forem grandes, esse
método não se mostra promissor.
A análise conjunta de experimentos é comumente chamada de
análise fatorial, que não é um delineamento experimental, e sim um
arranjo experimental. Nesse caso veremos um arranjo fatorial em DIC.
O modelo matemático para o arranjo experimental em DIC é:

Yijk=m + Ti+ Lj + TLij+ eijk

em que:
Yijk é o valor observado relativo à parcela que recebe o tratamen-
to i no local j na repetição k, sendo i =1, 2, ..., t , j= 1, 2, ..., l e k =1, 2, ... r.
m é a média geral do experimento
Ti é o efeito do tratamento i
Lj é o efeito do local j
TLij é o efeito da interação entre o tratamento i e o local j
eijk é o erro aleatório associado a observação ijk.

O quadro da ANOVA neste delineamento é representado na


Tabela 9.4.

233
estatística experimental no rbio

Tabela 9.4. Quadro da ANOVA considerando arranjo fatorial de um delineamento


inteiramente casualizado.
FV GL SQ QM F

Tratamento (T) t-1 SQTrat QMTrat = SQTrat/glTrat QMTrat / QMRes

Local (L) l-1 SQLocal QMLocalt = SQLocalt/glLocal QMLocal/ QMRes

TxL (t-1) (l-1) SQTxL QMTxLt = SQTxL/glTxL QMTxL / QMRes

Resíduo tl(r-1) SQRes QMRes= SQRes/glRes

Total tlr-1 SQTotal

Em que:

Y...2
C=
tlr

t l r
SQTotal
= ∑∑∑Y
=i 1 =j 1 =
k 1
2
ijk −C

1 t 2
SQTrat
= ∑Yi.. − C
lr i =1

1 l 2
SQLocal
= ∑Y. j. − C
tr j =1

1 t l 2
SQ=
TxA ∑∑Yij. − SQTrat − SQLocal − C
r =i 1 =j 1

SQRes = SQTotal − SQTrat − SQLocal − SQTxA

Os cálculos para realizar a análise de variância conjunta com


base nos dados da Tabela 9.2, são:

234
estatística experimental no rbio

Y...2 11252
C
= = = 105468.75
tlr 3 x 2 x 2

t l r
SQTotal
= ∑∑∑Y
=i 1 =j 1 =
k 1
2
ijk C 66.982 + 75.612 + 113.77 2 + 126.242
−=

+71.87 + 87.532 + 86.712 + 83.952 + 110.352 + 110.292 + 93.262


2

+98.442 − 105468.75 =109205.2 − 105468.75 =3736.45

1 t 2 1
SQ
=Trat ∑
lr i =1
Yi.. =
−C
2 x2
(
x 313.252 + 460.652 + 351.12 )
−105468.75 = 2930.049

1 t 2 1
SQ
=Local ∑
tr j =1
Y. j . =
−C
3x 2
(
x 5422 + 5832 )
−105468.75 =
140.0833

1 t l 2 1
SQTxA
= ∑∑
r =i 1 =j 1
Yij . − SQTrat − SQLocal
= −C
2
(142.59 2
+ 240.012 + 159.42 + 170.662 + 220.642 + 191.7 2 )
−2930.049 − 140.0833 − 105468.75 =
411.52

SQRes = SQTotal − SQTrat − SQLocal − SQTxA


= 3736.45 − 2930.049 − 140.0833 − 411.52 = 254.83

O quadro da ANOVA para o exemplo é representado na Tabela


9.5. A hipótese H0 testada, considerando efeito de tratamento fixo, é
que todos os tratamentos possuem média igual. O valor tabelado do F
a 5% de probabilidade e 2 graus de liberdade do numerador e 6 graus
de liberdade do denominador (F5%;2;6) é igual a 5.14 (ANEXO 9.4). Dessa
forma, o F calculado (34.49) é maior que F tabelado, então rejeita-se a

235
estatística experimental no rbio

hipótese H0 de igualdade entre as médias, devendo haver pelo menos


uma média que difere estatisticamente das demais.

Tabela 9.5. Resultado da análise de variância da variável agronômica simulada, em


arranjo fatorial com três tratamentos, avaliados em dois locais com duas repetições
num delineamento inteiramente casualizado.
FV GL SQ QM F

Tratamento (T) 2 2930.049 1465.02 34.49*

Local (L) 1 140.0833 140.083 3.29

TxL 2 411.52 205.76 4.84

Resíduo 6 254.83 42.47

Total 11 3736.45
*: Significativo a 5% de significância pelo teste F

Neste exemplo, o coeficiente de variação (C.V.) é:

100 QMR 100 42.47


=CV% = = 6.95%
média 93.75

Caso o esquema fosse fatorial fosse no delineamento em blocos


casualizados (DBC) tem-se o seguinte

Yijk=m + Bk+ Ti+ Lj + TLij+ eijk

em que:
Yijk é o valor observado relativo à parcela que recebe o tratamen-
to i no local j na repetição k, sendo i =1, 2, ..., t , j= 1, 2, ..., l e k =1, 2, ... r.
m é a média geral do experimento
Bk é o efeito do bloco k
Ti é o efeito do tratamento i
Lj é o efeito do local j
TLij é o efeito da interação entre o tratamento i e o local j
eijk é o erro aleatório associado a observação ijk.

236
estatística experimental no rbio

Nessa situação a diferença é que se tem o efeito de bloco ex-


traído do resíduo. Dessa forma, teríamos r-1 GL para fonte blocos, ou
seja, 2-1 = 1GL, e a Soma de Quadrados de Blocos poderia ser obtida
utilizando os totais de cada repetição (para o bloco 1 tem: 66.98+113.
77+71.87+86.71+110.35+93.26= 252.62 +290.32 =542.94) por:

1 r 2 1
SQ=
Blocos ∑
tl k =1
Y..k =
−C
3x 2
x

( 252.62 + 290.32 )2 + ( 289.38 + 292.68 )2 


 
−105468.75 = 127.5312

A Soma dos Quadrado do Resíduo é:

SQRes = SQTotal − SQTrat − SQLocal − SQTxA − SQBlocos


=254.83 − 127.5312 =
127.3023

O Quadro da ANOVA nessa situação é apresentado na Tabela 9.6.

Tabela 9.6. Resultado da análise de variância da variável agronômica simulada, em


arranjo fatorial com três tratamentos, avaliados em dois locais com duas repetições
num delineamento em blocos ao acaso.
FV GL SQ QM F

Blocos 1 127.5312 127.5312

Tratamento (T) 2 2930.049 1465.02 57.54*

Local (L) 1 140.0833 140.083 5.502

TxL 2 411.52 205.76 8.08*

Resíduo 5 127.3023 25.46

Total 11 3736.45
*: Significativo a 5% pelo teste F.

237
estatística experimental no rbio

Neste caso, o coeficiente de variação (C.V.) é:

100 QMR 100 25.46


=CV% = = 5.38%
média 93.75

De forma similar ao já apresentado anteriormente pode-se


realizar o Teste de Tukey em experimentos em que exista mais de um
fator, como por exemplo um arranjo fatorial. Neste caso é importante
ficar atendo ao número de repetições a ser considerados, pois esta é o
número de observações que deram origem a média daquele fator em
consideração, ou seja, o produto entre o número de repetições do ex-
perimento e o número de repetições do outro fator, por exemplo, em
um experimento que tenha três tratamentos, avaliados em dois locais
e com duas repetições, se deseja realizar a comparação para fontes
de tratamentos, tem-se três médias que são originadas das avaliações
dos dois locais e duas repetições, portanto 2x2=4. Para proceder esta
análise será utilizado o arquivo de dados apresentados anteriormente
na Tabela 9.2, que se refere a um experimento em um arranjo fatorial
com três tratamentos avaliados em dois locais com duas repetições
em delineamento inteiramente casualizado. A saída da anova está
representada na Tabela 9.5. Note que não houve interação significativa
entre os fatores avaliados (tratamentos x ambientes). Analisando os
efeitos isolados, houve efeito significativo para tratamentos. Dessa
forma, o teste de Tukey será aplicado nesta situação apenas para esta
fonte de variação.
O valor da DMS para tratamento, considerando o arranjo fatorial
em DIC é obtida pela expressão abaixo e fazendo uso do ANEXO 9.5:

238
estatística experimental no rbio

QMR
DMSTukey = q∝ ( k , GlResíduo )
r x local
42.47
= q5% ( 3,
= 6) 4.34
= x 10.61 14.14
( 2 x2 )

Sendo assim, para as três médias de tratamentos as compara-


ções a seguir podem ser feitas:

m2 – m3 =115.16 – 87.77 = 27.39 > DMS


m2 – m1 =115.16 – 78.31 = 36.85 > DMS
m3 – m1 = 87.77 – 78.31 =9.46 < DMS

Portanto, o tratamento 2 difere dos tratamentos 3 e 1, e os tra-


tamentos 3 e 1 são estatisticamente iguais. Pode-se representar este
resultado utilizando letras, sendo assim, tem-se:

m1: 78.31 b
m2: 115.16 a
m3: 87.77 b

De forma similar o valor da DMS para a fonte de variação local é:

QMR
DMSTukey = q∝ ( k , GlResíduo )
r x trat
42.47
= q5% ( 2,=
6) 3.46
= x 7.07 9.2
( 2 x3 )

Como só existem dois locais, não é necessário realizar o teste de


média, uma vez que na saída da análise de variância a fonte de variação
local foi não significativa pelo teste F, porém, de forma apenas ilustrativa
a comparação dos dois locais é: L2 – L1=97.17 – 90.33 = 6.84 < DMS

239
estatística experimental no rbio

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Fatorial > Fatorial AxB, conforme a Figura 9.1. No arquivo de entrada de
dados o usuário definirá a natureza dos efeitos, para que seja possível
que o teste F seja realizado de forma correta. Será liberado uma figura
com as médias conforme apresentado na Figura 9.2.

240
estatística experimental no rbio

Figura 9.1: Procedimento para Análise de Variância em fatorial (AxB) no Rbio.

Figura 9.2. Software Rbio: Representação gráfica do teste de média para as fontes
de variação do modelo tratamento e local.

241
estatística experimental no rbio

O script para a realização dessa análise é:


# -----------------------------------
# Script 8: Delineamento em esquema fatorial
# -----------------------------------

# ----------------------
# 8.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo3.txt”, h=T) # Leitura dos dados
X

Trat Local Rep Variavel


1 1 1 1 66.98
2 1 1 2 75.61
3 2 1 1 113.77
4 2 1 2 126.24
5 3 1 1 71.87
6 3 1 2 87.53
7 1 2 1 86.71
8 1 2 2 83.95
9 2 2 1 110.35
10 2 2 2 110.29
11 3 2 1 93.26
12 3 2 2 98.44

# ----------------------
# 8.2- Análises individuais
# ----------------------

for (i in 1:2){
+ X1<- subset(X, Local == i)[,c(1,3:4)]
+ #print(i)
+ cat(“\n”, “ --- Local: “,i, “\n”, “\n”)
+ X1
+
+ Trat<-as.factor(X1[,1])
+ Rep<-as.factor(X1[,2])
+ variavel<-X1[,3]
+ saida<-aov(variavel~Trat)
+ print(summary(saida))
+}

--- Local: 1

Df Sum Sq Mean Sq F value Pr(>F)


Trat 2 2711.9 1355.9 17.12 0.0229 *
Residuals 3 237.6 79.2
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

--- Local: 2

Df Sum Sq Mean Sq F value Pr(>F)


Trat 2 629.7 314.85 54.83 0.00435 **
Residuals 3 17.2 5.74
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

# ----------------------
# 8.3- ANOVA Fatorial
# ----------------------

242
estatística experimental no rbio

Trat<-as.factor(X[,1])
Local<-as.factor(X[,2])
Bloco<-as.factor(X[,3])

# ----------------------
# 8.3.1- ANOVA Fatorial DIC
# ----------------------
saida<-aov(X[,4]~Trat+Local+Trat*Local)
print(summary(saida))

Df Sum Sq Mean Sq F value Pr(>F)


Trat 2 2930.0 1465.0 34.494 0.000512 ***
Local 1 140.1 140.1 3.298 0.119262
Trat:Local 2 411.5 205.8 4.845 0.055931 .
Residuals 6 254.8 42.5
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

# ----------------------
# 8.3.2- ANOVA Fatorial DBC
# ----------------------
saida2<-aov(X[,4]~Bloco+Trat+Local+Trat*Local)
print(summary(saida2))

Df Sum Sq Mean Sq F value Pr(>F)


Bloco 1 127.5 127.5 5.009 0.075396 .
Trat 2 2930.0 1465.0 57.541 0.000354 ***
Local 1 140.1 140.1 5.502 0.065917 .
Trat:Local 2 411.5 205.8 8.082 0.027132 *
Residuals 5 127.3 25.5
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

# ----------------------
# 8.4- Teste Tukey
# ----------------------
library(agricolae)

cat(“\n”, “-----Teste de Media para o Fator Trat-----”,”\n”)

-----Teste de Media para o Fator Trat-----

out<-HSD.test(saida,”Trat”, alpha=0.05, group=TRUE,console=TRUE)

Study: saida ~ “Trat”


HSD Test for X[, 4]
Mean Square Error: 42.47225

Trat, means

X...4. std r Min Max


1 78.3125 8.907459 4 66.98 86.71
2 115.1625 7.561999 4 110.29 126.24
3 87.7750 11.501543 4 71.87 98.44

Alpha: 0.05 ; DF Error: 6


Critical Value of Studentized Range: 4.339195

Minimun Significant Difference: 14.13943

Treatments with the same letter are not significantly different.

243
estatística experimental no rbio

X[, 4] groups
2 115.1625 a
3 87.7750 b
1 78.3125 b
cat(“\n”, “-----Teste de Media para o Fator Local-----”,”\n”)
-----Teste de Media para o Fator Local-----
out<-HSD.test(saida,”Local”, alpha=0.05, group=TRUE,console=TRUE)
Study: saida ~ “Local”
HSD Test for X[, 4]
Mean Square Error: 42.47225
Local, means
X...4. std r Min Max
1 90.33333 24.28775 6 66.98 126.24
2 97.16667 11.37478 6 83.95 110.35
Alpha: 0.05 ; DF Error: 6
Critical Value of Studentized Range: 3.460456
Minimun Significant Difference: 9.206834
Treatments with the same letter are not significantly different.
X[, 4] groups
2 97.16667 a
1 90.33333 a
cat(“\n”, “-----Teste de Media para a Interacao Trat x Local-----”,”\n”)
-----Teste de Media para a Interacao Trat x Local-----
AxB <- with(X, interaction(Trat, Local))
model <- aov(X[,i] ~ Bloco+AxB, data=X)
out<-HSD.test(model,”AxB”, alpha=0.05, group=TRUE,console=TRUE)
Study: model ~ “AxB”
HSD Test for X[, i]
Mean Square Error: 1.463803e-31
AxB, means
X...i. std r Min Max
1.1 1 0 2 1 1
1.2 2 0 2 2 2
2.1 1 0 2 1 1
2.2 2 0 2 2 2
3.1 1 0 2 1 1
3.2 2 0 2 2 2
Alpha: 0.05 ; DF Error: 5
Critical Value of Studentized Range: 6.032903
Minimun Significant Difference: 1.632122e-15
Treatments with the same letter are not significantly different.
X[, i] groups
1.2 2 a
2.2 2 a
3.2 2 a
1.1 1 b
2.1 1 b
3.1 1 b

244
estatística experimental no rbio

ANEXO 9.1. Percentis superiores a 5% da distribuição de F máximo


Número de Experimentos envolvidos
GL Res 2 3 4 5 6 7 8 9 10 11 12
2 39.00 87.50 142.00 202.00 266.00 333.00 403.00 475.00 550.00 626.00 704.00
3 15.40 27.80 39.20 50.70 62.00 72.90 83.50 93.90 104.00 114.00 124.00
4 9.60 15.50 20.60 25.20 29.50 33.60 37.50 41.10 44.60 48.00 51.40
5 7.15 10.80 13.70 16.30 18.70 20.80 22.90 24.70 26.50 28.20 29.90
6 5.82 8.38 10.40 12.10 13.70 15.00 16.30 17.50 18.60 19.70 20.70
7 4.99 6.94 8.44 9.70 10.80 11.80 12.70 13.50 14.30 15.10 15.80
8 4.43 6.00 7.18 8.12 9.03 9.78 10.50 11.10 11.70 12.20 12.70
9 4.03 5.34 6.31 7.11 7.80 8.41 8.95 9.45 9.91 10.30 10.70
10 3.72 4.85 5.67 6.34 6.92 7.42 7.87 8.28 8.66 9.01 9.34
12 3.28 4.16 4.79 5.30 5.72 6.09 6.42 6.72 7.00 7.25 7.48
15 2.86 3.54 4.01 4.37 4.68 4.95 5.19 5.40 5.59 5.77 5.93
20 2.46 2.95 3.29 3.54 3.76 3.94 4.10 4.24 4.37 4.49 4.59
30 2.07 2.40 2.61 2.78 2.91 3.02 3.12 3.21 3.29 3.36 3.39
60 1.67 1.85 1.96 2.04 2.11 2.17 2.22 2.26 2.30 2.33 2.36
∞ 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00

ANEXO 9.2. Percentis superiores a 1% da distribuição de F máximo


Número de Experimentos envolvidos
GL Res 2 3 4 5 6 7 8 9 10 11 12
2 199.00 448.0 729.0 1036.0 1362.0 1705.0 2063.0 2432.0 2813.0 3204.0 3605.0
3 47.50 85.0 120.0 151.0 184.0 216.0 249.0 281.0 310.0 337.0 361.0
4 23.20 37.0 49.0 59.0 69.0 79.0 89.0 97.0 106.0 113.0 120.0
5 14.90 22.0 28.0 33.0 38.0 42.0 46.0 50.0 54.0 57.0 60.0
6 11.10 15.5 19.1 22.0 25.0 27.0 30.0 32.0 34.0 36.0 37.0
7 8.89 12.1 14.5 16.5 18.4 20.0 22.0 23.0 24.0 26.0 27.0
8 7.50 9.9 11.7 13.2 14.5 15.8 16.9 17.9 18.9 19.8 21.0
9 6.54 8.5 9.9 11.1 12.1 13.1 13.9 14.7 15.3 16.0 16.6
10 5.85 7.4 8.6 9.6 10.4 11.1 11.8 12.4 12.9 13.4 13.9
12 4.91 6.1 6.9 7.6 8.2 8.7 9.1 9.5 9.9 10.2 10.6
15 4.07 4.9 5.5 6.0 6.4 6.7 7.1 7.3 7.5 7.8 8.0
20 3.32 3.8 4.3 4.6 4.9 5.1 5.3 5.5 5.6 5.8 5.9
30 2.63 3.0 3.3 3.4 3.6 3.7 3.8 3.9 4.0 4.1 4.2
60 1.96 2.2 2.3 2.4 2.4 2.5 2.5 2.6 2.6 2.7 2.7
∞ 1.00 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

245
estatística experimental no rbio

ANEXO 9.3. Valores de χ2 para diferentes níveis de probabilidade (α) e v graus de


liberdade.
v 0.5 0.25 0.1 0.05 0.025 0.01 0.005
1 0.455 1.323 2.706 3.841 5.024 6.635 7.879
2 1.386 2.773 4.605 5.991 7.378 9.210 10.597
3 2.366 4.108 6.251 7.815 9.348 11.345 12.838
4 3.357 5.385 7.779 9.488 11.143 13.277 14.860
5 4.351 6.626 9.236 11.070 12.832 15.086 16.750
6 5.348 7.841 10.645 12.592 14.449 16.812 18.548
7 6.346 9.037 12.017 14.067 16.013 18.475 20.278
8 7.344 10.219 13.362 15.507 17.535 20.090 21.955
9 8.343 11.389 14.684 16.919 19.023 21.666 23.589
10 9.342 12.549 15.987 18.307 20.483 23.209 25.188
11 10.341 13.701 17.275 19.675 21.920 24.725 26.757
12 11.340 14.845 18.549 21.026 23.337 26.217 28.300
13 12.340 15.984 19.812 22.362 24.736 27.688 29.819
14 13.339 17.117 21.064 23.685 26.119 29.141 31.319
15 14.339 18.245 22.307 24.996 27.488 30.578 32.801
16 15.338 19.369 23.542 26.296 28.845 32.000 34.267
17 16.338 20.489 24.769 27.587 30.191 33.409 35.718
18 17.338 21.605 25.989 28.869 31.526 34.805 37.156
19 18.338 22.718 27.204 30.144 32.852 36.191 38.582
20 19.337 23.828 28.412 31.410 34.170 37.566 39.997
21 20.337 24.935 29.615 32.671 35.479 38.932 41.401
22 21.337 26.039 30.813 33.924 36.781 40.289 42.796
23 22.337 27.141 32.007 35.172 38.076 41.638 44.181
24 23.337 28.241 33.196 36.415 39.364 42.980 45.558
25 24.337 29.339 34.382 37.652 40.646 44.314 46.928
26 25.336 30.435 35.563 38.885 41.923 45.642 48.290
27 26.336 31.528 36.741 40.113 43.195 46.963 49.645
28 27.336 32.620 37.916 41.337 44.461 48.278 50.994
29 28.336 33.711 39.087 42.557 45.722 49.588 52.335
30 29.336 34.800 40.256 43.773 46.979 50.892 53.672
40 39.335 45.616 51.805 55.758 59.342 63.691 66.766
50 49.335 56.334 63.167 67.505 71.420 76.154 79.490
60 59.335 66.981 74.397 79.082 83.298 88.379 91.952
70 69.334 77.577 85.527 90.531 95.023 100.425 104.215
80 79.334 88.130 96.578 101.879 106.629 112.329 116.321
90 89.334 98.650 107.565 113.145 118.136 124.116 128.299
100 99.334 109.141 118.498 124.342 129.561 135.807 140.170

246
estatística experimental no rbio

ANEXO 9.4. Tabela da Distribuição F ao nível de 5% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 161.45 199.5 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85
12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6
15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3
23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25
25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2
28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08

247
estatística experimental no rbio

ANEXO 9.5. Valores da amplitude total estudentizada (q) para teste de Tukey a 5% de
probabilidade em função do número de tratamentos e graus de liberdade do resíduo.
GL(resid) Número de grupos no tratamento
2 3 4 5 6 7 8 9 10
1 17.97 26.98 32.82 37.08 40.41 43.12 45.40 47.36 49.07
2 6.08 8.33 9.8 10.88 11.73 12.43 13.03 13.54 13.99
3 4.50 5.91 6.82 7.50 8.04 8.48 8.85 9.18 9.46
4 3.93 5.04 5.76 6.29 6.71 7.05 7.35 7.60 7.83
5 3.64 4.6 5.22 5.67 6.03 6.33 6.58 6.8 6.99
6 3.46 4.34 4.9 5.3 5.63 5.9 6.12 6.32 6.49
7 3.34 4.16 4.68 5.06 5.36 5.61 5.82 6 6.16
8 3.26 4.04 4.53 4.89 5.17 5.4 5.6 5.77 5.92
9 3.2 3.95 4.41 4.76 5.02 5.24 5.43 5.59 5.74
10 3.15 3.88 4.33 4.65 4.91 5.12 5.3 5.46 5.6
11 3.11 3.82 4.26 4.57 4.82 5.03 5.2 5.35 5.49
12 3.08 3.77 4.2 4.51 4.75 4.95 5.12 5.27 5.39
13 3.06 3.73 4.15 4.45 4.69 4.88 5.05 5.19 5.32
14 3.03 3.7 4.11 4.41 4.64 4.83 4.99 5.13 5.25
15 3.01 3.67 4.08 4.37 4.59 4.78 4.94 5.08 5.2
16 3 3.65 4.05 4.33 4.56 4.74 4.9 5.03 5.15
17 2.98 3.63 4.02 4.3 4.52 4.7 4.86 4.99 5.11
18 2.97 3.61 4 4.28 4.49 4.67 4.82 4.96 5.07
19 2.96 3.59 3.98 4.25 4.47 4.65 4.79 4.92 5.04
20 2.95 3.58 3.96 4.23 4.45 4.62 4.77 4.9 5.01
24 2.92 3.53 3.9 4.17 4.37 4.54 4.68 4.81 4.92
30 2.89 3.49 3.85 4.1 4.3 4.46 4.6 4.72 4.82
40 2.86 3.44 3.79 4.04 4.23 4.39 4.52 4.63 4.73
120 2.8 3.36 3.68 3.92 4.1 4.24 4.36 4.47 4.56
>120 2.77 3.31 3.63 3.86 4.03 4.17 4.29 4.39 4.47
∞ 3.64 4.12 4.4 4.6 4.76 4.88 4.99 5.08 5.16

248
10

ANÁLISE DE EXPERIMENTOS
EM PARCELAS SUBDIVIDIDAS

Muitas vezes na experimentação existem experimentos em que


os tratamentos (parcelas) são avaliados em anos consecutivos (subpar-
celas), por exemplo. Neste caso, é aconselhável proceder a análise como
parcela subdividida no tempo. Para que análises ao longo do tempo
sejam possíveis de serem realizadas devem ser testados algumas pre-
missas como independência do erro. Outro tipo de análise comumente
usada no esquema de parcela subdividida é quando deseja testar partes
diferentes de uma planta, como por exemplo parte aérea e raiz.
Esse arranjo experimental é parecido com o arranjo fatorial,
porém existem diferença entre eles, como por exemplo: O arranjo
fatorial possui um resíduo, enquanto a Parcela subdividida terá dois
ou até mesmo três resíduos. Outra diferença, refere-se a aleatorização
das parcelas no experimento, enquanto na parcela subdividida, haverá
a aleatorização das subparcelas, dentro de cada parcela, no arranjo
fatorial haverá aleatorização de todos os fatores ao mesmo tempo
como representado abaixo:
Aleatorização de 3 variedades (V1 a V3) em 4 doses de adubo
(D1 a D4), considerando 3 blocos.

249
estatística experimental no rbio

Parcela subdividida:

Variedade 1 Variedade 2 Variedade 3

Bloco 1 D1 D3 D4 D2 D2 D1 D4 D3 D3 D2 D1 D4

Variedade 3 Variedade 1 Variedade 2

Bloco 2 D2 D4 D3 D1 D3 D1 D2 D4 D4 D2 D3 D1

Variedade 2 Variedade 3 Variedade 1

Bloco 3 D3 D2 D1 D4 D3 D1 D2 D4 D1 D3 D4 D2

Fatorial:

Bloco 1 V1D1 V2D2 V3D4 V3D1 V1 D3 V2D4 V2D1 V3D3 V1D2 V2D3 V3D2 V1D4

Bloco 2 V1D2 V2D1 V1D3 V3D1 V2D2 V3D3 V3D2 V1D1 V2D4 V1D4 V3D4 V2D3

Bloco 3 V3D1 V2D4 V1D3 V1D2 V3D2 V2D3 V1D4 V3D3 V2D2 V2D1 V3D4 V1D1

Este arranjo experimental é ainda denominado Split plot,


possuindo dois resíduos, sendo que o resíduo a se refere a parcelas,
e o resíduo b refere-se a subparcelas. Segundo Pimentel-Gomes, em
geral tem-se que o QMR(a) > QMR (b), de forma que as avaliações da
subparcela são determinados com maior precisão do que os efeitos
testados pela parcela. Esta diferença de precisão as vezes constitui um
defeito deste delineamento. Na Tabela 10.1 apresentamos o esquema
com as observações do referido experimento.

250
estatística experimental no rbio

Tabela 10.1. Tabela auxiliar considerando observações de t tratamentos, em l locais


e r repetições para proceder a ANOVA.
Fator A Fator B (Subparcela)
Total Média
Parcela 1 2 ... l

1 Y111, ..., Y11r Y121, ..., Y12r ... Y1l1, ..., Y1lr Y1.. Ȳ1..

2 Y211, ..., Y21r Y221, ..., Y22r ... Y2l1, ..., Y2lr Y2.. Ȳ2..

... ... ... ...

t Yt11, ..., Yt1r Yt21, ..., Yt2r ... Ytl1, ..., Ytlr Yt.. Ȳt..

Total Y.1. Y.2. Y.l.

Média Ȳ.1. Ȳ.2. Ȳ.l. Ȳ...

O modelo matemático para um experimento em parcela subdi-


vidida em blocos é:

Yijk=m + Bk + Pi+ (Erroa)ik +Sj + PSij+ (Errob)ijk

em que:
Yijk é o valor observado relativo a parcela i, da subparcela j e do
bloco k, sendo i =1, 2, ..., t , j= 1, 2, ..., l e k =1, 2, ... r.
m é a média geral do experimento
Bk é o efeito do bloco k
Pi é o efeito da parcela principal i
Erro a: Erro da parcela principal associado a observação ik.
Sj é o efeito da subparcela j
PSij é o efeito da interação da parcela i e a subparcela j
Erro b é o erro aleatório da subparcela associado a observação ijk.

O quadro da ANOVA neste delineamento é representado na


Tabela 10.2.

251
estatística experimental no rbio

Tabela 10.2. Quadro da ANOVA considerando arranjo em parcela subdividida no


delineamento em blocos ao acaso.
FV GL SQ QM F

Blocos r-1 SQBlocos QMBlocos = SQBloco/glBlocos

QMParc /
Parcela (P) t-1 SQParc QMParc = SQParc/glParc
QMErroA

Erro A (r-1) (t-1) SQErroA QMErroA= SQErroA/glErroA

Total Parcela tr-1 SQTotalParc

QM Subp /
Subparcela (S) l-1 SQSubp QMSubp = SQSubp/glSubp
QMErroB

QMPxS /
PxS (t-1) (l-1) SQPxS QMPxS = SQPxS/glPxS
QMErroB

Erro B t(r-1) (l-1) SQErroB QMErroB= SQErroB/glErroB

Total tlr-1 SQTotal

Em que:

Y...2
C=
tlk

1 r 2
SQBlocos
= ∑Y..k − C
tl k =1

1 t 2
SQParc
= ∑Yi.. − C
lr i =1

1 t r
SQ
=Total Parcela ∑∑
l =i 1 =k 1
Yi.k 2 − C

SQErro=
A SQTotal Parcela − SQParcela − SQBloco

252
estatística experimental no rbio

1 l 2
SQSubParcelas
= ∑Y. j. − C
tr j =1

1 t l 2
SQPxS= ∑∑Yij. − SQParcela − SQSubparcela − C
r =i 1 =j 1

t l r
SQTotal
= ∑∑∑Y
=i 1 =j 1 =
k 1
2
ijk −C

SQErro B =
SQTotal − SQTotal Parcela − SQSubparcela − SQPxS

Considere os dados da Tabela 10.3 com 3 tratamentos (parcela),


2 anos (subparcela) com 2 repetições em cada local.

Tabela 10.3. Avaliação de uma variável agronômica simulada, em arranjo de parcela


subdividida com três tratamentos, avaliados em dois anos com dois blocos em um
delineamento em blocos ao acaso.
Subparcela

Parcela Ano 1 Ano 2 Total Média

Bloco 1 Bloco 2 Bloco 1 Bloco 2

1 66.98 75.61 86.71 83.95 313.25 78.3125

2 113.77 126.24 110.35 110.29 460.65 115.1625

3 71.87 87.53 93.26 98.44 351.1 87.775

Total 252.62 289.38 290.32 292.68

Total 542 583 1125

Média 90.33 97.17 93.75

Os cálculos para realizar a análise de variância são:

253
estatística experimental no rbio

Em que:

Y...2 11252
C
= = = 105468.75
tlr 3 x 2 x 2

1 t 2 1
SQParcelas
= ∑
lr i =1
Yi.. =
−C
2 x2
x

( 313.25 2
)
+ 460.652 + 351.12 − 105468.75 =
2930.049

1 t 1
SQTotal Parcela
= ∑
l i =1
Yi.k 2=
−C
2
x

 ( 66.98 + 86.71)2 + ( 75.61 + 83.95 )2 + (113.77 + 110.35 )2 


 ) − 105468.75
 + (126.24 + 110.29 )2 + ( 71.87 + 93.26 )2 + ( 87.53 + 98.44 )2 
 
1
=
2
( )
x 153.692 + 159.562 + 224.122 + 236.532 + 165.132 + 185.97 2 − 105468.75

217108.98
= − 105468.75 = 3085.74
2

SQErro=
A SQTotal Parcela − SQParcela − SQBloco
=3085.74 − 2930.049 − 127.5312 =28.16

1 t 2 1
SQSubParcelas
= ∑
tr j =1
Y. j . =
−C
3x 2
x

( 542 2
)
+ 5832 − 105468.75 =
140.0833

254
estatística experimental no rbio

1 t l 2
SQPxS= ∑∑Yij. − SQParcela − SQSubparcela − C
r =i 1 =j 1
1
=
2
(
142.592 + 240.012 + 159.42 + 170.662 + 220.642 + 191.7 2 )
−2930.049 − 140.0833 − 105468.75 = 411.52

t l r
SQTotal
= ∑∑∑Y
=i 1 =j 1 =
k 1
2
ijk C 66.982 + 75.612 + 113.77 2 + 126.242
−=

+71.87 + 87.532 + 86.712 + 83.952 + 110.352 + 110.292 + 93.262


2

+98.442 − 105468.75 =109205.2 − 105468.75 =3736.45

SQErro B =
SQTotal − SQTotal Parcela − SQSubparcela − SQPxS
= 3736.45 − 3085.74 − 140.0833 − 411.52 = 99.1

O quadro da ANOVA para o exemplo é apresentado na Tabela


10.4. Como a interação entre os fatores não foi significativa, passamos
a interpretar os efeitos isolados de cada fator. A hipótese H0 testada,
considerando efeito de parcela fixo, é que todas as parcelas possuem
média igual. O valor tabelado do F a 5% de probabilidade e 2 graus
de liberdade do numerador e 2 graus de liberdade do denominador
(F5%;2;2) é igual a 19 (ANEXO 10.1). Dessa forma, o F calculado (104.045)
é maior que F tabelado, então rejeita-se a hipótese H0 de igualdade
entre as médias de parcelas, devendo haver pelo menos uma média de
parcela que difere estatisticamente das demais. A mesma interpreta-
ção deverá ser realizada para a subparcela, sendo valor tabelado do F
a 5% de probabilidade e 1 graus de liberdade do numerador e 3 graus
de liberdade do denominador (F5%;1;3) é igual a 10.13, é maior que F
calculado (4.24), portanto, como F calculado < F tabelado não deve-se
rejeitar a hipótese H0 de igualdade entre as médias de subparcelas,
portanto todas estas são consideradas iguais.

255
estatística experimental no rbio

Tabela 10.4. Resultado da análise de variância da variável agronômica simulada,


considerando arranjo em parcela subdividida no delineamento em blocos ao acaso.
FV GL SQ QM F

Blocos 1 127.5312 127.5

Parcela (P) 2 2930.049 1465 104.045*

Erro A 2 28.2 14.1

Total Parcela 5 3085.74

Subparcela (S) 1 140.1 140.1 4.24

PxS 2 411.5 205.76 6.22

Erro B 3 99.1 33.05

Total 11 3736.45
*: Significativo a 5% pelo teste F.

Neste exemplo coeficiente de variação (C.V.) é:

100 QMR 100 14.1


CV%=
parcela = = 4%
média 93.75

100 QMR 100 33.05


CV% subparcela
= = = 6.13%
média 93.75

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Parcela Subdividida > Parcela Subdividida, conforme a Figura 10.1.

256
estatística experimental no rbio

Figura 10.1. Software Rbio, e rotina de procedimentos para realizar análise de


variância no arranjo de parcela subdividida em blocos ao acaso.

257
estatística experimental no rbio

# -----------------------------------
# Script 9: Delineamento em esquema de parcela subdividida
# -----------------------------------
# ----------------------
# 9.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo3sub.txt”, h=T) # Leitura dos dados
X
Parcela Subparcela Rep Variavel
1 1 1 1 66.98
2 1 1 2 75.61
3 2 1 1 113.77
4 2 1 2 126.24
5 3 1 1 71.87
6 3 1 2 87.53
7 1 2 1 86.71
8 1 2 2 83.95
9 2 2 1 110.35
10 2 2 2 110.29
11 3 2 1 93.26
12 3 2 2 98.44
# ----------------------
# 9.2- ANOVA Parcela Subdividida
# ----------------------
Parc<-as.factor(X[,1])
Sub<-as.factor(X[,2])
Bloco<-as.factor(X[,3])
# ----------------------
# 9.2.1- ANOVA Parcela Subdividida em DIC
# ----------------------
saida<-aov(X[,4]~ Parc + Error(Bloco:Parc) + Sub +Parc*Sub)
print(summary(saida))
Error: Bloco:Parc
Df Sum Sq Mean Sq F value Pr(>F)
Parc 2 2930.0 1465.0 28.23 0.0113 *
Residuals 3 155.7 51.9
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Error: Within
Df Sum Sq Mean Sq F value Pr(>F)
Sub 1 140.1 140.08 4.239 0.1316
Parc:Sub 2 411.5 205.76 6.226 0.0855 .
Residuals 3 99.1 33.05
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
# ----------------------
# 9.2.2- ANOVA Parcela Subdividida em DBC
# ----------------------
saida<-aov(X[,4]~ Bloco +Parc + Error(Bloco:Parc) + Sub +Parc*Sub)
print(summary(saida))
Error: Bloco:Parc
Df Sum Sq Mean Sq F value Pr(>F)
Bloco 1 127.5 127.5 9.057 0.09495 .
Parc 2 2930.0 1465.0 104.045 0.00952 **
Residuals 2 28.2 14.1
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Error: Within
Df Sum Sq Mean Sq F value Pr(>F)
Sub 1 140.1 140.08 4.239 0.1316
Parc:Sub 2 411.5 205.76 6.226 0.0855 .
Residuals 3 99.1 33.05
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

258
estatística experimental no rbio

ANEXO 10.1. Tabela da Distribuição F ao nível de 5% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 161.45 199.5 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85
12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6
15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3
23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25
25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2
28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08

259
11

ANÁLISE DE EXPERIMENTOS EM FAIXAS

Os experimentos em faixas representam uma alternativa aos


esquemas fatorial e de parcela subdivididas para estudar dois fatores.
Nos experimentos em faixas a distribuição dos tratamentos não é casu-
alizada, o que diminui a precisão ao estimar os efeitos principais. Esse
esquema experimental é comumente utilizado em empresas comerciais,
onde a instalação do experimento é toda mecanizada em uma grande
área experimental, de modo que os tratamentos formem faixas.
Assim como no esquema de parcelas subdivididas, temos o
fator principal (que são alocados nas parcelas e mais difíceis de casu-
alizar) e o fator secundário (alocados na subparcela e mais fácies de
casualizar em relação ao outro fator).
No exemplo a seguir temos uma situação em que o efeito de va-
riedades será considerado como principal com o objetivo de tornar mais
rápida a semeadura de forma mecanizada. Note no esquema abaixo que
cada linha pode ser considerada como um bloco completo em relação
ao fator A (doses) e cada coluna como um bloco do fator B (variedades).
A adoção desse esquema experimental deve ocorrer em situa-
ções práticas onde é difícil a instalação do experimento no esquema de
parcelas subdivididas ou em fatorial. Este arranjo experimental é ainda
denominado Split block, possuindo três resíduos. O resíduo a (Erroa)

260
estatística experimental no rbio

será utilizado para testar os efeitos de blocos e do fator principal. O re-


síduo b (Errob) será utilizado para testar o fator secundário, enquanto
o resíduo c (Erroc) será utilizado para testa a interação entre os fatores
A e B. Na Tabela 11.1 apresentamos o esquema com as observações do
referido experimento.
Aleatorização de 3 variedades (V1 a V3) em 4 doses de adubo (D1
a D4), considerando 3 blocos em diferentes esquemas experimentais.
Faixas:

V1D1 V1D3 V1D4 V1D2

Bloco 1 V2D1 V2D3 V2D4 V2D2

V3D1 V3D3 V3D4 V3D2

V3D2 V3D4 V3D3 V3D1


Bloco 2
V1D2 V1D4 V1D3 V1D1

V2D2 V2D4 V2D3 V2D1

V2D3 V2D2 V2D1 V2D4


Bloco 3
V3D3 V3D2 V3D1 V3D4

V1D3 V1D2 V1D1 V1D4

Parcela subdividida:

Variedade 1 Variedade 2 Variedade 3

Bloco 1 D1 D3 D4 D2 D2 D1 D4 D3 D3 D2 D1 D4

Variedade 3 Variedade 1 Variedade 2

Bloco 2 D2 D4 D3 D1 D3 D1 D2 D4 D4 D2 D3 D1

Variedade 2 Variedade 3 Variedade 1

Bloco 3 D3 D2 D1 D4 D3 D1 D2 D4 D1 D3 D4 D2

261
estatística experimental no rbio

Fatorial:

Bloco 1 V1D1 V2D2 V3D4 V3D1 V1D3 V2D4 V2D1 V3D3 V1D2 V2D3 V3D2 V1D4

Bloco 2 V1D2 V2D1 V1D3 V3D1 V2D2 V3D3 V3D2 V1D1 V2D4 V1D4 V3D4 V2D3

Bloco 3 V3D1 V2D4 V1D3 V1D2 V3D2 V2D3 V1D4 V3D3 V2D2 V2D1 V3D4 V1D1

Tabela 11.1. Tabela auxiliar considerando observações de t cultivares (fator A), em


l anos (fator C) e r blocos para proceder a ANOVA.
Fator A Fator C
Total Média
1 2 ... l

1 Y111, ..., Y11r Y121, ..., Y12r ... Y1l1, ..., Y1lr Y1.. Ȳ1..

2 Y211, ..., Y21r Y221, ..., Y22r ... Y2l1, ..., Y2lr Y2.. Ȳ2..

... ... ... ...

t Yt11, ..., Yt1r Yt21, ..., Yt2r ... Ytl1, ..., Ytlr Yt.. Ȳt..

Total Y.1. Y.2. Y.l.

Média Ȳ.1. Ȳ.2. Ȳ.l. Ȳ...

O modelo matemático para um experimento em faixas em


blocos é dado por:

Yijk=m + Rk + Ai+ (Erroa)ik +Cj + (Errob)jk + ACij+ (Erroc)ijk

em que:
Yijk é o valor observado relativo a parcela i, da subparcela j e do
bloco k, sendo i =1, 2, ..., t , j= 1, 2, ..., l e k =1, 2, ... r.
m é a média geral do experimento
Rk é o efeito do bloco k
Ai é o efeito do fator principal i
Erro a: Erro associado a observação ik
Bj é o efeito do fator secundário j

262
estatística experimental no rbio

Erro b: Erro associado a observação jk


ABij é o efeito da interação do fator principal i e o fator secundário j
Erro c é o erro associado a observação ijk.

O quadro da ANOVA neste esquema experimental é represen-


tado na Tabela 11.2.

Tabela 11.2. Quadro da ANOVA considerando o esquema de faixas no delineamento


em blocos ao acaso.
FV GL SQ QM F

Blocos r-1 SQBloco QMBloco = SQBloco / glBloco

Fator A t-1 SQFatorA QMFatorA = SQFatorA / glFatorA QMFatorA / QMErroA

Erro A (r-1) (t-1) SQErroA QMErroA= SQErroA / glErroA

Total Parcela tr-1 SQTotalParc

Fator B l-1 SQFatorB QMFatorB = SQFatorB / glFatorB QMFatorB / QMErroB

Erro B (r-1) (l-1) SQErroB

AxB (t-1) (l-1) SQAxB QMAxB = SQAxB / glAxB QMAxB / QMErroC

Erro C (r-1) (t-1) (l-1) SQErroC QMErroC= SQErroC / glErroC

Total tlr-1 SQTotal

Em que:

t l r
SQTotal
= ∑∑∑Y
=i 1 =j 1 =
k 1
2
ijk −C

1 r 2
SQBlocos
= ∑Y..k − C
tl k =1

1 t 2
SQ
= FatorA ∑Yi.. − C
lr i =1

263
estatística experimental no rbio

1 t
SQTotal
= Parcela ∑
l i =1
Yi.k 2 − C

SQErro=
A SQTotal Parcela − SQFatorA − SQBloco

1 t 2
SQFatorB
= ∑Y. j. − C
tr j =1

1 t
SQTotal =
Subparcela ∑
t i =1
Y. jk 2 − C

SQ=
Erro B SQTotal Subparcela − SQBloco − SQFatorB

1 t l 2
SQAxB= ∑∑Yij. − SQFatorA − SQFatorB − C
r =i 1 =j 1

SQErroC =SQTotal − SQTotal Parcela − SQFatorB − SQErro B − SQAxB

Considere os dados da Tabela 11.3 com 3 tratamentos (parcela),


2 anos (subparcela) com 2 repetições em cada local.

264
estatística experimental no rbio

Tabela 11.3. Avaliação de uma variável agronômica simulada, em esquema de


faixas com três tratamentos, avaliados em dois anos com dois blocos em um
delineamento em blocos ao acaso.
Fator B

Fator A Ano 1 Ano 2 Total Média

Bloco 1 Bloco 2 Bloco 1 Bloco 2

1 66.98 75.61 86.71 83.95 313.25 78.3125

2 113.77 126.24 110.35 110.29 460.65 115.1625

3 71.87 87.53 93.26 98.44 351.1 87.775

Total 252.62 289.38 290.32 292.68

Total 542 583 1125

Média 90.33 97.17 93.75

Os cálculos para realizar a análise de variância são:


Em que:

Y...2 11252
C
= = = 105468.75
tlr 3 x 2 x 2

t l r
SQTotal
= ∑∑∑Y
=i 1 =j 1 =
k 1
2
ijk −C

 66.982 + 75.612 + 113.77 2 + 126.242 + 71.87 2 + 87.532 + 


=
 86.712 + 83.952 + 110.352 + 110.292 + 93.262 + 98.442 
 
−105468.75 = 109205.20 − 105468.75 = 3736.45

1 r 2 1
SQ=
Blocos ∑
tl k =1
Y..k =
−C
3x 2
x

( 252.62 + 290.32 )2 + ( 289.38 + 292.68 )2  − 105468.75 =


127.5312
 

265
estatística experimental no rbio

1 t 2 1
SQ=
FatorA ∑
lr i =1
Yi.. =
−C
2 x2
x

( 313.25 2
)
+ 460.652 + 351.12 − 105468.75 =
2930.049

1 t
SQTotal
= Parcela ∑Yi.k 2 − C
l i =1

1  ( 66.98 + 86.71) + ( 75.61 + 83.95 ) + (113.77 + 110.35 ) 


2 2 2

= x 
2  + (126.24 + 110.29 ) + ( 71.87 + 93.26 ) + ( 87.53 + 98.44 ) )) 
2 2 2
 
1
−105468.75=
2
(
x 153.692 + 159.562 + 224.122 + 236.532 + 165.132 + 185.97 2 )
217108.98
−105468.75 = − 105468.75 = 3085.74
2

SQErro=
A SQTotal Parcela − SQFatorA − SQBloco
=3085.74 − 2930.049 − 127.5312 =28.16

1 t 2 1
SQ=
FatorB ∑
tr j =1
Y. j . =
−C
3x 2
x

( 542 2
)
+ 5832 − 105468.75 =
140.0833

1 t 1
SQTotal Subparcela
= ∑
t i =1
Y. jk 2=
−C
3
x

 ( 66.98 + 113.77 + 71.87 )2 + ( 86.71 + 110.35 + 93.26 )2 


 
 + ( 75.61 + 126.24 + 87.53)2 + ( 83.95 + 110.29 + 98.44 )2 
 
1
−105468.75
=
3
(
x 252.622 + 290.322 + 289.382 + 292.682 )
105834.98
−105468.75 = − 105468.75 = 366.2279
3

266
estatística experimental no rbio

SQ=
Erro B SQTotal Subparcela − SQBloco − SQFatorB
= 366.2279 − 127.5312 − 140.0833 = 98.61

1 t l 1
SQAxB
= ∑∑Yij.2 − SQFatorA − SQFatorB
r =i 1 =j 1
= −C
2
(142.59 2
+ 240.012 + 159.42 + 170.662 + 220.642 + 191.7 2 )
−2930.049 − 140.0833 − 105468.75 =
411.52

SQErroC =SQTotal − SQTotal Parcela − SQFatorB − SQErro B − SQAxB


= 3736.45 − 3085.74 − 140.0833 − 98.61 − 411.52= 0.50

O quadro da ANOVA para o exemplo é apresentado na Tabela


11.4. A hipótese H0 testada, considerando a interação entre os fatores
A e C como fixa, é que todas os seus níveis possuem média igual. O
valor tabelado do F a 5% de probabilidade e 2 graus de liberdade do
numerador e 2 graus de liberdade do denominador (F5%;2;2) é igual a 19
(ANEXO 11.1). Dessa forma, o F calculado para a interação AxC (823.04)
é maior que F tabelado, então rejeita-se a hipótese H0 de igualdade.

Tabela 11.4. Resultado da análise de variância da variável agronômica simulada,


em esquema de faixas com três tratamentos, avaliados em dois anos com dois
blocos em um delineamento em blocos ao acaso.
FV GL SQ QM F

Blocos 1 127.53 127.53 9.06ns

Fator A 2 2930.05 1465.03 104.05*

Erro A 2 28.16 14.08

Fator B 1 140.08 140.08 1.42

Erro B 1 98.61 98.61

AxB 2 411.52 205.76 823.04*

Erro C 2 0.50 0.25

Total 11 3736.45
ns,
*: Não significativo e significativo respectivamente a 5% pelo teste F.

267
estatística experimental no rbio

Neste exemplo coeficiente de variação (C.V.) é:

100 QM ErroA 100 14.08


CV
= % erroA = = 4.00%
média 93.75

100 QM ErroB 100 98.61


CV
= % erroB = = 10.59%
média 93.75

100 QM ErroC 100 0.25


CV
=% erroC = = 0.53%
média 93.75

É possível verificar pelas análises acima demonstradas que


houve interação significativa entre os fatores A e B. Como esses efeitos
foram considerados fixos, deve ser realizado o desdobramento da
interação para encontrar os melhores níveis do fator A dentro de cada
nível do fator B e vice-versa. Para realizar esse desdobramento deve-se
utilizar uma tabela com os totais de cada tratamento (Yij.), conforme
Tabela auxiliar 11.5. Essa nova Tabela é similar a Tabela 11.1, porém
aqui são utilizados os totais de cada bloco.

Tabela 11.5. Tabela auxiliar considerando os totais de t cultivares (fator A), em l


anos (fator B) em r blocos para proceder o desdobramento da interação significativa
entre os fatores A e C.
Fator B
Fator A Total
1 2 ... l

1 Y11. Y12. ... Y1l. Y1..

2 Y21. Y22. ... Y2l. Y2..

... ... ... ...

t Yt1. Yt2. ... Ytl. Yt..

Total Y.1. Y.2. Y.l.

268
estatística experimental no rbio

Inicialmente, vamos realizar o desdobramento do fator A den-


tro de cada nível do fator B. O Quadro de ANOVA para realizar esse
procedimento é apresentado na Tabela 11.6.

Tabela 11.6. Quadro da ANOVA para desdobramento do fator A dentro de cada


nível do fator B.
FV GL SQ QM F

AdB1 t-1 SQAdB1 QM AdB1 = SQAdB1 / GLAdB1 QM AdB1 / QM Erro médio 1

AdB 2 t-1 SQAdB 2 QM AdB 2 = SQAdB 2 / GLAdB 2 QM AdB 2 / QM Erro médio 1

Erro médio 1 GLErro médio 1 --- QM Erro médio 1

Em que:

1 t 2 1 2
SQAdB1
= ∑Yi1. − tr Y.1.
r i =1

1 t 1
SQAdB 2
= ∑
r i =1
Yi 2.2 − Y.2.2
tr

QM Res A + ( l − 1) QM Res C  ²


GLErro médio 1 =  ( ) ( )
QM Res A  ² ( l − 1) QM Res C  ²
 ( )
+
( )
GLRes( A) GLRes( C )

QM Res( A) + ( l − 1) QM Res( C )
QM Erro médio 1 =
l

A Tabela 11.7 contém os valores numéricos a serem utilizados


para esse procedimento estatístico.

269
estatística experimental no rbio

Tabela 11.7. Valores numéricos com os totais de t cultivares (fator A), em l anos
(fator B) em r blocos para proceder o desdobramento da interação significativa
entre os fatores A e C.
Fator B
Fator A Total
1 2

1 142.59 170.66 313.25

2 240.01 220.64 460.65

3 159.40 191.70 351.10

Total 542.00 583.00

Os cálculos para realizar a análise de variância são:


Em que:

1 t 2 1 2 1
SQAdB1 = ∑Yi1. − tr Y.1. = 2 x
r i =1
1
(142.59 2
+ 240.012 + 159.402 − ) 3x 2
(
x 542.002 = )
2711.87

1 t 1 1
SQAdB 2= ∑
r i =1
Yi 2.2 − Y.2.2=
tr 2
x

1
(170.66 2
+ 220.642 + 191.702 − ) 3x 2
(
x 583.002 = )
629.70

QM Res A + ( l − 1) QM Res C  ²


GLErro médio 1 =  ( ) ( )
QM Res A  ² ( l − 1) QM Res C  ²
 ( )
+
( )
GLRes( A) GLRes( C )
14.08 + ( 2 − 1) x0.25 ²
= 2.07
= [14.08] ² ( 2 − 1) .25 ²
+  
2 2

270
estatística experimental no rbio

QM Res( A) + ( l − 1) QM Res( C )
QM Erro médio 1 =
l
14.08 + ( 2 − 1) x0.25
= 7.29
2

O quadro da ANOVA demonstrado na Tabela 11.8 para desdo-


bramento do fator A dentro de cada nível do fator B. A hipótese H0
testada é que as médias de cada nível do fator A não diferem dentro de
cada nível do fator B. Arredondando o grau de liberdade do erro médio
1 para 2 temos (denominador) e considerando 2 graus de liberdade
no numerador, (F5%;2;2) o valor de F tabelado é igual a 19.00 (ANEXO
11.1). Dessa forma, temos diferença significativa entre pelo menos um
contraste de médias do fator A dentro de cada nível do fator B.

Tabela 11.8. ANOVA para o desdobramento do fator A dentro de cada nível do fator B.
FV GL SQ QM F

AdB1 2 2711.87 1355.94 186.00*

AdB 2 2 629.70 314.85 43.19*

Erro médio 1 2.07 --- 7.29

Abaixo, iremos aplicar o teste de comparação múltiplas de


Tukey. Note na equação abaixo que é necessário utilizar os valores
do grau de liberdade do erro médio 1 (arredondado para 2) e do
QM Erro médio 1 .

QM Erro médio 1
DMSTukey = q∝ ( k , GlErro médio 1 )
r
7.29
( 3, 2 )
= q5% = 8.33
= x 3.645 15.90
2

271
estatística experimental no rbio

Considerando os tratamentos avaliados, procede-se às com-


parações de médias para o fator AdB1. Para facilitar, ordenam-se os
valores das médias de cada nível do fator A dentro de B1 de forma
decrescente no exemplo a2, a3 e a1, e procede-se as comparações:

a2 – a3 =120.005 – 79.70 = 40.305 > DMS


a2 – a1 =120.005 - 71.295 = 48.71 > DMS
a3 – a1 = 79.7 – 71.295 =8.405 < DMS

Portanto para AdB1, o tratamento 2 difere dos tratamentos 3


e 1, e os tratamentos 3 e 1 são estatisticamente iguais. Pode-se repre-
sentar este resultado utilizando letras, sendo assim, tem-se:

a1: 71.295 b
a2: 120.005 a
a3: 79.700 b

Considerando os tratamentos avaliados, procede-se às compa-


rações de médias para o fator AdB2.

a2 – a3 =110.32 – 95.85 = 14.47 < DMS


a2 – a1 =110.32 – 85.33 = 24.99 > DMS
a3 – a1 = 95.85 – 85.33 = 10.52 < DMS

Portanto para AdB2, o tratamento 2 difere dos tratamentos 3


e 1, e os tratamentos 3 e 1 são estatisticamente iguais. Pode-se repre-
sentar este resultado utilizando letras, sendo assim, tem-se:

a1: 85.33 b
a2: 110.32 a
a3: 95.85 ab

272
estatística experimental no rbio

Finalmente, realiza-se o desdobramento do fator B dentro de


cada nível do fator A. O Quadro de ANOVA para realizar esse procedi-
mento é apresentado na Tabela 11.9.

Tabela 11.9. Quadro da ANOVA para desdobramento do fator C dentro de cada


nível do fator A.
FV GL SQ QM F

BdA1 l-1 SQBdA1 QM BdA1 = SQBdA1 / GLBdA1 QM BdA1 / QM Erro médio 2

BdA2 l-1 SQBdA 2 QM BdA 2 = SQBdA 2 / GLBdA 2 QM BdA 2 / QM Erro médio 2

BdA3 l-1 SQBdA3 QM BdA3 = SQBdA3 / GLBdA3 QM BdA3 / QM Erro médio 2

Erro médio 2 GLErro médio 2 --- QM Erro médio 2

Em que:

1 l 1
SQBdA1
= ∑
r j =1
Y1 j .2 − Y1..2
lr

1 l 1
SQBdA 2
= ∑
r j =1
Y2 j .2 − Y2..2
lr

1 l 1
SQBdA3
= ∑
r j =1
Y3 j .2 − Y3..2
lr

QM Res B + ( t − 1) QM Res C  ²


= 
( ) ( )
GLErro médio 2
QM Res B  ² ( t − 1) QM Res C  ²
 ( )
+
( )
GLRes( B ) GLRes( C )

273
estatística experimental no rbio

QM Res( B ) + ( t − 1) QM Res( C )
QM Erro médio 2 =
t

A Tabela 11.7 contém os valores numéricos a serem utilizados


para esse procedimento estatístico. Os cálculos para realizar a análise
de variância são:
Em que:

1 l 1 1
SQBdA1= ∑
r j =1
Y1 j .2 − Y1..2=
lr 2
(
x 142.592 + 170.662 )
1

2 x2
(
x 313.252 = )
196.98

1 l 1 1
SQBdA 2= ∑
r j =1
Y2 j .2 − Y2..2=
lr 2
(
x 240.012 + 220.642 )
1

2 x2
(
x 460.652 = )
93.80

1 l 1 1
SQBdA3= ∑
r j =1
Y3 j .2 − Y3..2=
lr 2
(
x 159.402 + 191.702 )
1

2 x2
(
x 351.102 = )
260.83

QM Res B + ( t − 1) QM Res C  ²


GLErro médio 2 =  ( ) ( )
QM Res B  ² ( t − 1) QM Res C  ²
 ( )
+
( )
GLRes( B ) GLRes( C )
98.61 + ( 3 − 1) x0.25 ²
= 1.01
= [98.61] ² ( 3 − 1) .25 ²
+
1 2

274
estatística experimental no rbio

QM Res( B ) + ( t − 1) QM Res( C )
QM Erro médio 2 =
t
98.61 + ( 3 − 1) x0.25
= 33.04
3

O quadro da ANOVA para desdobramento do fator B dentro de


cada nível do fator A é demonstrado na Tabela 11.10. A hipótese H0
testada é que as médias de cada nível do fator B não diferem dentro de
cada nível do fator A. Arredondando o grau de liberdade do erro médio
2 para 1 temos (denominador) e considerando 2 graus de liberdade no
numerador, (F5%;2;1) o valor de F tabelado é igual a 18.51 (ANEXO 11.1).
Dessa forma, como todos os valores de F calculado são inferiores ao F
tabelado, aceita-se a hipótese H0. Portanto, não é necessário realizar
um teste de comparação múltiplas, pois as médias do fator B dentro de
cada nível do fator A são estatisticamente iguais.

Tabela 11.10. ANOVA para o desdobramento do fator A dentro de cada nível do fator C.
FV GL SQ QM F

BdA1 1 196.98 196.98 5.96ns

BdA2 1 93.80 93.80 2.84ns

BdA3 1 260.83 260.83 7.89ns

Erro médio 2 1.01 --- 33.04

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Faixas, conforme a Figura 11.1.

275
estatística experimental no rbio

Figura 11.1. Software Rbio, e rotina de procedimentos para realizar análise de


variância no arranjo de faixas em blocos ao acaso.

276
estatística experimental no rbio

# -----------------------------------
# Script 10: Delineamento em esquema de faixas
# -----------------------------------
# ----------------------
# 10.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo3sub.txt”, h=T) # Leitura dos dados
X
Parcela Subparcela Rep Variavel
1 1 1 1 66.98
2 1 1 2 75.61
3 2 1 1 113.77
4 2 1 2 126.24
5 3 1 1 71.87
6 3 1 2 87.53
7 1 2 1 86.71
8 1 2 2 83.95
9 2 2 1 110.35
10 2 2 2 110.29
11 3 2 1 93.26
12 3 2 2 98.44
# ----------------------
# 10.2- ANOVA em Faixas
# ----------------------
Parc<-as.factor(X[,1])
Sub<-as.factor(X[,2])
Bloco<-as.factor(X[,3])
# ----------------------
# 10.2.1- ANOVA em Faixas em DIC
# ----------------------
saida<-aov(X[,4]~ Parc*Sub + Error(Bloco:Parc +Bloco:Sub))
print(summary(saida))
Error: Bloco:Parc
Df Sum Sq Mean Sq F value Pr(>F)
Parc 2 2930.0 1465.0 28.23 0.0113 *
Residuals 3 155.7 51.9
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Error: Bloco:Sub
Df Sum Sq Mean Sq F value Pr(>F)
Sub 1 140.08 140.08 1.421 0.444
Residuals 1 98.61 98.61
Error: Within
Df Sum Sq Mean Sq F value Pr(>F)
Parc:Sub 2 411.5 205.76 780.1 0.00128 **
Residuals 2 0.5 0.26
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
# ----------------------
# 10.2.2- ANOVA em Faixas em DBC
# ----------------------
saida<-aov(X[,4]~ Bloco + Parc*Sub + Error(Bloco:Parc +Bloco:Sub))
print(summary(saida))
Error: Bloco:Parc
Df Sum Sq Mean Sq F value Pr(>F)
Bloco 1 127.5 127.5 9.057 0.09495 .

277
estatística experimental no rbio

Parc 2 2930.0 1465.0 104.045 0.00952 **


Residuals 2 28.2 14.1
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Error: Bloco:Sub
Df Sum Sq Mean Sq F value Pr(>F)
Sub 1 140.08 140.08 1.421 0.444
Residuals 1 98.61 98.61
Error: Within
Df Sum Sq Mean Sq F value Pr(>F)
Parc:Sub 2 411.5 205.76 780.1 0.00128 **
Residuals 2 0.5 0.26
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
# ----------------------
# 10.2.3- ANOVA em Faixas em DBC com desdobramento da interação significativa
# ----------------------
library(ExpDes.pt)
faixas(Parc, Sub, Bloco, X[,4], quali= c(TRUE, TRUE),
+ mcomp=”tukey”, sigT = 0.05, sigF = 0.05)
------------------------------------------------------------------------
Legenda:
FATOR 1 (parcela): F1
FATOR 2 (subparcela): F2
------------------------------------------------------------------------
------------------------------------------------------------------------
Quadro da analise de variância
------------------------------------------------------------------------
GL SQ QM Fc Pr(>Fc)
Bloco 1 127.5 127.53 1.13 0.39842
F1 2 2930.0 1465.02 104.04 0.00952 **
Erro a 2 28.2 14.08
F2 1 140.1 140.08 1.42 0.44442
Erro b 1 98.6 98.61
F1*F2 2 411.5 205.76 780.11 0.00128 **
Erro c 2 0.5 0.26
Total 11 3736.5
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
------------------------------------------------------------------------
CV 1 = 4.002591 %
CV 2 = 10.59245 %
CV 3 = 0.5478123 %

Interacao significativa: desdobrando a interacao


------------------------------------------------------------------------
Desdobrando F1 dentro de cada nivel de F2
------------------------------------------------------------------------
GL SQ QM Fc
F1 : F2 1 2.000000 2711.86743 1355.933717 189.052992
F1 : F2 2 2.000000 629.70093 314.850467 43.898475
Erro combinado 2.074901 14.88169 7.172241
valor.p
F1 : F2 1 0.00449

278
estatística experimental no rbio

F1 : F2 2 0.020048
Erro combinado
------------------------------------------------------------------------

F1 dentro de F2 1
------------------------------------------------------------------------
Teste de Tukey
------------------------------------------------------------------------
Grupos Tratamentos Medias
a 2 120.005
b 3 79.7
b 1 71.295
------------------------------------------------------------------------
F1 dentro de F2 2
------------------------------------------------------------------------
Teste de Tukey
------------------------------------------------------------------------
Grupos Tratamentos Medias
a 2 110.32
ab 3 95.85
b 1 85.33
------------------------------------------------------------------------

Desdobrando F2 dentro de cada nivel de F1


------------------------------------------------------------------------
GL SQ QM Fc
F2 : F1 1 1.000000 196.98122 196.98122 5.960648
F2 : F1 2 1.000000 93.79923 93.79923 2.838363
F2 : F1 3 1.000000 260.82250 260.82250 7.892483
Erro combinado 1.005353 33.22385 33.04695
valor.p
F2 : F1 1 0.246418
F2 : F1 2 0.340042
F2 : F1 3 0.216631
Erro combinado
------------------------------------------------------------------------

F2 dentro de F1 1
------------------------------------------------------------------------
De acordo com o teste F, as medias desse fator sao estatisticamente iguais.
------------------------------------------------------------------------
Niveis Medias
1 1 71.295
2 2 85.330
------------------------------------------------------------------------
F2 dentro de F1 2
------------------------------------------------------------------------
De acordo com o teste F, as medias desse fator sao estatisticamente iguais.
------------------------------------------------------------------------
Niveis Medias
1 1 120.005
2 2 110.320
------------------------------------------------------------------------
F2 dentro de F1 3
------------------------------------------------------------------------
De acordo com o teste F, as medias desse fator sao estatisticamente iguais.
------------------------------------------------------------------------
Niveis Medias
1 1 79.70
2 2 95.85
------------------------------------------------------------------------

279
estatística experimental no rbio

ANEXO 11.1. Tabela da Distribuição F ao nível de 5% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 161.45 199.5 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85
12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6
15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3
23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25
25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2
28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08

280
estatística experimental no rbio

ANEXO 11.2. Valores da amplitude total estudentizada (q) para teste de Tukey a
5% de probabilidade em função do número de tratamentos e graus de liberdade
do resíduo.
GL(resid) Número de grupos no tratamento
2 3 4 5 6 7 8 9 10
1 17.97 26.98 32.82 37.08 40.41 43.12 45.40 47.36 49.07
2 6.08 8.33 9.8 10.88 11.73 12.43 13.03 13.54 13.99
3 4.50 5.91 6.82 7.50 8.04 8.48 8.85 9.18 9.46
4 3.93 5.04 5.76 6.29 6.71 7.05 7.35 7.60 7.83
5 3.64 4.6 5.22 5.67 6.03 6.33 6.58 6.8 6.99
6 3.46 4.34 4.9 5.3 5.63 5.9 6.12 6.32 6.49
7 3.34 4.16 4.68 5.06 5.36 5.61 5.82 6 6.16
8 3.26 4.04 4.53 4.89 5.17 5.4 5.6 5.77 5.92
9 3.2 3.95 4.41 4.76 5.02 5.24 5.43 5.59 5.74
10 3.15 3.88 4.33 4.65 4.91 5.12 5.3 5.46 5.6
11 3.11 3.82 4.26 4.57 4.82 5.03 5.2 5.35 5.49
12 3.08 3.77 4.2 4.51 4.75 4.95 5.12 5.27 5.39
13 3.06 3.73 4.15 4.45 4.69 4.88 5.05 5.19 5.32
14 3.03 3.7 4.11 4.41 4.64 4.83 4.99 5.13 5.25
15 3.01 3.67 4.08 4.37 4.59 4.78 4.94 5.08 5.2
16 3 3.65 4.05 4.33 4.56 4.74 4.9 5.03 5.15
17 2.98 3.63 4.02 4.3 4.52 4.7 4.86 4.99 5.11
18 2.97 3.61 4 4.28 4.49 4.67 4.82 4.96 5.07
19 2.96 3.59 3.98 4.25 4.47 4.65 4.79 4.92 5.04
20 2.95 3.58 3.96 4.23 4.45 4.62 4.77 4.9 5.01
24 2.92 3.53 3.9 4.17 4.37 4.54 4.68 4.81 4.92
30 2.89 3.49 3.85 4.1 4.3 4.46 4.6 4.72 4.82
40 2.86 3.44 3.79 4.04 4.23 4.39 4.52 4.63 4.73
120 2.8 3.36 3.68 3.92 4.1 4.24 4.36 4.47 4.56
>120 2.77 3.31 3.63 3.86 4.03 4.17 4.29 4.39 4.47
∞ 3.64 4.12 4.4 4.6 4.76 4.88 4.99 5.08 5.16

281
12

ANÁLISE DE EXPERIMENTOS HIERÁRQUICOS

Às vezes, durante a experimento surge alguma restrição que nos


impede de realizar o cruzamento de todos os níveis de um fator com
todos níveis de outro fator. Caso seja possível realizar todos estes cruza-
mentos tem-se um experimento em arranjo fatorial, porém não tendo
esta possibilidade pode-se fazer uso de um arranjo hierárquico (nested).
Pode-se ter como exemplo, uma comparação de cinco híbridos
(h1, h2, ... h5) de duas instituições avaliados em duas repetições. O
esquema a seguir detalha esse arranjo:

É importante salientar que os cinco híbridos da instituição 1


não são iguais aos cinco híbridos da instituição 2, ou seja, o híbrido 1
da instituição 1 não tem relação com o híbrido 1 da instituição 2, e isso

282
estatística experimental no rbio

faz com que exista então um arranjo hierárquico de tal forma que os
híbridos são aninhados sob as instituições. Dessa forma, pode-se ava-
liar se existe variabilidade entre as instituições e se existe variabilidade
entre os híbridos de cada instituição.
O modelo matemático para esse arranjo experimental em DIC é:

Yijk=m + Ai+ Bj(i) + eijk

em que:
Yijk é o valor observado relativo à parcela que recebe o fator A i
no fator B j na repetição k, sendo i =1, 2, ..., l , j= 1, 2, ..., t e k =1, 2, ... r.
m é a média geral do experimento
Ai é o efeito do fator i
Bj(i) é o efeito do fator j aninhado sob o fator A
eijk é o erro aleatório associado a observação ijk.

O quadro da ANOVA neste delineamento é representado na


Tabela 12.1.

Tabela 12.1. Quadro da ANOVA considerando arranjo hierárquico de um


delineamento inteiramente casualizado.
FV GL SQ QM F

A l-1 SQA QMA = SQA/glA QMA / QMRes

B dentro de A l(t-1) SQB(A) QMB(A) = SQ B(A) /gl B(A) QM B(A)/ QMRes

Resíduo tl(r-1) SQRes QMRes= SQRes/glRes

Total tlr-1 SQTotal

Em que:

Y...2
C=
tlr

283
estatística experimental no rbio

t l r
SQTotal
= ∑∑∑Y
=i 1 =j 1 =
k 1
2
ijk −C

1 l 2
SQA
= ∑Yi.. − C
tr i =1

1 t l 2 1 l 2
SQB( A)
= ∑∑Yij. − tr =∑
r =i 1 =j 1 i 1
Yi..

SQRes= SQTotal − SQA − SQB( A)

Consideremos agora um exemplo simulado com 3 tratamentos


(híbridos), 2 locais (instituições) com 2 repetições em cada local apre-
sentado na Tabela 12.2.

Tabela 12.2. Avaliação de uma variável agronômica simulada, em arranjo


hierárquico com três tratamentos, avaliada em dois locais com duas repetições
num delineamento inteiramente casualizado.
Local

Tratamentos 1 2 Total Média

Rep 1 Rep 2 Rep 1 Rep 2

1 66.98 75.61 86.71 83.95 313.25 78.3125

2 113.77 126.24 110.35 110.29 460.65 115.1625

3 71.87 87.53 93.26 98.44 351.1 87.775

Total 252.62 289.38 290.32 292.68

Total 542 583 1125

Média 90.33 97.17 93.75

Os cálculos para realizar a análise de variância conjunta com


base nos dados da Tabela 12.2, são:

284
estatística experimental no rbio

Y...2 11252
C
= = = 105468.75
tlr 3 x 2 x 2

t l r
SQTotal
= ∑∑∑Y
=i 1 =j 1 =
k 1
2
ijk C 66.982 + 75.612 + 113.77 2 + 126.242
−=

+71.87 + 87.532 + 86.712 + 83.952 + 110.352 + 110.292


2

+93.262 + 98.442 − 105468.75 =109205.2 − 105468.75 =3736.45

1 l 2 1
SQ=
Local ∑
tr i =1
Yi.. =
−C
3x2
( )
x 5422 + 5832 − 105468.75
= 140.08

1 t l 2 1 l 2 1
SQTrat ( Local )= ∑∑Yij. − tr =∑
r =i 1 =j 1 i 1
Yi.. =
2
(142.59 2
+ 240.012 + 159.42 + 170.662 + 220.642 + 191.7 2 )
1

3x 2
(
x 5422 + 583
= 2
)
108950.4023 − 105608.83
= 3341.57

SQRes = SQTotal − SQLocal − SQTrat ( Local )


= 3736.45 − 140.08 − 3341.57 = 254.80

O quadro da ANOVA para o exemplo é representado na Tabela


12.3. Existem duas hipóteses a serem testadas. A primeira hipótese é
para a fonte de variação local, portanto a hipótese H0 é que todos os
dois locais possuem média igual. O valor tabelado do F a 5% de proba-
bilidade e 1 graus de liberdade do numerador e 6 graus de liberdade
do denominador (F5%;1;6) é igual a 5.99 (ANEXO 12.1). Dessa forma,
o F calculado (3.29) é menor que F tabelado, então não se rejeita a
hipótese H0 de igualdade entre as médias, portanto as médias não se
diferem estatisticamente. A segunda hipótese a ser testada é se existe
diferença dos tratamentos dentro dos locais. O valor tabelado do F a

285
estatística experimental no rbio

5% de probabilidade e 4 graus de liberdade do numerador e 6 graus de


liberdade do denominador (F5%;4;6) é igual a 4.53 (ANEXO 12.1). Dessa
forma, o F calculado (19.669) é maior que F tabelado, então rejeita-se
a hipótese H0 de igualdade entre as médias dos tratamentos dentro de
locais, portanto as médias se diferem estatisticamente.

Tabela 12.3. Resultado da análise de variância da variável agronômica simulada,


em arranjo hierárquico com três tratamentos, avaliados em dois locais com duas
repetições num delineamento inteiramente casualizado.
FV GL SQ QM F

Local (L) 1 140.08 140.08 3.298

Tratamento dentro de Local 4 3341.57 835.4 19.669**

Resíduo 6 254.8 42.5

Total 11 3736.45
*: Significativo a 5% de significância pelo teste F

Neste exemplo, o coeficiente de variação (C.V.) é:

100 QMR 100 42.5


CV%
= = = 6.95%
média 93.75

Caso o esquema fosse fatorial fosse no delineamento em blocos


casualizados (DBC) tem-se o seguinte

Yijk=m + Rk + Ai+ Bj(i) + eijk

em que:
Yijk é o valor observado relativo à parcela que recebe o fator A i
no fator B j na repetição k, sendo i =1, 2, ..., l , j= 1, 2, ..., t e k =1, 2, ... r.
m é a média geral do experimento
Rk é o efeito do bloco k
Ai é o efeito do fator i

286
estatística experimental no rbio

Bj(i) é o efeito do fator j aninhado sob o fator A


eijk é o erro aleatório associado a observação ijk.

O quadro da ANOVA neste delineamento é representado na


Tabela 12.4.

Tabela 12.4. Quadro da ANOVA considerando arranjo hierárquico de um


delineamento em blocos ao acaso.
FV GL SQ QM F

Bloco r-1 SQBloco QMBloco = SQBloco/glBloco

A l-1 SQA QMA = SQA/glA QMA / QMRes

B dentro de A l(t-1) SQB(A) QMB(A) = SQ B(A) /gl B(A) QM B(A)/ QMRes

Resíduo (tl-1)(r-1) SQRes QMRes= SQRes/glRes

Total tlr-1 SQTotal

Em que:

Y...2
C=
tlr

t l r
SQTotal
= ∑∑∑Y
=i 1 =j 1 =
k 1
2
ijk −C

1 r 2
SQBloco
= ∑Y..k − C
tl k =1

1 l 2
SQA
= ∑Yi.. − C
tr i =1

1 t l 2 1 l 2
SQB( A)
= ∑∑Yij. − tr =∑
r =i 1 =j 1 i 1
Yi..

287
estatística experimental no rbio

Nessa situação a diferença é que se tem o efeito de bloco ex-


traído do resíduo. Dessa forma, teríamos r-1 GL para fonte blocos, ou
seja, 2-1 = 1GL, e a Soma de Quadrados de Blocos poderia ser obtida
utilizando os totais de cada repetição (para o bloco 1 tem: 66.98+113.
77+71.87+86.71+110.35+93.26= 252.62 +290.32 =542.94) por:

1 r 2 1
SQ=
Blocos ∑
tl k =1
Y..k =
−C
3x 2
x

( 252.62 + 290.32 )2 + ( 289.38 + 292.68 )2  − 105468.75 =


127.5312
 

A Soma dos Quadrado do Resíduo é:

O Quadro da ANOVA nessa situação é apresentado na Tabela 12.5.

Tabela 12.5. Resultado da análise de variância da variável agronômica simulada,


em arranjo hierárquico com três tratamentos, avaliados em dois locais com duas
repetições num delineamento em blocos ao acaso.
FV GL SQ QM F

Bloco 1 127.5 127.5

Local (L) 1 140.08 140.08 5.5

Tratamento dentro de Local 4 3341.57 835.4 32.81*

Resíduo 5 127.2 25.5

Total 11 3736.45
*: Significativo a 5% de significância pelo teste F

288
estatística experimental no rbio

Neste exemplo, o coeficiente de variação (C.V.) é:

100 QMR 100 25.5


CV%
= = = 5.38%
média 93.75

Da mesma forma que nos experimentos anteriores pode-se


realizar o teste de Tukey para identificar onde existem diferenças entre
as médias, para isso usa-se o ANEXO 12.2. Para este exemplo, a primei-
ra hipótese de igualdade entre as médias dos locais (90.33 e 97.17)
não foi rejeitada, portanto não é necessário realizar o teste de médias.
Esse será apresentado aqui apenas para fins ilustrativos
O valor da DMS para a fonte de variação local, e considerando
que o número de tratamentos dentro de cada local seja o mesmo é
obtida por:

QMR
DMSTukey = q∝ ( k , GlResíduo )
local x trat
25.5
= q5% ( 2,=
5) 3.64
= x 4.25 7.5
( 2 x3 )

Como só existem dois locais, nem seria necessário realizar o


teste de média, uma vez que na saída da análise de variância a fonte de
variação local foi não significativa pelo teste F, porém, de forma apenas
ilustrativa a comparação dos dois locais será realizada, sendo assim:

L2 – L1=97.17 – 90.33 = 6.84 < DMS

Portanto, as médias dos locais são estatisticamente iguais.


De forma similar o valor da DMS para a fonte de variação trata-
mento dentro de local é:

289
estatística experimental no rbio

QMR
DMSTukey = q∝ ( k , GlResíduo )
r
25.5
= q5% (=
6, 5 ) 6.03
= x 12.75 21.53
2

A média dos tratamentos dentro de cada local são obtidas pela


média entre as duas repetições, sendo assim tem-se: L1T1 = 71.295,
L1T2 = 120, L1T3 = 79.7, L2T1= 85.33, L2T2 = 110.32, L2T3 = 95.85.
Para fins de comparação coloca-se as medias em ordem decrescente e
procede as comparações:

L1T2 - L2T2 = 120 - 110.32 = 9.68 < DMS


L1T2 - L2T3 = 120 - 95.85 = 24.15 > DMS
L2T2- L2T3 = 110.32 - 95.85 = 14.47 < DMS
L2T2- L2T1 = 110.32 - 85.33 = 24.99 > DMS
L2T3- L2T1 = 95.85- 85.33 = 10.52 < DMS
L2T3- L1T3 = 95.85- 79.7 = 16.15 < DMS
L2T3- L1T1 = 95.85- 71.295 = 24.55 > DMS
L2T1- L1T1 = 85.33 - 71.295 = 14.03 < DMS
L1T3- L1T1 = 79.7 - 71.295 = 8.40 < DMS

Sendo assim:

T2L1 a
T2L2 a b
T3L2 b c
T1L2 c d
T3L1 c d
T1L1 d

290
estatística experimental no rbio

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Hierárquico, conforme a Figura 12.1.

291
estatística experimental no rbio

Figura 12.1. Software Rbio, e rotina de procedimentos para realizar análise de


variância no arranjo de hierárquico em DIC.

292
estatística experimental no rbio

# -----------------------------------
# Script 11: Delineamento em esquema Hierárquico
# -----------------------------------

# ----------------------
# 11.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo3.txt”, h=T) # Leitura dos dados
X

Trat Local Rep Variavel


1 1 1 1 66.98
2 1 1 2 75.61
3 2 1 1 113.77
4 2 1 2 126.24
5 3 1 1 71.87
6 3 1 2 87.53
7 1 2 1 86.71
8 1 2 2 83.95
9 2 2 1 110.35
10 2 2 2 110.29
11 3 2 1 93.26
12 3 2 2 98.44

# ----------------------
# 11.2- ANOVA Hierárquico
# ----------------------
Trat<-as.factor(X[,1])
Local<-as.factor(X[,2])
Bloco<-as.factor(X[,3])

# ----------------------
# 11.2.1- ANOVA Hierárquico DIC
# ----------------------
saida<-aov(X[,4]~Local/Trat)
print(summary(saida))
Df Sum Sq Mean Sq F value Pr(>F)
Local 1 140 140.1 3.298 0.11926
Local:Trat 4 3342 835.4 19.669 0.00135 **
Residuals 6 255 42.5
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

# ----------------------
# 11.2.2- ANOVA Hierárquico DBC
# ----------------------
saida<-aov(X[,4]~Bloco+Local/Trat)
print(summary(saida))

Df Sum Sq Mean Sq F value Pr(>F)


Bloco 1 128 127.5 5.009 0.075396 .
Local 1 140 140.1 5.502 0.065917 .
Local:Trat 4 3342 835.4 32.811 0.000879 ***
Residuals 5 127 25.5
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

# ----------------------
# 11.3- Teste Tukey
# ----------------------
cat(“\n”, “-----Teste de Media para o Fator Local/Trat-----”,”\n”)

-----Teste de Media para o Fator Local/Trat-----

TukeyHSD(saida, “Local:Trat”, ordered = TRUE)

Tukey multiple comparisons of means


95% family-wise confidence level
factor levels have been ordered

Fit: aov(formula = X[, 4] ~ Bloco + Local/Trat)

293
estatística experimental no rbio

$`Local:Trat`
diff lwr upr p adj
1:3-1:1 8.405 -13.120064 29.93006 0.5985940
2:1-1:1 14.035 -7.490064 35.56006 0.2078545
2:3-1:1 24.555 3.029936 46.08006 0.0298128
2:2-1:1 39.025 17.499936 60.55006 0.0039904
1:2-1:1 48.710 27.184936 70.23506 0.0014224
2:1-1:3 5.630 -15.895064 27.15506 0.8571679
2:3-1:3 16.150 -5.375064 37.67506 0.1367461
2:2-1:3 30.620 9.094936 52.14506 0.0117974
1:2-1:3 40.305 18.779936 61.83006 0.0034409
2:3-2:1 10.520 -11.005064 32.04506 0.4132197
2:2-2:1 24.990 3.464936 46.51506 0.0277647
1:2-2:1 34.675 13.149936 56.20006 0.0068150
2:2-2:3 14.470 -7.055064 35.99506 0.1906185
1:2-2:3 24.155 2.629936 45.68006 0.0318505
1:2-2:2 9.685 -11.840064 31.21006 0.4814724

cat(“\n”, “-----Teste de Media para o Fator Local-----”,”\n”)

-----Teste de Media para o Fator Local-----

TukeyHSD(saida, “Local”, ordered = TRUE)

Tukey multiple comparisons of means


95% family-wise confidence level
factor levels have been ordered

Fit: aov(formula = X[, 4] ~ Bloco + Local/Trat)

$Local
diff lwr upr p adj
2-1 6.833333 -0.6553229 14.32199 0.0659169

library(agricolae)
cat(“\n”, “-----Teste de Media para o Fator Local-----”,”\n”)

-----Teste de Media para o Fator Local-----

out<-HSD.test(saida,”Local”, alpha=0.05, group=TRUE,console=TRUE)

Study: saida ~ “Local”

HSD Test for X[, 4]

Mean Square Error: 25.46046

Local, means

X...4. std r Min Max


1 90.33333 24.28775 6 66.98 126.24
2 97.16667 11.37478 6 83.95 110.35

Alpha: 0.05 ; DF Error: 5


Critical Value of Studentized Range: 3.635351

Minimun Significant Difference: 7.488656

Treatments with the same letter are not significantly different.

X[, 4] groups
2 97.16667 a
1 90.33333 a

294
estatística experimental no rbio

ANEXO 12.1. Tabela da Distribuição F ao nível de 5% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 161.45 199.5 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85
12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6
15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3
23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25
25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2
28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08

295
estatística experimental no rbio

ANEXO 12.2. Valores da amplitude total estudentizada (q) para teste de Tukey a 5% de
probabilidade em função do número de tratamentos e graus de liberdade do resíduo.
GL(resid) Número de grupos no tratamento
2 3 4 5 6 7 8 9 10
1 17.97 26.98 32.82 37.08 40.41 43.12 45.40 47.36 49.07
2 6.08 8.33 9.8 10.88 11.73 12.43 13.03 13.54 13.99
3 4.50 5.91 6.82 7.50 8.04 8.48 8.85 9.18 9.46
4 3.93 5.04 5.76 6.29 6.71 7.05 7.35 7.60 7.83
5 3.64 4.6 5.22 5.67 6.03 6.33 6.58 6.8 6.99
6 3.46 4.34 4.9 5.3 5.63 5.9 6.12 6.32 6.49
7 3.34 4.16 4.68 5.06 5.36 5.61 5.82 6 6.16
8 3.26 4.04 4.53 4.89 5.17 5.4 5.6 5.77 5.92
9 3.2 3.95 4.41 4.76 5.02 5.24 5.43 5.59 5.74
10 3.15 3.88 4.33 4.65 4.91 5.12 5.3 5.46 5.6
11 3.11 3.82 4.26 4.57 4.82 5.03 5.2 5.35 5.49
12 3.08 3.77 4.2 4.51 4.75 4.95 5.12 5.27 5.39
13 3.06 3.73 4.15 4.45 4.69 4.88 5.05 5.19 5.32
14 3.03 3.7 4.11 4.41 4.64 4.83 4.99 5.13 5.25
15 3.01 3.67 4.08 4.37 4.59 4.78 4.94 5.08 5.2
16 3 3.65 4.05 4.33 4.56 4.74 4.9 5.03 5.15
17 2.98 3.63 4.02 4.3 4.52 4.7 4.86 4.99 5.11
18 2.97 3.61 4 4.28 4.49 4.67 4.82 4.96 5.07
19 2.96 3.59 3.98 4.25 4.47 4.65 4.79 4.92 5.04
20 2.95 3.58 3.96 4.23 4.45 4.62 4.77 4.9 5.01
24 2.92 3.53 3.9 4.17 4.37 4.54 4.68 4.81 4.92
30 2.89 3.49 3.85 4.1 4.3 4.46 4.6 4.72 4.82
40 2.86 3.44 3.79 4.04 4.23 4.39 4.52 4.63 4.73
120 2.8 3.36 3.68 3.92 4.1 4.24 4.36 4.47 4.56
>120 2.77 3.31 3.63 3.86 4.03 4.17 4.29 4.39 4.47
∞ 3.64 4.12 4.4 4.6 4.76 4.88 4.99 5.08 5.16

296
13

ANÁLISE DE EXPERIMENTOS
EM BLOCOS INCOMPLETOS

Alguns experimentos são conduzidos sem que todos os trata-


mentos estejam presentes em todas as repetições. Estes experimen-
tos são ditos blocos incompletos, uma vez que os blocos não estão
completos no que se diz respeito a presença de todos os tratamentos.
Exemplos deste tipo de experimentos são os de blocos aumentados e
os látices.

13.1. Blocos aumentados

Este delineamento teve sua teoria apresentada por Federer


(1956) e acontece na avaliação de um conjunto de tratamentos, sem re-
petições, distribuídos em blocos incompletos com testemunhas comuns.
Como ilustração, tem-se a avaliação de cinco tratamentos (G1
a G5), denominados de não comuns (ou regulares) em blocos, junta-
mente com duas testemunhas (ou tratamentos comuns – T1 e T2),
conforme esquema apresentado a seguir:

297
estatística experimental no rbio

Bloco 1:

T1 T2 G1 G2

Bloco 2:

G4 T2 G3 T1 G5

Percebe-se que cada um dos g tratamentos está representado


no ensaio uma única vez, enquanto que as testemunhas estão repetidas
b vezes. Tanto os tratamentos quanto as testemunhas são casualizados
dentro de cada bloco.
O modelo matemático para este tipo de experimento é:

Yij = µ + τ i + B j + ε ij

em que:
Yij : é o valor da característica para a i-ésima testemunha no
j-ésimo bloco (ou repetição). Para melhor entendimento, é utilizada
outra simbologia para expressar o valor de um genótipo, para a mesma
característica considerada, dada por:
Z i j : é o valor da característica para o i-ésimo genótipo no j-é-
simo bloco;
µ : constante associada ao modelo;
τ i : efeito do i-ésimo tratamento, que pode ser decomposto em:
Ti: efeito da i-ésima testemunha, com i =1,2...t e
Gi j : efeito do i-ésimo genótipo, com i =1,2...gj.
O total de genótipos avaliados é:


b
g= g j em que gj é o número total de genótipos avaliados
j =1

no j-ésimo bloco.
B j : efeito do j-ésimo bloco, com j=1,2...b;

298
estatística experimental no rbio

ε ij : erro aleatório.
Para a realização da análise de variância, todos os efeitos do
modelo devem ser obtidos, de tal forma que:
a) Estimação de µ

1  Y.. b 
=µˆ  + Z. − ∑g j Bˆ j  : média ponderada descrita por Federer (1956).
t+g b j =1 

De maneira geral, podem ser obtidos vários valores de médias


do ensaio tais como definidos a seguir:

Y.. + Z.
µˆ g = : média geral do ensaio;
bt + g
Y
µˆ c = .. : média dos tratamentos comuns (testemunhas);
bt
Z
µˆ nc = . : média dos tratamentos não comuns (genótipos);
g

b) Estimação de Bj
Y. j Y..
Bˆ j = − = Y. j − µˆ c
t bt

∑ Bˆ j = 0
b
de forma que: j =1

j
c) Estimação de Gi

Y. j
Gi j = Z i j − + µˆ c − µˆ
t
Para Garça (1972), o efeito atribuído aos tratamentos não co-
muns (genótipos) pode ser estimado por meio de:
Y. j = Z − 1 b Y g
tendo-se ∑ i 1G ∑ j 1 .j j
g
G= j
Z i j − ,= i .
i
t
=
t

299
estatística experimental no rbio

de forma que

G i j = Gˆ i j − µˆ c + µˆ

d) Estimação de Ti

ˆ Yi. − µˆ
T=i
b

Porém Garça (1972) descreve o seguinte estimador do efeito


atribuído aos tratamentos comuns (testemunhas):

Y Y Y

t
Ti = i. − µˆ c = i. − .. Desta relação, tem-se T = 0
i =1 i
b b bt

Verifica-se, portanto, a seguinte relação:

Y
Ti = i. − µˆ c =Tˆi − µˆ c + µˆ
b
O esquema da ANOVA para o delineamento em blocos aumen-
tados é apresentado na Tabela 13.1.

Tabela 13.1. Quadro da anova considerando delineamento em blocos aumentados.


FV GL SQ QM F

Blocos b-1 SQB QMB

Tratamentos (Aj) t+g-1 SQTaj QMTaj QMTaj/QMR

Resíduo (b-1)(t-1) SQR QMR

Total bt+g-1 SQTo

Em que:

300
estatística experimental no rbio

Soma de quadrado total


t b g
SQTo = ∑∑Y + ∑ ( Z i ) − C2 2
ij
i j i =1

sendo

(Y.. + Z. ) 2
C=
bt + g

Soma de quadrado de blocos

É obtida a partir do modelo reduzido, dado por:

Yij =µ + B j + eij

de forma que se tenha:

(Y )
2
b + Z. j

.j
SQBlocos
= −C
j gj +t

Soma de quadrados de tratamentos

A soma de quadrado de tratamento ajustada é dada pela dife-


rença entre a soma de quadrados de parâmetros do modelo completo
( µ , τ i , Bj) e a soma de quadrados de parâmetros do modelo reduzido
( µ , Bj). Assim, tem-se:

(Y )
2
b + Z. j
= SQmodelo − ∑
.j
SQTajustado
j gj +t

301
estatística experimental no rbio

em que:

t g b
 + G Z + Bˆ Y + Z j
SQmodelo= µˆ c (Y.. + Z. ) + ∑TY
i i. ∑ i i ∑ j .j . ( )
=i 1 =i 1 =j 1

Soma de quadrados do resíduo

É dada pela diferença:

SQR = SQTo – (SQTaj + SQB)

Correção das médias

As médias ajustadas de cada genótipo (tratamentos não co-


muns) podem ser utilizadas como critério de seleção. Federer (1956)
apresenta a seguinte expressão:

Z i ( ajustado ) = Z i − Bˆ ij = Gi + µˆ

sendo Bˆ j o efeito do j-ésimo bloco em que o i-ésimo tratamento


i

(genótipo) não-comum está sendo avaliado. Segundo Federer (1956),


as médias das testemunhas (tratamentos comuns) não requerem ajus-
te, uma vez que ocorrem em todos os blocos.
Considere os dados da Tabela 13.2, com 5 tratamentos avaliados
em 2 blocos sendo que existiam 3 testemunhas (T1, T2 e T3). No bloco 1
tem-se os tratamentos 1 e 2, e no bloco 2 os tratamentos 3, 4 e 5.

302
estatística experimental no rbio

Tabela 13.2. Avaliação de uma variável agronômica simulada, em delineamento em


blocos aumentados.
Repetições
Tratamentos Total Média
I II

1 71.87 - 71.87
73.74
2 75.61 - 75.61

3 - 79.7 79.7

4 - 87.53 87.53 81.41

5 - 77 77

Total Trat. 147.48 244.23 391.71 78.34

T1 113.77 120 233.77 116.88

T2 120 126.24 246.24 123.12

T3 115 123 238 119

Total Test. 348.77 369.24 718.01 119.66

TOTAL 496.25 613.47 1109.72 100.88

Os cálculos gerais para este delineamento são:

Média geral

Y.. + Z. 718.01 + 391.71


µˆ g
= = = 100.88
bt + g ( 2 x3 ) + 5

Média das testemunhas

Y.. 718.01
µˆ=
c = = 119.668
bt 2 x3

Média dos tratamentos não comuns (genótipos)

Z. 391.71
µˆ=
g = = 78.34
g 5

303
estatística experimental no rbio

Média ponderada de Federer

 718.01 
1  Y.. b  1  + 391.71 
µˆ  + Z. − ∑g= ˆ 2
= j Bj 
  
t+g b j =1  3 + 5  − ( 2 x − 3.41) + ( 3 x3.41)  
  
1
= ( 359 + 391.71 − 3.41) = 93.41
8

Efeitos dos Blocos

Y Y 348.77
Bˆ1 =.1 − .. =
Y.1 − µˆ c = − 119.66 =
−3.41
t bt 3

Y Y 369.24
Bˆ 2 =.2 − .. =
Y.2 − µˆ c = − 119.66 =
+3.41
t bt 3

Efeitos dos tratamentos não comuns (genótipos)

Y 348.77
Gˆ11 =Z11 − .1 + µˆ c − µˆ =71.87 − + 119.66 − 93.41 =−18.13
t 3

Y
Gˆ 21 =Z 21 − .1 + µˆ c − µˆ =75.61 − 116.25 + 119.66 − 93.41 =−14.39
t

Y 369.24
Gˆ 32 =Z 22 − .2 + µˆ c − µˆ =79.7 − + 119.66 − 93.41 =−17.13
t 3

Y
Gˆ 42 =Z 42 − .2 + µˆ c − µˆ =87.53 − 123.08 + 119.66 − 93.41 =−9.29
t

Y
Gˆ 52 =Z 52 − .2 + µˆ c − µˆ =77 − 123.08 + 119.66 − 93.41 =−19.82
t

304
estatística experimental no rbio

Segundo Garça (1972) estes efeitos são:

G11 =Gˆ11 − µˆ c + µˆ =−18.13 − 119.66 + 93.41 =−44.38

G 21 =Gˆ 21 − µˆ c + µˆ =−14.39 − 119.66 + 93.41 =−40.64

G 32 =Gˆ 32 − µˆ c + µˆ =−17.13 − 119.66 + 93.41 =−43.38

G 42 =Gˆ 42 − µˆ c + µˆ =−9.29 − 119.66 + 93.41 =−35.55

G 52 =Gˆ 52 − µˆ c + µˆ =−19.82 − 119.66 + 93.41 =−46.08

Efeitos dos tratamentos comuns (testemunhas)

Y 233.77
Tˆ1 =1. − µˆ = − 93.41 =
116.88 − 93.41 =
23.47
b 2

Y 246.24
Tˆ2 =2. − µˆ = − 93.41 =
123.12 − 93.41 =29.70
b 2

Y 238
Tˆ3 =3. − µˆ = − 93.41 =
119 − 93.41 =
25.58
b 2

Segundo Garça (1972) estes efeitos são:

T1 =Tˆ1− µˆ c + µˆ =23.47 − 119.66 + 93.41 =−2.78

 Tˆ µˆ + =
T= µˆ 29.70 − 119.66 + 93.41
= 3.45
2 2− c

T3 =Tˆ3− µˆ c + µˆ =25.58 − 119.66 + 93.41 =−0.67

305
estatística experimental no rbio

Os cálculos para realizar a análise de variância são:

Correção

( 718.01 + 391.71)
2
(Y.. + Z. ) 2
=C = = 111.952,58
bt + g 2 x3 + 5

Soma de Quadrados Total


t b g
SQTo = ∑∑Yij2 + ∑ ( Z i ) − C
2

i j i =1

= (113.77 ) + (120 ) + (120 ) + (126.24 ) + (115 ) + (123) 


2 2 2 2 2 2

 
+ ( 71.87 ) + ( 75.61) + ( 79.7 ) + ( 87.53) + ( 77 ) 
2 2 2 2 2

 
−111.952,58 =116.858,8 − 111.952,58 =4.906,32

Soma de Quadrados de Blocos

(Y ) (Y ) + (Y )
2 2 2
b + Z. j + Z.1 + Z.2

.j .1 .2
SQBlocos
= =−C −C
j gj +t gj +t gj +t

( 348.77 + 147.48) ( 369.24 + 244.23)


2 2

= + −C
2+3 3+3
( 496.25) ( 613.47=
) −C
2 2

= + 111.977, 05 − 111.952,58
= 24.46
5 6

Soma de Quadrados de Tratamentos

(Y )
2
b + Z. j
= SQmodelo − ∑
.j
SQTajustado
j gj +t

306
estatística experimental no rbio

t g b
 + G Z + Bˆ Y + Z j =
SQmodelo= µˆ c (Y.. + Z. ) + ∑TY
i i. ∑ i i ∑ j .j . ( )
=i 1 =i 1 =j 1

( −2.78 x 233.77 ) + ( 3.45 x 246.24 ) 


119.668 ( 718.01 + 391.71)  +  
 + ( −0.67 x 238 ) 
( −44.38 x71.87 ) + ( −40.64 x75.61) + ( −43.38 x79.7 ) 
+ 
 + ( −35.55 x87.53) + ( −46.08 x77 ) 
+ ( −3.41x ( 348.77 + 147.48 ) ) + ( 3.41x ( 369.24 + 244.23) ) 

SQTajustado =116.851,1 − 111.977, 05 =4880,8

Soma de quadrado do resíduo

SQRes = SQTotal – (SQTajustado + SQBloco) = 4906,32 –


(4880,8+24.46) =1049,8

Após as análises, o quadro da ANOVA para o delineamento em


blocos aumentados é apresentado na Tabela 13.3.

Tabela 13.3. Resultado da análise de variância da variável agronômica simulada,


considerando delineamento em blocos aumentados.
FV GL SQ QM F

Blocos 1 24.463 24.463

Tratamentos (Aj) 7 4880.808 697.258 1328.364*

Resíduo 2 1.0498 0.5249

Total 10 4906.3215
*: significativo a 5% de probabilidade pelo teste F.

307
estatística experimental no rbio

Neste exemplo coeficiente de variação (C.V.) é:

100 QMR 100 0.5249


CV% geral
= = = 0.7181%
média Geral 100.88

100 QMR 100 0.5249


CV% genótipos =
não comuns = = 0.9248%
média genótipos 78.34

100 QMR 100 0.5249


CV% testemunhas
= = = 0.6054%
média testemunhas 119.668

As médias ajustadas são:

Z1 ( ajustado ) = Z1 − Bˆ11 = 71.87 − ( −3.41)= 75.28

Z 2 ( ajustado )= Z 2 − Bˆ12= 75.61 − ( −3.41)= 79.02

Z 3 ( ajustado ) = Z 3 − Bˆ 23 = 79.7 − ( 3.41) = 76.28

Z 4 ( ajustado ) = Z 4 − Bˆ 24 = 87.53 − ( 3.41) = 84.11

Z 5 ( ajustado ) = Z 5 − Bˆ 25 = 77 − ( 3.41) = 73.58

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Blocos Aumentados, conforme a Figura 13.1.

308
estatística experimental no rbio

Figura 13.1. Software Rbio, e rotina de procedimentos para realizar análise de


variância em Blocos aumentados.

309
estatística experimental no rbio

Os scripts com a saída da análise são apresentados a seguir:

# -----------------------------------
# Script 12: Delineamento em Blocos Aumentados (DBA)
# -----------------------------------

# ----------------------
# 12.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo4.txt”, h=T) # Leitura dos dados
X

Trat Bloco Variavel


1 T1 1 113.77
2 T2 1 120.00
3 T3 1 115.00
4 1 1 71.87
5 2 1 75.61
6 T1 2 120.00
7 T2 2 126.24
8 T3 2 123.00
9 3 2 79.70
10 4 2 87.53
11 5 2 77.00

# ----------------------
# 12.2- ANOVA em Blocos Aumentados
# ----------------------
Trat<-as.factor(X[,1])
Rep<-as.factor(X[,2])

# ----------------------
# 12.3- ANOVA em Blocos Aumentados pacote augmentedRCBD
# ----------------------
library(augmentedRCBD)
saida2<-augmentedRCBD(Rep, Trat, X[,3], method.comp = “tukey”)

Augmented Design Details


========================

Number of blocks “2”


Number of treatments “8”
Number of check treatments “3”
Number of test treatments “5”
Check treatments “T1, T2, T3”

ANOVA, Treatment Adjusted


=========================
Df Sum Sq Mean Sq
Block (ignoring Treatments) 1 24 24.5
Treatment (eliminating Blocks) 7 4881 697.3
Treatment: Check 2 40 20.1
Treatment: Test and Test vs. Check 5 4841 968.1
Residuals 2 1 0.5
F value Pr(>F)
Block (ignoring Treatments) 47.12 0.020571 *
Treatment (eliminating Blocks) 1342.91 0.000744 ***
Treatment: Check 38.73 0.025172 *
Treatment: Test and Test vs. Check 1864.58 0.000536 ***
Residuals
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

310
estatística experimental no rbio

ANOVA, Block Adjusted


=====================
Df Sum Sq Mean Sq F value
Treatment (ignoring Blocks) 7 4835 691 1330.42
Treatment: Check 2 40 20 38.73
Treatment: Test 4 137 34 66.17
Treatment: Test vs. Check 1 4658 4658 8970.85
Block (eliminating Treatments) 1 70 70 134.50
Residuals 2 1 1
Pr(>F)
Treatment (ignoring Blocks) 0.000751 ***
Treatment: Check 0.025172 *
Treatment: Test 0.014944 *
Treatment: Test vs. Check 0.000111 ***
Block (eliminating Treatments) 0.007353 **
Residuals
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Treatment Means
===============
Treatment Block Means SE r Min Max
1 1 1 71.870 NA 1 71.87 71.87
2 2 1 75.610 NA 1 75.61 75.61
3 3 2 79.700 NA 1 79.70 79.70
4 4 2 87.530 NA 1 87.53 87.53
5 5 2 77.000 NA 1 77.00 77.00
6 T1 116.885 3.115 2 113.77 120.00
7 T2 123.120 3.120 2 120.00 126.24
8 T3 119.000 4.000 2 115.00 123.00
Adjusted Means
1 75.28167
2 79.02167
3 76.28833
4 84.11833
5 73.58833
6 116.88500
7 123.12000
8 119.00000

Coefficient of Variation
========================
0.7142555

Overall Adjusted Mean


=====================
93.41292

Standard Errors
===================
Std. Error of Diff.
Control Treatment Means 0.7205669
Two Test Treatments (Same Block) 1.0190355
Two Test Treatments (Different Blocks) 1.1766808
A Test Treatment and a Control Treatment 1.0190355
CD (5%)
Control Treatment Means 3.100349
Two Test Treatments (Same Block) 4.384556
Two Test Treatments (Different Blocks) 5.062849
A Test Treatment and a Control Treatment 4.384556
Tukey HSD (5%)
Control Treatment Means 6.638107
Two Test Treatments (Same Block) 9.387702
Two Test Treatments (Different Blocks) 10.839984
A Test Treatment and a Control Treatment 6.638107

311
estatística experimental no rbio

Treatment Groups
==================

Method : tukey

Treatment Adjusted Means SE df lower.CL upper.CL


8 5 73.58833 0.7783012 2 63.89956 83.27710
4 1 75.28167 0.7783012 2 65.59290 84.97044
6 3 76.28833 0.7783012 2 66.59956 85.97710
5 2 79.02167 0.7783012 2 69.33290 88.71044
7 4 84.11833 0.7783012 2 74.42956 93.80710
1 T1 116.88500 0.5095177 2 110.54221 123.22779
3 T3 119.00000 0.5095177 2 112.65721 125.34279
2 T2 123.12000 0.5095177 2 116.77721 129.46279
Group
8 1
4 12
6 12
5 12
7 2
1 3
3 3
2 3

# ----------------------
# 12.4- ANOVA em Blocos Aumentados pacote agricolae
# ----------------------
#install.packages(“agricolae”)
library(agricolae)
saida<- DAU.test(Rep,Trat,X[,3])
print(saida)

$means
X...3. std r Min Max Q25 Q50
1 71.870 NA 1 71.87 71.87 71.8700 71.870
2 75.610 NA 1 75.61 75.61 75.6100 75.610
3 79.700 NA 1 79.70 79.70 79.7000 79.700
4 87.530 NA 1 87.53 87.53 87.5300 87.530
5 77.000 NA 1 77.00 77.00 77.0000 77.000
T1 116.885 4.405275 2 113.77 120.00 115.3275 116.885
T2 123.120 4.412346 2 120.00 126.24 121.5600 123.120
T3 119.000 5.656854 2 115.00 123.00 117.0000 119.000
Q75 mean.adj SE block
1 71.8700 75.28167 0.7205669 1
2 75.6100 79.02167 0.7205669 1
3 79.7000 76.28833 0.7205669 2
4 87.5300 84.11833 0.7205669 2
5 77.0000 73.58833 0.7205669 2
T1 118.4425 116.88500 0.5095177
T2 124.6800 123.12000 0.5095177
T3 121.0000 119.00000 0.5095177

$parameters
test name.t ntr Controls Augmented blocks alpha
DAU Trat 8 3 5 2 0.05

$statistics
Mean CV
100.8836 0.7

$comparison
NULL

$groups
X[, 3] groups

312
estatística experimental no rbio

T2 123.12000 a
T3 119.00000 b
T1 116.88500 b
4 84.11833 c
2 79.02167 d
3 76.28833 de
1 75.28167 de
5 73.58833 e

$SE.difference
Std Error Diff.
Two Control Treatments 0.7205669
Two Augmented Treatments (Same Block) 1.0190355
Two Augmented Treatments(Different Blocks) 1.1766808
A Augmented Treatment and A Control Treatment 0.9302479

$vartau
1 2 3 4 5
1 0.0000000 1.0384333 1.3845778 1.3845778 1.3845778
2 1.0384333 0.0000000 1.3845778 1.3845778 1.3845778
3 1.3845778 1.3845778 0.0000000 1.0384333 1.0384333
4 1.3845778 1.3845778 1.0384333 0.0000000 1.0384333
5 1.3845778 1.3845778 1.0384333 1.0384333 0.0000000
T1 0.8653611 0.8653611 0.8653611 0.8653611 0.8653611
T2 0.8653611 0.8653611 0.8653611 0.8653611 0.8653611
T3 0.8653611 0.8653611 0.8653611 0.8653611 0.8653611
T1 T2 T3
1 0.8653611 0.8653611 0.8653611
2 0.8653611 0.8653611 0.8653611
3 0.8653611 0.8653611 0.8653611
4 0.8653611 0.8653611 0.8653611
5 0.8653611 0.8653611 0.8653611
T1 0.0000000 0.5192167 0.5192167
T2 0.5192167 0.0000000 0.5192167
T3 0.5192167 0.5192167 0.0000000

13.2. Látice

Os experimentos montados em látice geralmente são para


competição de um grande número de tratamentos. Aqui serão abor-
dados os delineamentos em látice quadrado (“square latices”). Estes
experimentos permitem dispor de um número v=k2 de tratamentos em
blocos de k parcelas, sendo assim o número de tratamentos deve ser
um quadrado perfeito, ou seja, por exemplo, 16 que é quadrado de 4,
25 que é quadrado de 5, 36, 49, 64, etc. Quando se tem o número de
repetições (m) igual a 2, esse é dito látice simples e quando se tem o
número de repetições (m) igual a 3 esse é dito látice triplo.
Considere por exemplo um látice com 9 tratamentos, ou seja,
3x3, a representação seria:

313
estatística experimental no rbio

Bloco 1 1 2 3

Bloco 2 4 5 6

Bloco 3 7 8 9

A segunda repetição seria

Bloco 4 Bloco 5 Bloco 6

1 2 3

4 5 6

7 8 9

Que poderia ser melhor representado da seguinte maneira:

Bloco 4 1 4 7

Bloco 5 2 5 8

Bloco 6 3 6 9

Veja ainda que a segunda repetição é montada considerando as


colunas da primeira repetição.
Caso seja um látice triplo a terceira repetição seria:

Bloco 7 1 5 9

Bloco 8 2 6 7

Bloco 9 3 4 8

Nesse caso a terceira repetição foi estruturada a partir da dia-


gonal principal do arquivo da primeira repetição.
Para outros números de tratamentos, como 4,16, 25, ... deve-se
seguir o esquema definido por Cochran & Cox (1957).
Verifica-se então que, em relação ao delineamento em blocos
ao acaso, aqui há uma repartição interna de cada repetição em outros

314
estatística experimental no rbio

três blocos, cada um destes “bloquinhos” formados não possuem


todos os tratamentos, dessa forma o experimento seria classificado
em blocos incompletos, porém todas as repetições possuem todos os
tratamentos. Alguns autores sugerem poder realizar a análise conside-
rando látice e considerando em blocos, caso seja eficiente o primeiro,
mantenha nessa estrutura. Já outros autores sugerem que isso não
seria correto, uma vez que se montou em látice pois pressupunha a
existência de variabilidade dentro de cada repetição, sendo obrigado a
estabelecer os “bloquinhos”. Esses autores defendem que se é sabido
esta existência de variação dentro de bloco, então não seria correto
usar o delineamento em DBC, uma vez que esse assume que os blocos
devam ser homogêneos.
Outro ponto a se destacar é que o delineamento em blocos
completos, por exemplo, é considerado um delineamento robusto, ou
seja, a perda de um tratamento ou de um bloco em nada altera as pro-
priedades do delineamento, e a perda de algumas parcelas também
não traz grandes dificuldades a análise. Já os látices não são robustos,
pois a perda de um tratamento ou de um bloco destrói a estrutura
experimental, acarretando uma grande dificuldade na análise.
Segundo Pimentel-Gomes (2000) há dois tipos bem distintos de
análise dos experimentos em blocos incompletos:

a. Análises intrablocos, em que só comparações entre parce-


las do mesmo bloco são usadas nas estimativas de efeito de
tratamentos.
Esse tipo de análise pode ser usado para qualquer expe-
rimento em blocos incompletos e se baseia em métodos
estatísticos exatos.
b. Análise com recuperação da informação interblocos, onde
as comparações entre blocos são também aproveitadas na
estimação dos efeitos de tratamentos.

315
estatística experimental no rbio

Esse tipo de análise permite aproveitar melhor os dados, mas


usa métodos estatísticos apenas aproximados e só deve ser
usada para experimentos com número de graus de liberdade
relativamente grande para blocos e para o resíduo.

O modelo matemático para o delineamento látice é:

Yijk=m + ti + rj+ (b/r) jk + eijk

em que:
Yijk é o valor observado relativo à parcela que recebe o tratamen-
to i da repetição j no bloco k, sendo i =1, 2, ..., t ; j= 1, 2, ..., r e k = 1,2, ...k.
m é a média geral do experimento
ti é o efeito do tratamento i
rj é o efeito da repetição j
(b/r) jk é o efeito do bloco k dentro da repetição j
eijk é o erro aleatório associado a observação ijk

O quadro da ANOVA com análise intrabloco, é apresentado na


Tabela 13.4.

Tabela 13.4. Quadro da ANOVA considerando látice quadrado com análise


intrablocos e tratamentos ajustados.
FV GL SQ QM F

Repetições r-1

Bloco/Rep (Não ajustado) (k-1) r SQBlocos QMBlocos = SQBlocos/glBlocos

Tratamento (Ajustado) t-1 SQTrat QMTrat = SQTrat/glTrat QMTrat / QMRes

Resíduo (k-1) (rk-k-1) SQRes QMRes= SQRes/glRes

Total tr-1 SQTotal

Para este tipo de delineamento consideraremos t: número de


tratamentos; k: número de parcelas; b: número de blocos; r: número

316
estatística experimental no rbio

de repetições e N: número total de parcelas. Dessa forma tem-se as


seguintes relações: t=k2 ou k = t , b=rk, N=bk=rk2
Em que:

Y...2
C= e é denominada por correção.
tr
t r k
SQTotal
= ∑∑∑Y
=i 1 =j 1 =
k 1
ijk
2
−C

1 r 2
SQRep
= ∑Y. j. − C
t j =1

1 k 2
SQBloco / Rep = ∑Y..k − (SQRep + C )
k k

SQRes =SQTotal − SQTrat aj . − SQBloco / Rep − SQRep

1 t ˆ
SQTrat aj . = ∑tiQi
k i =1

Sendo que: Qi = k * Ti – Ai
Ti: Total para o tratamento i avaliado
Ai: Total dos blocos em que o tratamento i aparece (correções)

Representa por S1(Qi) a soma dos valores Qi referentes a todos


os tratamentos que ocorrem no mesmo bloco da primeira repetição
em que aparece o i-ésimo tratamento. É importante salientar que
S1(Q1) = S1(Q2) = S1(Q3) = Q1 + Q2 + Q3 = S11(Q).

317
estatística experimental no rbio

Os efeitos ajustados para tratamentos são dados pela fórmula:

1 1
=tˆi Qi + [ S1 (Qi ) + S2 (Qi ) +… Sr (Qi )]
rk r ( r − 1) t

As médias ajustadas de tratamentos são dadas por:

G ˆ
mˆ i = mˆ + tˆi = + ti em que G é o total geral das parcelas.
tr

Como exemplo consideremos um experimento com 9 trata-


mentos (T1 a T9) e 2 repetições. Os valores para a variável hipotética
simulada se encontram na Tabela 13.5 entre parênteses:

Tabela 13.5. Avaliação de uma variável agronômica simulada, em delineamento


látice quadrado 3x3.
Repetição 1 Total de blocos
Bloco 1 T1 (66.98) T2 (113.77) T3 (71.87) 252.62
Bloco 2 T4 (75.61) T5 (126.24) T6 (87.53) 289.38
Bloco 3 T7 (93.26) T8 (110.35) T9 (86.71) 290.32
Total Repetição 1 832.32
Repetição 2 Total de blocos
Bloco 4 T1 (98.44) T4 (110.29) T7 (100.95) 309.68
Bloco 5 T2 (85.71) T5 (107.73) T8 (93.3) 286.74
Bloco 6 T3 (97.28) T6 (109.43) T9 (106.55) 313.26
Total Repetição 2 909.68

Para procedermos a ANOVA, devemos, portanto, obter inicial-


mente as estimativas das Somas de Quadrados, conforme abaixo:

Y...2 17422 3034564


C
= = = = 168586.9
tr 9 x2 18

318
estatística experimental no rbio

t r
SQTotal
= ∑∑Y
=i 1 =j 1
ijk
2
C 66.982 + 113.77 2 + 71.87 2
−=

+…+ 109.432 + 106.552 − 168586.9 = 172196.6 − 168586.9 = 4209.7191

1 r 2 1
SQ
=Rep ∑
t j =1
Y. j . =
−C
9
(832.322 + 909.682 ) − 168586.9
= 332.4761

1 k 2 1
SQBloco=
/ Rep ∑
k k =1
Y..k − ( SQRep +=
C)
3
(252.622 + 289.382

+290.322 + 309.682 + 286.742 + 313.262 ) − 168919.4 =


446.2046

1 t ˆ
SQTrat aj . = ∑ti Qi
k i =1

Para o cálculo da Soma de quadrados para tratamentos ajustados


devemos realizar alguns passos adicionais, como mostrado a seguir:
Total para o tratamento i avaliado (Ti):

T1= 66.98 + 98.44 = 165.42


T2= 113.77 + 85.71 = 199.48
T3= 71.87 + 97.28 = 169.15
T4= 75.61 + 110.29 = 185.9
T5= 126.24 + 107.73 = 233.97
T6= 87.53 + 109.43 = 196.96
T7= 93.26 + 100.95 = 194.210
T8= 110.35 + 93.3 = 203.65
T9= 86.71 + 106.55 = 193.26

319
estatística experimental no rbio

Total dos blocos em que o tratamento i aparece (correções) (Ai):

A1= 252.62 + 309.68 = 562.3


A2= 252.62 + 286.74 = 539.36
A3= 252.62 + 313.26 = 565.88
A4= 289.38 + 309.68 = 599.06
A5= 289.38 + 286.74 = 576.12
A6= 289.38 + 313.26 = 602.64
A7= 290.32 + 309.68 = 600
A8= 290.32 + 286.74 = 577.06
A9= 290.32 + 313.26 = 603.58

Valor Qi, sendo este definido por: Qi = k * Ti – Ai

Q1 = (3 x 165.42) - 562.3 = -66.04


Q2 = (3 x 199.48) - 539.36= 59.08
Q3 = (3 x 169.15) - 565.88= -58.43
Q4 = (3 x 185.9) - 599.06= -41.36
Q5 = (3 x 233.97) - 576.12= 125.79
Q6 = (3 x 196.96) - 602.64= -11.76
Q7 = (3 x 194.210) - 600= -17.37
Q8 = (3 x 203.65) - 577.06= 33.89
Q9 = (3 x 193.26) - 603.58= -23.8

Representa por S1(Qi) a soma dos valores Qi referentes a todos


os tratamentos que ocorrem no mesmo bloco da primeira repetição
em que aparece o i-ésimo tratamento. É importante salientar que
S1(Q1) = S1(Q2) = S1(Q3) = Q1 + Q2 + Q3 = S11(Q). Dessa forma, o valor
S11(Q) é dado por Q1 + Q2 + Q3, uma vez que estes são os tratamentos
da repetição 1 e bloco 1, e são calculados abaixo:

320
estatística experimental no rbio

S11= -66.04 + 59.08 -58.43 = -65.39 = S1(Q1) = S1(Q2) = S1(Q3)


S12= -41.36 + 125.79 -11.76 = 72.67 = S1(Q4) = S1(Q5) = S1(Q6)
S13= -17.37 + 33.89 -23.8 = -7.28 = S1(Q7) = S1(Q8) = S1(Q9)
S24= -66.04 -41.36 -17.37 = -124.77 = S2(Q1) = S2(Q4) = S2(Q7)
S25= 59.08 + 125.79 +33.89 = 218.76 = S2(Q2) = S2(Q5) = S2(Q8)
S26= -58.43+ -11.76 -23.8 = -93.99 = S2(Q3) = S2(Q6) = S2(Q9)

Verifica-se que as somas de todos os Sjk = 0


Os efeitos ajustados para tratamentos são dados pela fórmula:

1 1
=tˆi Qi + [ S1 (Qi ) + S2 (Qi ) +… Sr (Qi )]
rk r ( r − 1) t

1 1
tˆ1 = Q1 + [ S1 (Q1 ) + S2 (Q1 )]
2 x3 2 ( 2 − 1) 9
−66.04 1
= + [ −65.39 − 124.77 ] =
−21.57
6 18

1 1
tˆ2 = Q2 + [ S1 (Q2 ) + S2 (Q2 )]
2 x3 2 ( 2 − 1) 9
3 x ( Q2 ) + [ S1 (Q2 ) + S 2 (Q2 ) ] 3 x ( 59.08 ) + [ −65.39 + 218.76 ]
= = 18.36
18 18

3 x ( Q3 ) + [ S1 (Q3 ) + S 2 (Q3 ) ]
tˆ3 =
18
3 x ( −58.43) + [ −65.39 − 93.99 ]
= = −18.59
18

321
estatística experimental no rbio

3 x ( Q4 ) + [ S1 (Q4 ) + S 2 (Q4 ) ]
tˆ4 =
18
3 x ( −41.36 ) + [ 72.67 − 124.77 ]=
= −9.78
18

3 x ( Q5 ) + [ S1 (Q5 ) + S 2 (Q5 ) ]
tˆ5 =
18
3 x (125.79 ) + [ 72.67 + 218.76 ]
= 37.15
18

3 x ( Q6 ) + [ S1 (Q6 ) + S2 (Q6 ) ]
tˆ6 =
18
3 x ( −11.76 ) + [ 72.67 − 93.99 ]
= = −3.14
18

3 x ( Q7 ) + [ S1 (Q7 ) + S 2 (Q7 ) ]
tˆ7 =
18
3 x ( −17.37 ) + [ −7.28 − 124.77 ]
= = −10.23
18

3 x ( Q8 ) + [ S1 (Q8 ) + S 2 (Q8 ) ]
tˆ8 =
18
3 x ( 33.89 ) + [ −7.28 + 218.76 ]
= 17.39
18

3 x ( Q9 ) + [ S1 (Q9 ) + S 2 (Q9 ) ]
tˆ9 =
18
3 x ( −23.8 ) + [ −7.28 − 93.99 ]
= = −9.59
18

322
estatística experimental no rbio

Verifica-se que as somas de todos os ti ajustados = 0


Portanto, agora pode-se obter a soma de quadrados de trata-
mentos ajustados dada por:

Dessa forma, a soma de quadrados do resíduo é obtida por


diferença, sendo:

SQRes =SQTotal − SQTrat aj . − SQBloco / Rep − SQRep

SQRes= 4209.7191 − 3235.76 − 446.2046 − 332.4761= 195.2782

O quadro da ANOVA para este exemplo está representado na


Tabela 13.6.

Tabela 13.6. Resultado da análise de variância da variável agronômica simulada,


considerando em delineamento látice quadrado 3x3.
FV GL SQ QM F

Repetições 1 332.4761 332.4761

Bloco/Rep (Não ajustado) 4 446.2046 111.5511

Tratamento (Ajustado) 8 3235.76 404.47 8.28*

Resíduo (Erro intrabloco) 4 195.2782 48.81

Total 17 4209.7191
*: significativo a 5% de probabilidade pelo teste F.

Deve-se salientar aqui, que segundo Pimentel-Gomes & Garcia


(1991), o teste F só pode ser realizado caso os quadrados médios de
bloco tivessem sido ajustados. A tabela do teste F a 5% encontra-se no
ANEXO 13.1.

323
estatística experimental no rbio

As médias ajustadas de tratamentos são dadas por:

G ˆ
mˆ i = mˆ + tˆi = + ti em que G é o total geral das parcelas, portan-
tr
to para o referido exemplo

1742 ˆ 1742
mˆ=
1 t1
+= − 21.57
= 75.20
9 x2 18

1742 ˆ 1742
mˆ=
2 + t=
2 + 18.36
= 115.14
9 x2 18

1742 ˆ 1742
mˆ=
3 + t=
3 − 18.59
= 78.18
9 x2 18

1742 ˆ 1742
mˆ=
4 + t=
4 − 9.78
= 87
9 x2 18

1742 ˆ 1742
mˆ=
5 + t=
5 + 37.15
= 133.93
9 x2 18

1742 ˆ 1742
mˆ=
6 + t=
6 − 3.14
= 93.63
9 x2 18

1742 ˆ 1742
mˆ=
7 + t=
7 − 10.23
= 86.54
9 x2 18

1742 ˆ 1742
mˆ=
8 + t=
8 + 17.39
= 114.17
9 x2 18

1742 ˆ 1742
mˆ=
9 + t=
9 − 9.59
= 87.18
9 x2 18

324
estatística experimental no rbio

Eficiência do Látice

Para calcular a eficiência do látice comparado ao delineamento


em blocos casualizados (DBC), deve-se inicialmente proceder a análise
em DBC, neste caso cada repetição do látice é considerada um bloco,
não havendo mais os “bloquinhos incompletos” do látice. O resultado
da ANOVA considerando o DBC é mostrado abaixo. Não será demostra-
do aqui como calcular esta ANOVA, uma vez que tal procedimento já
foi explicado anteriormente neste material no Capítulo 5.
Dessa forma, o quadro da ANOVA considerando o delineamen-
to em blocos ao acaso é apresentado na Tabela 13.7.

Tabela 13.7. Resultado da análise de variância da variável agronômica simulada,


considerando delineamento em blocos casualizados.
FV GL SQ QM F

Blocos 1 332.5 332.48 1.175ns

Tratamento 8 1614.1 201.77 0.713ns

Resíduo 8 2263.1 282.9

Total 17 4209.7
ns
: Não significativo a 5% de probabilidade pelo teste F.

Para calcular a eficiência do látice usa-se a expressão:

QMResDBC
Eficiência =
Variância Efetiva

Porém, segundo Gomes & Garcia (1991), existem três formas


de obter a variância efetiva, permitindo portando a obtenção de três
estimativas de eficiência. As formas de obter a variância efetiva são:
Variância efetiva para os primeiros associados:

325
estatística experimental no rbio

1 1
(1) QMResLátice 1 + = 48.811 + = 65.09
Variância Efetiva=
 k  3

Variância efetiva para os segundos associados

 r 
Variância
= Efetiva ( 2 ) QMResLátice 1 +
 ( r − 1) k 
 
 2 
=48.811 + =81.36
 ( 2 − 1) 3 
 

Variância efetiva média

 r 
Variância Efetiva
= ( média ) QMResLátice 1 + 
 ( r − 1)( k + 1) 
 2 
= 48.811 + 73.215
=
 ( 2 − 1)( 3 + 1) 
 

Dessa forma tem-se três estimativas, calculadas a seguir:

QMResDBC 282.9
(1)
Eficiência= = = 4.34
= 434%
Variância Efetiva (1) 65.08

QMResDBC 282.9
( 2)
Eficiência= = = 3.47
= 347%
Variância Efetiva ( 2 ) 81.35

QMResDBC 282.9
Eficiência ( média
= ) = = 3.86
= 386%
Variância Efetiva ( média ) 73.215

326
estatística experimental no rbio

Para que o látice tenha eficiência é necessário que o efeito dos


seus blocos seja grande. No caso de áreas uniformes ou de blocos mal
localizados, o látice pode não ser eficiente, equivalendo a montagem
em DBC, nesse caso sua eficiência seria próxima a 100%.

Análise com Recuperação da Informação Interbloco

Para o cálculo da análise no delineamento em látice com a recu-


peração interblocos, deve-se inicialmente obter a soma de quadrados
dos tratamentos (não ajustados), que é dada por:

1 t 2
SQTrat ( não=
ajustado ) ∑Yi.. − C
r i =1

A partir daí obtém a soma de quadrados de blocos ajustados, sendo:

SQBlocos ( ajustado
= ) SQBlocos ( não ajustado ) + SQTrat ( ajustado ) − SQTrat ( não ajustado )

Para os dados do exemplo anterior tem-se:

1 t 2 165.422 + 199.482 +…+ 193.262


SQTrat ( não ajustado
= ) ∑
r i =1
Yi.. =
−C
2
−C

340402.06
= − 168586.9= 1614.14
2

SQBlocos ( ajustado
= ) SQBlocos ( não ajustado ) + SQTrat ( ajustado ) − SQTrat ( não ajustado )
= 446.2046 + 3235.76 − 1614.14 = 2067.83

Dessa forma, pode-se representar o quadro da ANOVA (Tabela


13.8), sendo esta análise intrabloco, porém com blocos ajustados.

327
estatística experimental no rbio

Tabela 13.8. Resultado da análise de variância da variável agronômica simulada,


considerando em delineamento látice quadrado 3x3, com efeito de blocos ajustados.
FV GL SQ QM

Repetições 1 332.4761 332.4761

Bloco/Rep (Ajustado) 4 2067.82 516.95

Tratamento (Não ajustado) 8 1614.13 201.76

Resíduo (Erro intrabloco) 4 195.2782 48.81

Total 17 4209.7191

Vale ressaltar que não há teste exato para este tipo de análise,
por isso não foi realizado o teste F.
Para obter a análise interbloco deve-se estimar:

=aˆ
( r=
− 1) xQMRintra ( 2 − 1) x 48.81
= 0.0495
r x QMBaj − QMRintra 2 x 516.95 − 48.81

O próximo passo é estimar para cada tratamento os efeitos Mi:

G
M i =Qi + aˆ Ai − aˆ
k

G
Q1 + aˆ A1 − aˆ
M1 = −66.04 + ( 0.0495 x562.3)
=
k
1742
−0.0495 x −66.95
=
3

G
M 2 =Q2 + aˆ A2 − aˆ =59.08 + ( 0.0495 x539.36 )
k
1742
−0.0495 x 57.03
=
3

328
estatística experimental no rbio

G
Q3 + aˆ A3 − aˆ
M3 = −58.43 + ( 0.0495 x565.88 )
=
k
1742
−0.0495 x −59.16
=
3

G
Q4 + aˆ A4 − aˆ
M4 = −41.36 + ( 0.0495 x599.06 )
=
k
1742
−0.0495 x −40.45
=
3

G
M 5 =Q5 + aˆ A5 − aˆ =125.79 + ( 0.0495 x576.12 )
k
1742
−0.0495 x 125.56
=
3

G
Q6 + aˆ A6 − aˆ
M6 = −11.76 + ( 0.0495 x602.64 )
=
k
1742
−0.0495 x −10.67
=
3

G
Q7 + aˆ A7 − aˆ
M7 = −17.37 + ( 0.0495 x600 )
=
k
1742
−0.0495 x −16.41
=
3

G
M 8 =Q8 + aˆ A8 − aˆ =33.89 + ( 0.0495 x577.06 )
k
1742
−0.0495 x 33.71
=
3

G
Q9 + aˆ A9 − aˆ
M9 = −23.8 + ( 0.0495 x603.58 )
=
k
1742
−0.0495 x −22.66
=
3

329
estatística experimental no rbio

Verifica-se que a soma dos valores de Mi são zero, salvo erros


de aproximação da última decimal.
Os efeitos estimados para os tratamentos ajustados são dados por:

1 1 1 − aˆ
=tˆi' Mi +  S1 ( M i ) +…+ S r ( M i ) 
rk rt r − 1 + aˆ 

Em que S1(Mi) refere-se a soma dos valores de Mi referentes


a todos os tratamentos que aparecem com o tratamento i no mesmo
bloco da primeira repetição, fazendo para as outras repetições até a
última repetição r.
Os valores Sr(Mi), são dados a seguir:

S11= – 66.95 + 57.03 – 59.16 = – 69.08 = S1(M1) = S1(M2) = S1(M3)


S12= – 40.45 + 125.56 – 10.67= 74.44 = S1(M4) = S1(M5) = S1(M6)
S13= – 16.41 + 33.71 – 22.66 = – 5.37 = S1(M7) = S1(M8) = S1(M9)
S24= – 66.95 – 40.45 –16.41 = – 123.81 = S2(M1) = S2(M4) = S2(M7)
S25= 57.03 + 125.56 + 33.71 = 216.31 = S2(M2) = S2(M5) = S2(M8)
S26= – 59.16 – 10.67– 22.66 = – 92.50 = S2(M3) = S2(M6) = S2(M9)

Novamente pode-se verificar que a soma de todos os valores


de S calculados anteriormente é igual a zero.
Os efeitos dos tratamentos ajustados são:

330
estatística experimental no rbio

( 57.03) + 0.05031 x
tˆ2=' ( −69.08 + 216.31=) 16.91
6

( −59.16 )
tˆ3' =+ 0.05031 x ( −69.08 – 92.50 ) =
−17.99
6

( −40.45)
tˆ4' = + 0.05031 x ( 74.44 − 123.81) =
−9.23
6

(125.56 ) + 0.05031 x
tˆ5' = ( 74.44 + 216.31 ) = 35.56
6

( −10.67 ) + 0.05031 x 74.44 – 92.50 =


tˆ6' = ( ) −2.69
6

( −16.41) + 0.05031 x – 5.37 – 123.81 =


tˆ7' = ( ) −9.23
6

( 33.71) + 0.05031 x
tˆ8' = ( – 5.37 + 216.31 ) =16.23
6

( −22.66 ) + 0.05031 x – 5.37 – 92.50 =


tˆ9' = ( ) −8.70
6

Novamente pode-se verificar que a soma de todos os valores


de t’i calculados anteriormente são iguais a zero.
Portanto agora pode-se obter a soma de quadrados de trata-
mentos ajustados dada por:

331
estatística experimental no rbio

O quadrado médio de tratamento ajustado é dado pela expressão:

*
SQTrat
* aj . 3062.62
= = = 382.82
QM Trat aj .
t −1 8

O Teste F aproximado é dado por:


*
QM Trat aj .
F= , associado a (t-1) e (k-1) (rk-k-1) graus de liber-
QMR
dade, nesse caso.

383.795
=F = 7.86 7.84 , associado a 8 e 4 graus de liberdade, para
48.81
numerador e denominador respectivamente. F (5%,8,4) =6.04. Como F
calculado é maior que F tabelado, rejeita-se H0 de igualdade entre as
médias. O quadro da ANOVA é apresentado na Tabela 13.9.

Tabela 13.9. Resultado da análise de variância da variável agronômica simulada,


considerando em delineamento látice quadrado 3x3 com recuperação da
informação interblocos.
FV GL SQ QM F

Tratamento (Ajustado) 8 3062.62 382.82 7.84*

Resíduo (Erro intrabloco) 4 195.2782 48.81

Total 17 4209.7191
*: significativo a 5% de probabilidade pelo teste F.

332
estatística experimental no rbio

Vale salientar que o resultado da anova apresentado acima, é


ligeiramente diferente ao apresentado pelo software Rbio, pois neste
software a obtenção da anova com recuperação da informação inter-
bloco é realizada através do método REML.
As novas médias ajustadas de tratamentos são dadas por:

G ˆ'
mˆ i' = mˆ + tˆi' =
+ ti em que G é o total de geral das parcelas,
tr
portanto para o referido exemplo

1742 ˆ' 1742


mˆ=
'
1 t1
+= − 20.86
= 75.92
9 x2 18

1742 ˆ' 1742


mˆ=
'
2 + t=
2 + 16.91
= 113.69
9 x2 18

1742 ˆ' 1742


mˆ=
'
3 + t=
3 − 17.99
= 78.79
9 x2 18

1742 ˆ' 1742


mˆ=
'
4 + t=
4 − 9.23
= 87.55
9 x2 18

1742 ˆ' 1742


mˆ=
'
5 + t=
5 + 35.56
= 132.33
9 x2 18

1742 ˆ' 1742


mˆ=
'
6 + t=
6 − 2.69
= 94.09
9 x2 18

1742 ˆ' 1742


mˆ=
'
7 + t=
7 − 9.23
= 87.54
9 x2 18

333
estatística experimental no rbio

1742 ˆ' 1742


mˆ=
'
8 + t=
8 + 16.23
= 113.01
9 x2 18

1742 ˆ' 1742


mˆ=
'
9 + t=
9 − 8.70
= 88.08
9 x2 18

Quadro auxiliar:

Trat Ti Ai Qi aAi Mi S1(Qi) S2(Qi) S(Qi) ti mi tiMi

1 165.42 562.30 -66.04 27.86 -66.95 -69.08 -123.81 -192.89 -20.86 75.92 1396.76

2 199.48 539.36 59.08 26.72 57.03 -69.08 216.31 147.23 16.91 113.69 964.59

3 169.15 565.88 -58.43 28.04 -59.16 -69.08 -92.50 -161.58 -17.99 78.79 1064.30

4 185.9 599.06 -41.36 29.68 -40.45 74.44 -123.81 -49.37 -9.23 87.55 373.14

5 233.97 576.12 125.79 28.55 125.56 74.44 216.31 290.75 35.56 132.33 4464.49

6 196.96 602.64 -11.76 29.86 -10.67 74.44 -92.50 -18.05 -2.69 94.09 28.67

7 194 600.00 -17.37 29.73 -16.41 -5.37 -123.81 -129.18 -9.23 87.54 151.55

8 203.65 577.06 33.89 28.59 33.71 -5.37 216.31 210.94 16.23 113.01 547.17

9 193.26 603.58 -23.8 29.91 -22.66 -5.37 -92.50 -97.86 -8.70 88.08 197.21

Total 1742 5226 0 0 0 0 0 0 871 9187.88

Eficiência do látice na análise com recuperação da


informação interblocos

Para calcular a eficiência do látice usa-se a expressão:

QMResDBC
Eficiência =
Variância Efetiva

Do mesmo modo da análise intrabloco, pode-se obter três


valores para variâncias efetivas, portanto, serão obtidas também três
estimativas de eficiência.

334
estatística experimental no rbio

Variância efetiva para os primeiros associados

 1 QMBlocosajustados − QMResLátice 
Variância
= Efetiva (1) QMResLátice 1 + 
 k QMBlocosajustados
 
 1 516.95 − 48.81 
= 48.811 + = 63.54
 3 516.95 

Variância efetiva para os segundos associados

 r QMBlocosajustados − QMResLátice 
Variância
= Efetiva ( 2 ) QMResLátice 1 + 
 ( r − 1) k QMBlocosajustados
 
 2 516.95 − 48.81 
48.811 +
= 78.27
 =
 ( 2 − 1) 3 516.95
 

Variância efetiva média

 r QMBlocosajustados − QMResLátice 
Variância Efetiva
= ( média ) QMResLátice 1 + 
 ( r − 1)( k + 1) QMBlocosajustados 
 2 516.95 − 48.81 
= 48.811 +  =70.91
 ( 2 − 1)( 3 + 1) 516.95
 

Dessa forma tem-se três estimativas, calculadas a seguir:

QMResDBC 282.9
(1)
Eficiência= = = 4.45
= 445%
Variância Efetiva (1) 63.54

QMResDBC 282.9
( 2)
Eficiência = = = 3.61
= 361%
Variância Efetiva ( 2 ) 78.27

QMResDBC 282.9
Eficiência ( média
= ) = = 3.989 = 398.9%
Variância Efetiva ( média ) 70.91

335
estatística experimental no rbio

É importante salientar que alguns softwares estatísticos calcu-


lam os valores da eficiência do látice. Por exemplo, o software Rbio cal-
cula o valor de eficiência, sendo a estimativa liberada correspondente
à eficiência (média) usando a análise com recuperação da informação
interblocos. Por outro lado, o software R, usando o pacote agricolae,
libera um valor de eficiência que é diferente, não sendo uma eficiência
do delineamento em Látice em relação ao delineamento em blocos ao
acaso. Neste caso, a eficiência é obtida através da expressão:

Eficiência =
( t − 1) x ( r − 1)
( t − 1) x ( r − 1) + r ( k − 1)

Considerando os dados apresentados na Tabela 35, em que se


tem 9 tratamentos (t=9), duas repetições (r=2) e k=3, a eficiência é:

=Eficiência
( 9 − 1) x ( 2 − 1)
= 0.6667
( 9 − 1) x ( 2 − 1) + 2 ( 2 − 1)

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: ANOVA >
Látice, conforme a Figura 13.2.

336
estatística experimental no rbio

Figura 13.2. Software Rbio, e rotina de procedimentos para realizar análise de


variância Látice quadrado.

337
estatística experimental no rbio

Os scripts com a saída da análise são apresentados a seguir:

# -----------------------------------
# Script 13: Látice
# -----------------------------------

# ----------------------
# 13.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo5.txt”, h=T) # Leitura dos dados
X

Rep Bloco Trat Variavel


1 1 1 1 66.98
2 1 1 2 113.77
3 1 1 3 71.87
4 1 2 4 75.61
5 1 2 5 126.24
6 1 2 6 87.53
7 1 3 7 93.26
8 1 3 8 110.35
9 1 3 9 86.71
10 2 4 1 98.44
11 2 4 4 110.29
12 2 4 7 100.95
13 2 5 2 85.71
14 2 5 5 107.73
15 2 5 8 93.30
16 2 6 3 97.28
17 2 6 6 109.43
18 2 6 9 106.55

# ----------------------
# 13.2- ANOVA em Látice
# ----------------------
#install.packages(“agricolae”)
#install.packages(“MASS”)
#install.packages(“nlme”)
library(agricolae)
library(MASS)
library(nlme)

rep<-as.factor(X[,1])
bloco<-as.factor(X[,2])
trat<-as.factor(X[,3])
r<-length(unique(rep))
b<-length(unique(bloco))
kk <- b/r

# ----------------------
# 13.2.1- Analise intrabloco com tratamento ajustado
# ----------------------
m0 <- lm(terms(X[,4]~rep/bloco+trat, keep.order=TRUE), data=X)
saida0 <- anova(m0)
print(saida0)

Analysis of Variance Table

Response: X[, 4]
Df Sum Sq Mean Sq F value Pr(>F)
rep 1 332.5 332.48 6.8103 0.05944 .
rep:bloco 4 446.2 111.55 2.2850 0.22159
trat 8 3235.8 404.47 8.2850 0.02886 *
Residuals 4 195.3 48.82

338
estatística experimental no rbio

---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

# ----------------------
# 13.2.2- Análise com tratamento ajustado com recuperação da informação interbloco
# ----------------------
saida<- PBIB.test(bloco,trat,rep,X[,4],k=kk)

<<< to see the objects: means, comparison and groups. >>>

print(saida$ANOVA)

Analysis of Variance Table

Response: X[, 4]
Df Sum Sq Mean Sq F value Pr(>F)
trat 8 3033.29 379.16 7.6979 0.03287 *
Residuals 4 197.02 49.26
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

print(saida$groups)

X[, 4].adj groups


5 132.05992 a
2 113.44218 ab
8 112.80987 ab
6 94.16907 bc
9 88.22902 c
7 87.71375 c
4 87.64880 c
3 78.89133 c
1 76.03606 c

339
estatística experimental no rbio

ANEXO 13.1. Tabela da Distribuição F ao nível de 5% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 161.45 199.5 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85
12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6
15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3
23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25
25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2
28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08

340
14

REGRESSÃO

As análises de regressão permitem avaliar a relações entre


uma variável principal, ou dependente (Y) e outra (ou outras) variáveis
explicativas ou independentes (X). Pelas análises de regressão, pode-
-se estabelecer uma relação funcional entre a variável dependente e
outras independentes.
As análises de regressão têm os seguintes objetivos:
i) Predição – Utiliza-se do modelo para obter valores de Y cor-
respondentes a valores de X que não estavam entre os dados. Geral-
mente usa-se os valores de X que estão dentro do intervalo de variação
estudado. A utilização de valores fora desse intervalo recebe o nome
de extrapolação e deve ser usada com muito cuidado, pois, o modelo
adotado pode não ser correto fora do intervalo estudado. Acredita-se
que a predição seja a aplicação comum dos modelos de regressão;
ii) Seleção de variáveis - Frequentemente, não se tem idéia de
quais são as variáveis que afetam significativamente a variação de Y.
Para responder a esse tipo de questão, estudos são realizados com um
grande número de variáveis. A análise de regressão pode auxiliar no
processo de seleção de variáveis eliminando aquelas cuja contribuição
não seja importante;

341
estatística experimental no rbio

iii) Estimação de parâmetros - Dado um modelo e um con-


junto de dados referente às variáveis resposta e preditoras, estimar
parâmetros ou ajustar um modelo aos dados significa obter valores ou
estimativas para os parâmetros, por algum processo, tendo por base o
modelo e os dados observados;
iv) Inferência - O ajuste de um modelo de regressão em geral tem
por objetivos básicos, além de estimar os parâmetros, realizar inferên-
cias sobre eles, tais como, testes de hipóteses e intervalos de confiança.
Admitindo que exista uma variável principal Y que sofra a in-
fluência de p+k variáveis independentes, o modelo de determinação
completa seria aquele dado pela função:

Y = f (X1, X2, ..., Xp, Xp+1, ... Xp+k)

Na prática não se conhecem todas as variáveis que influenciam


Y. Assim, por diversas razões, tais como a indisponibilidade de dados,
impossibilidade de mensuração, simplificação da análise, dentre ou-
tras, não se quantifica a influência das k variáveis, de forma que se
considera no modelo apenas as informações das p variáveis. Assim,
para o modelo linear é pressuposto que a influência das p variáveis so-
bre a variável dependente Y possa ser explicado por meio da equação:

Yi = β o + β1 X 1i + β 2 X 2i + ... + β p X pi + ei

Neste modelo ei representa o conjunto de todas as variáveis, que


atuam de forma aleatória, cujas informações são desconhecidas, mas
que exercem influência sobre a variável principal Y. Algumas pressuposi-
ções são adotadas em relação a este termo aleatório, quais sejam:

E ( ei ) = 0

342
estatística experimental no rbio

( )
( ei ) σ 2
ei2 V=
E=

E ( ei ei ' ) = 0

Dada a equação, o problema básico na análise de regressão é


estimar os parâmetros do modelo estatístico admitido, deduzir testes
de significância para estes parâmetros e calcular seus intervalos de
significância com base na equação de regressão.

14.1. Regressão Linear Simples

No caso da análise de regressão linear, considera-se apenas


uma variável independente ou explicativa (X), ajustando uma equação
representativa de uma reta.
Considerando n observações para a variável dependente (Y)
e apenas uma variável independente (Xi), podendo-se estabelecer as
seguintes equações:

Y1 =β o + β1 X 1 + ε1

Y2 =β o + β1 X 2 + ε 2
... .... ....

Yn =β o + β1 X n + ε n

Assim, há disponibilidade de n equações e dois parâmetros a


serem estimados ( β 0 e β1 ), por meio da equação:

Yi =β 0 + β1 X i + ε i

343
estatística experimental no rbio

um modelo alternativo pode ser considerado:

yi =b0 + b1 xi + ei

sendo

a consequência deste modelo é:


n
x =0
i =1 i


n
y =0
i =1 i

bˆ1 = βˆ1

Assim, o problema consiste em obter o valor de b1 de melhor


ajuste para a equação. Adota-se o critério de obter a solução que mini-
miza a soma dos quadrados dos erros, ou seja:

344
estatística experimental no rbio

∑= ei2 ∑ i 1( yi − b1 xi ) 2
n n

= i 1=

∑ ( y − 2b x y + b x )
n 2 2 2
= i =1 i 1 i i 1 i

∑ y − 2b ∑ x y + ∑
n 2 n n 2 2
=i 1 i =
=
1 i i
i 1= i 1 1 i
b x

procura-se obter b1 de forma a minimizar o valor de ω . Isto é


obtido por meio da derivada:

∂ω
∑ ∑
n n
0
= − 2
=i 1 =i 1 i
xi yi + 2b1 x2
∂b1

fazendo

∂ω
=0
∂b1

tem-se:


n
xy Cov ( x, y )
=bˆ1 = i =1 i i

∑ x
n 2 V ( x)
i =1 i

De posse deste valor pode ser obtidas as somas de quadrados.


Verifica-se que:

∑ e ∑ y − bˆ ∑ x yi
2 n n
2 n
= 1
=i 1 =i 1 =i 1 i
i i

como se pode demonstrar:

345
estatística experimental no rbio

Assim, a análise de regressão permite a partição da variação


total em soma de quadrado atribuído à regressão e ao desvio (ou erro
aleatório). Ou seja:


n 2
SQtotal = y
i =1 i

SQDesvio = ∑ i =1ei
n
2

SQRegressão = bˆ1 ∑ i =1xi yi


n

Para o processamento de dados, considera-se a seguinte equa-


ção de regressão:

β o + β1 X i + ε
Yi =

346
estatística experimental no rbio

A partir desta equação, obtêm-se

• O intercepto

sendo σ2 = QMD

• O coeficiente angular

n∑ X iYi − ∑ X i ∑ Yi
n n n

βˆ1 ==i 1 =i 1 =i2 1


=
2
n∑ i 1X
= (
i − ∑ i 1X i
2 n
)
e

ˆ
• A covariância entre os coeficientes β o e β̂1

Pode-se ainda obter a análise da variância da regressão, cujo


esquema é apresentado a seguir na Tabela 14.1.

347
estatística experimental no rbio

Tabela 14.1: Esquema da Análise de Variância da Regressão Linear Simples.


FV GL SQ QM F

Regressão 1 SQReg QMR QMR/QMD

Desvio n-2 SQDes QMD

Total n -1 SQTo

Verifica-se na regressão, uma vez que é testada com 1 GL, que


o valor de F calculado é igual ao valor da estatística t ao quadrado, ou
seja, F = t2

SQTo =
( ∑ Y)
n
i =1 i

n
Y2
i =1 i

n
SQDes = SQTo - SQReg

O grau de ajuste do modelo pode ser avaliado por meio do


coeficiente de determinação, que expressa o quanto da variação na
variável principal (Y) pode ser explicado pelas variações nas variáveis
do modelo de regressão (Xi). Este coeficiente, denotado R2, é dado por:

100 xSQ Re g
R2 =
SQTo

Pode-se ainda obter o R2 ajustado:

2
( n − 1) (1 − R 2 )
R ajustado = 1−
n− p
sendo que para a regressão linear simples estima-se 2 parâme-
tros p (b0 e b1).

348
estatística experimental no rbio

Considere um experimento simulado com 4 valores diferentes


de umidade relativa do ar de secagem de sementes (UR), e a germina-
ção de sementes. Os dados são apresentados na Tabela 14.2.

Tabela 14.2. Dados envolvendo % de germinação de sementes com diferentes


umidades relativa do ar de secagem.
% U.R. 20 30 40 50

% germinação 92 94 93 96

Com base nos dados da Tabela 14.2, obtêm-se a tabela auxiliar


(Tabela 14.3) de forma a facilitar os cálculos para a análise de regressão.

Tabela 14.3. Tabela auxiliar, para proceder a análise de regressão considerando os


dados da Tabela 14.2.
Y X y = Y- Y x = X- X y2 x2 xy Yˆ 89.9 + 0.11X
= e = Y- Ŷ

92 20 -1.75 -15 3.0625 225 26.25 92.1 -0.1

94 30 0.25 -5 0.0625 25 -1.25 93.2 0.8

93 40 -0.75 5 0.5625 25 -3.75 94.3 -1.3

96 50 2.25 15 5.0625 225 33.75 95.4 0.6

Y = 93.75 X = 35 ∑y2i = 8.75 ∑x2i = 500 ∑xiyi =55

Dessa forma pode-se obter os valores de B0 e B1, que são dados por:

cov ( x, y ) ∑ xi yi 55
Bˆ1
= = = = 0.11
v ( x) ∑ xi 2
500

Bˆ0 =−
Y Bˆ1 X =
93.75 − ( 0.11x35 ) =
89.9

Sendo assim a equação de regressão estimada é dada por: Yˆ


=89.9 +0.11X.

349
estatística experimental no rbio

A partir dos dados das Tabelas 14.2 e 14.3, e considerando


os valores codificados para x e y, procede-se, portanto, a análise de
variância de tal forma que:

SQReg βˆ1 ∑
n
= = x y 0=
i =1 i i
.11x55 6.05

∑=
n 2
SQTo
= yi =1 i
8.75

SQDes = SQTo - SQReg= 8.75 - 6.05 =2.7

A análise de variância para o referido exemplo é apresentada


na Tabela 14.4.

Tabela 14.4: Esquema da Análise de Variância da Regressão Linear Simples


considerando o exemplo hipotético da Tabela 14.2.
FV GL SQ QM F

Regressão 1 6.05 6.05 4.48ns

Desvio 2 2.7 1.35

Total 3 8.75

O valor do teste F calculado é testado com o valor tabelado


(ANEXO 14.1), sendo que F(5%,1,2) = 18.51, como o valor calculado é
menor que o valor tabelado, portando não rejeita a hipótese de B1 = 0,
ou seja, conclui-se que a regressão não é significativa.

• O coeficiente de determinação é assim estimado:

100 xSQ Re g 100 x6.05


=R2 = = 69.14%
SQTo 8.75

350
estatística experimental no rbio

Assim, 69.14% das variações na variável dependente (Y) pode


ser explicada pelas variações em X (variável independente) havendo,
portanto, bom indicativo da eficácia da predição de Y por meio de X.

2
( n − 1) (1 − R 2 )
Rajustado = 1−
n− p

1−
=
( 4 − 1)(1 − 0.6914 ) =
0.5371 =
53.71%
4−2

Outras informações, podem ser obtidas, com base nos dados


anteriores:

σ2 = QMD= 1.35

É importante enfatizar que a regressão linear simples, avalia se


existe uma relação linear entre as variáveis, mesmo que não achemos
uma regressão não significativa não quer dizer que não exista relação
entre estas variáveis, mas apenas que esta relação não seja linear.
Existem regressões não lineares que deveriam também ser testadas
para verificar a relação entre as variáveis neste tipo de situação.

351
estatística experimental no rbio

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: Estatística
Básica > Regressão > Simples, conforme a Figura 14.1.

352
estatística experimental no rbio

Figura 14.1. Software Rbio, e rotina de procedimentos para realizar a análise de


Regressão Linear Simples.

353
estatística experimental no rbio

# -----------------------------------
# Script 14: Regressao
# -----------------------------------

# ----------------------
# 14.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo6.txt”, h=T) # Leitura dos dados
X

germinacao.Y. UR.X.
1 92 20
2 94 30
3 93 40
4 96 50

# ----------------------
# 14.2- Regressao Linear Simples
# ----------------------
variavely<-(X[,1])
variavelx<-(X[,2])
regressao<-lm(variavely~variavelx)
cat(“\n”,”--Analise de Variancia da regressao: “,”\n”)
print(anova(regressao)

Analysis of Variance Table

Response: variavely
Df Sum Sq Mean Sq F value Pr(>F)
variavelx 1 6.05 6.05 4.4815 0.1685
Residuals 2 2.70 1.35

summary(regressao)

Call:
lm(formula = variavely ~ variavelx)

Residuals:
1 2 3 4
-0.1 0.8 -1.3 0.6

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 89.90000 1.90919 47.088 0.000451 ***
variavelx 0.11000 0.05196 2.117 0.168478
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 1.162 on 2 degrees of freedom


Multiple R-squared: 0.6914,Adjusted R-squared: 0.5371
F-statistic: 4.481 on 1 and 2 DF, p-value: 0.1685

plot(variavelx,variavely,xlab=”X”,ylab=”Y”)
abline(regressao)

354
estatística experimental no rbio

14.2. Regressão Múltipla

As análises de regressões múltiplas têm por finalidade estabelecer


a relação entre um conjunto de variáveis explicativas (ou independentes)
e uma variável principal (ou dependente). O problema estatístico básico
na análise de regressão é estimar os parâmetros do modelo adotado,
apresentar testes de significância para estes parâmetros e avaliar a ade-
quação do modelo, por meio do coeficiente de determinação.
No processamento de dados, é considerada a seguinte equação
de regressão:

Yi = β o + β1 X 1i + β 2 X 2i + ... + β p X pi + ε i

Assim, há disponibilidade de n equações e p+1 parâmetros (b0,


b1, ..., bp) a serem estimados. Representando estas equações na forma
matricial Y= Xb+e, tem-se:
Sob forma matricial, têm-se:

 Y1   1 X 11 X 21 ... X p1   βo   ε1 
Y  1 X X 22 
... X p 2   β  ε 
 2
X = ; β =  1  e ε =  2
12
Y= ;
 ...   ... ... ... ... ...   ...   ... 
       
Yn   1 X 1n X 2n ... X pn   β p  ε n 

Cada vetor ou matriz tem as seguintes características:

Y: é um vetor de observações aleatórias, determinado por um


conjunto fixo de variáveis e uma parte aleatória;
X: é uma matriz de quantidades fixas conhecidas, não estando
associada a erros experimentais. Há casos em que o conjunto de variá-
veis independentes é também aleatório e sujeito a erros experimentais.

355
estatística experimental no rbio

b: é o vetor de parâmetros desconhecidos a ser estimado na


análise de regressão.
e: vetor de erros aleatórios, que contém um conjunto de variá-
veis desconhecidas que exercem influência sobre a variável principal.

Interessa estimar o vetor b que contém os coeficientes das va-


riáveis na equação de regressão e o componente de variância σ , útil
2

nos testes de hipótese e no estabelecimento de intervalos de confiança.


Para a estimação destes parâmetros, duas teorias são empregadas, a
da máxima verossimilhança e dos mínimos quadrados. Sob distribuição
normal, os estimadores de b em ambas metodologias são idênticos.
A partir destas matrizes, obtêm-se:

Valor dos coeficientes de regressão

É estimado por meio de:

βˆ = ( X ' X ) −1 X ' Y

A análise da variância da regressão é feita conforme o esquema

FV GL SQ QM F
Regressão p SQReg QMR QMR/QMD
Desvio n-p-1 SQDes QMD
Total n -1 SQTo

n : número de equações e p : número de parâmetros.

em que

= βˆ ' X ' Y − C
SQReg

356
estatística experimental no rbio

= Y ' Y − βˆ ' X ' Y


SQDes

= Y 'Y − C
SQTo

em que
Y’Y - C: soma de quadrado total corrigida, associada a n-1 graus
de liberdade;
βˆ ' X ' Y − C : soma de quadrado da regressão associada a p
graus de liberdade;
' εˆ Y ' Y − βˆ ' X ' Y : soma de quadrado do desvio da regres-
εˆ=
são associada a n-p-1 graus de liberdade;

Y. 2
C: correção, obtida por meio de: C =
n
O coeficiente de determinação é estimado pela seguinte ex-
pressão:

100 SQ Re g
R2 =
SQTo

Calcula-se, neste programa, o coeficiente de determinação


ajustado, por meio de

2
( n − 1) (1 − R 2 )
Rajustado = 1−
n− p

2
É comum essas estatísticas ( R 2 e Rajustado ) serem apresentadas
em porcentagem, obtida pela multiplicação dos resultados por 100.
Considere um experimento simulado com 4 valores diferentes de
umidade relativa do ar de secagem de sementes (UR), 4 temperaturas (ºC)
e a germinação de sementes. Os dados são apresentados na Tabela 14.5

357
estatística experimental no rbio

Testes de Hipóteses para os coeficientes de regressão

A hipótese H o : βi = 0 vs H a : βi ≠ 0 é avaliada por meio de

βˆi − βi
t=
QMDxCii

em que Cii refere-se ao elemento da diagonal principal da ma-


triz (X’X)-1 referente ao parâmetro a ser testado, ou seja, para avaliar β0
será o elemento 11, para avaliar b1 será o elemento 22, para avaliar β2
será o elemento 33, e assim por diante

Tabela 14.5. Dados envolvendo % de germinação de sementes com diferentes


umidades relativa do ar de secagem e temperaturas.
% U.R.
20 30 40 50
(X1)

Temperatura
5 15 10 20
(ºC) (X2)

% germinação
92 94 93 96
(Y)

O modelo estatístico para este exemplo é:

β o β1 X 1i + β 2 X 2i + ε i
Yi =+

Sob forma matricial, têm-se:

92  1 20 5   ε1 
94  1  β  ε 
30 15 
0

Y = ; X =  
; β =  β1  e ε =  
2

93 1 40 10   ε 3

     β 2   
96  1 50 20  ε 4 

358
estatística experimental no rbio

Para resolvermos a regressão, precisa-se obter outras matrizes


auxiliares, sendo elas: X’, (X’X)-1, X’Y, b’(X’Y), Y’Y. Vale ressaltar que os
resultados para estas matrizes apresentadas abaixo estão apenas
com 4 casas decimais, porém, para a obtenção fidedigna do resultado
apresentado pelo programa, deve-se utilizar 8 casas decimais. Aqui, foi
apresentado com quatro casas, apenas para fins de melhor visualização.

1 1 1 1
X ' =  20 30 40 50 
 5 15 10 20 

1 20 5 
 1 1 1 1   4 140 50 
=  1 30 15  140 5400 1950 
X 'X  20 30 40 50  1 40 10   
 5 15 10 20     50 1950 750 
1 50 20 

 2.75 −0.0833 0.0333 



−1
(X ' X ) = 
 −0.0833 0.0055 −0.0088
 0.0333 −0.0088 0.0222 

92 
 1 1 1 1    375 
94
=X ' Y =20 30 40 50    13180 
 
93
 5 15 10 20     4720 
96 

 2.75 −0.0833 0.0333   375   90.25 


ˆ
β= 
( X ' X ) ( X 'Y ) =
−1   0.0166 
 −0.0833 0.0055 −0.0088 13180  =  
 0.0333 −0.0088 0.0222   4720   0.2333

359
estatística experimental no rbio

 375 
βˆ ( X ' Y )
'
[90.25
= 0.0166 0.2333] 13180  [35164.75]
 4720 

92 
94 
=Y ' Y [92
= 94 93 96]   [35165]
93
 
96 

Sendo assim, tem-se:

 βˆ0   90.25 
  0.0166 
=βˆ ( X ' X ) −1 ( X=
' Y ) = βˆ1   
ˆ   0.2333
 β 2 

Y. 2 3752
C
= = = 35156.25
n 4

= βˆ ' X ' Y =
SQReg − C 35164.75 − 35156.25
= 8.5

Y ' Y − βˆ ' X ' Y =


SQDesvio = 0.25
35165 − 35164.75 =

SQTo= Y ' Y − C= 35165 − 35156.25= 8.75

Pode-se realizar o desdobramento da Regressão para cada


uma das variáveis regressoras. Para o desdobramento da regressão o
processo é similar ao anterior, porém muda-se apenas a matriz X que
nesse caso será:

360
estatística experimental no rbio

1 20 
1 30 
Para a variável X1 (Umidade Relativa) = X =  .
1 40 
 
1 50 
Dessa forma considerando a matriz Y apresentada, procede-se
os mesmos passos, sendo que se tem:

 375 
βˆ ' ( X ' Y ) [89.90
= 0.011]  [35162.3]
 13180 

X 1 βˆ ' X ' Y =
SQReg= − C 35162.3 − 35156.25
= 6.05

Por diferença obtemos a SQReg X2 = SQReg – SQRegX1 = 8.5 –


6.05 = 2.45
A análise da variância da regressão para o exemplo anterior fica:

FV GL SQ QM F

Regressão 2 8.5 4.25 17ns

X1 1 6.05 6.05 24.2 ns

X2 1 2.45 2.45 9.8 ns

Desvio 1 0.25 0.25

Total 3 8.75

Como F calculado é menor do que o F Tabelado (5%, 2, 1) = 199,5


(ANEXO 14.1), então não se rejeita H0 de que a regressão é não signifi-
cativa ( H 0 : βi = 0 ). Se rejeitasse H0 significaria que temos pelo menos
uma variável explicativa que contribui significativamente para o modelo.
O coeficiente de determinação é estimado pela seguinte ex-
pressão:

361
estatística experimental no rbio

100 SQ Re g 100 x8.5


=R2 = = 0.9714 ou 97.14%
SQTo 8.75

Calcula-se, neste programa, o coeficiente de determinação


ajustado, por meio de

( n − 1) ( ) 1 − 0.971 =
4 −1
2
Rajustado 1−
=
n− p
(1− R ) =
1− 2

4−2
( ) 0.9143 ou 91.43%
2

O teste de hipótese para os coeficientes de regressão:


A hipótese H 0 : β 0 = 0 vs H a : β 0 ≠ 0 é avaliada por meio de

βˆi − βi 90.25 − 0
=t = = 108.84
QMDxCii 0.25 x 2.75

A hipótese H 0 : β 1 = 0 vs H a : β 1 ≠ 0 é avaliada por meio de

βˆi − βi 0.0166 − 0
=t = = 0.4476
QMDxCii 0.25 x0.0055

A hipótese H 0 : β 2 = 0 vs H a : β 2 ≠ 0 é avaliada por meio de

βˆi − βi 0.2333 − 0
=t = = 3.13
QMDxCii 0.25 x0.0222

Os valores encontrados são comparados com os valores tabe-


lados (ANEXO 14.2) ttabelado (0.025, 1) = 12.706. Como valores de t para
os parâmetros b1 e b2 são menores que os valores tabelado, então não
rejeita H0, e estes coeficiente são estatisticamente iguais a zero.

362
estatística experimental no rbio

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização desse procedimento o caminho é: Estatística
Básica > Regressão > Múltipla, conforme a Figura 14.2.

363
estatística experimental no rbio

Figura 14.2. Software Rbio, e rotina de procedimentos para realizar a análise de


Regressão Múltipla.

364
estatística experimental no rbio

# -----------------------------------
# Script 14: Regressao
# -----------------------------------
# ----------------------
# 14.2- Regressao Múltipla
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo7.txt”,header=T)
X

germinacao.Y UR.X1 Temp.X2


1 92 20 5
2 94 30 15
3 93 40 10
4 96 50 20

Y<-X[,1] # variável dependente


regressao<-lm(Y~., X[,-1])

cat(“\n”,”--Analise de Variancia da regressao: “,”\n”)


print(anova(regressao))

Analysis of Variance Table

Response: Y
Df Sum Sq Mean Sq F value Pr(>F)
UR.X1 1 6.05 6.05 24.2 0.1277
Temp.X2 1 2.45 2.45 9.8 0.1968
Residuals 1 0.25 0.25

print(summary(regressao))

Call:
lm(formula = Y ~ ., data = X[, -1])

Residuals:
1 2 3 4
0.25 -0.25 -0.25 0.25

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 90.25000 0.82916 108.846 0.00585 **
UR.X1 0.01667 0.03727 0.447 0.73228
Temp.X2 0.23333 0.07454 3.130 0.19684
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.5 on 1 degrees of freedom


Multiple R-squared: 0.9714,Adjusted R-squared: 0.9143
F-statistic: 17 on 2 and 1 DF, p-value: 0.169

365
estatística experimental no rbio

14.3. Regressão Polinomial

Nem sempre os dados são possíveis de ser ajustados através


de uma equação de reta, pois eles podem possuir um comportamento
polinomial, seja por exemplo x2, x3. Nestes casos é necessário ajustar
um modelo polinomial, ou seja, que possua grau superior a 1.
A regressão polinomial pode ser vista como uma generalização
da regressão linear. Para isso, podemos ver a regressão linear simples
como o ajuste de um polinômio de grau um. Assim, ao invés de ajustar-
mos a função Y = b0 + b1x + e, utiliza-se y = b0 + b1x + b2x2 + ... + bkxk + e.
em que, Y é o vetor das observações; X1, X2, ..., Xk as potências
de X; e o vetor de erros aleatórios (resíduos); b1, b2, ..., bk são os parâ-
metros do modelo.

A análise de variância é esquematizada como:

F.V. G.L. S.Q. Q.M. F p-value

QM(Mod.) /
Modelo k SQ(Mod.) QM(Mod.) p
QM(Res.)

Resíduo N-k-1 SQ(Res.) QM(Res.)

Total N-1 SQ(Tot.)

F.V. – Fontes de Variação, G.L. – Graus de Liberdade, S.Q. –


Somas de Quadrados, Q.M. – Quadrados Médios, N – Número de
observações, k – número de variáveis independentes.

A estatística F testa a hipótese: H0: β1 = β2 =, ..., βk = 0 vs H1: βi ≠ βi ´,


para algum i ≠ i´.
O valor p (p-value) é obtido supondo que a estatística F tem
uma distribuição F central com K e N-k-1 graus de liberdade. Essa
pressuposição é válida se os erros forem iid -independentes e identica-
mente distribuídos, com distribuição normal N (0,s2).

366
estatística experimental no rbio

A forma de solucionar as equações de regressão polinomial são


semelhantes as já abordadas na regressão múltipla, utilizando álgebra
de matrizes.
Para determinar o grau do polinômio deve-se usar critérios
estatísticos. O critério mais usado consiste em desdobrar os graus de
liberdade do modelo em partes. Verificar se o grau do polinômio é
1 (primeiro grau). Se o Desvio de Regressão for significativo, é que o
polinômio tem grau superior a 1. Assim sendo verifica-se se o grau é
2. Verificar se o grau do polinômio é 2 (segundo grau). Se o Desvio de
Regressão for significativo, é que o polinômio tem grau superior a 2.
Assim sendo verifica-se se o grau é 3. Repete-se o processo até obter o
Desvio de Regressão não significativo.
Serão abordados a seguir a forma de proceder a análise de
regressão polinomial, com e sem repetição.

Regressão polinomial a aplicada a dados sem repetição

Inicialmente considera-se os dados da tabela 14.6, que é um


experimento sem repetição, e a equação polinomial de regressão é
Y=β0+β1x+β2x2 + ε.

Tabela 14.6. Dados envolvendo % de germinação de sementes com diferentes


umidades relativa do ar de secagem.
% U.R. (X1) 20 30 40 50

% germinação (Y) 92 94 93 96

A primeira maneira de se realizar a análise é fazendo uso de


álgebra de matrizes, conforme foi mostrado na regressão múltipla.

367
estatística experimental no rbio

Sob forma matricial, têm-se:

92  1 20 400   ε1 
94  1   β0  ε 
30 900   
  X = β =  β1  e ε =  
2
Y=
93 ; 1 40 1600 
; ε 3 
     β 2   
96  1 50 2500  ε 4 

Para resolvermos a regressão, precisa-se obter outras matrizes


auxiliares, sendo elas: X’, (X’X)-1, X’Y, b’(X’Y), Y’Y.

 1 1 1 1 

X ′ =  20 30 40 50 
 400 900 1600 2500 

 4 140 5400 

X ′X =  140 5400 224000 
5400 224000 9780000 

 32.9500 −1.99500 0.027500 


 −1.99500 0.12450 −0.001750 
−1
(X ' X ) =
 
 0.0275 −0.00175 0.000025 

 375 
X ' Y =  13180 
510200 

 92.6500 
β = ( X ' X ) ( X ' Y ) =  −0.0650 
ˆ −1

 0.0025 

368
estatística experimental no rbio

βˆ ' ( X ' Y ) = [35162.55]

Y ' Y = [35165]

Sendo assim, tem-se:

 βˆ0   92.6500 
   −0.0650 
βˆ = ( X ' X ) −1 ( X ' Y ) =  βˆ1  =  
ˆ   0.0025 
 β 2 

Y. 2 3752
C =
= = 35156.25
n 4

SQ Re
= g βˆ ' X ' Y =
− C 35162.55 − 35156.25
= 6.3

Y ' Y − βˆ ' X ' Y =


SQDesvio = 2.45
35165 − 35162.55 =

SQTo= Y ' Y − C= 35165 − 35156.25= 8.75

A análise da variância da regressão para o exemplo anterior fica:

FV GL SQ QM F

Regressão 2 6.3 3.15 1.286ns

Desvio 1 2.45 2.45

Total 3 8.75

369
estatística experimental no rbio

Como F calculado é menor do que o F Tabelado (5%, 2, 1) =


199,5 (ANEXO 14.1), então não se rejeita H0 de que a regressão é
significativa. Se rejeitasse H0 significaria que temos pelo menos uma
variável explicativa que contribui significativamente para o modelo.
O coeficiente de determinação é estimado pela seguinte ex-
pressão:

100 SQ Re g 100 x6.3


=R2 = = 72%
SQTo 8.75

Para os testes de hipóteses, lembrar que, Cii refere-se ao elemen-


to da diagonal principal da matriz (X’X)-1 referente ao parâmetro a ser
testado, ou seja, para avaliar b0 será o elemento 11, para avaliar b1 será
o elemento 22, para avaliar b2 será o elemento 33, e assim por diante
O teste de hipótese para os coeficientes de regressão:
A hipótese H 0 : β 0 = 0 vs H a : β 0 ≠ 0 é avaliada por meio de

βˆi − βi 92.65 − 0
=t = = 10.3118
QMDxCii 2.45 x32.95

Os valores de t abaixo estão errados, apesar dos valores do b


estarem certos
A hipótese H 0 : β1 = 0 vs H a : β1 ≠ 0 é avaliada por meio de

βˆi − βi −0.0650
t= = = −0.118
QMDxCii 2.45 x0.12450

A hipótese H 0 : β 2 = 0 vs H a : β 2 ≠ 0 é avaliada por meio de

370
estatística experimental no rbio

βˆi − βi 0.0025 − 0
=t = = 0.319
QMDxCii 2.45 x0.000025

Os valores encontrados são comparados com os valores Tabe-


lados (ANEXO 14.2) ttabelado (0.025, 1) = 12.706. Como valores de t para
os parâmetros b0, b1 e b2 são menores que os valores tabelado, então
não rejeita H0, e estes coeficiente são estatisticamente iguais a zero.
Alternativamente pode-se usar a análise via coeficientes de
polinômios ortogonais, disponíveis em livros estatísticos (ver Pimen-
tel-Gomes (2000), página 252). Nesse caso as análises disponíveis são
feitas da seguinte forma:

(∑ Y ) 2 3752
;C
35165=
375 ; ∑ Yi 2 =
∑Y = = = 35156.25
n 4

SQTotal =∑ Yi 2 − C =35165 − 35156.25 =8.75

Para a decomposição da Regressão na fonte de variação linear


e quadrático, usamos os coeficientes apresentados na tabela abaixo e
extraídos do livro de Pimentel-Gomes (2000).
Para isso tem-se:

% U.R. (X) % germinação (Y) Coeficientes (c1) Coeficientes (c2)

20 92 -3 1

30 94 -1 -1

40 93 1 -1

50 96 3 1

K= 20 K= 4

371
estatística experimental no rbio

2
( −3 x92 ) + ( −1x94 ) 
 
( ∑ C1Y )  + (1x93) + ( 3 x96 ) 
2
112
SQLinear
= = = = 6.05
k1 20 20

2
(1x92 ) + ( −1x94 ) 
 
( ∑ C2Y )  + ( −1x93) + (1x96 ) 
2
12
SQQuadrática
= = = = 0.25
k2 4 4

Portanto o quadro da regressão completo fica:

FV GL SQ QM F

Regressão 2 6.3 3.15 1.286ns

Reg. Linear 1 6.05 6.05 2.47 ns

Reg. quadrática 1 0.25 0.25 0.10 ns

Resíduo 1 2.45 2.45

Total 3 8.75

Caso no exemplo anterior, tivesse obtido a Regressão significa-


tiva, seria necessário então fazer o desdobramento. Inicialmente faria
o desdobramento em Regressão Linear e o restante seria desvio da
Regressão, nessa situação teríamos como fontes de variação, a regres-
são linear, o desvio da regressão e o resíduo. Testa então o desvio da
regressão com o resíduo, se esse fosse significativo, seria necessário
continuar os desdobramentos até que encontrasse um desvio da re-
gressão não significativo.

Regressão polinomial a aplicada a dados com repetição

Para proceder esta análise faremos uso do método de polinô-


mios ortogonais apresentados anteriormente.

372
estatística experimental no rbio

Para exemplificar será utilizado os dados apresentados na Tabela


14.7, porém vamos considerar que os tratamentos são fatores quantita-
tivos, por exemplo, nível de uma formulação de adubo, sendo aplicado,
1kg, 2kg, e 3kg dessa formulação e foi medido o peso de grãos.

Tabela 14.7. Avaliação de uma variável agronômica simulada.


Repetições
Tratamentos Total Média
I II

1 66.98 75.61 142.59 71.295

2 113.77 126.24 240.01 120.005

3 71.87 87.53 159.4 79.7

Total 252.62 289.38 542

Média 84.20667 96.46 90.333

O resumo da análise de variância é apresentado a seguir (Ta-


bela 14.8).

Tabela 14.8. Resultado da análise de variância da variável agronômica simulada,


considerando delineamento inteiramente ao acaso.
FV GL SQ QM F

Regressão 2 2711.867 1355.9 17.11*

Resíduo 3 237.6067 79.2

Total 5 2949.474
*: significativo a 5% de probabilidade pelo teste F.

Verifica-se, portanto, que a regressão foi significativa (Fcal >


Ftab = 9.55), portanto, é necessário fazer a decomposição dessa fonte
de variação. Como a regressão possui 2 graus de liberdade podemos
ir até o grau quadrático. Se tivéssemos mais graus de liberdade po-
deríamos avaliar até o momento que o desvio da regressão fosse não
significativo. Para nosso caso temos:

373
estatística experimental no rbio

Doses Produção Total Coeficientes (c1) Coeficientes (c2)

1 142.59 -1 1

2 240.01 0 -2

3 159.4 1 1

K= 2 K= 6

2
( −1x142.59 ) + ( 0 x 240.01) 
 
( ∑ C1Y )  + (1x159.4 )
2

SQLinear
= =  
r k1 2 x2
16.812
= = 70.64
4

Dessa forma a análise de variância fica:

FV GL SQ QM F

Regressão 2 2711.867 1355.9 17.11*

Reg. Linear 1 70.64 70.64 0.892ns

Desvio da Regressão 1 2641.227 2641.227 33.34*

Resíduo 3 237.6067 79.2

Total 5 2949.474

Verifica-se que a regressão linear não foi significativa e o desvio


da regressão foi significativo. Nesse caso deve-se desdobrar o desvio
da regressão na regressão quadrática. Na verdade, como só se tem
1 grau de liberdade para o desvio da regressão este já é a regressão
quadrática, mas caso existissem mais graus de liberdade, este deveria
ser o procedimento adotado. Avaliar a significância da regressão e do
desvio da regressão, e segue-se até encontrar um desvio de regressão
não significativo. Se utilizássemos o procedimento com os coeficientes
dos polinômios ortogonais teríamos:

374
estatística experimental no rbio

Portanto se for realizado o desdobramento da anova tem-se:

2
(1x142.59 ) + ( −2 x 240.01) 
 
( ∑ C2Y )  + (1x159.4 )
2

SQQuadrático
= =
r k2 2 x6
−178.032
= = 2641.22
12

FV GL SQ QM F

Regressão 2 2711.867 1355.9 17.11*

Reg. Linear 1 70.64 70.64 0.892ns

Reg. Quadrática 1 2641.22 2641.22 33.34*

Resíduo 3 237.6067 79.2

Total 5 2949.474

Pode-se obter os coeficientes da regressão sendo:

375
estatística experimental no rbio

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Existem opções com arquivos oriundos de experimentos com
repetição, ou regressão baseada em arquivos sem repetições. Tais pro-
cedimentos estão em locais diferentes do software conforme ilustrado.
Regressão polinomial a aplicada a dados sem repetição:
Para a realização desse procedimento o caminho é: Estatística
Básica > Regressão > Polinomial, conforme a Figura 14.3. É importante
salientar que nesse procedimento por padrão é realizado a análise da
regressão polinomial até o grau 3. Para exemplos, como foi o realizado
no material, existia apenas 2 graus de liberdade para a regressão, pois
os dados vieram de 4 informações, sendo assim só é possível realizar
a regressão até grau 2. Usando conjunto de dados pequeno assim vai
dar erro nesse processamento. O script disponibilizado abaixo, contém
até o grau calculado, e portanto, pode ser processado perfeitamente.

376
estatística experimental no rbio

Figura 14.3. Software Rbio, e rotina de procedimentos para realizar a análise de


Regressão Polinomial sem repetição.

# ----------------------
# 14.3- Regressao Polinomial
# ----------------------
# ----------------------
# 14.3.1 - Regressao Polinomial: dados sem repetição
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo6.txt”,header=T)
X
germinacao.Y. UR.X.
1 92 20
2 94 30
3 93 40
4 96 50
Y<-X[,1]
variavelx <- X[,2]
# ------
regressao1<-lm(Y ~ variavelx)
cat(“\n”,”--Analise de Variancia da regressao: “,”\n”)
print(anova(regressao1))
Analysis of Variance Table
Response: Y
Df Sum Sq Mean Sq F value Pr(>F)
variavelx 1 6.05 6.05 4.4815 0.1685
Residuals 2 2.70 1.35
print(summary(regressao1))

377
estatística experimental no rbio

Call:
lm(formula = Y ~ variavelx)

Residuals:
1 2 3 4
-0.1 0.8 -1.3 0.6

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 89.90000 1.90919 47.088 0.000451 ***
variavelx 0.11000 0.05196 2.117 0.168478
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 1.162 on 2 degrees of freedom


Multiple R-squared: 0.6914,Adjusted R-squared: 0.5371
F-statistic: 4.481 on 1 and 2 DF, p-value: 0.1685

coef1<-regressao1$coefficients
coef1
(Intercept) variavelx
89.90 0.11

# ------
regressao2<-lm(Y ~ variavelx + I(variavelx^2))

cat(“\n”,”--Analise de Variancia da regressao: “,”\n”)


print(anova(regressao2))

Analysis of Variance Table

Response: Y
Df Sum Sq Mean Sq F value Pr(>F)
variavelx 1 6.05 6.05 2.4694 0.3608
I(variavelx^2) 1 0.25 0.25 0.1020 0.8032
Residuals 1 2.45 2.45

print(summary(regressao2))

Call:
lm(formula = Y ~ variavelx + I(variavelx^2))

Residuals:
1 2 3 4
-0.35 1.05 -1.05 0.35

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 92.650000 8.984848 10.312 0.0615 .
variavelx -0.065000 0.552291 -0.118 0.9254
I(variavelx^2) 0.002500 0.007826 0.319 0.8032
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 1.565 on 1 degrees of freedom


Multiple R-squared: 0.72,Adjusted R-squared: 0.16
F-statistic: 1.286 on 2 and 1 DF, p-value: 0.5292

coef2<-regressao2$coefficients
coef2
(Intercept) variavelx I(variavelx^2)
92.6500 -0.0650 0.0025

378
estatística experimental no rbio

Regressão polinomial a aplicada a dados com repetição

Para a realização desse procedimento o caminho é: ANOVA >


ANOVA e Regressão, conforme a Figura 14.4. É importante salientar
que o usuário deverá desmarcar a opção Fatores Qualitativos, dessa
forma o procedimento é realizado obtendo a análise de regressão.

379
estatística experimental no rbio

Figura 14.4. Software Rbio, e rotina de procedimentos para realizar a análise de


Regressão Polinomial com repetição.

# -----------------------------------
# Script 14: Regressao
# -----------------------------------
# ----------------------
# 14.3.2 - Regressao Polinomial: dados com repetição
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo1.txt”,header=T)
X
Trat Rep Variavel
1 1 1 66.98
2 1 2 75.61
3 2 1 113.77
4 2 2 126.24
5 3 1 71.87
6 3 2 87.53
library(ExpDes.pt)
data=X
attach(X)
Trat<-(X[,1])
dic(Trat, X[,3], quali = FALSE)
------------------------------------------------------------------------
Quadro da analise de variancia
------------------------------------------------------------------------
GL SQ QM Fc Pr>Fc
Tratamento 2 2711.87 2 17.12 0.022865
Residuo 3 237.61 3
Total 5 2949.47 1
------------------------------------------------------------------------
CV = 9.85 %

380
estatística experimental no rbio

------------------------------------------------------------------------
Teste de normalidade dos residuos
Valor-p: 0.2046456
De acordo com o teste de Shapiro-Wilk a 5% de significancia, os residuos podem ser considerados
normais.
------------------------------------------------------------------------

------------------------------------------------------------------------
Teste de homogeneidade de variancia
valor-p: 0.890172
De acordo com o teste de bartlett a 5% de significancia, as variancias podem ser consideradas
homogeneas.
------------------------------------------------------------------------

Ajuste de modelos polinomiais de regressao


------------------------------------------------------------------------

Modelo Linear
========================================
Estimativa Erro.padrao tc valor.p
----------------------------------------
b0 81.9283 9.6126 8.5230 0.0034
b1 4.2025 4.4498 0.9444 0.4146
----------------------------------------

R2 do modelo linear
--------
0.026050
--------

Analise de variancia do modelo linear


===========================================================
GL SQ QM Fc valor.p
-----------------------------------------------------------
Efeito linear 1 70.6440 70.6440 0.89 0.41463
Desvios de Regressao 1 2,641.2230 2,641.2230 33.35 0.01032
Residuos 3 237.6067 79.2022
-----------------------------------------------------------
------------------------------------------------------------------------

Modelo quadratico
=========================================
Estimativa Erro.padrao tc valor.p
-----------------------------------------
b0 -66.4300 27.4303 -2.4218 0.0940
b1 182.2325 31.1485 5.8505 0.0100
b2 -44.5075 7.7072 -5.7748 0.0103
-----------------------------------------

R2 do modelo quadratico
-
1
-

Analise de variancia do modelo quadratico


===========================================================
GL SQ QM Fc valor.p
-----------------------------------------------------------
Efeito linear 1 70.6440 70.6440 0.89 0.41463
Efeito quadratico 1 2,641.2230 2,641.2230 33.35 0.01032
Desvios de Regressao 0 0 0 0 1
Residuos 3 237.6067 79.2022
-----------------------------------------------------------
------------------------------------------------------------------------

381
estatística experimental no rbio

ANEXO 14.1. Tabela da Distribuição F ao nível de 5% de probabilidade com v1 graus


de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 161.45 199.5 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85
12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6
15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3
23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25
25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2
28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08

382
estatística experimental no rbio

ANEXO 14.2. Tabela da distribuição t de Student, com nível de significância α e gl


graus de liberdade.
Nível de significância
gl 0.1 0.05 0.025* 0.01 0.005
1 3.078 6.314 12.706 31.821 63.657
2 1.886 2.920 4.303 6.965 9.925
3 1.638 2.353 3.182 4.541 5.841
4 1.533 2.132 2.776 3.747 4.604
5 1.476 2.015 2.571 3.365 4.032
6 1.440 1.943 2.447 3.143 3.707
7 1.415 1.895 2.365 2.998 3.499
8 1.397 1.860 2.306 2.896 3.355
9 1.383 1.833 2.262 2.821 3.250
10 1.372 1.812 2.228 2.764 3.169
11 1.363 1.796 2.201 2.718 3.106
12 1.356 1.782 2.179 2.681 3.055
13 1.350 1.771 2.160 2.650 3.012
14 1.345 1.761 2.145 2.624 2.977
15 1.341 1.753 2.131 2.602 2.947
16 1.337 1.746 2.120 2.583 2.921
17 1.333 1.740 2.110 2.567 2.898
18 1.330 1.734 2.101 2.552 2.878
19 1.328 1.729 2.093 2.539 2.861
20 1.325 1.725 2.086 2.528 2.845
21 1.323 1.721 2.080 2.518 2.831
22 1.321 1.717 2.074 2.508 2.819
23 1.319 1.714 2.069 2.500 2.807
24 1.318 1.711 2.064 2.492 2.797
25 1.316 1.708 2.060 2.485 2.787
26 1.315 1.706 2.056 2.479 2.779
27 1.314 1.703 2.052 2.473 2.771
28 1.313 1.701 2.048 2.467 2.763
29 1.311 1.699 2.045 2.462 2.756
30 1.310 1.697 2.042 2.457 2.750
40 1.303 1.684 2.021 2.423 2.704
50 1.299 1.676 2.009 2.403 2.678
60 1.296 1.671 2.000 2.390 2.660
120 1.289 1.658 1.980 2.358 2.617
∞ 1.282 1.645 1.960 2.326 2.576
* mais usada. Entra-se com α/2; portanto se deseja teste a 5%, entra com 0.05/2=0.025

383
15

ANÁLISE DE COVARIÂNCIA (ANCOVA)

Na experimentação normalmente é necessário que seja feita a


análise para duas ou mais variáveis. Geralmente tem-se uma variável
principal Y e variáveis secundárias X1, X2, ... que são denominadas
covariáveis. Considerando a existência de correlação entre todas estas
variáveis, pode ser importante realizar a análise de covariância.
Incluir as covariáveis no modelo resulta numa redução do erro
experimental, resultando em teste estatístico mais poderoso para o
modelo, uma vez que a variação da covariável é removida do resíduo.
Outra potencialidade é ajustar as médias dos tratamentos em função
das médias das covariáveis, além de, ajudar na interpretação dos resul-
tados experimentais estimando correlações genéticas.
Considerando um experimento com x tratamento e v variáveis,
a análise de covariância pode ser utilizada de forma a testar simulta-
neamente as v variáveis que são correlacionadas, portanto passa a ser
uma análise de variância multivariada e não uma análise de variância.
Nesse sentido essa análise procede uma correção entre as variáveis
dependentes que torna este procedimento mais vantajoso na avalia-
ção dos tratamentos.
Uma importante utilização da ANCOVA é ajustar as médias dos
tratamentos para a variável Y, fazendo com que normalmente ocorra

384
estatística experimental no rbio

um aumento da precisão do experimento, diminuindo o erro experi-


mental. A precisão da média é fornecida pelo seu erro padrão obtido
s
por , em que s é o desvio padrão e r o número de repetições. A
r
análise de covariância pode ser utilizada para ajustar as médias em
função de pequenas diferenças que ocorrem, como tamanho de estan-
de, peso ao nascer.
Porém esta análise só pode ser utilizada se algumas pressupo-
sições forem atendidas:

1. A covariável não for afetada pelos tratamentos, ou seja,


deve ser independente dos tratamentos e desprovida de
erro. Para certificar-se disso deve-se realizar a análise de
variância para a covariável, e verificar se existe diferença
significativa entre os tratamentos, em caso negativo, con-
clui-se que a variação foi aleatória, e, portanto, a análise
de covariância deve ser aplicada para ajustar as médias dos
tratamentos para a outra variável de interesse.
2. O resíduo deve ser normalmente distribuído com média
zero e variância comum.

Para exemplificar será considerado um experimento com três


tratamentos e duas repetições, e duas variáveis conforme os dados da
Tabela 15.1. Considera-se que a variável 1 seja uma variável quantita-
tiva como produtividade, e a variável 2 seja por exemplo, número de
plantas por parcela a ser considerada como covariável. Verifique que
nessa mesma tabela foi representada uma variável 3 que nada mais é
que a soma dos valores das variáveis 1 e 2.

385
estatística experimental no rbio

Tabela 15.1. Avaliação de duas variáveis agronômicas simuladas em delineamento


de blocos ao acaso, sendo a variável 2 (X) a covariável.
Tratamentos Blocos Variável 1 (Y) Variável 2 (X) Variável 3 (1+2)

1 1 66.98 28 94.98

1 2 75.61 22 97.61

2 1 113.77 30 143.77

2 2 126.24 26 152.24

3 1 71.87 17 88.87

3 2 87.53 24 111.53

O modelo estatístico para esta análise é:

Yij = m + ti + rj + b(xij - x ) + eij

em que:

Yij : é a variável dependente obtida no tratamento i no bloco j


µ : média geral do ensaio;
ti: efeito do i-ésimo genótipo
rj: efeito do j-ésimo bloco
b: coeficiente de regressão linear entre x e y
xij: é a variável independente, número de plantas, obtida no
tratamento i e no bloco j
x : é a média da variável x
eij: erro aleatório

O modelo sem a ancova seria: Yij = m + ti + rj + eij, portanto


foi acrescentado o componente b(xij - x ). Sendo assim, quando se
tem uma grande variação na covariável, e os dois caracteres x e y são
associados, esta análise reduzirá a estimativa do componente eij, me-
lhorando a precisão experimental.

386
estatística experimental no rbio

A ANOVA convencional, sem a ANCOVA, para as variáveis é


obtida por:
Variável Y:

Y..2 5422
C =
= = 48960.67
tr 3.2

t r
SQTotal
= (Y ) ∑∑Y =
−C
=i 1 =j 1
ij
2
66.982 + 75.612 +…+ 87.532

−48960.6 =
2949.474

1 t 2 1 
SQTrat=
(Y ) ∑
r i =1
Yi. =
2
(
− C  x 142.592 + 240.012 + 159.42 

)
−48960.6 =2711.867

1 r 2 1 
SQBlocos
= ∑
(Y )
t j =1
Y. j . =
3
(
− C  x 252.622 + 289.382 

)
−48960.6 =
225.283

SQRes(Y ) = SQTotal − SQTrat − SQBlocos


= 2949.474 − 2711.867 − 225.283 = 12.3237

Variável X:

Y..2 147 2
C
= = = 3601.5
tr 3.2

t r
SQTotal (=
X) ∑∑Y
=i 1 =j 1
ij
2
C 282 + 222 +…+ 242
−=

−3601.5 =
107.5

387
estatística experimental no rbio

1 t 2 1 
SQTrat=
(X )∑
r i =1
− C  x 502 + 562 + 412 
Yi. =
2 
( )
−3601.5 =
57

1 r 2 1 
SQBlocos=
(X )∑
t j =1
− C  x 752 + 722 
Y. j . =
3 
( )
−3601.5 =
1.5

SQRes( X ) = SQTotal − SQTrat − SQBlocos


= 107.5 − 57 − 1.5= 49

É necessário ainda obter as Somas de Produtos para cada


fonte de variação, sendo que esta é obtida de forma similar ao que
foi anteriormente. Alternativamente pode-se obter as somas de pro-
dutos através dos produtos do grau de liberdade da fonte testada e o
Produto médio obtido para a referida fonte de variação, porém para
esta obtenção, deve-se proceder a análise de variância de uma variável
auxiliar X+Y, tal procedimento será mostrado posteriormente.

r
Y.. X ..
SPTotal ( XY )= ∑Y X
j =1
ij ij −
tr
= 66.98 x 28 + 75.61x 22

542 x147
+…+ 87.53 x 24 − = 277.71
3X 2

1 r Y X .. 1
SPBlocos( XY
= ) ∑ Y. j X . j − .. = ( 252.62 x75 + 289.38 x72 )
t j =1 tr 3
542 x147
− −18.38
=
3X 2

388
estatística experimental no rbio

1 r Y X .. 1 142.59 x50 + 240 x56 


SPTrat ( XY
= ) ∑
r j =1
Yi. X i. − .. =
tr

2  +159.4 x 41


542 x147
− 273.73
=
3X 2

SPRes( XY ) = SPTotal ( XY ) − SPTrat ( XY ) − SPBlocos( XY )


= 277.71 − 273.73 − ( −18.38
= ) 22.36

SPS ( XY ) = SPTrat ( XY ) + SPRes( XY ) = 273.73 + 22.36 = 296.09

Com base nessas informações pode-se montar a tabela com a


saída da anova para as referidas variáveis. O resultado está apresenta-
do na Tabela 15.2.

Tabela 15.2. Resultado da análise de variância das variáveis agronômicas


apresentadas na Tabela 15.1.
Y X XY
FV
GL SQ QM SQ QM SP PM

Blocos 1 225.2 225.2 1.5 1.5 -18.38 -18.38

Tratamentos (T) 2 2711.8 1355.9 57 28.5 273.73 136.88

Resíduo (R) 2 12.4 6.2 49 24.5 22.36 11.18

Total 5 2949.4 589.9 107.5 21.5 277.71 55.54

T+R=S 4 2724.2 106 296.09

Com base na tabela acima pode-se obter a análise de variância


de Y ajustado para X:

389
estatística experimental no rbio

SQR= SQR(Y) – (SPR(XY)2 / SQR(X)) = 12.4– (22.362 /49) = 2.19


SQT= SQS(Y) – (SPS(XY)2 / SQS (X)) = 2724.1– (296.12 /106) = 1896
QMT= SQT/GLT = 1897.13/2 =948.56
QMR= SQR/(GLR-1) = 2.19/1 = 2.19
Fc= QMT/ QMR = 948.56/ 2.19 = 433.13

É importante salientar que ocorre a perda de 1 grau de liberda-


de do resíduo após esta correção.
A tabela resumida para a saída da análise de variância de Y
ajustado para X é:

FV GL SQ QM F

Tratamento 2 1896 948 433*

Resíduo 1 2.19 2.19


*: Significativo a 5% pelo teste F

Pode-se comparar a saída anterior com a análise de variância


de Y sem a análise de covariância. Nesse caso a saída seria:

FV GL SQ QM F

Blocos 1 225.283 225.283

Tratamento 2 2711.867 1355.9 218.87*

Resíduo 2 12.32 6.2

Total 5 2949.474
*: Significativo a 5% pelo teste F

Verifique que houve uma grande diferença nas somas de


quadrados dos tratamentos das duas saídas, sendo que os valores
ajustados foram consideravelmente inferiores, isso mostra que parte
da variação observada na variável Y entre os tratamentos era atribuída
às diferenças dos números de plantas.

390
estatística experimental no rbio

O coeficiente de regressão linear (bxy) para o erro é dado por:


SPRes( XY ) 22,36
bXY
= = = 0.4563
SQResX 49

A soma de quadrados atribuídas a regressão é dada por:

( SPRes( XY ) ) 2 22.362
SQRegressão
= bXY SP= Res ( XY )
= = 10.20
SQResX 49

A soma de quadrados dos desvios da regressão é dada por:

SQDesvio Reg = SQResY − SQRegressão = 12.3237 −10.20 = 2.12

Dessa forma pode-se apresentar o quadro da saída da ANCOVA


mais completo, de Y ajustado para X:

FV GL SQ QM F

Covariável 1 10.20 10.20 4.66

Tratamento 2 1896 948 433*

Resíduo 1 2.19 2.19


*: Significativo a 5% pelo teste F

A Eficiência da análise de covariância é dada por:

QM ResY sem corrigir


Eficiência =
QM ResY corrigido

É importante salientar que este valor corrigido não é apenas ao


obtido na análise apresentada acima, é necessário proceder um ajuste
desde valor, admitindo o erro amostrar no coeficiente de regressão.

391
estatística experimental no rbio

Ajuste doQM ResY corrigido = QM ResY corrigido


 SQTratX   57 
1 + =2,19 1 + =3, 46
 ( t − 1) SQResX   ( 3 − 1) 49 

QM ResY sem corrigir 6.2


Eficiência
= = = 1.79 ou 179%
QM ResY corrigido 3.46

Isso indica que usando a covariância 100 repetições seriam tão


eficientes quando 179 repetições sem utilizar.
Comparando o coeficiente de variação experimental antes e após
a análise, pode-se inferir sobre a melhoria da precisão experimental.

QM ResY 6.2
CVantes
= cov = = 0.02756 = 2.75%
média 90.33

QM ResY 2.19
CV=
após cov = = 0.01638 = 1.63%
média 90.33

Portanto, fica nítido que o uso da análise de covariância melho-


rou a qualidade experimental, uma vez que o coeficiente de variação
experimental diminui.
Após realizada a análise as médias dos tratamentos devem ser
ajustadas através da expressão:

392
estatística experimental no rbio

Considerando o conjuntado de dados apresentados tem-se:

Y 1 =
Y1. − bXY ( x1. − x.. )
= 71.29 − 0.4563 ( 25 − 24.5 ) = 71.06

Y 2 =
Y2. − bXY ( x2. − x.. )
= 120.05 − 0, 4563 ( 28 − 24.5 ) = 118.45

Y 3 =
Y3. − bXY ( x3. − x.. )
=79.7 − 0, 4563 ( 20,5 − 24.5 ) =81.52

Para proceder a comparação entre as médias ajustadas tem-se:

Vˆ ( mˆ i − mˆ i′ )
DMSTukey = q∝ ( k , GlResíduo )
2

Em que:
qα (k; gl Residuo): Valores da amplitude total estudentizada (q) a um ní-
vel α de probabilidade com k e GLResíduo graus de liberdade (ANEXO 15.1);
r: número de repetições;
k: número de tratamentos;
Vˆ ( mˆ i − mˆ i′ ) : Variância para a diferença entre duas médias
ajustadas de tratamento, sendo obtida por:

 2 ( xi. − xi' ) 2 
Vˆ ( mˆ i −=
mˆ i′ ) QM Res x  + .

 r SQRes ( X ) 
 

393
estatística experimental no rbio

Considerando os dados do exemplo anterior tem-se:

 2 ( 25 − 28 )2 
ˆ
V ( mˆ 1 − m
ˆ 2 ) 2.19 x  +
= =  2.59
2 49 
 

 2 ( 25 − 20.5 )2 
ˆ
V ( mˆ 1 − m
ˆ 3 ) 2.19 x  +
= =  3.09
2 49 
 

 2 ( 28 − 20.5 )2 
ˆ
V ( mˆ 2 − m
ˆ 3 ) 2.19 x  +
= =  4.70
2 49 
 

Para esse exemplo o valor de q5% (3; 1) é: 26.98, sendo assim:

2.59
DMS
= Tukey (1,2 )
26.98
= 30.70
2

3.09
DMS
= Tukey (1,3)
26.98
= 33.53
2

4.70
DMS
= Tukey ( 2,3)
26.98
= 41.35
2

Tratamento Médias Ajustadas

2 118.45 a

3 81.52 ab

1 71.06 b

394
estatística experimental no rbio

Comparações:

m2-m3 = 118.45 – 81.52 = 36.93 < DMS (2,3), portanto m2=m3


m2-m1 = 118.45 – 71.06 = 47.39 > DMS (1,2), portanto m2≠m1
m3-m1 = 81.52 – 71.06 = 10.46 < DMS (1,3), portanto m3=m1

A análise de covariância pode ser usada a fim de melhorar a


interpretação de resultados experimentais. Para a decomposição da
variância e covariância entre caracteres X e Y, realizam-se as análises
de variâncias individuais para cada caráter, segundo um modelo esta-
tístico apropriado, como por exemplo:

Yij = µ + gi + b j + ε ij para experimentos em blocos ao acaso


Yij = µ + gi + ε ij para experimentos inteiramente ao acaso

em que:
µ : média geral do ensaio;
gi: efeito do i-ésimo genótipo
bj: efeito do j-ésimo bloco (para experimentos em blocos ao acaso)
ε ij : erro aleatório

Posteriormente é realizada a análise da soma dos valores de X


e Y, de forma que os produtos médios (covariâncias), associados a cada
fonte de variação, possam ser estimados por meio de:

V ( X + Y ) − V ( X ) − V (Y )
Cov ( X , Y ) =
2

Essa expressão nada mais é do que aplicação direta de uma


propriedade de variância, em que:

V(X+Y) = V(X) + V(Y) + 2COV(X,Y)

395
estatística experimental no rbio

Os componentes de covariância podem ser estimados conhe-


cendo-se a esperança do produto médio das fontes de variações, que
são obtidas de maneira equivalente às esperanças dos respectivos
quadrados médios da análise de variância, sendo necessário apenas
substituir a expressão de variância pela covariância.
Considerando os caracteres Xij e Yij, medidos em g genótipos
ou tratamentos (i = 1,2, ... g), avaliados em blocos ao acaso com r
repetições (j = 1, 2, ..., r), tem-se o esquema da análise de variância
apresentado a seguir:

QM
FV GL X Y X+Y PMXY
Blocos r-1 QMBx QMBy QMBx+y PMBxy
Tratamentos g-1 QMTx QMTy QMTx+y PMTxy

Resíduo (r-1)(g-1) QMRx QMRy QMRx+y PMRxy

Os produtos médios associados a blocos, tratamentos e resíduo


são obtidos por meio das expressões:

QMBx + y − QMBx − QMBy


PMBxy =
2
QMTx + y − QMTx − QMTy
PMTxy =
2
QMRx + y − QMRx − QMRy
PMRxy =
2

Estes produtos médios também podem ser obtidos fazendo a


Soma de Produtos entre as variáveis X e Y e dividindo pelo respectivo
grau de liberdade. Esse procedimento foi relatado anteriormente para
a análise de covariância.
Para exemplificar será considerado um experimento com três
tratamentos e duas repetições, e duas variáveis conforme os dados da
Tabela 15.1 Verifique que nessa mesma tabela foi representada uma
variável 3 que nada mais é que a soma dos valores das variáveis 1 e 2.

396
estatística experimental no rbio

Tabela 15.3. Resultado da análise de variância das variáveis agronômicas


apresentadas na Tabela 15.1.
Y X X+Y PMXY
FV
GL SQ QM SQ QM SQ QM

Blocos 1 225.2 225.2 1.5 1.5 189.96 189.96 -18.37

Tratamentos (T) 2 2711.8 1355.9 57 28.5 3316.33 1658.16 136.88

Resíduo (R) 2 12.4 6.2 49 24.5 106.11 53.05 11.17

Total 5 2949.4 589.9 107.5 21.5 3612.4 722.48 55.54

Os valores da tabela acima já foram apresentados anteriormen-


te, faltando apenas a demonstração da obtenção dos Produtos Médios
e das Somas de Quadrados para a variável X+Y:
Variável X+Y:

Y..2 6892
C =
= = 79120.16
tr 3.2

t r
SQTotal ( X=
+Y ) ∑∑Y
=i 1 =j 1
ij
2
C 94.982 + 97.612
−=

2
+…+111.53 − 79120.16 = 3612.4

1 t 2 1 
SQTrat ( X=
+Y ) ∑
r i =1
Yi. =
2
(
− C  x 192.592 + 296.012 + 200.42 

)
−79120.16 = 3316.33

1 r 2 1 
SQBlocos( X= ∑
+Y )
t j =1
− C  x 327.622 + 361.382 
Y. j =
3 
( )
−79120.16 =
189.96

SQRes( X +Y ) = SQTotal − SQTrat − SQBlocos


= 3612.4 − 3316.33 − 189.96 = 106.11

397
estatística experimental no rbio

Os produtos médios foram obtidos com base nas informações


anteriores, sendo:

PMBxy = (QMBx+y - QMBx - QMBy) / 2= (189.96- 225.2- 1.5)


/ 2 = -18.37
PMTxy = (QMTx+y - QMTx - QMTy) / 2= (1658.16- 1355.9- 28.5)
/ 2 = 136.88
PMRxy = (QMRx+y - QMRx - QMRy) / 2= (53.05- 6.2 – 24.5)
/ 2= 11.17
PMToxy = (QMTox+y - QMTox - QMToy) / 2= (722.48- 589.9-
21.5) / 2= 55.54

Com base nessa análise pode-se obter:

• Estimativa do quadrado médio do erro de X e Y: QMRx e


QMRy
• Estimativa da variância genética de tratamentos de X e Y:
VarGx=QMTx-QMRx/r e VarGy=QMTy-QMRy/r e
• Estimativa da variância fenotípica total de X e Y: QMTx/r e
QMRy/r
• Estimativa da covariância do erro de XY= PMR(xy)
• Estimativa da covariância genética de tratamentos XY =
(PMTxy – PMRxy)/r
• Estimativa da covariância fenotípica total XY= (PMTxy –
PMRxy)/r + PMR(xy)

Esse procedimento apresentado anteriormente será mais


detalhado no capítulo de correlações para estimar as correlações fe-
notípicas, genotípicas e ambientais.

398
estatística experimental no rbio

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização da Análise de Covariância (ANCOVA) o cami-
nho é: Anova > Ancova, conforme a Figura 15.1.

399
estatística experimental no rbio

Figura 15.1. Software Rbio, e rotina de procedimentos para realizar a análise de


covariância.

400
estatística experimental no rbio

# -----------------------------------
# Script 15: Análise de Covariância - ANCOVA
# -----------------------------------

# ----------------------
# 15.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo8.txt”,header=T)
X

Var2X Trat Bloco Var1Y


1 28 1 1 66.98
2 22 1 2 75.61
3 30 2 1 113.77
4 26 2 2 126.24
5 17 3 1 71.87
6 24 3 2 87.53

# ----------------------
# 15.2- Anova em DBC sem correção para a cov
# ----------------------
Trat<-as.factor(X[,2])
Rep<-as.factor(X[,3])

saida<-aov(X[,4]~Rep+Trat)
print(summary(saida))
Df Sum Sq Mean Sq F value Pr(>F)
Rep 1 225.2 225.2 36.35 0.02642 *
Trat 2 2711.9 1355.9 218.87 0.00455 **
Residuals 2 12.4 6.2
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

# ----------------------
# 15.3- Análise para verificar interação cov x trat
# ----------------------
cov<-(X[,1])
saida<-aov(X[,1]~Trat)
print(summary(saida))
Df Sum Sq Mean Sq F value Pr(>F)
Trat 2 57.0 28.50 1.693 0.322
Residuals 3 50.5 16.83

# ----------------------
# 15.4- Análise de covariância em DBC
# ----------------------
library(car)
saida<-aov(X[,4]~cov+Rep+Trat)
saida2<-Anova(saida, type = “III”)
print(saida2)
Anova Table (Type III tests)

Response: X[, 4]
Sum Sq Df F value Pr(>F)
(Intercept) 504.58 1 230.7226 0.04185 *
cov 10.20 1 4.6656 0.27603
Rep 235.11 1 107.5030 0.06121 .
Trat 1895.00 2 433.2479 0.03395 *
Residuals 2.19 1
---
Signif. codes:
0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

401
estatística experimental no rbio

ANEXO 15.1. Valores da amplitude total estudentizada (q) para teste de Tukey a 5% de
probabilidade em função do número de tratamentos e graus de liberdade do resíduo.
GL(resid) Número de grupos no tratamento
2 3 4 5 6 7 8 9 10
1 17.97 26.98 32.82 37.08 40.41 43.12 45.40 47.36 49.07
2 6.08 8.33 9.8 10.88 11.73 12.43 13.03 13.54 13.99
3 4.50 5.91 6.82 7.50 8.04 8.48 8.85 9.18 9.46
4 3.93 5.04 5.76 6.29 6.71 7.05 7.35 7.60 7.83
5 3.64 4.6 5.22 5.67 6.03 6.33 6.58 6.8 6.99
6 3.46 4.34 4.9 5.3 5.63 5.9 6.12 6.32 6.49
7 3.34 4.16 4.68 5.06 5.36 5.61 5.82 6 6.16
8 3.26 4.04 4.53 4.89 5.17 5.4 5.6 5.77 5.92
9 3.2 3.95 4.41 4.76 5.02 5.24 5.43 5.59 5.74
10 3.15 3.88 4.33 4.65 4.91 5.12 5.3 5.46 5.6
11 3.11 3.82 4.26 4.57 4.82 5.03 5.2 5.35 5.49
12 3.08 3.77 4.2 4.51 4.75 4.95 5.12 5.27 5.39
13 3.06 3.73 4.15 4.45 4.69 4.88 5.05 5.19 5.32
14 3.03 3.7 4.11 4.41 4.64 4.83 4.99 5.13 5.25
15 3.01 3.67 4.08 4.37 4.59 4.78 4.94 5.08 5.2
16 3 3.65 4.05 4.33 4.56 4.74 4.9 5.03 5.15
17 2.98 3.63 4.02 4.3 4.52 4.7 4.86 4.99 5.11
18 2.97 3.61 4 4.28 4.49 4.67 4.82 4.96 5.07
19 2.96 3.59 3.98 4.25 4.47 4.65 4.79 4.92 5.04
20 2.95 3.58 3.96 4.23 4.45 4.62 4.77 4.9 5.01
24 2.92 3.53 3.9 4.17 4.37 4.54 4.68 4.81 4.92
30 2.89 3.49 3.85 4.1 4.3 4.46 4.6 4.72 4.82
40 2.86 3.44 3.79 4.04 4.23 4.39 4.52 4.63 4.73
120 2.8 3.36 3.68 3.92 4.1 4.24 4.36 4.47 4.56
>120 2.77 3.31 3.63 3.86 4.03 4.17 4.29 4.39 4.47
∞ 3.64 4.12 4.4 4.6 4.76 4.88 4.99 5.08 5.16

402
16

CORRELAÇÃO

16.1. Correlação de Pearson e Spearman

As análises de correlação permitem estudar o comportamento


conjunto de duas variáveis quantitativas distintas, ou seja, medem o
grau de associação entre duas variáveis X e Y.
Quando duas variáveis tem mesmo sentido, ou seja, ambos
valores aumentam, dizemos que estas têm correlação positiva. Se os
valores de uma variável, em média, crescerem e da outra diminuírem
tem-se correlações negativas. Caso não exista uma definição da direção,
entende-se que a correlação é muito baixa. Deve-se enfatizar que mes-
mo que se tenha correlação positiva é possível identificar pontos que
aumentam para uma variável e diminua para a outra, pois a correlação
mostra valores em média, mas caso tenhamos valores de correlação
igual a unidade (+1 ou -1), nesse caso se for +1 sempre aumentará
os valores das duas variáveis, e o contrário, -1 também indicará que
sempre aumentando uma variável a outra irá diminuir

403
estatística experimental no rbio

Correlação de Pearson

É um valor numérico para medir o grau de associação linear en-


tre duas variáveis. Veja que apenas a relação linear está sendo avaliada
por este coeficiente.
As estimativas dos coeficientes de correlação de Pearson são
obtidas por meio da seguinte expressão:

Cov ( x, y )
r=
V ( X ) V (Y )

em que

Cov(X,Y) = covariância entre X e Y =

( ∑ X )( ∑ Y )
i i 1 i
n n


n =i 1 =
XY −
i i
Cov ( x, y ) =
i =1
n
n −1

V(X) e V(Y) = variâncias de X e de Y, respectivamente.

(∑ X ) (∑ Y )
n 2 n 2

i i =1 i
∑ ∑
n i =1 n
X i2 − Y2
i =1 i

V (X ) =
i =1
n n
, V (Y ) =
n −1 n −1

A hipótese de que o coeficiente de correlação é igual a zero


(H0:ρ=0) é avaliada pela estatística t, dada por:

r n−2
t=
1− r2

404
estatística experimental no rbio

em que t está associado a n-2 graus de liberdade (n é o número


de pares de dados utilizados para o cálculo da correlação) e um nível
de significância α (ANEXO 16.1). É importante salientar que na tabela
entra-se com o valor de α/2.
Considere um experimento simulado com 4 valores diferentes
de umidade relativa do ar de secagem de sementes (UR), e a germina-
ção de sementes. Os dados são apresentados na Tabela 16.1.

Tabela 16.1. Dados envolvendo % de germinação de sementes com diferentes


Umidade relativa do ar de secagem.
% U.R. 20 30 40 50

% germinação 92 94 93 96

Com base nos dados da Tabela 16.1, obtêm-se a tabela auxiliar


(Tabela 16.2) de forma a facilitar os cálculos para a obtenção do coefi-
ciente de correlação.

Tabela 16.2. Tabela auxiliar considerando os dados da Tabela 12.1.


Y X y=Y- Y x=X- X x2 y2 xy

92 20 -1.75 -15 225 3.0625 26.25

94 30 0.25 -5 25 0.0625 -1.25

93 40 -0.75 5 25 0.5625 -3.75

96 50 2.25 15 225 5.0625 33.75

Y = 93.75 X = 35 ∑yi =0 ∑xi =0 ∑x2i = 500 ∑y2i = 8.75 ∑xiyi =55

A correlação entre as duas variáveis é dada por:

405
estatística experimental no rbio

( ∑ X )( ∑ Y )
i i 1 i
n n


n =i 1 =
XY −
i i
Cov ( x, y ) =
i =1
n
n −1

55 −
( 0 )( 0 )
= = 4 18.3333
4 −1

(∑ X ) n 2

(0)
2
i

n 2 i =1
X i − 500 −
V (X )
=
i =1
= n = 4 166.6666
n −1 4 −1

( )
2

∑ i =1Yi
n
(0)
2


n 2
Y
i =1 i
− 8.75 −
V (Y )
= = n = 4 2.9166
n −1 4 −1

Cov ( x, y ) 18.3333
=r = = 0.8315
V ( X ) V (Y ) 166.6666 x 2.9166

Verifica-se que foram utilizados para o cálculo acima os valores


de X e Y ambos codificados (x e y), ou seja, foi realizado a retirada da
média dos valores originais, conforme colunas 3 e 4 da tabela anterior.
Tal artifício não altera os valores obtidos de Cov(x,y), V(x), V(y) e nem
tão pouco da correlação.
A estatística t para avaliar se a correlação é igual a zero é:

r n−2 0.8315 4 − 2
=t = = 2.1167
1− r2 1 − ( 0.8315 )
2

406
estatística experimental no rbio

O valor de t tabelado a 5% (0.025, 2GL) = 4.303. Como o valor


calculado é menor que o valor tabelado portanto não rejeita H0, então
a correlação é estatisticamente igual a 0.
Dois comentários adicionais podem ser feitos aqui, relacionan-
do a correlação de Pearson com a Regressão linear apresentada no
tópico 12. O primeiro é que o valor do coeficiente de determinação
obtido na regressão (R2), nada mais é do que o valor do quadrado da
correlação (r2). O valor do F calculado na Regressão, é o quadrado do
valor de t da correlação (t2).

Correlação de Pearson/ Teste de Mantel

Alternativamente pode-se obter o valor de correlação entre os


dados através de permutação. Esse é o teste de significância de Mantel
baseado em um número s de simulações em que novas estimativas
de correlações são obtidas a partir de um conjunto de informações
das variáveis correlacionadas, nos quais os dados são previamente
embaralhados por critério de permutação.
As s estimativas de correlações são ordenadas e os níveis
críticos de significância, a 1 e 5% de probabilidade, são identificados
considerando os valores limites das estimativas após excluídos os ex-
tremos deste conjunto de valores. Assim, como ilustração, conside-
rando 5000 simulações (s = 5000), para determinação do nível crítico
a 1% de probabilidade deverão ser excluídos as 50 estimativas dos
extremos (25 maiores e 25 menores estimativas de correlação), de
forma que o valor de significância será aquele inferior ao correspon-
dente à ordem 26ª ou superior ao correspondente à ordem 4975ª
deste conjunto de estimativas.

407
estatística experimental no rbio

Correlação de Spearman

A correlação de Spearman mede se houve alteração no ranking


do conjunto de dados, sendo uma correlação não paramétrica, ao
contrário da anterior.
De forma análoga ao procedimento de cálculo das correlações
de Pearson, obtêm-se as correlações de Spearman, por meio da se-
guinte expressão:

∑ di2
r = 1− 6
(
n n2 − 1 )

sendo di a diferença de posto para cada par de observações.


Para o exemplo da Tabela 16.1, pode-se construir a Tabela
16.3 auxiliar.

Tabela 16.3. Tabela auxiliar para a obtenção da correlação de Spearman,


considerando os dados da Tabela 16.1.
Y X Ranking Y Ranking X di di2

92 20 4 4 4-4 = 0 0

94 30 2 3 2-3 = -1 1

93 40 3 2 3-2 = 1 1

96 50 1 1 1-1 = 0 0

∑ di2 2
1− 6
r= 1− 6
= 0.8
=
2
n n −1( )
4 42 − 1 ( )

408
estatística experimental no rbio

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização da correlação de Pearson o caminho é: Estatísti-
ca Básica > Correlação > Correlação de Pearson, conforme a Figura 16.1.

409
estatística experimental no rbio

Figura 16.1. Software Rbio, e rotina de procedimentos para realizar a análise


correlação de Pearson.

410
estatística experimental no rbio

# -----------------------------------
# Script 16: Correlação
# -----------------------------------

# ----------------------
# 16.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo6.txt”, h=T) # Leitura dos dados
X # Listar dados

germinacao.Y. UR.X.
1 92 20
2 94 30
3 93 40
4 96 50

# ----------------------
# 16.2- Correlação de Pearson
# ----------------------

variavely<-(X[,1])
variavelx<-(X[,2])
Pearson<-cor.test(variavelx,variavely,method=”pearson”,alternative=”two.sided”)
print(Pearson)

Pearson’s product-moment correlation

data: variavelx and variavely


t = 2.117, df = 2, p-value = 0.1685
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
-0.6451325 0.9963561
sample estimates:
cor
0.8315218

Para a realização da correlação de Spearman o caminho é: Não


Paramétrico > Correlações de Spearman e Kendall, conforme a Figura 16.2.

411
estatística experimental no rbio

Figura 16.2. Software Rbio, e rotina de procedimentos para realizar a análise


correlação de Spearman.

412
estatística experimental no rbio

# -----------------------------------
# Script 16: Correlação
# -----------------------------------

# ----------------------
# 16.1- Leitura dos dados
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo6.txt”, h=T) # Leitura dos dados
X # Listar dados

germinacao.Y. UR.X.
1 92 20
2 94 30
3 93 40
4 96 50

# ----------------------
# 16.3- Correlação de Spearman
# ----------------------
variavely<-(X[,1])
variavelx<-(X[,2])
Spearman<-cor.test(variavelx,variavely,method=”spearman”,alternative=”two.sided”)
print(Spearman)

Spearman’s rank correlation rho

data: variavelx and variavely


S = 2, p-value = 0.3333
alternative hypothesis: true rho is not equal to 0
sample estimates:
rho
0.8

16.2. Correlação Parcial

Os coeficientes de regressão e correlação são, muitas vezes


obtidos por meio das relações estabelecidas entre covariâncias e va-
riâncias. Assim, dado duas variáveis aleatórias X e Y a correlação entre
elas é dada por:

Cov ( X , Y )
rXY =
V ( X ) V (Y )

Em certos casos, os coeficientes de correlação simples podem


produzir grandes equívocos a respeito da relação que há entre duas
variáveis, podendo não ser uma medida real de causa e efeito. Assim,
um alto ou baixo coeficiente de correlação entre duas variáveis pode

413
estatística experimental no rbio

ser o resultado do efeito que, sobre essas duas variáveis, tem uma
terceira variável ou um grupo de variáveis.
Uma medida mais informativa sobre a relação entre variáveis é
o coeficiente de correlação parcial, que é estimado removendo-se os
efeitos de outras variáveis sobre a associação estudada.
Estimação dos Coeficientes de Correlação Parcial
Sejam X, Y e Z três variáveis aleatórias e rxy a correlação simples
entre X e Y, que mede a associação entre X e Y, determinada por várias
causas, entre elas as variações em Z. A correlação rxy.z é denominada
correlação parcial entre X e Y e quantifica a relação entre essas duas
variáveis, após removidos os efeitos de Z.
A influência de Z sobre X e Y pode ser expressa pelos modelos:

X= αZ + Ex
Y= βZ + Ey

em que:
ε x e ε y : são as frações de X e de Y, respectivamente, desprovi-
das das influências de Z;
α e β: são os coeficientes de regressão, dados por:

Côv ( X , Z ) rxzσˆ x
=αˆ =
σˆ z2 σˆ z
e
Côv (Y , Z ) ryzσˆ y
=βˆ =
σˆ z2 σˆ z

Assim, por definição, tem-se:

Côv ( εˆx , εˆ y )
rxy . z =
Vˆ ( εˆx ) Vˆ ( εˆ y )

414
estatística experimental no rbio

em que:

(
Côv ( εˆx , εˆ y ) = Côv X − αˆ Z , Y − βˆ Z )
Cov (Y , Z ) Cov ( X , Z )
Cov ( X , Y ) −
= Covc ( X , Y )
=
V (Z )

(εˆx , εˆy ) σˆ xσˆ y ( rxy − rxz ryz )


Côv=

Cov 2 ( X , Z )
ˆ
V= (ε x ) V ( X ) −
ˆ = Vc(X) = σˆ x 1 − rxz
2 2
( )
V (Z )

Cov 2 (Y , Z )
ˆ
V=(ε y ) V (Y ) − V ( Z ) = Vc(Y) = σˆ y2 1 − ryz2
ˆ ( )
logo:
Covc ( X , Y ) rxy − rxz ryz
rxy. z = =
Vc ( X ) Vc (Y ) (1 − r )(1 − r )
2
xz
2
yz

Uma maneira generalizada para obtenção do coeficiente de


correlação parcial entre duas variáveis i e j é por meio da matriz de
correlação simples de dimensão (m+2) x (m+2), que envolve estas duas
variáveis e m outras, cujo efeito deseja-se remover da associação entre i
e j. Por esta técnica estima-se a correlação parcial por meio da expressão:

−aij
rij .m =
aii a jj

em que aij é o elemento de ordem ij da inversa da matriz de


correlação simples. Pode-se também calcular o coeficiente de deter-

415
estatística experimental no rbio

minação parcial, expresso por rij2.m , cujo teste de significância pode ser
feito pela estatística t, dada por:

rij .m
=t n − v , associado a n-v graus de liberdade,
1 − rij2.m

sendo:
n = número de observações
v = número de variáveis = m+2.
Sob contexto de análise de regressão, tem-se, para três variá-
veis (Y, X1 e X2), o estimador:

σˆ x 1 − rx21x2 ˆ
ryx1 . x1 = 1
byx . x
σˆ y 1 − ryx2 2 1 2

em que bˆyx1 . x2 é o coeficiente de regressão parcial, estimado a


partir do modelo:

Y = b0 + byx1.x2X1 + byx2.x1X2 + E

Para exemplificar a obtenção das correlações parciais, conside-


re um experimento simulado com 4 valores diferentes de umidade re-
lativa do ar de secagem de sementes (UR), a germinação de sementes
em porcentagem e a temperatura em que estas foram submetidas. Os
dados são apresentados na Tabela 16.3.

416
estatística experimental no rbio

Tabela 16.3. Dados envolvendo % de germinação de sementes com diferentes


umidades relativa do ar de secagem e temperaturas.
% U.R. (X1) 20 30 40 50

Temperatura (ºC) (X2) 5 15 10 20

% germinação (Y) 92 94 93 96

Com base nos dados da Tabela 16.3, obtêm-se a tabela auxiliar


(Tabela 16.4) de forma a facilitar os cálculos para a obtenção do coefi-
ciente de correlação.

Tabela 16.4. Tabela auxiliar considerando os dados da Tabela 16.3.


y= x1 = x2 =
Y X1 X2 y2 x12 x22 x1y x2y x1 x 2
Y- Y X1- X1 X2- X 2

92 20 5 -1.75 -15 -7.5 3.0625 225 56.25 26.25 13.125 112.5

94 30 15 0.25 -5 2.5 0.0625 25 6.25 -1.25 0.625 -12.5

93 40 10 -0.75 5 -2.5 0.5625 25 6.25 -3.75 1.875 -12.5

96 50 20 2.25 15 7.5 5.0625 225 56.25 33.75 16.875 112.5

Y = X1 = X2 = ∑y2i = ∑x2i = ∑x2i = ∑xiyi = ∑x2yi = ∑xixi =


∑yi =0 ∑x1 =0 ∑x2 =0
93.75 35 12.5 8.75 500 125 55 32.5 200

As correlações entre as variáveis podem ser estimadas da se-


guinte maneira:
Correlação X1 e Y:

Cov ( x1 , y )
rx1 y =
V ( X 1 ) V (Y )
18.3333
= 0.8315
166.6666 x 2.9166

417
estatística experimental no rbio

( ∑ X )( ∑ Y )
i i 1 i
n n


n =i 1 =
XY −
1 i
Cov ( x1 , y ) =
i =1
n
n −1

55 −
( 0 )( 0 )
= = 4 18.3333
4 −1

( )
2

∑ i =1X1i
n


n
X 12i −
V ( X1 ) =
i =1
n
n −1
(0)
2

500 −
= = 4 166.6666
4 −1

(∑ Y ) n 2

(0)
2
i =1 i

n 2
Y
i =1 i
− 8.75 −
V (Y )
= = n = 4 2.9166
n −1 4 −1

Correlação X2 e Y:

Cov ( x2 , y ) 10.8333
=rx2 y = = 0.9827
V ( X 2 ) V (Y ) 41.6666 x 2.9166

∑ X=
n
Y 32.5
Cov ( x =
, y)
2i i
2
i =1
= 10.8333
n −1 4 −1

∑ =
n 2
X 125
V (=
X )
2i
2
i =1
= 41.6666
n −1 4 −1

418
estatística experimental no rbio

Correlação X1 e X2:

Cov ( x1 , x2 ) 66.6667
=rx1x2 = = 0.80
V ( X 1 )V ( X 2 ) 166.6666 x 41.6666

∑ X=
n
X 200
Cov ( x ,=
x )
1i 2i
1 2
i =1
= 66.6667
n −1 4 −1

Resumidamente a matriz de correlação é:

Y X1 X2

Y 1 0.8315 0.9827

X1 0.8315 1 0.80

X2 0.9827 0.80 1

Dessa matriz pode-se obter as correlações parciais.

rx1 y − rx1x2 ryx2 0.8315 − 0.80 x0.9827


=rx1 y. x2 = = 0.4080
( )(
1 − rx21x2 1 − ryx2 2 ) ( )(
1 − 0.802 1 − 0.9827 2 )

rx2 y − rx2 x1 ryx1 0.9827 − 0.80 x0.8315


=rx2 y . x1 = = 0.9525
( )(
1 − rx22 x1 1 − ryx2 1 ) ( )(
1 − 0.802 1 − 0.83152 )

rx1x2 − rx1 y rx2 y 0.80 − 0.8315 x0.9827


rx1x2 . y = = = −0.1663
(1 − r )(1 − r )
2
x1 y
2
x2 y (1 − 0.8315 )(1 − 0.9827 )
2 2

Alternativamente pode-se obter as correlações parciais através


da inversa da matriz de correlação apresentada anteriormente. A in-
versa dessa matriz é:

419
estatística experimental no rbio

Y X1 X2

Y 34.9767 -4.4051 -30.8475

X1 -4.4051 3.3325 1.6628

X2 -30.8475 1.6628 29.9836

−ax1 y − ( −4.4051)
rx1 y. x2
= = = 0.4080
ax1x1 a yy 3.3325 x34.9767

−ax2 y − ( −30.8475 )
rx2 y. x1
= = = 0.9525
ax2 x2 a yy 29.9836 x34.9767

−ax1x2 − (1.6628 )
rx1x2 . y = = = −0.1663
ax1x1 ax2 x2 3.3325 x 29.9836

O teste t para estas correlações é:

rx1 y. x2 0.4080
=t = 4−3 = 1 0.4468
1 − rx21 y. x2 1 − 0.40802

rx2 y . x1 0.9525
=t = 4−3 = 1 3.1276
1 − rx22 y . x1 1 − 0.95252

rx1x2 . y −0.1663
t= 4−3 = 1 =−0.1686
1 − rx21x2 . xy 1 − 0.16632

O valor de t tabelado a 5% e n-v graus de liberdade (4-3=1),


ttabelado (0.025, 1GL) = 12.70 (ANEXO 16.1). Como o valor calculado para

420
estatística experimental no rbio

todas as correlações são menores que o valor tabelado portanto não


rejeita H0, então as correlações são estatisticamente iguais a 0.

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização da correlação parcial o caminho é: Estatística
Básica > Correlação > Correlação Parcial, conforme a Figura 16.3.

421
estatística experimental no rbio

Figura 16.3. Software Rbio, e rotina de procedimentos para realizar a análise de


correlação parcial.

422
estatística experimental no rbio

# -----------------------------------
# Script 16: Correlação
# -----------------------------------

# ----------------------
# 16.3- Correlação Parcial
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo7.txt”, h=T) # Leitura dos dados
X # Listar dados

germinacao.Y UR.X1 Temp.X2


1 92 20 5
2 94 30 15
3 93 40 10
4 96 50 20

install.packages(“ppcor”)
library(ppcor)

cat(“\n”, “ ------> Correlacao Parcial de Pearson “, “\n”)

------> Correlacao Parcial de Pearson


# partial correlation
saida_cp<-pcor(X , method =”pearson”)

cat(“\n”, “ Estimativa da correlacao “, “\n”)

Estimativa da correlacao

# estimativa da correlação
saida_cp$estimate

germinacao.Y UR.X1 Temp.X2


germinacao.Y 1.0000000 0.4082483 0.9525793
UR.X1 0.4082483 1.0000000 -0.1666667
Temp.X2 0.9525793 -0.1666667 1.0000000

cat(“\n”, “ Significancia (p-value) “, “\n”)

Significancia (p-value)

# significância (p-value)
saida_cp$p.value
germinacao.Y UR.X1 Temp.X2
germinacao.Y 0.0000000 0.7322795 0.1968386
UR.X1 0.7322795 0.0000000 0.8933992
Temp.X2 0.1968386 0.8933992 0.0000000

cat(“\n”, “ Valor da estatistica t “, “\n”)

Valor da estatistica t

# valor de t
saida_cp$statistic
germinacao.Y UR.X1 Temp.X2
germinacao.Y 0.0000000 0.4472136 3.1304952
UR.X1 0.4472136 0.0000000 -0.1690309
Temp.X2 3.1304952 -0.1690309 0.0000000

423
estatística experimental no rbio

16.3. Correlação: Análise de Trilha

A análise de trilha, ou “path analysis”, consiste no estudo dos


efeitos diretos e indiretos de caracteres sobre uma variável básica,
cujas estimativas são obtidas por meio de equações de regressão, em
que as variáveis são previamente padronizadas. Apesar de a correlação
ser uma característica intrínseca a dois caracteres em dada condição
experimental, sua decomposição depende do conjunto de caracteres
estudados, que, normalmente, são avaliados pelo conhecimento pré-
vio do pesquisador de suas importâncias e de possíveis inter-relações
expressas em “diagramas de trilha”.
Apesar de envolver princípios de regressão, a análise de trilha
é, em essência, um estudo da decomposição do coeficiente de corre-
lação, permitindo avaliar se a relação entre duas variáveis é de causa
e efeito ou é determinada pela influência de outra ou outras variáveis.
A análise de trilha pode, portanto, ser feita a partir de correlações
fenotípicas, genotípicas ou ambientais.
Sendo Y um caráter complexo, resultante da ação conjunta de
outros caracteres estudados, é possível estabelecer o seguinte modelo:

Y= β1 X 1 + β 2 X 2 + ... + β n X n + ε

em que X1, X2, ..., Xn são as variáveis explicativas e Y a variável


principal (ou variável dependente).
Considerando as variáveis padronizadas:

424
estatística experimental no rbio

e:

ε σˆ b σˆ
u= pε = ε poi = oi xi
σˆ ε ; σˆ y e σˆ y

tem-se

y= p1 x1 + p2 x2 + ... + pn xn + pε u

Por este modelo, estimam-se os efeitos diretos e indiretos das


variáveis explicativas sobre a variável-base, expressando-se os resulta-
dos conforme esquema a seguir. Para o caso de x1, por exemplo, têm-se:

Variável: x1 Estimativas

Efeito direto sobre y p1

Efeito indireto via x2 p2 r12

Efeito indireto via x3 p3 r13

... ...

Efeito indireto via xn pn r1m

Total rx1y

Assim, de forma generalizada, os coeficientes de trilha são


estimados a partir do sistema de equações X’X β̂ = X’Y, sendo

 r1 y  1 r12 ... r1n   p1 


r  r 1 ... r2 n  p 
X ' Y =
2y 
= X 'X  12 = e βˆ  2
 ...   ... ... ... ...   ... 
     
 rny   r1n r2 n ... 1   pn 

425
estatística experimental no rbio

de modo que se tenha:

riy= pi + ∑ j ≠i p j rij
n

sendo
riy: correlação entre a variável principal (y) e a i-ésima variável
explicativa;
pi: medida do efeito direto da variável i sobre a variável principal; e
pjrij: medida do efeito indireto da variável i, via variável j, sobre
a variável principal.
O coeficiente de determinação do diagrama de trilha é dado por

2
R= p1r1 y + p2 r2 y + ... + pn rny

O efeito residual é assim estimado:

pˆ=
ε 1 − R2

Para exemplificar a obtenção das correlações parciais, conside-


re um experimento simulado com 4 valores diferentes de umidade re-
lativa do ar de secagem de sementes (UR), a germinação de sementes
em porcentagem e a temperatura em que estas foram submetidas. Os
dados são apresentados na Tabela 16.5.

Tabela 16.5. Dados envolvendo % de germinação de sementes com diferentes


umidades relativa do ar de secagem e temperaturas.
% U.R. (X1) 20 30 40 50

Temperatura (ºC) (X2) 5 15 10 20

% germinação (Y) 92 94 93 96

426
estatística experimental no rbio

As correlações fenotípicas entre as variáveis foram calculadas


anteriormente no tópico de Correlação parcial, dessa forma será ape-
nas apresentado aqui o seu resultado. A matriz de correlação é:

Y X1 X2

Y 1 0.83 0.98

X1 0.83 1 0.80

X2 0.98 0.80 1

Considerando que Y seja a variável principal, e as demais as va-


riáveis explicativas a montagem do sistema de equações lineares fica:

 0.83  1 0.80  p 
=X ' Y =  X 'X  =  e βˆ  1 
0.98 0.80 1   p2 

A solução do sistema é dada por: B̂ = (X’X)-1X’Y. Sendo que temos:

 2.7777 −2.2222   0.83 0.1277 


βˆ =    
 −2.2222 2.7777  0.98 0.8777 

Portanto temos:

Variável Principal: X1 (U.R) Estimativas

Efeito direto sobre y (Germinação) p1 = 0.1277

Efeito indireto via x2 (Temperatura) p2 rx1x2 = 0.8777 x 0.80 = 0.702

Total rx1y = 0.83

Variável Principal: X2 (Temperatura) Estimativas

Efeito direto sobre y (Germinação) p2 = 0.8777

Efeito indireto via x1 (U.R.) p1 rx2x1 = 0.1277 x 0.80 = 0.102

Total rx2y = 0.98

427
estatística experimental no rbio

O coeficiente de determinação do diagrama de trilha é dado por

R 2 = p1rx1 y + p2 rx2 y =( 0.1277 x0.83) + ( 0.8777 x0.98 ) =0.9662

O efeito residual é assim estimado:

p̂ε = 1 − R 2 = 1 − 0.9662 =0.1838

e o quadrado do efeito residual é: (0.1838)2=0.0337

O diagrama

É importante salientar aqui alguns pontos relacionados a aná-


lise realizada. Ao usar o software R, pode-se proceder a análise com

428
estatística experimental no rbio

auxílio do pacote agricolae, sendo que este considera os valores de


correlação com informação de 2 casas após a vírgula.

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização da Análise de Trilha o caminho é: Estatística
Básica > Correlação > Análise de Trilha, conforme a Figura 16.4.

429
estatística experimental no rbio

Figura 16.4. Software Rbio, e rotina de procedimentos para realizar a Análise de Trilha.

# -----------------------------------
# Script 16: Correlação
# -----------------------------------

# ----------------------
# 16.4- Análise de Trilha
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo7.txt”, h=T)
X

germinacao.Y UR.X1 Temp.X2


1 92 20 5
2 94 30 15
3 93 40 10
4 96 50 20

library(agricolae)
x<-X[,-1]
y<-X[,1]
cor.y<-correlation(y,x)$correlation
cor.x<-correlation(x)$correlation
path.analysis(cor.x, cor.y)

Direct(Diagonal) and indirect effect path coefficients


======================================================
UR.X1 Temp.X2
UR.X1 0.1277778 0.7022222
Temp.X2 0.1022222 0.8777778

Residual Effect^2 = 0.03372222

430
estatística experimental no rbio

16.4. Correlação Fenotípica, Genotípica e Ambiental

Para estimação dos coeficientes de correlação genotípica, feno-


típica e de ambiente entre dois caracteres X e Y, realizam-se as análises
de variâncias individuais para cada caráter, segundo um modelo esta-
tístico apropriado, como por exemplo:

Yij = µ + gi + b j + ε ij para experimentos em blocos ao acaso


Yij = µ + gi + ε ij para experimentos inteiramente ao acaso
em que:
µ : média geral do ensaio;
gi: efeito do i-ésimo genótipo
bj: efeito do j-ésimo bloco (para experimentos em blocos ao acaso)
ε ij : erro aleatório

Posteriormente é realizada a análise da soma dos valores de X


e Y, de forma que os produtos médios (covariâncias), associados a cada
fonte de variação, possam ser estimados por meio de:

V ( X + Y ) − V ( X ) − V (Y )
Cov ( X , Y ) =
2

Os componentes de covariância podem ser estimados conhe-


cendo-se a esperança do produto médio das fontes de variações, que
são obtidas de maneira equivalente às esperanças dos respectivos
quadrados médios da análise de variância, sendo necessário apenas
substituir a expressão de variância pela covariância.
Considerando os caracteres Xij e Yij, medidos em g genótipos
ou tratamentos (i = 1,2, ... g), avaliados em blocos ao acaso com r
repetições (j = 1, 2, ..., r), tem-se o esquema da análise de variância
apresentado a seguir:

431
estatística experimental no rbio

QM

FV GL X Y X+Y E(QM)

Blocos r-1
2
Tratamentos g-1 QMT x QMT y QMT x+ y σ + rσ 2g

Resíduo (r-1)(g-1) QMR x QMR y QMR x+ y


σ2

Os produtos médios associados a tratamentos e resíduo são


obtidos por meio das expressões:

PMTxy = (QMTx+y - QMTx - QMTy) / 2

PMRxy = (QMRx+y - QMRx - QMRy) / 2

O esquema da análise, incluindo os produtos médios e suas


respectivas esperanças matemáticas, para o delineamento em blocos
ao acaso, é o seguinte:

FV GL PM E (PM)

Blocos r-1

Tratamentos g-1 PMT xy σ xy + rσ gxy

Resíduos (r-1)(g-1) PMR xy σ xy

Estimam-se os coeficientes de correlação por meio das expres-


sões descritas a seguir:

432
estatística experimental no rbio

a) Correlação fenotípica

PMTxy
rf =
QMTx QMTy

b) Correlação de ambiente

PMRxy
ra =
QMRx QMRy

c) Correlação genotípica

σˆ gxy
rg =
σˆ gx2 σˆ gy2

sendo:

PMTxy − PMRxy
σˆ gxy =
r

QMTx − QMRx
σˆ gx2 =
r

QMTy − QMRy
σˆ gy2 =
r

em que:

σˆ gxy : estimador da covariância genotípica entre os caracteres


X e Y; e

433
estatística experimental no rbio

σˆ gx2 e σˆ gy2 : estimadores das variâncias genotípicas dos caracte-


res X e Y, respectivamente.
A hipótese de que o coeficiente de correlação é igual a zero (H0:
ρ=0) pode ser avaliada pela estatística t, dada por:

r
=t n−2
1− r2

em que t está associado a n-2 graus de liberdade e em um nível


de significância a. Para este teste considera-se n o número de pares
de observações que deram origem à correlação estimada. Assim,
para a correlação fenotípica utiliza-se n =g, porém para as demais
correlações, principalmente a genotípica, os graus de liberdade não
são facilmente estabelecidos.
Para exemplificar será considerado um experimento com três
tratamentos e duas repetições, e duas variáveis conforme os dados da
Tabela 16.6. Verifique que nessa mesma tabela foi representada uma
variável 3 que nada mais é que a soma dos valores das variáveis 1 e 2.

Tabela 16.6. Avaliação de duas variáveis agronômicas simuladas em delineamento


de blocos ao acaso.
Tratamentos Blocos Variável 1 Variável 2 Variável 3 (1+2)

1 1 66.98 93.26 160.24

1 2 75.61 98.44 174.05

2 1 113.77 110.35 224.12

2 2 126.24 110.29 236.53

3 1 71.87 86.71 158.58

3 2 87.53 100.95 188.48

Dessa forma, o quadro da ANOVA está representado na Tabela


16.7:

434
estatística experimental no rbio

Tabela 16.7. Resultado da análise de variância das variáveis agronômicas


apresentadas na Tabela 16.6.
QM

FV GL X Y X+Y

Blocos 1 225.2 62.47 524.9

Tratamentos 2 1355.9 161.79 2419.4

Resíduo 2 6.2 26.17 47.2

A partir da saída da análise de variância obtêm-se todas as


estimativas necessárias para estimar os coeficientes de correlação:

PMTxy = (QMTx+y - QMTx - QMTy) / 2 = (2419.2 – 1355.9


-161.79) /2 = 450.755
PMRxy = (QMRx+y - QMRx - QMRy) / 2 = (47.2 – 6.2 -26.17)
/2 = 7.415

PMTxy − PMRxy 450.755 − 7.415


=σˆ gxy = = 221.67
r 2

QMTx − QMRx 1355.9 − 6.2


=σˆ gx2 = = 674.85
r 2

QMTy − QMRy 161.79 − 26.17


=σˆ gy2 = = 67.81
r 2

De posse das estimativas apresentadas anteriormente e obti-


das através da análise de variância, pode-se obter os coeficientes de
correlação como segue:

435
estatística experimental no rbio

a) Correlação fenotípica

PMTxy 450.755
=rf = = 0.9623
QMTx QMTy 1355.9 x161.79

b) Correlação de ambiente

PMRxy 7.415
=ra = = 0.5821
QMRx QMRy 6.2 x 26.17

c) Correlação genotípica

σˆ gxy 221.67
=rg = = 1.0362
σˆ gx2 σˆ gy2 674.85 x 67.81

É importante destacar que o resultado da correlação genotípica


entre as duas variáveis ultrapassou o espaço paramétrico da correlação
(valor > +1). Isso pode acontecer devido ao método dos mínimos qua-
drados não ser eficientes para estimar essa correlação em alguns casos.
A hipótese de que o coeficiente de correlação é igual a zero
avaliada pela estatística t é:

r 0.9623
=t n−2
= 6 − 2 7.07
=
2
1− r 1 − 0.96232

Uma alternativa para avaliar a significância do coeficiente de


correlação é a obtenção de várias outras estimativas a partir de um
conjunto desestruturado de dados no qual se espera obter estimativas
próprias da hipótese de nulidade. É recomendado no procedimento a
obtenção de um número s de estimativas igual a 5000.

436
estatística experimental no rbio

Para desestruturação do conjunto de dados são feitas, para uma


das variáveis analisadas (X ou Y), permutações das informações de cada
tratamento gerando novos conjuntos de dados que são submetidos a
análises de variância e proporcionando s estimativas de correlações.
O teste de hipótese é, então, feito considerando as s (s = número de
simulações) estimativas dos coeficientes de correlação obtidas. O valor
crítico de significância é obtido no vetor ordenado ( ρ (i), i =1,2...s) de
correlações, considerando:

• para 1% de probabilidade
r ≥ ρ ( s - 0,01 s + 1) ou r ≤ ρ ( 0,01s - 1)
para s = 100, por exemplo, então r será significativo se:
r ≥ ρ ( 991) ou r ≤ ρ ( 9 )

• para 5% de probabilidade
r ≥ ρ ( s - 0,05 s + 1) ou r ≤ ρ ( 0,05 s - 1)
para s = 100, por exemplo, então r será significativo se:
r ≥ ρ ( 951) ou r ≤ ρ ( 49 )

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização das correlações genéticas o caminho é: Estatís-
tica Básica > Correlação > Correlação Genética, conforme a Figura 16.5.

437
estatística experimental no rbio

Figura 16.5. Software Rbio, e rotina de procedimentos para realizar a análise de


correlação de Pearson.

438
estatística experimental no rbio

# -----------------------------------
# Script 16: Correlação
# -----------------------------------

# ----------------------
# 16.5- Correlação Fenotípica, Genotípica e ambiental
# ----------------------

# Ver procedimento correlações > Correlação Genética

X<-read.table(“c:/_Rbio/ebook/exemplo9.txt”, h=T)
X

Trat Rep Var1 Var2


1 1 1 66.98 93.26
2 1 2 75.61 98.44
3 2 1 113.77 110.35
4 2 2 126.24 110.29
5 3 1 71.87 86.71
6 3 2 87.53 100.95

cat(“----Correlacoes:”,”\n”)

----Correlacoes:

r.genot r.fenot r.amb


Variaveis: Var1 x Var2 1.03633 0.9625229 0.5837102

cat(“----Teste T:”,”\n”)

----Teste T:

t.teste
t.genot t.fenot t.amb
Variaveis: Var1 x Var2 NaN 7.098236 1.437777

16.5. Correlação Canônica

A análise de correlação canônica caracteriza-se por avaliar


relações lineares entre dois grupos de caracteres, influenciados no
mínimo, por dois caracteres em cada grupo. De maneira genérica,
considera-se que o primeiro grupo (X) é estabelecido por p caracteres
e o segundo (Y), por q. O número de correlações canônicas é igual
ao menor número de caracteres que constitui cada grupo (p ou q), e
sua magnitude sempre decresce com a ordem em que são estimadas.
Entretanto, o primeiro coeficiente é sempre maior ou igual, em valor
absoluto, a qualquer coeficiente de correlação simples ou múltipla,
entre os caracteres do primeiro e do segundo grupo.

439
estatística experimental no rbio

Descrição do Arquivo de Dados

A análise é realizada via matriz R, que contém as estimativas


dos coeficientes de correlação de Pearson entre os v caracteres possí-
veis de serem analisadas.
Para se obterem correlações canônicas, são considerados:

p: número de caracteres do grupo I;


q: número de caracteres do grupo II;
R : matriz de correlação de Pearson entre os v caracteres.
R11 : matriz de dimensão p x p das correlações entre caracteres
do grupo I;
R22 : matriz de dimensão q x q das correlações entre caracteres
do grupo II;
R12 : matriz de dimensão p x q das correlações entre caracteres
do grupo I com caracteres do grupo II; e
R21 : matriz de dimensão q x p das correlações entre caracteres
do grupo II com caracteres do grupo I.

Para se obter as correlações canônicas é definir dois grupos de


caracteres X e Y, cuja suas matrizes estão apresentadas a seguir:

 x1   y1 
x  y 
 2  2
X =   e Y =  
   
 xp   yq 
   

O problema estatístico consiste em estimar a máxima correlação


entre combinações lineares de caracteres do grupo X e do grupo Y ,
bem como estimar os respectivos coeficientes de ponderação dos carac-

440
estatística experimental no rbio

teres em cada combinação linear. Sendo X 1 e Y1 uma das combinações


lineares dos caracteres dos grupos X e Y , respectivamente, tem-se:

X 1 a1 x1 + a2 x2 +… a p x p
= Y1 b1 y1 + b2 y2 +…bq yq
e =

Sob a forma matricial essas combinações lineares são:

X 1 = a′X e Y1 = b′Y

em que:
= a′  a1 , a2 , …, a p  : vetor de dimensão 1 x p de coeficientes
canônicos de poderação dos caracteres do grupo X;
= b′ b1 , b2 , …, bq  : vetor de dimensão 1 x q de coeficientes
canônicos de poderação dos caracteres do grupo Y.
Define-se como a primeira correlação canônica aquela que
maximiza a relação entre X 1 e Y1 . As funções X 1 e Y1 constituem o
primeiro par canônico associado àquela correlação canônica, que é
expressa por:

sendo:

Vˆ ( X 1 ) = a′R11a

Vˆ (Y1 ) = b′R22b

441
estatística experimental no rbio

A estimação dos vetores a e b é feita da pela maximização


da função W, sujeita à restrição de que a= ′R11a b=′R22b 1 (Morri-
son,1976). Estas restrições são necessárias para prover estimadores
únicos de a e b , e indicam que cada combinação linear tem variância
igual a 1. Assim, o problema é estimar a e b , que maximiza a função:

( a′R12b ) + λ1 (1 − a′R11a ) + λ2 (1 − b′R22b )


2
=W

Em que: λ1 e λ2 são multiplicadores de Lagrange.

∂W ∂W
Obtendo e , são obtidas as sequintes equações:
∂a ∂b

(
 R − 12 R R −1 R R − 12 − λ I ε =
 11 12 22 21 11 i ) i 0
 −1
( 1
)
 R22 2 R21 R11−1 R12 R22− 2 − λ j I ε j =

0

Em que: ε i é a matriz de autovetores associados a cada auto-


1 1
valor λi da matriz R11− 2 R12 R22−1 R21 R11− 2 e ε j é a matriz de autovetores
1 1
associados a cada autovalor λ j da matriz R22− 2 R21 R11−1 R12 R22− 2 .
Assim, tem-se:

a) A primeira correlação canônica ( r1 ) entre a combinação


linear dos caracteres dos grupos X e Y é dada por:

r1 = λ1

−1 −1
em que λ1 é o maior autovalor da matriz R11 2 R12 R22−1 R21 R11 2 .

442
estatística experimental no rbio

b) O primeiro par canônico é dado por X 1 = a′X e Y1 = b′Y ,


em que:

Em que: a e b são os coeficientes do primeiro par canônico dos


caracteres dos grupos X e Y, respectivamente, podendo ser obtidos por:

−1
a1 = R11 2ε1

De acordo com as restrições impostas, é preciso estimar o ve-


tor b1 de modo que Vˆ (Y1 ) = 1. Desta forma, os valores obtidos abaixo
servem como chute inicial para o vetor b1* .

b1* = R22−1 R21a1

Após sua obtenção o cálculo da Vˆ (Y1 ) deve ser realizado, con-


forme equação abaixo:

Vˆ (Y1 ) = b1*' R22b1*

Posteriormente, após a obtenção de Vˆ (Y1 ) é utilizada a expres-


são abaixo para obtençãoo novo vetor b1 , conforme expressão abaixo:

1
b1 = b1*
Vˆ (Y1 )

As demais correlações canônicas e os coeficientes relacionados


aos pares canônicos são estimados utilizando-se os autovalores e os
autovetores das expressões descritas, de ordem correspondente à p
ou q-ésima correlação estimada.

443
estatística experimental no rbio

A significância da hipótese de que todas as possíveis corre-


lações canônicas são nulas ( H 0 = r1 = r2 = … = rs = 0, s = { p, q} ) e
é avaliada pelo teste aproximado de χ 2 , que, segundo Dunteman
(1984), é dado por:

( )
χ 2 t ln 1 − ri 2 
=

Em que: t = n − 0.5 ( p + q + 3)

n = número de observações experimentais utilizadas para esti-


mar a matriz R . A estatística está associada a pq graus de liberdade.

Para exemplificar será considerado um conjunto de dados con-


tendo a matriz R de correlações de Pearson entre os caracteres altura
de planta (AP) e diâmetro a altura do peito (DAP) - grupo X e os índices
de vegetação NDVI e NDRE – grupo Y.

1.0 0.4 0.5 0.6 


0.4 1.0 0.3 0.4 
R=
 0.5 0.3 1.0 0.2 
 
0.6 0.4 0.2 1.0 

Particionando a matriz R em R11 , R22 , R12 e R21 , temos:

1.0 0.4 0.5 0.6 


 
 R11  R12  0.4 1.0 0.3 0.4 
… … … =
R=  … 
   … …

 R21  R22   0.5 0.3 1.0 0.2 

0.6 0.4 0.2 1.0 

444
estatística experimental no rbio

Para os valores de R − 12 e R22−1 , temos:


11

−1  1.0681 −0.2229 
R11 2
= 
 −0.2229 1.0681 

−1  1.04166 −0.20833
R22 = 
 −0.20833 1.04166 

−1 −1
A matriz R11 2 R12 R22−1 R21 R11 2 é calculada por:

 1.0681 −0.2229  0.5 0.6   1.04166 −0.20833


 −0.2229 1.0681  ×  0.3 0.4  ×  −0.20833 1.04166 
     
 0.5 0.3  1.0681 −0.2229 
× × 
0.6 0.4   −0.2229 1.0681 

Logo, o resultado é:

−1 −1 −1  0.43701 0.21778 
R11 2 R12 R22 R21 R11 2
= 
 0.21778 0.10966 

É necessário realizar a decomposição desta matriz em autova-


lores e autovetores.
−1 −1
Os autovalores λ1 e λ2 da matriz R11 2 R12 R22−1 R21 R11 2 são obti-
dos da seguinte forma:

0.43701 − λ 0.21778
=0
0.21778 0.10966 − λ

( 0.43701 − λ )( 0.10966 − λ ) − ( 0.21778)


2
0
=

λ 2 − 0.5467λ + 0.0005 =
0

445
estatística experimental no rbio

Resolvendo essa equação de segundo grau são obtidas as raízes


do polinômio, que são os autovalores λ1 = 0.54577 e λ2 = 0.0009 .
ε
Os autovetores 1 associados a λ1 = 0.5458 são obtidos pela
seguinte equação:
 x
Considerando ε1 =  
 y

(R −1
11
2
−1
)
R12 R22−1 R21 R11 2 − λ1 I ε1 =
0

( −1 −1
R11 2 R12 R22−1 R21 R11 2
)ε = λ ε
1 1 1

0.43701 − λ 0.21778   x  0 
 0.21778 =
 0.10966 − λ   y  0 

0.43701 − 0.54577 0.21778   x  0 


 =
 0.21778 0.10966 − 0.54577   y  0 

 −0.10875 0.21778  x  0 
 0.21778 −0.4361  y  = 0 
    

O sistema linear pode ser assim montado:

-0.10875x + 0.21778y = 0
0.21778x -0.4361y = 0

Isolando x na primeira equação:

X = 2y

446
estatística experimental no rbio

Portanto tem-se:

 x  2
 y  = 1 
   

De forma a apresentar os autovetores normalizados tem-se:

ε1
ε1'ε1

2 2
1  1  0.894646 
  = = 
 
[ 2 1] 2 5  0.446773
1 
 

Logo, os autovetores ε1 associados a λ1 são:

0.894646 
ε1 =  
 0.446773

Os coeficientes canônicos a1 associado ao grupo X podem ser


obtidos por:

−1  1.0681 −0.2229 
=a1 R= 11 ε 1
2
 −0.2229 1.0681 
 
0.894646  0.85598
× =  
 0.446773 0.27778

Para obtenção das estimativas iniciais do vetor b1* , associado


ao grupo Y, utiliza-se:

447
estatística experimental no rbio

 1.04166 −0.20833
=b1* R= −1
22 R21a1  −0.20833 1.04166 
 
 0.5 0.3 0.85598  0.40248
× × = 
0.6 0.4  0.27778 0.54420 

Após sua obtenção o cálculo da Vˆ (Y1 ) deve ser realizado, con-


forme equação abaixo:

Posteriormente, após a obtenção de Vˆ (Y1 ) é utilizada a expres-


são abaixo para obtenção do novo vetor b1 , conforme expressão abaixo:

1 1  0.40248  0.54481
b1 = b1* = × = 
Vˆ (Y1 ) 0.54577 0.54420  0.73664 

Posteriormente, é obtida uma nova estimativa de Vˆ (Y1 ) , con-


forme expressão abaixo:

Vˆ (Y ) b=
'
[0.54481 0.7366 4]
= 1 1 R22 b1

1.0 0.2   0.54481


× × =1.0000
0.2 1.0  0.73664 

 0.54481
Portanto, com as estimativas b1 =  , a restrição
 0.73664 
Vˆ (Y1 ) = 1 foi atendida.

448
estatística experimental no rbio

Desta forma, o primeiro par das correlações canônicas é:

=X 1 0.85598 AP + 0.27778 DAP

=Y1 0.54481NDVI + 0.73664 NDRE

A primeira correlação canônica é calculada por:

r1
= λ1
= 0.5458
= 0.7387

A segunda correlação canônica é calculada por:

r2
= λ2
= 0.0009
= 0.03

A significância destas correlações é avaliada pelo teste aproxi-


mado de χ , dado por:
2

−t ln 1 − ( ri 2 )  =
χ2 = −26.50 ln 1 − ( 0.7387 2 )  =
20.91

−t ln 1 − ( ri 2 )  =
χ2 = −26.50 ln 1 − ( 0.032 )  =
0.023

Em que: t = n − 0.5 ( p + q + 3) , sendo n = número de observa-


ções experimentais utilizadas para estimar a matriz R . A estatística
está associada a pq graus de liberdade.

Em que: t = 30 − 0.5 ( 2 + 2 + 3) = 26.50

449
estatística experimental no rbio

De forma similar pode-se estimar os autovetores ε1 associados


a λ2 = 0.0009 são obtidos pela seguinte equação:
 x
Considerando ε1 =  
 y

(R −1
11
2
−1
)
R12 R22−1 R21 R11 2 − λ1 I ε1 =
0

(R −1
11
2
−1
R12 R22−1 R21 R11 2
)ε = λ ε
1 2 1

0.43701 − λ 0.21778   x  0 
 0.21778 =
 0.10966 − λ   y  0 

0.43701 − 0.0009 0.21778   x  0 


 =
 0.21778 0.10966 − 0.0009   y  0 

0.43610 0.21778  x  0 
 0.21778 0.10875  y  = 0 
    

O sistema linear pode ser assim montado:

0.43610x + 0.21778y = 0
0.21778x +0.10875y = 0

Isolando x na primeira equação:

x = -0.21778y/0.4361= -0.49938y

450
estatística experimental no rbio

Portanto tem-se:

 x   −0.49938
 y =  1 
   

De forma a apresentar os autovetores normalizados tem-se:

ε1
ε1'ε1

 −0.49938  −0.49938
   
 1   1   −0.446773
= =  
[ −0.49938 1] −0.49938 1.2493  0.894646 
 1 
 

Logo, os autovetores ε1 associados a λ2 são:

 −0.446774 
ε1 =  
 0.894646 

Os coeficientes canônicos a1 associado ao grupo X podem ser


obtidos por:

−1  1.0681 −0.2229 
=a1 R= 11 ε 1
2
 −0.2229 1.0681 
 
 −0.446774   −0.67661
× =  
 0.894646   1.05515 

*
Para obtenção das estimativas iniciais do vetor b1 , associado
ao grupo Y, utiliza-se:

451
estatística experimental no rbio

 1.04166 −0.20833
=b1* R= −1
22 R21a1  −0.20833 1.04166 
 
 0.5 0.3  −0.67661  −0.02602 
× × = 
0.6 0.4   1.05515   0.02129 

Após sua obtenção o cálculo da Vˆ (Y1 ) deve ser realizado, con-


forme equação abaixo:

Vˆ (Y1 ) = b1*' R22b1* = [ −0.02602 0.02129]


1.0 0.2   −0.02602 
× × =0.0009
0.2 1.0   0.02129 

Posteriormente, após a obtenção de Vˆ (Y1 ) é utilizada a expres-


são abaixo para obtenção do novo vetor b1 , conforme expressão abaixo:

1 1  −0.02602   −0.86304 
b1 = b1* = × = 
Vˆ (Y1 ) 0.0009  0.02129   0.70641 

Posteriormente, é obtida uma nova estimativa de Vˆ (Y1 ) , con-


forme expressão abaixo:

Vˆ (Y1 ) = b1' R22b1 = [ −0.86304 0.70641]


1.0 0.2   −0.86304 
× × =1.00
0.2 1.0   0.70641 

 −0.86304 
Portanto, com as estimativas b1 =   , a restrição
 0.70641 
Vˆ (Y1 ) = 1 foi atendida.

452
estatística experimental no rbio

Desta forma, o segundo par das correlações canônicas é:

−0.6765 P + 1.0577 DAP


X1 =

−0.86304 DVI + 0.70641NDRE


Y1 =

Resultado das análises

Considerando o conjunto de dados apresentados anteriormen-


te, as saídas fornecidas pelo Rbio são apresentadas a seguir.
Para a realização da análise de correlações canônicas o caminho
é: Multivariada > Correlações Canônicas Figura 16.6.

453
estatística experimental no rbio

Figura 16.6. Software Rbio, e rotina de procedimentos para realizar a análise


correlações Canônicas

# -----------------------------------
# Script 16: Correlação
# -----------------------------------

# ----------------------
# 16.6- Correlações Canônicas
# ----------------------
X<-read.table(“c:/_Rbio/ebook/exemplo10.txt”, h=T)
X
AP DAP NDVI NDRE
1 12.3099 14.6866 0.9916 1.8244
2 11.4391 12.1037 -0.4444 0.1453
3 13.5531 13.9278 0.7502 1.4309
4 11.2630 13.2999 1.4702 -0.0786
5 12.7675 12.8800 1.7039 1.6147
6 11.8843 13.8518 -0.5823 0.0429
7 11.7263 13.7141 -0.1383 1.5747
8 12.8004 12.9733 2.3166 0.0321
9 12.7254 13.3755 0.8938 0.5664
10 11.9490 14.7371 1.3170 1.8506
11 11.7088 11.9851 -0.3476 0.1357
12 13.7218 14.6887 0.6827 1.6519
13 11.0557 12.9852 1.3048 -0.0809
14 13.3031 12.3663 1.4126 1.4657
15 12.0155 14.8828 0.5870 0.5697
16 10.8208 12.0537 -0.9965 0.8589
17 13.8379 14.1557 2.0772 1.0318
18 11.2104 13.0387 0.6082 -0.5381
19 13.0724 14.1549 2.0143 2.5493
20 11.5251 12.8764 -0.3277 -0.7468
21 12.9193 13.9065 -0.2917 2.1812
22 12.0457 13.7130 2.6663 0.0273
23 12.6094 11.8756 0.6123 0.6704
24 12.7646 15.8085 1.1879 1.9598
25 10.3654 11.7447 -0.7508 -0.0819

454
estatística experimental no rbio

26 14.6057 14.0250 1.3583 1.8849


27 10.9597 13.6123 0.8563 -0.7683
28 12.7779 12.6412 1.7280 2.3884
29 12.2521 13.8011 0.3514 -0.3950
30 11.5106 13.6350 -0.8112 1.7327
library(CCA)
x<-as.matrix(X[,1:2])
y<-as.matrix(X[,3:4])
saida<-cc(x,y)
cat(“\n”, “---------------------------------------------------------”, “\n”)
---------------------------------------------------------
cat( “Variaveis Grupo I: “)
Variaveis Grupo I:
cat(“\n”, “---------------------------------------------------------”, “\n”)
---------------------------------------------------------
saida$names$Xnames
[1] “AP” “DAP”
cat(“\n”, “---------------------------------------------------------”, “\n”)
---------------------------------------------------------
cat(“Variaveis Grupo II: “)
Variaveis Grupo II:
cat(“\n”, “---------------------------------------------------------”, “\n”)
---------------------------------------------------------
saida$names$Ynames
[1] “NDVI” “NDRE”
cat(“\n”, “---------------------------------------------------------”, “\n”)
---------------------------------------------------------
cat(“Correlacoes Canonicas: “)
Correlacoes Canonicas:
cat(“\n”, “---------------------------------------------------------”, “\n”)
---------------------------------------------------------
saida$cor
[1] 0.73872993 0.03014587
cat(“\n”, “---------------------------------------------------------”, “\n”)
---------------------------------------------------------
cat( “Coeficientes Canonicos das Variaveis do Grupo I: “)
Coeficientes Canonicos das Variaveis do Grupo I:
cat(“\n”, “---------------------------------------------------------”, “\n”)
---------------------------------------------------------
saida$xcoef
[,1] [,2]
AP -0.8559688 -0.6766043
DAP -0.2777380 1.0551459
cat(“\n”, “---------------------------------------------------------”, “\n”)
---------------------------------------------------------
cat(“Coeficientes Canonicos das Variaveis do Grupo II: “)
Coeficientes Canonicos das Variaveis do Grupo II:
cat(“\n”, “---------------------------------------------------------”, “\n”)
---------------------------------------------------------
saida$ycoef
[,1] [,2]
NDVI -0.5448077 -0.8630494
NDRE -0.7366516 0.7064175

455
estatística experimental no rbio

ANEXO 16.1. Tabela da distribuição t de Student, com nível de significância α e gl


graus de liberdade.
Nível de significância
gl 0.1 0.05 0.025* 0.01 0.005
1 3.078 6.314 12.706 31.821 63.657
2 1.886 2.920 4.303 6.965 9.925
3 1.638 2.353 3.182 4.541 5.841
4 1.533 2.132 2.776 3.747 4.604
5 1.476 2.015 2.571 3.365 4.032
6 1.440 1.943 2.447 3.143 3.707
7 1.415 1.895 2.365 2.998 3.499
8 1.397 1.860 2.306 2.896 3.355
9 1.383 1.833 2.262 2.821 3.250
10 1.372 1.812 2.228 2.764 3.169
11 1.363 1.796 2.201 2.718 3.106
12 1.356 1.782 2.179 2.681 3.055
13 1.350 1.771 2.160 2.650 3.012
14 1.345 1.761 2.145 2.624 2.977
15 1.341 1.753 2.131 2.602 2.947
16 1.337 1.746 2.120 2.583 2.921
17 1.333 1.740 2.110 2.567 2.898
18 1.330 1.734 2.101 2.552 2.878
19 1.328 1.729 2.093 2.539 2.861
20 1.325 1.725 2.086 2.528 2.845
21 1.323 1.721 2.080 2.518 2.831
22 1.321 1.717 2.074 2.508 2.819
23 1.319 1.714 2.069 2.500 2.807
24 1.318 1.711 2.064 2.492 2.797
25 1.316 1.708 2.060 2.485 2.787
26 1.315 1.706 2.056 2.479 2.779
27 1.314 1.703 2.052 2.473 2.771
28 1.313 1.701 2.048 2.467 2.763
29 1.311 1.699 2.045 2.462 2.756
30 1.310 1.697 2.042 2.457 2.750
40 1.303 1.684 2.021 2.423 2.704
50 1.299 1.676 2.009 2.403 2.678
60 1.296 1.671 2.000 2.390 2.660
120 1.289 1.658 1.980 2.358 2.617
∞ 1.282 1.645 1.960 2.326 2.576
* mais usada. Entra-se com α/2; portanto se deseja teste a 5%, entra com 0.05/2=0.025

456
LITERATURAS CITADAS
BHERING, L. L. Rbio: A Tool For Biometric And Statistical Analysis Using The R Platform. Crop
Breeding and Applied Biotechnology, v.17, p. 187-190, 2017.
BHERING, L. L.; CRUZ, C. D.; VASCONCELOS, E. S.; FERREIRA, A.; RESENDE JUNIOR, M. F. R.
Alternative methodology for Scott-Knott test. Crop Breeding And Applied Technology, v. 8, n.
1, p. 9-16, 2008.
BOX, G. E. P. Non-normality and tests on variances. Biometrika, v. 40, p. 318-335, 1953.
BOX, G. E. P. Some theorems on quadratic forms applied in the study of analysis of variance
problems I. Annals of Mathematical Statistics, v. 25, p.290-302, 1953.
COCHRAN, W. G. COX, G. M. Experimental designs. 2th ed. Singapure: John Wiley & Sons,
1957. 611p.
COCHRAN, W. G. The combination of estimates from different experiments. Biometrics, v. 10,
p. 101-129, 1954.
DUNNETT, C. W.. A multiple comparison procedure for comparing several treatments with a
control. Journal of the American Statistical Association, v. 50, p. 1096-1121, 1955.
FEDERER, W. T. Augmented (hoonuiaku) designs. Hawaian Planters’ Record, v.55, p.191-
208, 1956.
GARÇA, A. M. Diseño y analisis de experimentos com canã de azucar. Chapingo, Mexico,
1972. 204p.
HENDERSON, C. R. A simple method for computing the inverse of a numerator relationship
matrix used in prediction of breeding values. Biometrics, v. 32, p. 69-83, 1976.
KHAN, M.; HASIJA, R. C.; HOODA, B. K.; TANWAR, N.; KUMAR, B. Relative efficiency of expe-
rimental designs in relation to various size and shape of plots and blocks in Indian Mustard
(Brassica juncea L.) crop. International Journal of Agricultural and Statistical Sciences, v. 13, p.
253-258, 2017.
PIMENTEL-GOMES, F. Curso de estatística experimental. 13 ed. São Paulo: Nobel, 2000. 479p.
PIMENTEL-GOMES, F.; GARCIA, C. H. Experimentos em látice: planejamento e análise por
meio de «pacotes» estatísticos. Piracicaba: Instituto de Pesquisas e Estudos Florestais/
ESALQ, 1991. 69p.

457
estatística experimental no rbio

R DEVELOPMENT CORE TEAM. R: A language and environment for statistical computing. R


Foundation for Statistical Computing,Vienna, Austria, 2008. ISBN 3-900051-07-0, URL http://
www.R-project.org.
RAMALHO, M. A. P.; FERREIRA, D. F.; OLIVEIRA, A. C. Experimentação em genética e melhora-
mento de plantas. 3.ed. Lavras: UFLA, 2012. 305p.
RESENDE, M. D. V. Genética biométrica e estatística no melhoramento de plantas perenes.
Embrapa Informação Tecnológica, Brasília, 2002. 975p.
RESENDE, M. D. V.; DUARTE, J.B. Precisão e controle de qualidade em experimentos de avalia-
ção de cultivares. Pesquisa Agropecuária Tropical, v. 37, p. 182-194, 2007.
SCOTT, A.; KNOTT, M. Cluster-analysis method for grouping means in analysis of variance.
Biometrics, v. 30, n. 3, p. 507-512, 1974.
STEEL, R. G. D.; TORRIE, J. H.; DICKEY, D. A. Principles and procedures of statistics: A biometrical
approach. 3rd ed. McGraw Hill Book Co. Inc. New York, 1997. 672p.
THOMPSON, R. The estimation of heritability with unbalanced data. Biometrics, v. 33, p. 485-
504, 1977.
TUKEY, J. W. One degree of freedom for non-additivity. Biometrics, v. 5, p. 232-242, 1949.
TUKEY, J.W. The problem of multiple comparisons. Mimeographs Princeton University, Prince-
ton, N.J. 1953. 215p.
VENCOVSKY R. Herança quantitativa. In: PATERNIANI, E.; VIEGAS, G. P. (Eds). Melhoramento e
produção de milho. Campinas: Fundação Cargill. p. 137-214, 1987.

458
ANEXOS
ANEXO 1. Tabela da Distribuição F ao nível de 5% de probabilidade com v1 graus de
liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 161.45 199.5 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19 19.16 19.25 19.3 19.33 19.35 19.37 19.38 19.4
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6 5.96
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.1 4.06
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.07 3.84 3.69 3.58 3.5 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.1 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98
11 4.84 3.98 3.59 3.36 3.2 3.09 3.01 2.95 2.9 2.85
12 4.75 3.89 3.49 3.26 3.11 3 2.91 2.85 2.8 2.75
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67
14 4.6 3.74 3.34 3.11 2.96 2.85 2.76 2.7 2.65 2.6
15 4.54 3.68 3.29 3.06 2.9 2.79 2.71 2.64 2.59 2.54
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.2 2.96 2.81 2.7 2.61 2.55 2.49 2.45
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.13 2.9 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.1 2.87 2.71 2.6 2.51 2.45 2.39 2.35
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.3 3.44 3.05 2.82 2.66 2.55 2.46 2.4 2.34 2.3
23 4.28 3.42 3.03 2.8 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.4 3.01 2.78 2.62 2.51 2.42 2.36 2.3 2.25

459
estatística experimental no rbio

v2 \ v1 1 2 3 4 5 6 7 8 9 10
25 4.24 3.39 2.99 2.76 2.6 2.49 2.4 2.34 2.28 2.24
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.2
28 4.2 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.7 2.55 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08

ANEXO 1. (Continuação) Tabela da Distribuição F ao nível de 5% de probabilidade


com v1 graus de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 11 12 15 20 24 25 30
1 242.98 243.9 245.95 248.02 249.05 249.26 250.1
2 19.4 19.41 19.43 19.45 19.45 19.46 19.46
3 8.76 8.74 8.7 8.66 8.64 8.63 8.62
4 5.94 5.91 5.86 5.8 5.77 5.77 5.75
5 4.7 4.68 4.62 4.56 4.53 4.52 4.5
6 4.03 4 3.94 3.87 3.84 3.83 3.81
7 3.6 3.57 3.51 3.44 3.41 3.4 3.38
8 3.31 3.28 3.22 3.15 3.12 3.11 3.08
9 3.1 3.07 3.01 2.94 2.9 2.89 2.86
10 2.94 2.91 2.85 2.77 2.74 2.73 2.7
11 2.82 2.79 2.72 2.65 2.61 2.6 2.57
12 2.72 2.69 2.62 2.54 2.51 2.5 2.47
13 2.63 2.6 2.53 2.46 2.42 2.41 2.38
14 2.57 2.53 2.46 2.39 2.35 2.34 2.31
15 2.51 2.48 2.4 2.33 2.29 2.28 2.25
16 2.46 2.42 2.35 2.28 2.24 2.23 2.19
17 2.41 2.38 2.31 2.23 2.19 2.18 2.15
18 2.37 2.34 2.27 2.19 2.15 2.14 2.11
19 2.34 2.31 2.23 2.16 2.11 2.11 2.07
20 2.31 2.28 2.2 2.12 2.08 2.07 2.04
21 2.28 2.25 2.18 2.1 2.05 2.05 2.01
22 2.26 2.23 2.15 2.07 2.03 2.02 1.98

460
estatística experimental no rbio

v2 \ v1 11 12 15 20 24 25 30
23 2.24 2.2 2.13 2.05 2.01 2 1.96
24 2.22 2.18 2.11 2.03 1.98 1.97 1.94
25 2.2 2.16 2.09 2.01 1.96 1.96 1.92
26 2.18 2.15 2.07 1.99 1.95 1.94 1.9
27 2.17 2.13 2.06 1.97 1.93 1.92 1.88
28 2.15 2.12 2.04 1.96 1.91 1.91 1.87
29 2.14 2.1 2.03 1.94 1.9 1.89 1.85
30 2.13 2.09 2.01 1.93 1.89 1.88 1.84
35 2.07 2.04 1.96 1.88 1.83 1.82 1.79
40 2.04 2 1.92 1.84 1.79 1.78 1.74

ANEXO 2. Tabela da Distribuição F ao nível de 1% de probabilidade com v1 graus de


liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 1 2 3 4 5 6 7 8 9 10
1 4052.2 4999.3 5403.5 5624.2 5763.9 5858.9 5928.3 5980.9 6022.4 6055.9
2 98.5 99 99.16 99.25 99.3 99.33 99.36 99.38 99.39 99.4
3 34.12 30.82 29.46 28.71 28.24 27.91 27.67 27.49 27.34 27.23
4 21.2 18 16.69 15.98 15.52 15.21 14.98 14.8 14.66 14.55
5 16.26 13.27 12.06 11.39 10.97 10.67 10.46 10.29 10.16 10.05
6 13.75 10.92 9.78 9.15 8.75 8.47 8.26 8.1 7.98 7.87
7 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.72 6.62
8 11.26 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.91 5.81
9 10.56 8.02 6.99 6.42 6.06 5.8 5.61 5.47 5.35 5.26
10 10.04 7.56 6.55 5.99 5.64 5.39 5.2 5.06 4.94 4.85
11 9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.63 4.54
12 9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.5 4.39 4.3
13 9.07 6.7 5.74 5.21 4.86 4.62 4.44 4.3 4.19 4.1
14 8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 4.03 3.94
15 8.68 6.36 5.42 4.89 4.56 4.32 4.14 4 3.89 3.8
16 8.53 6.23 5.29 4.77 4.44 4.2 4.03 3.89 3.78 3.69
17 8.4 6.11 5.19 4.67 4.34 4.1 3.93 3.79 3.68 3.59
18 8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71 3.6 3.51
19 8.18 5.93 5.01 4.5 4.17 3.94 3.77 3.63 3.52 3.43
20 8.1 5.85 4.94 4.43 4.1 3.87 3.7 3.56 3.46 3.37

461
estatística experimental no rbio

v2 \ v1 1 2 3 4 5 6 7 8 9 10
21 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51 3.4 3.31
22 7.95 5.72 4.82 4.31 3.99 3.76 3.59 3.45 3.35 3.26
23 7.88 5.66 4.76 4.26 3.94 3.71 3.54 3.41 3.3 3.21
24 7.82 5.61 4.72 4.22 3.9 3.67 3.5 3.36 3.26 3.17
25 7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32 3.22 3.13
26 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29 3.18 3.09
27 7.68 5.49 4.6 4.11 3.78 3.56 3.39 3.26 3.15 3.06
28 7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23 3.12 3.03
29 7.6 5.42 4.54 4.04 3.73 3.5 3.33 3.2 3.09 3
30 7.56 5.39 4.51 4.02 3.7 3.47 3.3 3.17 3.07 2.98
35 7.42 5.27 4.4 3.91 3.59 3.37 3.2 3.07 2.96 2.88
40 7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99 2.89 2.8

ANEXO 2. (Continuação). Tabela da Distribuição F ao nível de 1% de probabilidade


com v1 graus de liberdade do numerador e v2 graus de liberdade do denominador.
v2 \ v1 11 12 15 20 24 25 30
1 6083.4 6106.68 6156.97 6208.66 6234.27 6239.86 6260.35
2 99.41 99.42 99.43 99.45 99.46 99.46 99.47
3 27.13 27.05 26.87 26.69 26.6 26.58 26.5
4 14.45 14.37 14.2 14.02 13.93 13.91 13.84
5 9.96 9.89 9.72 9.55 9.47 9.45 9.38
6 7.79 7.72 7.56 7.4 7.31 7.3 7.23
7 6.54 6.47 6.31 6.16 6.07 6.06 5.99
8 5.73 5.67 5.52 5.36 5.28 5.26 5.2
9 5.18 5.11 4.96 4.81 4.73 4.71 4.65
10 4.77 4.71 4.56 4.41 4.33 4.31 4.25
11 4.46 4.4 4.25 4.1 4.02 4.01 3.94
12 4.22 4.16 4.01 3.86 3.78 3.76 3.7
13 4.02 3.96 3.82 3.66 3.59 3.57 3.51
14 3.86 3.8 3.66 3.51 3.43 3.41 3.35
15 3.73 3.67 3.52 3.37 3.29 3.28 3.21
16 3.62 3.55 3.41 3.26 3.18 3.16 3.1
17 3.52 3.46 3.31 3.16 3.08 3.07 3
18 3.43 3.37 3.23 3.08 3 2.98 2.92

462
estatística experimental no rbio

v2 \ v1 11 12 15 20 24 25 30
19 3.36 3.3 3.15 3 2.92 2.91 2.84
20 3.29 3.23 3.09 2.94 2.86 2.84 2.78
21 3.24 3.17 3.03 2.88 2.8 2.79 2.72
22 3.18 3.12 2.98 2.83 2.75 2.73 2.67
23 3.14 3.07 2.93 2.78 2.7 2.69 2.62
24 3.09 3.03 2.89 2.74 2.66 2.64 2.58
25 3.06 2.99 2.85 2.7 2.62 2.6 2.54
26 3.02 2.96 2.81 2.66 2.58 2.57 2.5
27 2.99 2.93 2.78 2.63 2.55 2.54 2.47
28 2.96 2.9 2.75 2.6 2.52 2.51 2.44
29 2.93 2.87 2.73 2.57 2.49 2.48 2.41
30 2.91 2.84 2.7 2.55 2.47 2.45 2.39
35 2.8 2.74 2.6 2.44 2.36 2.35 2.28
40 2.73 2.66 2.52 2.37 2.29 2.27 2.2

ANEXO 3. Valores de χ2 para diferentes níveis de probabilidade (α) e v graus de


liberdade.
v 0,5 0,25 0,1 0,05 0,025 0,01 0,005
1 0,455 1.323 2.706 3.841 5.024 6.635 7.879
2 1.386 2.773 4.605 5.991 7.378 9.210 10.597
3 2.366 4.108 6.251 7.815 9.348 11.345 12.838
4 3.357 5.385 7.779 9.488 11.143 13.277 14.860
5 4.351 6.626 9.236 11.070 12.832 15.086 16.750
6 5.348 7.841 10.645 12.592 14.449 16.812 18.548
7 6.346 9.037 12.017 14.067 16.013 18.475 20.278
8 7.344 10.219 13.362 15.507 17.535 20.090 21.955
9 8.343 11.389 14.684 16.919 19.023 21.666 23.589
10 9.342 12.549 15.987 18.307 20.483 23.209 25.188
11 10.341 13.701 17.275 19.675 21.920 24.725 26.757
12 11.340 14.845 18.549 21.026 23.337 26.217 28.300
13 12.340 15.984 19.812 22.362 24.736 27.688 29.819
14 13.339 17.117 21.064 23.685 26.119 29.141 31.319
15 14.339 18.245 22.307 24.996 27.488 30.578 32.801
16 15.338 19.369 23.542 26.296 28.845 32.000 34.267

463
estatística experimental no rbio

v 0,5 0,25 0,1 0,05 0,025 0,01 0,005


17 16.338 20.489 24.769 27.587 30.191 33.409 35.718
18 17.338 21.605 25.989 28.869 31.526 34.805 37.156
19 18.338 22.718 27.204 30.144 32.852 36.191 38.582
20 19.337 23.828 28.412 31.410 34.170 37.566 39.997
21 20.337 24.935 29.615 32.671 35.479 38.932 41.401
22 21.337 26.039 30.813 33.924 36.781 40.289 42.796
23 22.337 27.141 32.007 35.172 38.076 41.638 44.181
24 23.337 28.241 33.196 36.415 39.364 42.980 45.558
25 24.337 29.339 34.382 37.652 40.646 44.314 46.928
26 25.336 30.435 35.563 38.885 41.923 45.642 48.290
27 26.336 31.528 36.741 40.113 43.195 46.963 49.645
28 27.336 32.620 37.916 41.337 44.461 48.278 50.994
29 28.336 33.711 39.087 42.557 45.722 49.588 52.335
30 29.336 34.800 40.256 43.773 46.979 50.892 53.672
40 39.335 45.616 51.805 55.758 59.342 63.691 66.766
50 49.335 56.334 63.167 67.505 71.420 76.154 79.490
60 59.335 66.981 74.397 79.082 83.298 88.379 91.952
70 69.334 77.577 85.527 90.531 95.023 100.425 104.215
80 79.334 88.130 96.578 101.879 106.629 112.329 116.321
90 89.334 98.650 107.565 113.145 118.136 124.116 128.299
100 99.334 109.141 118.498 124.342 129.561 135.807 140.170

ANEXO 4: Tabela da Distribuição Normal padrão reduzida (Z~N (0,1)) P(Z<z) e z


positivos.
z 0.0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133

464
estatística experimental no rbio

z 0.0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998
3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.8 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

465
estatística experimental no rbio

ANEXO 5: Tabela da Distribuição Normal padrão reduzida (Z~N (0,1)) P(Z<z) e z


negativos.
z 0.0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
-0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
-0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
-0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
-0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
-0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
-0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
-0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
-0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
-0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
-1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379
-1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
-1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
-1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
-1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681
-1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559
-1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
-1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
-1.8 0.0359 0.0351 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294
-1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233
-2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
-2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
-2.2 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110
-2.3 0.0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
-2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
-2.5 0.0062 0.0060 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
-2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
-2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
-2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
-2.9 0.0019 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
-3.0 0.0013 0.0013 0.0013 0.0012 0.0012 0.0011 0.0011 0.0011 0.0010 0.0010
-3.1 0.0010 0.0009 0.0009 0.0009 0.0008 0.0008 0.0008 0.0008 0.0007 0.0007
-3.2 0.0007 0.0007 0.0006 0.0006 0.0006 0.0006 0.0006 0.0005 0.0005 0.0005

466
estatística experimental no rbio

z 0.0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
-3.3 0.0005 0.0005 0.0005 0.0004 0.0004 0.0004 0.0004 0.0004 0.0004 0.0003
-3.4 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0002
-3.5 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002 0.0002
-3.6 0.0002 0.0002 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001
-3.7 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001
-3.8 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001
-3.9 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

ANEXO 6: Tabela de valores críticos para a estatística do teste de Lilliefors e


Kolmogorov-Smirnov, considerando nível α de significância (5 e 1%) e tamanho de
amostra n de 1 a 100.
n 5% 1% n 5% 1% n 5% 1% n 5% 1% n 5% 1%
1 0.975 0.995 21 0.2872 0.3443 41 0.2076 0.249 61 0.1709 0.2051 81 0.1487 0.1784
2 0.8419 0.9293 22 0.2809 0.3367 42 0.2052 0.2461 62 0.1696 0.2034 82 0.1478 0.1773
3 0.7076 0.829 23 0.2749 0.3295 43 0.2028 0.2433 63 0.1682 0.2018 83 0.1469 0.1763
4 0.6239 0.7342 24 0.2693 0.3229 44 0.2006 0.2406 64 0.1669 0.2003 84 0.146 0.1752
5 0.5633 0.6685 25 0.264 0.3166 45 0.1984 0.238 65 0.1657 0.1988 85 0.1452 0.1742
6 0.5193 0.6166 26 0.2591 0.3106 46 0.1963 0.2354 66 0.1644 0.1973 86 0.1444 0.1732
7 0.4834 0.5758 27 0.2544 0.305 47 0.1942 0.233 67 0.1632 0.1958 87 0.1435 0.1722
8 0.4543 0.5418 28 0.2499 0.2997 48 0.1922 0.2306 68 0.162 0.1944 88 0.1427 0.1713
9 0.43 0.5133 29 0.2457 0.2947 49 0.1903 0.2283 69 0.1609 0.193 89 0.1419 0.1703
10 0.4092 0.4889 30 0.2417 0.2899 50 0.1884 0.226 70 0.1597 0.1917 90 0.1412 0.1694
11 0.3912 0.4677 31 0.2379 0.2853 51 0.1866 0.2239 71 0.1586 0.1903 91 0.1404 0.1685
12 0.3754 0.449 32 0.2342 0.2809 52 0.1848 0.2217 72 0.1576 0.189 92 0.1396 0.1676
13 0.3614 0.4325 33 0.2308 0.2768 53 0.1831 0.2197 73 0.1565 0.1878 93 0.1389 0.1667
14 0.3489 0.4176 34 0.2274 0.2728 54 0.1814 0.2177 74 0.1554 0.1865 94 0.1382 0.1658
15 0.3376 0.4042 35 0.2242 0.269 55 0.1798 0.2157 75 0.1544 0.1853 95 0.1375 0.1649
16 0.3273 0.392 36 0.2212 0.2653 56 0.1782 0.2138 76 0.1534 0.1841 96 0.1368 0.1641
17 0.318 0.3809 37 0.2183 0.2618 57 0.1767 0.212 77 0.1524 0.1829 97 0.1361 0.1632
18 0.3094 0.3706 38 0.2154 0.2584 58 0.1752 0.2102 78 0.1515 0.1817 98 0.1354 0.1624
19 0.3014 0.3612 39 0.2127 0.2552 59 0.1737 0.2084 79 0.1505 0.1806 99 0.1347 0.1616
20 0.2941 0.3524 40 0.2101 0.2521 60 0.1723 0.2067 80 0.1496 0.1795 100 0.134 0.1608

467
estatística experimental no rbio

ANEXO 7: Tabela com constantes geradas pelas médias, variâncias e covariâncias


da estatística de uma amostra de tamanho n de uma distribuição normal a ser
aplicada no teste de Shapiro Wilk.
i\n 2 3 4 5 6 7 8 9 10 11 12 13
1 0.7071 0.7071 0.6872 0.6646 0.6431 0.6233 0.6062 0.5888 0.5739 0.5601 0.5475 0.5359
2 0.1677 0.2413 0.2806 0.3031 0.3164 0.3244 0.3291 0.3315 0.3325 0.3325
3 0.0875 0.1401 0.1743 0.1976 0.2141 0.2260 0.2347 0.2412
4 0.0561 0.0947 0.1224 0.1429 0.1586 0.1707
5 0.0399 0.0695 0.0922 0.1099
6 0.0303 0.0539

i\n 14 15 16 17 18 19 20 21 22 23 24 25
1 0.5251 0.5150 0.5056 0.4968 0.4886 0.4808 0.4734 0.4643 0.4590 0.4542 0.4493 0.4450
2 0.3318 0.3306 0.3290 0.3273 0.3253 0.3232 0.3211 0.3185 0.3156 0.3126 0.3098 0.3069
3 0.2460 0.2495 0.2521 0.2540 0.2553 0.2561 0.2565 0.2578 0.2571 0.2563 0.2554 0.2543
4 0.1802 0.1878 0.1939 0.1988 0.2027 0.2059 0.2085 0.2119 0.2131 0.2139 0.2145 0.2148
5 0.1240 0.1353 0.1447 0.1524 0.1587 0.1641 0.1686 0.1736 0.1764 0.1787 0.1807 0.1822
6 0.0727 0.0880 0.1005 0.1109 0.1197 0.1271 0.1334 0.1399 0.1443 0.1480 0.1512 0.1539
7 0.0240 0.0433 0.0593 0.0725 0.0837 0.0932 0.1013 0.1092 0.115 0.1201 0.1245 0.1283
8 0.0196 0.0359 0.0496 0.0612 0.0711 0.0804 0.0878 0.0941 0.0997 0.1046
9 0.0163 0.0303 0.0422 0.0530 0.0618 0.0696 0.0764 0.0823
10 0.0140 0.0263 0.0368 0.0459 0.0539 0.061
11 0.0122 0.0228 0.0321 0.0403
12 0.0107 0.0200
13 0.0000

i\n 26 27 28 29 30 31 32 33 34 35 36 37
1 0.4407 0.4366 0.4328 0.4291 0.4254 0.4220 0.4188 0.4156 0.4127 0.4096 0.4068 0.4040
2 0.3043 0.3018 0.2992 0.2968 0.2944 0.2921 0.2898 0.2876 0.2854 0.2834 0.2813 0.2794
3 0.2533 0.2522 0.2510 0.2499 0.2487 0.2475 0.2463 0.2451 0.2439 0.2427 0.2415 0.2403
4 0.2151 0.2152 0.2151 0.2150 0.2148 0.2145 0.2141 0.2137 0.2132 0.1227 0.2121 0.2116
5 0.1836 0.1848 0.1857 0.1864 0.1870 0.1874 0.1878 0.1880 0.1882 0.1883 0.1883 0.1883
6 0.1563 0.1584 0.1601 0.1616 0.1630 0.1641 0.1651 0.1660 0.1667 0.1673 0.1678 0.1683
7 0.1316 0.1346 0.1372 0.1395 0.1415 0.1433 0.1449 0.1463 0.1475 0.1487 0.1496 0.1505

468
estatística experimental no rbio

8 0.1089 0.1128 0.1162 0.1192 0.1219 0.1243 0.1265 0.1284 0.1301 0.1317 0.1331 0.1344
9 0.0876 0.0923 0.0965 0.1002 0.1036 0.1066 0.1093 0.1118 0.1140 0.1160 0.1179 0.1196
10 0.0672 0.0728 0.0778 0.0822 0.0862 0.0899 0.0931 0.0961 0.0988 0.1013 0.1036 0.1056
i\n 26 27 28 29 30 31 32 33 34 35 36 37
11 0.0476 0.0540 0.0598 0.065 0.0697 0.0739 0.0777 0.0812 0.0844 0.0873 0.0900 0.0924
12 0.0284 0.0358 0.0424 0.0483 0.0537 0.0585 0.0629 0.0669 0.0706 0.0739 0.0770 0.0798
13 0.0094 0.0178 0.0253 0.032 0.0381 0.0435 0.0485 0.0530 0.0572 0.0610 0.0645 0.0677
14 0.0000 0.0084 0.0159 0.0227 0.0289 0.0344 0.0395 0.0441 0.0484 0.0523 0.0559
15 0 0.0076 0.0144 0.0206 0.0262 0.0314 0.0361 0.0404 0.0444

i\n 2 3 4 5 6 7 8 9 10 11 12 13

16 0.0000 0.0068 0.0131 0.0187 0.0239 0.0287 0.0331


17 0.0000 0.0062 0.0119 0.0172 0.0220
18 0.0000 0.0057 0.0110
19 0.0000

i\n 38 39 40 41 42 43 44 45 46 47 48 49
1 0.4015 0.3989 0.3964 0.3940 0.3917 0.3894 0.3872 0.3850 0.3830 0.3808 0.3789 0.3770
2 0.2774 0.2755 0.2737 0.2719 0.2701 0.2684 0.2667 0.2651 0.2635 0.2620 0.2604 0.2589
3 0.2391 0.2380 0.2368 0.2357 0.2345 0.2334 0.2323 0.2313 0.2302 0.2291 0.2281 0.2271
4 0.2110 0.2104 0.2098 0.2091 0.2085 0.2078 0.2072 0.2065 0.2058 0.2052 0.2045 0.2038
5 0.1881 0.1880 0.1878 0.1876 0.1874 0.1871 0.1868 0.1865 0.1862 0.1859 0.1855 0.1851
6 0.1686 0.1689 0.1691 0.1693 0.1694 0.1695 0.1695 0.1695 0.1695 0.1695 0.1693 0.1692
7 0.1513 0.1520 0.1526 0.1531 0.1535 0.1539 0.1542 0.1545 0.1548 0.1550 0.1551 0.1553
8 0.1356 0.1366 0.1376 0.1384 0.1392 0.1398 0.1405 0.1410 0.1415 0.1420 0.1423 0.1427
9 0.1211 0.1225 0.1237 0.1249 0.1259 0.1269 0.1278 0.1286 0.1293 0.1300 0.1306 0.1312
10 0.1075 0.1092 0.1108 0.1123 0.1136 0.1149 0.1160 0.1170 0.1180 0.1189 0.1197 0.1205
11 0.0947 0.0967 0.0986 0.1004 0.1020 0.1035 0.1049 0.1062 0.1073 0.1085 0.1095 0.1105
12 0.0824 0.0848 0.0870 0.0891 0.0909 0.0927 0.0943 0.0959 0.0972 0.0986 0.0998 0.1010
13 0.0706 0.0733 0.0759 0.0782 0.0804 0.0824 0.0842 0.0860 0.0876 0.0892 0.0906 0.0919
14 0.0592 0.0622 0.0651 0.0677 0.0701 0.0724 0.0745 0.0765 0.0783 0.0801 0.0817 0.0832
15 0.0481 0.0515 0.0546 0.0575 0.0602 0.0628 0.0651 0.0673 0.0694 0.0713 0.0731 0.0748
16 0.0372 0.0409 0.0444 0.0476 0.0506 0.0534 0.0560 0.0584 0.0607 0.0628 0.0648 0.0667

469
estatística experimental no rbio

17 0.0264 0.0305 0.0343 0.0379 0.0411 0.0442 0.0471 0.0497 0.0522 0.0546 0.0568 0.0588
18 0.0158 0.0203 0.0244 0.0283 0.0318 0.0352 0.0383 0.0412 0.0439 0.0465 0.0489 0.0511
19 0.0053 0.0101 0.0146 0.0188 0.0227 0.0263 0.0296 0.0328 0.0357 0.0385 0.0411 0.0436
i\n 38 39 40 41 42 43 44 45 46 47 48 49
20 0.0000 0.0049 0.0094 0.0136 0.0175 0.0211 0.0245 0.0277 0.0307 0.0335 0.0361
21 0.0000 0.0045 0.0087 0.0126 0.0163 0.0197 0.0229 0.0259 0.0288
22 0.0000 0.0042 0.0081 0.0118 0.0153 0.0185 0.0215
23 0.0000 0.0039 0.0076 0.0111 0.0143
24 0.0000 0.0037 0.0071
25 0.0000

ANEXO 8: Valores críticos da estatística W de Shapiro Wilk com nível de significância


α e tamanho de amostra n.
Nível de significância
N 0.01 0.02 0.05 0.1 0.5 0.9 0.95 0.98 0.99
3 0.753 0.756 0.767 0.789 0.959 0.998 0.999 1.000 1.000
4 0.687 0.707 0.748 0.792 0.935 0.987 0.992 0.996 0.997
5 0.686 0.715 0.762 0.806 0.927 0.979 0.986 0.991 0.993
6 0.713 0.743 0.788 0.826 0.927 0.974 0.981 0.986 0.989
7 0.730 0.760 0.803 0.838 0.928 0.972 0.979 0.985 0.988
8 0.749 0.778 0.818 0.851 0.932 0.972 0.978 0.984 0.987
9 0.764 0.791 0.829 0.859 0.935 0.972 0.978 0.984 0.986
10 0.781 0.806 0.842 0.869 0.938 0.972 0.978 0.983 0.986
11 0.792 0.817 0.850 0.876 0.940 0.973 0.979 0.984 0.986
12 0.805 0.828 0.859 0.883 0.943 0.973 0.979 0.984 0.986
13 0.814 0.837 0.866 0.889 0.945 0.974 0.979 0.984 0.986
14 0.825 0.846 0.874 0.895 0.947 0.975 0.980 0.984 0.986
15 0.835 0.855 0.881 0.901 0.950 0.975 0.980 0.984 0.987
16 0.844 0.863 0.887 0.906 0.952 0.976 0.981 0.985 0.987
17 0.851 0.869 0.892 0.910 0.954 0.977 0.981 0.985 0.987
18 0.858 0.874 0.897 0.914 0.956 0.978 0.982 0.986 0.988
19 0.863 0.879 0.901 0.917 0.957 0.978 0.982 0.986 0.988
20 0.868 0.884 0.905 0.920 0.959 0.979 0.983 0.986 0.988
21 0.873 0.888 0.908 0.923 0.960 0.980 0.983 0.987 0.989

470
estatística experimental no rbio

Nível de significância
22 0.878 0.892 0.911 0.926 0.961 0.980 0.984 0.987 0.989
23 0.881 0.895 0.914 0.928 0.962 0.981 0.984 0.987 0.989
24 0.884 0.898 0.916 0.930 0.963 0.981 0.984 0.987 0.989
25 0.888 0.901 0.918 0.931 0.964 0.981 0.985 0.988 0.989
26 0.891 0.904 0.920 0.933 0.965 0.982 0.985 0.988 0.989
27 0.894 0.906 0.923 0.935 0.965 0.982 0.985 0.988 0.990
28 0.896 0.908 0.924 0.936 0.966 0.982 0.985 0.988 0.990
29 0.898 0.910 0.926 0.937 0.966 0.982 0.985 0.988 0.990
30 0.900 0.912 0.927 0.939 0.967 0.983 0.985 0.988 0.990
31 0.902 0.914 0.929 0.940 0.967 0.983 0.986 0.988 0.990
32 0.904 0.915 0.930 0.941 0.968 0.983 0.986 0.988 0.990
33 0.906 0.917 0.931 0.942 0.968 0.983 0.986 0.989 0.990
34 0.908 0.919 0.933 0.943 0.969 0.983 0.986 0.989 0.990
35 0.910 0.920 0.934 0.944 0.969 0.984 0.986 0.989 0.990
36 0.912 0.922 0.935 0.945 0.970 0.984 0.986 0.989 0.990
37 0.914 0.924 0.936 0.946 0.970 0.984 0.987 0.989 0.990
38 0.916 0.925 0.938 0.947 0.971 0.984 0.987 0.989 0.990
39 0.917 0.927 0.939 0.948 0.971 0.984 0.987 0.989 0.991
N 0.01 0.02 0.05 0.1 0.5 0.9 0.95 0.98 0.99
40 0.919 0.928 0.940 0.949 0.972 0.985 0.987 0.989 0.991
41 0.920 0.929 0.941 0.950 0.972 0.985 0.987 0.989 0.991
42 0.922 0.930 0.942 0.951 0.972 0.985 0.987 0.989 0.991
43 0.923 0.932 0.943 0.951 0.973 0.985 0.987 0.990 0.991
44 0.924 0.933 0.944 0.952 0.973 0.985 0.987 0.990 0.991
45 0.926 0.934 0.945 0.953 0.973 0.985 0.988 0.990 0.991
46 0.927 0.935 0.945 0.953 0.974 0.985 0.988 0.990 0.991
47 0.928 0.936 0.946 0.954 0.974 0.985 0.988 0.990 0.991
48 0.929 0.937 0.947 0.954 0.974 0.985 0.988 0.990 0.991
49 0.929 0.938 0.947 0.955 0.974 0.985 0.988 0.990 0.991
50 0.930 0.939 0.947 0.955 0.974 0.985 0.988 0.990 0.991

471
estatística experimental no rbio

ANEXO 9. Tabela da distribuição t de Student, com nível de significância α e gl graus


de liberdade.
Nível de significância
gl 0.1 0.05 0.025* 0.01 0.005
1 3.078 6.314 12.706 31.821 63.657
2 1.886 2.920 4.303 6.965 9.925
3 1.638 2.353 3.182 4.541 5.841
4 1.533 2.132 2.776 3.747 4.604
5 1.476 2.015 2.571 3.365 4.032
6 1.440 1.943 2.447 3.143 3.707
7 1.415 1.895 2.365 2.998 3.499
8 1.397 1.860 2.306 2.896 3.355
9 1.383 1.833 2.262 2.821 3.250
10 1.372 1.812 2.228 2.764 3.169
11 1.363 1.796 2.201 2.718 3.106
12 1.356 1.782 2.179 2.681 3.055
13 1.350 1.771 2.160 2.650 3.012
14 1.345 1.761 2.145 2.624 2.977
15 1.341 1.753 2.131 2.602 2.947
16 1.337 1.746 2.120 2.583 2.921
17 1.333 1.740 2.110 2.567 2.898
18 1.330 1.734 2.101 2.552 2.878
19 1.328 1.729 2.093 2.539 2.861
20 1.325 1.725 2.086 2.528 2.845
21 1.323 1.721 2.080 2.518 2.831
22 1.321 1.717 2.074 2.508 2.819
23 1.319 1.714 2.069 2.500 2.807
24 1.318 1.711 2.064 2.492 2.797
25 1.316 1.708 2.060 2.485 2.787
26 1.315 1.706 2.056 2.479 2.779
27 1.314 1.703 2.052 2.473 2.771
28 1.313 1.701 2.048 2.467 2.763
29 1.311 1.699 2.045 2.462 2.756
30 1.310 1.697 2.042 2.457 2.750
40 1.303 1.684 2.021 2.423 2.704
50 1.299 1.676 2.009 2.403 2.678
60 1.296 1.671 2.000 2.390 2.660
120 1.289 1.658 1.980 2.358 2.617
∞ 1.282 1.645 1.960 2.326 2.576
* mais usada. Entra-se com α/2; portanto se deseja teste a 5%, entra com 0.05/2=0.025

472
estatística experimental no rbio

ANEXO 10. Valores da amplitude total estudentizada (q) para teste de Tukey a 5% de
probabilidade em função do número de tratamentos e graus de liberdade do resíduo.
GL(resid) Número de grupos no tratamento
2 3 4 5 6 7 8 9 10
1 17.97 26.98 32.82 37.08 40.41 43.12 45.40 47.36 49.07
2 6.08 8.33 9.8 10.88 11.73 12.43 13.03 13.54 13.99
3 4.50 5.91 6.82 7.50 8.04 8.48 8.85 9.18 9.46
4 3.93 5.04 5.76 6.29 6.71 7.05 7.35 7.60 7.83
5 3.64 4.6 5.22 5.67 6.03 6.33 6.58 6.8 6.99
6 3.46 4.34 4.9 5.3 5.63 5.9 6.12 6.32 6.49
7 3.34 4.16 4.68 5.06 5.36 5.61 5.82 6 6.16
8 3.26 4.04 4.53 4.89 5.17 5.4 5.6 5.77 5.92
9 3.2 3.95 4.41 4.76 5.02 5.24 5.43 5.59 5.74
10 3.15 3.88 4.33 4.65 4.91 5.12 5.3 5.46 5.6
11 3.11 3.82 4.26 4.57 4.82 5.03 5.2 5.35 5.49
12 3.08 3.77 4.2 4.51 4.75 4.95 5.12 5.27 5.39
13 3.06 3.73 4.15 4.45 4.69 4.88 5.05 5.19 5.32
14 3.03 3.7 4.11 4.41 4.64 4.83 4.99 5.13 5.25
15 3.01 3.67 4.08 4.37 4.59 4.78 4.94 5.08 5.2
16 3 3.65 4.05 4.33 4.56 4.74 4.9 5.03 5.15
17 2.98 3.63 4.02 4.3 4.52 4.7 4.86 4.99 5.11
18 2.97 3.61 4 4.28 4.49 4.67 4.82 4.96 5.07
19 2.96 3.59 3.98 4.25 4.47 4.65 4.79 4.92 5.04
20 2.95 3.58 3.96 4.23 4.45 4.62 4.77 4.9 5.01
24 2.92 3.53 3.9 4.17 4.37 4.54 4.68 4.81 4.92
30 2.89 3.49 3.85 4.1 4.3 4.46 4.6 4.72 4.82
40 2.86 3.44 3.79 4.04 4.23 4.39 4.52 4.63 4.73
120 2.8 3.36 3.68 3.92 4.1 4.24 4.36 4.47 4.56
>120 2.77 3.31 3.63 3.86 4.03 4.17 4.29 4.39 4.47
∞ 3.64 4.12 4.4 4.6 4.76 4.88 4.99 5.08 5.16

ANEXO 11. Valores da amplitude total estudentizada (z) para teste de Duncan a 5%
de probabilidade em função do número médias abrangidas pelo contraste (n1) e
graus de liberdade do resíduo (n2).
n2 \ n1 2 3 4 5 6 7 8 9 10
1 17.97 17.97 17.97 17.97 17.97 17.97 17.97 17.97 17.97
2 6.08 6.08 6.08 6.08 6.08 6.08 6.08 6.08 6.08
3 4.50 4.51 4.51 4.51 4.51 4.51 4.51 4.51 4.51
4 3.93 4.01 4.03 4.03 4.03 4.03 4.03 4.03 4.03
5 3.64 3.75 3.80 3.81 3.81 3.81 3.81 3.81 3.81

473
estatística experimental no rbio

n2 \ n1 2 3 4 5 6 7 8 9 10
6 3.46 3.59 3.65 3.68 3.69 3.69 3.69 3.69 3.69
7 3.34 3.48 3.55 3.59 3.61 3.62 3.62 3.62 3.62
8 3.26 3.40 3.48 3.52 3.55 3.57 3.58 3.58 3.58
9 3.20 3.34 3.42 3.47 3.50 3.52 3.54 3.54 3.54
10 3.15 3.29 3.38 3.43 3.46 3.49 3.50 3.51 3.52
11 3.11 3.26 3.34 3.39 3.43 3.46 3.48 3.49 3.50
12 3.08 3.22 3.31 3.37 3.41 3.44 3.46 3.47 3.48
13 3.05 3.20 3.28 3.35 3.39 3.42 3.44 3.46 3.47
14 3.03 3.18 3.27 3.33 3.37 3.40 3.43 3.44 3.46
15 3.01 3.16 3.25 3.31 3.35 3.39 3.41 3.43 3.44
16 2.99 3.14 3.23 3.30 3.34 3.38 3.40 3.42 3.44
17 2.98 3.13 3.22 3.28 3.33 3.37 3.39 3.41 3.43
18 2.97 3.12 3.21 3.27 3.32 3.36 3.38 3.40 3.42
19 2.96 3.11 3.20 3.26 3.31 3.35 3.38 3.40 3.42
20 2.95 3.10 3.19 3.26 3.30 3.34 3.37 3.39 3.41
25 2.91 3.06 3.15 3.22 3.27 3.31 3.34 3.37 3.39
30 2.89 3.03 3.13 3.20 3.25 3.29 3.32 3.35 3.37
50 2.84 2.99 3.08 3.15 3.21 3.25 3.29 3.32 3.34
60 2.83 2.98 3.07 3.14 3.20 3.24 3.28 3.31 3.33
100 2.81 2.95 3.05 3.12 3.18 3.22 3.26 3.29 3.32

ANEXO 12. Valores tabelados a 5% de probabilidade para o teste de Dunnet, com k


tratamentos e N-k graus de liberdade do resíduo.
Número de tratamentos
GL (N-K) 2 3 4 5 6 7 8 9 10
1 12.70 17.37 20.03 21.85 23.21 24.28 25.17 25.92 26.57
2 4.30 5.41 6.06 6.51 6.85 7.12 7.34 7.54 7.70
3 3.18 3.86 4.26 4.54 4.75 4.91 5.05 5.17 5.28
4 2.77 3.31 3.62 3.83 3.99 4.12 4.23 4.32 4.41
5 2.57 3.03 3.29 3.48 3.62 3.73 3.82 3.9 3.97
6 2.45 2.86 3.1 3.26 3.39 3.49 3.57 3.64 3.71
7 2.36 2.75 2.97 3.12 3.24 3.33 3.41 3.47 3.53
8 2.31 2.67 2.88 3.02 3.13 3.22 3.29 3.35 3.41
9 2.26 2.61 2.81 2.95 3.05 3.14 3.2 3.26 3.32

474
estatística experimental no rbio

Número de tratamentos
GL (N-K) 2 3 4 5 6 7 8 9 10
10 2.23 2.57 2.76 2.89 2.99 3.07 3.14 3.19 3.24
11 2.2 2.53 2.72 2.84 2.94 3.02 3.08 3.14 3.19
12 2.18 2.5 2.68 2.81 2.9 2.98 3.04 3.09 3.14
13 2.16 2.48 2.65 2.78 2.87 2.94 3 3.06 3.1
14 2.14 2.46 2.63 2.75 2.84 2.91 2.97 3.02 3.07
15 2.13 2.44 2.61 2.73 2.82 2.89 2.95 3 3.04
16 2.12 2.42 2.59 2.71 2.8 2.87 2.92 2.97 3.02
17 2.11 2.41 2.58 2.69 2.78 2.85 2.9 2.95 3
18 2.1 2.4 2.56 2.68 2.76 2.83 2.89 2.94 2.98
19 2.09 2.39 2.55 2.66 2.75 2.81 2.87 2.92 2.96
20 2.09 2.38 2.54 2.65 2.73 2.8 2.86 2.9 2.95
24 2.06 2.35 2.51 2.61 2.7 2.76 2.81 2.86 2.9
30 2.04 2.32 2.47 2.58 2.66 2.72 2.77 2.82 2.86
40 2.02 2.29 2.44 2.54 2.62 2.68 2.73 2.77 2.81
60 2 2.27 2.41 2.51 2.58 2.64 2.69 2.73 2.77

ANEXO 13. Percentis superiores a 5% da distribuição de F máximo


Número de Experimentos envolvidos
GL Res 2 3 4 5 6 7 8 9 10 11 12
2 39.00 87.50 142.00 202.00 266.00 333.00 403.00 475.00 550.00 626.00 704.00
3 15.40 27.80 39.20 50.70 62.00 72.90 83.50 93.90 104.00 114.00 124.00
4 9.60 15.50 20.60 25.20 29.50 33.60 37.50 41.10 44.60 48.00 51.40
5 7.15 10.80 13.70 16.30 18.70 20.80 22.90 24.70 26.50 28.20 29.90
6 5.82 8.38 10.40 12.10 13.70 15.00 16.30 17.50 18.60 19.70 20.70
7 4.99 6.94 8.44 9.70 10.80 11.80 12.70 13.50 14.30 15.10 15.80
8 4.43 6.00 7.18 8.12 9.03 9.78 10.50 11.10 11.70 12.20 12.70
9 4.03 5.34 6.31 7.11 7.80 8.41 8.95 9.45 9.91 10.30 10.70
10 3.72 4.85 5.67 6.34 6.92 7.42 7.87 8.28 8.66 9.01 9.34
12 3.28 4.16 4.79 5.30 5.72 6.09 6.42 6.72 7.00 7.25 7.48
15 2.86 3.54 4.01 4.37 4.68 4.95 5.19 5.40 5.59 5.77 5.93
20 2.46 2.95 3.29 3.54 3.76 3.94 4.10 4.24 4.37 4.49 4.59
30 2.07 2.40 2.61 2.78 2.91 3.02 3.12 3.21 3.29 3.36 3.39
60 1.67 1.85 1.96 2.04 2.11 2.17 2.22 2.26 2.30 2.33 2.36
∞ 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00

475
estatística experimental no rbio

ANEXO 14. Percentis superiores a 1% da distribuição de F máximo


Número de Experimentos envolvidos
GL Res 2 3 4 5 6 7 8 9 10 11 12
2 199.00 448.0 729.0 1036.0 1362.0 1705.0 2063.0 2432.0 2813.0 3204.0 3605.0
3 47.50 85.0 120.0 151.0 184.0 216.0 249.0 281.0 310.0 337.0 361.0
4 23.20 37.0 49.0 59.0 69.0 79.0 89.0 97.0 106.0 113.0 120.0
5 14.90 22.0 28.0 33.0 38.0 42.0 46.0 50.0 54.0 57.0 60.0
6 11.10 15.5 19.1 22.0 25.0 27.0 30.0 32.0 34.0 36.0 37.0
7 8.89 12.1 14.5 16.5 18.4 20.0 22.0 23.0 24.0 26.0 27.0
8 7.50 9.9 11.7 13.2 14.5 15.8 16.9 17.9 18.9 19.8 21.0
9 6.54 8.5 9.9 11.1 12.1 13.1 13.9 14.7 15.3 16.0 16.6
10 5.85 7.4 8.6 9.6 10.4 11.1 11.8 12.4 12.9 13.4 13.9
12 4.91 6.1 6.9 7.6 8.2 8.7 9.1 9.5 9.9 10.2 10.6
15 4.07 4.9 5.5 6.0 6.4 6.7 7.1 7.3 7.5 7.8 8.0
20 3.32 3.8 4.3 4.6 4.9 5.1 5.3 5.5 5.6 5.8 5.9
30 2.63 3.0 3.3 3.4 3.6 3.7 3.8 3.9 4.0 4.1 4.2
60 1.96 2.2 2.3 2.4 2.4 2.5 2.5 2.6 2.6 2.7 2.7
∞ 1.00 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0 1.0

476
SOBRE OS AUTORES
Leonardo Lopes Bhering
Engenheiro Agrônomo pela Universidade Federal de Viçosa (UFV),
mestre em Genética e Melhoramento de Plantas pela Universidade Fe-
deral de Lavras (UFLA), doutor em Genética e Melhoramento pela UFV
e pós-doutor pela University of Califórnia Riverside - USA. Atuou como
melhorista florestal, e como pesquisador da Embrapa. Atualmente é
professor da Universidade Federal de Viçosa. É autor do software Rbio
(Biometria no R). Possui experiência na área de Genética, com ênfase
em Biometria e Genética quantitativa.

Paulo Eduardo Teodoro


Engenheiro Agrônomo pela Universidade Estadual de Mato Grosso do
Sul (UEMS) e Engenheiro Civil pela Universidade Anhanguera-UNIDERP.
Mestre em Agronomia pela UEMS. Doutor em Genética pela Universida-
de Federal de Viçosa (UFV). Professor da Universidade Federal do Mato
Grosso do Sul (UFMS) no Campus de Chapadão do Sul (CPCS). Possui
experiência em Biometria, Modelagem e Melhoramento de Plantas.

Você também pode gostar