Você está na página 1de 39

Aula 3 e 4 – experimentação

agrícola
• Um experimento biológico possui aleatoriedade em
todos os seus experimentos

• Cada um dos possíveis resultados de ocorrência de


um evento possui uma probabilidade diferente de
acontecer.

• Em estatística  frequência relativa ao evento


• As variáveis de um experimento são consideradas
aleatórias porque não apresentam o mesmo
comportamento em todas as repetições do
experimento.

• Mesmo em condições iguais de instalação.

• De acordo com os possíveis resultados de uma


variável aleatória ela pode ser discreta ou contínua.
• Variável aleatória discreta  quando são conhecidos
todos os valores possíveis dessa variável possuir.

• Ex: lançamento de uma moeda  ou sai cara ou sai


coroa.
• Ex: experimento de germinação  germinou ou não.

• Se eu quiser saber quantas caras podem sair em 2


lançamentos distintos de uma moeda  P(x) = {0, 1,
2}.
• Variável aleatória continua  Quando não se
conhece todos os valores prováveis de ocorrência de
um resultado ou são infinitas as possibilidades de
resultados.

• Ex: altura de uma planta em centímetros em


experimento de déficit hídrico.

• P(x) = {0; 0,25; 0,50; 0,62; 0,67.....n}


• Cada tipo de variável possui uma distribuição de
probabilidade característica dos prováveis resultados.

• Distribuição de probabilidade e modelo


probabilísticos  previsão do comportamento de
uma variável.

• Os modelos permitem identificar dentre os


resultados obtidos o mais provável de ocorrer na
maioria dos casos.
• Variáveis aleatórias discretas:
– Distribuição de Bernoulli
– Distribuição Binomial
– Distribuição de Poisson
– Distribuição Binomial Negativa
– Distribuição Hipergeométrica
– Distribuição Uniforme
• Cada distribuição tem parâmetros específicos
e ocasiões de uso.
• Variáveis aleatórias contínuas:
– Distribuição uniforme
– Distribuição normal
– Distribuição Log-Normal
– Distribuição Exponencial
– Distribuição Gama
– Distribuição Weibull
– Distribuição Beta
– Distribuição Triangular
Distribuição Normal ou Gaussiana
• Distribuição que representa a maioria das variáveis
avaliadas em experimentos agrícolas.

• Muito utilizada pelo comportamento mais previsível


dos resultados.

• Possui a média, a moda e a mediana com os mesmos


valores.

• Possui forma característica de sino ao redor da média


• Porque é a mais utilizada para experimentos?

• O comportamento dos possíveis resultados é


previsível.
• Pode-se determinar a probabilidade de ocorrência de
um determinado intervalo de valores.
• Grande variedade de indicadores precisos para
calculo da probabilidade de ocorrência.

• Por exemplo:
• Probabilidade de ocorrência de resultados em uma
distribuição normal padrão de dados:

• Média + 1 desvio padrão  68,2%

• Média + 2 desvios padrões  95,4%

• Média + 3 desvios padrões  99,7%


NORMALIDADE DE DADOS
• Características de normalidade dos dados.

• Concentração em torno de um valor central, Simetria em


torno de um valor central, Frequência baixa nos valores
extremos

• Testes de normalidade  métodos para determinar a


normalidade dos dados.
• I – histograma
• II – avaliação de curtose e assimetria
• III – gráfico quantil-quantil
• IV – teste de komogorov-smirnov/Shapiro-Wilk
HISTOGRAMA
• Um histograma é uma espécie de gráfico de barras
que demonstra uma distribuição de frequências.

• A base de cada uma das barras representa uma


classe e a altura representa a frequência absoluta
com que o valor de cada classe ocorre.

• Pode ser utilizado como um indicador de dispersão


de processos.
ASSIMETRIA E CURTOSE
• Assimetria  Mede se os valores estão mais
próximos ou mais distantes da média dos dados  A
esquerda (simetria negativa) a direita (simetria
positiva) ao centro (simétrica)

• Curtose  Mede o achatamento da curva da


distribuição dos dados  distribuição normal
(mesocurtica), muito agrupada na média
(leptocurtica) e muito afastada da média
(platicurtica).
QUANTIL-QUANTIL OU QQ PLOT
• Gráfico que compara os prováveis valores que uma
variável deveria ter em relação ao valor da média e
do desvio padrão, relacionando este resultado aos
valores observados no experimento.

• Caso os valores coincidam nas mesmas posições do


gráfico, indica uma normalidade dos dados.
KOMOGOROV-SMIRNOV E SHAPIRO-
WILK
• Testes de significância da origem de normalidade dos
dados de uma avaliação.

• Numero de avaliações menor que 50  Shapiro-wilk

• Numero de avaliações maior que 50  Komogorov-


smirnov

• Os testes retornam um valor de p, sendo que se p<


0,05, os dados não seguem uma distribuição normal.
• Determinada a normalidade dos dados passa-se a
determinação da diferenciação entre eles.

• É preciso saber se, estatisticamente, os


tratamentos que eu estou avaliando são
diferentes ou são iguais.

• Se as médias e variâncias dos tratamentos são


diferentes e se a causa desta diferença é de
origem dos resultados dos tratamentos ou se é
um fator externo.
Análise de variância ou ANOVA
• Todo experimento biológico eu tenho um resultado
de algo que eu quero avaliar sendo influenciado por
dois fatores  os tratamentos e o resíduo (acaso ou
erro).

• A analise de variância de Fisher vai indicar se as


variações nos resultados obtidos foram causadas
pelos tratamentos ou se foram causadas por fatores
externos ao experimento.
• Eu posso ter uma variância total nos resultados do
experimento, uma variância nos resultados do
resíduo de cada tratamento e nos resultados de cada
tratamento.

• Porque se faz essa avaliação?

• Para se determinar se estatisticamente se os meus


resultados são significativamente iguais (H0) ou
diferentes (H1).  teste de hipóteses
Exemplo
• Quer se avaliar qual a dosagem de um
determinado adubo que gera maior
crescimento em uma cultura. Para isso fez-se
um experimento com 3 tratamentos
diferentes, sendo T1 (0 gramas), T2 (10
gramas), T3 (20 gramas) deste adubo e mediu-
se o crescimento das plantas em 3 vasos para
cada tratamento.
• Anova fator único  não há influencia de outros
fatores sobre os resultados obtidos

• Anova fator duplo  há mais de um fator que


interfere nos resultados de uma mesma amostra.

• Como cada planta é afetada somente pela variação


do adubo presente em cada tratamento, o fator de
variação é único.
TRATAMENTOS PESO DE PLANTAS (g)

T1 (0 gramas) 3,02 3,06 3,04

T2 (10 gramas) 3,13 3,07 3,04

T3 (20 gramas) 2,94 3,02 3,13


ANOVA
Fonte da variação SQ gl MQ F valor-P F crítico
Entre grupos
(tratamentos) 0,0042 2 0,0021 0,543103 0,607033 5,143253

Dentro dos grupos


(resíduos) 0,0232 6 0,003867

Total 0,0274 8
• Teste F (F-statistic ou F-ratio)  Indica a
diferenciação ou não das médias obtidas nos
tratamentos.

• Se o F for menor do que o F crítico, não há diferença


significativa entre as médias dos tratamentos.
• F crítico indica o menor valor de F para que as
médias entre os tratamentos seja diferente.
• Valor de P < 0,05 (5%)  deve-se rejeitar a hipótese
de que não a diferença entre os tratamentos.
ANOVA
Fonte da variação SQ gl MQ F valor-P F crítico
Entre grupos
(tratamentos) 0,0042 2 0,0021 0,543103 0,607033 5,143253

Dentro dos grupos


(resíduos) 0,0232 6 0,003867

Total 0,0274 8
• Como F é menor do que o F crítico e

• O valor de p > 0,05

• Conclui-se que não a diferença significativa entre os


tratamentos e portanto, a variação da adubação
nestas dosagens não causa variação significativa no
crescimento das plantas.
ANOVA FATOR DUPLO
• EX:

Dia Vend 1 Vend 2 Vend 3


1 Sabado 377 450 503
2 Sabado 324 340 445
3 Sabado 247 328 345
4 Sabado 245 278 333
ANOVA
F. da variação SQ gl MQ F valor-P F crítico
Linhas (sabados) 45453,58 3 15151,19 34,74823 0,000345 9,779538
Colunas (vend,) 23466,5 2 11733,25 26,90941 0,001009 10,92477
Erro 2616,167 6 436,0278

Total 71536,25 11
• Nos determinamos se há diferença ou não
entre os tratamentos com a anova e o teste F.

• Mas não conseguimos identificar quais médias


dos tratamentos são diferentes e quais não
são.

• Teste Tukey.
• Teste de Tukey compara as médias entre os
tratamentos para verificar qual ou quais medias
diferem e com isso explicam as variações nos
resultados obtidos.

• 1 passo é determinar a DMS (diferença mínima


significativa)

• DMS = q x 𝑄𝑀𝑟𝑒𝑠í𝑑𝑢𝑜/𝑅𝑒𝑝𝑒𝑡𝑖çõ𝑒𝑠
• Passo 2 – Determinar a diferença entre os pares de
médias, da maior para a menor
• Ex: Media t2 – Media T1, Media T2 – Media T3...

• Passo 3 – Comparar o valor da diferença entre as


médias com a DMS.
• Se a diferença entre as médias for maior que a DMS,
há diferença significativa entre os tratamentos.
• Se a DMS for maior que a diferença entre as médias,
não há diferença significativa entre os tratamentos.
Exemplo: Comparar híbridos de milho pela
produtividade.

Há diferença estatística entre os híbridos de


milho testados?

Qual o mais produtivo?

Você também pode gostar