BIOMETRIA
FLORESTAL
Niro Higuchi
Joaquim dos Santos
Adriano José Nogueira Lima
Liliane Martins Teixeira
Manaus – AM
Março, 2007
PARTE 1
2
Capítulo 1
Introdução - Conceitos gerais
A estatística é uma ferramenta importante para o manejo florestal, seja pra quem está
interessado em trabalhar em pesquisas ou pra quem tem a responsabilidade de planejar,
executar e acompanhar um projeto. Difícil é separar a estatística pra estas duas frentes. O
objetivo desta Parte da apostila é aprofundar em conceitos dos indicadores estatísticos mais
freqüentemente utilizados pelos florestais e ajudar na interpretação dos resultados.
Estatística é um ramo do conhecimento científico que consta de conjunto de processos
que têm por objeto a observação, a classificação formal e a análise dos fenômenos coletivos
ou de massa (finalidade descritiva) e, por fim, investigar a possibilidade de fazer inferências
indutivas válidas a partir dos dados observados e buscar métodos capazes de permitir esta
inferência (finalidade indutiva). Durante uma defesa de tese no CENA-USP, surgiu um novo
conceito para estatística que, segundo Edgard, é "a arte de torturar os números até que eles
confessem aquilo que você quer ouvir."
Em inventário florestal, produto sem estatística não é produto. Em inventários, o
principal produto é o intervalo de confiança para a média estimada. Na pesquisa científica, a
estatística pode ser vista como um instrumento de comunicação. O seu uso é absolutamente
opcional. Quanto mais você a usa, mais você se comunica e, quanto melhor você a usa,
melhor é a sua comunicação no meio científico. Às vezes, o seu uso é desnecessário, mas isso
é raro. Assim como a revolução industrial mexeu com as comunicações, mexeu também com
a estatística, na mesma proporção. Como dizia grande Chacrinha “quem não se comunica, se
trumbica.”
Já foi o tempo que a estatística consistia meramente de coleta de dados e apresentações
em gráficos e tabelas. Hoje ela é parte da ciência que se baseia em dados observados,
processamento e análise, os quais são fundamentais em tomadas de decisões, face às
incertezas inerentes ao universo que trabalhamos. Isso é válido para um leque enorme de
atuação, desde incertezas no cara-e-coroa ou quando o professor compara a habilidade de
diferentes estudantes, quando o controle de qualidade aceita ou rejeita um produto
manufaturado, quando um jornal ou revista faz previsão de uma eleição, quando um
pesquisador projeta a dinâmica de uma floresta etc.
É evidente que a estatística não é, por si só, capaz de resolver todos os problemas que
envolvem incertezas, mas novas técnicas são constantemente desenvolvidas e a estatística
moderna pode, pelo menos, te ajudar a olhar essas incertezas de uma maneira mais lógica e
sistemática. Em outras palavras, a estatística fornece os modelos que são necessários para
estudar as situações que envolvem incertezas, mas a palavra final é sua.
O exercício, a análise e a interpretação do pensamento científico normalmente são
feitos por meio da linguagem operacional dos conceitos e hipóteses científicas. Isso implica
na formulação de hipóteses estatísticas e estabelecimento dos procedimentos de observações
diretas ou de medições.
Linguagem teórica: “quanto mais grossa é a árvore, mais madeira será oferecida à
indústria de transformação.” Neste caso, dois conceitos são envolvidos: espessura e madeira.
Com definir esses dois conceitos? Espessura pode ser o diâmetro de uma árvore. Madeira
pode ser a quantidade de material lenhoso disponível para a indústria.
E daí? Que fazemos agora? Temos que operacionalizar as observações e medições de
espessura e madeira. Espessura pode ser traduzida operacionalmente, por exemplo, em
3
centímetros de diâmetro à altura do peito (DAP), medido a 1,3 m do solo. E a madeira, por
sua vez, pode ser traduzida como volume cúbico da árvore.
Agora, a hipótese científica pode ser enunciada, em termos de hipótese estatística, da
seguinte maneira: “Quanto maior o DAP, maior será o volume da árvore.” Dessa forma, o
“pica-pau” fica mais à vontade.
Depois de formulada a hipótese, o passo seguinte consiste em testá-la. Para se testar as
hipóteses serão precisos: planejar a coleta de dados, coletar os dados, tratar os dados,
processar os dados, analisar os resultados e, finalmente, tomar decisões para rejeitar ou não a
hipótese estatística formulada – Ver figura 1.1..
O papel da estatística na pesquisa científica é ajudar o pesquisador “pica-pau” a
formular as hipóteses e a fixar as regras de decisão.
Um pouco de filosofia.
- Aristóteles escreveu: “A verdade é um alvo tão grande que dificilmente alguém
deixará de tocá-lo, mas, ao mesmo tempo, ninguém será capaz de acertá-lo em cheio, num só
tiro.”
- A meta da ciência é a organização sistemática do conhecimento sobre o universo,
baseado nos princípios explanatórios que são genuinamente testáveis.
- O pesquisador tem os dons da instituição e criatividade para saber que o problema é
importante e quais questões devem ser levantadas; a estatística, por sua vez, o assistirá por
meio da maximização de output não ambíguos enquanto minimiza os inputs.
- O pesquisador tem que ter em mente que a pesquisa freqüentemente levanta mais
questões do que respostas. Os resultados quase sempre são meramente uma demonstração de
nossa ignorância e uma declaração mais clara do que não sabemos.
- O pesquisador tem que manter os olhos abertos, sua mente flexível e estar preparado
para surpresas.
- A pesquisa está na cabeça do pesquisador; o laboratório ou o campo meramente
confirma ou rejeita o que a sua mente concebeu. A sabedoria consiste em conhecer mais as
questões certas para fazer e não nas certas respostas.
- A aplicação indiscriminada dos métodos quantitativos sobre inesgotáveis
quantidades de dados não significa que o entendimento científico vai emergir só por causa
disso.
1.1. A Natureza da Estatística:
Basicamente, são dois tipos de estatística: descritiva e de inferência.
A ciência da estatística inclui ambas, descritiva e de inferência. A estatística descritiva
apareceu primeiro, nos censos feitos na época do império romano. A de Inferência é mais
recente e é baseada na teoria da probabilidade que, por sua vez, não se estabeleceu antes da
metade do século XVII.
a) Estatística descritiva => consiste de métodos para organizar e sumarizar as
informações.
O propósito da organização e sumarização é te ajudar na interpretação de um monte de
informações. Os métodos descritivos incluem a construção de gráficos, figuras e tabelas,
como também, o cálculo de vários tipos de médias e índices. Exemplos: resultado final de
uma eleição apresentado pelo Tribunal Superior Eleitoral (TSE) – Quadro 1.1, desmatamento
4
na Amazônia – Figura 1.2., áreas desmatadas com autorização e sem autorização – Figura 1.3
e as origens da madeira amazônica – Figura 1.4.
b) Estatística de inferência => consiste de métodos para inferir sobre uma população
baseada na informação de uma amostra da população.
A estatística de inferência moderna praticamente surgiu após as publicações científicas
de Karl Pearson e Ronald Fisher, no início do século passado (XX). Depois disso, houve uma
evolução fantástica dessa ciência, tornando-se aplicável a várias áreas de conhecimento, tais
como: Eng. Florestal, Agronomia, Biologia, História, Física, Química, Psicologia etc.
Exemplo 1: Pesquisas de opinião realizadas pelas empresas (DATAFOLHA, IBOPE,
VOX POPULI etc), pouco antes de eleições. A Figura 1.5 mostra a dinâmica de opinião de
eleitores brasileiros na eleição para presidente de 2002 com base em pesquisas de opinião
realizadas pelo IBOPE. O resultado do 1º turno é apresentado na última coluna como TSE,
tirado do Quadro 1.1. Os resultados do IBOPE, do último dia de pesquisa (com margem de
erro igual a 1,8%), são praticamente iguais aos oficiais do TSE. A informação do TSE é sobre
votos válidos enquanto que os da pesquisa de opinião são de intenção de votos. Na pesquisa
de opinião do 1º turno é difícil identificar o voto “nulo”.
Exemplo 2: Pesquisas de opinião sobre o 2º turno da eleição presidencial 2002,
realizadas pelo Datafolha. Neste caso, foi possível estimar os percentuais sobre os votos
válidos. No último dia da pesquisa (26/10/02), o Datafolha estimou 64% dos votos válidos
para o Lula e 36% para o Serra. A Figura 1.6 mostra a dinâmica de opinião de eleitores para
o2º turno da eleição de 2002. O resultado do TSE (oficial) foi de 61,2% para o Lula e 38,7%
para o Serra – Quadro 1.1. Considerando a margem de erro de 2% (para mais e para menos),
as estimativas do último dia seriam 62% (para menos) para o Lula e 38% (para mais) para o
Serra.
Esta parte da estatística de inferência evoluiu muito no Brasil. A prova disso são os
resultados finais do primeiro e do segundo turno da eleição presidencial de 2002 que tem
muito a ver com as previsões feitas pelas pesquisas de opinião dos vários institutos. O sucesso
tem que ser creditado principalmente pela escolha correta do tipo de amostragem, coleta de
dados e processamento & análise dos resultados A evolução da informática também
contribuiu muito para o sucesso das pesquisas; o rápido processamento e, conseqüente,
análise dos resultados, permitiu a repetição em intervalos de tempo menores – isso é
fundamental para a validação dos métodos utilizados que, por sua vez, dá a robustez
necessária para a pesquisa e a sociedade ganha com a maior precisão e confiabilidade das
pesquisas de opinião.
Exemplo 3: Previsão da área desmatada para 2006 (agosto 2005 a julho 2006) com
base no intervalo de confiança (95%) da série histórica de 1978 a 2005 – Figura 1.7. Apesar
da confusão das estatísticas e de sua interpretação, com boa vontade e profissionalismo, as
causas do desmatamento poderiam ser identificadas. O desafio é entender a direção que o
desmatamento pode tomar no futuro. Sem entender as causas, a direção só pode ser
estocástica. A Figura 1.7 ilustra o uso do intervalo de confiança – IC (nível de probabilidade
de 95%) para a média do período 1978-2005. De acordo com dinâmica do desmatamento até
2005, as chances do desmatamento durante 2005-2006 (agosto 2005 a julho 2006) são: 29%
de ficar acima da estimativa máxima provável (maior do que 20.983 km 2), 29% abaixo da
estimativa mínima provável (menor do que 16.296 km2) e 42 % de ficar dentro do intervalo de
confiança (entre 16.296 a 20.983 km2) – com 95% de chance de acertar.
Exemplo 4: Todos os trabalhos de equações de volume que utilizam os modelos
destrutivos (na maioria das vezes) para ajustar os dados de volume real observado em
5
modelos matemáticos que serão utilizados, posteriormente, para estimar o volume da árvore
em pé.
Para concluir a discussão, em torno da natureza da estatística, é importante não perder
de vista que a opção por uma das duas estatísticas pode ser pessoal. Entretanto, se a escolha
recair sobre a de inferência, o pesquisador deve se sujeitar as suas regras e condicionantes. A
estatística de inferência, por sua vez, deve ficar sob as condicionantes da teoria da
probabilidade, da normalidade e da independência; a violação de uma dessas condicionantes
implica em um comprometimento muito sério de todo o seu trabalho.
1.2. Conceitos Básicos:
Talvez, os conceitos mais importantes para os florestais são erros amostrais e não
amostrais. Se você conseguir distinguir esses dois conceitos, você sempre fará um trabalho
confiável e, por conseguinte, a estatística será uma ferramenta útil na execução de seus
trabalhos de pesquisa, encurtando caminhos para a produção de ciência e de resultados de
inventário florestal.
(i) Erro Amostral => é o erro que você comete por não medir toda a população. Este
parâmetro é mensurável e, dependendo da escolha dos métodos, você tem condições de
aumentar ou diminuir este erro. De qualquer modo, trata-se de um parâmetro que pode ser
controlado e avaliado por você. É o desvio padrão da média ou, simplesmente, erro padrão e
tem fórmula para o seu cálculo. É a única medida de precisão, por mais paradoxal que possa
parecer, em qualquer trabalho de pesquisa ou de inventário florestal.
(ii) Erro não-amostral => é o erro humano, que pode ser cometido acidental ou
deliberadamente. É o tipo de erro que você comete ao alocar uma amostra no lugar errado –
ex.: no escritório você faz a opção pela amostragem inteiramente aleatória e sorteia as
unidades amostrais e distribui em sua área estudo; no campo, entretanto, você não consegue
alocá-las de acordo com as coordenadas pré-estabelecidas e alocá-as em outro lugar. Você
também comete erro não-amostral quando utiliza um equipamento defeituoso ou, por
preguiça, você “chuta” as medidas de uma determinada variável. O problema desse erro é que
você não consegue dimensioná-lo e, neste caso, não há estatística que dê jeito para consertar o
mal-feito. A estatística e o computador só são úteis na interpretação de fenômenos observados
quando os dados são de absoluta confiança e sem erros não-amostrais.
Moral: Busque sempre a melhor metodologia para conseguir a maior precisão de seu
trabalho sem, contudo, aumentar a possibilidade de cometer erros não-amostrais. BOM
PESQUISADOR é aquele que não entrega sua coleta de dados para qualquer “PEÃO”.
(iii) Populações, Parâmetros e Estimativas
A noção central em qualquer problema de amostragem é a existência de uma
população. Pense em uma população como um agregado de valores unitários, onde a
“unidade” é a coisa sobre a qual a observação é feita e o “valor” é a propriedade observada
sobre aquela coisa. População é então o conjunto de todos os indivíduos ou itens sob
consideração. Ou ainda: população é o universo de seu interesse.
Ilustrando:
- se você está interessado em estudar o potencial quantitativo da floresta da Reserva
Ducke, a POPULAÇÃO é o conjunto de todas as árvores acima de um determinado DAP,
existentes naquela área de 10.000 hectares.
- se para você potencial quantitativo significa volume cúbico obtido de equações
simples (DAP como variável independente), o volume médio (por hectare, por ex.) de todas as
árvores da Reserva Ducke é o PARÂMETRO.
6
- se você, no entanto, decidir pela avaliação por amostragem e lançar naquela área
algumas amostras (ex.: 10 amostras de 1000 m2, aleatoriamente distribuídas), o volume médio
dessas amostras é a ESTIMATIVA.
AMOSTRA é aquela parte da população da qual a informação é coletada.
(iv) Tendência (bias), Exatidão e Precisão
TENDÊNCIA ou VIÉS (bias, em inglês) é uma distorção sistemática. Ela pode ser
devido a alguma falha na medição, ou no método de selecionar a amostra, ou na técnica de
estimar o parâmetro.
Se você medir o DAP com uma fita diamétrica faltando um pedaço na ponta (2 cm),
você medirá todas as árvores com 2 cm a mais, ou seja, você superestimará esta variável. Uma
maneira prática de minimizar as tendências em medições é por meio de checagens periódicas
dos instrumentos, treinamento adequado para o pessoal que usa os instrumentos e cuidado
com eles.
Tendência devido o método de amostragem ocorre quando certas unidades ganham
maior ou menor representação na amostra do que na população. Ex.: se você excluir 20
metros de bordadura do lado oeste da Reserva Ducke por causa de um igarapé. Neste caso,
você está introduzindo tendência em sua avaliação simplesmente porque você não deu a
mesma oportunidade, para as árvores que ocorrem naquela faixa, em aparecer no seu trabalho.
Outro exemplo: quando a equipe econômica faz uma pesquisa nos supermercados do centro-
sul e extrapola o custo de vida para todo o Brasil; isso é uma medida tendenciosa que não
reflete o que se passa em Manaus.
Tendência na forma de estimar determinado parâmetro pode ser introduzida quando
você, por exemplo, toma o volume médio da Reserva Ducke e junta com o volume médio do
Distrito Agropecuário da SUFRAMA (600.000 hectares), para avaliar o potencial madeireiro
da região de Manaus. Um volume médio não tendencioso seria uma média ponderada
considerando os diferentes tamanhos de cada área, em vez de usar a média aritmética simples
(tendenciosa, neste caso).
Importante: A tendência é a mãe do erro não-amostral, por esta razão, evitá-la é sinal
de prudência e sensatez.
PRECISÃO E EXATIDÃO – uma estimativa tendenciosa pode ser PRECISA, mas
nunca EXATA. Ainda que o Aurélio (dicionário) pense diferente, para os estatísticos,
EXATIDÃO refere-se ao sucesso em estimar o valor verdadeiro de uma quantidade;
PRECISÃO refere-se à distribuição dos valores amostrais em torno de sua própria média que,
se for tendenciosa, não pode ser o valor verdadeiro – Ver figura 1.8. Exatidão ou estreiteza ao
valor verdadeiro pode estar ausente por causa da tendência, falta de precisão ou por causa de
ambas.
7
PENSAMENTO
OPERACIONALIZAR
HIPOTETIZAR
sim, concluir!
8
Quadro 1.1: Resultados das eleições para presidente de 2002.
04/05 18.900
03/04 27.200
02/03 24597
01/02 23.266
00/01 18.165
99/00 18.226
ano ou período
98/99 17.269
97/98 17.383
96/97 13.227
95/96 18.161
94/95 29.059
92/94 14.896
91/92 13.786
90/91 11.030
89/90 13.730
87-89 17.770
78/87 21.050
área desmatada em km2
fonte: www.inpe.br
9
3.000 45
A D A:D (%)
Figura 1.3: Relação entre áreas (em km2) desmatadas com autorização e sem autorização na
Amazônia.
sem origem
63%
d autorizado
20%
PMFS
17%
10
50 45
46
43
45 41 41
39 39
40
0
6 a 9/9 14 a 16/9 17 a 19/9 21 a 24/9 28 a 30/9 4 e 5/10 TSE
período da pesquisa
Figura 1.5: Pesquisas de opinião realizadas pelo IBOPE para o 1º turno da eleição
presidencial de 2002.
70
61
58 59 58
60
intenção de votos (%)
50
40
32 32 31 32
30
20
6 6 7
10 4
4 3 4 3
0
11 out 18/out 23/out 26/out
data
Figura 1.6: Pesquisas de opinião realizadas pelo Datafolha para o 2º turno da eleição
presidencial de 2002.
11
área média mínima máxima
30.000
24.000
22.000
21.060
20.000
18.689
18.000
16.000 16.317
Acima = 29%
14.000
2005/06? Dentro = 42%
12.000
Abaixo = 29%
10.000
78/87
87-89
89/90
90/91
91/92
92/94
94/95
95/96
96/97
97/98
98/99
99/00
00/01
01/02
02/03
03/04
04/05
05/06
ano ou período
Figura 1.7: Previsão da área desmatada para 2006 (agosto 2005 a julho 2006) com base no
intervalo de confiança (95%) da série histórica de 1978 a 2005.
12
Capítulo 2
Organização dos dados
2.1 Dados:
A informação coletada e analisada pelo estatístico é chamada de DADOS. Há vários
tipos de dados e a escolha da metodologia, pelo estatístico é, parcialmente, determinada pelo
tipo de dados que ele tem em mãos.
Exemplo 1: No exame de seleção para turma 90/91 do Manejo Florestal, tivemos 15
candidatos, 13 homens e 2 mulheres. Do total, apenas 7 fizeram o exame. Foram aprovados 6
candidatos, 5 homens e 1 mulher. João da Silva tirou o primeiro lugar com nota 6,7 e Joaquim
Moreira tirou o último lugar com a nota 5,0.
No exemplo acima, nós podemos destacar os seguintes tipos de dados:
QUALITATIVO – o tipo mais simples de dados, é a informação que coloca cada
candidato em uma das duas categorias “homem ou mulher” ou “tipo florestal I ou tipo II” ou
“estocada ou não estocada” etc. Esses dados dão informações sobre um indivíduo ou um item.
ORDINAL – A informação sobre classificação, dados que colocam os indivíduos ou
objetos em ordem, “rankeados”. No exemplo, as classificações de João e Joaquim são dados
ordinais.
MÉTRICO – O termo métrico se refere aos dados mensuráveis e não deve ser
confundido com os dados em unidades métricas. No exemplo, as notas dos candidatos (6,7 e
5,0 e outras notas) são dados métricos.
Resumindo:
Dados qualitativos: dados que se referem à qualidade não numéricas ou atributos, tais
como: tipo florestal, gênero ou espécie florestal, cor de alguma coisa etc.
Dados ordinais: dados sobre classificação, ordem ou “rank”, tais como: classificação
de toras, ordem de chegada etc.
Dados métricos: dados obtidos de medições de certas quantidades como: tempo,
altura, DAP, volume, peso etc.
Um outro importante tipo de dados é o chamado DADOS CONTÁVEIS. A contagem
do numero de indivíduos ou itens que caem em várias categorias, tais como “homem” e
“mulher” fornece os dados contáveis. Por exemplo, a informação dada no exemplo anterior
que foram aprovados 5 homens e 1 mulher, são dados contáveis.
DADOS CONTÁVEIS são dados sobre o número de indivíduos ou itens que caem
em certas categorias ou classes, que podem ser obtidos de quaisquer tipos de dados
(qualitativo, ordinal ou métrico).
Os dados QUALITATIVO e ORDINAL são referidos pelos estatísticos como dados
DISCRETOS porque eles classificam coisas em classes separadas e discretas. Na
classificação dos candidatos ao mestrado não há como colocar ninguém entre o primeiro lugar
e o segundo. Também não há como classificar ninguém entre “homem” e “mulher.” São
exemplos típicos de dados discretos, porque não há como dizer que alguém ficou em
“primeiro lugar e meio” ou o que fulano é “homem e meio”. No caso de ordem de chegada ou
“rank” há possibilidade de empate, mas isso é outra coisa e será discutido na estatística não-
paramétrica.
13
Por outro lado, a maioria dos dados métricos é considerada DADOS CONTÍNUOS
porque eles envolvem medições sobre uma escala contínua. A escala fica por conta da
precisão do aparelho de medição: na suta ou na fita diamétrica, o máximo que podemos
chegar é décimo de centímetros, ou seja, entre os DAPs 20 e 21 cm nós podemos ter DAPs
com 20.1, 20.2, ... , 20.9; nos cronômetros da Fórmula – 1, no entanto, o nível de precisão é
impensável para os nossos relógios de pulso.
2.2 Dados grupados:
A quantidade de dados que pode ser coletada do “mundo-real” é simplesmente
fantástica.
Exemplo 1: O censo brasileiro. Você já imaginou a trabalheira que dá para cadastrar
aproximadamente 180 milhões de pessoas, anotando o nome, sexo, idade, ocupação,
escolaridade etc. Apenas para ilustrar, se você usar qualquer software (Excel ou Word) para
listar toda essa gente, você gastará mais de 600 quilômetros de papel apenas para imprimir as
informações básicas, é Manaus-Itacoatiara-Manaus. Com todo esse papel, dificilmente você
teria uma boa fotografia da população brasileira. Então, o que fazem os especialistas do
IBGE? Eles nos proporcionam variadas informações: quantidades de homens e de mulheres
(X1); X1 por classe idade (X2); X2 por estado e por região; X1 por nível de escolaridade;
população ativa etc.
Isso é um exemplo típico da aplicação da estatística DESCRITIVA, por meio da
organização e simplificação dos dados.
Exemplo 2: Dados sobre DAP das árvores da parcela-testemunha do bloco 2 (apenas
as 40 primeiras árvores).
Os “pica-paus” normalmente pensam no DAP em classes de 10, 20, 30, 40 cm etc.
Para ver quantos DAPs há em cada classe você faz o seguinte:
Quadro 2.1. Dados de DAPs de 40 árvores.
14
Quadro 2.2. Cálculo de freqüência de cada classe de diâmetro.
20
18
16
freqüência absoluta
14
12
10
8
6
4
2
0
Freq
15
A freqüência pode ser também apresentada em porcentagem ou decimal, conhecida
como FREQUÊNCIA RELATIVA. No quadro 2.3 para obter a freqüência relativa de cada
classe, bastou dividir a freqüência de cada classe por 40 (número total de indivíduos
contados). Se multiplicarmos essas frações por 100, teremos a freqüência em %, caso
contrário, em decimais.
Quadro 2.3. - Distribuição de Freqüência relativa do quadro 2.1.
Algumas terminologias:
Classe – uma categoria para o grupamento de dados.
Freqüência – o número de indivíduos ou objetos numa classe. A freqüência da classe
30-39.9 é 19.
Freqüência relativa – a porcentagem, expressa como um decimal, do número total de
indivíduos de uma determinada classe. A freqüência relativa da classe 50-59.9 é 0.1 ou 10%.
Freqüência acumulada – é a soma das freqüências dos valores inferiores ou iguais a
valor dado.
Distribuição de Freqüência – a listagem das classes com suas freqüências.
Limite inferior da classe – o menor valor que pode ir dentro de uma classe. Na classe
20-29.9 o limite inferior é 20.
Limite superior da classe – o maior valor que pode ir dentro de uma classe. Na classe
20-29.9 o limite superior é 29.9. Se a precisão fosse de duas casas decimais, o limite superior
poderia ser 29.99 e assim por diante.
Intervalo de classe – é a diferença entre o limite superior e o limite inferior de uma
dada classe. No nosso exemplo, o intervalo é 10, ou seja, 30 – 20 =10.
Ponto médio da classe – é a média aritmética entre o limite superior e limite inferior
da classe. Assim, se a classe for: (20+29.99)/2 = 25. Da classe 30-39.9 o ponto médio é 35 e
assim por diante.
2.3 Gráficos e figuras:
Uma outra maneira de dar sentido a um conjunto de dados é por meio da representação
gráfica dos mesmos.
O gráfico mais simples dos dados é o HISTOGRAMA DE FREQUÊNCIA. A altura
de cada barra é igual a freqüência que ela representa. Tem também o HISTOGRAMA DE
FREQUÊNCIA RELATIVA. Há muitas outras formas de representação gráfica de seus
dados. Hoje em dia, uma forma muito usada é a PIE (torta). De qualquer modo, fique a
vontade e use de sua imaginação para dar a representação mais conveniente dos seus dados.
16
Capítulo 3
Medidas descritivas
Há muitos critérios, por sinal, bem avançados, para a descrição sucinta dos fenômenos
naturais. Apesar disso, a maioria das características usadas na estatística, para descrever as
variáveis aleatórias, em populações particulares, caem em uma das três categorias: (1)
medidas da tendência central (alocação de um valor ordinário); (2) medidas de dispersão
(distância relativa de valores extremos de um valor central); (3) medidas de relacionamento
entre as variáveis (grau de similaridade ou dissimilaridade em magnitude).
Em geral, o volume de dados de uma pesquisa é muito grande. Os métodos de gráficos
e grupamento de dados são úteis no manuseio de um grande conjunto de dados. Uma outra
forma de sumarizar os dados é por meio da computação de um número, tal como a média, a
qual substitui um grande volume de dados por um simples número.
3.1 Medidas de tendência central:
As medidas de alocação mais comumente utilizadas são média aritmética e a mediana.
Menos freqüentemente usadas são: moda, percentil, média geométrica e média harmônica.
A média comum ou média aritmética ou simplesmente média, é a mais freqüentemente
usada de todas as medidas estatísticas.
Média – é simplesmente a soma de todas observações (DAP, altura, idade) dividida
pelo número total de observações. É a medida que tem a menor variabilidade de amostra para
amostra, é fácil de ser manuseada matematicamente e tem as propriedades mais desejáveis em
conexão com as distribuições de probabilidade.
Mediana – é o valor de uma variável aleatória que, em ordem crescente ou
decrescente, está “rankeado” no meio, entre os valores maiores e menores. Em amostras com
número par de observações, a mediana é a média aritmética dos 2 valores que estão
“rankeados” no meio. Estimativas da mediana de pequenas amostras não são muito
confiáveis.
Moda – é o valor mais freqüente, ou seja, é a categoria ou classe com a maior
freqüência. É uma medida fácil e rápida de ser obtida, mas, por outro lado, fica sempre sujeita
a variação extrema de uma amostra para outra, ao menos que a amostra seja bem grande.
Percentil – para um melhor entendimento pense na mediana como o 50-ésimo
percentil.
Média geométrica – é a n-ésima raiz de um produto de n valores, ou antilog da média
aritmética dos logs de um conjunto de valores e é sempre tão pequeno ou menor que a média
do mesmo conjunto de dados.
Média harmônica – é a recíproca da média de um conjunto de dados recíprocos e é
tão pequena ou menor que a média geométrica para um mesmo conjunto de dados.
Para dados ordinais, é preferível utilizar-se da mediana, apesar de que a média é, as
vezes, utilizada.
Para dados métricos pode ser usada a média ou a mediana. Como com dados ordinais,
a mediana é preferida para propósitos descritivos. A maioria das teorias estatísticas para dados
métricos usa a média.
17
Computação de Média, Mediana e Moda
_
Média – a estimativa da média, x ou ӯ, do parâmetro , é obtida da seguinte maneira:
Dos dados do quadro 2.1, a média será:
( x1 x 2 .... x 40 )
x
40
_
x = 38,225
Mediana – do quadro 2.1, primeiro é preciso ordenar em ordem crescente,
(1ª) (2) (3) (4) (5) (6) (7) (8) (9) (10)
25 27 27 27 27.7 28 28 29 30 30
(11) (12) (13) (14) (15) (16) (17) (18) (19) (20)
31.8 32 32 32 33 33 33 33 34 34
(21) (22) (23) (24) (25) (26) (27) (28) (29) (30)
35 36 36 37 37 38.5 39 40 40 41
(31) (32) (33) (34) (35) (36) (37) (38) (39) (40ª)
43 45 47 47 52 53 58 58 63 77
Neste caso, o número total de observações, n, é par, a mediana será a média aritmética
dos vigésimo e vigésimo-primeiro valores, ou seja, (34 + 35)/2 = 34.5.
Moda – é simplesmente o ponto médio da classe que tem a maior freqüência, que no
nosso caso, quadro 2.2, é 35, que tem a freqüência = 19.
Resumo das estimativas das medidas:
Média = 38,225
Mediana = 34,5
Moda = 35,0
Interpretação: um conjunto de dados pode ter mais de uma moda, mas sempre terá
somente uma média ou mediana. Como você pode ver, de um mesmo conjunto de dados, você
tem diferentes medidas de tendência central. Qual delas é a melhor? A decisão vai depender,
principalmente, do objetivo de sua informação. Quando a gente vende madeira em volume,
normalmente truncada a um determinado diâmetro mínimo, a média deve prevalecer tendo em
vista a maior facilidade para os cálculos posteriores. Se a árvore é vendida em pé, a moda
pode ser mais interessante, porque ela dá uma noção também da distribuição de freqüência. A
utilização da mediana é mais prática na tomada de decisões quanto a tratamentos
silviculturais, desbastes etc., quando você precisa priorizar o tamanho que precisa sofrer
intervenções.
18
3.2. Medidas de dispersão:
Uma medida de dispersão é um número usado para mostrar quanto de variação existe
num conjunto de dados.
Até agora discutimos somente as medidas de tendência central. Entretanto, 2 conjuntos
de dados podem ter a mesma média ou a mesma mediana e, mesmo assim, ser bastante
diferente.
Exemplo 1: Dois conjuntos de dados (turmas de Manejo e Ecologia), no quadro 3.1
Quadro 3.1. Idades de alunos dos cursos de manejo e ecologia do INPA
Manejo (CFT) Ecologia
aluno idade aluno idade
1 25 1 22
2 28 2 30
3 30 3 28
4 29 4 21
5 28 5 39
média 28 média 28
As médias dos dois grupos são iguais. No entanto, é claro que estamos nos referindo a
dois grupos diferentes em idade. Dá para perceber que o grupo do Manejo é mais uniforme
em termos de idade. Neste caso, para ver a variação que há dentro de cada conjunto de dados,
podemos usar a amplitude total ou o desvio padrão, as duas medidas de dispersão mais
comuns.
AMPLITUDE TOTAL – é a medida da variação olhando apenas a diferença entre o
maior e o menor valor. Esta medida é de fácil computação porque depende apenas do maior e
do menor valor, mas, em compensação ela não diz o que acontece entre esses dois valores.
Além disso, é considerada muito limita, sendo uma medida que depende apenas dos valores
externos, é instável, não sendo afetada pela dispersão dos valores internos.
Do quadro 3.1, as amplitudes são:
- Manejo: 30 – 25 = 5
- Ecologia: 39 – 21 = 18
DESVIO PADRÃO – nos dá a dispersão dos indivíduos em relação à média. Ele nos
dá uma idéia se os dados estão próximos da média ou muito longe. O desvio padrão dos
indivíduos de uma população é freqüentemente simbolizado pela letra grega minúscula ().
Dificilmente a gente trabalha com o parâmetro. Entretanto, dado uma amostra de valores
individuais de uma população, podemos fazer uma estimativa de que é comumente
simbolizada por s.
n
2
(x i - x)
i 1
Fórmula : s
n -1
n 2 n
2
x i - (( x i ) ) / n
i 1 i 1
ou, mais simples : s
n -1
19
_
Por que o denominador é (n-1) em vez (n)? Porque os n desvios, (xi – x ), são
_
necessariamente conectados pela relação linear ( xi – x ) = 0. Se você especifica o valor de
e os ( n-1 ) valores de xi, então o valor do último xi é fixo; isto é, é uma informação
_
redundante. Por esta razão, ao usar a média amostral x em vez da média da população
como um ponto central no cálculo de s, você perde um grau de liberdade (gl) e a estimativa de
é dita ter ( n – 1 ) gl associados com ela. O uso de (n – 1) em vez de (n) no cálculo de s
também fornece uma estimativa não-tendenciosa; isto é, em uma série infinita de amostras
aleatórias, o valor médio do estimador é igual a .
Os desvios padrões dos dados do quadro 3.1 são:
- Manejo: s = 1.87
- Ecologia: s = 7.25
Resumindo: quanto maior a variação dentro de um conjunto de dados, maior será o
desvio padrão. Do exemplo 2 nós constatamos agora, que apesar dos dois terem as mesmas
medidas de tendência central, média e mediana, as medidas de dispersão são totalmente
diferentes. Isto quer dizer que o grupo de Manejo é mais homogêneo em idade, comprovada
pela menor variação encontrada.
Cálculo da média e desvio dos dados grupados:
A média é calculada da seguinte maneira:
_
x = ( ∑ xi * fi ) / n
onde: xi = ponto médio da classe, fi = freqüência de cada classe e n = número de classes
E o desvio padrão segue o mesmo princípio da média em relação às classes.
Do quadro 2.2, essas medidas serão:
_
x = 38,5 e s = 11,45
3.3. Medidas de relacionamento:
As medidas mais comumente utilizadas para relacionamento são correlação e
regressão. Vários tipos de correlação podem ser usados para medir o grau de associação
(similaridade ou dissimilaridade) entre 2 (ou mais) variáveis aleatórias, independente das
unidades de medida e mudanças lineares em escala. Estas medidas serão vistas, em detalhe,
num capítulo específico.
3.4 Percentil:
Nós já vimos um exemplo de percentil. A mediana divide um conjunto de dados em
duas partes, 50% de um lado e 50% de outro, depois de colocá-los em ordem crescente. Por
esta razão ela se refere ao qüinquagésimo percentil de um conjunto de dados. Além dos
percentils, que pode dividir os dados de acordo com qualquer valor percentual, o pesquisador
pode também querer encontrar o quartil e o decil.
Quartil é a separatriz que divide a área de uma distribuição de freqüência em
domínios de área igual a múltiplos inteiros de um quarto da área total.
Decil é a separatriz correspondente ao valor do argumento que divide a distribuição
numa razão decimal.
Exemplo: dados do quadro 2.1 em ordem crescente.
20
Primeiro quarto
25 27 27 27 27.7 28 28 29 30 30
Segundo quarto
31.8 32 32 32 33 33 33 33 34 34
Terceiro quarto
35 36 36 37 37 38.5 39 40 40 41
Quarto quarto
43 45 47 47 52 53 58 58 63 77
Computações:
21
Quando os maiores se associam com os menores, ou vice-versa, a covariância é negativa.
Quando não há uma associação particular de x e y, a covariância tende a zero.
As fórmulas são:
Variância, s2 = SQCx /(n-1)
Covariância, sxy = SPCxy / (n-1)
22
Fórmulas úteis
n n
( ∑ xi ) 2 ( ∑ yi ) 2
n i= n i=
2 2
SQCx = ∑ xi - 1 SQCy = ∑ yi - 1
i= i=
1
n 1
n
n ( ∑xi ) ( ∑yi )
SPCxy = ∑ xi yi -
i=1 n
Coeficiente de correlação
SPCxy
r =
√ SQCx SQCy
23
Capítulo 4
Probabilidade
No capítulo 1 nós distinguimos dois tipos de estatísticas: descritiva e de inferência. A
estatística descritiva envolve a organização e a sumarização dos dados. A estatística de
inferência lida com inferências (predições educadas) sobre uma população baseada em uma
amostra da população.
Desde que a estatística de inferência envolve predições (educadas), é sempre possível
fazer uma inferência incorreta. É preciso saber o quanto a nossa inferência está correta. Para
medir a chance de estar certo na nossa inferência estatística, precisamos entender a teoria de
probabilidade, que é a fundamentação matemática para a estatística de inferência.
Para entender os princípios da teoria de probabilidade não há como fugir dos exemplos
clássicos de “cara & coroa”, dos dados e do jogo de baralho. A propósito, a teoria foi
desenvolvida por causa de jogos de azar. O objetivo deste capítulo é dar uma base geral para
facilitar o entendimento da aplicação de testes de hipóteses, paramétrica e não-paramétrica.
O processo de computação (cálculo) de probabilidades depende de sua capacidade de
contar, “1, 2, 3 e assim por diante.” A seguir vamos discutir alguns métodos de contagem.
4.1. Contagem:
Primeiro vamos estabelecer as seguintes definições dentro da teoria de probabilidade.
Resultado - no caso de “cara ou coroa”, 2 resultados são possíveis e no caso do jogo de
dados, 6 resultados.
Teste - (ou tentativa) - é a ação de jogar a moeda e ver se ela cai com a cara ou
coroa.
Experimento - é o conjunto de testes (tentativas); se a moeda é jogada uma vez, ou
duas, ou n vezes, não interessa – o procedimento deve ser considerado um experimento.
Eventos - são os possíveis resultados de um teste, vários testes ou de todo o
experimento. Exemplo de evento: “uma coroa em 4 jogadas” ou “pelo menos um é cara”.
REGRA 1: Se um experimento consiste de n testes, onde cada teste pode resultar em um dos
k possíveis resultados, afirmamos que há kn possíveis resultados de todo o experimento.
Exemplo 1: no jogo da moeda você tem dois resultados, cara (C) ou coroa (c), k=2.
Se você jogar apenas uma vez, n=1, você terá 21 = 2 possíveis resultados, C ou c. Se você
jogar duas vezes, n = 2, você terá 22 = 4 possíveis resultados, CC cc Cc cC.
REGRA 2: Há n! (fatorial) maneiras de arranjar n objetos distinguíveis em uma seqüência.
24
no entanto, quiser saber todos os possíveis arranjos do primeiro ao oitavo lugar você fará 8! =
40320 arranjos.
REGRA 3: se um grupo de n objetos é composto de k objetos idênticos de um tipo e o
restante (n-k) objetos são objetos idênticos de um segundo tipo, o número de arranjos
distinguíveis dos n objetos numa seqüência, denotado por meio de
n n n!
é dado por
k k k! (n - k)!
n n n!
é dado por
ni ni n1! n2! ... nr!
25
Dois diferentes eventos podem ter pontos comuns e ambos. Os eventos “pelo menos
uma cara” e “pelo menos uma coroa” tem os pontos Cc e cC em comum. Se dois eventos não
têm pontos em comuns eles são chamados de eventos mutuamente exclusivos porque a
ocorrência de um evento automaticamente exclui a possibilidade de ocorrer outro evento ao
mesmo tempo.
Para cada ponto no espaço amostral há um número correspondente chamado de
probabilidade do ponto ou probabilidade do resultado. Estas probabilidades podem ser
quaisquer números entre 0 a 1. A definição da probabilidade de um evento inclui a definição
da probabilidade de um resultado como um caso especial, desde que o evento possa ser
considerado como que se consistisse de um resultado simples.
Na prática, o conjunto de probabilidades associadas com um particular espaço
amostral é raramente conhecido, mas as probabilidades são atribuídas de acordo com as
noções pré-concebidas do pesquisador, isto é, o pesquisador formula um modelo como uma
versão ideal do experimento. Então, o espaço amostral do modelo experimental é examinado e
as probabilidades são atribuídas aos vários pontos do espaço amostral de alguma maneira que
o pesquisador sinta que pode ser justificada.
Exemplo 3: Num experimento consistindo de uma única jogada de uma moeda “não
viciada”, é razoável assumir que o resultado cara (C) tem metade da chance de ocorrer.
Assim, podemos atribuir a probabilidade de ½ para o resultado C e o mesmo para c. Isso pode
ser escrito da seguinte maneira: P (C) =1/2 e P (c) = 1/2 .
Exemplo 4: Num experimento consistindo de 3 jogadas (testes), é razoável assumir
que cada um dos 23 = 8 resultados CCC CCc CcC Ccc cCC ccC cCc ccc tem a mesma
chance de ocorrer. Assim, a probabilidade de cada resultado é 1/8. Também P (3 caras) = 1/8,
P (pelo menos 1 cara) = 7/8, P (pelo menos 2 caras) = 4/8 = ½.
(iv) Função de Probabilidade: é uma função que atribui probabilidades aos vários
eventos no espaço amostral.
Várias propriedades dessas funções são aparentes. Considere S como espaço amostral
e A, B ou C como qualquer evento em S. Então, se P é a função de probabilidade, P(S) = 1,
P(A) > 0 e P(a) = 1 – P(A), onde a é o evento “o evento não ocorre”.
(v) Probabilidade Condicional: é a probabilidade de ocorrer A dado B.
P (A | B) = [ P (AB) ] / [ P (B) ]
onde P (B) > 0, caso contrário, é indefinido.
Exemplo 5: Considere o jogo de dados, tal que cada um dos 6 possíveis resultados
tem a probabilidade de 1/6 de ocorrer. Como antes, deixe A ser o evento “a ocorrência de 4, 5
ou 6” e B o evento “a ocorrência de um número par” . Então P (AB) = P (4 ou 6) = 2/6 = 1/3.
Também, P (B) = 3/6 = ½. Então, a probabilidade condicional P (A|B) é dada por
1/ 3
P (A | B) 2/3
1/ 2
26
Exemplo 6: Num experimento consistindo de 2 jogadas de moeda, os 4 pontos no espaço
amostral assumem ter a mesma probabilidade. Deixe A ser o evento “um cara ocorre na
primeira jogada” e B ser o evento “uma cara ocorre na segunda jogada.” Então A tem os
pontos CC e Cc. B tem os pontos CC e cC. AB tem os pontos CC. Também P (A) = 2/4, P (B)
= 2/4 e P (AB) = 1/4.
P (AB) = (2/4) (2/4) = 4/16 = 1/4
satisfaz a equação anterior e, por esta razão, A e B são independentes.
(vii) Experimentos Mutuamente Independentes: são mutuamente independentes se
todos os conjuntos de n eventos formados tiverem a seguinte equação como verdadeira:
P ( A1, A2, ..An) = P (A1) P(A2) ...P (An)
onde Ai representa um resultado do i-ésimo experimento para i = 1, 2, ....n.
Exemplo 7: Considere um experimento com 1 jogada da moeda, onde o evento C tem
a probabilidade p e o evento c tem a probabilidade q = 1 – p. Considere 3 repetições
independentes do experimento, onde o subscrito será usado para diferenciar o experimento
com o qual o resultado está associado. Dessa maneira, C1 c2 C3 significa que o primeiro
experimento resultou em C, o segundo em c e o terceiro em C. Por causa de nossa hipótese de
independência,
P (C1 c2 C3) = P (C1) P (c2) P (C3) = pqp
Se considerarmos o evento “exatamente 2 caras” associado com os experimentos
combinados, o seguinte pode ocorrer
3 6
3 maneiras e consequentemente
2 2
P ( exatamente 2 caras) 3p 2 q
n
P (exatament e k caras) p k q n - k
k
onde p = P(C) em qualquer jogada.
27
Quadro 4.1: Distribuição de número de crianças por família.
O quadro 4.1 mostra, por ex., que 17,5% (0.175) das 40 das famílias possuem 2
crianças.
Agora, suponha que uma das famílias tenha sido selecionada aleatoriamente, ou seja,
cada família teve igual chance de ser escolhida. Qual é a probabilidade que a família
selecionada tenha 3 crianças? A resposta é 4/40, que é a mesma frequência relativa.
Suponha que há N resultados possíveis num experimento. A probabilidade que um
evento ocorra é o número de vezes, f, que o evento pode ocorrer, dividido pelo número total,
N, de possíveis resultados.
4.3. Variáveis aleatórias:
No exemplo 8 nós vimos um levantamento que classificou cada uma das 40 famílias
de acordo com o número de crianças na família. Desde que “o número de crianças” varia de
família para família, ela é chamada de variável. Quando selecionamos uma família
aleatoriamente, o “número de crianças” é uma variável aleatória desde que o seu valor (um
número real) depende de uma chance.
Definição 1: Uma variável aleatória é uma função que atribui números reais aos
pontos num espaço amostral.
As variáveis aleatórias são normalmente representadas pelas letras maiúsculas W, Y
ou Z com ou sem subscritos. Os números reais atribuídos pelas variáveis aleatórias serão
representadas por letras minúsculas.
Exemplo 1: Num experimento onde ao consumidor é dado a chance de escolher 3
produtos, sabonete, detergente ou marca A, o espaço amostral consiste dos 3 pontos
representando as 3 possíveis escolhas. Deixe a variável aleatória atribuir o número 1 para a
escolha “marca A” e o número 0 (zero) para os outros 2 possíveis resultados. Então, P(X = 1)
é igual a probabilidade do consumidor escolher a marca A.
Exemplo 2: Para 6 meninas e 8 meninos é perguntado se eles se comunicam mais
facilmente com suas mães ou com seus pais. Deixe X ser o número de meninas que pensam
que comunicam melhor com suas mães e deixe Y ser o número total de crianças que pensam
que comunicam melhor com suas mães. Se X = 3, nós sabemos que ocorreu o evento “3
meninas pensam que comunicam melhor com suas mães.” Se, ao mesmo tempo, Y = 7, nós
sabemos que ocorreu o evento “3 meninas e 7 – 3 = 4 meninos pensam que se comunicam
melhor com suas mães.”
Se X é uma variável aleatória, “X = x” é uma notação simplificada que usamos para
corresponder ao mesmo evento no espaço amostral, especificamente o evento que consiste do
conjunto de todos os pontos para os quais a variável X foi atribuído o valor “x”.
Exemplo 3: Num experimento consistindo de 2 jogadas de moeda, deixe X ser o
número de caras. Então, X = 1 corresponde ao evento contendo os pontos Cc e cC.
28
Dessa maneira, “X = x” é, às vezes, referida como o “evento X = x,” quando, na
realidade, pretendeu-se dizer “o evento consistindo de todos os resultados atribuídos o
número x pela variável aleatória X.”
Por causa desta estreita correspondência entre variáveis aleatórias e eventos, as
definições de probabilidade condicional e independência se aplicam igualmente bem as
variáveis aleatórias.
Definição 2: A probabilidade condicional de X dado Y, P (X = x | Y = y), é a
probabilidade que a variável aleatória X assume o valor x, dado que a variável aleatória Y já
assumiu o valor y.
P (X x, Y y)
(1) P(X x | Y y) se P(Y y) 0
P(Y y)
Exemplo 4: Deixe X ser o número de meninas que se comunicam bem com suas
mães, das 6 meninas entrevistadas, como no exemplo 2 e deixe Y ser o número total de
crianças que se comunicam bem com suas mães. Por conveniência, deixe Z=Y-X, tal que Z é
igual ao de meninos, dos 8 entrevistados, que se comunicam bem com suas mães. Assuma que
as respostas dadas pelas crianças são independentes de cada outra e que cada criança tem a
mesma probabilidade p (desconhecida) de dizer que se comunica bem com a sua mãe.
Encontre a probabilidade condicional P ( X=3 | Y=7).
Primeiro, pelas suposições anteriores, X=3 e Z=4 são eventos independentes. Desde
que o evento (X=3, Y=7) é o mesmo que o evento (X=3, Z=4), temos a probabilidade
14
(3) P(Y 7) p 7 (1 - p)7
7
29
6 8
3 4
(4) P(X 3 | Y 7)
14
7
6! 8!
3! (6 - 3)! 4! (8 - 4)!
0.408
14!
7! (14 - 7)!
Como os pontos no espaço amostral são mutuamente exclusivos, os valores que uma
variável aleatória pode assumir são também mutuamente exclusivos. Para um simples
resultado de um experimento, a variável aleatória é definida por apenas um número. Assim,
todo o conjunto de valores que uma variável aleatória pode assumir tem as mesmas
propriedades do espaço amostral. Os valores individuais assumidos pela variável aleatória
correspondem aos pontos no espaço amostral, um conjunto de valores corresponde a um
evento e a probabilidade da variável aleatória assumir qualquer valor dentro de um conjunto
de valores é igual a soma das probabilidades associadas com todos os valores dentro do
conjunto. Por exemplo:
P (a X b) P(X x)
a x b
onde o somatório se estende a todos os valores de x entre, não incluindo os números a e b,
P (X número par) P (X x)
x par
onde o somatório se aplica a todos os valores de x que são pares. Por causa dessa similaridade
entre o conjunto de valores possíveis de X e um espaço amostral, a descrição do conjunto de
probabilidades associadas com os vários valores que X pode assumir, é freqüentemente
chamado de função de probabilidade da variável aleatória X, assim como um espaço amostral
tem uma função de probabilidade. Entretanto, a função de probabilidade de uma variável
aleatória não é uma atribuição arbitrária de probabilidades, como é a função de probabilidade
para um espaço amostral. Isto porque uma vez que as probabilidades são atribuídas aos pontos
num espaço amostral e uma vez que a variável aleatória X é definida no espaço amostral, as
probabilidades associadas com os vários valores que X são conhecidos e a função de
probabilidade de X é, dessa maneira, já determinada.
Definição 3: A função de probabilidade da variável aleatória X, usualmente
representada por f(x) ou de outra maneira qualquer, é a função que dá a probabilidade de X
assumir o valor x, para qualquer número real x, ou seja,
30
Definição 4: A função de distribuição de uma variável aleatória, usualmente
representada por F(x), é a função que dá a probabilidade de X ser menor ou igual a qualquer
número real x, ou seja,
n
( 7) f(x) P(X x) p x q n -x para x 0,1, .., n
x
onde: n é número inteiro positivo, 0 p1 e q =1 – p. Note que usaremos a convenção usual
que 0! = 1.
A função de distribuição será então
n
(8) F(x) P(X x) i p i q n-i
i x
n
P (X x) p x q n -x
x
31
Definição 8: A função de distribuição conjunta F(x1, x2, .. xn ) das variáveis
aleatórias x1, x2, .. xn é a probabilidade da ocorrência junta de X1 x1, X2 x2, ... , Xn xn .
6 8 y- x
f(x, y) p x (1 - p)6 - x p (1 - p)8 - (y - x)
x y - x
P(X x, Y y)
(15) f(x | y) P(X x | Y y)
P(Y y)
f(x, y)
f(y)
32
Para encontrar a fórmula geral para f(x | y) (isto é, para qualquer valor de x e y),
primeiro deixe f(x, y) ser a função de probabilidade conjunta de X e Y. Isto é dado no
exemplo 7 como
6 8 y- x
f(x, y) p x (1 - p)6 - x p (1 - p)8 - (y - x)
x y - x
que originalmente era uma forma geral da equação (2). Também, deixe f(y) ser a função de
probabilidade de Y. Do exemplo 4, novamente, podemos generalizar da seguinte maneira
14
f(y) P(Y y) p y (1 - p)14 - y
y
6 8
f(x, y) x y - x 0x6
(16) f(x y) para
f(y) 14 0 y- x 8
y
6
(18) f1 (x) P (X x) p x (1 - p ) 6 - x
x
e a função de probabilidade de Y é dada por
14
(19) f 2 (y) P (Y y) p y (1 - p)14 - y
y
Desde que:
f(x, y) = P(X = x, Y = y) = P(X = x | Y = y) P(y = y)
O uso das equações (16) e (19) resulta na função de probabilidade conjunta de X e Y,
sendo dada por
33
6 8
x y - x 14 y
f(x, y) p (1 - p)14 - y
14 y
y
6 8 y
p (1 - p)14 - y
x y - x
desde que:
6 14 x y
f1 (x) f 2 (y) p (1 - p)20 - x - y
y y
vemos que:
34
CAPÍTULO 5
DISTRIBUIÇÃO NORMAL
Uma função de distribuição mostra, para uma população, a freqüência relativa
(probabilidade) com que diferentes valores (números reais) de uma variável aleatória
ocorrem. Em geral, cada população tende a ter a sua própria distribuição. No entanto, a
distribuição normal é a mais popular de todas por causa de sua grande aplicabilidade na
aproximação do comportamento de um grande número de variáveis aleatórias naturais que são
contínuas. Ela é conhecida como distribuição de Gauss (difusor) ou distribuição com a forma
de sino – V. Figura 5.1. abaixo.
Função:
1
n (x; , ) = ----------- e-0,5((x-)^2)/)
σ √ 2
z
- -3 -2 -1 1 2 3 +
μ
68,27%
95,45%
99,73%
Figura 5.1: Curva normal padrão
Propriedades:
35
aleatórias distribuem-se na forma perfeita de um sino ( = 0 e = 1). Há várias maneiras
de superar este tipo de obstáculo, como aumentar o número de amostras e fazer
transformações. Só não pode ignorar o detalhe da normalidade.
5.1. Estimando a média da população:
Na estatística de inferência tudo gira em torno da obtenção da estimativa da média
verdadeira da população, . Por exemplo, podemos estar interessados em saber:
o volume médio, , de uma determinada área florestal
a idade média, , dos estudantes da turma-2006 do CFT
Se a população é pequena, é calculada sem problemas; no caso de populações
maiores, a média tem que ser estimada usando amostragem de parte da população. No caso do
CFT, 18 estudantes, obter a idade média é uma tarefa muito fácil. Não há necessidade de fazer
amostragem, basta somar a idade de cada um e dividir por 18. Entretanto, em nossa área de
conhecimento, a gente só trabalha com populações “muito grande” com tendência ao infinito.
Neste caso, fica muito difícil e caro, senão impossível, obter a média verdadeira da população,
. Levando em conta os princípios e as condicionantes da amostragem, é possível obter
informação suficientemente precisa (e confiável) sobre tomando apenas parte da população
_
para estimar a média amostral x .
Exemplo 1: queremos saber a idade média dos estudantes da pós-graduação do INPA,
que tem uma população igual a 200. Para isso, selecionamos, aleatoriamente, 10 estudantes e
anotamos a idade de cada um. Portanto, temos uma amostragem de 10 estudantes de uma
população de 200 - hipoteticamente.
estudante 1 2 3 4 5 6 7 8 9 10
idade 23 25 26 28 26 24 25 27 30 26
36
(iii) Qual é a necessária intensidade de amostragem para assegurar uma certa
precisão com grande confiança? No exemplo 1, quão grande deveria ser uma amostragem
_
(10? 20 estudantes?) para assegurar que 95% de todos os possíveis x caíssem dentro de um
intervalo de 1 ano da média da população, ?
Vamos responder todas estas questões nesta apostila. A primeira será respondida,
parcialmente, neste capítulo e completada no capítulo 6. As outras duas (ii e iii) serão
respondidas nos capítulos 6 e 7, respectivamente.
_
Ao amostrar uma população, a média amostral, x , é uma variável aleatória. No
capítulo 6, vamos ver, em detalhes, como este valor é “parecido” com a média da população.
A incerteza da estimativa depende de uma chance sobre a qual a amostra foi selecionada.
Apesar disso, a incerteza diminui com o aumento da intensidade de amostragem. Isto é uma
sentença de um teorema matemático chamado “a lei dos grandes números” e é a nossa
_
justificativa para usar x para estimar .
5.2. Curva normal padrão (CNP) ou curva-z:
_
A “lei dos grandes números” é a nossa justificativa matemática para usar x para
estimar ...justifica, mas não explica. Da mesma forma, ela não é particularmente útil para
responder questões práticas envolvendo a precisão de tais estimativas. Esta lei, por exemplo,
_
não informa sobre a probabilidade de x estar dentro do intervalo de 1 ano de . As
_
probabilidades para x podem ser obtidas “aproximadamente” usando áreas sob certas curvas
em forma de “sino”.
Há várias curvas normais, que variam de acordo com a média e desvio padrão, e .
No entanto, a curva que norteia todas as outras curvas, é a curva normal padrão (Figura 5.1).
Tanto a forma como as propriedades da CNP podem ser vistas nesta figura. Só existe uma
única curva normal padrão, com = 0 e = 1. Quando você tem pela frente situações com
médias e desvios diferentes de 0 e 1, respectivamente ... não entre em pânico! Tudo que tem
que ser feito é “padronizar” a sua variável aleatória e, em seguida, usar a CNP para obtenção
das probabilidades (ou áreas).
A curva apresentada na Figura 5.1., foi desenhada depois de integrar a função de
distribuição, de z = 0 a z = 3,9 para a primeira metade da curva à direita de 0. Como a parte da
curva à esquerda de 0 é espelho da parte à direita, as probabilidades da esquerda foram
calculadas de z = -3,9 a z = 0. Portanto, o trabalho braçal já está feito. A Tabela 1 (anexo da
apostila) tem todas as probabilidades (áreas sob a CNP) calculadas com precisão de dois
dígitos.
Vamos ver como funciona a Tabela 1 (anexo da apostila) usando alguns exemplos. As
figuras que ilustram o uso da Tabela 1 estão no anexo deste capítulo.
Exemplo 2: Achar a área sob a curva normal padrão (CNP) à esquerda de z = -0,97.
A solução gráfica está na Figura 5.2-a.
Você vai direto à tabela 1 e procure z = -0,9, depois o centésimo (7) e no encontro
dos dois números (0,97), você tem a área (que é a probabilidade) sob a CNP.
Neste caso, a área é igual a 0,1660. Isto quer dizer que 16,6% da área está à
esquerda de z = -0,97 ou que 83,4% está à direita de z = -0,97.
Não esquecer que a área total sob a CNP é igual a 1.
37
Exemplo 3: Achar a área sob a CNP à direita de z = 2,5.
Veja a solução gráfica na Figura 5.2-b.
De novo, você vai à tabela 1 e procure z = 2,5, depois o centésimo 0 e no encontro
dos dois números (2,50), você tem a área (que é a probabilidade) sob a CNP.
Neste caso, você está calculando a área sob a CNP de - até 2,5, que dá 0,9938 ...
à esquerda de z = 2,5.
Como você quer saber a área à direita de z = 2,5, você tem que subtrair de 1 (área
total da CNP) e aí sim você terá a área à direita de z = 2,5. Assim, a área à direita será 1 –
0,9938 = 0,0062.
Exemplo 4: Achar a área sob a CNP entre z = -1,04 e z = 2,06.
Veja a solução gráfica na Figura 5.2-c.
Neste caso, são necessários os seguintes passos: (1) achar a área à esquerda de z =
1,04, que é igual a 0,1492; (2) achar a área à esquerda de z = 2,06, que é igual a 0,9803; (3)
calcular a área entre z = -1,04 e z = 2,06, que é dada pela diferença (0,9803 – 0,1492), que é
igual a 0,8311.
Portanto, a resposta é: a área sob a CNP entre z = -1,04 e z = 2,06 é 0,8311, ou seja,
83,11% da área da CNP está entre os dois pontos de “z”.
5.4. Áreas sob outras curvas normais:
Na seção anterior mostramos como encontrar as áreas sob a curva normal padrão
(CNP). No entanto, há várias curvas normais, que variam de acordo as variações da média e
do desvio padrão . Para calcular as probabilidades (áreas sob a CNP) para a média amostral
_
x (o principal objetivo), precisamos ser capazes de encontrar as áreas sob qualquer curva
normal.
Cada curva normal pode ser identificada por 2 números chamados parâmetros. Estes
dois parâmetros são usualmente representados por média e desvio padrão . O parâmetro
nos diz onde a curva está centrada e indica a dispersão da curva normal. Como vimos na
Figura 5.1, quando = 0 e = 1, temos a curva normal padrão.
No entanto, no mundo real esta condição de = 0 e = 1 é praticamente impossível
de ser verificada. Os parâmetros e variam entre populações diferentes. Igual a CNP, a
curva normal (ou curvas normais) é centrada em e quanto maior for , mais dispersa
(achatada ou esparramada) será a curva. A curva normal tem as mesmas propriedades da
CNP. A única diferença é que o eixo horizontal da CNP é z e das outras curvas normais, o
eixo é x.
As curvas normais podem assumir diferentes formas. As figuras 5.3-a, 5.3-b e 5.3-c
ilustram as diferentes formas, as quais podem ser consideradas, respectivamente, como
platicúrtica, mesocúrtica e leptocúrtica. É óbvio que existe um limite de achatamento para que
a curva seja considerada normal. Este limite pode ser determinado usando o teste de
achatamento ou curtose. Da mesma maneira, a curva normal pode ser simétrica ou
assimétrica. A assimétrica pode ser negativa (maior freqüência dos dados tendendo à direita
do eixo horizontal) e positiva (maior freqüência tendendo à esquerda do eixo) – V. Figura 5.4.
Também neste caso, há limite para a assimetria, que pode ser definido usando o teste de
assimetria.
38
Exemplo 5: Achar área sob a curva normal ( = -2 e = 1) entre x = 1 e x = -1.
Veja a solução gráfica na Figura 5.5-a.
Primeiro de tudo é preciso padronizar a variável aleatória “x”.
Os resultados da padronização são: z = 3,0 (para x = 1) e z = 1 (para x = -1).
Agora, você vai a Tabela 1 (anexo da apostila) para: (1) achar a área à esquerda de z
= 3,0, que é igual a 0,9987; (2) achar a área à esquerda de z = 1, que é igual a 0,8413; (3)
calcular a área entre z = 3,0 e z = 1,0, que é dada pela diferença (0,9987 – 0,8413), que é igual
a 0,1574.
Portanto, a resposta é: a área sob a curva normal entre x = -1,0 e x = 1,0 é 0,1574,
ou seja, 15,74% da área sob a curva normal está entre os dois pontos de “x”.
Exemplo 6: Achar a área sob a curva normal ( = 3 e = 2) entre x = 2 e x = 7.
Veja a solução gráfica na Figura 5.5-b.
Primeiro de tudo é preciso padronizar a variável aleatória “x”.
Os resultados da padronização são: z = -0,5 (para x = 2) e z = 2,0 (para x = 7).
Agora, você vai a Tabela 1 (anexo da apostila) para: (1) achar a área à esquerda de z
= 0,5, que é igual a 0,3085; (2) achar a área à esquerda de z = 2, que é igual a 0,9772; (3)
calcular a área entre z = -0,5 e z = 2,0, que é dada pela diferença (0,9772 – 0,3085), que é
igual a 0,6687.
Portanto, a resposta é: a área sob a curva normal entre x = 2,0 e x = 7,0 é 0,6687, ou
seja, 66,87 % da área sob a curva normal está entre os dois pontos de “x”.
Exemplo 7: Achar área sob a curva normal ( = 6 e = 3) entre x = 0 e x = 12.
Veja a solução gráfica na Figura 5.5-c.
Primeiro de tudo é preciso padronizar a variável aleatória “x”.
Os resultados da padronização são: z = -2,0 (para x = 0) e z = 2 (para x = 12).
Agora, você vai a Tabela 1 (anexo da apostila) para: (1) achar a área à esquerda de z
= 2,0, que é igual a 0,9772; (2) achar a área à esquerda de z = -2, que é igual a 0,0228; (3)
calcular a área entre z = 2,0 e z = -2,0, que é dada pela diferença (0,9772 – 0,0228), que é
igual a 0,9544.
Portanto, a resposta é: a área sob a curva normal entre x = 0 e x = 12 é 0,9544, ou
seja, 95,44 % da área sob a curva normal está entre os dois pontos de “x”.
5.4. Populações normalmente distribuídas e variáveis aleatórias:
Agora chegou a vez de ver como se usa as áreas sob as curvas normais para encontrar
_
as probabilidades para x (aproximadamente). Antes, porém, vamos fazer algumas
considerações sobre populações e variáveis aleatórias normalmente distribuídas.
A grande maioria (não todas) das populações e variáveis aleatórias que são
representadas por quantidades como peso, volume, área basal, DAP etc. têm distribuições de
probabilidades que podem ser representadas, pelo menos aproximadamente, por meio de
curvas normais. Em outras palavras, as probabilidades para tais quantidades podem ser
encontradas por meio da interpretação das áreas sob as curvas normais. Vamos ver isso com
exemplos.
39
Exemplo 8: Uma população consistindo do peso (em kg) de um grupo de 100
estudantes de mestrado. Os dados da população estão sumarizados no quadro abaixo.
Quadro 8.1: distribuição de pesos de uma população em intervalos de 1 kg.
peso 69 70 71 72 73 74 75 76 77 78 79
freqüência (f) 1 2 6 13 17 20 18 12 7 3 1
f relativa (prob) ,01 ,02 ,06 ,13 ,17 ,20 ,18 ,12 ,07 ,03 ,01
O histograma e o polígono de freqüências (absoluta e relativa) dos dados contidos no
quadro 8.1 são apresentados na Figura 5.6.
Como em qualquer população, podemos associar a esta população de pesos, uma
variável aleatória x, como o peso de um estudante selecionado ao acaso. Neste caso, as
probabilidades de x são simplesmente as freqüências relativas. Exemplo: qual é probabilidade
de pegar um estudante com peso igual a 72 kg? Resposta: 13% ou 0,13 (freqüência relativa do
quadro 1).
O ponto importante deste exemplo é que o histograma de freqüência (Figura 5.6) tem
uma quase perfeita forma de sino. Por causa disto, seremos capazes de aproximarmos das
probabilidades para x usando as áreas sob uma curva normal. Como você pode notar, a curva
normal apropriada é simplesmente aquela com os parâmetros e , onde é a média da
população (ou da variável aleatória x) e é o seu desvio padrão.
Do quadro 1, a média () da variável aleatória x é igual a 70,06 kg e o seu desvio
padrão () é igual a 1,95. Estes dois parâmetros podem ser sobrepostos à Figura 5.6 para
trabalhar com uma curva normal com = 74,06 e = 1,95. Podemos querer saber, por
exemplo, qual é a probabilidade (área) de pegar, aleatoriamente, um estudante com 72 kg. Do
quadro 1, temos a probabilidade exata disto acontecer, olhando apenas para a freqüência
relativa desta classe (72), que é 0,13 ou 13%. A propósito, a classe 72 vai de 71,5 a 72,5.
Desta forma, podemos escrever assim: P (71,5 < x < 72,5) = 0,13.
No entanto, o mundo real é diferente. Nem sempre você tem uma população tão
pequena e tão bem organizada que permite ter e e as freqüências relativas. Vamos
trabalhar, agora, sem as freqüências relativas. Você tem uma população com = 74,06 e =
1,95 e quer saber qual é a probabilidade (área) de pegar, aleatoriamente, um estudante com 72
kg.
Passos necessários: (1) desenhar a curva normal com = 74,06 e = 1,95; (2) definir
o quê você está procurando, que é a probabilidade P (71,5 < x < 72,5); (3) padronizar as
variáveis aleatórias, x = 71,5 e x = 72,5; (4) achar as áreas para os respectivos “z” sob a CNP
(Tabela 1 do anexo da apostila).
Solução: a padronização das variáveis aleatórias x = 71,5 e x = 72,5 resulta em z = -
1,31 e z = -0,80, respectivamente. Agora, você vai à Tabela 1 para encontrar as áreas sob a
CNP para z = -1,31 e z = -0,80, obtendo as áreas 0,0951 e 0,2119, respectivamente. O
resultado é então: 0,2119 - 0,0951 = 0,1168, ou seja, a probabilidade de selecionar,
aleatoriamente, um estudante com peso igual a 72 kg (71,5 a 72,5) é de 11,68%.
Sumarizando: a probabilidade exata de selecionar, aleatoriamente, um estudante com peso
igual a 72 kg é de 13% e a estimada é de 11,68%.
Um importante ponto do exemplo 8 é que, para certas populações e certas variáveis
aleatórias, podemos usar as áreas sob a curva normal para determinar as probabilidades. Neste
caso, podemos dizer que a população ou a variável aleatória é normalmente distribuída. Dizer
40
que uma população ou variável aleatória é normalmente distribuída (aproximadamente)
significa que as probabilidades para a população ou variável aleatória são aproximadamente
iguais às áreas sob a curva normal.
5.5. Padronizando a variável aleatória:
Já vimos que para encontrar as áreas sob a curva normal com parâmetros diferentes de
= 0 e = 1 é preciso usar a padronização, ou seja, converter os valores de x para valores de
z por meio da seguinte fórmula:
x-
z = ----------
antes de usar a curva normal padrão (CNP). Vamos ver o significado de z e seus
desdobramentos com exemplos.
Exemplo 9: Considere o DAP de uma árvore selecionada ao acaso. Então, DAP é uma
variável aleatória x com média = 100 cm e desvio padrão = 10. Por meio da padronização
da variável x teremos
x - 100
z = ------------
10
e se a gente pegar, aleatoriamente, uma árvore qualquer da ZF-2, com 120 cm de DAP, por
exemplo, o que acontece?
z = (120 – 100) / 10 = 2
Qual é o significado deste número, z = 2? Isto significa que a árvore selecionada,
aleatoriamente, com DAP = 120 cm está a dois desvios () da média da população.
O processo pode ser também invertido, ou seja, temos o z e queremos encontrar o
valor da variável aleatória x. Vamos ao exemplo.
Exemplo 10: temos z = 1,5; isto é, a variável x está 1,5 vez da média. Qual é x?
1,5 = (x – 100) / 10 = ?
x = 100 + 10(1,5) = 115
ou seja, nesta população, uma árvore para estar 1,5 vez do desvio, tem que ter DAP igual a
115 cm.
Agora, vamos ao principal ponto desta seção. Considere x uma variável aleatória
normalmente distribuída com média e desvio padrão . Então, a variável aleatória, que pode
ser padronizada da seguinte maneira:
x-
z = ----------
tem a distribuição normal padronizada. Desta maneira, nós calculamos as probabilidades para
a variável x por meio da interpretação das áreas sob a CNP. Daqui para frente, este fato será
usado como guia.
Exemplo 11: pense na floresta adulta (DAP ≥ 25 cm) do Distrito Agropecuário da
Suframa, onde todos os DAPs são normalmente distribuídos com = 35 cm e = 5.
41
Sabemos que a variável x padronizada
x- x - 35
z = ---------- = --------------
5
tem a distribuição normal padrão. Isto quer dizer que, de acordo com as propriedades da CNP
temos
P ( -3 < z < 3 ) = 0,9973
P ( -2 < z < 2 ) = 0,9545
P ( -1 < z < 1 ) = 0,6827
Considerando que z é simplesmente o número de desvios padrões que x se afasta de
sua média, podemos dizer que as probabilidades para intervalos contendo 1 desvio, 2
desvios e 3 desvios são, respectivamente, 0,6827, 0,9545 e 0,9973.
No caso da floresta do Distrito, isto quer dizer, com base nos parâmetros de média =
35 cm e desvio = 5, temos o seguinte:
(i) P (-1 < z < 1)
35 – 1 (5) = 30 => limite inferior do intervalo
35 + 1 (5) = 40 => limite superior do intervalo
(ii) P (-2 < z < 2)
35 – 2 (5) = 25 => limite inferior do intervalo
35 + 2 (5) = 45 => limite superior do intervalo
(iii) P (-3 < z < 3)
35 – 3 (5) = 20 => limite inferior do intervalo
35 + 3 (5) = 50 => limite superior do intervalo
Sumarizando:
a) 68,26% das árvores do Distrito têm DAPs entre 30 e 40 cm
b) 95,44% das árvores do Distrito têm DAPs entre 25 e 45 cm
c) 99,74% das árvores do Distrito têm DAPs entre 20 e 50 cm
42
Figura 5.2-a: área à esquerda de z = -0,97
Área = 0,1660
z
-3 -2 -1 0 1 2 3
μ=0
Z = -0,97
Área = 0,9938
z
-3 -2 -1 0 1 2 3
μ=0
Z = 2,5
Área = 0,9803
Área = 0,1492
σ σ
z z
-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3
μ=0 μ=0
Z = -1,04 Z = 2,06
z
-3 -2 -1 0 1 2 3
μ=0
Z = -1,04 Z = 2,06
43
Figura 5.3-a: curva normal com
= -2
=1
x
-5 -4 -3 -2 -1 0 1
=3
=2
x
-3 -1 1 3 5 7 9
=6
=3
-3 0 3 6 9 12 15
44
Figura 5.4: Assimetria das curvas normais
ASSIMETRIA
POSITIVA NEGATIVA
45
Figura 5.5-a: Exemplo 5
Área sob a curva normal ( = -2 e = 1) entre x = 1 e x = -1)
Padronizando “x”
x-
z = ------------
1 – (-2)
z = ------------ = 3,0
1
-1 - (-2)
z = ------------ = 1,0
1
x
-5 -4 -3 -2 -1 0 1
z
-3 -2 -1 0 1 2 3
z=3
z=1
x
-3 -1 1 3 5 7 9
z
-3 -2 -1 0 1 2 3
z = - 0,5 z=2
x
-3 0 3 6 9 12 15
z
-3 -2 -1 0 1 2 3
z = -2,0 z = 2,0
46
Figura 5.6: Histograma e polígono de freqüência (absoluta e relativa).
25 0,25
15 0,15
10 0,1
5 0,05
0 0
69 70 71 72 73 74 75 76 77 78 79
peso (kg)
47
_
Capítulo 6 – Distribuição amostral da média ( x )
Todo eng florestal sabe que o inventário florestal é o primeiro passo para planejar o
manejo sentido lato de uma floresta, nativa ou artificial. O inventário, por sua vez, consiste
em obter uma média representativa da população de interesse, seja em termos de volume, área
basal ou outra variável de interesse.
O que é uma média representativa?
Por analogia, média (volume) de uma floresta é o mesmo que a “média” usada para
definir café-com-leite em muitos bares do sul e sudeste do Brasil. Em um copo de 100 ml,
uma média deveria ter 50 ml de café e 50 de leite. Certo? Errado ... porque se fosse assim, o
balconista não teria na ponta da língua aquela pergunta: “mais café ou mais leite?” Mais leite
ou mais café vai depender do gosto do freguês e da mão do balconista. Você tem que confiar
ou parar de tomar aquela “média” naquele bar. De qualquer modo, o total do copo não passará
de 100 ml, ou seja, o excedente de café (+) será anulado pelo que falta de leite (-) ou vice-
versa.
Vamos mostrar neste capítulo que a estimativa de uma média tende sempre a ser
parecida com a média verdadeira da população. O que muda é o desvio padrão, que é base de
cálculo da incerteza. A tendência é diminuir a incerteza (que é bom) com o aumento da
intensidade de amostragem. Portanto, média representativa é aquela que proporciona
confiança (incerteza sob controle) e conforto ($) para quem vai usá-la.
6.1 Amostras aleatórias
Amostra pode ser um único indivíduo ou um conjunto deles. No caso de pesquisas de
opinião, cada eleitor é uma amostra. No caso de inventário florestal, um conjunto de árvores
corresponde a uma amostra. Na Amazônia, vários estudos apontam que parcela de 2.500 m 2 é
suficiente para cobrir as variações (volume) de uma determinada área florestal com DAP ≥ 20
cm, ou seja, um conjunto com aproximadamente 50 árvores.
Em geral, as amostras têm que ser tomadas de forma aleatória, pois foi assim que a
estatística de inferência foi concebida. No entanto, a amostragem aleatória pode ser
desdobrada em: inteiramente aleatória e aleatória restrita. Tanto nos inventários, como em
pesquisas de opinião, a aleatória restrita é a mais utilizada por causa dos custos de coletas de
dados e tem produzido bons resultados. No caso de eleições presidenciais, a população de
eleitores brasileiros é estratificada por sexo, idade e, principalmente, por densidade eleitoral.
Em inventários na Amazônia, a maioria utiliza a amostragem em dois estágios, ou seja,
seleciona aleatoriamente a unidade primária e distribui as unidades secundárias de forma
sistemática.
Intensidade de amostragem é o número total de amostras ( n ) dividido pelo número
total de possíveis amostras em uma população ( N ). Por exemplo: os institutos de pesquisas
(Ibope, Datafolha etc.) ao realizar uma pesquisa de opinião sobre eleições presidenciais no
Brasil, têm utilizado em torno de 4.000 eleitores de um total de 115 milhões; neste caso, n =
4.000 e N = 115 milhões. No nosso caso, se você tem uma área de 1.000 hectares e quer
instalar 100 amostras de 2.500 m2 cada (¼ hectare) para realizar o inventário florestal; neste
caso n = 100 e N = 4.000 (nº total de possíveis amostras de, ¼ ha, ou seja, 20x125m).
_
Do ponto de vista teórico, vamos mostrar como calcular as probabilidades de x
usando as áreas sob as curvas normais. Isso quer dizer que temos que determinar a
_ _
distribuição da probabilidade da variável aleatória x . A distribuição de probabilidade de x é
chamada de distribuição amostral da média.
48
_
6.2 A média da média ( x ) e o desvio padrão de ӯ ( x )
_
e
_ _
x = √ ∑ ( x i - x )2 (p x i )
_ _
Vamos ver isso por meio de um exemplo meio irreal. Vamos considerar as idades
(congelada em 2003) de cada membro de minha família (eu, mulher e 3 filhos) como uma
população, ou seja, N = 5. Esta situação nunca será encontrada na vida real porque para saber
a idade média dessa família basta somar as 5 idades e dividir por 5 ... ninguém vai utilizar os
recursos da amostragem. No entanto, se você entender o significado da estimativa da média
da população e o comportamento do erro padrão da média conforme se aumenta intensidade
de amostragem, para uma pequena população (N = 5), fica mais fácil entender essas duas
variáveis aleatórias quando for trabalhar com uma população grande ou infinita (número de
eleitores do Brasil, N = 115 milhões, floresta da ZF-2 etc.).
Temos 3 situações ilustrando a utilização de 3 intensidades diferentes de amostragem
– anexos 1, 2 e 3. A situação 1 se refere a uma amostragem considerando n = 2, ou seja,
escolha aleatória de 2 pessoas para estimar a média da população. Primeiro você tem que
saber quantas combinações são possíveis ao sortear 2 (n) de um conjunto de 5 (N) pessoas. Só
para lembrar: fatorial de zero (0!) é igual a 1 e fatorial de números negativos ou não inteiros
não existe. Isto é mostrado na página que ilustra a situação 1. Depois disso, você tem que
_
estimar a média de cada combinação possível. Aplicando a fórmula de x você vai encontrar
a média da média de todas as possíveis combinações. Você vai notar que a média da média é
exatamente igual à média verdadeira da população.
Repetindo as mesmas operações para as situações 2 e 3, respectivamente, amostragens
de n = 3 e n = 4, você vai notar que a média da média será sempre igual à média da
população, mudando apenas o desvio padrão da média. Resumindo: a média da amostra será
sempre muito parecida com a da população e conforme você aumenta o n, o desvio padrão da
média (ou erro ou incerteza) diminui. Você se convenceu desta afirmativa? Se não, é melhor
tentar a vida em outra praia.
Se sim, vamos pensar agora em termos de população de verdade. Vamos falar de
eleitores brasileiros. Em geral, os institutos utilizam aproximadamente 4.000 eleitores para
inferir sobre a população de 115 milhões de eleitores brasileiros. Quantas possíveis
combinações são possíveis quando a gente utiliza n = 4000 de N = 115 milhões? É só fazer as
contas ... mas não as faça.
115.000.000 115.000.000!
= ------------------------------------- possíveis combinações
49
É óbvio que ninguém vai fazer todas as possíveis combinações. Se fizesse, a média da
média seria exatamente igual à média da população. Então, o que é feito? As empresas tomam
apenas uma única combinação de 4000 eleitores para inferir sobre a população de eleitores
pressupondo que a média estimada na pesquisa será igual à da população e que n = 4000
produzirá uma incerteza (erro) menor que n = 3.999.
Em uma floresta de porte médio como a da ZF-2, por exemplo, com 21.000 hectares,
temos N = 84.000 (21000 x 4) de amostras possíveis de ¼ ha cada. Se a gente usar n = 50,
quantas possíveis combinações seriam possíveis? Várias. Quantas combinações a gente faria
no caso de um inventário florestal? Certamente, apenas uma. A nossa expectativa é ter uma
média (volume ou outra variável) representativa da população com uma margem de erro
aceitável.
A média é importante porque sem ela não há planejamento. No entanto, mais
importante mesmo é saber com que margem de erro (incerteza) a gente está trabalhando. É
importante também não perder de vista que a intensidade de amostragem está diretamente
relacionada com os custos. No caso de inventários, você tem duas alternativas: (1) fixa a
incerteza e libera os custos ou (2) fixa os custos e libera a incerteza. Em geral, a segunda
alternativa é a mais freqüente. Há meios para se prevenir de incertezas indesejadas.
Em inventários florestais, você pode se prevenir utilizando boas imagens, bons mapas,
bons equipamentos e métodos adequados de amostragem, em combinação com planejamento
de coleta e processamento dos dados. Estamos falando de erros de amostragem (o erro que
você comete por medir apenas parte da população). Não confundir com erros não-amostrais
(humanos, principalmente), que não são tratados aqui. Não esquecer também que n é
denominador.
6.3. Teorema do limite central
Vimos até aqui que a confiança na média passa pela confiança nas probabilidades que
a gente trabalha. No próximo capítulo vamos ver como calcula a incerteza de uma estimativa.
Aqui, vamos nos concentrar nas probabilidades obtidas usando as áreas sob as curvas
normais.
Temos a curva normal padrão com = 0 e = 1. Com a integração da função que
descreve esta curva, a gente obtém as probabilidades. Estas áreas já foram calculadas por
vários autores e estão disponíveis em apêndices de livros de estatística, tabela-z. No mundo
real, a curva normal com estas características não existe. Por esta razão, a gente tem que
padronizar as possíveis curvas normais para utilizar a tabela-z. As curvas normais podem ser,
dentro de limites bem definidos, assimétricas ou achatadas, diferentes da forma de sino. Para
isso, há testes para saber se as suas variáveis de interesse estão dentro desses limites.
Difícil mesmo é fazer a nossa variável ficar dentro dos limites da distribuição normal.
Não entre em pânico ainda! O remédio para essa situação é o “teorema do limite central”. O
que diz este teorema?
“Quando uma amostragem aleatória de tamanho n (onde n é pelo menos igual a 30) é
_ _
tomada de uma população, a x é aproximadamente normalmente distribuída com x = e
_ _
desvio padrão da média x = / n . Nestas condições, as probabilidades para x podem ser
encontradas, aproximadamente, utilizando as áreas sob a curva normal com os parâmetros e
_
x .”
Isto quer dizer que: independentemente da forma que a distribuição de sua variável
aleatória assumir, você pode calcular as probabilidades usando a tabela-z, desde que n ≥ 30.
50
Significa também que para as amostras aleatórias de qualquer distribuição com média e
_
desvio padrão x , a média amostral dessas unidades de tamanho n é aproximadamente
normal e esta aproximação melhora conforme se aumenta o n. Para se chegar a este “número
mágico” igual a 30, foram feitas inúmeras simulações até constatar que acima deste número
não se percebe diferenças entre as áreas sob a curva normal e de outras funções.
Tanto em trabalhos de pesquisas ou de inventários florestais, o ideal é utilizar uma
amostragem com, pelo menos, 30 unidades amostrais. Se você fizer assim, a incerteza que
você encontrar, é consistente; caso contrário, você terá que comprovar a normalidade antes de
inferir. A propósito, uma amostragem com n < 30 é considerada “pequena” e a curva-t é a que
tem que ser utilizada para a obtenção das probabilidades.
51
Anexo 1
Situação 1
Tomando uma amostragem com n = 2 de uma população com N = 5
Quantas combinações são possíveis?
N N! 5! 120
= -------------- = --------------- = --------- = 10 combinações
n n! (N-n)! 2! (5 – 2)! 12
População Amostragem
_ _
nome idade comb. idade1 idade2 x p x*p desvio
NH 51 1 51 46 48,5 0,1 4,85 33,49
MIGH 46 2 51 22 36,5 0,1 3,65 3,97
IGH 22 3 51 20 35,5 0,1 3,55 2,81
FGH 20 4 51 12 31,5 0,1 3,15 0,17
GGH 12 5 46 22 34,0 0,1 3,40 1,44
média 30,2 6 46 20 33,0 0,1 3,30 0,78
desvio 17,21 7 46 12 29,0 0,1 2,90 0,14
8 22 20 21,0 0,1 2,10 8,46
9 22 12 17,0 0,1 1,70 17,42
10 20 12 16,0 0,1 1,60 20,16
_
x 30,2 88,86
_
x 9,43
= 30,2
_
x = 30,2
Coincidência? Não!
52
Anexo 2
Situação 2
Amostragem de n = 3 da população com N = 5
Quantas combinações são possíveis?
N N! 5! 120
= -------------- = --------------- = --------- = 10 combinações
n n! (N-n)! 3! (5 – 3)! 12
População Amostragem
_ _
nome idade comb. idade1 idade2 idade3 x x*p desvio
= 30,2
_
x = 30,2
53
Anexo 3
Situação 3
Amostragem de n = 4 da população de N = 5
População Amostragem
_ _
nome idade idade1 idade2 idade3 idade4 x x*p desvio
NH 51 51 46 22 20 34,75 6,95 4,141
MIGH 46 51 46 22 12 32,75 6,55 1,301
IGH 22 51 46 20 12 32,25 6,45 0,841
FGH 20 51 22 20 12 26,25 5,25 3,121
GGH 12 46 22 20 12 25 5 5,408
_
média 30,2 x 30,2 14,810
desvio 17,21 _
x 3,85
= 30,2
_
x = 30,2
2) O que muda é o desvio padrão da média ou erro padrão, ou seja, conforme aumenta a
intensidade de amostragem, diminui o erro, aumenta a precisão e diminui a incerteza
da sua estimativa.
54
CAPÍTULO 7
Estimando a média da população
7.1. Intervalos de confiança:
_
Vimos no capítulo 5 que é razoável usar uma média amostral x para estimar a média
da população ( ). A Lei dos Grandes Números diz que: se uma “grande” amostragem
_
aleatória é tomada de uma população, a x “tende” a ser “parecida” com .
No capítulo 6 discutimos o Teorema de Limite Central que diz: se uma amostragem
aleatória de tamanho n ( n 30) é tomada de uma população com média e desvio padrão ,
_
então x é (aproximadamente) normalmente distribuída e, por esta razão, podemos encontrar
_
as probabilidades para x usando as áreas sob a curva normal com parâmetros e / n.
E AGORA??
_
Qual é a confiança sobre a precisão envolvida ao usar x para estimar ?
Estamos falando do Intervalo de Confiança (IC), que será definido com exemplos.
Exemplo 1: Um estatístico está interessado em obter informações sobre a média em
altura de uma população, , de todos os adultos masculinos de uma grande cidade.
Com base em experiência anterior ele sabe que o é igual a 2,5”. Se ele tomar uma
_
amostragem aleatória de 30 adultos, qual é a probabilidade da altura média x estar dentro de
1” da altura média da população, ?
_
Solução: Queremos encontrar a probabilidade da x estar dentro de 1” de ; que é, P (
_
- 1 < x < + 1 ). Como n ≥ 30, recorremos ao Teorema de Limite Central para encontrar
_
as probabilidades para x usando as áreas sob a curva normal com parâmetros (que não
conhecemos) e / n = 2,5 / 30 = 0,46.
_
Então, para encontrar P ( - 1 < x < + 1 ), precisamos encontrar a área sob a
curva normal (com parâmetros e 0,46) entre - 1 e + 1.
Desta vez não conhecemos - 1 e + 1, ao contrário de exemplos anteriores. Mas,
mesmo assim, podemos resolver o problema pela padronização de nossa variável aleatória, da
seguinte maneira:
_
z = [ x - ] / 0,46
_
O valor de z para x = - 1 é
z = [ ( - 1) - ] / 0,46 = -1 / 0,46 = -2,17
_
E o valor de z para x = + 1 é
z = [ ( + 1) - ] / 0,46 = 1 / 0,46 = 2,17
Da tabela 1, tiramos as áreas sob a curva para z = -2,17 e z = 2,17, que são
respectivamente 0,0150 e 0,9850. A área, então, compreendida entre -2,17 e 2,17 é:
55
área = 0,9850 - 0,0150 = 0,97
Conseqüentemente,
_
P ( - 1 < x < + 1 ) = 0,97
_
Quer dizer: a probabilidade da x estar entre 1” da é de 0,97.
_
Vamos colocar a expressão anterior de outra maneira: que a x deve estar 1” da ,
_
que é o mesmo que dizer que “ está entre 1” de x .” Isto pode ser re-escrito da seguinte
maneira:
_ _
P ( x - 1 < < x + 1) = 0,97
Em outras palavras, sabemos que se uma amostragem aleatória de 30 adultos masculinos é
_ _
tomada, então a probabilidade do intervalo de x - 1 a x + 1 conter é de 0,97.
Suponha agora, por exemplo, que quando o pesquisador tomar uma amostragem
_
aleatória, ele consegue x = 67”, então
_ _
x - 1 = 66 e x + 1 = 68
Ele sabe que, 97% destes intervalos conterão e, por esta razão, ele pode estar 97% certo de
que a estará entre 66 e 68. Desta forma, o intervalo de 66 a 68 é chamado de IC 97% para
.
7.2. Especificando o nível de confiança:
Na seção anterior vimos como encontrar o IC para uma média da população , com
_
base na informação obtida de média amostral x . No exemplo anterior especificamos o
tamanho da amostragem e a forma do IC e, com estas especificações, calculamos a confiança.
Entretanto, freqüentemente é desejável especificar a confiança a priori.
Exemplo 2: A companhia de telefone está interessada em obter informações sobre o
tempo médio, , de cada chamada. Um levantamento preliminar indicou que o desvio padrão
das chamadas é = 4,4 minutos. Ao monitorar (não grampear) aleatoriamente 100
_
chamadas, n = 100, chegou-se a um tempo médio x = 5,8 minutos.
_
Sabendo que x = 5,8, encontrar o IC 95% para
Nesta questão (ao contrário das questões consideradas previamente) a confiança é
especificada a priori: queremos um IC a 95%. A solução para este problema é o inverso do
procedimento usado para resolver o exemplo 1, o que implica em usar a tabela 1 no sentido
inverso, ou seja, você tem a área sob a curva (área = 0,05) e precisa encontrar o valor de z.
Solução: Encontrar o valor-z, para o qual a área sob a CNP (curva normal padrão) à
direita deste z, é 0,025 (área/2) e à esquerda de z. Note que a área total sob a CNP é 1, então
estamos falando de uma área equivalente a [1 - 0,025 ] = 0,975 e 0,025. Dessa maneira, para
resolver este problema precisamos encontrar o valor-z que tem uma área entre 0,975 e 0,025 à
sua esquerda.
Na tabela 1, o valor-z que tem uma área de 0,975 à sua esquerda é 1,96 - no encontro
da linha 1,9 com a coluna 6, você tem uma área de 0,9750. Neste caso, você tem o valor
56
exato de 0,9750 (1 - 0,025) na tabela. Se o valor exato não for encontrado, faça interpolações.
O valor-z que tem uma área de 0,025 à sua esquerda é -1,96.
Agora, voltando à companhia telefônica: sabemos que n = 100 e, em função podemos
_
recorrer ao TLC (teorema de limite central) para assumir que x é aproximadamente
_
normalmente distribuída com x = (que não conhecemos) e o desvio padrão:
_
x = / n = 4,4 / 100 = 0,44
Assim, a variável aleatória z terá a seguinte fórmula
_
z = [ x - ] / 0,44
e terá aproximadamente uma distribuição normal padrão.
Como queremos o IC 95% para , podemos colocá-lo da seguinte maneira:
P ( -1,96 < z < 1,96 ) = 0,95
_
P ( -1,96 < [ x - ] / 0,44 < 1,96 ) = 0,95
_ _
P ( x - 1,96*0,44 < < x + 1,96*0,44 ) = 0,95
_ _
P ( x - 0,86 < < x + 0,86 ) = 0,95
_
substituindo o valor de x = 5,8, teremos os seguintes intervalos:
_
x - 0,86 = 5,8 - 0,86 = 4,94
e
_
x + 0,86 = 5,8 + 0,86 = 6,66
Concluindo que o intervalo entre 4,94 e 6,66 minutos é o IC 95% para . A companhia pode
ter 95% de confiança que a duração média de uma chamada, , da cidade está entre 4,94 e
6,66 minutos.
57
_
Procedimento para encontrar o IC para , baseado em x :
_ _
x -z /2 *(/ n ) para x + z /2 *(/ n )
_
onde z /2 é obtido seguindo o passo 1, n é o tamanho da amostragem e x é
obtida dos dados da amostragem.
58
E os outros procedimentos são os mesmos apresentados no quadro anterior, substituindo
apenas por s .
Exemplo 4: No Quadro 7.1 são apresentadas informações sobre área basal por hectare
de 30 unidades amostrais (ua) selecionadas aleatoriamente de 2 transectos de 20 x 2.500 m,
distribuídos nas seguintes classes topográficas: platô, encosta e baixio. Os procedimentos são
os mesmos utilizados anteriormente e os resultados são:
_
platô => IC (95%) = x 2,5 = 31,2 2,5 = 28,7 < < 33,6
_
encosta => IC (95%) = x 2,3 = 28,5 2,5 = 26,2 < < 30,8
_
baixio => IC (95%) = x 2,1 = 26,5 2,5 = 24,4 < < 28,6
O segundo termo após o sinal () pode ser considerado como “incerteza” ou “margem
de erro”. Assim, as incertezas para platô, encosta e baixio são, respectivamente: 0,0799,
0,0808 e 0,0785, ou seja, as incertezas (em %) são de 7,99%, 8,08% e 7,85%.
7.4. A distribuição t (de student):
Nas seções anteriores deste capítulo vimos como encontrar o IC para , quando
lidamos com grandes amostras ( n 30 ). Entretanto, em muitos casos, quando grandes
amostras não estão disponíveis, extremamente caras ou, por alguma razão, simplesmente
indesejável, você tem que dar outro jeito porque a curva-z não se aplica nestas condições.
Neste caso, recorremos à curva-t em vez da curva-z.
Se n < 30, não podemos usar a CNP para encontrar as probabilidades para o IC.
Entretanto, um pesquisador chamado W.S. Gosset desenvolveu curvas de probabilidade que
podem ser usadas, em vez da CNP. Estas curvas são conhecidas como curvas-t de student ou
simplesmente curvas-t. A forma de uma curva-t depende do tamanho da amostra. Se a
amostra é de tamanho n, nós identificamos a curva-t em questão dizendo que é a curva-t com
(n-1) graus de liberdade.
Se tomamos uma amostra aleatória de tamanho n de uma população que é
aproximadamente normalmente distribuída com média , a variável aleatória
_
t = [x - ] / [ s/ n ]
tem a distribuição-t com (n - 1) graus de liberdade. As probabilidades para esta variável
aleatória pode ser encontrada usando as áreas sob a curva-t com (n - 1) graus de liberdade -
tabela 2.
As curvas-t variam conforme os graus de liberdade, como ilustrado na figura 7.1.
E as curvas-t têm as seguintes propriedades:
1. A área total sob qualquer curva-t é igual a 1.
2. As curvas-t são simétricas em torno de zero.
3. As curvas-t se estendem indefinidamente em ambas as direções.
59
4. Conforme aumenta o número de graus de liberdade, as curvas-t ficam mais
parecidas com a CNP.
_
Procedimento para encontrar o IC para , baseado em x :
_ _
x -t /2 *(s/ n ) para x + t /2 *(s/ n )
_
onde t /2 é obtido seguindo o passo 1, n é o tamanho da amostragem e x
e s são obtidas dos dados da amostragem.
60
1. O nível de confiança desejado é 0.95, isto é, = 0,05. Usando a tabela 2 para (16-1)
= 15 graus de liberdade.
t /2 = t 0,025 = 2,13
2. O IC 95% é:
_ _
x - 2,13*( s / n ) para x + 2,13*( s / n )
Dos dados deste exemplo (dos pneus) temos:
_
x = 41.148,13
e
s = 2.360, 32
Conseqüentemente
_
x - 2,13*( s / n ) = 41.148,13 - 2,13 * (2.360,32/ 16 ) = 39.891,26
_
x + 2,13*( s / n ) = 41.148,13 + 2,13 * (2.360,32/ 16 ) = 42.405,00
Isto quer dizer que o vendedor pode ter 95% de confiança que a (durabilidade média
da nova marca) está entre 39.891 a 42.405 milhas. Desta forma, o fabricante está correto em
afirmar que a nova marca tem = 40.000 milhas.
61
Quadro 7.1: Dados de área basal (m2/ha) em dois transectos na ZF-2 distribuídos em classes
topográficas (platô, encosta e baixio).
62
Figura 7.1.: Diferentes curvas-t com diferentes graus de liberdade (gl).
-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3
63
Capítulo 8
Testes de hipóteses para médias
8.1. Introdução:
No Capítulo 7 aprendemos como fazer uma “predição educada”1 (inferência) sobre
_
uma média da população olhando a média amostral x de uma amostra aleatória da
população. Neste capítulo, vamos fazer o inverso; vamos fazer uma “predição educada” ou
_
levantar uma hipótese sobre a e então vamos usar a x para fazer inferência concernente a
_
nossa hipótese. Em outras palavras, usaremos x para decidir se a nossa hipótese concernente
à é correta.
Exemplo 1: O DAP médio da floresta do Distrito Agropecuário da SUFRAMA (área
de 600.000 ha) é = 38 cm. Vamos ver neste capítulo como usar o DAP médio tomado de
_
uma amostragem aleatória (por ex., n = 30, correspondente a 30 hectares), x , para decidir se
aquilo que hipotetizamos ( = 38 cm) está correto ou não.
Dizemos então que = 38 cm é a hipótese nula (h0), que pode ser escrita da seguinte
maneira:
Hipótese nula: = 38
Que pode ser testada contra a hipótese de que a não é igual a 38 cm, conhecida como
hipótese alternativa (h1), que pode ser escrita da seguinte maneira:
Hipótese alternativa: 38
(que pode ser também < 38 ou > 38)
_
A questão agora é: como usar a x para tomar a decisão? A idéia é simplesmente a
_
seguinte: sabemos que x deverá ser aproximadamente igual a , ou seja, se = 38
_
(assumindo que h0 é verdadeira), podemos esperar que a x (o DAP estimado) seja “mais ou
menos” igual a 38 cm. E agora? O quão próximo de 38 precisa estar o DAP médio para ser
considerado estatisticamente igual a ? Se a gente olhar para h1, precisamos responder: o
quão distante de 38 precisa estar o DAP médio para ser considerado diferente da ? Ou então:
o quão menor ou o quão maior – para testar as hipóteses alternativas ( < 38 ou > 38)?
Matematicamente falando, precisamos encontrar um ponto para tomada de decisão, d,
_ _ _
tal que se x d ou se x < d ou se x > d, então rejeitamos h0 ( = 38). Geralmente os
estatísticos usam 1, 5 ou 10% como limites para d antes de rejeitar h0. Os números 0,01 (1%),
0,05 (5%) e 0,10(10%) são chamados de níveis de significância do teste e são geralmente
denotados como .
Como escolher as hipóteses para serem testadas??
Em geral a escolha das hipóteses nula (h0) e alternativa (h1) é bastante subjetiva.
Como regra básica podemos dizer que h0 leva sempre o sinal de ( = ); exemplos: = 38, 1 =
2 (média da população 1 é igual a média da população 2) e assim por diante.
1
“predição educada” pode ser traduzida como um “chute certeiro” de um Romário por exemplo.
64
A h1 pode ser quebrada em duas situações:
- teste uni-caudal: neste caso, ou olhamos à direita de d quando temos h1: > 38, ou à
esquerda de d quando temos h1: < 38. Outra situação é 1 < 2 ou 1 > 2.
- teste bi-caudal: olhamos simultaneamente à direita e à esquerda de d e o quê
acontecer primeiro transforma-se no argumento principal para rejeitar h0 e, neste caso, em vez
de nós temos que usar /2.
Observação: Desde que o nível de significância é a probabilidade de rejeitar uma h0
verdadeira, é improvável que h0 será rejeitada quando ela for verdadeira. Consequentemente,
se podemos rejeitar h0 num teste de hipótese, então podemos estar razoavelmente confiante
que h1 é verdadeira. Por outro lado, se não podemos rejeitar h0, isto não prova que h0 seja
verdadeira, mas isto simplesmente quer dizer que isto é razoável, nada mais.
Há dois tipos de erros quando aceitamos a hipótese que não é verdadeira, Tipo I e Tipo
II, que ilustramos no quadro abaixo:
hoje em dia a maioria dos pacotes estatísticos já dão diretamente o valor exato de .
2
65
6. Calcular o valor de
_
[ x - 0 ]
z = -------------
[s / n ]
7. Se z < d, rejeitar a hipótese nula.
(ii) Olhando apenas o lado esquerdo da curva:
Procedimentos:
1. Hipótese nula: = 0
2. Hipótese alternativa: > 0
3. Condicionante: tamanho da amostragem n 30
4. Escolher o nível de significância . Normalmente = 0,01, 0,05 ou 0,10
5. O valor crítico é d = z. Usar Tabela I para encontrar o valor de z.
6. Calcular o valor de
_
[ x - 0 ]
z = -------------
[s/ n]
7. Se z > d, rejeitar a hipótese nula.
(iii) Exemplos:
8.4. Testes de Hipóteses para uma média simples: teste bi-caudal para
grandes amostras.
Neste caso vamos olhar à esquerda e à direita da curva e, por esta razão, temos dois
níveis críticos ou pontos de decisão d.
Procedimentos:
1. Hipótese nula: = 0
2. Hipótese alternativa: 0
3. Condicionante: tamanho da amostragem n 30
4. Escolher o nível de significância . Normalmente = 0,01, 0,05 ou 0,10
5. Os valores críticos são d = - z/2 e d = z/2. Usar Tabela I para encontrar os valores
de z/2.
6. Calcular o valor de
_
[ x - 0 ]
z = -------------
[s / n
7. Se z < - d ou z > d, rejeitar a hipótese nula.
Exemplo:
66
8.5. Testes de Hipóteses para Diferença entre Médias de Amostras
Independentes – Grandes Amostras:
Neste caso estamos considerando a possibilidade de comparar dois sítios diferentes.
Queremos, por exemplo, comparar (querer saber) se o DAP médio da floresta do Distrito
Agropecuário da SUFRAMA (município de Manaus) é igual ao DAP médio da FLONA
(Floresta Nacional) do Tapajós (Santarém, Pará).
Estatisticamente podemos fazer isso da seguinte maneira:
Hipótese nula: 1 = 2
Hipótese alternativa: 1 2 ou 1 < 2 ou 1 > 2
sendo: 1 = média da população 1 (Manaus) e 2 = média da população 2 (Santarém).
_
Agora, vamos usar a x de cada população para fazer inferência concernente a nossa
_
hipótese. Considere x 1 a média amostral da população 1 tirada de uma amostra aleatória de
_
tamanho n1 de uma população com média 1; e x 2 a média amostral da população 2 tirada de
uma amostra aleatória de tamanho n2 de uma população com média 2. Assumindo também
que as duas amostras são independentes e, se n1 e n2 são ambos maiores que 30, então a
variável aleatória
_ _
[ x 1 - x 2 ] – [ 1 - 2 ]
z = ---------------------------------
[ s12 / n1 ] + [ s22 / n2 ]
tem aproximadamente a distribuição normal padrão. Aqui s1 e s2 são os desvios padrões
amostrais das respectivas populações.
Agora, se a hipótese nula é verdadeira ( 1 = 2 ), então a fórmula de z fica assim
_ _
[x1 - x2 ]
z = -----------------------------------
[ s12 / n1 ] + [ s22 / n2 ]
e tem aproximadamente a distribuição normal padrão.
Procedimentos:
1. Hipótese nula: 1 = 2
2, Hipótese alternativa: 1 < 2
3. Condicionante: n1 e n2 30
4. Escolher o nível de significância . Normalmente = 0,01, 0,05 ou 0,10
5. O valor crítico é d = - z. Usar Tabela I para encontrar o valor de z.
6. Calcular o valor de
_ _
[x1 - x2 ]
z = ----------------------------------
[ s12 / n1 ] + [ s22 / n2 ]
7. Se z < d, rejeitar a hipótese nula.
67
Para o teste uni-caudal com hipótese alternativa 1 > 2, o procedimento é o mesmo
que o anterior, mudando apenas o valor crítico d que é d = z e, consequentemente, a área de
rejeição da h0 passa a ser z > d.
Para o teste bi-caudal com hipótese alternativa 1 2, o procedimento é o mesmo
também, usando os dois valores críticos e, em vez de , usamos /2. A rejeição de h0 se dará
em função do quê ocorrer primeiro, ou z < d ou z > d.
Exemplos:
8.6. Montando um Teste de Hipótese para Pequenas Amostras:
Nem sempre é possível fazer um trabalho de pesquisa usando uma intensidade de
amostragem considerada grande (n 30), ou simplesmente não tem muitas amostras
disponíveis, ou são extremamente caras, ou, por qualquer outra razão, são indesejáveis. Para
isso, existe teste para pequenas amostras, e o teste t é o contraparte para o teste z. A única e
principal diferença é que, neste caso, temos que comprovar a normalidade de nossos dados.
Vimos em capítulos anteriores que para pequenas amostras (n < 30), a variável
aleatória
_
x -
t = ------------------
s/ n
não tem a distribuição normal padrão. Mas, se assumirmos que a população que estamos
amostrando é aproximadamente normalmente distribuída, então a variável aleatória
_
-x
t = -------------
s/ n
tem a distribuição t de Student com (n-1) graus de liberdade. Conseqüentemente, quando
consideramos populações normalmente distribuídas, podemos fazer testes de hipóteses para
médias usando pequenas amostras, da mesma maneira como foi feito para grandes amostras.
8.7. Teste de Hipótese para uma Média Simples de Pequenas Amostras:
Procedimentos:
1. Hipótese nula: = 0
2, Hipótese alternativa: > 0
3. Pressuposto: população normal
4. Escolher o nível de significância . Normalmente = 0,01, 0,05 ou 0,10
5. O valor crítico é d = t. Usar Tabela II para encontrar o valor de t com (n-1) gl.
6. Calcular o valor de
_
x - 0
t = -----------
s/ n
7. Se t > d, rejeitar a hipótese nula.
68
Para o teste uni-caudal com hipótese alternativa 1 < 0, o procedimento é o mesmo
que o anterior, mudando apenas o valor crítico d que é d = - t e, consequentemente, a área de
rejeição da h0 passa a ser t < d.
Para o teste bi-caudal com hipótese alternativa 1 2, o procedimento é o mesmo
também, usando os dois valores críticos e, em vez de , usamos /2. A rejeição de h0 se dará
em função do quê ocorrer primeiro, ou t < d ou t > d.
Exemplos:
8.8. Teste de Hipótese para Diferenças entre Médias de Amostras
Independentes (e Variância igual) de Pequenas Amostras:
Vimos anteriormente como fazer este teste quando temos amostras independentes com
n1 e n2 30. Agora, vamos ver como lidar com este teste quando n1 e n2 são menores que 30.
Assim como no caso de média simples, podemos usar a distribuição t de Student; a diferença
aqui é que, além de assumir que as duas populações são aproximadamente normalmente
distribuídas, temos também que (i) considerar quando as variâncias das populações ( 12 e 22
) são iguais e (ii) quando as variâncias não são iguais.
Neste capítulo vamos trabalhar apenas com a condição de variâncias iguais porque
vamos ver como aplicar teste para saber se duas variâncias são iguais ou não, no próximo
capítulo. As condicionantes serão as seguintes: (1) amostras aleatórias independentes tomadas
de duas populações; (2) as duas populações são aproximadamente normalmente distribuídas;
(3) as duas populações têm variâncias iguais.
Recapitulando: quando temos uma única população, usamos o desvio padrão amostral
s como a estimativa do desvio padrão da população . Quando trabalhamos com amostras
aleatórias independentes de duas populações com o mesmo desvio padrão da população (i.e.,
mesma variância), a melhor estimativa do desvio padrão comum (às duas populações) é
69
tem a distribuição t de Student com (n1 + n2 – 2) graus de liberdade.
Procedimentos:
1. Hipótese nula: 1 = 2
2, Hipótese alternativa: 1 < 2
3. Condicionantes: (i) amostras independentes; (ii) populações normais; (iii) variâncias
das populações iguais.
4. Escolher o nível de significância . Normalmente = 0,01, 0,05 ou 0,10
5. O valor crítico é d = - t. Usar Tabela II para encontrar o valor de t com (n1 + n2 -1)
gl.
6. Calcular o valor de
_ _
[x1 - x2 ]
t = ----------------------------
sp (1 / n1) + (1 / n2 )
sendo:
(n1 – 1) s12 + (n2 – 1) s22
sp = ---------------------------------
n1 + n2 – 2
7. Se t < d, rejeitar a hipótese nula.
Para o teste uni-caudal com hipótese alternativa 1 > 2, o procedimento é o mesmo
que o anterior, mudando apenas o valor crítico d que é d = t e, consequentemente, a área de
rejeição da h0 passa a ser t > d.
Para o teste bi-caudal com hipótese alternativa 1 2, o procedimento é o mesmo
também, usando os dois valores críticos e, em vez de , usamos /2. A rejeição de h0 se dará
em função do quê ocorrer primeiro, ou t < d ou t > d.
70
Sumário dos Procedimentos para Testar as Hipóteses Discutidas neste Capítulo
71
Capítulo 9
Inferências sobre as variâncias
9.1. Introdução:
Neste capítulo vamos ver os métodos usados para os testes de hipóteses e intervalos de
confiança para a variância. Não confundir com análise de variância (ANOVA), que é utilizada
para teste (comparação) de médias e será vista no capítulo 11. Vamos apresentar o teste qui-
quadrado (2) e o teste-F.
Na área florestal, ainda não é comum fazer este tipo de inferência. Em quê situação
podemos estar interessados em controlar a variação? Já vimos que a média é muito mais
popular que a variância; por essa razão, a maioria das inferências é feita com base nesta
variável.
No caso de uma indústria de carro, por exemplo, temos um grande número de
diferentes fornecedores (parafusos, porcas, rodas, espelhos etc.). Neste caso, podemos ter um
fornecedor de rodas diferente de um fornecedor de parafuso. O encaixe da roda ao carro, não
é justo e tem sempre uma certa margem de segurança tanto no comprimento como na
espessura do parafuso. Aquele que fabrica o parafuso fornece para vários outros fabricantes e
nem sempre consegue fazer os parafusos exatamente iguais. Neste caso, o controle de
qualidade pode ser feito usando a inferência sobre a variância, seja do comprimento ou da
espessura.
9.2. Teste estatístico 2 e a curva 2:
Exemplo 1: Um fabricante precisa produzir parafusos de aproximadamente 10 mm em
diâmetro para ajustar em buracos de 10,4 mm. Em princípio, sabe-se que as linhas de
produção produzem parafusos com diâmetros que se distribuem normalmente, mas a linha 1 é
mais barata do que a linha 2.
O fabricante avisa que a margem de segurança é de 0,1 mm, ou seja, parafusos com
diâmetros variando de 9,9 e 10,1 mm passam pelo controle de qualidade. Chama-se uma
estatística e ela faz uma amostragem aleatória nas duas linhas de produção concluindo que o
diâmetro médio é em torno de 10 mm, mas alerta que um ou outro parafuso pode estar fora da
especificação (da margem de segurança). Sendo assim, é preciso testar as variâncias antes de
apresentar o relatório de controle de qualidade das linhas de produção. Foram coletados 20
parafusos de cada linha de produção e tomadas as medidas de diâmetro de cada um (Quadro
9.1).
Aqui, duas questões precisam ser respondidas: (1) qual é a variância apropriada? (2) se
as duas linhas de produção têm a mesma variância, igualmente apropriada?
Margem de segurança igual a 0,1 mm é o mesmo que dizer que o desvio é de 0,1
mm e variância é de 0,01 mm. Então, para responder a questão 1, formulamos as seguintes
hipóteses para a linha de produção 2:
Hipótese nula: 2 = 0,01
Hipótese alternativa: 2 > 0,01
Para aplicar o teste, primeiro é preciso estimar 2 usando s2. Depois, é preciso escolher
o teste estatístico. Neste caso, vamos usar o 2 (qui-dradrado). O 2 é uma variável aleatória,
isto é, o seu valor depende de uma chance para ocorrer. Tomando diferentes amostras, temos
diferentes valores de 2. A maneira de encontrar as probabilidades para 2 é a mesma usada
para determinar as probabilidades para a variável aleatória z.
Se uma variável aleatória de tamanho n é tomada de uma população que é
normalmente distribuída com variância 2, então as probabilidades para a
variável aleatória
(n – 1)
2 = ------------ s2
2
podem ser encontradas usando as áreas sob curvas especiais conhecidas como curvas de 2.
As principais características das curvas 2 são: (1) diferentes para diferentes graus de
liberdade; (2) a curva começa no ponto-zero sobre o eixo horizontal e se estende à direita; (3)
não são simétricas; (4) a área total sob a curva é igual a 1 (um). Os valores de 2 podem ser
obtidos diretamente na Tabela III. A Figura 9.1 apresenta três diferentes curvas para
diferentes graus de liberdade (GL).
9.3. Testes de hipóteses para uma única variância:
Voltando ao exemplo 1, temos o seguinte:
Suponha que uma variável aleatória de tamanho n é tomada de uma população
que é normalmente distribuída com variância 2, então a variável aleatória
(n – 1)
2 = ------------ s2
2
tem a distribuição qui-quadrado com (n – 1) graus de liberdade; ou seja, as
probabilidades para a variável aleatória 2 pode ser determinada usando áreas
sob a curva 2 com (n – 1) GL.
O nosso exemplo consiste de 20 parafusos escolhidos aleatoriamente da linha de
produção 2. A variância estimada é s2 = 0,058. Para testar as hipóteses, temos que calcular o
valor de 2:
(n – 1)
2 = ------------ s2
02
onde 02 é o valor de 2 hipotetizada (neste caso, 02 = 0,01). Queremos saber se esta s2 está
muito longe da 02 hipotetizada ou não, ou seja, se 0,058 é igual a 0,01, do ponto de vista
estatístico. Precisamos também escolher o nível de significância ().
Para 19 (20 - 1) GL, 20,05 = 30,14 (Tabela III)
Assim, se a hipótese nula é verdadeira, então a probabilidade que o nosso 2 calculado
seja maior do que 30,14 é de 0,05. Em símbolos matemáticos, podemos escrever P(2tabelado >
30,14) = 0,05. Dessa maneira, se a hipótese nula é verdadeira, os valores 2 podem ocorrer
102
apenas em 5% das vezes. Classificaremos os 2 > 30,14 como “muito grandes” (Figura 9.2).
Como em capítulos anteriores, vamos chamar 30,14 como valor crítico do teste.
linha de produção 2.
O procedimento geral para montar o teste de hipótese para uma única variância é o
seguinte:
1. Definir as hipóteses:
- Hipótese nula: 2 = 02
- Hipótese alternativa: 2 > 02
2. Pressuposto: População normal
3. Definir o nível de significância ()
4. O valor crítico é c = 2 com (n-1) GL, obtido na Tabela III
5. Calcular o valor de
(n – 1)
2 = ------------ s2
02
onde 02 é o valor hipotetizado na hipótese nula, n é o número de amostras (ou
observações) e s2 é a variância amostral (estimada).
6. Decisão: Se 2 > c, rejeitar a hipótese nula.
103
(n – 1)
2 = ------------ s2
2
tem a distribuição qui-quadrado com (n-1) GL.
104
(i) Uso do teste-F para comparação de duas variâncias:
Imagine duas amostras aleatórias independentes de duas populações que são
normalmente distribuídas. Vamos considerar:
n1 = tamanho da amostragem da população 1
s12 = variância amostral da população 1
12 = variância da população 1
e n2, s22 e 22 são os valores correspondentes para a população 2. Se 12 = 22, então, a variável
aleatória
F = s12 / s22
tem a distribuição-F com (n1-1, n2 - 1) GL; ou seja, as probabilidades para a variável aleatória
F pode ser determinada usando as áreas sob a curva-F com (n1-1, n2 - 1) GL.
O procedimento geral para montar um teste de hipótese usando o F é o seguinte:
1. Definir as hipóteses:
- Hipótese nula, H0: 12 = 22
- Hipótese alternativa, H1: 12 > 22
2. Pressupostos: (1) amostras independentes e (2) populações normais
3. Escolher o nível de significância
4. O valor crítico é c = F com (n1 - 1, n2 - 1) GL, onde n1 e n2 são os tamanhos
das amostragens.
5. Calcular o valor de
F = s12 / s22;
onde s12 e s22 são as variâncias amostrais das populações 1 e 2.
6. Decisão: se F > c, rejeitar a hipótese nula.
105
encontrar nas tabelas IV e VI, para = 0,02 e = 0,10, respectivamente, ou seja, não temos
nenhum problema. No entanto, o outro lado da curva (1 - /2), não há como tirar das tabelas.
Por exemplo, se vamos definir = 0,10, um lado da curva (/2) será 0,05 (Tabela VI) e o
outro será 1 - /2 = 0,95. Neste caso, o cálculo do F0,95 pode ser feito da seguinte maneira:
106
Quadro 9.1: Diâmetros (mm) de parafusos em duas linhas de produção.
107
Figura 9.1: Curva-F com (3,20) gl
F
0
2
0 5 10 15 20 25 30
108
Capítulo 10
Teste de Qui-quadrado ( χ 2 )
1. Introdução:
Neste capítulo vamos ver um teste estatístico baseado na distribuição de Qui-quadrado
2
( χ ), conhecido como teste de qui-quadrado. Este teste pode ser usado tanto na estatística
paramétrica como na não paramétrica. O teste estatístico χ 2 e a curva χ 2 já foram descritos no
capítulo anterior (Capítulo 9). Aqui, vamos enfatizar a aplicação deste teste para:
(i) Ajuste de curvas ou de distribuições:
Exemplos:
1) Distribuição de diâmetro: você desenvolve uma função para descrever a relação
entre classes de diâmetro e freqüência. Ao testar a confiabilidade dessa função em outra área,
você deve coletar novos dados e produzir a nova distribuição de freqüência. O passo seguinte
é confrontar a sua verdade de campo – distribuição observada - com a distribuição
hipotetizada (desenvolvida em outro local, por outro pesquisador) – distribuição esperada.
2) Projeção da distribuição de diâmetro: você usa a cadeia de transição probabilística
Markov para fazer a projeção da dinâmica da floresta de seu interesse. Você usa, por
exemplo, ano 2000 como hoje e 1997 como seu passado imediato – período de 3 anos – para
fazer a projeção para um futuro imediato, 2003. Portanto, em 2003, você tem condições de
avaliar se a Cadeia de Markov é confiável para este tipo de trabalho. Basta comparar a
projeção feita (hipotetizada ou esperada) e confrontar com medições feitas em 2003
(observada). Se der não significante, significa que a projeção é, estatisticamente, igual à
verdade de campo (medições realizadas em 2003) e você pode confiar na Cadeia de Markov.
(ii) Independência:
Exemplos:
3) Ocorrência de espécies nas diferentes classes topográficas: imagine que você não
sabe nada disso, então, você vai hipotetizar que a distribuição seja a seguinte: 1/3 das espécies
ocorrem no platô; 1/3 na encosta e 1/3 no baixio. Faça um levantamento em algumas
toposseqüências e distribua as espécies de acordo com as classes topográficas. Compare os
valores observados – seu levantamento – com os valores hipotetizados (1/3, 1/3 e 1/3). Se der
“não significante”, isso quer dizer a distribuição de espécies na sua área de trabalho ocorre
independentemente das classes topográficas.
(iii) Homogeneidade:
Exemplos:
4) Usando o exemplo (3): se você quiser comparar uma toposseqüência da ZF-2 com
uma da Reserva Ducke pra saber se essas toposseqüências são homogêneas em relação a
distribuição de número de espécies por classe topográfica. Imagine que na ZF-2, a
distribuição seja 40% no platô, 30% na encosta e 30% no baixio. Aí, você faz o levantamento
na Ducke e descobre que a distribuição é 36% no platô, 32% na encosta e 32% no baixio.
Aplica o teste qui-quadrado pra checar se a distribuição da ZF-2 é igual a da Ducke. Se der
“não significante”, isso quer dizer as toposseqüências são homogêneas.
2. Procedimentos para aplicar os testes em diferentes situações:
Valor esperado => E
109
Valor observado => O
O valor crítico c é tirado da Tabela III => c = χ 2 α => descritos no Capítulo 9 (item
9.2).
2.1. Qui-quadrado (χ 2 ) para teste de ajuste:
Passos necessários:
Passo 1: formular as hipóteses científicas:
H0 => A população é grupada de acordo com uma determinada distribuição de probabilidade.
H1 => A população não é grupada de acordo com uma determinada distribuição de
probabilidade.
Passo 2: lembrar das seguintes condições => (i) E > 1 e (ii) máximo 20% de E < 5
Passo 3: Definir o α => 10%, 5% ou 1%.
Passo 4: Determinar o valor crítico c com (k – 1) graus de liberdade, na Tabela III => k =
número de grupos ou número de classes de diâmetro.
Passo 5: Calcular o χ 2
( O – E )2
χ 2 = Σ --------------
E
Passo 6: Decisão => Se χ 2 > c => rejeitar H0
Agora, vamos exemplificar com números. Imagine uma população de árvores com 120
indivíduos tendo a seguinte distribuição de diâmetro.
Em seguida, você faz um levantamento usando apenas parte da população (neste caso
40 árvores) e quer saber se a amostra é representativa. A distribuição de diâmetro dessa
amostragem é apresentada abaixo incluindo a freqüência de acordo com a distribuição da
população (n = 120) e o χ 2.
classes DAP Freq obs. (O) Freq esperada (E) (O–E) (O-E)2 / E
25 8 40 x 0,2 = 8 (8-8) = 0 0,000
35 20 40 x 0,4 = 16 (20-16) = 4 1,000
45 13 40 x 0,2 = 8 (13-8) = 5 3,125
55 5 40 x 0,1 = 4 (5-4) = 1 0,250
>65 4 40 x 0,1 = 4 (4-4) = 0 0,000
110
40 4,375
111
H0: a circunstância de um acidente é independente do sexo da vítima.
H1: a circunstância de um acidente não é independente do sexo da vítima.
Calculando os valores esperados (E):
primeira linha e primeira coluna => (45 x 107) / 183 = 26,3
primeira linha e segunda coluna => (45 x 76) / 183 = 18,7
segunda linha e primeira coluna => (107 x 107) / 183 = 62,6
segunda linha e segunda coluna => (107 x 76) / 183 = 44,4
terceira linha e segunda coluna => (31 x 76) / 183 = 12,9
terceira linha e primeira coluna => 31 x 107) / 183 = 18,1
E o quadro com os valores observados e esperados é o seguinte:
112
( O – E )2
χ 2 = Σ --------------
E
2
Passo 6: Decisão => Se χ > c => rejeitar H0
Exemplificando: Comparando duas cidades estratificadas por cor da pele. Duas amostragens
(n = 100 para as duas) são consideradas e o resultado é apresentado no quadro abaixo.
Hipóteses:
H0: Cidade 1 e cidade 2 têm a mesma % para cada cor de pele
H1: Cidade 1 e cidade 2 não têm a mesma % para cada cor de pele
Checando: nenhum E é menor do que 1 e não tem E < 5 => OK
α = 0,05
Valor crítico c (tabela III com GL=2) é igual a 5,99. GL = 2 => (L-1)(C-1) = (2-1)(3-1) = 2
Calcular χ 2 = (83-85)2/85 + ...... + (7-9,5)2/9,5 = 1,52
Decisão: χ 2 < c; logo, não rejeitamos a H0, ou seja, cidade 1 e cidade 2 têm a mesma
distribuição de cor de pele.
113
Capítulo 11
Análise de Variância – ANOVA
1. Introdução:
Apesar do nome, a análise de variância (ANOVA) é usada para comparação de
médias. Vimos, anteriormente, que há vários testes usados na comparação de média (teste t,
Tukey, Bonferroni, Duncan etc). Por que usar a ANOVA? Usamos a ANOVA quando
queremos compreender melhor a natureza da variação natural das diferentes fontes, além de
comparar as médias. No fundo, ANOVA é a partição (ou desdobramento) da variação total de
acordo com as fontes de variação.
A ANOVA é aplicada para testar hipóteses quando a pesquisa envolve mais de duas
médias. Tratá-se de uma ferramenta estatística amplamente utilizada e com um grau de
sofisticação muito alto. Podemos, de forma muito simplista, definir os seguintes tipos de
ANOVA:
a) ANOVA de simples entrada => fontes de variação ou grupos classificados por um
simples critério como ENTRE os transectos e DENTRO (ou resíduo ou erro) dos
transectos => aplicado em experimentos inteiramente casualizados.
b) ANOVA de dupla entrada => aplicação clássica em experimentos blocos
casualizados => fontes de variação: BLOCO, TRATAMENTO e RESÍDUO (ou
erro).
c) ANOVA de tripla ou múltiplas entradas => aplicação clássica em experimentos
fatoriais incluindo as interações como fontes de variação.
d) ANOVA aninhada (nested): aplicação em experimentos com parcelas subdivididas
tipo Split Plot (clássico) ou quando o adapta para análise de parcelas repetidas.
e) ANOVA para regressão: tanto para as regressões lineares (simples e múltiplas) e
não lineares (simples e múltiplas) => para explicar o quanto da variação dos dados
é explicado pelo modelo utilizado.
f) MANOVA => análise de variância de várias variáveis, simultaneamente.
Na verdade, você arma a ANOVA de acordo com as fontes de variação estabelecidas,
ou seja, desmembrando a variação total; o teste aplicado para testar as suas hipóteses é o teste-
F (Capítulo 9, item 9.5). Em seguida, apresentamos os quadros auxiliares usados para
ANOVA de simples entrada e para ANOVA de dupla entrada.
ANOVA de simples entrada:
Fontes de Variação GL SQ MQ F
Entre
Dentro (Resíduo)
Total
GL = graus de liberdade
SQ = soma dos quadrados
MQ = média quadrática
F = calculado
114
ANOVA de dupla entrada:
Fontes de Variação GL SQ MQ F
Blocos
Tratamentos
Resíduos
Total
No primeiro caso (de simples entrada), você determina o valor de F dividindo MQ entre
pela MQdentro. Antigamente, muito antigamente mesmo, você pegava o Fcalculado e comparava
com o Ftabela (função dos GLs ENTRE e DENTRO e nível de significância α). Atualmente, os
softwares estatísticos vão te dar o valor exato da probabilidade para inferência => então, em
vez do valor de F no quadro auxiliar, o software vai te fornecer a probabilidade.
No segundo caso (de dupla entrada), você quer ver, separadamente, os efeitos dos
blocos e dos tratamentos. Para isso, você aplica o teste-F para blocos e para os tratamentos,
separadamente. O valor de F para blocos você consegue dividindo MQblocos pela MQresíduos e
para os tratamentos dividindo MQtratamentos pela MQresíduos.
2. Procedimentos para aplicar a ANOVA de simples entrada:
n = número total de observações (g * k)
k = número de grupos
g = número de observações por grupo
Passos necessários:
(i) Formular as hipóteses
H0 => μ1 = μ2 ...... = μn
H1 => nem todas as μ são iguais ou, pelo menos, uma é diferente.
(ii) Definir os tipos de dados que você vai utilizar => dados métricos
(iii) Condições => as k populações são normais com a mesma variância.
(iv) Definir o nível crítico α
(v) Determinar o valor crítico c => c = Fα com (k-1) GL no numerador e (n-k) GL no
denominador.
(vi) Calcular F
MQentre
F = --------------
MQdentro
(vii) Decisão => Se F > c, rejeitar H0
3. Exemplo com aplicação das fórmulas necessárias para o preenchimento
do quadro de ANOVA:
a) Fórmulas:
Variação entre os grupos:
115
Soma dos Quadrados => SQentre ou SQE
k g
n Σ (Σ xij)2
> SQD = Σ xij 2 - -----------
i=1 g
> GL para SQD => (n - k)
Média Quadrática => MQdentro ou MQD
MQE = (SQD) / (n - k)
Teste Estatístico => teste-F
F = (MQE)/(MQD)
b) Exemplo 1:
Estamos interessados em comparar a renda média anual de 4 companhias
diferentes.Vamos às companhias e, aleatoriamente, pegamos a declaração de renda para o
Imposto de Renda de 5 empregados de cada uma. O resultado é apresentado no quadro
seguinte (em R$ 1.000,00):
Quadro auxiliar
Fontes de Variação GL SQ MQ F
Entre 3 37,8 12,6 0,04
Dentro (Resíduo) 16 5486,6 342,9
Total 19 5524,4
116
SQD = [ 462 + 532 + ... 562 + 402 ] - [ (2092 + 1962 + 1902 + 1992) / 5 ] = 5.486,6
Fontes de Variação GL SQ MQ F p
Entre classes 2 659,83 329,92 4,005 0,02
Dentro (Resíduo) 177 14582,04 82,38
Total 179
O resultado da ANOVA mostra p = 0,02. Se usássemos os níveis críticos tradicionais
( = 0,05 e = 0,01), a conclusão poderia ser a seguinte: as diferenças em área basal entre as
classes topográficas são significantes a 0,05, mas não a 0,01. Com esta facilidade o valor
exato de você deve concluir com aquilo que você está vendo, ou seja, 0,02.
117
Capítulo 12
Regressão e correlação
12.1 Introdução:
O objetivo da regressão é obter uma expressão da dependência de uma variável Y
sobre uma ou mais variáveis independentes X. Tal expressão é, matematicamente, conhecida
como função, logo, Y é uma função de X. Função é um relacionamento matemático que nos
capacita predizer quais valores de uma variável Y, para dados valores de uma variável X.
Resumindo: Y = f (X).
A regressão define o relacionamento estatístico entre as variáveis tomadas e, a
correlação, a estreiteza deste relacionamento. Na regressão estimá-se o relacionamento de
uma variável com uma outra, expressando-se em termos de uma função linear (ou uma outra
mais complexa), enquanto que na análise de correlação, às vezes, confundida com regressão,
estimá-se o grau para o qual duas ou mais variáveis variam juntas.
Os métodos de regressão são de grande utilidade na derivação das relações empíricas
entre vários fenômenos, sendo aplicáveis para: (i) encontrar uma função estatística que possa
ser utilizada para descrever o relacionamento entre uma variável dependente e uma ou mais
variáveis independentes e (ii) testar hipóteses sobre a relação entre uma variável dependente e
uma ou mais variáveis independentes. No manejo florestal, o uso da regressão é fundamental
na derivação de modelos matemáticos: (i) para explicar o comportamento de uma espécie ou
povoamento submetido a um determinado tipo de intervenção; (ii) para desenvolver modelos
de crescimento; (iii) desenvolvimento de equações de volume e de biomassa; (iv)
desenvolvimento de relações hipsométricas; (v) para alguns estudos da estrutura da floresta
(distribuição em diâmetro, por exemplo) etc.
Ao olhar um povoamento florestal, você pode achar que quanto maiores forem o
diâmetro e altura, maior será o volume ou peso da árvore. Entretanto, você não poderá afirmar
nada além disso. Com o auxílio da regressão, você será capaz de expressar o relacionamento
entre as variáveis independentes diâmetro e altura e o volume (ou peso) da árvore na forma de
um modelo estatístico. Desta maneira, você será capaz de predizer o volume (ou peso) de uma
árvore em pé tendo apenas as medições de diâmetro e altura.
Dependendo do número de variáveis independentes, a regressão pode ser simples (uma
variável) ou múltipla (mais de duas variáveis) e, dependendo da natureza da equação básica, a
regressão pode ser linear ou não linear.
12.2. Equações básicas das curvas de ajuste:
Linear => Y = a + b X => linha reta
Quadrática => Y = a + b X + c X2 => parábola
Cúbica => Y = a + b X + c X2 + d X3 => curva do 3º grau
Genérica => Y = a + b X + c X2 + … x X n => curva do n-ésimo grau
Hipérbole => Y = 1 / (a + b X)
Exponencial => Y = a e b X
Geométrica => Y = a X b
Todas as equações básicas podem ser linearizadas e, deste modo, as estimativas dos
coeficientes de regressão podem ser obtidos usando procedimento tradicional de regressão
118
linear. Este “truque” é utilizado para facilitar o processamento dos dados. Entretanto, quando
se tem recurso da informática que permite trabalhar com processos iterativos para
convergência das estimativas dos coeficientes, o “truque” perde o sentido.
Neste capítulo, vamos demonstrar como são estimados os coeficientes de regressão e
de correlação para a regressão linear simples. Sabendo como estimar os coeficientes de
regressão e correlação da simples, você terá, por analogia, estimar os coeficientes da
regressão múltipla. No caso de regressão não linear, há duas alternativas: (i) linearizar a
equação original e adotar os procedimentos das regressões simples ou múltipla e (ii) manter a
equação original e estimar os coeficientes de regressão e correlação utilizando um dos
seguintes métodos: Gauss-Newton, Quasi-Newton e Simplex – opções do software Systat.
12.3. Regressão linear simples:
Para se ter uma idéia de regressão linear simples é necessário considerar uma
população com n indivíduos, cada um com características xi e yi. Se a informação desejada é
uma expressão numérica para o relacionamento entre os valores x e y, o primeiro passo é
marcar os valores num sistema de coordenadas. Isto é feito para dar uma evidência visual do
relacionamento das duas variáveis. Se existir um relacionamento simples, os pontos marcados
tenderão a formar um modelo (uma linha reta ou uma curva). Se o relacionamento é fraco, os
pontos serão mais dispersos e, o modelo, menos definido.
Uma linha reta representa a regressão linear simples, a qual é geralmente definida pela
equação
Y=a+bX
sendo: a = coeficiente de interseção (onde o valor de X corta o valor de Y) e b = coeficiente
angular ou de inclinação (estimativa de Y para cada unidade de X acrescentada) – Ver figura
12.1. Em regressão, um relacionamento funcional não significa que, dado um valor de X, o
valor de Y tem que ser igual a a + b X, mas que o valor esperado de Y é igual a a + b X.
Em um exemplo real, as observações não permanecem perfeitamente ao longo da linha
de regressão. Isto é devido ao erro aleatório () e outros fatores não quantificáveis. A forma
mais utilizada de ajuste dos dados à linha reta (regressão linear simples) é por meio do
método dos mínimos quadrados (MMQ), que requer uma soma mínima dos desvios ao
quadrado, entre os pontos observados e os estimados (sobre a reta).
(i) Condicionantes para o uso da regressão linear:
- Homogeneidade da variância => a variância de Y sobre a linha de regressão
é a mesma para todos os valores de X. Isto pode ser resolvido aplicando o teste
de Bartlett.
- Normalidade => o simples ajuste dos dados à regressão (ou a descrição do
relacionamento entre as variáveis Y e X) não requer a distribuição normal de
Y, mas se a análise de variância for realizada (o que é óbvio), é preciso
comprovar a normalidade ou utilizar o expediente do teorema de limite central
(Capítulo 6).
- Independência => independência dos erros (afastamento da linha de
regressão) das observações. A validade desta condicionante é melhor
assegurada por meio de seleção das unidades de amostra de forma aleatória. No
caso de usar parcelas repetidas ou série temporal, o teste Durbin-Watson é a
solução.
(ii) Método dos Mínimos Quadrados (MMQ):
119
Assume-se, tentativamente, que a linha de regressão de variável Y sobre a variável X
tem a forma a + b X, que assume a seguinte expressão matemática
Y = 0 + 1 X + i
o que quer dizer: para um dado X, um valor correspondente de Y consiste do valor 0 + 1 X
mais uma quantidade i, o incremento pelo qual algum indivíduo Y pode desviar-se da linha
de regressão.
Os coeficientes 0 e 1 são desconhecidos. O erro i é muito difícil de ser encontrado
porque ele varia para cada observação Y. Entretanto, 0 e 1 permanecem fixos e, apesar de
não poder encontrá-los exatamente sem o exame de todas as possíveis ocorrências de Y e X,
pode-se utilizar as informações disponíveis para obter as estimativas a e b de 0 e 1,
respectivamente. Desta maneira, podemos escrever o modelo acima, como um modelo
estatístico da seguinte maneira
Ye = a + b X
onde Ye é o valor estimado de Y para um dado X, quando a e b são conhecidos.
A questão, agora, é saber como determinar os coeficientes a e b. Como falamos
anteriormente, será utilizado o MMQ para a determinação dos coeficientes. Vamos fazer esta
demonstração a partir da figura 12.1. Vamos considerar
Yi = valor observado
Yei = valor estimado
Nesta figura temos 6 valores de X. A equação da reta ajustada passa exatamente entre os
pontos (X) observados. O desvio () é a diferença entre o valor observado (Y) e o valor
estimado (Ye) pela equação da reta para o mesmo valor de X.
Vamos começar a demonstração adiantando que vamos chamar a soma dos desvios ao
quadrado de S e S tem que ser mínimo (zero), assim
∑ (i)2 = S = 0 => i variando de 1 a n
sem esquecer que
i = Yi - Yei
sendo:
Yei = a + b Xi
logo
i = Yi – (a + b Xi)
Vamos à figura 12.1 para continuar o desenvolvimento do MMQ até chegar às
equações normais.
120
Figura 12.1: Valores observados versus valores estimados pela regressão.
121
an + b ∑ Xi = ∑ Yi
a ∑ Xi + b ∑ Xi2 = ∑ XiYi
a = [ ∑ Yi - b ∑ Xi ] / n
b = [ SPCXY ] / [ SQCX ]
Então, para estimar os coeficientes de regressão a e b, você tem que saber os seguintes
somatórios: ∑ Yi, ∑ Xi, ∑ XiYi e ∑ Xi2. Para facilitar os cálculos manuais, monte a seguinte
quadro auxiliar. As fórmulas de SPC e SQC são encontradas no Capítulo 3.
Quadro 12.1: Quadro auxiliar para estimar os coeficientes de regressão.
obs Y X Y2 X2 XY (Y-Ye)2
1
2
.
.
.
n ∑Y ∑X ∑ Y2 ∑ X2 ∑ XY ∑ (Y-Ye)2
Comentários:
i) Com os coeficientes de regressão estimados temos condições de descrever o
relacionamento linear entre a variável dependente Y e a independente X. Mais para
a frente, vamos mostrar como se estima o coeficiente de correlação e a precisão da
equação.
ii) A reta dos MMQ passa pelo ponto (Xmédio, Ymédio), isto é, quando X = Xmédio tem-
se Ye = Ymédio
iii) O coeficiente de regressão b, coeficiente angular ou de inclinação, fornece a
variação que ocorre em Y, por unidade de X.
12.3. Correlação linear:
Depois da determinação dos coeficientes de regressão, vamos verificar o quão estreito
é o relacionamento linear entre as variáveis Y e X. De uma amostragem aleatória (X e Y) de
tamanho n de uma população normalmente distribuída, a estimativa do coeficiente de
correlação, r, é obtida da seguinte maneira:
SPCXY
r = ----------------------
122
√ SQCX SQy
O coeficiente de correlação tem o mesmo sinal do numerador e, conseqüentemente, o
mesmo sinal do coeficiente de regressão b. E mais, o r independe das unidades de medida das
variáveis Y e X.
O coeficiente de correlação varia de -1 a +1
r positivo => os maiores valores de Y estão relacionados com os maiores valores de X
ou os menores de Y estão relacionados com os menores de X.
r negativo => os maiores valores de Y estão relacionados com os menores valores de
X ou vice-versa.
r = 0 => Y não tem relacionamento linear com X.
r = 1 => perfeito relacionamento linear entre a variável dependente (Y) e a
independente (X).
12.4. Precisão da regressão estimada:
Depois de estimar os coeficientes de regressão e de correlação, podemos descrever o
relacionamento entre Y e X e sabemos o quão estreito é este relacionamento linear. O passo
seguinte é saber o quão precisa é a equação resultante. Primeiro, considere a seguinte
identidade
Yi - Yei = ( Yi - ӯ ) - ( Yei - ӯ )
elevando ao quadrado os dois lados e somando de i = 1 até n, tem-se
123
Quadro 12.2: Quadro de análise de variância (ANOVA)
Fontes de variação GL SQ MQ F
Devido à regressão c–1 b * (SPCxy) SQREG/(c-1)
Sobre a regressão (resíduo) n–c por subtração SQRES/(n-c)
Total (corrigido) n-1 SQCY
sendo: c = número de coeficientes de regressão.
O valor de F é dado pela razão entre MQREG e MQRES. Quanto maior for o numerador
MQREG, maior será o valor de F. Quanto maior for o F, mais significante será o modelo
testado. Antigamente, você pegava o F calculado e ia a tabela-F para comparar os dois
valores; se o valor calculado fosse maior do que o tabelado (para os 3 principais níveis
críticos de 10%, 5% e 1%), você concluía que o seu modelo era significante, caso contrário,
não significante. Hoje, os programas de estatísticas já dão os valores exatos da probabilidade
(ou a área sob a curva-F). Portanto, hoje você pode tomar decisões baseadas na sua
capacidade de discernimento. Por exemplo: se p for igual a 0,03 (ou 3%), você pode dizer
que é significante a 5% mas não a 1% ou, então, dizer qualquer coisa sobre o 0,03 da sua
própria cabeça sem ficar no maniqueísmo do significante ou não significante.
A MQRES é igual a s2 e fornece uma estimativa da variância residual, baseada em (n-2)
graus de liberdade (GL). Se a equação de regressão foi estimada de um número grande de
observações, a variância residual representa uma medida do erro com a qual qualquer valor
observado de Y poderia ser estimado de um dado valor de X, usando a equação ajustada.
Por último, vamos apresentar a variável que mede a precisão da equação ajustada que
é o erro padrão de estimativa
sy.x = √ s2
124
Capítulo 13
Estatística não Paramétrica
1. Introdução:
Até o capítulo 12, vimos várias situações da estatística paramétrica. Basicamente, a
estatística paramétrica foi desenvolvida sob a teoria da distribuição normal. No entanto, os
fenômenos naturais tendem a não seguir a distribuição normal padrão (μ = 0 e σ2 = 1) e,
muitas vezes, não há nem como normalizar os dados da população – uso da padronização da
variável aleatória. Quando os seus dados teimam em não seguir a distribuição normal, temos
ainda o recurso do uso do “teorema do limite central” para “driblar” a condição
“normalidade” da maioria dos testes estatísticos.
Se você achou que acabaram os recursos estatísticos para analisar os seus resultados,
restou o último e derradeiro recurso que é o uso da estatística não paramétrica. A estatística
não paramétrica é usada quando as condições impostas ao uso da estatística paramétrica são
“muito” violadas. Além disso, quando não dá para repetir a pesquisa de campo ou de
laboratório e você tem que analisar o material que você em suas mãos. Para alívio de sua
consciência, existe a estatística não paramétrica que é a estatística de distribuição “livre” e os
seus testes podem ser aplicados às populações com qualquer distribuição.
Qual é o preço que você paga por usar a estatística não paramétrica? O preço é a
limitação de sua comunicação. Não dá pra você ir muito longe com as decisões tomadas com
base nos testes não paramétricos, além do “significante” ou “não significante”. No entanto, a
estatística não paramétrica requer poucos dados (portanto, a pesquisa é mais barata), os
cálculos são simples e você pode trabalhar diretamente (sem transformações) com dados
ordinais e qualitativos.
A estatística não paramétrica é assim conhecida porque não trabalha com parâmetros
(μ e σ2). Este conceito, no entanto, ganhou uma certa flexibilidade com o passar do tempo.
Hoje, quando viola as condições impostas pela estatística paramétrica, você corre atrás de um
teste similar na não paramétrica e usa até para comparação de médias.
Neste capítulo vamos ver alguns testes não paramétricos, principalmente aqueles que
têm contrapartidas (correspondentes) na estatística paramétrica.
2. Distribuição Binomial:
Este teste já foi visto no capítulo 4 (Probabilidade).
Sabemos, então, que:
n
P ( x = k) = pk (1 – p)n-k
k
125
Exemplo 1 => Uma pessoa em uma sala tem cartões numerados de 1 a 10. Ela pega
um cartão ao acaso e uma outra pessoa (em outra sala) tenta “adivinhar” o número que foi
pego. Este experimento é repetido 3 vezes. A pergunta é: qual é a probabilidade de acertar 2
vezes.
Resolvendo => sabemos que:
n=3
p = probabilidade de sucesso = 1/10 = 0,1
q = (1 – p) = probabilidade de insucesso = 9/10 = 0,9
P (x = 2) = ? => probabilidade de acertar 2 vezes
Portanto:
3
P (x = 2) = (1/10)2 (9/10)3-2 = 3 * 0,01 * 0,9 = 0,027
2
ou seja, a probabilidade de outra pessoa acertar 2 vezes em 3 tentativas é 0,027 ou
2,7%.
A Tabela VIII dá direto essas probabilidades, desde que haja coincidência em termos
de n, k e p. Pra se garantir, é melhor saber como calcula a probabilidade exata da distribuição
binomial.
Você obtém a probabilidade usando a Tabela VIII => n = 3, k = 2 e p = 0,1
para n = 3, temos k = 0, k = 1, k = 2 e k =3
P (x = 2) é igual a 0,0270
126
P (x ≥ 2) => tenho que somar a probabilidade de k = 2 e k = 3, ou
seja, 0,0270 + 0,0010 = 0,0280 => a probabilidade de acertar mais
de 2 vezes é de 2,8%.
60,0 25,7 22,4 20,1 17,3 16,1 15,3 14,8 14,3 14,1 10,4 6,2
> 14.000 < 14.000
n = 12
k = 10 (são 10 rendas maiores do que 14.000) => de acordo com H0, sucesso
significa que a renda tem que ser menor que 14.000; renda > 14.000 significa
insucesso.
Neste caso, temos também que fixar (aproximadamente) o nível crítico α para
estabelecer a área de rejeição de nossa hipótese nula.
127
pra k = 12 => p = 0,0002 e α = 0,0002
pra k = 11 => p = 0,0029 e α = 0,0002 + 0,0029 = 0,0031
pra k = 10 => p = 0,0161 e α = 0,0031 + 0,0161 = 0,0192
pra k = 9 => p = 0,0537 e α = 0,0192 + 0,0537 = 0,0729
60,0 25,7 22,4 20,1 17,3 16,1 15,3 14,8 14,3 14,1 10,4 6,2
+ + + + + + + + + + - -
Quantos sinais (+) temos? Temos 10, ou seja, o nosso ponto de decisão é 10 =>
Considerando α = 0,0192, temos que rejeitar H0 porque k ≥ 10. Como o k só pode
ser inteiro, o nosso valor crítico estaria entre 0,0192 e 0,0729.
H0: MD = M
xn
Calcular:
128
Decisões:
Vamos a um exemplo prático. Tomamos o DAP de 8 árvores (isso é uma coisa que
você nunca vai fazer – entrar na floresta e medir apenas 8 árvores é um desperdício
inaceitável) e queremos saber se a mediana é igual a 50 cm. O quadro seguinte apresenta os
dados observados (x) e as demais colunas necessárias para a execução do teste.
Da tabela IX, para n = 8, tiramos que o α mais próximo de 0,05 é 0,055; portanto o
valor crítico d é igual a 6 para α = 0,055.
Calculamos, então, o R+ somando os “ranks” com sinais positivos (+) => na última
coluna tem apenas 2 ranks (+), que são 2 e 1, logo R+ = 2 + 1 = 3
129
Pop 1: tempo de aprendizagem para todos os trabalhadores com experiência
comprovada.
Pop 2: tempo de aprendizagem para todos os trabalhadores sem experiência
comprovada
Hipóteses?
H0: MD1 = MD2
H1: MD1 < MD2
Tamanhos das amostras =>
n = 8 da população 1
k = 7 da população 2
Da tabela 13.11, para α = 0,05, n = 8 e k = 7, o valor crítico d é igual a 13.
Vamos aos cálculos:
População 1 População 2
tempo rank tempo rank
2,33 11 2,31 10
1,81 5 1,96 7
2,17 8 2,73 14
1,78 4 2,51 13
1,74 3 3,04 15
1,46 1 2,34 12
1,58 2 2,24 9
1,92 6
Calculamos, então, o T
T = 40 – [ 8 (8+1) ] / 2 = 4
6. Considerações finais:
Evidentemente, a estatística não paramétrica não se resume nos testes apresentados
neste capítulo. Isso foi apenas um aperitivo acrescentado a sua disciplina de Biometria
Florestal. Estatística não paramétrica tem um vasto repertório de testes; por exemplo, do tipo
Kolmogorov-Smirnov:
o Teste Kolmogorov para ajuste da distribuição
o Teste Lilliefors para normalidade
o Teste Shapiro-Wilk para normalidade
130
o Teste Smirnov para teste de 2 amostras independentes
o Teste Cramér-von Mises para teste de 2 amostras independentes
o Teste Birnbaum-Hall para teste de várias amostras independentes
131
PARTE 2
132
Capítulo 14
Algumas variáveis aleatórias utilizadas em manejo florestal
14.1 Diâmetro à altura do peito (DAP)
14.1.1 Notas preliminares
Na engenharia florestal, o diâmetro da árvore é DAP e ponto final. DAP se mede a 1,3
m acima do nível do solo. O objetivo desta seção não é ensinar como medir o DAP porque
isto está muito bem explicado nos livros de Machado & Figueiredo Filho (2003)3 e Campos &
Leite (2002)4. Em plantios de eucalipto, o DAP tende a ser medido quase sempre a 1,3 m do
solo. Na Amazônia, a situação é um pouco diferente porque há sapopemas e outras
irregularidades no tronco que nem sempre a parte a 1,3 m do solo está disponível para medir.
Em inventários em uma única ocasião, esta situação pode ser superada utilizando
equipamentos especiais ou a projeção do diâmetro à altura do DAP. Por compensação de
erros, o resultado final não será afetado. Em inventários contínuos, a subjetividade na
medição de um mesmo indivíduo em ocasiões sucessivas, não é bem-vinda. Neste caso, é
necessário medir sempre no mesmo local (altura em relação ao solo) e aí o recurso é medir
aonde é possível e marcar (com tinta) este ponto da medição. Dessa forma, será possível
estimar as mudanças ocorridas entre duas ou mais ocasiões.
Como é a pronúncia correta desta variável tão importante para a engenharia florestal;
D-A-P ou Dape ou Dapi? Segundo o Manual de Estilos da Abril, temos os seguintes
conceitos:
Sigla é a reunião das iniciais de um nome próprio composto de várias palavras e deve
ir, quase sempre, em caixa alta: CNBB, CPI, CPMF, IBGE, BNDS, CBF etc. Certas siglas
silabáveis, mesmo estrangeira, são escritas em caixa alta e baixa: Vasp, Ibope, Inpa, Incra,
Aids etc.
Diante disso, o nosso diâmetro à altura do peito tem que ser pronunciado como Dape
ou Dapi. Certos estão os biólogos, ecólogos e outros não florestais e errados estão os
engenheiros florestais. Por conta disso, quero dedicar esta seção àqueles que pronunciam
errado esta variável, D-A-P. Não critiquem (e nem tripudiem) àqueles que falam Dape ou
Dapi porque eles estão certos, mas continuem pronunciando D-A-P., que é uma tradição
florestal de mais de 40 anos no Brasil.
Acrônimo é a reunião de elementos (iniciais, primeiras letras e sílabas) dos
componentes de um nome, com a intenção de formar uma palavra silabável e, deve ir, sempre,
em caixa alta e baixa: Ibama, Cacex, Varig etc. Chichuá é um acrônimo.
3
Machado, S.A. e Figueiredo Filho, A. 2003. Dendrometria. 309p.
4
Campos, J.C.C. e Leite, H.G. 2002. Mensuração florestal. UFV. 407p.
133
Como o DAP é a principal variável independente para o setor florestal da Amazônia,
uma função de distribuição bem ajustada pode facilitar o inventário florestal sem perder a
precisão. Com uma boa função, que apresenta a distribuição de probabilidade de cada classe
de DAP, o inventário usando a contagem de indivíduos por unidade de área é perfeitamente
possível. Dessa forma, o tempo de coleta seria muito mais rápido e, conseqüentemente, o
inventário ficaria mais barato.
134
que medir as alturas da árvore em pé. Mesmo com equipamentos sofisticados, é muito difícil,
senão impossível, medir precisamente a altura total. A altura comercial pode até ser medida
precisamente com equipamentos, mas diferentes medidores podem apresentar diferentes
medidas para a mesma árvore por causa da subjetividade em definir o que é "altura
comercial". Nunca, mas nunca mesmo, "chutar" a altura para utilizar o modelo 2.
Nos exemplos com equações de volume e de biomassa, temos o seguinte: (i)
acrescentar a altura comercial (H) ao modelo 1, significa melhorar a precisão em 0,42% (1,46
– 1,04) e (ii) acrescentar altura total (HT) ao modelo, significa melhorar a precisão em 1,22%
(6,54 – 5,32). Vale a pena acrescentar a altura? Pense nisso, sobretudo, nos custos de coleta de
dados para o inventário florestal.
14.3. Volume
No setor florestal, as decisões são tomadas baseadas no volume de madeira. Isto é tão
forte que, muitas vezes, o engenheiro florestal até se esquece que numa floresta há muitas
outras coisas além da madeira. Aqui, o objetivo é mostrar como se estima o volume de
135
madeira nos inventários florestais. Para isto, você precisa ter equações confiáveis e usá-las
para estimar o volume de árvores em pé medidas em parcelas fixas do inventário florestal.
Volume real
Para desenvolver equações de volume, você precisa ter o volume real de vários
indivíduos. Este volume pode ser obtido por meio do método destrutivo (aproveitando áreas
exploradas ou desmatadas, autorizadas pelo Ibama) ou utilizando o relascópio de Bitterlich
(por exemplo). O mais comum é o método destrutivo. Antes de derrubar a árvore, o DAP é
medido. Com a árvore no chão, as alturas ou comprimentos (comercial e total) são
determinados e o tronco é dividido em pequenas toras, tentando se aproximar à forma do
cilindro.
Em geral, o tronco é dividido em 10 toras (ou seções) e duas medidas são tomadas em
cada tora, na base e no topo. Com estas duas medidas, você tem condições de calcular as áreas
transversais da base e do topo; aí, você estima a média (g da base + g do topo dividido por 2)
e multiplica pelo comprimento da tora [lembrando que m2 de g vezes m do comprimento,
você terá m3] para ter o volume da tora ou seção. A soma dos volumes das 10 toras é
considerada "volume real" da árvore. Melhores explicações você vai encontrar nos livros de
Machado & Figueiredo Filho (2003) e Campos & Leite (2002).
Quantas árvores são necessárias para desenvolver os modelos estatísticos para
volume ou equações de volume ou modelos alométricos?
Alometria => (do grego: allos é outra e metron é medida) => é o estudo das variações
das formas e dos processos dos organismos e tem dois significados: (i) o crescimento de uma
parte do organismo em relação ao crescimento do organismo inteiro ou de parte dele e (ii) o
estudo das conseqüências do tamanho sobre as formas e os processos.
Você pode usar uma função conhecida de distribuição em diâmetro (Weibull, por
exemplo) e ver se os dados já coletados se ajustam a esta função. Teste simples como o qui-
quadrado (confrontação entre freqüência esperada e freqüência observada) dá conta disso. Se
o teste for significante, colete mais dados das classes que estão faltando e refaça o teste qui-
quadrado. Se o resultado for não significante, você tem, em mãos, uma amostra representativa
de sua população de interesse. Há também a possibilidade de utilizar-se do recurso do
inventário florestal quanto à intensidade de amostragem; neste caso, cada indivíduo é uma
amostra. A fórmula é a seguinte:
n = ( t2 s2 ) / 2
sendo: t = valor obtido na tabela-t ( p = 0,05 ou outro e n-1 graus de liberdade)
s2 = estimativa da variância
2 = expectativa do erro = (LE x média)2. Em geral, o LE (limite de erro) é igual a
0,10 ou 10%.
Observações: use z em vez de t. Como vimos anteriormente, os valores de z para os níveis
críticos mais freqüentes, = 0,10, = 0,05 e = 0,01 são, respectivamente, 1,64, 1,96 e
2,57. Outra coisa: há também o fator de correção para populações finitas, ou seja, neste caso
ao denominador da fórmula (2) deve ser acrescentado ( 1 – n/N ). A população é considerada
finita quando a fração n/N é menor do que 0,05, segundo Freese (1962)5.
Equações de volume ou modelo alométrico
5
Freese, F. 1962. Elementary forest sampling. Agriculture Handbook nº 232. USDA-Forest Service.
91p.
136
O passo seguinte é testar modelos matemáticos. Antigamente (fim dos anos 70), o
grande desafio era encontrar o melhor modelo para descrever a função V = f (DAP, H).
Depois de várias dissertações e artigos científicos, verificou-se que qualquer modelo, seja de
simples entrada (apenas DAP como variável independente) ou de dupla entrada (DAP e H
como variáveis independentes, combinadas ou não) produzem bons ajustes. A decisão para
escolher o melhor modelo ficou nos detalhes.
Hoje em dia, qualquer modelo que você venha a testar, utilizando DAP e H, você vai
conseguir uma alta e significativa correlação, um modelo que explica mais de 75% da
variação de seus dados (r2) e um erro padrão de estimativa aceitável. O padrão de hoje é o
modelo que apresenta r > 0,90, r2 > 0,90 e syx (%) < 10. Além disso, o modelo tem que ter
uma boa distribuição de resíduos, que é: as diferenças entre os valores estimados e
observados, positivos e negativos, têm que se distribuir uniformemente ao longo da curva (ou
reta) estimada, ou seja, estas diferenças não podem aumentar (ou diminuir) conforme aumenta
o tamanho da árvore. Por exemplo: se o seu modelo produzir uma diferença de 0,5 m 3 para
uma árvore com DAP = 10 cm, esta mesma diferença (mais ou menos) tem que ser verificada
para outra árvore com DAP = 70 cm ou DAP = 150 m.
Os modelos que apresentam as melhores distribuições de resíduos são os modelos
logarítmicos. Os mais usados são os seguintes, do item 1.1.3:
1) ln V = a + b ln D
2) ln V = a + b ln D + c ln H
A abordagem para estimar os coeficientes de regressão é a do método dos mínimos
quadráticos (MMQ) e depois da obtenção das equações normais, os coeficientes podem ser
estimados usando o método da substituição ou por meio do cálculo matricial. As explicações
sobre as operações necessárias para se chegar aos coeficientes podem ser encontradas em
qualquer livro de estatística básica. No computador, basta entrar com as variáveis ln V, ln D e
ln H e você terá, além dos coeficientes de regressão, erro padrão de estimativa, coeficiente de
correlação, coeficiente de determinação e distribuição de resíduos.
Regressão => descreve apenas o relacionamento linear entre uma variável dependente
(Y) e uma ou mais variáveis independentes (X1 = DAP, X2 = altura etc.).
Antes de derivar a equação em relação a a e b, primeiro é preciso linearizar as
variáveis aleatórias, da seguinte maneira: ln V = Y, ln D = X1 e ln H = X2. Para o modelo 1, as
equações normais são:
an + b ∑ X1 = ∑ Y
a ∑ X1 + b ∑ X12 = ∑ X1Y
Pelo método de substituição, os coeficientes serão:
a = [ ∑ Y - b ∑ X1 ] / n
b = [ SPCX1Y ] / [ SQCX1 ]
Para o modelo 2, as equações normais são
an + b ∑ X1 + c ∑ X2 = ∑Y
a ∑ X1 + b ∑ X12 + c ∑ X1 X2 = ∑ X1 Y
a ∑ X2 + b ∑ X1 X2 + b ∑ X22 = ∑ X2 Y
Neste caso, é melhor estimar os coeficientes apelando para o cálculo matricial.
137
matriz de Y (nx1) = matriz de X (nxp) x matriz de coeficientes "b" (px1)
(X'X) b = X'Y
b = (X'X)-1 X'Y
Hoje, com o Excel ficou fácil inverter matrizes de qualquer tamanho e a multiplicação
é mais fácil ainda. Mesmo assim, não há necessidade de trabalhar com matrizes para a
obtenção dos coeficientes. Os programas de estatística, em geral, calculam automaticamente
os coeficientes. Sei que para regressões simples (com dois coeficientes), o Excel dá conta do
recado. Para regressões múltiplas e as não lineares, é melhor usar outro software (Systat, SAS
etc.).
Vamos aproveitar as saídas (outputs) do Systat, por exemplo, para explicar os
significados de alguns indicadores da regressão.
1) Coeficiente de correlação => r => a regressão descreve o relacionamento e este
coeficiente mostra o grau de estreiteza que existe entre as variáveis Y e X1, X2 etc.. Este
coeficiente varia de -1 a +1. Igual a -1 ou +1, há uma correlação perfeita, ou seja, a cada
unidade acrescentada à X, haverá um aumento proporcional em Y (uma, duas, ou menos 2
unidades). Sinal (-) significa que os menores valores de Y tendem aos maiores valores de X
ou vice-versa. Sinal (+) significa que os menores Y tendem aos menores X e os maiores Y
tendem aos maiores X. O teste-t é geralmente utilizado para testar a significância de r.
2) Coeficiente de determinação => r2 => multiplicado por 100 mostra a percentagem
da variação dos dados que é explicada pelo modelo testado. No caso de regressão múltipla,
prefira sempre o coeficiente ajustado.
3) Erro padrão de estimativa => syx => é a raiz quadrada da média quadrática dos
resíduos (MQR), logo é o desvio padrão da relação. Ao comparar duas equações, o uso deste
indicador é direto, ou seja, aquela que apresentar o menor erro é a melhor. Isoladamente, é
preciso ainda alguns cálculos. Dividindo syx pela raiz quadrada de n você terá o erro padrão da
média e dividindo o mesmo pela média da variável dependente Y, você terá o seu erro em
percentagem. Melhor ainda é apresentar a incerteza de seu modelo. Neste caso, você tem
estimar o intervalo de confiança (IC) e aquela porção (z * erro padrão) dividida pela média
vai te fornecer a incerteza de seu modelo. Em geral, uma incerteza de 10% é considerada
aceitável.
4) Coeficientes de regressão => O Systat apresenta a constante ( a ) e os coeficientes
associados às outras variáveis independentes (b, c, d etc.) => o Systat apresenta também a
significância de cada coeficiente; se for não significante, você deve removê-lo do modelo.
5) Análise de variância (ANOVA) => a regressão descreve, a correlação mostra a
estreiteza entre as variáveis e a ANOVA mostra a significância do seu modelo de regressão. O
teste-F é o que determina se o modelo é significante ou não. No Systat, o valor p é o mesmo
que , ou seja, é o valor crítico para a tomada de decisão. Os valores clássicos de p são 0,01,
0,05 e 0,10; portanto quando o p < 0,01, o modelo testado é significante para os três níveis.
6) Durbin-Watson D Statistics e First Order Autocorrelation => No caso de
equações de volume (e biomassa), não há envolvimento de séries temporais. Portanto, não
precisa se preocupar com isto. Estes dois testes são usados para verificar se os termos dos
erros no modelo de regressão não são correlacionados e nem dependentes. Os termos dos
erros correlacionados com o passar do tempo são conhecidos como "autocorrelacionados" ou
"serialmente correlacionados".
138
7) Distribuição de resíduos => o gráfico pode ser interpretado diferentemente por
diferentes eng florestais, mas ele é fundamental para a decisão final do melhor modelo –
conforme foi explicado anteriormente.
Aplicação da equação de volume
Com o melhor modelo em mãos, você vai aplicá-lo em inventários florestais. Num
inventário na Amazônia, para árvores com DAP ≥ 10 cm, você deve utilizar uma parcela de,
no mínimo, 2.500 m2 (10 x 250 m ou 20 x 125 m). Numa parcela deste tamanho, você deve
encontrar entre 100 e 150 indivíduos. Lembre-se que, de acordo com o conceito de intervalo
de confiança (IC), em 95 vezes (se o seu p = 0,05, por exemplo) a sua estimativa estará dentro
do seu IC e em 5 vezes, a estimativa estará fora do IC. Portanto, não se surpreenda e confie na
estatística (na incerteza que o seu modelo declarou). Não esquecer que os seus modelos são
logarítmicos e, por esta razão, ao estimar o volume de madeira você tem que usar o inverso do
logaritmo natural que é a exponencial.
14.4. Biomassa
Estimar a biomassa é importante para compreender a produção primária de um
ecossistema e avaliar o potencial de uma floresta para produção de energia. No manejo
florestal sustentável na Amazônia, a biomassa é usada para estimar a quantidade de nutrientes
que é exportada do sistema via exploração de madeira e que é devolvida via inputs
atmosféricos. No entanto, depois da Rio-92, a biomassa ganhou uma nova dimensão. O
carbono da vegetação passou a ser um elemento importante nas mudanças climáticas globais.
O eng florestal sabe (ou deveria saber) que aproximadamente 50% da madeira secada (em
estufa) é carbono e que os compostos de carbono são: celulose (45%), hemicelulose (28%) e
lignina (25%).
De acordo com o IPCC (Painel Intergovernamental de Mudanças Climáticas), os
componentes de biomassa e carbono da vegetação são: (i) biomassa ou C na matéria viva
acima do nível do solo (tronco, galhos, folhas, frutos e flores); (ii) biomassa ou C na matéria
viva abaixo do nível do solo (raízes) e (iii) biomassa ou C na matéria morta em pé ou no chão.
Quem foi treinado para estimar o volume de madeira tem todas as condições para
estimar a biomassa também. O anexo 5 é um artigo (manuscrito) sobre biomassa que já foi
publicado na Acta Amazonica6. Este artigo cobre o componente 1 do IPCC.
O componente 2 envolve raízes e isto está sendo realizado pelo LMF (laboratório de
manejo florestal do INPA) e será incluído em uma tese de doutorado. O trabalho de campo
para obtenção do peso de raízes é muito trabalhoso, mas nada que assuste o verdadeiro eng
florestal. Como o solo da Amazônia é muito pobre em nutrientes, as árvores tendem a
desenvolver raízes superficiais – raramente ultrapassam 50 cm de profundidade. Mesmo na
Amazônia, em regiões que têm as estações do ano (chuvosa e seca) bem definidas, as árvores
tendem a desenvolver raízes mais profundas para procurar água, o que não é o caso da
Amazônia Central.
O componente 3 pode ser estimado com precisão combinando as taxas de mortalidade
com os modelos usados no componente 1.
Coleta de dados => verdade de campo => método destrutivo
6
Higuchi, N., Santos, J. dos, Ribeiro, R.J., Minette, L. e Biot, Y. 1998. Biomassa da parte aérea da
vegetação da floresta tropical úmida de terra-firme da Amazônia brasileira. Acta Amazonica,
28(2):152-166.
139
Os procedimentos para o componente 1 são apresentados no Anexo 2. Ao incluir o
componente 2 em coletas de biomassa, é preciso incluir as raízes. É preciso escavar, separar
as raízes do tronco e pesá-las. A metodologia de coleta de amostras para as determinações dos
teores (concentrações) de água e carbono é a mesma utilizada na parte aérea. Aqui também,
exige-se mais transpiração do que inspiração.
Equações de biomassa
Procedimentos iguais aos de volume.
Aplicação da equação de biomassa
O parágrafo apresentado para o volume deve ser repetido aqui.
Para o caso de biomassa, cabem ainda as seguintes considerações: (i) você estima o
peso fresco; portanto, você tem que transformá-lo em peso seco e depois em carbono – basta
multiplicar o peso pelas concentrações de água e carbono obtidas em laboratório; (ii) o
carbono como commodity (mercadoria) em bolsas de mercadorias significa estoque e
diferença de estoque; portanto, você precisa trabalhar com inventário florestal contínuo com,
pelo menos, duas ocasiões; (iii) você precisa separar o peso nos três componentes definidos
pelo IPCC.
140
Capítulo 15
Distribuição de diâmetro: Weibull versus Exponencial
15.1. Introdução:
Como a altura da árvore é difícil de ser medida, com precisão, o diâmetro passa a ser a
variável mais importante e mais segura para estimar o volume e a biomassa de florestas
tropicais de uma região como a Amazônia. Além disso, o diâmetro consagrou-se como uma
variável importante na descrição da estrutura florestal, como também na comercialização de
madeira. Assim, a quantificação de distribuições de diâmetro é fundamental para o
entendimento da estrutura da floresta e do estoque da floresta, que são pré-requisitos nas
decisões do manejo florestal.
Bailey and Dell (1973), Clutter et al. (1983) e Higuchi (1987) apresentam revisões
compreensivas sobre distribuições de diâmetro. De acordo com Clutter et al. (1983) e
Lawrence e Shier (1981), entre as várias distribuições estatísticas, a distribuição Weibull tem
sido a mais usada pelo setor florestal, depois da distribuição exponencial.
A introdução da função de distribuição Weibull aos problemas relacionados com
silvicultura e manejo florestal, é atribuída à Bailey e Dell em 1973 (Zarnoch et al., 1982;
Little, 1983; Clutter et al., 1983 e Zarnoch e Dell, 1985). Desde então, esta distribuição tem
sido extensivamente utilizada para descrever a distribuição de diâmetro, tanto em
povoamentos equianos como multianos, especialmente nos Estados Unidos.
No Brasil, especialmente na floresta amazônica, a Weibull foi utilizada por Higuchi
(1987), Umaña (1998), mas segundo Barros et al. (1979) e Hosokawa (1981), a distribuição
mais popular é a exponencial.
141
d ln L/d b = -(n/b) + (1/b2) xic = 0 (3)
Tirando b de (3), temos
b = ( xic ) / n (4)
e substituindo em (2), temos
n/c + ln xi – [1/(xic/n)] xic ln xi = 0
n [(1/c) – ( xic ln xi) / xic] = - ln xi
[( xic ln xi) / xic] – (1/c) = (1/n) ln xi (5)
Dessa forma, o coeficiente c pode ser estimado por meio de qualquer processo
iterativo ou via tentativa-e-erro para igualar os dois lados da equação (5). O coeficiente b
pode ser estimado pela equação (4), depois de estimado o c.
A freqüência esperada pode ser determinada através da seguinte função de distribuição
cumulativa de Weibul, F(x), que, por sua vez, pode ser encontrada integrando a sua função de
densidade probabilística, f(x), do DAP mínimo até o máximo (Zarnoch et al., 1982)
F(x) = 1 – exp { - [ ( x - a ) / b ] c
F(x) = 1 – exp { - [ ( x – a ) / b ] c
142
(iii) Exponencial:
As estimativas dos parâmetros da primeira ordem da função exponencial
Y = a e bx
podem ser obtidos pela linearização (série de Taylor) ou por meio do método iterativo
(Marquardt, por exemplo), segundo Draper e Smith (1981). O software Systat pode calcular
os coeficientes pelos dois métodos.
3. Cálculo das probabilidades (freqüência esperada): caso Weibull percentis para DAP≥10
cm
P (x < 10) = 1 – {exp – [(10 – a)/b]c}
P ( 10 ≤ x < 20 ) = {exp – [(10 – a)/b]c} - {exp – [(20 – a)/b]c}
P ( 20 ≤ x < 30 ) = {exp – [(20 – a)/b]c} - {exp – [(30 – a)/b]c}
P ( 30 ≤ x < 40 ) = {exp – [(30 – a)/b]c} - {exp – [(40 – a)/b]c}
etc … até o último intervalo.
143
3. Bibliografia:
Bailey, R.L. e T.R. Dell. 1973. Quantifying Diameter Distributions with the Weibull
Function. Forest Science 19:97-104.
Barros, P.L.C., S.A. Machado, D. Burger e J.D.P. Siqueira. 1979. Comparação de Modelos
Descritivos da Distribuição Diamétrica em uma Floresta Tropical. Floresta 10(2):19-31.
Clutter, J.L., J.C. Fortson, L.V. Pienaar, G.H. Brister e R.L. Bailey. 1983. Timber
Management: A Quantitative Approach. John Wiley and Sons, Inc. New York. 333p.
Cohen, A.C. 1965. Maximum Likelihood Estimation in the Weibull Distribution Based on
Complete and on Censored Samples. Technometrics 7(4):579-588.
Draper, N.R. e H. Smith. 1981. Applied Regression Analysis. John Wiley and Sons, Inc. New
York. Segunda edição. 709p.
Einsesmith, S.P. 1985. PLOTIT: User’s Guide.
Higuchi, N. 1987. Short-term Growth of an Undisturbed Tropical Moist Forest in the
Brazilian Amazon. Tese de Doutor, Michigan State University. 129p.
Hosokawa, R.T. 1981. Manejo de Florestas Tropicais Úmidas em Regime de Rendimento
Sustentado. UFPr, Relatório Técnico.
Lawrence, K.D. e D.R. Shier. 1981. A Comparison of Least Squares and Least Absolute
Deviation Regression Models for Estimating Weibull Parameters. Commun. Statist. –
Simula Computa. B10(3):315-326.
Little, S.N. 1983. Weibull Diameter Distribution for Mixed Stands of Western Confiers.
Can.J.For.Res. 1:85-88.
Umana, C.L.A. e Alencar, J.C. 1998. Distribuições Diamétricas da Floresta Tropical Úmida
em uma Área no Município de Itacoatiara – AM. Acta Amazonica 28(2):167-190.
Zarnoch, S.J. e T.R. Dell. 1973. An Evaluation of Percentile and Maximum Likelihood
Estimators of Weibull Parameters.
Zarnoch, S.J., C.W. Ramm, V.J. Rudolph e MW. Day. 1982. The effects of Red Pine
Thinning Regimes on Diameter Distribution Fitterd to Weibull Function. MSU
Agricultural Experiment Station East Lansing. RI-423. 11p.
144
Capítulo 16
Biomassa da Parte Aérea da Vegetação da Floresta Tropical
Úmida de Terra-Firme da Amazônia Brasileira.
Niro Higuchi1 , Joaquim dos Santos1 , Ralfh João Ribeiro1,
Luciano Minette1 e Yvan Biot2
Resumo
Usando um banco de dados com 315 árvores, com DAP5 cm, foram testados quatro
modelos estatísticos - linear, não linear e dois logarítmicos - para estimar a biomassa de
árvores em pé. Os dados foram coletados, de forma destrutiva, na região de Manaus, Estado
do Amazonas, em um sítio coberto por floresta de terra-firme sobre platôs de latossolo
amarelo. Em diferentes simulações com diferentes intensidades de amostragem, os quatro
modelos estimam precisamente a biomassa, sendo que o afastamento entre a média observada
e a estimada, em nenhuma ocasião ultrapassou 5%. As equações para estimar a biomassa de
árvores individuais em uma parcela fixa, distintamente para árvores com 5DAP<20 cm e
com DAP20 cm, são mais consistentes do que o uso de uma única equação para estimar,
genericamente, todas as árvores com DAP5 cm. O modelo logarítmico com apenas uma
variável independente, o DAP, apresenta resultados tão consistentes e precisos quanto os
modelos que se utilizam também da variável altura total da árvore. Além do modelo
estatístico para estimar o peso da massa fresca total de uma árvore, outras informações são
apresentadas, estratificadas nos diferentes compartimentos (tronco, galho grosso, galho fino,
folhas e, eventualmente, flores e frutos) de uma árvore, como: concentração de água para
estimar o peso da massa seca, concentração carbono e a contribuição do peso de cada
compartimento no peso total.
palavras-chaves: Carbono, manejo florestal, modelo estatístico.
Aboveground Biomass of the Brazilian Amazon Rainforest
Abstract
Data set with 315 trees with diameter at breast height (dbh) greater than 5 cm was used to
test four statistical models - linear, non-linear and two logarithmics - to estimate aboveground
biomass of standing trees. The data were collected destructively in Manaus region, Central
Amazonia, in a site covered by a typical dense “terra-firme” moist forest on plateaus
dominated by yellow latosols. The difference between observed and estimated biomass was
always below 5%. The logarithmic model using a single independent variable (dbh) produced
results as consistent and precise as those with double-entry (dbh and total height). Besides
statistical models to estimate aboveground biomass, the following information are also
presented in this paper: the contribution of each tree compartment (stem, branch, twigs, leaves
and flowers or fruits) to the total weight of a standing tree, water concentration to estimate the
dry weight and carbon concentration of each tree compartment.
Key words: Carbon, forest management, statistical model
1
Instituto Nacional de Pesquisas da Amazônia - Cx. Postal, 478 - Manaus - Am.
2
U. K. Overseas Development Administration (ODA). Victoria Street, 94 - London. SW1E5JL -
England.
145
Introdução:
O objetivo deste trabalho é o desenvolvimento de modelos estatísticos para estimar a
biomassa individual, de árvores em pé, de espécies da floresta densa de terra-firme, região de
Manaus (AM), assim como a apresentação de informações necessárias para a conversão de
massa fresca para massa seca e de biomassa para estoque de carbono. São testados quatro
modelos, linear, não-linear e dois logarítmicos, tendo como variável dependente, o peso da
massa fresca (não seca) e, como variáveis independentes, diâmetro à altura do peito (DAP) e
altura total, de árvores individuais. O principal atributo dos modelos testados é o tamanho da
árvore e, por esta razão, têm que absorver a alta diversidade florística e as diferentes
associações botânicas, distribuições espaciais e densidades da madeira (intra e
interespecíficas), da vegetação de terra-firme.
As estimativas de biomassa florestal são informações imprescindíveis nas questões
ligadas, entre outras, às áreas de manejo florestal e de clima. No primeiro caso, a biomassa
está relacionada com os estoques de macro e micronutrientes da vegetação, que são obtidos
pelo produto da massa pelas concentrações de cada mineral. No caso do clima, a biomassa é
usada para estimar os estoques de Carbono, que, por sua vez, são utilizados para estimar a
quantidade de CO2 que é liberada à atmosfera durante um processo de queimadas.
O manejo florestal está associado ao uso sustentável dos recursos florestais existentes,
para atender às demandas da sociedade, por produtos madeireiros e não-madeireiros.
Tratando-se de Amazônia, os cuidados têm que ser redobrados porque estes recursos estão em
ecossistemas heterogêneos, complexos e frágeis. Os solos da Amazônia são antigos e, em sua
maioria, pobres em nutrientes (especialmente para a agropecuária) e ácidos. A contrastante
exuberância de sua cobertura florestal está associada às estratégias de conservação e de
ciclagem de nutrientes dentro do próprio sistema. É importante conhecer a distribuição de
nutrientes nos diferentes compartimentos (tronco, galho, casca, folha), para controlar a
exportação dos mesmos pela colheita florestal e entrada via “inputs” atmosféricos e, com isto,
minimizar os impactos ambientais da produção madeireira.
Para as questões climáticas, há grande interesse em quantificar a biomassa que é
convertida, principalmente em dióxido de carbono, pelas diferentes formas de uso do solo
amazônico (Fearnside et al., 1993, Foster Brown et al., 1995, Higuchi & Carvalho Jr., 1994,
Skole et al., 1994, Schroeder & Winjum, 1995 e Fearnside, 1996). Esta informação é
necessária para uma correta avaliação da contribuição dos projetos de desenvolvimento da
região, no processo de mudanças climáticas globais, no âmbito da Convenção do Clima,
assinada pelo Governo Brasileiro durante a Conferência das Nações Unidas sobre
Desenvolvimento e Meio Ambiente, Rio-92.
As estimativas de biomassa, atualmente disponíveis na literatura, dos diversos tipos
florestais da Amazônia, vêm de estudos que se utilizam de métodos diretos e indiretos. O
método direto consiste na derrubada e pesagem de todas as árvores que ocorrem em parcelas
fixas, fornecendo estimativas, que segundo Brown et al. (1989), não são confiáveis porque
baseiam-se em poucas parcelas, pequenas e tendenciosamente escolhidas. No método indireto,
as estimativas têm sido produzidas a partir de dados de inventários florestais, que foram
executados com a finalidade de planejar a exploração e o manejo florestal, sendo o volume da
madeira, a principal variável. Neste método, a biomassa é estimada a partir do volume da
madeira, usando-se a densidade média da madeira e um fator de correção para árvores com
DAP < 25 cm.
Estes dois métodos ainda geram muita polêmica e controvérsias e produzem
estimativas desencontradas, mesmo quando se usa o mesmo banco de dados (Fearnside et al.,
1993, Brown et al., 1989 e Higuchi et al., 1994 e Foster Brown et al., 1995). A tabela 1 ilustra
146
o que foi posto anteriormente. Esta tabela foi parcialmente reproduzida de FEARNSIDE et al.
(1993), considerando apenas a biomassa viva acima do nível do solo. São produzidas
estimativas diferentes, com o passar do tempo, pelos mesmos autores e para o mesmo banco
de dados (montado nos anos 70). Além disso, Foster Brown et al. (1995) criticam estes
bancos de dados, afirmando que as alturas das árvores foram obtidas sem aparelhos de
medição e que, estes erros não amostrais não são mencionados.
O consenso existente entre os pesquisadores que trabalham com biomassa é de que é
praticamente impossível determinar a biomassa de cada árvore, pelo método direto, ao
executar um inventário florestal. Por esta razão, os recursos da análise de regressão para o
desenvolvimento de modelos estatísticos, para estimar a biomassa de árvores em pé, devem
ser empregados para superar este problema. Salomão et al. (1996) citam apenas dois modelos
estatísticos utilizados na Amazônia; um proposto por Sandra Brown e colaboradores e, outro,
proposto por Christopher Uhl e colaboradores. O primeiro requer o conhecimento da
densidade da madeira de cada indivíduo, que é praticamente impossível obte-la durante o
inventário; e o segundo, é recomendado para florestas secundárias. Além destes, há o modelo
de Overman et al. (1994), para a floresta amazônica colombiana, desenvolvido principalmente
para árvores de pequenos diâmetros.
Materiais e Métodos
(i) Coleta de Dados:
Os dados foram coletados na Estação Experimental de Silvicultura Tropical (EEST)
do INPA, aproximadamente 90 km ao norte de Manaus, em áreas derrubadas para
experimentos com liberação de dióxido de carbono, usando-se queimadas tradicionalmente
praticadas por pequenos produtores da região, e em áreas especialmente designadas para esta
pesquisa. Nos dois casos foram escolhidas áreas de platôs sobre latossolo amarelo. Estes
dados constituem o banco de dados de biomassa do INPA.
No total, foram derrubadas e pesadas 315 árvores-amostras com DAP5 cm. O peso
total de todos os indivíduos amostrados foi compartimentado em tronco e copa (incluindo
galhos e folhas e, eventualmente, frutos). Além do peso da árvore, foram também medidos o
DAP, altura total, altura comercial, altura da copa e diâmetro da copa. A distribuição de
freqüência e a estatística descritiva dos dados observados encontram-se nas tabelas 2a e 2b).
Na tabela 2c observam-se as estatísticas descritivas para as variáveis DAP, altura total e peso
total, quando os dados são divididos em algumas classes de diâmetro. Nesta tabela fica
evidente que a variável peso total tem uma variabilidade natural bem maior que as outras duas
variáveis, mesmo em mais classes de diâmetro.
Para obtenção das concentrações de água e nutrientes de cada compartimento da
árvores, 38 indivíduos (dos 315 amostrados) foram coletados diferentemente, baseando-se no
esquema apresentado por Higuchi & Carvalho Jr. (1994) e Santos (1996). Foram retiradas
amostras (discos) a 0% (base), 25, 50, 75 e 100% (topo) do tronco e do galho grosso
(diâmetro de base10 cm). Do tronco foi retirado também um disco à altura do DAP. Todos
os discos retirados foram imediatamente pesados e enviados ao laboratório para secagem em
estufas calibradas a 105o C. O mesmo procedimento foi adotado para os galhos finos e folhas,
mas que em vez de discos, foram retiradas, de várias partes da copa, amostras de 5 e 3 kg,
respectivamente. A estimativa da concentração de carbono na vegetação das espécies mais
abundantes, no sítio estudado, foi feita tendo ainda as amostras coletadas por Higuchi &
Carvalho Jr. (1994).
O peso total de cada uma destas 38 árvores foi compartimentado em tronco, casca,
galho grosso, galho fino (diâmetro<10 cm), folha e, eventualmente, flores e frutos. Além
147
destas concentrações, a coleta compartimentada permite ainda a determinação da contribuição
de cada um dos compartimentos no peso total da árvore. A estatística descritiva destes dados e
a contribuição de cada compartimento no peso total e a porcentagem do Peso da massa fresca
que é transformado em Peso da massa seca, visualizam-se nas tabelas 3a e 3b.
Um desdobramento da pesquisa de Nutrientes é o estudo de densidade da madeira
3
(g/cm ), nos sentidos base-topo e casca-medula da árvore (utilizando-se das amostras
coletadas a 0, 25, 50, 75 e 100% da altura comercial e do DAP). Resultados preliminares
deste estudo encontram-se na tabela 4, de 12 árvores analisadas.
O banco de dados de biomassa do INPA vem sendo completado ao longo do tempo e
já foi utilizado preliminarmente por Higuchi et al. (1994), Higuchi & Carvalho Jr. (1994),
Araújo (1995) e Santos (1996).
(ii) Modelos Testados:
Os modelos estatísticos foram selecionados a partir do trabalho de SANTOS (1996),
que testou 34 diferentes modelos em diferentes combinações.
O banco de dados foi dividido em dois, para árvores com 5DAP<20 cm e DAP20
cm. Foram testados os seguintes modelos estatísticos, para todas as árvores com DAP5 cm,
equação única, e para as duas classes de tamanho, (a) 5DAP<20 cm e (b) DAP20 cm:
1. ln Pi = 0 + 1 ln Di + ln i
2. ln Pi = 0 + 1 ln Di + 2 ln Hi + ln i
3. Pi = 0 + 1 Di2Hi + i
4. Pi = 0 D 1 H 2 + i
para i = 1, 2, ... 315 - equação única
i = 1, 2, ... 244 - equação (a)
i = 1, 2, ... 71 - equação (b)
onde:
Pi = peso da massa fresca de cada árvore, em quilograma (para modelos 1, 2 e 4) e em
toneladas métricas (para o modelo 3).
Di= diâmetro à altura do peito de cada árvore, DAP, em centímetros (para modelos 1,
2 e 4) e em metros (para o modelo 3)
Hi = altura total de cada árvore, em metros
0, 1 e 2 = coeficientes de regressão
i = erro aleatório
ln = logarítimo natural
Os modelos estatísticos propostos por Brown e Lugo (Foster Brown et al., 1995,
Salomão et al., 1996) e aqueles que apresentaram os melhores resultados no trabalho de
Saldarriaga et al. (1988), que incluem densidade da madeira, não foram testados porque esta
variável é de difícil obtenção para cada indivíduo em pé. Além disso, segundo Higuchi &
Carvalho Jr. (1994), a densidade da madeira (g/cm3) apresenta significativas variações intra e
inter-específicas. Pelas mesmas razões, Overman et al. (1994) descartam esta variável, apesar
do bom desempenho dos modelos que a contém.
148
Na tabela 4, onde visualizam-se as densidades de 12 árvores, observa-se que: a menor
densidade é de 0,480 e a maior é de 1,031; a densidade tende a diminuir no sentido base-topo;
a densidade média, considerando base-topo, é de 0,756; e esta última variável é sempre menor
que a densidade média obtida na altura do DAP. A densidade média do DAP é igual a 0,803,
que, por sua vez, é diferente de todas as estimativas fornecidas por Foster Brown et al. (1995)
e a de Saldarriaga et al. (1988). As variações no sentido casca-medula também são
significativas (Higuchi & Carvalho Jr., 1994).
(iii) Escolha do Melhor Modelo Estatístico:
Para a escolha do melhor modelo estatístico visando-se estimar a biomassa em pé da
área em estudo, foram adotados os procedimentos tradicionais da ciência florestal, que são:
maior coeficiente de determinação, menor erro padrão de estimativa e melhor distribuição dos
resíduos (Santos, 1996). Além destes procedimentos, foram simuladas amostras de diferentes
intensidades, para testar a consistência dos modelos na estimativa da biomassa. Foram
tomadas 15 amostras com 50 árvores selecionadas aleatoriamente do banco de dados original;
10 amostras com n = 100; 5 amostras com n = 200; e 5 amostras com n = 300.
Resultados e Discussão:
Do trabalho de Higuchi & Carvalho Jr. (1994), as seguintes informações quantitativas
do sítio estudado são importantes para uma melhor interpretação destes resultados e para
futuras comparações com outros sítios:
- Em uma parcela fixa de 2.000 m2, o peso da biomassa fresca distribui-se da seguinte
maneira, em relação ao peso total: a vegetação (exceto cipós) com DAP5 cm contribui com
86,9% do peso total; a vegetação com DAP<5 cm contribui com 2,4%; os cipós contribuem
com 1,3% e a liteira (toda a vegetação morta sobre a superfície do solo) contribui com 9,4%.
- Os teores médios de carbono são os seguintes: tronco (48%), galhos grossos (48%),
galhos finos (47%), folhas (39%), plântulas - até 50 cm de altura - (47%), mudas - altura>50
cm e DAP<5 cm - (49%), cipós (48%) e liteira (39%).
Os coeficientes de regressão e de determinação e os erros padrões de estimativa de
todos os quatro modelos estatísticos testados (árvores com DAP5 cm), incluindo as
variações (a) para árvores com 5DAP<20 cm e (b) DAP20 cm, verificam-se na tabela 5. De
um modo geral, os quatro modelos (incluindo as variações a e b) estão aprovados nos quesitos
coeficiente de determinação (r2) e erro padrão de estimativa (sy.x) e, por esta razão, poderiam
ser utilizados para estimar a biomassa de árvores em pé da área em estudo.
Todos os modelos apresentam coeficientes de correlação (r) altamente significantes
(<0,01). De um modo geral, os modelos únicos para árvores com DAP 5 cm apresentam
os maiores coeficientes de determinação (r2), exceto para o modelo 3. Com relação ao (sy.x), o
modelo 4 é o que tem o melhor desempenho, apresentado os menores erros, seguido do
modelo 2. Combinando as equações a e b, no mesmo banco de dados, os erros (em
quilogramas) produzidos foram: 949, 693, 356 e 537, respectivamente para os modelos 1, 2, 3
e 4. Nesta situação, o melhor desempenho é do modelo 3, seguido do modelo 4.
O exame da distribuição dos resíduos mostra que os modelos 1, 2 e 3 não apresentam
nenhum padrão, distribuindo-se aleatoriamente ao longo do eixo da biomassa observada e
estimada, ordenada de forma crescente pela variável DAP. O modelo 4, no entanto, apresenta
um claro padrão, aumentando os desvios conforme aumentam os DAP’s.
As equações resultantes são:
Modelo 1:
149
- Equações a & b: (a) ln P = -1,754 + 2,665 ln D; para 5DAP<20 cm
(b) ln P = -0,151 + 2,170 ln D; para DAP20 cm
- Equação única: ln P = -1,497 + 2,548 ln D; para para DAP5 cm
Modelo2:
- Equações a & b: (a) ln P = -2,668 + 2,081 ln D + 0,852 ln H; para 5DAP<20
(b) ln P = -2,088 + 1,837 ln D + 0,939 ln H; para DAP20 cm
- Equação única: ln P = -2,694 + 2,038 ln D + 0,902 ln H; para DAP5 cm
Modelo 3:
- Equações a & b: (a) P = 0,0056 + 0,621 D2H; para 0,05DAP<0,20 m
(b) P = 0,393 + 0,473 D2H; para DAP0,20 m
- Equação única: P = 0,077 + 0,492 D2H; para DAP0,05 m
Modelo 4:
- Equações a & b: (a) P = 0,0336 * D2,171*H1,038; para 5DAP<20 cm
(b) P = 0,0009 * D1,585*H2,651; para DAP20 cm
- Equação única: P = 0,001 * D1,579*H2,621; para DAP5 cm
A verificação da consistência de cada um dos modelos estatísticos para estimar a
biomassa em pé, sobre amostras simuladas (tiradas aleatoriamente do banco de dados
original), encontram-se na tabela 6. Nesta tabela verificam-se as médias observadas e
estimadas em cada simulação. A análise é feita sobre o afastamento da média estimada em
relação à observada, em percentagem, utilizando-se equações distintas para estimar a
biomassa de árvores com 5DAP<20 cm e DAP20 cm e uma única equação para todas as
árvores contidas na amostra com DAP5 cm.
(i) Modelo 1:
- Usando as equações a e b, para estimar a biomassa do banco de dados original, a
média estimada afasta-se -1,9% da média observada, ou seja, o desvio7 é de -1,9%. Quando
utiliza-se uma só equação para estimar a biomassa das duas classes de diâmetro, o
desempenho anterior não é repetido, apresentando um desvio de +16%. Excepcionalmente, na
simulação com n = 50, o uso de uma só equação resulta em um desvio médio de +2,8%, que
poderia ser considerado bom se não fosse a amplitude de variação entre o menor e o maior
desvio, que foi de 0,1 a 24,9%.
- Este modelo (equações a e b) demonstra a mesma consistência nas simulações com n
= 300, n = 200 e n = 100, respectivamente, com desvios de -1,9% (1,6 e 2,3, menor e maior
desvio, em valores absolutos), +0,5% (2,7 e 11,6) e +2,6% (3,7 e 22,1). A simulação com n =
50, o desvio médio é de -10,2%.
- A equação única para estimar a biomassa, usando este modelo estatístico, não é
alternativa para as duas equações, ou seja, o uso deste modelo requer as duas equações para
estimar a biomassa de árvores com 5DAP<20 cm e DAP20 cm, separadamente.
7
Desvio é afastamento, em %, do peso médio estimado pelas diferentes equações, em relação ao
peso médio observado. Entre parêntesis, os desvios aparecem em valores absolutos e o primeiro é
sempre o menor e, o segundo, o maior desvio.
150
- Trata-se de um modelo com apenas o DAP como variável independente, que é uma
variável fácil de ser medida no campo, sem erros não amostrais. O único problema deste
modelo é que o peso será sempre o mesmo, para um determinado diâmetro,
independentemente da altura da árvore, da espécie e de outros atributos da árvore.
(ii) Modelo 2:
- Usando as equações a e b, para estimar a biomassa do banco de dados original, a
média estimada afasta-se -3,6% da média observada. Quando utiliza-se uma só equação para
estimar a biomassa das duas classes de diâmetro, o seu desempenho é melhor do que o
anterior, com desvio de +2,9%.
- Este modelo (equações a e b) demonstra a mesma consistência nas simulações com n
= 300, n = 200 e n = 100, respectivamente, com desvios de -3,6% (3,2 e 4,3, menor e maior
desvio, em valores absolutos), -1,8% (5,2 e 6,7) e -1,1% (0,9 e 12,7). A simulação com n =
50, o desvio médio é de –9,4%. O uso de uma só equação tem um desempenho razoável para
todas as simulações, que exceto para n = 50, apresenta desvio menor do que quando se
utilizam as equações a e b.
- Apesar do bom desempenho da equação única, em relação aos desvios médios, onde
as diferenças são negligíveis, as amplitudes de variação dos mesmos nas equações a e b são
menores, sendo, por esta razão, mais apropriadas para a estimativa da biomassa.
- A incorporação da altura total neste modelo permite estimar diferentes pesos para
iguais DAP’s, ao contrário do modelo 1.
(iii) Modelo 3:
- Usando as equações a e b, para estimar a biomassa do banco de dados original, a
média estimada afasta-se +1,2% da média observada. Quando se utiliza uma só equação para
estimar a biomassa das duas classes de diâmetro, o seu desempenho é melhor do que o
anterior, com desvio de +0,1%. Apesar de um claro padrão na distribuição dos resíduos, este
modelo tem uma boa capacidade de compensação quando se utiliza todo o banco de dados,
tanto com as equações a e b como com a equação única para as duas classes de diâmetro.
- Este modelo (equações a e b) demonstra a mesma consistência nas simulações com n
= 300, n = 200, n = 100 e n = 50, respectivamente, com desvios de +1,2% (0,4 e 1,6, menor e
maior desvio, em valores absolutos), +3,1% (1,1 e 1,7), +3,8% (0,8 e 20,3) e -4,8% (0,4 e
19,4). O uso de uma só equação tem um desempenho tão consistente quanto ao anterior, com
desvios de +0,1% (0,2 e 0,9), +2,2% (0,6 e 11,5), +2,4% (0,7 e 17,6) e -6,8% (0,4 e 16,2),
respectivamente para n = 300, n = 200, n = 100 e n = 50.
- A equação única para este modelo é a melhor alternativa para estimar a biomassa,
principalmente considerando apenas a estimativa da biomassa média de uma parcela fixa, sem
preocupar-se com as estimativas individuais. Em todos os tamanhos da amostragem, esta
equação demonstrou-se bastante consistente e precisa.
- Sem preocupar-se com as estimativas individuais, prestando atenção apenas no total
ou na média das parcelas fixas, este é o melhor modelo entre os testados. De um modo geral,
este modelo superestima o peso das menores classes de diâmetro. Para grandes inventários
para estimativa de biomassa, este modelo é o mais preciso.
(iv) Modelo 4:
- Usando as equações a e b, para estimar a biomassa do banco de dados original, a
média estimada afasta-se -4,6% da média observada. Quando utiliza-se uma só equação para
151
estimar a biomassa das duas classes de diâmetro, o desempenho anterior não é repetido, com
desvio de -7,3%.
- Este modelo (equações a e b) demonstra a mesma consistência nas simulações com n
= 300, n = 200, n = 100 e n = 50, respectivamente, com desvios de -4,3% (3,4 e 5,1, menor e
maior desvio, em valores absolutos), +0,3% (0,6 e 3,7), -4,0% (1,2 e 7,6) e -7,7% (4,2 e 16,1).
O uso de uma só equação tem um desempenho inferior a todos os outros modelos testados e,
por esta razão, não é uma alternativa para as duas equações. Neste caso, a opção tem que ser
pelas duas equações, 4 a para árvores com 5DAP<20 cm e 4b para DAP20 cm.
- De todos os modelos testados, este modelo é o que apresenta as menores amplitudes
de variação, demonstrando uma boa consistência na estimativa da biomassa. É um modelo
bastante conservador e que apresenta poucas surpresas na estimativa da biomassa das
diferentes classes de diâmetro.
Considerações finais:
1. Os quatro modelos estatísticos testados produzem estimativas confiáveis de
biomassa de árvore em pé, todos com desvios inferiores a 5% em relação à média.
2. As equações distintas para árvores com 5DAP<20 cm e com DAP20 cm são
mais consistentes que a equação única para todas as árvores com DAP5 cm.
3. Dentre os modelos testados, os melhores são os modelos 1 e 4, respectivamente com
as seguintes equações:
(a) ln P = -1,754 + 2,665 ln D; para 5DAP<20 cm
(b) ln P = -0,151 + 2,170 ln D; para DAP20 cm
e
(a) P = 0,0336 * D2,171*H1,038; para 5DAP<20 cm
(b) P = 0,0009 * D1,585*H2,651; para DAP20 cm
- O modelo 1 tem a vantagem de ser dependente de apenas uma variável, o
DAP, que é uma variável fácil de ser medida no campo, com poucos riscos de erros não
amostrais;
- O modelo 4 tem a vantagem de ser muito consistente e de poder estimar mais
realisticamente árvores individuais, com mesmos DAP’s e diferentes alturas. Além disso, este
modelo já foi preliminarmente utilizado por Araújo (1995), em Tomé-Açu (Pará), para
confrontar com os resultados obtidos pelo método direto. Em Tomé-Açu, a biomassa estimada
por este modelo ficou também a menos de 5% da observada.
4. A eficiência das equações está associada à utilização de parcelas fixas para o
inventário de biomassa de um determinado sítio, com as dimensões mínimas recomendadas
para os inventários florestais na Amazônia.
5. O peso do tronco seco corresponde a 61% de seu peso antes da secagem; e o da
copa corresponde a 58% de seu peso fresco.
6. Do peso total de uma árvore, 65,6% é tronco e 34,4% é copa. A contribuição de
cada compartimento da árvore em seu peso total é a seguinte: tronco (65,6%), galho grosso
(17,8%), galho fino (1,5%), folhas (2,03%) e flores/frutos (0,01%).
7. Os teores médios de carbono são os seguintes: tronco (48%), galhos grossos (48%),
galhos finos (47%) e folhas (39%).
152
Tabela 1: Algumas estimativas de biomassa para a floresta densa da Amazônia brasileira*.
153
(c) Estatística Descritiva dos Dados Observados, Divididos em Algumas Classes de Diâmetro:
(b) Contribuição de cada compartimento (tronco, galho grosso, galho fino, folhas e flor/frutos)
no peso total de uma árvore e % do PF de cada um que é transformado em PS:
154
Tabela 4: Informações sobre Densidade da Madeira.
Modelo b0 b1 B2 r2 sy.x
1 -1,497 2,548 0,97 1729
1a -1,754 2,665 0,92 43
1b -0,151 2,170 0,90 2035
2 -2,694 2,038 0,902 0,98 812
2a -2,668 2,081 0,852 0,95 35
2b -2,088 1,837 0,939 0,91 197
3 0,077 0,492 0,90 716
3a 0,0056 0,621 0,94 34
3b 0,393 0,473 0,86 1508
4 0,001 1,579 2,621 0,94 540
4a 0,0336 2,171 1,038 0,94 31
4b 0,0009 1,585 2,651 0,92 1159
b0, b1 e b2 = estimadores dos parâmetros 0, 1 e 2, respectivamente.
r 2 = coeficiente de determinação ajustado
ry.x = erro padrão de estimativa.
- modelo 1: ln Pi = b0 + b1 ln Di; sendo (1) para DAP5 cm e i = 1,..., 315; (1a) para
5DAP<20 cm e i = 1,..., 244; e (1b) para DAP20 cm e i = 1,..., 71.
- modelo 2: ln Pi = b0 + b1 ln Di + b2 ln Hi; sendo (2) para DAP5 cm e i = 1,..., 315; (2a) para
5DAP<20 cm e i = 1,..., 244; e (2b) para DAP20 cm e i = 1,..., 71.
- modelo 3: Pi = b0 + b1 Di2Hi; sendo (3) para DAP0,05 m e i = 1,..., 315; (3a) para
0,05DAP<0,20 m e i = 1,..., 244; e (3b) para DAP 0,20 m e i = 1,..., 71.
- modelo 4: Pi = b0 D b1 H b2; sendo (1) para DAP5 cm e i = 1,..., 315; (1a) para 5DAP<20
cm e i = 1,..., 244; e (1b) para DAP20 cm e i = 1,..., 71.
155
Tabela 6: Resumo das simulações utilizando diferentes intensidades de amostragem (tomadas
aleatoriamente do banco de dados).
Biomassa Observada
(observada e estimada) equações a & b equação única
observada 782,7
banco de dados modelo 1 768,2 [ -1,9 ] 907,7 [+16,0 ]
modelo 2 754,6 [ -3,6 ] 805,2 [ +2,9 ]
(n = 315) modelo 3 792,1 [ +1,2 ] 783,3 [ +0,1 ]
modelo 4 746,9 [ -4,6 ] 725,3 [ -7,3 ]
observada 794,1
amostra com n = 300 modelo 1 779,1 [ -1,9 ] 924,1 [ +16,4 ]
modelo 2 765,5 [ -3,6 ] 817,0 [ +2,9 ]
(5 repetições) modelo 3 803,3 [ +1,2 ] 794,7 [ +0,1 ]
modelo 4 760,2 [ -4,3 ] 738,9 [ -7,0 ]
observada 784,2
amostra com n = 200 modelo 1 788,3 [ +0,5 ] 944,2 [ +20,4 ]
modelo 2 770,0 [ -1,8 ] 826,4 [ +5,4 ]
(5 repetições) modelo 3 808,1 [ +3,1 ] 801,3 [ +2,2 ]
modelo 4 786,3 [ +0,3 ] 740,2 [ -5,6 ]
observada 844,8
amostra com n = 100 modelo 1 866,9 [ +2,6 ] 1052,4 [ +24,6 ]
modelo 2 835,4 [ -1,1 ] 900,5 [ +6,6 ]
(10 repetições) modelo 3 876,6 [+3,8 ] 865,1 [ +2,4 ]
modelo 4 811,3 [ -4,0 ] 790,8 [ -6,4 ]
observada 836,2
amostra com n = 50 modelo 1 750,8 [ -10,2 ] 859,3 [ +2,8 ]
modelo 2 757,2 [ -9,4 ] 799,8 [ -4,4 ]
(15 repetições) modelo 3 795,8 [ -4,8 ] 779,1 [ -6,8 ]
modelo 4 771,8 [ -7,7 ] 750,8 [ -10,2 ]
156
Bibliografia
Araújo, T.M. 1995. Investigação das Taxas de Dióxido de Carbono Gerado em Queimadas na
Região Amazônica. Tese de Doutorado, Universidade Estadual Paulista, Faculdade de
Engenharia de Guaratinguetá, 212 p..
Brown, S., A.J.R. Gillespie e A.E. Lugo. 1989. Biomass Estimation Methods for Tropical
Forests with Applications to Forest Inventory Data. Forest Science, 35(4):881-902.
Carvalho Jr., J.A., J.M. Santos, J.C. Santos, M.M. Leitão e N. Higuchi. 1995. A Tropical
Rainforest Clearing Experiment by Biomass Burning in the Manaus Region. Atmospheric
Environment 29(17):2301-2309.
Fearnside, P.M., N. Leal Filho e F.M Fernandes. 1993. Rainforest Burning and the Global
Budget: Biomass, Combustion Efficiency, and Charcoal Formation in the Brazilian
Amazon. J. of Geophysical Research, 98(D9):16733-16743.
Fearnside, P.M. 1996. Amazonian Deforestation and Global Warming: Carbon Stocks in
Vegetation Replacing Brazil’s Amazon Forest. Forest Ecology and Management 80:21-
34.
Foster Brown, I., D.C. Nepstad, I.O. Pires, L.M. Luz e A.S. Alechandre. 1992. Carbon
Storage and Land-use in Extractive Reserves, Acre, Brazil. Environmental Conservation
19(4):307-315.
Foster Brown, I., L.A. Martinelli, W. Wayt Thomas, M.Z. Moreira, C.A. Cid Ferreira e R.A.
Victoria. 1995. Uncertainty in the Biomass of Amazonian Forests: an Example from
Rondônia, Brazil. Forest Ecology and Management, 75:175-189.
Higuchi, N. e J.A. Carvalho Jr. 1994. Fitomassa e Conteúdo de Carbono de Espécies Arbóreas
da Amazônia. Em: Anais do Seminário “Emissão x Seqüestro de CO2 - Uma Nova
Oportunidade de Negócios para o Brasil”:127-153.
Higuchi, N., J.M. dos Santos, M. Imanaga e S. Yoshida. 1994. Aboveground Biomass
Estimate for Amazonian Dense Tropical Moist Forests. Memoirs of the Faculty of
Agriculture, Kagoshima, 30(39):43-54.
Overman, J.P.M., H.J.L. Witte e J.G. Saldarriaga. 1994. Evaluation of Regression Models for
Above-ground Biomass Determination in Amazonia Rainforest. Forest Ecology and
Management, 10:207-218.
Saldarriaga, J.G., D.C. West, M.L. Tharp e C. Uhl. 1988. Long-term Chronosequence of
Forest Sucession in the Upper Rio Negro of Colombia and Venezuela. Journal of Ecology
76:938-958.
Salomão, R.P., D.C. Nepstad e I.C.G. Vieira. 1996. Como a Biomassa de Florestas Tropicais
Influi no Efeito Estufa. Ciência Hoje, 21(122):38-47.
Santos, J. dos. 1996. Análise de Modelos de Regressão para Estimar a Fitomassa da Floresta
Tropical Úmida de Terra-firme da Amazônia Brasileira. Tese de Doutorado,
Universidade Federal de Viçosa, 121 p..
Schroeder, P.E. e J.K. Winjum. 1995. Assessing Brazil’s Carbon Budget: II. Biotic Fluxes
and Net Carbon Balance. Forest Ecology and Management, 75(87-99).
Skole, D.L., W.H. Chomentowski, W.A. Salas e A.D. Nobre. 1994. Physical and Human
Dimensions of Deforestation in Amazonia. BioScience, 44(5):31-321.
157
Capítulo 17
Cadeia de Markov para predizer a dinâmica da floresta amazônica
17.1. Introdução:
Estudar a dinâmica da floresta tropical úmida amazônica, manejada ou não, é um
grande desafio para os florestais. Os modelos clássicos de produção florestal foram
desenvolvidos para florestas temperadas e têm como principais variáveis, o índice de sítio e
idade da árvore ou do povoamento (Sullivan e Clutter, 1972; Ferguson e Leech, 1978; Alder,
1980; Smith, 1983 e Clutter et al., 1983). Essas duas variáveis são limitantes para o
desenvolvimento de modelos de produção para as florestas da Amazônia porque são
praticamente indisponíveis para o setor florestal, num curto prazo. Apesar de inúmeras
tentativas, por meio da dendrocronologia ou da datação com 1C, a determinação das idades
das inúmeras espécies que ocorrem numa determinada área, continua sendo um grande
obstáculo para a ciência florestal.
Sem a idade da árvore ou do povoamento ou com muita dificuldade para obte-la, a
alternativa é prognosticar a dinâmica da floresta com o uso de parcelas permanentes. Na
Amazônia, entretanto, as parcelas instaladas e devidamente monitoradas são poucas, mal
distribuídas e recentes (as mais antigas estão na Flona de Tapajós, desde 1978). Considerando
que as idades de árvores com DAP > 50 cm, na região de Manaus, podem variar de 200 a 100
anos, segundo Chambers et al. (1998), 20-30 anos de observações podem parecer insuficientes
para descrever, com confiança, a dinâmica de uma floresta da Amazônia.
Apesar de todas essas dificuldades, aproximadamente 1 milhão de hectares de floresta
amazônica são manejados, anualmente, para produção madeireira sob algum tipo de manejo
em regime de rendimento sustentável. É difícil imaginar como os empresários florestais vão
planejar os ciclos de corte subseqüentes, sem um modelo de produção. Se nada for feito, o
manejo florestal tomará a mesma forma da agricultura itinerante. A melhor saída para esta
situação é usar modelos de curto prazo que dependem exclusivamente da situação
imediatamente anterior ao atual, tendo como objetivo a projeção apenas para uma situação
imediatamente posterior. Dentre os vários modelos disponíveis, o que melhor se ajusta às
características das florestas da Amazônia, é a cadeia de Markov.
158
exponencial) não demonstraram ainda que são comprovadamente adequados, quando séries de
tempo são envolvidas (Morrison, 1976).
Segundo Enright e Ogden (1979), nas florestas tropicais, o atributo tamanho pode ser
mais importante do que a idade. Uma razão para isso é que o tamanho pode ser mais
ecologicamente informativo do que a idade, quando esta é difícil de ser obtida com precisão.
Além disso, segundo ainda os mesmos autores, a divisão de ciclos de vida em estágios de
desenvolvimento pode permitir a predição do comportamento futuro mais precisamente do
que a divisão em puras classes de idade. Usher (1966) usou o atributo tamanho no lugar da
idade para desenvolver um modelo para o manejo de recursos renováveis. Ele afirma que um
organismo que está na i-ésima classe no tempo t, pode permanecer na mesma classe, mudar
para a classe seguinte (mais de uma classe também) ou morrer, no tempo t+1.
Os modelos que usam matriz de transição são apropriados para análise de muitos
problemas biológicos, principalmente em estudos relacionados com a dinâmica da floresta
(Enright e Ogden, 1979). Esses modelos têm sido usados intensivamente em estudos de
dinâmica de populações de plantas ou animais em várias regiões do mundo. Alguns exemplos
são: a demografia do jack-in-the-pulpit em Nova York (Bierzychudek, 1982); dinâmica
florestal de uma população de Araucaria numa floresta tropical úmida de Papua Nova Guinea
e Nothofagus em floresta montana temperada da Nova Zelândia (Enright e Ogden, 1979);
sucessão de térmitas em Gana (Usher, 1979); sucessão florestal na Nova Jersey (Horn, 1975);
aplicação da Cadeia de Markov em estudos de dinâmica florestal em florestas tropicais
(Acevedo, 1981) e a aplicação de Markov para predizer o desenvolvimento de um
povoamento florestal (Usher, 1966; Usher, 1969, Bruner e Moser, 1973; Peden et al., 1973 e
Buogiorno e Michie, 1980).
Alder (1980) também descreve a matriz de transição como uma possível ferramenta
para análise de dados de crescimento e incremento de povoamentos multianos de florestas
tropicais mistas. Na região de Manaus, Higuchi (1987) usou Markov para estudar a dinâmica
das parcelas testemunhas do projeto de manejo florestal (Projeto Bionte) e Rocha (2001) nos
transectos do projeto Jacaranda. A maioria dos trabalhos citados anteriormente inclui revisões
razoáveis da teoria do método de Markov. Há também outras leituras úteis sobre o assunto,
como Grossman e Turner (1974), Chiang (1980) e Anderson e Goodman (1957).
3. Aplicação de Markov aos dados das parcelas permanentes da ZF-2:
Primeiro vamos considerar: (i) estados i e j = 1, 2, ..., m; (ii) tempos de observação t =
0, 1, .., T; (iii) p ij (t+1) (i, j = 1, 2, ..., m) = probabilidade do estado j no tempo t+1, dado o
estado i no tempo t.
Um processo Markov é considerado homogêneo em relação ao tempo ou tempo
homogêneo, se a probabilidade de transição
p ij (t, t+1) = Pr [x(t+1) = j x(t) = i], para i, j = 1, 2, ...., m.
depender apenas da diferença entre t e t+1, mas não de t e t+1 separadamente (Chiang, 1980).
A montagem da matriz começa com o cálculo de
p ij = n ij / n j
onde: n ij = número de indivíduos na classe j no tempo t+1, dada a classe i no tempo t e n j =
número total de indivíduos na classe i no tempo t.
A matriz de transição probabilística de uma cadeia de Markov para um processo de n
estados pode ser montada da seguinte maneira:
159
j=1 j=2 j=3 ...... j=m
i=1 p11 p12 p1 ...... p1m
i=2 p21 p22 p23 ...... p2m
P = (p ij) = i =3 p31 p32 p33 ...... p3m
. . . . . .
. . . . . .
i=m pm1 pm2 pm3 ...... pmm
sendo que as probabilidades p ij são não-negativos e a soma de pi1 + pi2 + ... + pim deve ser
igual a 1.
A probabilidade de transição p ij pode ser de n passos, tomando a forma de p ij (n) onde
n indica o número de tentativas, ou seja, a probabilidade que a população vai de um estado i
de uma tentativa para o estado j, n tentativas depois.
Exemplo didático: Projeções da dinâmica de Parcelas Permanentes usando Markov
(transectos Leste-Oeste e Norte-Sul)
No caso dos dados da parcela permanente do exemplo, vamos considerar 17 estados (i,
j = 1, 2, ...17), onde:
estado 1 = recrutamento (R)
estados de 2 a 16 = classes de diâmetro. As classes de DAP são de 5-5 cm e vão de 10,
passando pela classe truncada DAP 75 até à classe “próxima” depois de DAP 75. A
movimentação de uma classe para outra, no caso da classe DAP 75, pode ser uma árvore
com DAP = 78, em 2000, que passou para a classe seguinte (podendo ser DAP = 80 ou DAP
= 81), em 2004 ou também uma com DAP = 119, em 2000, que passou para a classe seguinte,
em 2004.
estado 17 = mortalidade (M)
são considerados: t = 2000 e t+1 = 2004.
Passos para o cálculo matricial:
1. Matriz A (Quadro 1) => transição entre a 1ª ocasião (2000) e 2ª ocasião (2004) => tabelas
dinâmicas do Excel (V. Box). Daqui uns 10 anos, é bem provável que alguém não veja
nenhuma importância nas instruções contidas no Box por achar completamente obsoleta.
Hoje, em 2007, apesar deste recurso ser pouco conhecido pelos florestais, é um poderoso e
prático instrumento para organizar os dados. Quando se trabalha com parcelas permanentes,
re-medidas em várias ocasiões sucessivas, a tabela dinâmica serve também para conferir o
arquivo de dados. A matriz A é simétrica; portanto, há 19 colunas e 19 linhas.
1.1. => total 1ª ocasião = (total, freqüência da linha 19 e coluna 19 ou f19,19 =6251)
menos recrutas (R, linha 3 e coluna 19 ou f3,19 = 396) = 5623
1.2. => total 2ª ocasião = (total, f19,19 = 6251) menos mortas (M, f19,18 = 264) = 5987
2. Matriz B1 e B2 (Quadro 2) => probabilidades de mudanças de um estado (i) para outro (j).
A matriz de probabilidade é repetida pra facilitar a multiplicação de matrizes no Excel.
Portanto B1 = B2.
2.1. Recrutas (R) => das 396 árvores recrutadas em 2004 => 385, 7 e 4,
respectivamente, foram recrutadas para a 1ª classe (10<15), 2ª (15<20) e 3ª (20<25).
2.2. Probabilidades de 2.1. => 385/396, 7/396 e 4/396.
160
2.3. 1ª classe (10<15) => das 2167 árvores que estavam na 1ª classe na 1ª ocasião
(2000) => na 2ª ocasião (2004), 1869 permaneceram na 1ª classe, 205 mudaram para a
2ª classe, 2 passaram para a 3ª classe e 91 morreram.
2.4. Probabilidades de 2.3. => 1869/2167, 205/2167, 2/2167 e 91/2167.
2.5. 2ª classe (15<20) => das 1319 árvores que estavam na 2ª classe na 1ª ocasião
(2000) => na 2ª ocasião (2004), 1126 permaneceram na 2ª classe, 144 mudaram para a
3ª classe, 1 passou para a 4ª classe e 48 morreram.
2.6. Probabilidades de 2.5. => 1126/1319, 144/1319, 1/1319 e 48/1319.
3. Matriz de probabilidade 2 passos adiante (até 2004) => matriz de transição probabilística
(Matriz B) elevada ao quadrado que resultará na Matriz C (Quadro 3). Se quiser 3 passos
adiante, a matriz de transição probabilística será elevada ao cubo.
3.1. Multiplicação de matrizes (B1*B2) => No Excel:
- blocar (passando o cursor em toda a sua extensão) um espaço igual à matriz
que será multiplicada (Matriz B), ou seja, mesmo número de linhas e mesmo número
de colunas;
- ir ao menu Inserir, selecionar a opção Função e escolher Matriz.Mult;
- definir matriz 1 (B1), blocando a matriz B;
- definir matriz 2 (B2), blocando novamente a matriz B e OK;
- truque pra ver o resultado (matriz C) => segurar juntos Ctrl, Shift e Enter
mantendo o cursor dentro da barra de função (fx) que fica acima da planilha.
- Obs.: a matriz B não deve estar como fórmula e sim como Somente Valores.
4. Projeção para 2008 => Matriz D (Quadro 4) =>
4.1. A multiplicação de matrizes (B1 e B2) não inclui a coluna TOTAL, portanto, é
necessário copiá-la da Matriz A e colá-la na Matriz C para facilitar o cálculo da
freqüência esperada por classe (Matriz D);
4.2. A Matriz D é calculada multiplicando a probabilidade de ocorrência de árvores
em uma classe dois passos a diante (Matriz C) pelo número total de árvores daquela
classe. Ex.:
- classe 10<15 => C2*T2 = 0,8395 * 396 = 332,05
C3*T3 = 0,7439 * 2167 = 1612
- classe 15 < 20 => D2*T2 = 0,1071 * 396 = 42,39
D3*T3 = 0,1624 * 2167 = 351,81
D4*T4 = 0,7288 * 1319 = 961,24
e assim por diante para todas as classes.
4.3. O total da freqüência esperada por classe ou estado (que a projeção para 2008) é
calculado da seguinte forma (dados da Matriz D):
- classe 10<15 => C2 + C3 = 332,05 + 1612 = 1944.
- classe 15<20 => D2 + D3 + D4 = 42,39 + 351,81 + 961,24 = 1355,5
e assim por diante para todas as classes.
161
4.4. Classe “PRÓX.” => esta classe é criada apenas para descrever a dinâmica das
árvores truncadas ao DAP ≥ 75 cm. No quadro com as freqüências esperadas (E) (5b)
a freqüência da classe “PRÓX” deve ser acrescentada à classe DAP ≥ 75 cm. Portanto,
a freqüência esperada da classe DAP ≥ 75 cm deve ser somada à da classe “PROX”:
- classe DAP ≥ 75 cm => Q19 + R19 = 11,56 + 4,407 = 15,963 (Quadro 5a)
5. Ajustes necessários => a cadeia de Markov não faz projeções do recrutamento. Portanto, há
necessidade de fazer ajustes para que a probabilidade de recrutamento das árvores em 2004
possa ser incluída na projeção de 2008. Enquanto não tiver uma série histórica de
recrutamento, o único recurso é usar o nº de indivíduos recrutados de uma ocasião para outra.
5.1. O ajuste é feito com os dados do Quadro 5a: (prob do nº de arv da 1ª classe –
prob da mortalidade da 1ª classe) + (Total de recrutas de 2004 * projeção da 1ª classe
para 2008). Ex.:
- classe 10<15 => (1944 – 86) + (396 * 0,9722) 2242,3
- classe 15<20 => (1355,5 – 47) + (396 * 0,0177) 1316
- classe 20<25 => (865,8 – 33) + (396 * 0,0101) 837
5.2. Para as classes onde não houve recrutamento em 2004, basta diminuir a prob do nº
de arv da classe sem recrutamento – prob da mortalidade dessa mesma classe. Ex.:
- classe 25<30 => 543,4 – 24 519
...
- classe DAP ≥ 75 cm => 15,96 - 3 13
6. Se 3 ocasiões estão disponíveis, o certo é usar a média [ R = (R1+R2)/2 ], sendo que R1 é o
nº indivíduos recrutados entre a 1ª e 2ª ocasião e R2 é o nº entre a 2ª e 3ª ocasião, ou seja,
seriam necessários 3 inventários.
7. Comparação entre freqüências esperadas (E), para 2008, fornecida pela Cadeia de Markov
e as freqüências observadas de fato em 2004 (Quadro 6) => teste qui-quadrado ( χ2 ).
Neste exemplo, como o χ2 tabelado com 13 graus de liberdade e p = 0,05 é igual a
22,36, isso significa dizer que há fracas evidências para afirmar que E seja diferente de O.
Usando p = 0,01, o valor de χ2 é igual a 27,69 e, do ponto de vista de estatística, pode-se
afirmar que o teste é não significante.
O certo seria usar um intervalo de tempo maior para fazer projeções para um período
imediatamente posterior, para confirmar a eficiência de Markov. O exemplo foi usado para
comprovar que Markov é eficiente para fazer projeções da dinâmica de uma floresta
manejada. Essa comprovação já tinha sido realizada em florestas não perturbadas (Rocha,
2001).
162
Bibliografia:
Acevedo, M.F. 1981. On Horn’s Markovian Model of Forest Dynamics with Particular Reference to
Tropical Forests. Theoretical Population Biology 19:230-250.
Alder, D. 1980. Forest Volume Estimation and Yield Prediction. V.2 – Yield Prediction.
FAO Forestry Paper 22/2. 194 p.
Anderson, T.W. e L.A. Goodman. 1957. Statistical Inference about Markov Chains. Annals
of Mathematical Statistics 28:89-110.
Bierzychudek, P. 1982. The Demography of Jack-in-the-pulpit, a Forest Perennial that
Changes Sex. Ecol. Monographs 52(4):333-351.
Bruner, H.D. e J.W. Moser Jr.. 1973. A Markov Chain Approach to the Prediction of
Diameter Distributions in Uneven-aged Forest Stands. Can.J.For.Res. 3:409-417.
Buogiorno, J. e B.C. Michie. 1980. A Matrix Model of Unever-aged Forest Management.
Forest Science 26:609-625.
Chambers, J.Q., N. Higuchi e J.P. Schimel. 1998. Ancient Trees in Amazonia. Nature,
391:15-16.
Chiang, C.L. 1980. An Introduction to Stochastic Processes and their Applications. Robert E.
Krieger Publ. Co., Huntington, New York.
Clutter, J.L., J.C. Fortson, L.V. Pienaar, G.H. Brister e R.L. Bailey. 1983. Timber
Management: A Quantitative Approach. John Wiley and Sons, Inc. New York. 333p.
Enright, N. e J. Ogden. 1979. Applications of Transition Matrix Models in Forest Dynamics:
Araucaria in Papua New Guinea and Nothofagus in New Zealand. Australian J. of
Ecology 4:3-23.
Ferguson, I.S. e J.W. Leech. 1978. Generalized Least Squares Estimation of Yield Functions.
Forest Science 24:27-42.
Grossman, S.I. e J.E. Turner. 1974. Mathematics for the Biological Sciences. Macmillan Publ.
Co., Inc. New York. 512p.
Higuchi. N. 1987. Short-term Growth of an Undisturbed Tropical Moist Forest in the
Brazilian Amazon. Tese de Doutor. MSU. 129p.
Horn, H.S. 1975. Markovian Properties of Forest Succession. In: Ecology and Evolution of
Communities (M. Cody e J. Diamond, editores), pp.196-211. Harvard University Press.
Cambridge, Mass.
Morrison, D.F. 1976. Multivariate Statistical Methods. McGraw-Hill Inc.. 415p.
Peden, L.M., J.S. Williams e W.E. Frayer. 1973. A Markov Model for Stand Projection.
Forest Science 19:303-31.
Rocha, R.M. 2001. Taxas de recrutamento e mortalidade da floresta de terra-firme da bacia do
rio Cueiras na região de Manaus-AM. Dissertação de mestrado CFT-INPA. 49p.
Shugart, H.H. 1984. A Theory of Forest Dynamics: The Ecological Forest Succession
Models. Springer-Verlag Inc. New York. 278p.
Shugart, H.H. e D.C. West. 1981. Long-term Dynamics of Forest Ecosystems. Am. Scientist
69:647-652.
163
Smith, V.G. 1983. Compatible Basal Area Growth and Yield Models Consistent with Forest
Growth Theory. Forest Science 29:279-288.
Sullivan, A.D. e J.L. Clutter. 1972. A Simultaneous Growth and Yield Model for Loblolly
Pine. Forest Science 18:76-86.
Usher, M.B. 1966. A Matrix Approach to the Management of Renewable Resources, with
Special Reference to Selection Forests. J. of Applied Ecology 3(2):355-367.
Usher, M.B. 1969. A Matrix Model for Forest Management. Biometrics, June:309-315.
Usher, M.B. 1979. Markovian Approaches to Ecological Succession. J. of Animal Ecology
48:41-426.
164
Box 1
Tabela dinâmica do Excel usando o mesmo arquivo de dados do T2-B2SB4.
Passos necessários:
1. Neste arquivo há as seguintes colunas: nome comum da espécie, DAP90, DAP97 e DAP04
2. Inserir três novas colunas entre DAP90 e DAP97, entre DAP97 e DAP04 e depois de
DAP04 e nomear como CD1, CD2 e CD3, respectivamente.
3. Clicar em DADOS => FILTRAR => AUTO-FILTRO => apenas para a transição entre
1990 e 1997. Para a transição entre 1997e 2004, o procedimento é o mesmo.
4. Identificar as recrutas => são células que aparecem em “branco” ou “zero” na coluna do
DAP90 em DAPs registrados na coluna DAP97 => clicar em DAP90▼ e procurar “branco” e
“zero” e nomear com R na própria coluna DAP90 e na coluna CD1 atribuir o código “1” =>
para todas as árvores nessas condições.
5. Calcular as freqüências das classes 10<15, 15<20 ... até ≥ 65 => continuar com o
FILTRAR nas colunas DAP90 e DAP97. Começar com 1990 clicando em DAP90▼ e ir para
PERSONALIZAR. Lembrar que a primeira classe (10<15) é o segundo estado. Em
PERSONALIZAR, a primeira condição é “maior ou igual a” “10” (digitando) e a segunda é
“menor do que” “15” (digitando). Depois de OK, digitar em CD1 o número da classe (2, neste
caso). Repetir isso até a última classe (≥ 65), que será a classe número 1.
6. Identificar as mortas => são células que aparecem em “branco” ou “zero” na coluna do
DAP97 e tinham DAPs na coluna DAP90 => clicar em DAP97▼ e nomear com M na própria
coluna DAP97 e na coluna CD2 atribuir o código “15” => para todas as árvores nessas
condições.
7. Repetir passo 5 para DAP97. Em DAP97 tem que incluir a classe 1 (PRÓX). Neste caso, o
trabalho tem que ser feito manualmente (no olho), ou seja, tem que olhar para as colunas
DAP90 e DAP97 e verificar quais árvores que estavam na classe 1 em 1990 e mudaram de
classe em 1997.
8. Ir pra DADOS, clicar em FILTRAR e retirar o AUTO-FILTRO.
9. Em DADOS, clicar em RELATÓRIOS DE TABELA E GRÁFICOS DINÂMICOS e
seguir as instruções lógicas.
10. Pra ter a tabela dinâmica:
- arrastar CD1 até a coluna onde está escrito “solte campos de linha aqui”
- arrastar CD2 até a linha onde está escrito “solte campos de coluna aqui”
- arrastar DAP97 em cima de “solte itens de dados aqui”
165
Quadro 1: Matriz (A) => transição do estado i para o estado j durante o período de 2000 a 2004.
A B C D E F G H I J L M N O P Q R S T
1 estados R 10 < 15 15 < 20 20 < 25 25 < 30 30 < 35 35 < 40 40 < 45 45 < 50 50 < 55 55 < 60 60 < 65 65 < 70 70 < 75 >=75 PROX M Total
2 R 0 385 7 4 0 0 0 0 0 0 0 0 0 0 0 0 0 396
3 10 < 15 0 1869 205 2 0 0 0 0 0 0 0 0 0 0 0 0 91 2167
4 15 < 20 0 0 1126 144 1 0 0 0 0 0 0 0 0 0 0 0 48 1319
5 20 < 25 0 0 0 711 104 4 0 1 0 0 0 0 0 0 0 0 33 853
6 25 < 30 0 0 0 0 419 59 0 0 0 0 0 0 0 0 0 0 24 502
7 30 < 35 0 0 0 0 0 276 59 0 0 0 0 0 0 0 0 0 26 361
8 35 < 40 0 0 0 0 0 0 195 23 0 0 0 0 0 0 0 0 10 228
9 40 < 45 0 0 0 0 0 0 0 119 27 1 0 0 0 0 0 0 8 155
10 45 < 50 0 0 0 0 0 0 0 0 72 14 0 0 0 0 0 0 7 93
11 50 < 55 0 0 0 0 0 0 0 0 0 36 7 0 0 0 0 0 3 46
12 55 < 60 0 0 0 0 0 0 0 0 0 0 28 6 1 0 0 0 6 41
13 60 < 65 0 0 0 0 0 0 0 0 0 0 0 19 8 0 0 0 1 28
14 65 < 70 0 0 0 0 0 0 0 0 0 0 0 0 12 4 0 0 1 17
15 70 < 75 0 0 0 0 0 0 0 0 0 0 0 0 0 15 2 0 1 18
16 >=75 0 0 0 0 0 0 0 0 0 0 0 0 0 0 15 7 5 27
17 PROX 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
18 M 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
19 Total 0 2254 1338 861 524 339 254 143 99 51 35 25 21 19 17 7 264 6251
166
Quadro 2: Matriz B (B1 e B2) – transição probabilística do estado i para o estado j durante o período de 2000 a 2004.
A B C D E F G H I J L M N O P Q R S T
1 estados R 10 < 15 15 < 20 20 < 25 25 < 30 30 < 35 35 < 40 40 < 45 45 < 50 50 < 55 55 < 60 60 < 65 65 < 70 70 < 75 >=75 PROX M Total
2 R 0 0,9722 0,0177 0,0101 0 0 0 0 0 0 0 0 0 0 0 0 0
3 10 < 15 0 0,8625 0,0946 0,0009 0 0 0 0 0 0 0 0 0 0 0 0 0
4 15 < 20 0 0 0,8537 0,1092 0,0008 0 0 0 0 0 0 0 0 0 0 0 0
5 20 < 25 0 0 0 0,8335 0,1219 0,0047 0 0,0012 0 0 0 0 0 0 0 0 0
6 25 < 30 0 0 0 0 0,8347 0,1175 0 0 0 0 0 0 0 0 0 0 0
7 30 < 35 0 0 0 0 0 0,7645 0,1634 0 0 0 0 0 0 0 0 0 0,1
8 35 < 40 0 0 0 0 0 0 0,8553 0,1009 0 0 0 0 0 0 0 0 0
9 40 < 45 0 0 0 0 0 0 0 0,7677 0,1742 0,0065 0 0 0 0 0 0 0,1
10 45 < 50 0 0 0 0 0 0 0 0 0,7742 0,1505 0 0 0 0 0 0 0,1
11 50 < 55 0 0 0 0 0 0 0 0 0 0,7826 0,1522 0 0 0 0 0 0,1
12 55 < 60 0 0 0 0 0 0 0 0 0 0 0,6829 0,1463 0,0244 0 0 0 0,1
13 60 < 65 0 0 0 0 0 0 0 0 0 0 0 0,6786 0,2857 0 0 0 0
14 65 < 70 0 0 0 0 0 0 0 0 0 0 0 0 0,7059 0,2353 0 0 0,1
15 70 < 75 0 0 0 0 0 0 0 0 0 0 0 0 0 0,8333 0,11 0 0,1
16 >=75 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0,56 0,259 0,2
17 PROX 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
18 M 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
19 Total
167
Quadro 3: Matriz C ou [B]2 - Matriz de transição probabilística dois passos adiante (até 2008)
A B C D E F G H I J L M N O P Q R S T
1 estados R 10<15 15<20 20<25 25<30 30<35 35<40 40<45 45<50 50<55 55<60 60<65 65<70 70<75 >=75 PROX M Total
2 R 0,0000 0,8385 0,1071 0,0112 0,0012 5E-05 0 1E-05 0 0 0 0 0 0 0 0 0,042 396
3 10<15 0,0000 0,7439 0,1624 0,0119 0,0002 4E-06 0 1E-06 0 0 0 0 0 0 0 0,0000 0,04 2167
4 15<20 0 0,0000 0,7288 0,1842 0,0146 0,0006 0 0,0001 0 0 0 0 0 0 0 0,0000 0,035 1319
5 20<25 0 0 0,0000 0,6948 0,2034 0,0218 0,0008 0,0019 0,0002 8E-06 0 0 0 0 0 0,0000 0,038 853
6 25<30 0 0 0 0,0000 0,6967 0,188 0,0192 0 0 0 0 0 0 0 0 0,0000 0,048 502
7 30<35 0 0 0 0 0,0000 0,5845 0,2647 0,0165 0 0 0 0 0 0 0 0,0000 0,062 361
8 35<40 0 0 0 0 0 0,0000 0,7315 0,1637 0,0176 0,0007 0 0 0 0 0 0,0000 0,043 228
9 40<45 0 0 0 0 0 0 0,0000 0,5894 0,2686 0,0362 0,001 0 0 0 0 0,0000 0,053 155
10 45<50 0 0 0 0 0 0 0 0,0000 0,5994 0,2344 0,0229 0 0 0 0 0,0000 0,068 93
11 50<55 0 0 0 0 0 0 0 0 0,0000 0,6125 0,223 0,0223 0,0037 0 0 0,0000 0,073 46
12 55<60 0 0 0 0 0 0 0 0 0 0,0000 0,4664 0,1992 0,0757 0,0057 0 0,0000 0,107 41
13 60<65 0 0 0 0 0 0 0 0 0 0 0,0000 0,4605 0,3956 0,0672 0 0,0000 0,041 28
14 65<70 0 0 0 0 0 0 0 0 0 0 0 0,0000 0,4983 0,3622 0,026 0,0000 0,055 17
15 70<75 0 0 0 0 0 0 0 0 0 0 0 0 0,0000 0,6944 0,154 0,0288 0,067 18
16 >=75 0 0 0 0 0 0 0 0 0 0 0 0 0 0,0000 0,3086 0,1440 0,103 27
17 PROX 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
18 M 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
19 Total
168
Quadro 4: Matriz D - Cálculo das freqüências esperadas de cada classe ou estado
A B C D E F G H I J L M N O P Q R S T
50 < 55 < 60 < 65 < 70 <
1 estados R 10 < 15 15 < 20 20 < 25 25 < 30 30 < 35 35 < 40 40 < 45 45 < 50 55 60 65 70 75 >=75 PROX M Total
2 R 0,000 332,056 42,397 4,454 0,493 0,019 0 0,005 0 0 0 0 0 0 0 0 16,577
3 10 < 15 0,000 1611,980 351,813 25,773 0,399 0,009 0 0,002 0 0 0 0 0 0 0 0,000 86,023
4 15 < 20 0 0,000 961,240 242,958 19,245 0,793 0 0,169 0 0 0 0 0 0 0 0,000 46,595
5 20 < 25 0 0 0,000 592,639 173,492 18,615 0,654 1,601 0,174 0,006 0 0 0 0 0 0,000 32,818
6 25 < 30 0 0 0 0,000 349,723 94,353 9,643 0 0 0 0 0 0 0 0 0,000 24,281
7 30 < 35 0 0 0 0 0,000 211,014 95,569 5,952 0 0 0 0 0 0 0 0,000 22,466
8 35 < 40 0 0 0 0 0 0,000 166,776 37,329 4,006 0,148 0 0 0 0 0 0,000 9,740
9 40 < 45 0 0 0 0 0 0 0,000 91,361 41,632 5,615 0,152 0 0 0 0 0,000 8,239
10 45 < 50 0 0 0 0 0 0 0 0,000 55,742 21,795 2,130 0 0 0 0 0,000 6,332
11 50 < 55 0 0 0 0 0 0 0 0 0,000 28,174 10,259 1,024 0,171 0 0 0,000 3,372
12 55 < 60 0 0 0 0 0 0 0 0 0 0,000 19,122 8,169 3,103 0,235 0 0,000 4,371
13 60 < 65 0 0 0 0 0 0 0 0 0 0 0,000 12,893 11,076 1,882 0 0,000 1,149
14 65 < 70 0 0 0 0 0 0 0 0 0 0 0 0,000 8,471 6,157 0,444 0,000 0,928
15 70 < 75 0 0 0 0 0 0 0 0 0 0 0 0 0,000 12,500 2,778 0,519 1,204
16 >=75 0 0 0 0 0 0 0 0 0 0 0 0 0 0,000 8,333 3,889 2,778
17 PROX 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
18 M 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
19 Total 1944,036 1355,450 865,823 543,352 324,803 272,641 136,419 101,555 55,739 31,663 22,086 22,820 20,775 11,556 4,407 266,874
169
Quadro 5a: Dados para calcular 2008 (E).
Prob Prob
CD Arv Mort proj
10 < 15 1944,04 86,02 0,97
15 < 20 1355,45 46,60 0,02
20 < 25 865,82 32,82 0,01
25 < 30 543,35 24,28
30 < 35 324,80 22,47
35 < 40 272,64 9,74
40 < 45 136,42 8,24
45 < 50 101,55 6,33
50 < 55 55,74 3,37
55 < 60 31,66 4,37
60 < 65 22,09 1,15
65 < 70 22,82 0,93
70 < 75 20,77 1,20
>=75 15,96 2,78
Quadro 5b: Freqüências esperadas (E) para 2008 incluindo ajustes feitos para o recrutamento (R)
170
Quadro 6: Comparação entre freqüências observadas (O) e esperadas (E) em 2008.
estado O E 2
10 < 15 2254 2243 0,05
15 < 20 1338 1316 0,37
20 < 25 861 837 0,69
25 < 30 524 519 0,05
30 < 35 339 302 4,45
35 < 40 254 263 0,30
40 < 45 143 128 1,71
45 < 50 99 95 0,15
50 < 55 51 52 0,04
55 < 60 35 27 2,18
60 < 65 25 21 0,79
65 < 70 21 22 0,04
70 < 75 19 20 0,02
>=75 24 13 2,08
Total 5987 5859 20,13
171