Escolar Documentos
Profissional Documentos
Cultura Documentos
Análise de Dados
Experimentais - Volume I
Fundamentos de Estatística
e Estimação de Parâmetros
Marcio Schwaab
José Carlos Pinto
Apoio
[:..:] e-papers
PERTENCE AO N O DE O I
Agradecimentos
Dedicatória
ISBN 85-7650-088-4
Capa
Ana Claudia Ribeiro
Foto da capa
Felix Möckel
Revisão
Rachel Rodrigues
S425a
v.1
Schwaab, Marcio
Análise de dados experimentais, I : fundamentos de estatística e estimação de
parâmetros / Marcio Schwaab, José Carlos Pinto. Rio de Janeiro: E-papers, 2007.
462p. : il. ; . (Escola Piloto em Engenharia Química ; v.1)
Apêndice
ISBN 8576500884
1. Engenharia química - Pesquisas - Métodos estatísticos. 2. Estimativa de
parâmetros. 3. Planejamento experimental - Modelos matemáticos. I. Pinto,
José Carlos. II. Título. III. Série.
07-3272. CDD: 660.2
CDU: 66.011
PERTENCE AO N O DE O I
Sumário
75 Distribuições de Probabilidade
76 2.1. A Distribuição Binomial
86 2.2. A Distribuição de Poisson
92 2.3. A Distribuição Hipergeométrica
96 2.4. A Distribuição Uniforme ou Retangular
103 2.5. A Distribuição Exponencial
110 2.6. A Distribuição Normal
113 2.7. A Distribuição Log-Normal
114 2.8. Extensão de Conceitos para Sistemas Multidimensionais
434 Apêndice A
Prólogo
Marcio Schwaab
José Carlos Pinto
Rio de Janeiro, Outubro de 2007
Princípios Básicos
1 de Estatística
Ub'lcJ"o!•~l)c e f 1n
rc::r m Ul'l !'fotlh:rn11
ReuhziiJli · K ~xpeTimanlos .
Acumlllii•J.t' i~:~form:~~iio de
llllul'l!n n npkica.
(
q
(1.3)
X .
..
t
Figura 1.3 - Registro de uma Variável x com Ruído como uma
Função do Tempo
imprecisão que outros. Parece óbvio que uma coisa é a precisão obtida
quando se prevê o comportamento meteorológico e outra é a precisão
obtida quando se prevê o tempo que um objeto que cai do 3º andar de
um bloco de apartamentos leva para atingir o chão. Portanto, já sentimos
aqui a necessidade de caracterizar o grau de variabilidade existente num
sistema experimental qualquer.
Diz-se que sistemas que apresentam variabilidades ou incertezas
quanto ao resultado final têm natureza estatística ou estocástica. O
exemplo clássico de comportamento estocástico é o experimento dos
dados ou da roleta. Estes são casos limites de aleatoriedade, haja vista
que é sempre possível estabelecer algum grau de determinismo em
problemas preponderantemente estocásticos e vice-versa. Por exemplo,
sabemos que ao lançarmos um dado, nunca obteremos valores maiores
do que 6 e menores do que 1. De forma similar, correntes químicas
sempre têm algum grau de impureza e os instrumentos de medida não
são perfeitos, portanto, o valor de CA no tanque de reação da Figura 1.2
só pode ser obtido com um certo grau de precisão. Além disso, desde a
década de 70 sabe-se que sistemas determinísticos regidos por equações
diferenciais não-lineares podem apresentar dependência exponencial aos
dados iniciais (o caos). Nesse caso, qualquer pequena incerteza cometida
nas condições iniciais cresceria exponencialmente e tornaria qualquer
previsão sobre o comportamento do sistema inócua após um certo tempo.
Vê-se, assim, que a fronteira entre os mundos determinístico e estocástico
pode ser abrangente, mal definida e espessa.
111 1
0.11
11.!1
"'
:..: ~I
11-4
110
I
~I
1111
D :!!~ -4U 1111 i ll I Ill
\ l to.IW..Ill
1.4a
lJ.l
'" • ..
D...l
I ..
I tl
I
• '
,.
'
I •• .
-...
[l1j
11.1
I ~· • • ,.
..
..•. ·"" .. ,,I
•
'
11 >4
• +'
IU
111]
•
"
•
• I ••
•
• •j
' JI.
I
u ;p Jn 1)11 ~I Lilli
'!.1rd -lf1
1.4 b
11 11
.,•
, / - "'""",, ..
"'•,.
.... II ~ ,/ ' \ •
~ \
[[A
\,
II.J \
IIJJ
"• 11-4
.'II~
i1ft •. I 1n
1.5 a
1,11
.. • ... • ••
.
•.II
.. • • •
.1.1 •
..• .
.. • • .. ... •...
•
. .. ..
.,.
--... .,.. .• ••
• ....
lUI •
.... •~ .. ••
~
li
• •
.. •
• .1
.. • .;
••
.. • ..
01
. •..." • • •
• ...
., li•
I
•n • ...
P ll •:~: 841 (I ll fl 1 II
r..
1.5 b
Figura 1.5 - Análise de Duas Seqüências de Medidas X e Y Deslocadas.
∑p
i =1
i =1 (1.6)
NR
1
∑ pi = 6 p = 1 ⇒ p =
i =1 6
É importante observar que a hipótese de que as seis faces são
igualmente prováveis pode não ser verdadeira e que pequenos
defeitos de fabricação façam com que certas faces ocorram mais
freqüentemente que outras. Por isto, o resultado acima é usual-
mente utilizado para definir o dado ideal.
L
I I.
l
Figura 1.6 - Exemplo de um Histograma.
!!,lit
I hi '
, I~ I
~ 1.-1 '
l'l:i
.: tl
:.i u• ,
~
.l l.
IR •
.....
~
~
~
7:j
-=
!!!!
I!) I
-=e ~ .
~
ri t
~·
ll
.D
(1.10)
'
MUDA
Ml!DIANA
f
tEDJA
l _ l 1 1 1 1.,
11 · -=l·-+2 ·-+3- + 4 ·- + 5 ·- + 6 ·-==.) -~5
.\ 6 6 6 6 6 6
O valor 3.5 certamente nunca pode ser obtido do lançamento de
um dado, ilustrando que a média não é necessariamente o valor
mais provável do experimento nem precisa ser um resultado
físico real.
(1.12)
Logo,
L mL
- M
Ou seja,
∞ ∞ ∞ ∞
∑ m ∑ p (x ) p (m − x ) = ∑ ∑ ( y + x ) p (x ) p ( y )
m =−∞ x =−∞
x y
x =−∞ y =−∞
x y (1.21)
Portanto:
∞ ∞ ∞ ∞
µM = ∑ ∑ yp (x ) p ( y ) + ∑ ∑ xp (x ) p ( y ) = µ
x =−∞ y =−∞
x y
x =−∞ y = - ∞
x y Y + µX (1.22)
Sendo que:
∞
∑
xN =−∞
p ( xN I x1 , x2 ,..., xN −1 ) = 1, ∀ x1 , x2 ,..., xN −1 (1.24)
isto para que seja satisfeita a Equação (1.6), um dos requisitos básicos
da probabilidade.
Dessa forma, se o evento y é condicionado pelo evento x, as Equações
(1.18) e (1.19) ganham a forma:
∞
pm (m ) = ∑ p (x ) p (m − xI x )
x =−∞
x y (1.25)
~ "
Jl., =E{m}=L m L p,(x) p,(m -xf x) (1.26)
~ "
J1, =I I )1J, (x )p1 (y/x)+ I I xp,(x) p,(yfx) =
. .. . ..
Jl., =I p.(x) I YP,(yf.Y)+ I xp, (x) I p_,(y/x)= (1.28)
J1., =I
"
p, (x)J.I, (x)+
- xp, (x)=J.l, + J.lx
I
3 coroas
Nenhuma cara
(1 possibilidade)
1 cara
Apenas uma cara
(3 possibilidades)
2 caras
Apenas duas caras
(3 possibilidades)
cuja média é
'
P.x= 4
X
e
(1.32)
(1.36)
17 17 17 17
1 2 3 88
(1 − 4 ) + (2 − 4 ) + (3 − 4 ) + (4 − 4 ) +
2 2 2 2
σ XX
2
=
100 100 100 100
3 2 1 40
(5 − 4 ) + (6 − 4 ) + (7 − 4 ) =
2 2 2
+
100 100 100 100
Comparada às diferentes medidas de espalhamento apresentadas
anteriormente, a definição de variância apresenta muitas vantagens.
Primeiramente, a variância pode ser obtida diretamente do histograma
de probabilidades sem qualquer ambigüidade. Em segundo lugar, a uti-
lização das operações de média e do quadrado da distância em relação
à média permite a manipulação relativamente simples de expressões
matemáticas, como será mostrado a seguir. No entanto, da mesma forma
que no caso da definição da média, o usuário deve resistir à tentação de
explicar em bases físicas e concretas o significado da variância. A variân-
cia deve ser encarada apenas como uma medida matemática conveniente
de espalhamento, e que por isso pode ser utilizada para caracterizar
e comparar histogramas também de forma matemática conveniente.
Algumas propriedades relevantes da operação de cálculo da variância
são apresentadas a seguir.
Var{x}+2Covar{x,y }+ Var{y}
(1.40)
Na Equação (1.40), define-se como covariância entre as variáveis
x e y, representada por Covar{x,y} ou simplesmente s2XY, à seguinte
operação de média:
. -
escrever a Equação (1.41) na forma:
O".~T =
-
L Px(x)(x- Jlx ) L - py(yj x)(y-p, }=
" "
L p, (x)( x- Jlx )(Jlr·x - J1
·-L
"
L
-
1 )
"
= L p, (x)Jlr . (x - Jl.r) =
1
Exemplo 1.6 – Para o dado ideal dos Exemplos 1.2 e 1.3, a variância
pode ser calculada como:
1 1 1
(1 − 3.5) + (2 − 3.5) + (3 − 3.5) +
2 2 2
σ2 =
6 6 6
1 1 1 17.5
(4 − 3.5) + (5 − 3.5) + (6 − 3.5) =
2 2 2
6 6 6 6
Exemplo 1.7 – Para o dado ideal dos Exemplos 1.2 e 1.3, suponha
que dois dados são lançados simultaneamente em um jogo e que
a soma dos valores obtidos é usada para movimentar as pedras
do tabuleiro. Nesse caso, a distribuição de probabilidades dos
valores obtidos pode ser obtida da seguinte forma:
··~
IJ,J6 r-
0.1..
~ o.l:
• ..-
- !"'""
,....
3 0,11
~
l I),O!f r-· r-
E. 1
...
0.16 .
l • ..• nr-"
f"""
o.t:: .
O.M
[J 1.
! J
'Snma' dos •l>oi5 l l~t'SU.Irados
10 II
-. -.
Figura 1.13 - Distribuição de probabilidades da soma dos valores
obtidos a partir do lançamento de dois dados ideais.
Exemplo 1.8 – Para o dado ideal dos Exemplos 1.2 e 1.3, suponha
que dois dados são lançados em seqüência em um jogo e que a
soma dos valores obtidos é usada para movimentar as pedras do
tabuleiro. No entanto, uma regra do jogo impõe que se o valor
obtido no primeiro conjunto de dados for 1, 2 ou 3, o segundo
valor só é aceito se for igual a 4, 5 ou 6, e vice-versa. Nesse caso,
a distribuição de probabilidades dos valores obtidos pode ser
obtida da seguinte forma:
...
~ •
~OJ
•]•
•
e .•
"' 0'
""
J
'
Figura 1.15 - Distribuições de probabilidades dos resultados durante
o primeiro lançamento e durante o segundo lançamento.
:s
•=I J=l
.
" i-r - 1-7), + -0 (2-7)' + 0- (>-7
• 0( • )' 0
+- (4-7), + -I (5-7), + -2 (6-7), +
'9 9 9 9 9 9
3 • I • 0 • 0 ~ 0 · J? S
9
2
9
•
+-(7- 7)" + -(8-7)" +-(9- 7)" +-(10- 7)" +-(11 - 7)" +-(12- 7)"
9 9 9 9
=-==
96
-
Como os experimentos dos lançamentos dos dados nesse caso
não são independentes, é necessário calcular a covariância entre
os resultados obtidos do primeiro e do segundo lançamento dos
dados através, por exemplo, da Equação (1.45). Nesse caso, o valor
médio obtido do segundo lançamento µY(x) é igual a 5, se i = 1,
2 ou 3, e é igual a 2, se x = 4, 5 ou 6. Portanto,
Exemplo 1.9 – Para o dado ideal dos Exemplos 1.2 e 1.3, suponha
que um único dado é lançado para gerar simultaneamente dois
1 1 1 I 1 I 26
p =-6+-6+- 1+ - 1+ -6+-6=-
' 666666 6
enquanto a covariância pode ser calculada como:
2 I I I I • I I 26 91 91
(1 = 1- 6+ 2- 6+3 - 1+ 4- 1+>- 6+6- 6-3.5- = - - - = 0
.IT 6 6666 6 666
Portanto, apesar das variáveis x e y estarem completamente cor-
relacionadas, a covariância entre as duas variáveis no problema
proposto é igual a zero. Isso mostra que o fato da covariância ser
igual a zero não implica necessariamente que as medidas sejam
de fato independentes.
Propriedade 1.7 – Sejam os conjuntos (xi, pxi) e (yi, pyi) dois histogra-
mas de probabilidades e α e β dois escalares. Então, Covar{αx,βy}
= Covar{βy,αx} = αβCovar{x, y}.
{ }
Covar {α x , β y}= Ε (α x − µα X )(β y − µ β Y ) = Ε {(α x − αµ X )(β y − βµY )}=
Ε {αβ (x − µ X )( y − µY )}= αβΕ {(x − µ X )( y − µY )}= αβ Covar {x, y}
(1.46)
Portanto, ao multiplicar os resultados possíveis por escalares α e β
quaisquer, a covariância fica multiplicada pelos mesmos escalares.
Propriedade 1.8 – Sejam os conjuntos (xi, pxi), (yi, pyi) e (zi, pzi) três
histogramas de probabilidades. Então, Covar{x,y+z} = Covar{x,y}
+ Covar{x,z} e Covar{x+z,y} = Covar{x,y} + Covar{z,y}.
{ }
Covar {x, y + z}= Ε (x − µ X )(( y + z ) − µY + Z ) =
{ } {
Ε (x − µ X )(( y + z ) − (µY + µ Z )) = Ε (x − µ X )(( y − µY ) + (z − µ Z )) = }
Ε {(x − µ X )( y − µY )}+ Ε {(x − µ X )(z − µ Z )}= Covar {x, y}+ Covar {x, z}
(1.47)
Portanto, ao somar os resultados possíveis de distribuições de proba-
bilidade distintas, a covariância fica somada de forma análoga.
Como a variância σ2X tem dimensão do quadrado da variável x (de
x2, portanto) é útil definir o desvio padrão da variável x, representado
como σX, como
a_\. =g (1.48)
O desvio padrão é uma medida adequada de espalhamento na escala
métrica da variável x, obtida a partir da operação de cálculo da variância.
Como veremos nas próximas seções, o desvio padrão pode ser somado à
média para fornecer regiões onde estão concentrados os resultados mais
prováveis, dentro de um certo limite de confiança.
Uma outra normalização freqüentemente utilizada para definir a
variância é o chamado índice de polidispersão, IP. O índice de polidisper-
são, polidispersividade ou simplesmente polidispersão é uma medida
relativa da variância da distribuição, na forma:
=l+ (1.49)
)'
'0
-------L--
y < JJ·
L--~~ < p;rl '
y< ~:
)t
'
• •
• •
• • • •
• • •
•
••
• •
• • •
• ••••
• • ••
•
•
• .·..
• ••
enlze x ey,
NR
Jlx = I, p,x, (1.7)
i=l
Por sua vez, na definição de variância proposta pela Equação (1.36)
tem-se:
~~ ~R
••1 J•l
l\'R NR SR NR
(1.52)
(1.56)
I p, (x,- Jlxt] ~
11
[
--
k.\.. - "-''.;.;•I:.__ _ _ __.:.._
(1.57)
a,,.
e chamado de kurtose, pode ser associado ao formato achatado ou
alongado da distribuição de probabilidades, mostrar multimodalidades,
e assim por diante.
É importante observar que uma distribuição de probabilidades possui
infinitos momentos e que, de forma inversa, os infinitos momentos da
curva de distribuição precisam ser especificados para que a curva de
distribuição possa ser especificada também de forma inequívoca. Por-
tanto, a informação completa contida no histograma de probabilidades
não pode jamais ser substituída por uma coleção finita de momentos
estatísticos, como a média e a variância.
- - -
,uj"l == I == aoL q•-• +a, L ;q•-• + a1L i2q'-'
t=l r-1
== == aoL-;q•-• + a,L-
p jil J11
-
+ a 2L pq•-•
;lq•-•
- - -
pfl == ai +Pi == aoL i q'-' +a,:LP£;-' + a2:L;V-1
2
••
•••
~
•.~ ........
......
-···-
····-·-- J.·~·
.... (
i ..,-_.,
-··-
~
···-
···-
__ _- - .. ..
~
- -
Jl)'') = I = a0 L, iq'"' +a, L, Pq•·•+a1 L, i3q'"'
-
i=l o=l •=1
-
J.l)'l =Jl, =aoL,i2q•-•+ ~ L,Pq•-•+ a 2L,;•q•-•
-
1•) 1• l 1•1
J1)1J
-
= CJi + Jli = ao:L,h /-' +a, L, ;•q~• +a2L,isq•-•
- -
t=l 1=1 i=l
I I I I
(1.7
0~5 0.75 0.3
I !
05 0.35 0.1'1:
(Ill) (bJ
Figura 1.19 - (a) Qualquer segmento de reta de comprimento 0.5 contido no
intervalo real [0,1] contém metade dos números do intervalo. (b) Segmentos de
reta de tamanhos distintos ao redor do ponto 0.5 contêm frações distintas dos
pontos contidos no intervalo [0,1].
0
. 05
Y '~ C.rt
--·------••
• .... ••
0 015 ''
'
'
•
• 0
,p(x)
(b)
"'''
. ,,
'
Figura 1.23 - Ilustração Gráfica das Propriedades 1.11-1.13.
Para mostrar como pode ser feita uma analogia direta entre os his-
togramas de probabilidades, definidos para as variáveis discretas, e as
curvas de densidade de probabilidade, definidas para variáveis contínuas,
poderíamos representar a curva de densidades de probabilidade como
ilustrado na Figura 1.24. De acordo com essa representação, dada uma
certa resolução ∆x definida pelo usuário, o histograma de probabilidades
(xi , pi ) poderia ser construído na forma:
xi +1 + xi
xi = , xi = xmin + (i − 1)∆x (1.66)
2
xi +1
Tx'"p(x)d..-
X
J.ll~) = (1.70)
p(x)
,... ..... '""
17' "' 1\
'i- ~
\
11' ~
rl ~
~
17' "-;
17' 1\
~lih-,_
hif X
"'max:
a.~> = "'T(x- J.ix )[ ' j"" (y- }.II') !,0 (y I x )dy]~(x )Jx (1.73)
X tflfUJ ,..lflllf
4 x, 0 ≤ x ≤ 0.5
℘(x ) =
4 − 4 x, 0.5 ≤ x ≤ 1
.fJ(X)
2 ------------
00~----~~----~---.
0.5 I X
Figura 1.25 - A distribuição Triangular.
2x' 0<
_ .r <o
- .)-
~... (.r) = 0.5+(4x
' ( 0 )
- 2) - 2x - 0.5 , 0.5S x SI
I, X<: I
.
11~J =f x'p (x)dx= .,
o
' J
J 4r'dx+ (4x' - 4r')d..-=~ + ~
liS 4
... "'[ -
4
.) ~
4~
x
4 $
=
=-' ·(4-0.5 )-( ~-0.25) =2.+ 56 - 45:2.
16 3 4 48 48 48 24
2
(jx-
_
J.lx -
(2) (
J.l ~-
)2-_ - 7 1_ I
- - - -
. 24 4 24
1.8. Conclusões
No Capítulo 1 foram introduzidos os conceitos de aleatoriedade e deter-
minismo, fundamentais para a compreensão de problemas de medição.
Para caracterizar a componente aleatória das medidas, foi introduzido o
conceito de probabilidade e de distribuição de probabilidades. Foi acen-
tuado o fato de que uma probabilidade é uma expectativa de que um
certo resultado ocorre, não garantindo de fato a consecução do resultado.
Para tornar possível a comparação e o processo de tomada de decisão
em diferentes problemas, caracterizados por diferentes distribuições
de probabilidade, foram definidas a média e a variância. A primeira ca-
racteriza um valor em torno do qual os resultados possíveis flutuam. A
segunda caracteriza o quanto os resultados flutuam em torno do valor
médio. Finalmente, foi introduzido o conceito de independência entre
medidas e variáveis e foi definida a covariância, que caracteriza o grau
de dependência linear entre as variáveis analisadas.
Um problema fundamental que se põe é o de como caracterizar a
distribuição de probabilidades que caracteriza um determinado problema
estocástico. Outro problema é o de como utilizar essa informação para
julgar e analisar medidas experimentais. Esses serão os tópicos principais
abordados nos próximos capítulos.
2. Pegue uma folha de papel e rasgue uma tira com as mãos. Meça a
largura dessa tira em diferentes pontos com uma régua milimetrada.
Repita o experimento. As medidas obtidas são iguais? Você é capaz
de identificar as fontes de erro desse experimento?
2 Distribuições
de Probabilidade
Distribuições de Probabilidade 75
PERTENCE AO N O DE O I
(2.2)
cujo resultado é idêntico ao anterior. Na realidade, a probabilidade de se
obter n sucessos independe da ordem com que os n experimentos bem
sucedidos sejam distribuídos no arranjo final de resultados. Portanto,
a probabilidade de se obter n sucessos de m experimentos pode ser
escrita na forma:
P(n~ m. p}::: N,~p"q,_•
(2.3)
onde NA é o número total de combinações possíveis de n sucessos e (m
– n) insucessos em m experimentos. O número NA é uma operação clás-
sica da matemática combinatorial, denominado como a combinação de
m, n a n, dado na forma:
N
·•
=("')=c· =
11 "
m!
nJ(m- n)! (2.4)
Bm ( n:m, p ) = ( )pq
' " '' .. Jll " ll
(2.5)
" ' 111- 11 !
A distribuição Binomial é uma distribuição discreta Univariada e Bi-
paramétrica, pois descreve a variação de probabilidades de uma única
variável discreta, n, e depende de dois parâmetros, m e p. Isso significa
que apenas dois dos momentos da curva de distribuição podem ser
fixados independentemente pelo usuário, ficando os demais automa-
ticamente definidos pela forma da curva da Equação (2.5). Além disso,
não é difícil mostrar que:
Distribuições de Probabilidade 77
PERTENCE AO N O DE O I
(2.6)
(2.7)
m
m!
∑ n !(m − n )! p q
n = 20
n m−n
≥ 0.95
Distribuições de Probabilidade 79
PERTENCE AO N O DE O I
"'••
~.
•
. .,
... . .\.~···
.. . •
-•- p.. Of1
..•
~
\• •
•
•
•
.
- - P"'0'
(1'"03
..•
~
• u '. •\
•
- - p - 09
~ \• •, '
.... •
"*•
"i• ...
;!
•
~
.. \\ \
•
•
•
•
•
•
... ,, •
•
•
••
-... . _. ,,
• ,..
"
,. - :::,.
" "
-~
"
,.
~li m\!t\1 ~~ ~~lnw• l;)'o • .,,
Ill!
•
• •• •
•• •
• •
.
•• • • • -
• • • .. .•
Distribuições de Probabilidade 81
PERTENCE AO N O DE O I
~
• m!
i !{m-i)!
(')'(1)"-'
2 2 = ~.c (u;m.o.s)
já que apenas dois resultados são possíveis (estar acima ou abai-
xo da linha central) e as probabilidades são conhecidas e iguais
a 50%. Supondo que um certo grau de confiança PX% é exigido
para que se tome a decisão de intervir no processo, toda vez que
um padrão for observado e tiver probabilidade inferior a PX%
de ocorrer, toma-se a decisão de introduzir uma perturbação
reguladora de controle. Nesse caso, como o mesmo padrão pode
ocorrer de um lado ou de outro da carta de controle (ou seja, a
curva de distribuição de probabilidades é simétrica), o problema
de controle fica na forma:
m. I 100%-P.
L• I
( _)I ( ?' )' ( ) -
r=& l.1 111 I . - 2
=P,c (tr, m,0.5)!>( 2
•·· )
lt:Z(J
::;: • I• PJ- (I
~
c; \ 1
;;;: I). :JI(i
\ - -
.. Pl
Pl 1
"'CC
!:;
-;
I
l PI-J
E 11. 1
=
... \\ \
\
•
<...
1.., IJ.IJf! \• \
\.~
....,
:::l • \
\ ..
\•
~
.,e.,
11.1)4 \
• ....
~
Ql:
·~ ._ ··- • '- ..._
·~- - ... ""
"'·~ U.4
.L_fr •-:.i_
I). I)() ·~. -~- '"'.!:~ ...
.... J
4) :z: 4 6 3 l(ll ii.:Z: l4 u; 18· l
:'>o"u nwro d t' l\Jlellid11~
Distribuições de Probabilidade 83
PERTENCE AO N O DE O I
N-
A- ("') -c - ,,
11 - " - n!(m- u) !
Distribuições de Probabilidade 85
PERTENCE AO N O DE O I
Repare na Tabela 2.1 que os lotes têm que ser muito maiores que
os valores médios sugeridos pelo número de defeitos observados.
Para aprovar um lote produzido, com 95% de confiança, ao me-
nos 29 peças têm que ser analisadas e nenhum defeito pode ser
detectado, para se garantir que a fração de defeitos seja inferior
a 10%. O tamanho do lote sobe para 59 peças, sem quaisquer
defeitos observados, para garantir que a fração de defeitos seja
inferior a 5%. Isso mostra como uma boa precisão pode requerer
a análise de número bastante grande de experimentos.
m (m − 1)... (m − n + 1)
Bin (n; m, p ) = (mp )
n
n
q m−n =
m n!
m (m − 1)... (m − n + 1) µ Nn
(1 − p )
m−n
=
mn n!
1 2 n − 1 µ Nn
(1 − p ) =
m−n (2.9)
1 − 1 − ... 1 −
m m m n!
1 2 n −1
1 − 1 − ... 1 − n
m m m µN
( )
m
1 − p
(1 − p )
n
n!
Usando agora as seguintes relações matemáticas:
− mp −µN
(1 − p ) = (1 − p ) I p = (1 − p ) I p
m −1 −1
(2.10)
lim (1 + z )I1 z = e (2.11)
z →0
então,
−µN
lim (1 − p )−I1 p = e− µN (2.12)
p →0
Como:
1 2 n −1
− − ... 1 −
lim m m
1 1
m
m→∞ =1 (2.13)
p →0 (1 − p )n
a Equação (2.9) fica na forma:
lim Bin n; m, µ N µ N − µN
n
Distribuições de Probabilidade 87
PERTENCE AO N O DE O I
D.lO
-- "' - 20. p - o.so
• "' =40. p =0.25
IUS - - M = IOO.p=-0.10
~ - - m - lOO,p • OOS
"li - PoiMOn
:2
:s 0.10
..e
~
(),()5
&.00
0 l
' • 8 1&
n " " . " lO
J.1N = np'
O uso da distribuição de Poisson é justificado por causa do proble-
ma tipicamente binomial (apenas dois resultados são possíveis:
peça perfeita ou peça defeituosa) e do baixo valor da probabilidade
e respectivo alto valor de dados analisados (m = 200, p = 0.02,
µN = 4). A soma inclui o fato de que um número de defeitos em
até n peças está sendo considerado.
_...; ---j
&
I
~
/ 9.8 Q
J / / /
i:l IUS
•
/
I
I C)j'l,
E
I"
::1
,l
~ ~
::.0 0.!1()
l~ I
...
__.
:E
::1 I •• - m- lS ~(I
A
e
I)_AS
"' 100
t:l.o '" =2{10
,.. tlf
I
IJ.811J
J l l ~· !I ,.:; '7 8 l
0
n '
Figura 2.6 - Probabilidade acumulada da distribuição
de Poisson (n; 0.02 m).
A Figura 2.6 mostra como PAC(n) varia com n, para diferentes valores
de m (lembrando que no problema analisado µN = 0.02 m). Observe
que os limites de 95% e 98% impostos definem as quantidades
prováveis de defeitos encontradas em lotes de tamanhos variáveis.
Assim, para lotes de 25 peças, encontrar duas peças defeituosas
já condena a produção. De forma similar, encontrar três ou cinco
peças defeituosas em lotes de tamanho 50 ou 100 respectivamente
também condena a produção. Para lotes de tamanho 200, oito pe-
Distribuições de Probabilidade 89
PERTENCE AO N O DE O I
Pn + M
K
→ Pn +1
onde Pn é a espécie que cresce, M é a unidade fundamental de
formação do aglomerado e K é uma constante de velocidade, que
diz quão rapidamente a transformação pode ocorrer. Nesse caso, a
espécie Pn é formada de acordo com a seguinte equação:
dPn
= KMPn −1 − KMPn
dt
onde o termo diferencial representa o acúmulo da espécie de ta-
manho n, o primeiro termo do lado direito representa a velocidade
com que a espécie de tamanho n é formada a partir da espécie
de tamanho (n - 1) e o segundo termo do lado direito representa
a velocidade com que a espécie de tamanho n é consumida para
formar a espécie de tamanho (n + 1).
Para resolver a equação de balanço formada, é preciso reconhecer
primeiro que a espécie de tamanho 1 não pode ser formada a
partir de nenhuma outra espécie. Nesse caso,
dP1
= − KMP1
dt
Além disso, é preciso fornecer as condições de contorno do proble-
ma (nesse caso, condições iniciais). Normalmente, em problemas
P1 (0 ) = P10 , Pn (0 ) = 0 , n ≥ 2
Para resolver as equações de balanço é conveniente dividi-las
pelo produto (KMP10), de maneira que as equações ficam na forma
mais simples:
P
d n dp
P10 = Pn −1 − Pn ⇒ n = pn −1 − pn , pn (0 ) = 0
dτ
d (KMt ) P10 P10
P
d 1 dp1
P10 = − P1 ⇒ = − p1 , p1 (0 ) = 1
dτ
d (KMt ) P10
onde pn e τ são chamados respectivamente de concentração
adimensional da espécie n e tempo adimensional do processo. A
quantidade pn pode também ser interpretada como uma proba-
bilidade, já que ela representa a fração de aglomerado que tem
comprimento n, dentre todos os aglomerados possíveis formados
no sistema.
As equações podem ser resolvidas recursivamente a partir de n
= 1. Para a primeira equação,
p1 (t ) = exp (−τ )
Substituindo o valor de p1(t) no balanço de p2, chega-se a:
dp2
+ p2 = exp (−τ )
dt
cuja solução é:
p2 (t ) = τ exp (−τ )
Repetindo-se o procedimento para n = 3, 4, ...
Distribuições de Probabilidade 91
PERTENCE AO N O DE O I
τ2 τ3
p3 (t ) = exp (−τ ) p4 (t ) = exp (−τ )
2 3⋅ 2
τ n −1
pn (t ) = exp (−τ )
(n − 1)!
Comparando-se a equação anterior com a Equação (2.14), observa-
se que a solução do problema é a distribuição de Poisson deslocada
uma unidade para frente; ou seja,
pn (t ) = Poisson (n − 1;τ )
O deslocamento é por causa do início da contagem dos tamanhos
(n = 1), maior que o valor inicial válido para a distribuição de Poisson
(n = 0). É muito curioso observar que a curva de distribuição de ta-
manhos dos aglomerados se desloca com valor médio igual ao valor
do tempo adimensional (portanto, cresce sempre), que é o parâmetro
fundamental do processo de crescimento. A Figura 2.7 ilustra a evolu-
ção dos tamanhos dos aglomerados, à medida que o tempo passa.
111:5 . - - - - - - - - - - - - -- ----,
r-• r • Lll
• r - ::m
I
,. 11 .. r ~u
I ~ 110
11
tc.
..
I •'"'
"' ~ I!
~'"""·
.
Qlll
j Ill .:• \
r
~
!;; Dill
oro
. ."'"'
Ill
~' ·,. X
I
~
,•
'•
•..
\.,
D
duas bolas pretas, se as bolas NÃO são devolvidas ao saco? Nesse caso,
embora a probabilidade de se retirar a primeira bola preta seja de 50%
(5 possibilidades dentre 10), a probabilidade de se retirar a segunda bola
preta cai para 44.44% (4 possibilidades dentre 9). Portanto, a probabili-
dade de serem retiradas duas bolas pretas em seguida é:
5 4 2 5 5
PPP = ⋅ = = 22.22% ≠ ⋅ = 25%
10 9 9 10 10
Vê-se, portanto, que toda vez que o procedimento de amostragem
ou realização do experimento modifica a natureza das populações ava-
liadas, esse efeito deve ser levado em consideração. (É por esse motivo
que as amostras devem ser tão pequenas e representativas da população
investigada quanto possível, quando o material amostrado modifica a
população investigada. É também por esse motivo que medidas expe-
rimentais não intrusivas e não destrutivas são preferíveis no ambiente
de laboratório.)
No caso mais geral, seja N o tamanho da população, m o tamanho da
amostra ou número de experimentos realizados, n o número de suces-
sos observado e p a probabilidade inicial de sucesso. Como no caso da
distribuição Binomial, a probabilidade de se obter n sucessos seguidos
pode ser dado na forma
PA1 = P (S )1 ...P (S )n P (I )n +1 ...P (I )n + ( m − n )
pN pN − 1 pN − (n − 1) (1 − p ) N (1 − p ) N − 1 (1 − p ) N − (m − n )
PA1 = ... ...
N N −1 N − (n − 1) N − n N − (n + 1) N − (n + (m − n ))
(2.16)
Repare que se a posição dos sucessos e insucessos for modificada na
Equação (2.16), a equação não muda, indicando que qualquer arranjo
que contenha o mesmo número de sucessos tem a mesma probabilidade
de ocorrer. Como o número de diferentes arranjos pode ser dado pela
Equação (2.4), a probabilidade de n sucessos ocorrerem pode ser dada
pelo produto da Equação (2.16) – probabilidade de um arranjo qualquer
de tamanho m que contém n sucessos – pela Equação (2.4) – número
de arranjos de tamanho m que contêm n sucessos. Fazendo-se essa
operação, chega-se a:
Distribuições de Probabilidade 93
PERTENCE AO N O DE O I
Np N − Np
n m − n
Hiper (n; N , m, p ) = (2.17)
N
m
que é a curva de distribuição Hipergeométrica.
A distribuição Hipergeométrica é uma distribuição discreta univa-
riada e triparamétrica, pois descreve a variação de probabilidades de
uma única variável discreta, n, e depende de três parâmetros: N, que
caracteriza o tamanho do sistema investigado; m, que caracteriza o
tamanho da amostra; e p, que caracteriza o estado inicial da população.
Isso significa que três momentos da curva de distribuição podem ser
fixados independentemente pelo usuário, ficando os demais automati-
camente definidos pela forma da curva da Equação (2.17). Além disso,
não é difícil mostrar que:
(2.18)
e:
U..l
-\ :!II
• -·~ ~ -Ill
il ~'
....
I
:r.:
"C
d
:=; ..
~a.
1
!U
U.l
/•.. '
•
)I ~ .. !i r.
a
II , I ll
J\'u1noeru d~ buln~> ~n-e~m1 -1r
Distribuições de Probabilidade 95
PERTENCE AO N O DE O I
11x == a+ b (2.21)
2
e:
.: _ (b - a)~ ~ (2.22)
Gx - -'--
12
Embora a distribuição Uniforme seja bastante simples, ela aparece
em uma variedade de problemas práticos, como por exemplo no arredon-
damento de erros. Seja a i-ésima casa decimal de um número real, que
se deseja arredondar. Se a (i + 1)-ésima casa decimal é inferior a cinco, a
i-ésima casa é mantida constante e as casas decimais menos significativas
são descartadas. Se a (i + 1)-ésima casa decimal é igual ou superior a
cinco, a i-ésima casa é incrementada de uma unidade, enquanto as casas
decimais menos significativas são descartadas. Por exemplo, 1.53453876
1.5 , 1.53453876 1.53 , 1.53453876 1.535
Unif(x; a,b)
I
b -a
a b X
Distribuições de Probabilidade 97
PERTENCE AO N O DE O I
MM ⋅ 600 + SS ⋅10 + D
HH : MM : SS .D → N2 = N3 = X 0 N3
36000
então é possível gerar números distribuídos no intervalo (0,1) de
maneira praticamente uniforme. (Na expressão acima, HH, MM, SS e
D representam respectivamente a hora, os minutos, os segundos e
os décimos de segundo. A transformação acima pode ser considerada
aleatória na suposição de que a operação pode ser realizada a qualquer
momento do dia, sem horário marcado. Não é conveniente introduzir
a hora HH na operação porque em geral o trabalho é realizado no
horário comercial, o que acabaria por introduzir significativo grau de
determinismo na operação. N3 é um número de referência, do qual o
número N2 < N3 pode ser considerado uma fração X0. No caso consi-
derado, N3 deveria ser o número 36000, que é o número de décimos
de segundo contidos em uma hora.) A operação entre parênteses
gera um número inicial no intervalo (0,1) chamado de semente. A
operação de truncamento pode ser então repetida de maneira iterati-
va, usando o resultado da iteração prévia como semente da próxima
iteração, na forma:
N3 N
X k +1 = X k − Trunc X k 3 = ( X k N 3 )mod (N 2 ) (2.23)
N2 N2
O significado da Equação (2.23) é semelhante à operação de divisão
executada anteriormente com o número 7. O primeiro termo consiste
em gerar um número maior do que 1 com um certo número de casas
decimais, enquanto o segundo termo consiste em gerar o mesmo
número sem casas decimais. Dessa forma, o número resultante da
operação é um número entre 0 e 1, com parte inteira nula e número
arbitrário de casas decimais. Na Equação (2.23) Trunc representa a
operação de abandonar a parte não inteira do número resultante,
enquanto mod representa manter apenas a parte decimal da divisão
entre dois números. A seqüência de números gerada, então, não é
verdadeiramente aleatória, pois a repetição da semente inicial resul-
tará sempre na mesma seqüência de números. É a geração aleatória
da semente que garante de fato um certo grau de aleatoriedade da
seqüência de números. Por isso, a seqüência obtida é dita pseudo-
aleatória e é, para todos os fins práticos, uma seqüência de números
aleatórios excelente para simulação. Os exemplos abaixo ilustram
esses conceitos.
X k +1 = 3 X k − Trunc (3 X k )
-
J$(1
JOti
e.
~ ::!~
~
'i :oo
~
(0;, 15(1
nt41
iW
Distribuições de Probabilidade 99
PERTENCE AO N O DE O I
•••
•••
• •••
"' •••
0..1
--
,.
2
0. ySO
2y' , OSySO.S
o.s+(4y- 2)- (2/ - o.s), O.SSySI
I. y;:: I
0, xi ≤ 0
r-
xi ,
2
0 ≤ xi ≤ 0.5
r=
yi =
1 − 1 −
(xi + 1) , 0.5 ≤ xi ≤ 1
2
1, xi ≥ 1
....
!tiCJ
""'
~• ~ oJ a• •·• u a7 u •• 1.0
Lnrtn-alos
...
'-"
'<•
""s• ·~
•
>• •••
•••
•.• '-"-----"-''--==------=--''--'--"-'
(I -100 8(10 1200 1600 1{10() 2400 1800 JZOO J600
~(I OU"I'O da lf('J'a("i\0 - k
1.0
...
,. •••
"' ...
0.2
0.0
••• u 0.4
x,
••• ••• 1.0
N
d dp
0 = − N
N , ⇒ = − p , p (0 ) = 1 (2.27)
dτ
d (Kt ) N
0
cuja solução é:
, (2.29)
(2.30)
d ln (℘) ∞
= − K (t ) , ∫℘(t )dt = 1 (2.31)
dt 0
onde K(t) é uma constante de velocidade que pode variar com o tempo,
ao invés de admitir sempre o mesmo valor, como considerado anterior-
mente. Para que se compreenda como essa variação pode ser importante
em certos problemas, as estatísticas médicas comprovam que o índice de
mortalidade infantil diminui consideravelmente, à medida que a idade da
criança aumenta. Logo, a constante de velocidade K(t) é alta para idades
pequenas e cai continuamente, à medida que a criança vai ficando mais
velha. O mesmo fenômeno ocorre com máquinas e equipamentos. À
medida que o tempo passa, para valores de tempo pequenos, os riscos
de falha diminuem progressivamente, até que um valor mínimo é atin-
gido. A partir de certa idade, o risco de falha dos equipamentos começa
a aumentar progressivamente, em função do envelhecimento de peças e
demais componentes. Há, portanto, incentivos para se analisar o compor-
tamento de distribuições de tempo de vida obtidas a partir da Equação
(2.31), para diferentes formas da constante de velocidade K(t).
Antes de analisar essa família de funções, é conveniente introduzir
um linguajar característico da área de análise de riscos. Chamemos
inicialmente de S(t) à probabilidade de que o indivíduo sobreviva ao
tempo t1. Nesse caso:
(2.36)
) (2.37)
exp (β t ) − 1
S (t ) = exp − exp (α ) (2.39)
β
exp (β t ) − 1
℘(t ) = Gomp (t ; α , β ) = exp (α + β t )exp exp (α )
β
(2.40)
A distribuição de Gompertz é um modelo bi-paramétrico muito usado
para descrever a taxa de mortalidade da população adulta. Observe que o
risco aumenta exponencialmente com o aumento da idade do indivíduo.
A restrição imposta sobre β é necessária para garantir a existência da
integral da função de densidade de probabilidades.
t β +1
S (t ) = exp −α (2.42)
β + 1
t β +1
℘(t ) = Weibull (t ; α , β ) = α t exp −α β
(2.43)
β + 1
A distribuição de Weibull é um modelo bi-paramétrico muito usado
para descrever o tempo de vida útil de equipamentos, peças e compo-
nentes eletrônicos. Observe que o risco aumenta como uma potência do
tempo de vida do indivíduo. As restrições impostas sobre α e β são neces-
sárias para garantir a existência da integral da função de densidade de
probabilidades. Para a distribuição de Weibull é possível mostrar que:
1
−
α β +1 1
µT = Γ + 1 (2.44)
β +1 β +1
2
−
α β +1 2 2 1
σ T2 = Γ
+ 1 − Γ + 1 (2.45)
β +1 β + 1 β + 1
onde Γ(x) é a função gama, definida como:
∞
Γ (x ) = ∫ z x −1e − z dz (2.46)
0
CJi,:;;: (a+I)
{3~ (2.51)
= K p Pn −1 − (K p + K t )Pn , Pn (0 ) = 0 , n > 1
dPn
dt
= F − (K p + K t )P1 , P1 (0 ) = 0
dP1
dt
onde Kp e Kt são respectivamente as constantes de velocidade para
o crescimento e desaparecimento da espécie em crescimento Pn.
F é uma fonte de espécies de tamanho mínimo. Como nos casos
anteriores, é conveniente dividir as equações de balanço pela
constante global de velocidade (Kp+Kt) na forma:
dPn
= qPn −1 − Pn , Pn (0 ) = 0 , n > 1
dτ
dP1
= f − P1 , P1 (0 ) = 0
ô
d
onde τ = (Kp+Kt)t é o tempo adimensional, q = Kp/(Kp+Kt) é a
probabilidade de crescimento e f = F/(Kp+Kt) é a fonte adimen-
sional. A solução do problema fica então na forma:
n −1 τ i e −τ
Pn = q n −1
f 1 − ∑
i = 0 i !
Quando o tempo é muito grande, o termo exponencial faz com
que a parte dinâmica da solução vá a zero, resultando na seguinte
solução estacionária:
Pn = q n −1 f
Para que essa solução possa ser interpretada como uma proba-
bilidade, é necessário que a soma de todos os valores possíveis
seja igual a 1. Nesse caso,
∞ ∞
1
∑ Pn = f ∑ q n−1 = f
n =1 n =1 (1 − q )
Portanto, definindo:
Pn
pn = = (1 − q )q n −1
f
(1 − q )
que é a chamada distribuição de Flory, análoga discreta da curva
exponencial, pois:
1− q 1
pn = (1 − q )exp {(n − 1)ln (q )}= exp − ln n
q q
que pode ser comparada à Equação (2.29). Portanto, a curva expo-
nencial discreta aparece como solução estacionária dos problemas
de crescimento de espécies, quando a espécie mínima é gerada
continuamente e quando há desaparecimento simultâneo das
espécies em crescimento no meio.
d ln (℘) t
=−
dt α
(2.52)
t2
℘(t ) = C (α )exp −
2α
onde C(α) é uma constante de integração que garante que a integração
da curva de densidade sobre o domínio de t é igual a 1. A Equação (2.52)
é a chamada distribuição Gaussiana ou distribuição Normal. Na forma
apresentada na Equação (2.52), a curva de distribuição Normal pode ser
interpretada como uma distribuição de tempos de vida em que a proba-
bilidade de falhas aumenta linearmente com o aumento da vida útil do
material. O parâmetro α controla a intensidade dessa variação.
Na realidade, a curva de distribuição Normal ou Gaussiana apresenta
utilidade muito maior que a sugerida somente pela interpretação da dis-
tribuição de tempos de vida. Em primeiro lugar, a curva normal pode ser
estendida e utilizada para todo o domínio real da variável contínua t, já
que ela é simétrica em relação ao eixo ℘(t). Logo, ela pode ser associada
a um número muito maior de problemas físicos de interesse prático,
onde a variável aleatória pode assumir valores positivos ou negativos.
Em segundo lugar, a variável t pode ser escalada convenientemente na
forma:
1 1 t − µ 2
℘(t ) = Normal (t ; µT , σ T ) = exp − T
σT 2π 2 σT
,
−∞ < t < ∞ (2.53)
ganhando a forma de uma distribuição contínua univariada bi-paramé-
trica. (O escalonamento realizado consiste em fazer com que o ponto de
máximo da curva normal coincida com o valor médio.) A forma bi-para-
métrica é extremamente prática porque os parâmetros da curva normal
coincidem com os valores da média e do desvio padrão (ou variância)
usados anteriormente para caracterizar o posicionamento e o grau de
espalhamento da distribuição de probabilidades. Dessa forma, apenas a
caracterização da média e da variância da distribuição é suficiente para
a utilização direta da curva de distribuição Normal. Como nos demais
casos, fixadas a média e a variância (ou desvio padrão), os demais mo-
Teorema do Limite Central – Sejam x1, x2, x3, ..., xN, números ge-
rados por distribuições de probabilidades quaisquer, com médias
µXi e variância σ2Xi. Seja ainda a soma SN definida como:
N
S N = ∑ xi
i =1
O Teorema do Limite Central, que não será provado aqui por falta de
espaço, diz que, independentemente das distribuições de probabilidades
que deram origem às flutuações aleatórias fundamentais, resultados
obtidos da soma de muitos eventos aleatórios apresentam distribuição
aproximadamente normal. Isso significa que eventos complexos, gerados
a partir da soma de pequenas flutuações aleatórias, apresentam distri-
buição de probabilidades próxima da normal. Talvez seja essa a razão
principal que faz com que a distribuição Normal encontre uso generali-
zado como modelo probabilístico da distribuição de erros de medida.
A despeito da força do Teorema do Limite Central, deve-se evitar a
falsa impressão de que toda distribuição de erros ou de que toda distribui-
ção de probabilidades contínua é normal. Tal associação é absolutamente
equivocada e poucos exemplos bastam para mostrar que a curva normal
não é uma panacéia para todos os problemas e aplicações. Por exemplo,
a distribuição Normal apresenta um grande defeito para sua utilização
em grande número de problemas, que é o fato das flutuações aleatórias
ocorrerem no intervalo (-∞,+∞). Obviamente algumas variáveis não
podem ser infinitamente grandes e outras não podem jamais assumir
valores negativos. Por exemplo, se a variável estudada for a altura de
pessoas numa população, não parece razoável acreditar que seja possível
encontrar pessoas com mais de três metros de altura, por menor que
essa probabilidade seja. Da mesma forma, não parece razoável acreditar
que seja possível encontrar pessoas com altura negativa, por menor que
seja essa probabilidade. Por isso, o modelo de distribuição Normal de
probabilidades deve ser encarado como um modelo conveniente para
uso, por todas as razões descritas anteriormente. Isso não significa que
a distribuição real de probabilidades de qualquer problema físico possa
ou deva ser descrita necessariamente pela curva normal, como algumas
pessoas teimam em pensar e afirmar.
I~ !(~-pzf
Jl - t=l • Q'~ = _.1=("'------
,.z- 3600 3600
Os resultados estão apresentados na Figura 2.16 abaixo.
--
}:
•
-- •
1
jJ(.r) = LogNonn {x:a, IJ) = --;.-
tJ .J2Tr
e:~Cp(-.!.('"
2
(.r)-a )
tJ
(2.54)
onde:
J1.1 =exp a +
{f)
( 2 (2.55)
J
IJ, = xA!J(x)dx
X
(2.60)
2 2 2
Xi p.l O"n 0"12 aiNX
2 2 2
x2 lh 0"21 0"22 a2NX
X= ,p= , Vx = (2.62)
2 2 2
XNX p.NX O"NXI aNX2 aNXNX
onde x é o vetor de variáveis aleatórias, µ é o vetor de médias e VX é a ma-
triz de covariâncias. Se a matriz de covariâncias é diagonal na forma:
2
au 0 ... 0
0 2
0"22 ... 0
Vx= (2.63)
2
0 0 aNXNX
as variáveis flutuam de forma independente umas das outras e o sistema
é formado por variáveis independentes. Caso contrário, as flutuações
experimentadas por algumas variáveis influenciam as flutuações das
demais. A extensão das Equações (2.58-2.63) para sistemas discretos é
imediata, bastando para isso substituir os termos integrais por somas
sobre o domínio discreto.
(2.64)
Propriedade 2.2 – A matriz de covariâncias VX é positiva definida.
A Propriedade 2.2 é também muito importante para aplicações práticas,
como discutido ao longo dos próximos capítulos. Para que se compreenda
essa propriedade, é interessante observar o comportamento do sistema
bi-dimensional na forma:
σ 12 σ 122 x1
x VX x = [x1 x2 ] 2
T
2 =
σ
21 σ x
2 2 (2.65)
σ 12 x12 + σ 122 x1 x2 + σ 21
2
x1 x2 + σ 22 x22
(σ Ix I− σ Ix I) ≤ xT VX x ≤ (σ 1 Ix1 I+ σ 2 Ix2 I)
2 2
1 1 2 2
(2.69)
o que mostra que o produto vetorial definido na Equação (2.65) resulta
sempre em um número positivo, sendo identicamente nulo no caso em
que x é o vetor nulo. Esse resultado pode ser estendido de forma abso-
lutamente análoga para sistemas de dimensões maiores do que 2. Por
isso, a matriz de covariâncias VX é positiva definida e
xT VX x ≥ 0, ∀ x ≠ 0 (2.70)
℘(x1 , x2 ) = Ae(− x1 − 2 x2 )
definida nos intervalos 0 ≤ x1 ≤ ∞ e 0 ≤ x2 ≤ ∞, onde A é uma
constante. Para definir o valor de A de forma apropriada, lem-
bremos que:
∞∞
∫ ∫℘(x , x )dx dx
0 0
1 2 2 1 =1
Logo,
∞∞ ∞ ∞
(− x1 − 2 x2 ) (− x1 ) (−2 x2 )
∫ ∫ Ae
0 0
dx2 dx1 = A∫ e
0
∫
0
e dx2 dx1 =
∞ ∞
( − 2 x2 )
(− x1 ) e A e(− x1 )
∞ ∞
A (− x1 ) A
A∫ e dx1 = ∫ e dx1 = = =1
0 −2 0 20 2 −1 0 2
Portanto, A = 2.
Para calcular os valores médios de x1 e x2, faz-se:
∞∞ ∞ ∞
(− x1 − 2 x2 ) (− x1 ) (−2 x2 )
µ1 = ∫ ∫ 2 x1e dx2 dx1 = 2 ∫ x1e ∫e dx2 dx1 =
0 0 0 0
∞ ∞
∞
(− x1 ) e
(−2 x2 ) ∞
(− x1 )
(x1 + 1)e(− x1 )
2 ∫ x1e dx1 = ∫ x1e dx1 = =1
0 −2 0 0 − 1 0
~2
0 0 0 0
( I)
∞
∞ x + 1 e(−2 x2 ) ∞
(− x1 ) ∞
1 1 e 1
2 ∫ e(− x1 ) 2 dx = (− x1 )
2
2 ∫0
e dx = =
−2 1 1
2 −1 0 2
0
0
u~ = JJ2 (~ -1 Ye(-x., - 2
2 ~ =2J(x1 -1 Ye(-x.,) Je(- Xz) dx2 ~ =
Xz) dx
2
0 0 0 0
∞
∞
2 (− x1 ) e
2 ∫ (x1 − 1) e
(−2 x2 ) ∞
∞ x12 + 1 e(− x1 ) ( )
dx1 = ∫ (x1 − 1) e dx1 =
2 (− x1 )
=1
0 −2 0 0 −1
0
∞∞ 2 ∞ ∞ 2
1 1
σ = ∫ ∫ 2 x 2 − e(− x1 − 2 x2 )dx2 dx1 = 2 ∫ e(− x1 ) ∫ x 2 − e(−2 x2 )dx2 dx1 =
2
2
0 0
2 0 0
2
( I)
∞
∞ x 2 + 1 e(−2 x2 ) ∞
(− x1 ) ∞
1 1 e 1
2 ∫ e( 1 ) 4 dx = e( 1 )dx1 =
2
∫
− −
x x
=
−2 1
40 4 −1 0 4
0
0
∞∞
1
σ = ∫ ∫ 2 (x1 − 1) x2 − e(− x1 − 2 x2 )dx2 dx1 =
2
12
0 0 2
∞ ∞
1 (−2 x2 )
2 ∫ (x1 − 1)e (− x1 )
∫0 2 2 e dx2 dx1 =
x −
0
∞
∞
x2 e(−2 x2 )
2 ∫ (x1 − 1)e (− x1 )
dx1 = 0
0 − 2 0
p- -[l],v.-[1
o.s OJ :r.- 0 0.25
m = n1 + n2 e p1 + p2 = 1
Portanto,
m!
p1n1 (1 − p1 ) 1
m−n
Multinom(n1 , n2 ; m, p1 , p2 ) =
n1 !(m − n1 )!
(2.72)
Propriedade 2.3 – A curva normal multidimensional tem o compor-
tamento normal ao longo de qualquer direção do espaço.
Para provar a Propriedade 2.3, é conveniente admitir que:
x = tz − z 0 (2.73)
(2.74)
A Equação (2.74) pode ser rescrita como α2 (t – β)2 + γ , onde:
α 2 = z T VX-1 z (2.75)
0·~
~ ..
•. !
""='
...~
~~
oJ.
~
i)-1
...
...
!1.1!6
iJ'.U!i
I}.!J.I
....
i l.tJI.lo
11\l_ll:
!),Ill
ll,lltl [
. ;a: ·I II ~
2.11. Conclusões
Foram apresentados no Capítulo 2 vários modelos probabilísticos dis-
tintos, que serão utilizados nos capítulos seguintes deste volume e nos
volumes seguintes desta série de publicações para resolver problemas
práticos de análise. Cada um dos modelos apresentados admite certas
hipóteses idealizadas sobre o sistema considerado. Essas hipóteses
fundamentais não devem ser desprezadas durante a análise dos dados.
Finalmente, os conceitos associados a distribuições de uma única variável
foram estendidos para várias variáveis aleatórias, sujeitas a flutuações
conjuntas.
O Problema Amostral:
3 Inferências e
Comparações
jJ(x)
,<m,.!:l!
2
·'
Figura 3.1 - Ilustração gráfica do conceito de intervalo de confiança.
(3.1)
( ) = "'J. p ()
P.c x,
1- p l+ p
x dr =l - - - = - - (3.2)
$
- . 2 2
t
exp −
℘1 (t ) = 10
10
onde t é dado em horas. No segundo caso, sabe-se que a distribui-
ção de tempo de vida segue uma curva gama, na forma:
220 19 −2t
℘2 (t ) = t e
Γ (20 )
<
ll N '
J"'\
I \
...
l
J \
tfl.DI'i I J \
s \
""s::: \
0 u.o~ ·
~
ltD:! •
til. I)
0 10 l (J JO -10 .5(Ji
t
Figura 3.2 - Comparação entre as duas distribuições de tempo
de vida dos catalisadores.
xi +1 + xi x = x + i − 1 ∆x
xi = i mín ( )
2 ,
x2
NR
I= ∫ F (x ) dx ≈ ∑ F (x )∆x
i =1
i
NR =
x2 − x1
x1 ∆x
que consiste fundamentalmente em aproximar a integral pela
soma das áreas dos retângulos que têm base igual a ∆x (precisão
da integração) e altura igual ao valor da função no ponto médio
do intervalo ∆x considerado. Portanto, o cálculo das integrais ne-
cessárias para a análise dos dados não deve ser considerada uma
dificuldade intransponível. Muito pelo contrário, essas integrais
podem ser calculadas até com certa facilidade.
Por exemplo, seja a curva exponencial do Exemplo 3.1, dada por:
t
exp −
℘(t ) = 10
10
cujo valor médio é conhecido e igual a 10. Numericamente, o
valor médio pode ser obtido na forma:
ti +1 + ti ti = 0 + (i − 1)∆t 100 − 0
ti = NR =
2 , ∆t
A Tabela 3.1 ilustra a qualidade dos resultados obtidos para dife-
rentes valores de ∆t. Observe que a convergência dos resultados é
bastante rápida, à medida que a precisão da integração aumenta
(∆t diminui). Um resíduo final é observado porque a integral é
Para ler a Tabela A.1, considere a linha 1.0 e a coluna 0.05, onde
se encontra o número 0.8531. Nesse caso,
p..1(' ( 1.05) = 0.8531
l'.c ( -1.05) = 1-0.8531 = 0. 1469
~'Ill .."
",., f.;j
~
...I ..~
~ .. 8
tllti
t::r 0
t:
~
"'·"'' • :'o!L'IT~"III.:' I • N· , 0
0 ..! - N=J,,
~i.."llli."II L~
4), :
• So.."111.:11k I - N- U
a Sanml~ ~ - N- 41)
...• (1.7)
Jlx T
= xao(x)dr
•,...
(1.71)
N
1
∑N
xi
X = ∑ pi xi = ∑ xi = i = 1
(3.3)
i =1 i =1 N N
(3.4)
,.
.L.x, '
~ -Jl = E '-''""-'- - , - - =
N X N
,,, ,. N cr.
' u ,:;.
"'"' a· - "'a· --
1 '' ' _ . ,
N : L...JL x1 .)'1
, ...) Jool
-
J ',.
;{ :t ~ x,
, .,
N ];~ - ·
-N
(3.5)
A Propriedade 3.2 – Equação (3.5) – é extremamente importante
porque ela mostra de forma inequívoca que a variância da média amos-
tral é inversamente proporcional ao tamanho da amostra considerada.
Logo, quanto maior o tamanho N da amostra a partir da qual foi obtido
o valor da média amostral, menor o nível de incerteza desse valor. As-
sim, a grande utilidade do cálculo do valor amostral médio é a redução
do conteúdo de incerteza sobre o valor da média real µX. (Observe que
o Exemplo 2.13 ilustra bem esse efeito de redução da incerteza com o
aumento de N.) É possível inclusive planejar o tamanho da amostra para
que se tenha um nível especificado de flutuação no valor da média amos-
tral, se uma avaliação da variância experimental de uma única medida é
conhecida. No entanto, o conteúdo de incerteza só vai convergindo para
zero no limite em que N vai ao infinito, o que é impossível do ponto de
vista prático. Dessa forma, sempre haverá algum conteúdo de incerteza
sobre o valor real de µX.
Exemplo 3.7 – Suponha que a cada medida xi, i=1, ..., N, de uma
mesma população é associado o peso wi, i=1, ..., N. Suponha
ainda que:
N N
X = ∑ wi xi 0 < wi < 1 ∑w i =1
i =1 i =1
Nesse caso, a Propriedade 3.1 pode ser escrita na forma:
n
enquanto a Propriedade 3.2 pode ser escrita como:
x..,...
<J_h. =...J(x-J.L.J p(x)dY
_ (1.72)
∑( )
N 2
xi − X (3.6)
1
( ) ( )
N 2 N 2
s = ∑ pi xi − X
2
X = ∑ xi − X = i =1
i =1 i =1 N N
No entanto, antes que a Equação (3.6) seja aceita como medida adequada da
variância amostral (o que de fato ela não é, como será mostrado ao longo
desta seção), é conveniente observar o Exemplo 3.8.
variável aleatória que flutua em torno de certo valor médio e com certa
variância, que devem a princípio ser caracterizados, assim como a dis-
tribuição de probabilidades que descreve as flutuações de s2X. Como no
caso da média amostral, não devemos ter esperanças de obter o valor
real da variância σ2X, a não ser que tenhamos a distribuição real de pro-
babilidades do problema, o que de maneira geral não é possível, como já
discutido. Dessa forma, se tivermos que obter informações sobre o pro-
blema a partir da experimentação (amostrando), nunca saberemos qual
é o valor verdadeiro da variância σ2X. No entanto, como no caso anterior
e mostrado a seguir, é possível escrever um conjunto de propriedades
bastante úteis para a variância amostral.
∑ (x − X )
N 2
i
(3.7)
s =
2 i =1
N −1
X
~ - ..
f, (x,- X)' f (x,-f x, J' f (Nx,-f x,)'
_ ,., J•l N _ ,., ,., -
Sx - N - N - N' -
N'
N
l; (x, -J•,)'
.~=-
• "'":..!.'----,,---
N
(3.8)
Agora, o valor médio da Equação (3.8) pode ser calculado como:
(3.9)
Repare que a Equação (3.9) mostra que, na média, a Equação (3.6) leva
um valor de variância amostral menor que o valor da variância real do
problema. Esse é um defeito inaceitável do procedimento de inferência
do valor real da variância. Para corrigir o resultado, no entanto, o proce-
dimento a seguir é muito fácil: basta multiplicarmos o resultado obtido
por N e dividirmos o resultado por (N-1), o que resulta na Equação (3.7)
e na Propriedade 3.3. Diz-se, portanto, que a variância amostral defini-
da na Equação (3.7) é uma avaliação consistente da variância real do
problema. Deve ficar bem claro que a necessidade de apresentar o valor
(N-1) no denominador da Equação (3.7) nada tem de arbitrário – muito
pelo contrário. É exatamente essa correção que permite obter, na mé-
dia, uma inferência consistente da variância real do problema a partir
dos dados amostrados. O valor (N-1) é chamado de número de graus
de liberdade do problema, representado usualmente por ν. Como no
caso da média amostral, o fato da Equação (3.7) fornecer uma medida
consistente da variância não significa que a variância amostral obtida
em um problema particular é igual à variância verdadeira e desconhe-
cida do problema. Para que isso fosse verdade, seria necessário obter a
média a partir de infinitas repetições do problema físico investigado,
o que não é possível. Portanto, nunca saberemos de fato qual é o valor
real da variância do problema a partir de dados amostrados. No entanto,
a Equação (3.9) oferece ao menos o consolo de que o valor obtido para
(3.10)
(3.11)
a covariância amostral,
∑ (x − X )(y − Y )
N
i i
(3.13)
s 2
= i =1
N −1
XY
e:
s.rr' =
N' (N- 1)
N'(N-1)
.... ...
N:LO'~r
~
NLo:i 1
,
N'(N- 1)- N'(N- I)= <T;,.
(3.16)
cuja derivação gera a curva de densidade de probabilidades ℘f de
f(x1, ..., xN).
Para ilustrar de forma mais clara o uso das Equações (3.15-16),
suponha que se deseja conhecer a função densidade de probabilida-
des da média entre dois pontos, obtidos segundo uma distribuição de
probabilidades arbitrária ℘(x). Nesse caso, deseja-se conhecer a função
distribuição de probabilidades da seguinte transformação:
x1 + x2
f (x1 , x2 ) = X =
2
que resulta na transformação inversa:
( )
g x1 , X = x2 = 2 X − x1
se X < 0.5
2:f- 1 I
se X > 0.5
= f dr,+ j [zx - x,]dr,=4X - 2X - I
2
D 2,\'ooJ
e portanto:
( )
℘ X = 4X se X < 0.5
x1 − 2 s X2 < x2 < x1 + 2 s X2
Dessa forma, a Equação (3.16) pode ser escrita como:
s X2 < 0.5
,
Como no problema anterior, é necessário garantir que:
' ,,
,
s X2 < 0.125
t-J2s~- ·' i + g /, 2
~-r
~4C (s.~. ) = I
0
I
0
dx2 d'(l +
1-..P•x 2 [[ dxz]dx,
I I
+ I
J:z~J
I dx, d'(,
-
"1-J2.Jr
0.125 < s X2 < 0.5
resultando em:
1
℘ s ( )2
X = 2
2s 2
− 1
X , 0 < s X2 < 0.5
que mostra que as variâncias amostrais pequenas são mais pro-
vavelmente obtidas que as variâncias amostrais grandes. A curva
de densidade é inclusive singular no ponto s2X = 0.
...
encontram-se 95% dos valores obtidos.
·- ,. .,...
..
•• ••
--·
•• '"
~
'"
·--•• •• ••
!
·-
t.~
_,..,../--
r- ,. ,. ,.
}·... - _,£/_ _ _ __
,_(. ~ , __ ·-
....... .. ...... ·-
'"!!' .....
Figura 3.5 - Limites de confiança da média e variância amostrais obtidos ·--'J!' ... ..
numericamente.
!~
..
lUI
I
a.:
-~-
... ...
Figura 3.6 - Probabilidades acumuladas das médias e variâncias
amostrais em toda a faixa de valores admissíveis.
N
está distribuída na forma:
ν +1
Γ
ν +1
2 − 2
℘(t ) = Stud (t ;ν ) =
1 2 1 + t
(3.18)
πν Γ ν ν
2
onde ν é o número de graus de liberdade e Γ representa a função gama,
definida pela Equação (2.46). A forma da distribuição t de Student (publi-
cada originalmente por W.S. Gosset, sob o codinome de Student, donde
vem o nome normalmente usado para referenciar essa importante
distribuição estatística) está mostrada na Figura 3.7, enquanto valores
para as probabilidades acumuladas são apresentados na Tabela A.2 do
Apêndice.
•"' ll
lJ
Figura 3.7 - Ilustração da distribuição t.
e:
0.443 < Jlx < 0.457
Portanto, embora não seja possível dizer qual é o valor verda-
deiro da média, é possível definir o intervalo onde ela deve ser
encontrada, com um certo grau de confiança, desde que os dados
medidos estejam sujeitos a flutuações normais. Para os níveis de
confiança de 98% e 99%, os resultados obtidos são respectiva-
mente iguais a:
e:
Deve ficar bem claro que o Exemplo 3.12 acima admite implicitamente
que a medida experimental está distribuída de forma normal e que todas
as medidas de fato representam o mesmo fenômeno. Só assim é possível
usar a distribuição t de Student. Caso a distribuição da medida amostrada
∑ xi ∑ (xi − 0.466 )
2
X= i =1
= 0.466 s X2 = i =1
= 0.175
5 4
s X = s X2 = 0.418
Se a região de confiança da média é calculada como no Exemplo
3.12, para um grau de confiança de 99%:
2
N x −X
χ2 = ∑ i (3.19)
i =1 σ X
( ) ( ) 1
( )
− 1 2
2 2
℘ χ 2 = Chi χ 2 ;ν = χ e
ν ν
(3.20)
2I 2 Γ
2
apresentando:
{ }
Ε χ 2 =ν (3.21)
Var {χ }= 2ν2
(3.22)
( )
N 2
xi − X (N − 1) ∑
2 xi − X
N
s X2
χ = ∑
2
=
i =1
= (N − 1) 2 (3.23)
i =1 σ X σX
2
(N -1) σX
Além disso, somas normalizadas como a apresentada na Equação
(3.19) aparecem com muita freqüência em problemas práticos, como
serão mostrados nos próximos capítulos.
∑x ∑ (x − 0.450 )
2
i i
X= i =1
= 0.450 s X2 = i =1
= 93.2 ⋅10−6
10 9
s X = s X2 = 9.65 ⋅10−3
Sabemos, no entanto, que não devemos confundir a média e a
variância amostrais com a média e a variância verdadeiras da
distribuição. Para construir o intervalo de confiança da variância
real a partir dos valores amostrais, podemos contar com o auxílio
da distribuição χ .
2
,
Esses valores podem ser obtidos da integração da Equação (3.20)
e estão mostrados na Tabela A.3. Na linha referente a 9 graus de
liberdade e na coluna referente a uma probabilidade acumulada
de 0.025 encontra-se o valor χ1 = 2.700. Na linha referente a 9
2
s X2
χ = 2.700 < χ = (N − 1) 2 < 19.023 = χ 22
2 2
σX
1
ou
s X2 s X2
(N -1) 2 < σ X < (N -1) 2
2
χ2 χ1
e:
93.2 ⋅10-6 93.2 ⋅10-6
9 <σX < 9
2
19.023 2.700
e:
44.1 ⋅10-6 < σ X2 < 311.7 ⋅10-6
De forma similar, para graus de confiança de 98% e 99%, os re-
sultados obtidos são respectivamente iguais a:
,
s X2
χ = 2.088 < χ = (N − 1) 2 < 21.666 = χ 22
2 2
σX
1
s X2 s X2
(N -1) 2 < σ X < (N -1) 2
2
χ2 χ1
93.2 ⋅10-6 93.2 ⋅10-6
9 <σX < 9
2
21.666 2.088
38.7 ⋅10-6 < σ X2 < 401.7 ⋅10-6
e:
,
s X2
χ = 1.735 < χ = (N − 1) 2 < 23.589 = χ 22
2 2
σX
1
s X2 s X2
(N -1) 2 < σ X < (N -1) 2
2
χ2 χ1
23.589 1.735
35.6 ⋅10-6 < σ X2 < 483.5 ⋅10-6
Vê-se, portanto, que as incertezas existentes durante a obtenção
do valor real da variância podem ser muito grandes, quando N
é pequeno.
Deve ficar bem claro que o Exemplo 3.15 anteriormente admite implici-
tamente que a medida experimental está distribuída de forma normal e que
todas as medidas de fato representam o mesmo fenômeno. Só assim é possí-
vel usar a distribuição χ . Caso a distribuição da medida amostrada original
2
diz quantas vezes maior a variância real pode ser, quando com-
parada à variância amostral. Por isso, esse número é apresentado
abaixo para alguns valores típicos.
Tabela 3.8 - Fatores que dizem quantas vezes maior que a variância
amostral a variância real pode ser.
% N=1 2 3 5 10 20 30 40 50 100
95 ∞ 1018 39.5 8.26 3.33 2.13 1.81 1.65 1.55 1.35
98 ∞ 6366 99.5 13.5 4.31 2.49 2.03 1.82 1.69 1.43
99 ∞ 25460 199.5 19.3 5.19 2.78 2.21 1.95 1.80 1.49
Observe na Tabela 3.8 que com cinco réplicas é possível apenas ga-
rantir a ordem de grandeza da variância verdadeira. Para garantir
o primeiro algarismo significativo (incertezas inferiores a 100%
do valor medido) da variância verdadeira são necessárias entre 20
e 30 réplicas! Quando o número de réplicas chega a 100, as incer-
tezas são da ordem ainda de 35 a 50% do valor medido! Para que
a incerteza seja inferior a 10% do valor medido são necessárias
900 (95%), 1250 (98%) ou 1500 (99%) réplicas, o que é inaceitável
do ponto de vista do trabalho científico experimental. Por isso,
teremos sempre que conviver com incertezas muito grandes em
relação aos reais valores da variância experimental.
I σ Y2
está distribuída em conformidade com a seguinte função de densidade
de probabilidades:
ν +ν
ν1
Γ 1 2 ν1 ν 2
ν
−1
I2 I2
ν ν
2
2 F
℘(F ) = F (F ;ν 1 ,ν 2 ) =
ν1 ν1 ν1 +ν 2
1 2
ν 1 F + ν 2 ) 2
(
Γ Γ
2 2
(3.25)
com:
ν2
Ε {F } = (3.26)
ν2 − 2
2ν 22 (ν 1 +ν 2 − 2 )
Var {F }= (3.27)
ν 1 (ν 2 − 4 )(ν 2 − 2 )
2
⇒ (3.28)
- " I C YJ
- Yt ,._ Y J
F
Figura 3.9 – Ilustração da distribuição F.
s X2
F= 2 (3.29)
sY
que é o formato básico de F usado nos exercícios seguintes.
1 s X2
< F = 2 < 10.649
39.248 sY
quando o conjunto x tem três medidas amostrais e o conjunto y tem
cinco medidas amostrais. De forma similar, para 98% de confiança:
1 s X2
< F = 2 < 18.000
99.249 sY
Deve ficar bem claro que o Exemplo 3.17 anterior admite implicita-
mente que as medidas experimentais estão distribuídas de forma normal
e que todas as medidas de fato representam o mesmo fenômeno. Só assim
é possível usar a distribuição F. Caso a distribuição da medida amostrada
original não seja normal ou caso o conjunto de medidas represente coisas
diferentes, a utilização da distribuição F pode não fazer qualquer sentido,
gerando resultados espúrios, como aquele mostrado no Exemplo 3.14.
∑x i ∑x i
X1 = i =1
= 76.56 e X2 = i =1
= 77.23
7 6
∑ (xi − 76.56 )
2
s12 = i =1
= 0.0906 e
6
6
∑ (x − 76.56 )
2
i
s22 = i =1
= 0.5707
5
s12
χ = 1.237 < χ = (N1 − 1) 2 < 14.449 = χ 22
2 2
σ1
1
0.0906 0.0906
6 < σ 12 < 6
14.449 1.237
0.03762 < σ 12 < 0.4394
Os intervalos de confiança da média e variância amostrais do segun-
do conjunto podem ser também obtidos a partir das distribuições t
. 77.23- J1 ,
-2.571 < I = O - < 2.571
755
.J6
0.755 0. 755
77.23-2.571 -,:--- < J1, < 77.23 + 2.571 ~
v6 • ~6
76.44 < J1 2 < 78.03
e para a variância:
,
s22
χ = 0.831 < χ = (N 2 − 1) 2 < 12.833 = χ 22
2 2
σ2
1
0.5707 0.5707
5 < σ 22 < 5
12.833 0.831
I~ (_!_.5 6) =0.975
AC }-'"' ' '
p..fC ( rc·. 6 5} =0.975
'1' '
I
,
1 s12
= 0.1670 < F = 2 < 6.9777
5.9876 s2
O valor de F obtido foi:
s12 0.0906
F= 2 = = 0.1587
s2 0.5707
que não satisfaz a desigualdade anterior. Portanto, no limite de
confiança de 95%, o valor de F obtido experimentalmente pode
ser considerado pouco provável. Logo, é pouco provável que as
variâncias reais dos dois problemas sejam iguais. Portanto, com
95% de confiança, pode-se dizer que o segundo aluno lidou com
mais flutuações experimentais do que o primeiro, indicando
que os experimentos conduzidos pelo primeiro aluno são mais
precisos.
Repare que as conclusões obtidas com os intervalos de confiança
da variância e com o teste F são distintas. Isso não é incomum;
muito pelo contrário. No entanto, o teste F tem capacidade muito
maior de detectar diferenças de variâncias amostrais que os inter-
valos de confiança obtidos com a distribuição χ . Por isso, pode-se
2
Deve ficar bem claro que o Exemplo 3.18 acima admite implicitamente
que as medidas experimentais estão distribuídas de forma normal e que
todas as medidas de fato representam o mesmo fenômeno. Só assim
seria justificável o uso das distribuições t, χ2 e F para a análise. Caso as
medidas amostradas não sejam distribuídas normalmente ou caso os
conjuntos de medidas representem coisas diferentes, a utilização des-
sas distribuições pode não fazer qualquer sentido, gerando resultados
espúrios, como aquele mostrado no Exemplo 3.14.
(3.30)
Condição especial 2 – Seja uma média histórica µX, obtida com número
elevado de graus de liberdade e considerada igual ao valor verdadeiro.
Deseja-se saber se uma nova média amostral X , obtida a partir de um
novo conjunto de dados de tamanho N, é compatível com os dados
passados. Desconhece-se σ X , mas se conhece s X . Admite-se que as
2 2
(3.32)
(3.33)
D = X 1 − X 2 = 1.4
ν 1s12 +ν 2 s22 4 ⋅ 0.452 + 4 ⋅ 0.552
s2
1+ 2 = = = 0.2525
ν 1 +ν 2 4+4
1 1 1 1
sD2 = s12+ 2 + = 0.2525 + = 0.101
N1 N 2 5 5
D
t= = 4.405
sD = 0.3178 sD
Para 8 graus de liberdade e 95% de confiança,
s X2
χ = (N − 1) 2
2
(3.40)
σX
σ X2 σ X2
χ 2
< sX < χ2
2 2
(3.41)
(
1
N − 1) (N − 1)
3.4.3. Testes Adicionais de Aleatoriedade
Condição especial 1 – Seja uma média histórica µX e a respectiva
variância σ2X, obtidas com número elevado de graus de liberdade e
consideradas iguais aos valores verdadeiros. Deseja-se saber se as
flutuações das medidas amostrais em um conjunto de tamanho N
podem ser admitidas normais.
Nesse caso, a variável:
X =L
N (
2
;
X -
Jlx )? -
(3.42)
r=l (JX
40
∑x i
X= i =1
= 0.4884
40
40
∑ (x − 0.4884 )
2
i
sx2 = i =1
= 0.07952
39
s X = s X2 = 0.2820
Deseja-se saber se a curva normal pode representar de forma ade-
quada esse conjunto de dados aleatórios. Para isso, admitindo que
µ X = X , que σ X2 = s X2 e que NI = 40 = 6 , monta-se a seguinte
tabela de distribuição dos dados.
-..='
!!!!
'!!)
lUI
E
~:;,.o
,(,
~
151
~
:s
!Ill
..1:1
;:
=-..
X =3 s X2 = 2.50 s X = 1.5811
X +Y = 6 s X2 +Y = 10.1 s X +Y = 3.1639
X −Y = 0 s X2 −Y = 0.01 s X +Y = 0.1
Fixando-se o limite de confiança em 95%, para quatro graus de
liberdade obtém-se:
1
< F < 9.6045
9.6045
Para os dois casos analisados:
, ,
F= ·'.\· - r= O.OI = 0.002 F= ·'.i:'+l' = 10.0 1 = 2.00
(s} +s~ ) 5.0 l ' (s} + s~) 5.01
Vê-se, portanto, que as diferenças observadas na variação das
diferenças não poderiam ser explicadas por flutuações puramente
aleatórias. Assim, pode-se dizer que a covariância (e o fator de
correlação) entre x e y são significativos com 95% de confiança.
O resultado obtido não deve impressionar demais o leitor, pois
esse problema foi, de certa forma, fácil de resolver. Na maior
parte dos casos, poucos pontos resultam quase sempre em baixa
qualidade de resolução dos termos de correlação.
N- k
L,(x,-Xo)(x,.,.-x.) (3.46)
Cx. -_ -_,_1=~·--------------
N- k- 1
ou na forma:
(3.47)
;.- A
••
n:::
•..... .. .
••" •i!i
U,fl
• •
• _:• •. "'•·., ,
..........
•
•
• • Ill Ill"
_,. •· "'•· •
IIi ••,.•\ ·~ _..IIi
•\.
,_IIi . ••••1
. . ..
•
.•.
..... ..• ..•r.... ~~c I· "• /..,_,..,
0.:!
01 :m fo.O 11)1)
.\mw. tffil!,i'm , i
1.00
11.7S lr
ec"• .
Q
••
._,~,
I
I
n
11.:!~
:! J 4 5 4 1 8 9 ICI II I! JJ I ~ I~ Hi 17 18 19 :!II
lksiCW:aJll('IIIO
1 0.873
<F= = 5.82 < 15.101
9.9792 0.150
Como as médias e variâncias obtidas com e sem o outlier são
estatisticamente semelhantes, não parece razoável descartar o
candidato a outlier do conjunto de pontos.
℘(x1 ; x2 ) = 2e(− x1 − 2 x2 )
Pode-se então construir regiões de confiança com forma quadrada,
com lados de tamanho 2a e centradas ao redor do ponto médio,
na forma:
1+ a 0.5 + a 1+ a 0.5 + a
(− x1 − 2 x2 ) (− x1 )
∫ ∫ 2e dx2 dx1 = 2 ∫ e ∫ e(−2 x2 )dx2 dx1 =
1- a 0.5- a 1- a 0.5- a
1+ a 0.5 + a
e(− x1 ) e(−2 x2 )
2
− 1 1-a −2 0.5-a
cuja confiança depende do valor de a. Como ambas as variáveis
x1 e x2 são estritamente positivas, o maior valor admissível para
a é 0.5 (lados iguais a 1). Portanto, o maior quadrado centrado em
torno da média representa uma confiança de 33.15%.
Alternativamente, pode-se também construir regiões de confiança
com forma retangular, com lados de tamanhos proporcionais a
2:1 e centradas ao redor do ponto médio, na forma:
1+ 2 a 0.5 + a 1+ 2 a 0.5 + a
(− x1 − 2 x2 ) (− x1 )
∫ ∫ 2e dx2 dx1 = 2 ∫ e ∫ e(−2 x2 )dx2 dx1 =
1-2 a 0.5- a 1-2 a 0.5- a
1+ 2 a 0.5 + a
e(− x1 ) e(−2 x2 )
2
− 1 1-2 a −2 0.5-a
De forma análoga, o maior desses retângulos admissível tem
lados iguais a 2 e a 1. Nesse caso, o retângulo máximo admissível
concentra uma confiança de 74.76%. Logo, parece claro que existe
um retângulo com os lados na proporção 2:1 e centrado em torno
do ponto médio que concentra a mesma confiança do quadrado
com lado de comprimento igual a 1. Na realidade, esse retângulo
tem os lados com comprimentos iguais a 1.44 e 0.72, nas direções
de x1 e x2 respectivamente.
... ••
_,.
-l.l
..:r n -1 11 i• Jn
.u.taada t.llfro•
∑ ∑ (v )(x − µ )(x
i =1j =1
−1
ij i i j − µ j )= c (3.50)
VXd = λd (3.51)
ou seja:
(VX − λ I )d = 0 (3.52)
λ1 0 0
0 λ 0
VX [d1 d 2 d NX ]= [d1 d 2 d NX ] 2
0 0
0 0 λNX
(3.54)
que pode então ser usada como definição da matriz diagonal dos valores
característicos e da matriz de vetores característicos na forma:
(3.55)
onde:
1., 0 . .. 0
o A2 o
A= (3.56)
e:
(3.57)
1 − 1
Exemplo 3.25 – Seja a matriz A = . Neste caso, os valores
característicos são iguais a: 0 2
1 − λ −1
det (A − λ I ) = det = (1 − λ )(2 − λ ) − 0 (−1) = 0
0 2 − λ
λ 2 − 3λ + 2 = 0
cujas raízes são:
1 −1 a a a − b = 2a a −b
0 2 b = 2 b ⇒ 2b = 2b ⇒ b = b = d 2
2
−
A solução com tamanho unitário é d 2 = 2 .
2
2
.r2
A =[~ ~]
1 −
Desta forma, e D= 2
.
0
.r2
2
D−1 =
1 d 22 −d12
=
1
2 .r.r2 = 1 1
det (D ) −d 21 d11 2
2 2
0 2
0 1
2
chega-se finalmente à representação diagonalizada de A como:
1 −
2 ..r
1 0 1 1
A= 2
0
2
..r
0 2 0 2
2
(3.60)
(3.62)
λMIN
φ=
F λMAX
3. Como o traço de uma matriz (a soma dos elementos da diagonal prin-
(3.64)
µ1 2τ 12 0 0
µ
0 2τ 22 0
ì = 2 VX =
2
µ
NX , 0 0 2τ NX
A região de confiança da distribuição exponencial pode também
ser obtida explorando-se a simetria da distribuição em torno do
centro e o fato de que a função converge suavemente para o
zero nos limites de infinitamente positivos ou negativos. Assim,
como no caso da curva normal, a região de confiança pode ser
dada pela equação:
(3.67)
100 9
covariâncias VX = , cujos valores característicos são:
9 1
100 − λ 9
= (100 − λ )(1 − λ ) − 81 = λ − 101λ + 19 = 0
2
det
9 1− λ
a = 11.0901b
Para obter o vetor unitário:
11.0901
d1 =
1
I I ~
⇒ d1 = 11.09012 + 12 = 11.13509
Assim:
1 11.0901 0.9960
d1 = =
11.13509 1 0.0898
que sugere a seguinte mudança de variáveis:
z1 = 0.9960x1 + 0.0898x2 – 1.1756
que é a verdadeira variável aleatória do problema.
A segunda direção de variação pode ser obtida como,
a = – 0.09017b
Para obter o vetor unitário:
−0.09017
d2 = I d 2 I = ~0.09017 + 1 = 1.00406
2 2
⇒
1
Assim:
1 − 0.09017 − 0.0898
d2 = = 0.9960
1.00406 1
que sugere que a seguinte variável se mantém essencialmente
constante e igual a zero:
z2 = – 0.0898x1 + 0.9960x2 – 1.9022 = 0
Portanto:
x2 = 0.09016x1 + 1.9098 = 0
3.6. Conclusões
Foi mostrado nesse capítulo que, em geral, os parâmetros que caracteri-
zam as curvas de distribuição de probabilidades em problemas estocás-
ticos (em particular a média e a variância) não podem ser jamais obtidos
por métodos empíricos. Nesses casos, é preciso definir procedimentos
consistentes de inferência, a partir de dados amostrados empiricamen-
te. Contudo, as grandezas amostradas constituem também variáveis
aleatórias, sujeitas a flutuações e incertezas. É necessário, portanto,
descrever como essas grandezas flutuam e definir a forma das respectivas
distribuições de probabilidade.
No caso particular de medidas sujeitas a flutuações normais, mos-
trou-se que a média amostral flutua de acordo com a distribuição t de
Student, que pode ser utilizada para fins de determinação dos intervalos
de confiança dos valores amostrados e para comparações entre valores
amostrados em diferentes conjuntos de dados. De forma similar, mos-
trou-se que a variância amostral flutua de acordo com a distribuição χ ,
2
que também pode ser utilizada para fins de determinação dos intervalos
de confiança dos valores amostrados e para comparações entre valores
amostrados em diferentes conjuntos de dados. Contudo, comparações de
variâncias obtidas em diferentes conjuntos de dados podem ser feitas de
forma mais eficiente com o auxílio da distribuição F de Fisher.
Finalmente, foi mostrado que a geometria natural das regiões de
confiança em problemas multidimensionais, descritos adequadamente
pela distribuição Normal, é a geometria das formas elípticas. Nesse caso,
os valores característicos e vetores característicos que caracterizam a
matriz de covariâncias do problema representam respectivamente os
conteúdos de incertezas e as direções características de flutuações do
problema analisado.
00 10 20 30 40
1 0.1025 0.2217 0.3737 0.8341 0.0910
2 0.1147 0.3344 0.4521 0.4298 0.9511
3 0.9508 0.1351 0.5811 0.6315 0.1223
4 0.7212 0.6227 0.9123 0.4726 0.8711
5 0.4393 0.5111 0.7314 0.6215 0.5661
6 0.6161 0.7502 0.3122 0.5871 0.6161
7 0.0012 0.8192 0.4659 0.2012 0.9813
8 0.1200 0.9095 0.2197 0.3191 0.6715
9 0.8837 0.0195 0.7382 0.4615 0.2328
10 0.4141 0.5823 0.1180 0.9867 0.9142
a) Calcule média e variância para a lista de medidas disponíveis.
b) Faça zi = xi e yi = xi+1. Calcule o coeficiente de correlação entre z e
y. Você consegue observar alguma tendência?
c) Divida os dados em 10 classes, de forma que
Classe1 = 0 ≤ xi ≤ 0 .10 , ...,
Classe10 = 0 . 9 ≤ xi ≤ 1.00
Monte o histograma de freqüência das classes.
d) A distribuição obtida é supostamente uniforme. Os dados confirmam
isso? Admitindo-se que
0, x < 0
℘(x ) = 1, 0 ≤ x ≤ 1
0, x > 1
calcule a média e a variância esperadas.
e) As médias e variâncias obtidas podem ser consideradas equivalentes
às teóricas? Quais os limites de confiança dos dados obtidos?
x 1 0.9
x = 1 , , VX =
x2 0.9 1
a) Calcule a forma da região de confiança – faça c = 1 na Equação
(3.48);
b) Calcule as direções principais e interprete os resultados;
c) Como você descreveria a região de confiança, com um nível de con-
fiança correspondente a c = 1, onde você espera encontrar valores
de x1 e x2?
x1min ≤ x1 ≤ x1max
x2min ≤ x2 ≤ x2max
6. Três valores medidos estão disponíveis: 1.0, 1.5 e 8.0.
a) Caracterize estatisticamente os dados;
b) Suponha que o experimentador desconfia do último valor medido.
Que conselho você daria ao experimentador?
c) Admita que um quarto valor é obtido e é igual a 1.3. A sua opinião muda?
E se o quarto valor obtido for igual a 5.0? E se for igual a 9.1?
Estimação
4 de Parâmetros
∆t
NB =
(tR + tD + tL + tC )
e $B, $A, $O e $I são respectivamente os preços de mercado para
o produto, o reagente, a operação (que aumenta com o teor de
reagente no final da batelada, por causa da necessária purifica-
ção do produto) e o investimento (que aumenta com o aumento
das dimensões do equipamento). CAf (tR) é o teor residual de A no
produto final.
O primeiro termo da equação do lucro representa os ganhos
obtidos com a venda do produto B; o segundo termo, os custos
devidos à compra do reagente A; o terceiro, os custos operacio-
nais do processo; e o quarto, os custos do investimento. Quanto
maior o tempo de reação, menor o teor residual final de A, maior
a quantidade de produto B e menores os custos operacionais. No
entanto, quanto maior tR, menor o número de bateladas produ-
zidas ao longo da vida útil do equipamento (admite-se que tD, tL
e tC são constantes). Quanto maior o volume V do reator, maiores
são as quantidades produzidas do produto B, mas também maio-
res são os custos operacionais e de investimento. Por isso, deve
haver um ponto ótimo, ou de máximo lucro. O projeto consiste
em achar esse ponto de máximo lucro.
O ponto de máximo pode ser encontrado fazendo-se
∂L
= f1 (V , t R ) = 0
∂V
N B (C A0 − C Af (t R ))$ B − N B C A0 $ A − (VC Af (t R )) $O − nV n −1 $ I = 0
mN B m
e
∂L
= f 2 (V , t R ) = 0
∂t R
∂N B V (C − C (t ))$ − V C $ − (V C (t ))m $ −
∂t R A0 Af R B A0 A Af R O
∂C Af m NB
(V C Af (t R )) $O = 0
m
−NB V $B −
∂t R C Af (t R )
dC A
= − K C A , C A (0 ) = C A0
dt
de forma que
de plástico por hora pode ser usada como modelo de uma fábrica que
produz 30 toneladas de plástico por hora. Assim, testes de produção
só são efetuados na planta industrial depois de terem sido aprovados
na planta piloto, onde os custos e riscos são muito menores. Também
nesse caso o modelo não deve ser confundido com a realidade, já que
a planta industrial é provavelmente muito mais complexa que a planta
piloto usada para representá-la, em função do maior volume de peças
e equipamentos.
Pode-se de certa forma dizer que um modelo resulta sempre de um
trabalho de investigação em qualquer área do conhecimento, já que o
objetivo central da ciência é correlacionar dados e fatos. Para o enge-
nheiro, pela própria natureza prática e exata da Engenharia, a tarefa de
construir modelos para um sistema atinge o seu clímax quando resulta
num conjunto consistente de relações matemáticas que permita a descri-
ção quantitativa do sistema. Essa atividade é designada genericamente
de modelagem. Para os fins desse livro, define-se especificamente como
modelagem àquelas atividades relacionadas ao desenvolvimento de rela-
ções matemáticas precisas entre as várias variáveis de um problema.
FatO;J
lliilO•tsts s§o Modclo ~ c;:nado
(cilt~S
ratos .sio
.l'\0'' 05 0 modelo gcn
gcrados noYas qucstOcs
1111 ~
/
m2
.
fll)
c.........: ..) ~·
3 ~ 3 2
F =""
L (1113J.
·• - 1nJ,
. .. ) =L"" (·n13•, - a . 11,
111 - n "·'ll• )
JJ
i =l l=l
∂F 3
(
= ∑ 2 m 3ei − α m 1ei − β m 2ei m 1ei = 0
∂α i =1
)( )
∂F 3
(
= ∑ 2 m 3ei − α m 1ei − β m 2ei m 2ei = 0
∂β i =1
)( )
resultando em
16.7 = 9α + 8β ⇒
α = 0.8882
16.9 = 8α + 9 β β = 1.0882
e no modelo empírico
m 3 = 0.8882m 1 + 1.0882m 2
Repare que nenhum argumento teórico sustenta a relação apresen-
tada acima, mas somente o fato de descrever de forma adequada
os dados experimentais obtidos. Abaixo são mostrados os resulta-
dos experimentais e as previsões obtidas com os modelos teórico
e empírico. Entre parênteses são mostrados os desvios observados
entre a previsão do modelo e o dado experimental.
dado
m 3 (kg/h) 3.1 3.9 2.9 experimental
modelo
m 3 (kg/h) 3.0 (–0.1) 4.0 (+0.1) 3.0 (+0.1) teórico
modelo
m 3 (kg/h) 3.06 (–0.04) 3.95 (+0.05) 2.86 (–0.04) empírico
_ _ ..,) Oados
==>•hp(>tCSCS
_ _ _ ) Prindpios Modelo Tei>ri<:o
_ _ ..,) Postulndos
___ ) Dados
Modclo Empirico
_ _ _) Estruturas
x
g (z ) = C z = [A B ] = A x + B y
y
onde C é uma matriz de dimensão NYx(NX+NY), A é uma matriz
de dimensão NYxNX e B é uma matriz de dimensão NYxNY. Nesse
caso,
g (α w + β u) = C (α w + β u) = α C w + β C u =
= α g (w) + β g (u)
Logo, o modelo matricial proposto é linear. Repare que a equação
implícita
x
g (z ) = C z = [A B ] = A x + B y = 0
y
pode ser resolvida como
y = –B–1 A x = f (x)
passando a ter a forma explícita, desde que a matriz B possa ser
invertida. Nesse caso,
f (α w + β u) = – B–1 A (α w + β u) = – α B–1 A w –
– β B–1 A u = α f (w) + β f (u)
confirmando a linearidade.
Modelos lineares matriciais como aqui descritos aparecem natu-
ralmente durante a formulação de balanços de massa, com ou sem
reação. Por exemplo, sejam as seguintes reações químicas:
(1) A + B C + D (2) A + C E + F
Então, as seguintes equações de balanço podem ser escritas para
um tanque fechado onde ocorrem as reações:
M A0 − M A − ξ1 − ξ 2 = 0 M B 0 − M B − ξ1 = 0
M C 0 − M C + ξ1 − ξ 2 = 0 M D 0 − M D + ξ1 = 0
M E 0 − M E + ξ2 = 0 M F 0 − M F + ξ2 = 0
onde ξ1 e ξ2 são os graus de avanço das reações 1 e 2 respectiva-
mente. As equações acima podem ser também escritas como:
1 0 0 0 0 0 M A0 − M A −1 −1
0
1 0 0 0 0 M B 0 − M B −1 0
0 0 1 0 0 0 M C 0 − M C +1 −1 ξ1
+ =0
0 0 0 1 0 0 M D 0 − M D +1 0 ξ 2
0 0 0 0 1 0 M E 0 − M E 0 +1
0 0 0 0 0 1 M F 0 − M F 0 +1
y w u α w1 + β u1
z = =α w+ β u =α 1+ β 1 =
x w2 u2 α w2 + β u2
então
dy dw du
y = α w1 + β u1 ⇒ =α 1 + β 1
dx dx dx
d d d d
x = α w2 + β u2 ⇒ =α ⇒ =β
dw2 dx du2 dx
y = α w1 + β u1 ⇒ y0 = α w10 + β u10
dw1 du
+ 4 α w1 + 1 + 4 β u1 ≠ α g (w1 , w2 ) + β g (u1 , u2 )
dw2 du2
de maneira que o modelo é não-linear. No entanto, admitindo-se
que x não é uma variável relevante do problema e que não pode
ser manipulada, então
dy
g (y ) = + 4 y , y (0 ) = y0
dx
Fazendo-se
dy dw du
y = α w1 + β u1 ⇒ =α 1 + β 1
dx dx dx
que combinada com a equação original
dw du
α 1 + 4 w1 + β 1 + 4u1 = α g (w1 , x ) + β g (u1 , x )
dx dx
resultando em um modelo linear. Portanto, sempre que a hipótese
de linearidade for levantada, é necessário definir o conjunto de
variáveis que estão sendo consideradas no problema.
dy
= − y , y (0 ) = y0 ⇒ y (t ) = y0 e − t
dt
Dada uma certa condição inicial, a trajetória dinâmica obtida é
sempre a mesma. O modelo é, portanto, determinístico.
j=l
I !
.5 -~
-
.... J ~-
i
~
~-
-
1
l
J
• x. ' (a)
(b)
X! •
--·~t~)-·_·_·____·~·~·~9--.
"
Figura 4.8 - Exemplo de sistemas a parâmetros concentrados (a)
e a parâmetros distribuídos (b).
d 2C dC
0 = D 2 −v −K C
dx dx
dC
=0 C (0 ) = C0
dx x=L
d 2C
- ≈
-I
dC
dx x = x i + ∆L
I2
−
-I
dC
dx x = x i − ∆L
I2
Ci +1 − Ci Ci − Ci −1
≈ ∆L
−
∆L = Ci +1 − 2Ci + Ci −1
dx 2 x = xi
∆L ∆L ∆L2
.i-1 i iXL+ m
, ,,., ()
.,_ -~B
;
.. •
}
....
0
I AL l ~+·
Figura 4.9 - Esquema de discretização de diferenças finitas.
D v
0= (C − 2C + C ) − (C2 − C0 ) − K C1
∆L 2 ∆L
2 2 1 0
com
C0 conhecido (primeira condição de contorno)
C2 = C1 (segunda condição de contorno); e
D v
0= (C − 2 C + C ) − (C1 − C0 ) − K C1
∆L2 2 ∆L
1 1 0
D v
2+
∆L 2 ∆L
C1 = C2 = C0
D v
2+ +K
∆L 2 ∆L
De maneira similar, o modelo dinâmico fica na forma
dCi D v
= 2 (Ci +1 − 2 Ci + Ci −1 ) − (Ci +1 − Ci −1 ) − K Ci
dt ∆L 2 ∆L ,
i = 1...N
com
Ci(0) =0 (primeira condição de contorno)
C0(t) conhecido (segunda condição de contorno)
CN+1(t) = CN(t) (terceira condição de contorno)
Assim, para N igual a 1
dC1 D v D v
+ 2 + + K C1 = 2 + C0
dt ∆L 2 ∆L ∆L 2 ∆L
com C1 (0) = 0
Repare como o esquema de discretização reduz a complexidade
matemática do modelo ao mesmo tempo em que aumenta o
número de equações a serem resolvidas. Repare ainda que o
procedimento de discretização reduziu o modelo estacionário
diferencial original a um conjunto de equações algébricas, redu-
zindo o modelo dinâmico diferencial original a um conjunto de
equações diferenciais ordinárias.
No entanto, para que o modelo seja útil e possa ser utilizado para fazer
previsões ou simulações, é necessário definir adicionalmente quem são
os coeficientes angular (α) e linear (β) da reta. Caso contrário, de pouco
serve o modelo. Repare que a estrutura do modelo pode ser gerada de
diversas maneiras, de forma empírica ou fundamentada em preceitos
teóricos. De qualquer forma, sem os parâmetros, a estrutura pura do
modelo raramente faz sentido.
dT
q = −k A
dx
onde q é a taxa de transferência de calor (energia / tempo), A é a área
de contato entre os planos, T é a temperatura e x é o comprimento
medido ao longo da espessura da parede. k é a chamada condutivida-
de térmica do material ((energia comprimento)/(tempo temperatura)).
O sinal de menos indica que o calor flui sempre do lado mais quente
para o lado mais frio; ou seja, flui na direção contrária do gradiente
de temperaturas. Se a condutividade térmica do material é constante
(ou se a parede é suficientemente fina), então
q = −k A
(T2 − T1 )
L
A equação acima é uma equação fundamental para o projeto de
isolamentos. Dadas as características do material isolante (k), do
sistema avaliado (A, T2, T1) e a máxima perda de calor admissível ( q ),
obtém-se a quantidade necessária de isolante (L). No entanto, para
que a equação seja de fato útil, é necessário conhecer o parâmetro
k. A medição e estudo da condutividade térmica de materiais é um
problema fundamental da área de sistemas térmicos.
De outra forma, a aplicação de princípios teóricos rigorosos (e
elegantes) permitem afirmar que as taxas de reação química
∆E
K = K 0 exp −
RT
que é a conhecida Lei de Arrhenius. K0 é o fator de freqüência da
reação, ∆E é a energia de ativação da reação (energia / mol), R é a
constante universal dos gases (1.9876 cal / (mol K)) e T é a tempe-
ratura absoluta. A Lei de Ação das Massas e a Lei de Arrhenius são
fundamentais para o projeto de reatores químicos e são objetos
de estudo da disciplina de Cinética das Reações Químicas. No en-
tanto, são de pouco valor se os valores do fator de freqüência (K0)
e da energia de ativação (∆E), característicos da reação química
investigada, não são conhecidos.
parâmetros que não podem ser medidos nem avaliados a priori, a partir
de uma comparação estabelecida entre dados experimentais e um modelo
disponível para o processo, cujo desempenho é afetado pelo parâmetro
de interesse. Estimar parâmetros consiste, portanto, em obter dados
experimentais e comparar esses dados com estruturas que pretendem
explicá-los. Ou seja, estimar parâmetros consiste em exercitar as com-
ponentes experimental e teórica de uma investigação científica.
q = −k A
(T2 − T1 )
L
e que todas as demais grandezas físicas, com exceção de k, podem
ser medidas durante um experimento de troca de calor. Suponha
que um pedaço do isolante considerado é prensado entre duas
paredes de dimensões bem definidas (a espessura L e a área A
medidos), mantidas a temperaturas constantes (T1 e T2 medidos)
através da manipulação da quantidade de calor dissipada por uma
resistência elétrica ( q medido). Nesse caso, suponha que várias
medidas (experimentos) são feitas. Segundo a Lei de Fourier, a con-
dutividade térmica k é o fator de proporcionalidade (coeficiente
angular) existente entre a medida q e o grupo de medidas
A
(T2 − T1 ) .
L
Se essas medidas são lançadas em um gráfico, na forma abaixo,
é possível inferir de alguma maneira o valor de k. Portanto, não
é exagero dizer que o problema de estimação de parâmetros é
equivalente à construção de um sensor virtual (softsensor) para
medição das variáveis que não podem ser medidas diretamente
com instrumentos físicos. Portanto, o “condutivômetro térmico”
é o procedimento de estimação de parâmetros.
• •
•
k muito baixo
(T,. T,
A L
Figura 4.10 - Inferência da condutividade térmica do isolante
a partir de outras medidas experimentais.
A
(T2 − T1 ) 10 20 30 40
L (m K)
(T2 − T1 )
onde x é a variável independente x = A ,
L
∂F NE
= ∑ 2 yie − α xie
∂α i =1
( )(− x )= 0
e
i
NE
∑ (y x ) e e
i i
α= i =1
NE
∑ (x )
2
e
i
i =1
α=
(10 ⋅1050 + 20 ⋅ 2000 + 30 ⋅ 2950 + 40 ⋅ 4000 ) = 299000 = 99.67
(10 2
+ 202 + 302 + 402 ) 3000
∑( { } )⇒ σ
NE NE
∑( )
2 2
Var y x e
i
e
i xie σ y2
i
Var {α }= i =1
2
2
α = i =1
2
NE e 2 NE e 2
∑ xi ( ) ∑ xi ( )
i =1 i =1
que relaciona os erros de medida experimental com os erros
paramétricos. Se os erros de medição são iguais em todas as
condições de experimentação
NE
∑ (x )
2
e
i
σ y2 σ y2
σ =2
α
i =1
2
σ = 2
y NE
=
2
∑ (x )
NE 2 3000
∑ i ( )
e e
x i
i =1 i =1
3000
σ α2 = = 1 ⇒ α = 99.67 ± 2 σ α = 99.67 ± 2
3000
onde foi admitido comportamento normal com aproximadamente
95% de confiança. (O bom procedimento científico talvez nos
obrigasse a escrever α = 100 ± 2, dado que não se deve usar mais
casas decimais que as permitidas pela precisão experimental.
Esse rigor será muitas vezes ignorado ao longo desse texto.) A
hipótese de normalidade será discutida bastante ao longo dessa
e das próximas seções.
O desempenho do modelo pode ser comparado às medidas ex-
perimentais na forma
-1000
3001}
;..
:i:I}IJ!}
1,1)1)1)1
ll
II
•• 2JII .!llll ~
X
Figura 4.12 - Resultados do procedimento de estimação do Exemplo 4.12.
Barras verticais denotam os erros experimentais, a linha cheia é o modelo
e as linhas tracejadas indicam o intervalo de confiança das previsões feitas
com o modelo.
y
Y =a. +b
p(ux)
d (x, y ) = d (y ,x ) (4.7)
< 1 − 0I+ I0 − 3 = 4
d (1,3) = I1 − 3I = 2 = 1 − 2I+ I2 − 3 = 2
< 1 − 4 + 4 − 3 = 4
I I
Portanto, o valor absoluto da diferença entre dois números reais
é uma medida da distância entre esses dois números.
(y )= ~(y )
2 2 2
e
− yim yie − yim ⇒
e
− yim = yie − yim
i I i
1/ 2
NE e 2
(
d1 y e , y m ) (
= ∑ yi − yi
m
) (4.9a)
i =1
1/ N
NE e
( ) (
= ∑ yi − yim )
N
e m
d2 y , y , N par (4.9b)
i =1
1/ N
NE N
(
d3 y e , y m ) ( )
= ∑ wi yie − yim , wi positivo, N par (4.9c)
i =1
NE e
(
d4 y e , y m ) = ∑ yi − yim (4.9d)
i =1
NE e 2
(
d5 y e , y m ) (
= exp ∑ yi − yim − 1 ) (4.9e)
i =1
Surge, portanto, intuitivamente a necessidade de perguntar qual
deve ser a melhor métrica para descrever o problema de estimação de
parâmetros. Do ponto de vista estritamente matemático, essa questão
não faz qualquer sentido e todas as expressões acima (e infinitas ou-
tras) podem ser igualmente utilizadas para descrever a distância entre
os pontos experimentais e os pontos obtidos com o auxílio do modelo.
Contudo, um axioma adicional é imposto ao problema de estimação de
parâmetros na forma:
{} { } { }
E y e = E y m + ε = E y m + E {ε }= E y m = y m { } (4.10)
∑ (y )
2
e
i −y
m
i
(4.11)
σ =
2 i =1
ν
y
( )
NE 2
FObj = ∑ y − α x ( ) −β x
2
e
i
e
i
e
i −γ
i =1
= ∑ 2 (y − α (x ) − β x − γ )(− x )= 0
∂FObj NE
e e
2 e e
∂β i i i i
i =1
= ∑ 2 (y − α (x ) − β x − γ )(−1) = 0
∂FObj NE
e e
2 e
∂γ i i i
i =1
i =1
Os valores de α e β são obtidos minimizando-se o valor da função
objetivo
∂FObj
NE
β xie β xie
= ∑ 2 yi − α e −e = 0
e
∂α i =1
∂FObj NE
β xie β xie
= ∑ 2 yi − α e −α xi e = 0
e e
∂β i =1
Há, portanto, duas equações a resolver e duas incógnitas a deter-
minar, uma vez que os dados experimentais são conhecidos. Uma
solução analítica para esse problema não pode ser derivada. Isto
ocorre por causa da natureza não-linear do modelo. A solução do
problema requer, portanto, o uso de técnicas numéricas como as
que serão discutidas no Capítulo 5. A necessidade de usar técnicas
numéricas para resolver um problema supostamente tão simples
mostra que não é possível, de maneira geral, conduzir estudos
de estimação de parâmetros longe do computador. O usuário de
procedimentos de estimação de parâmetros deve estar, portanto,
habilitado a utilizar procedimentos numéricos de estimação.
Uma maneira comum de propor uma solução analítica para o
problema é escrever o modelo na forma
( )
z m = ln y m = ln (α ) + β x = αˆ + β x
i =1
( ( ) ( ))
NE 2
FObj = ∑ ln y − ln y e
i
m
i
i =1
Os Exemplos 4.15 e 4.16 mostram que, para modelos lineares nos pa-
râmetros, a aplicação da técnica de mínimos quadrados admite solução
analítica. Já para o modelo exponencial do Exemplo 4.17 é necessário algum
método numérico para que a solução seja encontrada. Assim, de forma
generalizada pode-se definir um modelo linear nos parâmetros como:
(4.13)
(4.15)
que resulta no seguinte sistema de equações
NP
NE e
NE
∑ ( ) ( )
α j ∑ f j xi f k xi = ∑ yie f k xie
e
( ) , k = LNP
j =1 i =1 i =1 (4.16)
Há, portanto, NP equações a resolver e NP incógnitas a determinar,
uma vez que os dados experimentais são conhecidos. A solução analítica
para esse problema pode ser facilmente derivada se a notação matricial
é utilizada.
Sejam
NE NE NE
∑ f1 ( ) ( ) ∑ ( ) ( )
xie f1 xie f1 xie f 2 xie ∑ f (x ) f (x )
1
e
i NP
e
i
i =1 i =1 i =1
NE NE NE
∑f
M = i =1 2
(x ) f (x ) ∑ f (x ) f (x )
e
i 1
e
i 2
e
i 2
e
i ∑ f (x ) f ( )
2
e
i NP
e
x
i
(4.17)
i =1 i =1
NE NE NE
f
∑ NP (x ) f (x ) ∑ f (x ) f (x )
e
i 1
e
i NP
e
i 2
e
i ∑ f (x ) f ( )
NP
e
i NP
e
xi
i =1 i =1 i =1
e
NE e
∑ yi f1 xi
e
( )
i =1
NE e
∑
Yf = i =1
yi f 2 xie ( )
(4.18)
...
NE
y e f xe
∑ i NP i ( )
i =1
então
M a = Yf ⇒ a = M–1 Yf (4.19)
(4.20)
... ... ... ...
e
f NP x1 ( ) f NP xe2 ( ) ... e
( )
f NP x NE
pois assim é possível escrever a solução diretamente em termos das
variáveis medidas na forma
vlt
. I
Q = f) - L Gl y e , y [ = •L'~_ (4.21)
que indica que existe uma relação linear direta entre a medida experi-
mental da variável dependente e o valor estimado para o parâmetro.
y m = α1 x1 + α 2 x2 + α 3 x1 x2 + α 4
onde y representa uma variável dependente que depende de duas
outras variáveis independentes x1 e x2. No problema proposto,
( ) ( )
f1 xe = x1e , f 2 xe = x2e , f3 xe = x1e x2e , f 4 xe = 1 ( ) ( )
Dessa forma,
x1,1 e e
x1,2 e
x1,3 x1,e NE
e
x e
x2,2 e
x2,3 x2,e NE
G Y = e 2,1e
x1,1 x2,1 e
x1,2 e
x2,2 e
x1,3 e
x2,3 x1,e NE x2,e NE
1 1 1 1
NE e 2 NE NE NE
∑ x1,k ( ) ∑ x1,e k x2,e k ∑( ) ∑x
2
x1,e k x2,e k e
1, k
k =1 k =1 k =1 k =1
NE e e NE NE NE
∑ x1,k x2,k ∑( ) ∑ x (x ) ∑
2 2
x2,e k e
1, k
e
2, k x2,e k
M = NE
k =1 k =1 k =1 k =1
NE NE NE
( )
∑ x1,k x2,k ∑ x (x ) ∑ (x ) (x ) ∑
2 2 2 2
e e e e e e
1, k 2, k 1, k 2, k x1,e k x2,e k
k =1 k =1 k =1 k =1
NE NE NE NE
∑ x1,k
k =1
e
∑ x2,e k
k =1
∑x
k =1
e
1, k x2,e k ∑i =1
1 = NE
e
onde xi , k representa a medida da variável independente xi no expe-
rimento k. Portanto, de acordo com a Equação (4.21), existe uma solu-
ção analítica explícita para o problema de estimação de parâmetros,
uma vez conhecidos os dados experimentais. Modelos como esse são
muito úteis para interpretação quantitativa de dados experimentais,
como será discutido no Volume II desta série de publicações.
(4.22)
NE NE NE
f
∑ NP ( ) ( ) ∑
xie f1 xie ( ) ( )
f NP xie f 2 xie ∑ f (x ) f ( )
NP
e
i NP
e
xi
i =1 i =1 i =1
(4.26)
onde
f1 (x )
f (x )
B (x ) = 2 (4.30)
f NP (x )
que também estabelece uma relação linear direta entre o valor dos parâ-
metros e a previsão da variável dependente em um ponto qualquer x da
∑ xi
2
e
i
M = NE
i =1 i =1
∑ xi
e
( ) NE
i =1
e a sua inversa é
NE
1 NE −∑ xie ( )
M =−1 i =1
NE e 2 NE e
2
NE e NE 2
NE ∑ xi − ∑ ( ) ( )xi −∑ xi ( ) ∑ ( )
xie
i =1 i =1 i =1 i =1
NE e 2
∑ xi ( )
σ 2
=σy
2 i =1
22 2
NE e 2 NE e
( )
NE ∑ xi − ∑ xi ( )
i =1 i =1
É muito curioso observar que os parâmetros α1 e α2 não são
necessariamente independentes, apresentando uma covariância
igual a
NE e
− ∑ xi ( )
σ 12 = σ y
2 2 i =1
2
NE e 2 NE e
( )
NE ∑ xi − ∑ xi ( )
i =1 i =1
e um coeficiente de correlação igual a
NE e
− ∑ xi ( )
ρ12 = i =1
NE e 2
NE ∑ xi ( )
i =1
Isso quer dizer que um parâmetro influencia o outro; ou seja, se
um dos parâmetros mudar um pouco, o outro também muda. Isso
em geral é ruim, pois mistura a importância dos diferentes efeitos
considerados por cada um dos parâmetros do modelo. O ideal
seria obter parâmetros independentes, embora isso raramente
seja possível. A necessidade de obter parâmetros independentes
durante a análise de modelos de simulação é um ponto central
dos procedimentos de planejamento experimental discutidos no
Volume II desta série de publicações.
Com relação ao erro de predição, definido pela Equação (4.31),
pode-se escrever:
σ 2 σ 122 x
σˆ y2 (x ) = σ y2 B T M −1 B = σ y2 [x 1] 112 2 (
= σ y2 σ 112 x 2 + 2σ 122 x + σ 22
2
)
σ 12 σ 22 1
NE NE 2
( )
x 2 NE − 2 x ∑ xie + ∑ xie ( )
σˆ y2 (x ) = σ y2 i =1 i =1
2
NE 2 NE
( )
NE ∑ xie − ∑ xie ( )
i =1 i =1
∑y e
k
α= k =1
NE
Logo, a média amostral pode ser interpretada como a melhor
inferência de um modelo constante para um conjunto de dados,
quando se supõe que o modelo constante é perfeito, os experi-
mentos são bem-feitos, a função objetivo é dada pela função de
mínimos quadrados, os experimentos são independentes e os
erros experimentais são constantes na região de experimentação.
Vê-se, portanto, que o contexto de validade da média amostral
proposta no Capítulo 3 pode ser bastante questionado, em bases
técnicas absolutamente legítimas.
∑ (y − ykm )
e 2
k
k =1
s2 =
NE − NP
de maneira que se diz que o sistema perde NP graus de liberdade
quando se estimam NP parâmetros de um modelo. No caso parti-
cular do modelo do Exemplo 4.21, obtém-se a mesma expressão
I e
I
onde z - z representa uma norma apropriada dos desvios experi-
mentais e α (VZ) representa um escalar que pondera a magnitude dos
desvios experimentais.
Não é possível escolher qual das duas equações (Equação 4.32a-b) é
melhor para representar os erros experimentais sem que se faça uma
correta caracterização dos erros de medição no laboratório, como discuti-
do no Capítulo 3 (e no Volume II desta série de publicações). Na verdade,
outras funções de distribuição, como aquelas apresentadas no Capítulo 2,
podem também ser usadas para descrever de forma apropriada os erros
experimentais. Assim, as Equações (4.32a-b) são apenas dois exemplos
possíveis de comportamento em um universo virtualmente infinito de
possibilidades.
( )
℘ z ; z, VZ = ∏℘i z ie ; z i , VZi
e
( ) (4.33a)
i=1
NE z ie − z i
(
℘ z e ; z, VZ ) = ∏
1
exp − I I (4.33c)
i =1 2α i (VZi ) α i (VZi )
Muito freqüentemente, o experimentador consegue controlar com
bastante eficiência a precisão das medidas experimentais independen-
tes xe. Além disso, técnicas de planejamento experimental (ver Volume
II desta série de publicações) podem ser utilizadas para minimizar o
efeito dos erros experimentais das variáveis independentes xe sobre as
medidas das variáveis dependentes ye. Por isso, pode ser conveniente
tratar as variáveis dependentes e independentes de formas distintas.
Admitindo-se que as medições das variáveis independentes não estão
correlacionadas com as medições das variáveis dependentes, chega-se a
uma nova expressão para a curva de densidade de probabilidades:
NE
( ) ( )
℘ z ; z, VZ = ∏ ℘xi xie ; xi , VXi ℘yi y ie ; y i , VYi
e
( ) (4.34a)
i=1
NE
1
( )
℘ z e ; z, VZ = ∏
1
( ) V (x )
T
−1
exp − xie − xi e
− xi ⋅
i =1 2π det (VXi )
Xi i
2
1
1
( )V ( )
T
−1
⋅ exp − y ie − y i y − yi
e
2π det (VYi )
Yi i
2
(4.34b)
NE xie − xi y ie − y i
(
℘ z ; z, VZ
e
) = ∏
1
exp − I I
1
exp − I I
i =1 2α xi (VXi ) α xi (VXi ) 2α yi (VYi ) yi ( Yi )
α V
(4.34c)
Em experimentos realizados sob condições controladas, como geral-
mente acontece em laboratórios de pesquisa, os valores das variáveis
independentes são conhecidos com grande precisão. Nesse caso, parece
razoável considerar que (xe – x) ≈ 0. Admitindo-se como válida essa
hipótese, é possível reescrever as Equações (4.34a-c) na forma:
NE
( ) (
℘ z ; z, VZ = ∏ ℘yi y ie ; y i , VYi
e
) (4.35a)
i=1
NE
1
( )
℘ z e ; z, VZ = ∏
1
( ) ( )
T
exp − y ie − y i VY−i1 y ie − y i
i =1 2π det (VYi ) 2
(4.35b)
NE y ie − y i
(
℘ z e ; z, VZ ) = ∏
1
exp − I I (4.35c)
i =1 2α yi (VYi ) α yi (VYi )
Deve ficar claro que em muitos problemas o controle sobre as va-
riáveis independentes não é tão rígido, de maneira que nem sempre é
razoável representar os erros experimentais na forma proposta pelas
Equações (4.35a-c). Em experimentos realizados em unidades pilotos e
unidades industriais, os desvios experimentais nas variáveis indepen-
dentes não podem ser geralmente descartados, como será discutido nas
próximas seções deste capítulo.
Por fim, admitindo-se que todas as medições experimentais podem
ser realizadas de forma independente, a curva de densidade de proba-
bilidades pode ser expressa na forma:
NE NX NY
2
(
℘ z ; z, VZ
e
) (
= ∏ ∏℘xij xije ; xij , σ xij
2
) ∏ ℘yij y e
ij ; yij (
, σ yij )
i =1 j =1 j =1
(4.36a)
( ) ( )
2 2
1 xij − xij 1 yij − yij
e e
NE NX
NY
(
℘ z ; z, VZ
e
) = ∏∏
1
exp −
2 σ xij
∏
1
exp −
2 σ yij
~ ~
2 2
i =1 j =1 2π σ xij j =1 2π σ yij
2 2
(4.36b)
NE NX xije − xij yije − yij
NY
( )
℘ z e ; z, VZ = ∏ ∏
1
− I I 1
exp − I I
( ) ∏ 2α (σ )
exp
( )
i =1 j =1 2α xij σ xij
2
α xij σ xij
2
j =1 yij
2
yij ( )
α yij σ yij
2
(4.36c)
ou ainda
NE NY
(
℘ z ; z, VZ
e
) (
= ∏ ∏℘yij yije ; yij , σ yij
2
) (4.36d)
i =1 j =1
( )
2
y e
− y
NE NY
(
℘ z e ; z, VZ = ∏∏ ) 1
exp −
2
1 ij
σ yij
2
ij
(4.36e)
i =1 j =1 2π σ yij
2
NE NY yije − yij
(
℘ z e ; z, VZ = ∏ ∏ ) 1
exp − I I
( ) ( )
(4.36f)
i =1 j =1 2α yij σ yij α yij σ yij
2 2
se as medidas das variáveis independentes não estão sujeitas a erros
experimentais. Nas Equações (4.36a-f), σ xij 2
e σ yij
2
correspondem às
e e
variâncias de cada medição xij e yij .
É importante observar que as diferentes simplificações introduzidas
permitem que a densidade de probabilidades das flutuações experimentais
seja reescrita de formas distintas, como mostrado nas Equações (4.32-4.36),
a depender da natureza dos erros experimentais. A escolha de uma das
muitas formas propostas para a distribuição dos erros experimentais só
é possível depois da caracterização apropriada desses erros. Como visto a
seguir, essa caracterização dos erros é fundamental para a proposição da
técnica de máxima verossimilhança para estimação de parâmetros.
SO ( ze.,z m ,vz)=IJIJ
NE NY { 1 exp [ __!_ (Yye _ Yym ( x;,a))2]} (4.38)
i=l j=l ~21t 0' YIJ
2_ 2 0' yij
2
(4.39)
Repare que o primeiro termo do somatório do lado direito da equação
é constante e não depende do valor dos parâmetros. Logo, procurar o
ponto de máximo da função acima é o mesmo que procurar o ponto de
máximo da função
lNENY(e- m( ))2
F =-- LL y ij y ij xi' a (4.40)
2 1-
·-1 ]=!
. 02 yij
que equivale a procurar o ponto de mínimo da função
NENY( e_ m( ))2
FOb}= LL yij yij 2 X;,« (4.41)
i=I }=I 0 Y!l..
que é uma métrica para o problema de estimação de parâmetros. A
função acima é usualmente chamada de função de mínimos quadrados
ponderados. Repare que a Equação (4.41) tem um significado estatístico
preciso e profundo, sendo a métrica natural quando os erros experi-
mentais são distribuídos normalmente, não estão correlacionados e
quando as variáveis independentes não estão sujeitas a erro, desde que
as hipóteses de experimentos bem-feitos e modelo perfeito sejam acei-
táveis. Observe que o fator de ponderação é o inverso da variância do
erro de medida nesse caso; logo, quanto maiores os erros experimentais,
maiores também são os desvios aceitos entre as medidas experimentais
e os valores calculados com o modelo. Além disso, a função objetivo da
Equação (4.41) permite misturar diferentes conjuntos de dados, desde
que os erros de medida sejam conhecidos. É curioso observar que a
variância do erro experimental é o fator de normalização natural das
variáveis do problema. Observe ainda que a Equação (4.41) converge
naturalmente para a Equação (4.12), quando os erros de medição são
iguais e constantes em toda a região experimental. Portanto, a função de
mínimos quadrados é também uma função de máxima verossimilhança,
quando os erros são normalmente distribuídos, não estão relacionados,
são constantes e quando as variáveis independentes não estão sujeitas
a erro, desde que as hipóteses de experimentos bem-feitos e modelo
perfeito sejam aceitáveis.
Um dos grandes méritos do método da máxima verossimilhança é
permitir a extensão natural da função objetivo para distintas condições
de experimentação, de acordo com a estrutura da matriz de covariância.
(
℘ z e ; z, VZ ) = ∏ ∏
1
exp −
ij ij
2σ xij
2
∏
1
exp −
ij
2σ yik
2
ij
i =1 j =1 2π σ xij
2
j =1 2π σ yij
2
(4.42)
que corresponde à Equação (4.34) após ser introduzida a hipótese de
que todas as medições são feitas de forma independente, de maneira
que as matrizes de covariâncias dos erros experimentais são diagonais.
O ponto de máximo da Equação (4.42) corresponde ao ponto de mínimo
da seguinte expressão (similar à Equação (4.41)):
FObj = L ~(
NE ~
NY
Yye - Yym ( ,a)~ +L (x~ _ x'!!)
2
X;
m.
NX
y y
2
(4.43)
i=l j=l 0' yy.. .
J=l 0' xij
2
(
ye − α xm − β ) +( )
2 2
NE xie − xim
= ∑
i i
FObj
i =1 σ yi2 σ xi2
m
Os valores de α e β e os valores desconhecidos de xi são então
obtidos minimizando-se o valor da função objetivo
∂FObj NE
(y − α x
e m
−β ) −x =0
∂α
=∑ 2 i
σ yi2
i
( ) m
i
i =1
∂FObj NE
=∑ 2
(y − α x
e
i
m
i
−β )(−1) = 0
∂β i =1 σ yi2
∂FObj
=2
( e
yi − α xkm − β )(−α )+ 2 ( e
xk − xkm )(−1) = 0
∂xkm σ yk2 σ xk2
,
k = 1...NE
Dessa última equação, é possível concluir que
α yk − β( e
)+ xk
e
σ yk2 σ xk2
= xkm , k = 1...NE
α2 1
+
σ yk2 σ xk2
que pode ser substituído nas duas equações anteriores, permi-
tindo a solução do problema. No entanto, apenas uma solução
numérica é possível, já que não se consegue derivar uma solução
analítica para o problema. Dessa forma, o problema de reconcilia-
ção de dados, mesmo para o caso mais trivial da reta, requer o uso
de rotinas computacionais para resolução adequada do problema.
É conveniente observar na expressão acima que, se os erros de
medida da variável independente vão a zero,
(
α yk − β
e
)+ xk
e
xk
e
,VP
y;(u )= :La ,.r.,(x)
p=l
,Vp
y;(x,a) = :La,J!.,(x)
,., (4.44)
,,.
Y.~r(x.a) = :La ,Jvr.,(x)
p=l
(4.45)
, k = 1...NP
(4.46)
que resulta no seguinte sistema de equações
""L. a [.\'""""
NP
P
1! j
L.L.
NY
J.p
(x' )f,.t (x')]
•
z ' ="""" (y'q J•£ (x'),
SB NY
L.L. , ,
- L.NP
k-
p-=l •=I ;=I (Jtj •=I ;=I CJif
(4.47)
Há, portanto, NP equações a resolver e NP incógnitas a determinar,
uma vez que os dados experimentais são conhecidos. A solução analítica
para esse problema pode ser facilmente derivada se a notação matricial
é utilizada. Sejam
∑∑
( ) ( )
NE NY f j ,1 xie f j ,1 xie NE NY
( ) ( )
f j ,1 xie f j ,2 xie NE NY
( ) ( )
f j ,1 xie f j , NP xie
i =1 j =1 σ ij2
∑∑
i =1 j =1 σ 2
∑∑
i =1 j =1 σ ij2
ij
( ) ( )
e
NE NY f j ,2 xi f j ,1 xi
e
NE NY
( ) ( )
f j ,2 xie f j ,2 xie NE NY f
( )
e
j ,2 x i ( )
f j , NP xie
M = ∑∑ ∑∑ ∑∑
i =1 j =1 σ ij2 i =1 j =1 σ 2
ij i =1 j =1 σ ij2
∑∑
( ) ( )
NE NY f j , NP xie f j ,1 xie NE NY
( ) ( )
f j , NP xie f j ,2 xie NE NY f x( )
e
f ( )x e
∑∑ ∑∑
j , NP i j , NP i
i =1 j =1 σ ij2 i =1 j =1 σ 2
ij i =1 j =1 σ ij
2
(4.48)
e
(
NE NY yije f j ,1 xie
∑∑
( ))
i =1 j =1 σ ij2
(
NE NY yije f j ,2 xie ( ))
Yf = ∑∑
i =1 j =1 σ ij2 (4.49)
NE NY y e f
( x( ))
e
∑∑
ij j , NP i
σ ij2
i =1 j =1
( )
f1,1 x1e ( )
f1, NP x1e
( )
f NY ,1 x1
e
( )
f NY , NP x1e
( )
f1,1 x 2
e
( )
f1, NP xe2
T
( )
GY x =
e
f
(4.45)
( )
NY ,1 2
xe ( )
f NY , NP xe2
( )
f1,1 xeNE ( )
f1, NP xeNE
( ) e
( )
f NY ,1 x NE f NY , NP x NE
e
σ 1,1
2
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
0 0 σ 1,2 NY 0 0 0 0 0 0 0
0 0 0 σ 2,1
2
0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
Vy = (4.46)
0 0 0 0 0 σ 2,2 NY 0 0 0 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 σ NE
2
,1 0 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 σ NE
2
, NY
(4.47)
que indica que existe uma relação linear direta entre a medida expe-
rimental da variável dependente e o valor estimado para o parâmetro
(ver Exemplo 4.22).
Como já dito, suponha que as variáveis independentes não contêm
erros e que toda a flutuação experimental é devida aos erros de medição
das variáveis dependentes Ye. Suponha ainda que dois conjuntos de dados
obtidos em condições análogas são comparados entre si. Nesse caso,
(4.48)
(4.49)
que relaciona os erros paramétricos com os erros experimentais. Por-
tanto, se os erros flutuam em torno dos valores verdadeiros com média
igual a zero,
(4.50)
os parâmetros também flutuam em torno dos valores verdadeiros, o que
mostra que o procedimento de estimação de parâmetros é consistente.
Isso é muito bom e confere um certo grau de robustez ao procedimento de
estimação de parâmetros proposto. Além disso, a matriz de covariâncias
dos parâmetros pode ser calculada como
·r ,.
V. =M"' G~ V;'E {csT}(v,-•) Gv(M"')
(4.51)
v =M-'GTv-•v (v-•)T G (M"')T
• Y y )y y
(4.52)
Nesse caso, a matriz de covariâncias dos parâmetros ganha a forma
bastante simples
(4.53)
que é utilizada para a interpretação e solução de um grande número
de problemas práticos. Como na Equação (4.28), observe que os erros
paramétricos dependem tanto da estrutura do modelo quanto dos da-
dos experimentais disponíveis, já que tanto o modelo quanto os dados
experimentais precisam ser definidos para que seja possível calcular a
matriz M. Portanto, cada modelo e cada conjunto de dados experimen-
tais resulta em um conjunto distinto de incertezas paramétricas, logo,
onde
J,,,(x) J,,(x) /,_,.~ (x)
,f, , (x) f :: (:r) /,,.,. (x)
B(x)= ... ... (4.55)
que também estabelece uma relação linear direta entre o valor dos parâ-
metros e a previsão da variável dependente em um ponto qualquer x da
região experimental. De forma análoga à realizada anteriormente,
V, = E{AyAyT} = E{ BA<u\aTBT}
(4.56)
·,= BE{ aAaT}BT= BV. BT= BM-'BT
(4.58)
F.
Obj-
_ ~ ~ (y~ - ~ (x~, a)
£.J£.J
J+ LL (x~ _xm )
NE NX
ik ik
2
(4.59)
i=l j=l 0' !]~ i=l k=l 0' ik
2
,
(4.62a)
∂FObj
∂α1 0
∂FObj
0
∇á FObj = ∂α 2 = = 0 (4.62b)
0
∂
Obj
F
∂α
NP
ou seja, o vetor gradiente da função objetivo em relação aos parâmetros
do modelo deve ser nulo.
Quando as variáveis independentes estão também sujeitas a erros, a
função objetivo considerada é aquela definida na Equação (4.59). Nesse
caso, como as variáveis independentes devem ser estimadas simulta-
neamente com os demais parâmetros do modelo, o vetor gradiente da
função objetivo em relação às variáveis independentes também deve
ser nulo, isto é:
i =L..NE
,
k =I...NX
(4.63a)
∂FObj
∂x11 0
∂FObj
0
∇ x FObj = ∂x12 = = 0 (4.63b)
0
∂FObj
∂x
NE , NX
Deve ser observado que o segundo termo do lado direito da Equação
(4.59) não depende dos parâmetros α, de forma que os vetores gradientes
em relação aos parâmetros α das funções objetivos definidas nas Equações
(4.58) e (4.59) são semelhantes. Apenas deve-se usar os valores de xm ao invés
de xe para o cálculo das funções fj, no caso em que as variáveis independentes
estão sujeitas a erros experimentais que não podem ser desprezados.
σ i2,1
i ,2
( ) 2
i ,1
i ,2
σ i2,2
( x
2 i ,1 i ,2 )=0
i =1
∂FObj (
NE y e − α x 2 − x 2
α
) −x (
yie,2 − α1α 2 xi ,1 xi ,2 )
∂α 2
= 2∑
i =1
i ,1 1 i ,1
σ i2,1
i ,2
( α2
i ,2 )
ln (xi ,2 ) +
σ i2,2
(−α1 xi,1 xi,2 ) = 0
∂FObj (
yie,1 − α1 xi2,1 − xiα,22 ) −2α x (y
e
− α1α 2 xi ,1 xi ,2 ) −α α x (x
e
)
− xi ,1
∂xi ,1
= 2
σ i2,1
( 1 i ,1 )+ i ,2
σ 2 ( 1 2 i ,2 )− i ,1
σ i2,1
=0
i ,2
∂FObj (
yie,1 − α1 xi2,1 − xiα,22 ) −α x + (y e
− α1α 2 xi ,1 xi ,2 ) −α α x (x e
)
− xi ,2
∂xi ,2
= 2
σ i2,1
( )
α 2 −1
1 i ,2
i ,2
σ 2 ( 1 2 i ,1 )−
i ,2
σ i2,2
=0
i ,2
onde i = 1...NE.
Quando somente a estimação dos parâmetros α é considerada,
a solução do problema é equivalente à solução de um sistema
de duas equações algébricas com duas incógnitas. Quando o
problema de reconciliação é considerado, o sistema de equações
algébricas passa a ser constituído por 2.NE + 2 equações e 2.NE
+ 2 incógnitas (2.NE variáveis independentes e 2 parâmetros).
Assim, a dimensão do problema numérico que precisa ser resol-
vido aumenta consideravelmente no problema de reconciliação.
A depender do problema de estimação proposto, a dimensão do
sistema de equações que deve ser resolvido pode ser bastante
elevada.
{
V = E ∆x ∆xT ≅ E dx dxT } { } (4.65)
(4.67a)
(4.68a)
(4.68b)
VaFObj (y
e
+Ey,X
e -
,a+~a )= VaFObj (y ,x ,a)+
e e a[VaFObjay•(y•,x•,a )] Ey +
+
a[VaFObj (y•,x•,a )] ~a=O
aa
(4.70a)
que descreve como as incertezas experimentais e paramétricas afetam
o cálculo do vetor gradiente da função objetivo nas proximidades dos
valores estimados para os parâmetros do modelo. De forma similar, se
as variáveis independentes estão sujeitas a erros:
e e - e e
VaFObj(y +Ey,X +Ex,a+~a)=VaFObj(y ,x ,a)+
a[VaFObjay•(y•,x•,a )] Ey+
a[VaFObj (y•,x•,a )] a[VaFObj (y• ,x• ,a)]
ax• Ex + aa .6.a = 0
(4.70b)
O zero do lado direito da Equação (4.70a-b) é imposto pelo procedimento
de estimação de parâmetros; ou seja, independentemente de como os dados
experimentais mudem, os novos parâmetros estimados (α + ∆α) sempre
fazem com que o vetor gradiente da função objetivo seja igual a zero. A
Equação (4.70a-b) indica, portanto, como as incertezas experimentais (εX,
εY) provocam mudanças nos valores dos parâmetros (∆α). O primeiro termo
do lado direito da Equação (4.70a-b) é o próprio vetor gradiente da função
objetivo em relação aos parâmetros no ponto considerado. Por definição,
esse gradiente também é nulo, já que os parâmetros são sempre estimados
através da minimização da função objetivo.
A Equação (4.70a-b) sugere a definição das seguintes matrizes:
()' F;.,
aa,ay;"·"'
()' }•""
G , --
()[V,/·;., (y'. x', u)] -
()y' -
()'J·. ., ifF
()or .,.ay;,
(4.71a)
;)' /· ()',..
... ;n·,.,
aor aa, aa,<>a,,. aa,aa,
() V, J·;.., {y',x'.u} iJ'F ()'F.01'1
... a'F Oly
H• = ""' i)a,i)a,
- aa.aa, aa.aa,.,.
au
i)'l i)' F. i)' F.
"'l.
<>a,.aa, <>a,,.,.aa, ""
aa,.,.aa,.,.
(4.71c)
de maneira que a Equação (4.70) pode ser escrita na forma
G, t, + H, t::..o = 0 (4.72a)
G, t, + G ~ c, + H, t::..o =o (4.72b)
a depender da existência ou não de erros de medida nas variáveis inde-
pendentes. Observe que a matriz Hα, chamada de matriz Hessiana ou
(4.73b)
Inserindo a Equação (4.73) na Equação (4.65), chega-se finalmente a:
V, =E{11o Act" }= E{(- H;' [G,. t, +G, txJ}(- H;' [Gv t, + G, t,J}'}
v. =": [c, v,. c:. +2 c, v" c; + G, v, cU H;'
v, = u:' [c v. I.u:' en
(4.74b)
onde VX, VY e VXY são as matrizes de covariâncias dos desvios experi-
mentais nas variáveis independentes, dependentes e das covariâncias
entre elas. Se as medidas experimentais das variáveis independentes e
dependentes não estão correlacionadas entre si, a Equação (4.74b) ganha
a forma particular
(4.74c)
As Equações (4.74a-c) mostram de forma explícita como a incerteza
experimental se transforma em incerteza nos parâmetros, através da
função objetivo e do modelo utilizados (cujas derivadas estão em Hα, GY
e GX), durante o procedimento de estimação de parâmetros. A validade
das Equações (4.70-74) pressupõe que os erros experimentais e paramé-
tricos são pequenos.
ym = α xm + β
A função de máxima verossimilhança fica na forma
(
ye − α xm − β ) +( )
2 2
NE xie − xim
= ∑
i i
FObj
i =1 σ yi2 σ xi2
O vetor gradiente da função objetivo fica então na forma
(
NE y − α x − β
2∑
e m
− xim )( )
∂FObj
i i
i =1 σ 2
∂ α yi
∂FObj
2∑
(
NE y − α x − β (−1)
e
i
m
i
)
∂β
i =1 σ 2
yi
∇FObj = ∂FObj =
m
∂x 2
(
y1 − α x1 − β (−α )
e m
)
+2
x1 − x1 (−1)
e m
( )
1 σ σ
2 2
y1 x1
∂FObj
xNE − xNE (−1)
∂x m
NE 2 (
y NE − α xNE − β (−α )
e m
)
+2
e m
( )
σ yNE
2
σ xNE
2
As matrizes Hα, GX e GY podem então ser calculadas como
a~ Fof.J oll~litJ a~ F,!h., a~ F,lty
d(X;: aa dj} aa: ri.r~ flo: dY~F
a~ Froy (),! Fr~~tJ ifF.t.tfy ?i-F.Oly
d(X dji' arf r>(J a:r;.. ap ar.~·.r;
8
•=
a'F;~) J=
[ aa, r>·F,!hf d1F;-/{IJ ifJF0~y a~F
()Ty
(};:R:J...
I
~ l FCJioJ
11 ciF.~ cf·FOfy
aa dJ':::n d{J dx; . i1xt i.ax"'r; a(-~.~ t
't")']
~r. -
c:. :f[1D]
·~ cr,.
z-lJ~ -ax,· -/3)+ett;" .. ..1 -(.1~, -c.tt:. -~)+u<.
"~·
11J ,..
z![(•.: ]]
I 6 ,.
-~ [ I-t ]
-~L
"...
..
1' (1
01,,
l.E._
rrJ
.
n.= '] - (1~ -«~.. - ~)+ll'~, ul I
1~ ,_+"'-
- <i a-, -cr - - 0
" a;, ..
fJ~r - rn:.... fJ) 1 ar;~
p O: ;a
,~
• cr; ~ D
.... IZ ~
---.:;-.-
a~. "':
., I
0 0 0
0 0 0
2
− 0 0
G X = σ x21
0 2
0 − 2
σ xNE
− x1m
2
( ) 2 (− x ) m
2
2
(− x )
m
NE
σ y1 σ y22 σ yNE
2 2
2 (− 1) 2
(− 1)
(
2 2
− 1)
σ2 σ 2
σ yNE
y1 y2
G Y = (− α )
2 2 0 0
σ y1
(− α )
0 0 2 2
σ yNE
(
y e − α xe − β )
2
NE
= ∑
i i
FObj
i =1 σ yi2
O vetor gradiente da função objetivo fica então na forma
(
NE yie − α xie − β − xie
∂FObj 2∑
)( )
i =1 σ yi2
∂α
∇FObj = =
∂
∂β 2∑ i
e
(
Obj NE y − α x − β (−1)
F e
i
)
i =1 σ yi2
de maneira que as matrizes Hα e GY podem ser calculadas como
a2Fobj a2Fobj
aa a~ a~
2
2~
i=l
(x:j
a 2~[~?]
yi
H0 =
− x1e
2 2
( ) 2 (− x ) e
2
2
(− x )
e
NE
σ y1 σ y22 σ yNE
2
GY =
2 (− 1) 2
(− 1)
(− 1)
2 2
σ2 σ 2
σ yNE
y1 y2
4 L ----T 4L X~
G V GT = ai
i=t i=t ai = 2H
Y Y Y NEX NE 1 a
4L~ 4 L-2
- i=t a i i=t a i
-
va = H-a1 G v Y Y
G TY H-a1 = 2 H-a1 =
- NE NE -
1
L~
a
i=I i
-LX~
i=t ai
i=l -
( ) V (y )
T
−1
FObj = y e − y m y
e
− ym (4.75)
T T
∂ 2 FObj ∂y m −1 ∂y m ∂ 2 y m −1 e
hr , s =
∂α r ∂α s
= 2
∂α
Vy − 2 Vy y − y
m
( )
r ∂α s ∂α r ∂α s
(4.76)
Admitindo-se que a diferença entre os valores experimentais e os cal-
culados pelo modelo são pequenos e flutuam aleatoriamente ao redor do
valor zero, conforme as hipóteses do modelo perfeito e do experimento
bem-feito, o segundo termo do lado direito da Equação (4.76) pode ser
desprezado. Nesse caso, a matriz Hessiana pode ser aproximada por:
(4.77)
B=[~:]= (4.78)
(4.79)
(4.82)
(y )
2
α xie
NE
e
−e
FObj = ∑
i
i =1 σ yi2
O gradiente da função objetivo fica então na forma
∂FObj
( )( )
NE
2 e α xie
=∑ − xie eα xi
e
yi − e
∂α i =1 σ yi
2
A matriz Hessiana Hα (que neste caso especifico tem dimensão
1x1) pode então ser calculada como
_, ily,
a;. 0 0 ila
a_v:
il;~· ]
0
v =[o'v-'o]""' = [!!!:..
• 1 ()(t 0
C1.:.:
ila
(4.83b)
Quando os erros nas variáveis independentes são pequenos e podem
ser desprezados, a Equação (4.83a) fica:
H0 =
2f (x:j
i=l
..
(J' yi
-
2~[~?J
.2~[~?] tt a~
2 NE [ } ]
-
−x
2 2
( e
1 ) 2 (− x ) e
2
2
(− x )
e
NE
σ y1 σ y22 σ yNE
2
GY =
2 (− 1) 2
(− 1)
(− 1)
2 2
σ2 σ y22 σ yNE
y1
2 NE ~2INE
[(~
"" "" _1 J- (~-2
.£..
2
NE xi J2]
2 ~NE
-"" ~ ~~i
2 i=l (J
1=1 (J i i=l (J i i=l (J i 1=1 (J i ...J
σ y21 0 0
0 σ y22 0
Vy =
2
0 0 σ yNE
Fazendo inicialmente o produto GYVY:
2 2
( ) 2 (− x )
− x1e e
2
(− x ) σ
e
NE
2
y1 0 0
2
σ y1 σ σ σ y2
2 2 2
0 0
G Y Vy = y2
yNE
G Y Vy =
( ) 2 (− x )
2 − x1e e
2 (
2 − xNE
e
)
2 (−1) 2 (−1) 2 (−1)
V, =B V. B 1
. +BCovar (~u, e,. ) +Covar(~a, tv ) B.,. +V,
(Deve ser observado que, no caso da estimação simultânea das vari-
áveis independentes xm, como no problema de reconciliação de dados,
esses valores devem ser interpretados como os demais parâmetros
estimados do problema e incluídos no vetor a .)
Repare que a Equação (4.85) gera dois cenários: interpretação das
incertezas de predição dos pontos experimentais usados para a estimação
de parâmetros e a interpretação de incertezas de predição associadas a
um novo ponto experimental. No primeiro caso, a matriz de covariâncias
das incertezas da predição é a Equação (4.85). Já no segundo caso, os
desvios Y correspondem a desvios de condições que não foram usadas
para a estimação dos parâmetros. Nesse caso, a correlação entre ∆ a e
Y
é nula, de forma que a matriz de covariâncias dos erros de predição
fica na forma mais simples:
A T
V, = BV.,B +V., (4.86)
A Equação (4.86) mostra que o erro de predição tem dois componentes.
O primeiro é um componente relativo aos erros cometidos no passado (na
forma dos erros dos parâmetros Vα, lembrando que a matriz de sensitividades
na Equação (4.82) deve ser calculada nas condições experimentais onde os
experimentos já foram realizados). O segundo é um componente relativo
aos erros futuros (na forma do erro de experimentação Vy e na matriz de
sensitividade B calculada, agora, nos pontos onde se deseja calcular o erro de
predição, onde ainda não foram necessariamente feitas observações experi-
mentais). Essa equação mostra que nunca conseguimos nos livrar totalmente
dos erros cometidos no passado, já que eles se propagam indefinidamente
para o futuro na matriz Vα. Portanto, há que se ter sempre muito cuidado
com erros cometidos no laboratório para estimar parâmetros, pois eles se
propagarão indefinidamente para o futuro, sempre que o modelo for usado
para simulação, projeto, otimização etc. Esse é um aspecto operacional que
não tem sido explorado suficientemente no ambiente da pesquisa.
As expressões desenvolvidas acima para a definição das incertezas
paramétricas e de predição são fundamentais para a correta interpretação
estatística dos resultados, como será discutido na próxima seção. Além
disso, essas expressões são de fundamental importância para a perfeita
compreensão dos procedimentos clássicos de planejamento experimen-
tal, como discutido no Volume II desta série de publicações.
FObj
σˆ y2 = (4.87)
NE − NP
onde NE-NP é o número de graus de liberdade ν. Portanto, a variância de
predição do modelo ( σˆ y2 ) pode ser comparada aos erros experimentais
( σ y2 ) com o teste F, descrito na Seção 3.3. Se as duas variâncias são se-
melhantes estatisticamente, o modelo deve ser considerado satisfatório
e não há motivos aparentes para descartar o modelo (nem a hipótese
do modelo perfeito). Caso contrário, dois cenários são possíveis:
a) σˆ y2 > σ y2 : o modelo não é capaz de explicar os erros experimentais a
contento, pois os erros de predição são significativamente maiores
que os erros experimentais. Logo, esforços devem ser feitos para
aperfeiçoar o modelo. Não deve também ser descartada a possibili-
dade dos erros experimentais estarem subestimados. Nesse caso, é
também conveniente que o experimentador reavalie a precisão das
medidas feitas e das informações usadas para fins de estimação de
parâmetros.
b) σˆ y < σ y : o modelo reproduz os dados experimentais muito melhor
2 2
0,5 ..;..-..,.L---------~----l
0 1 2 4 5
X
Figura 4.14 – Esquema ilustrativo dos problemas da super parametrização.
∑ (y e
i − yie )(y m
i − yim )
ρ =m i =1
(4.89)
NE e 2 NE 2
∑ i (y − yi
e
)
∑ i y m
− (
yi
m
)
i =1 i =1
que indica quão proximamente os dados calculados acompanham os dados
experimentais. Usualmente, se o coeficiente de correlação é superior a 0.9,
o modelo é considerado satisfatório, indicando que os valores preditos
pelo modelo variam de forma aproximadamente linear e proporcional
com as medidas experimentais. Contudo, é importante que o usuário
perceba que valores inferiores a 0.9 podem indicar tanto o desajuste
do modelo (recomendando aperfeiçoamento da estrutura matemática
usada para descrever os dados experimentais), quanto a existência de
erros experimentais excessivos (recomendando o aperfeiçoamento das
técnicas experimentais). (Recomenda-se que o leitor consulte a Seção 1.6
para observar que o coeficiente de correlação não pode ser tomado como
uma medida absoluta da qualidade do ajuste do modelo.) A identificação
do foco do problema pode ser feita com auxílio da função objetivo. Por
exemplo, se a função objetivo recomenda o uso do modelo (χ2min < FObj <
χ2max) e o coeficiente de correlação é baixo (ρm < 0.9), o problema central
parece ser o excesso de erro de experimentação. Por outro lado, se a função
objetivo não recomenda o uso do modelo (FObj > χ2max) e o coeficiente de
correlação é baixo (ρm < 0.9), o problema central parece ser a má qualidade
do modelo. Idealmente, um bom modelo e um bom plano experimental
vão levar simultaneamente a χ2min < FObj < χ2max e ρm > 0.9.
É importante que se perceba ainda que, uma vez obtidos os parâme-
tros do modelo, é possível montar uma tabela na forma da Tabela 4.1,
onde são apresentados os dados obtidos, que pode ser transformada na
Tabela 4.2, onde são explicitados os desvios experimentais.
Tabela 4.1 – Dados experimentais e calculados com o modelo.
xe1,1 ... xeNX,1 ye1,1 ... yeNY, 1 xm1,1 ... xmNX,1 ym1,1 ... ymNY,1
... ... ... ... ... ... ... ...
xe1,NE ... xeNX,NE ye1,NE ... yeNY,NE xm1,NE ... xmNX,NE ym1,NE ... ymNY,NE
Tabela 4.2 – Desvios de modelagem.
εx1,1 = xe1,1 – xm1,1 ... εxNX,1 = xeNX,1 – xmNX,1 εy1,1 = y1,1 – ym1,1 ... εyNY,1 = yeNY,1 – ymNY,1
εx1,NE = xe1,NE – xm1,NE ... εxNX,NE = xeNX,NE – xmNX,NE εy1,NE = ye1,NE – ym1,NE ... εyNY,NE = yeNY,NE – ymNY,NE
•
.,
i
1
0,8
..
E
-
"il 0,6
:;)
ij
~
0,4
0
:;;
• 0,2
.-.
~
• 0
0 0,2 0,4 0,6 0,8 1
Probobilidado acumulad• ospo"'d'
.,i•
1
0,8 ,,~
...•..•
•
.
E
§i~ 0,6
i"
., J! 0,4
:0
:a 0,2
..eJl
0
0 0,2 0,4 0,6 0,8 1
Probabilidade acumulada e&perada
1
•
.,"ll
E, .
.• •
" "~
0,8
0,6
il _8
;g 0 0,4
:;;
• 0,2
..
~
e
0
0 0,2 0,4 0,6 0,8 1
α i − cσ αi < α i < α i + cσ αi (4.90c)
onde c é um número real positivo maior do que o valor sugerido pela curva
normal para um determinado nível de confiança. Pelas razões apontadas,
sugere-se que o usuário sempre defina de forma clara a forma com que
se está calculando o intervalo de confiança dos parâmetros.
Correlação paramétrica
De forma análoga à da Equação (1.50) da Seção 1.6, define-se o coeficiente
de correlação paramétrica na forma:
σ ij2
ρij = (4.91)
σ iσ j
Quanto mais próximos de zero estiverem os coeficientes de correlação
paramétrica, mais eficientes serão os procedimentos de estimação dos
parâmetros e mais precisa será a identificação dos diferentes efeitos no
modelo. Quando a correlação paramétrica supera em módulo o valor de
0.9, é conveniente que o usuário reflita sobre a verdadeira necessidade de
introduzir esses parâmetros no modelo, dado que pequenas mudanças
no valor de um dos parâmetros podem ser compensadas com mudanças
de um segundo parâmetro que está a ele relacionado. Dessa maneira, a
correlação paramétrica indica que flutuações de alguns parâmetros podem
ser acomodadas por variações de outros parâmetros, de forma que talvez
seja possível reduzir o número de parâmetros do modelo. Por exemplo, o
modelo apresentado na Equação (4.92a), muito utilizado para a descrição de
modelos cinéticos, sugere a existência de 3 parâmetros: K1, K2 e K3. No en-
tanto, a Equação (4.92b) mostra que há apenas dois parâmetros no modelo:
(K1 / K2) e (K3 / K2). Portanto, a forma da Equação (4.92a) está errada, sob o
ponto de vista de estimação de parâmetros, dado que não é possível separar
os efeitos paramétricos uns dos outros. Repare ainda que a definição dos
parâmetros não é única, dado que qualquer um dos parâmetros poderia
ser utilizado no denominador. Esse é o clássico exemplo de correlação
paramétrica induzida pela formulação matemática do modelo.
K1 x
y= (4.92a)
K2 + K3 x
K1
K x
y= 2 A1 x
= (4.92b)
1 + 3
K x 1 + A2 x
K2
Correlações paramétricas elevadas às vezes são também geradas
por planejamento experimental ineficiente, como ilustrado a seguir e
discutido no Volume II desta série de publicações. Por exemplo, suponha
que um modelo pode ser escrito na forma
y = α1x1 + α2x2 + α3 (4.93a)
Não há nada de errado com a formulação do modelo apresentado na
Equação (4.93). No entanto, suponha ainda que os dados experimentais
são tais que xe1 = xe2. Nesse caso, quando o modelo é aplicado à malha
experimental, conclui-se que
y = α1xe1 + α2xe2 + α3 = (α1 + α2)xe1 + α3 = A1 xe1 + α3 (4.93b)
Portanto, apesar do modelo estar definido corretamente, parece claro
que não é possível separar os efeitos de x1 e x2 na malha experimental
proposta (ou seja, não é possível estimar α1 e α2 independentemente).
Para piorar, mesmo que não haja problemas nem com a formulação
do modelo, nem com a proposição da malha experimental, é possível que
efeitos numéricos causem o aparecimento de correlações paramétricas
e de problemas para a estimação independente dos parâmetros. Por
exemplo, considere a Equação (4.92b). Suponha que A2 é muito grande.
Nesse caso, a Equação (4.92b) ganha a forma:
A1 x A K
y= ≈ 1 = 1 (4.92c)
1 + A2 x A2 K 3
de maneira que apenas um parâmetro está efetivamente presente no
modelo. Suponha agora que A2 é muito pequeno. Nesse caso,
A1 x K
y= ≈ A1 x = 1 x (4.92d)
1 + A2 x K2
e, uma vez mais, apenas um parâmetro está efetivamente presente no
modelo. Esse tipo de correlação paramétrica é muito difícil de avaliar a
priori, porque depende da magnitude relativa dos parâmetros. Na grande
maioria das vezes, e em particular quando o modelo é não-linear e contém
muitos parâmetros, o usuário não conhece a magnitude relativa dos efei-
tos, de forma que não é possível eliminar esses efeitos antes de realizar a
estimação. Isso torna o cômputo das correlações paramétricas fundamental
para a correta avaliação da qualidade final dos resultados obtidos.
É importante ressaltar que correlações paramétricas elevadas às vezes
não têm como ser evitadas, por resultarem da estrutura intrínseca do
modelo matemático, o que é comum em modelos não-lineares, como o
modelo de Arrhenius (veja o Exemplo 4.10). Contudo, correlações eleva-
das sempre indicam problemas de estimação, que devem ser evitados e
compreendidos. Uma das conseqüências práticas da existência de cor-
relações paramétricas é o mau condicionamento da matriz Hα; ou seja,
em outras palavras, a matriz Hessiana usada amplamente nas seções
anteriores pode ser não inversível (ou difícil de inverter numericamen-
te). Obviamente, isso pode prejudicar toda a análise numérica proposta
nas seções anteriores, já que a inversa de Hα é usada em vários procedi-
mentos. (Isso indica que a invertibilidade da matriz Hessiana pode ser
usada como ferramenta para identificação da existência de correlações
paramétricas inaceitáveis no modelo.) Uma forma possível de minimizar
os efeitos associados a correlações paramétricas é a reparametrização
do modelo, que será discutida no Capítulo 5.
NE NE NE
(4.94)
que mostra que os erros de predição crescem na forma de uma parábola,
à medida que x cresce em valor absoluto. A Equação (4.94) é usada fre-
qüentemente para justificar a frase de que a extrapolação é menos precisa
que a interpolação. Contudo, é importante enfatizar que a Equação (4.94)
é válida unicamente para a reta e não deve ser usada como argumento
para outros modelos. Por exemplo, no caso do modelo na forma:
y = 1 – e–αx (4.95)
é possível escrever
(4.96)
..
0
1
0,8
"'
.!!! I
..
"
,!,! 0,6 ... I
u
..e 0,4 I T- ....,
tw l
0
;;; 0,2
>
0
0 0,2 0,6 0,8 1
Valores Observados
Figura 4.18 – Padrão típico de comparação entre os dados calculados pelo
modelo e os dados observados experimentalmente, quando o modelo é bom e
os experimentos são bem-feitos.
.,0 1
0,8
".!!!
...,"
,!,!
u
0,6
.. 0,4
..
~
.2 0,2
>
0
0 0,2 0,4 0,6 0,8 1
Valores Observados
.,
0
1
0,8
"'.!!!
...,"
,!,!
u
0,6
0,4
e0
>
.. 0,2
0
0 0,2 0,4 0,6 0,8 1
Valores Observados
1
l!
"',
!!
0,8 ~
.!! 0,6
m
0
... ""
0,4
~
0
;; 0,2 ... ~
>
0
0 0,2 0 ,4 0,6 0,8 1
Vatores Observados
Figura 4.21 – Padrão típico de comparação entre os dados calculados pelo
modelo e os dados observados experimentalmente, quando o modelo não
apresenta desempenho uniforme na região de experimentação (erra mais para
um lado do que para outro).
6
y e
i
0.1 0.9 2.2 3.2 3.9 4.8 ⇒ ∑y i =1
e
i = 15
∑ (x ) = 55
2
e
e2
(x )
i
0 1 4 9 16 25 ⇒ i
i =1
6
yxe e
i i
0 0.9 4.4 9.3 15.6 24 ⇒ ∑ (y
i =1
e
i )
xie = 54.2
6 ⋅ 54.2 − 15 ⋅15
α= = 0.9542857413
6 ⋅ 55 − 15 ⋅15
15 − 0.9542857143 ⋅15
β= = 0.114285715
6
resultando no seguinte conjunto de predições feitas com o modelo
∑( )
2
yie − yim
σˆ =
2
y
i =1
= 0.02085714281
4
σˆ y = σˆ y2 = 0.1444200222
enquanto o coeficiente de correlação do modelo fica na forma
ρ m = 0.9974
que indica fortíssima correlação entre os valores experimentais
e calculados através do modelo, indicativo também de excelente
grau de ajuste.
Admitindo-se que o erro experimental σ y é igual ao erro oriundo
2
6
σ α2 = 0.020855714281 = 0.00191836732
6 ⋅ 55 − 15 ⋅15
σ α = σ α2 = 0.03452298846
55
σ β2 = 0.020855714281 = 0.001546598622
6 ⋅ 55 − 15 ⋅15
σ β = σ β2 = 0.1243623183
σ αβ
2
= 0.020855714281
(−15) = −0.00297959183
6 ⋅ 55 − 15 ⋅15
resultando em um coeficiente de correlação paramétrica igual a
σ αβ
2
ραβ = = −0.6940
σ ασ β
indicando moderado grau de correlação entre os dois parâme-
tros. O sinal negativo indica que perturbações positivas em um
dos parâmetros provocam perturbações negativas no outro e
vice-versa.
O erro de predição exclusivo do modelo pode ser dado por
σˆ y2 = 0.00191836732 ⋅ x 2 − 2 ⋅ 0.00297959183 + 0.01546598622
.·
- 1 ~----------------------------------------------~
u
4.8. Conclusões
Foi definido nesse capítulo o problema de estimação de parâmetros.
Um procedimento foi construído para inferir os valores de certas va-
riáveis (os parâmetros) que não podem ser medidas, mas sem as quais
os modelos matemáticos não têm utilidade. O problema é constituído
por três etapas: uma etapa de formulação de uma função objetivo, uma
etapa de minimização da função objetivo e uma etapa de interpreta-
ção dos resultados finais. Para formulação da função objetivo a ser
minimizada durante a segunda etapa do procedimento proposto, foi
criada uma metodologia de máxima verossimilhança. A metodologia
propõe que os erros de modelagem sejam usados como amostras dos
erros experimentais, o que está em consonância com as hipóteses de
existência de um bom modelo e de bons dados experimentais. Essas
hipóteses podem ser validadas (ou rejeitadas) a posteriori, depois de
obtidos os resultados da estimação.
Mostrou-se através de exemplos que o usuário não deve ter a ex-
pectativa de gerar soluções analíticas para o problema de estimação de
parâmetros para problemas genéricos, o que justifica o desenvolvimento
dos métodos numéricos apresentados no próximo capítulo. Apesar disso,
várias expressões matemáticas úteis foram derivadas, para permitir a
interpretação matemática (estatística) dos resultados obtidos, quando
os erros experimentais não são muito grandes.
∑ (y − yic ) ;
2
a) Fa = e
i
i =1
10
b) Fb = ∑ (y
i =1
e
i −y c 8
i );
2
yie − yic
10
c) Fc = ∑ e ;
i = 1 yi
d) Compare os valores obtidos.
1 ε _II
P (ε i ) = exp − i , −∞ < ε i < ∞
2σ i σi
onde εi são os desvios ou erros experimentais e σi é o desvio padrão,
defina a função objetivo a ser usada em um procedimento de esti-
mação de parâmetros que utiliza estes dados.
∑ (y − yim ) ;
2
a) F = e
i
i =1
(yie − yim )
2
NE
b) F =
∑
i =1 σ i2
;
NE NE
Procedimentos
5 Numéricos para
Estimação de Parâmetros
(5.1)
Quando as variáveis independentes são conhecidas com grande
precisão, a Equação (5.1) fica reduzida a:
NE
(
FObj = ∑ y ie − y im ) V (y )
T
−1
Yi
e
i − y im
i =1 (5.2)
É importante observar, como discutido no Capítulo 4, que as Equa-
ções (5.1-2) são apenas exemplos de um conjunto muito mais amplo de
possibilidades, já que a função objetivo pode apresentar muitas formas
diferentes, a depender do problema analisado. A despeito disso, a não ser
que seja dito explicitamente o contrário, as Equações (5.1-2) serão usadas
para a formulação dos problemas de estimação de parâmetros propostos
nesse capítulo. Deve ser ainda observado que, quando todas as medidas
são realizadas de forma independente, as matrizes VYi e VXi são diagonais
e a Equação (5.1) fica na forma da Equação (4.43) definida no Capítulo 4.
Considera-se que o modelo matemático que relaciona as variáveis
independentes (x), os parâmetros ( ) e as variáveis dependentes (y)
pode ser escrito na forma:
ymi = f (xmi , ) (5.3)
~~ , ... ,X~,a)
m
gNP+NX*NE 0 XNX,NE
aFObj
axZx*NE
(5.4)
que totalizam NP + NE.NX equações algébricas, cuja solução fornece a
solução do problema de estimação (a despeito do fato de esta ser ape-
nas uma condição necessária, mas não suficiente, para a caracterização
de um ponto mínimo). Considerando que as variáveis independentes
são conhecidas com grande precisão, apenas os parâmetros do modelo
p, =.Po -J;'I o
onde se supõe que o sistema de equações a ser resolvido (g( II )) pode
ser aproximado por uma reta nas proximidades de um ponto ( Jl0), trun-
cando-se a expansão em série de Taylor no primeiro termo (primeira
derivada da função). Quanto mais próxima a solução procurada ( )
estiver do ponto inicial fornecido ( Jl 0), mais acurada será a aproxima-
ção obtida da solução ( 1). Dessa forma, espera-se que o usuário seja
capaz de fornecer uma estimativa inicial da solução ( II0), seja capaz de
calcular as funções algébricas que pretende resolver (g0 = g( 0)) e as
respectivas derivadas
J~=1~
at~,. é a matriz Jacobiana do sistema de equações, definida
como
~'· •••
~'•
Jlt = •• ••
•
••
• (5.7)
~'• •••
~'·
onde NG denota o número total de equações e variáveis que constituem
o problema. Nos casos particulares analisados nas Equações (5.4-5), NG
é igual respectivamente a NP+NX*NE e NP.
e definindo
NE NE
U = ∑ B V y − f
T
i
−1
Yi
e
i i
0
T = ∑ BiT VY−i1Bi
i =1 i =1
ou na forma iterativa
.....
u;.
.t.--+1 =·rl"-T-1 U ·
u:. . k k
Assim, a partir de uma estimativa inicial α0 proposta pelo usuário
e do cálculo das derivadas do modelo em relação aos parâmetros
(presentes nas matrizes T e U), a solução do problema de estima-
ção pode ser obtida de forma recursiva. É claro que a garantia de
convergência do procedimento recursivo está intimamente ligada
à qualidade da estimativa inicial fornecida e à forma matemática
( ))
NE NE
( ) (
2
FObj = ∑ y − y = ∑ yie − exp −k xie
2
e m
i i
i =1 i =1
( ))x
NE
g1 = ∑ yie − exp −k xie ( e
i (
exp −k xie = 0 )
i =1
∂k i =1
i i i
g1 (ki )
ki +1 = ki −
J (ki )
Partindo-se então de uma estimativa inicial para k0=1.000000
(o grande número de casas decimais é proposital, para ilustrar a
convergência do procedimento), os valores encontrados durante
o procedimento recursivo são:
f(a)- J(a0 )+(a- a•)' w •• -t(a- (1•)' H•• (u- u•) (5.8)
Vf .
•
=[8o
8j
1
...
a~
8j
. ., .
T (5.9)
alf all
8oI2 ao,aa.
R ., = (5.10)
"
D'f alf
aa,,»a, ao;.
Como definido anteriormente, no ponto de mínimo de f( (l ) o vetor
gradiente é nulo. Assim, derivando-se a Equação (5.8) em relação a (l ,
obtém-se a seguinte equação:
Vf(a):: 'Vf•• + B•' (a - a•)= 0 (5.11)
ou simplesmente
(5.13b)
(5.14a)
(5.14b)
e/ou
(5.14c)
(5.14d)
lim k →∞ IE I= C k +1
p
IE I k
f ′ (α )
φ (α ) = α −
f ′′ (α )
Expandindo a função φ(α) na forma de uma série de Taylor em
torno do ponto α* e fazendo a = ak é possível escrever:
φ ′′ (α∗ )
φ (αk ) = α∗ + (αk − α∗ )φ ′ (α∗ )+ (αk − α )
∗ 2
2
A derivada primeira de φ(α) no ponto α* é nula, já que f´(α*) =
0, conforme vemos abaixo:
Como φ (α k ) = α k +1 , a seguinte equação pode ser escrita:
∗ 2
φ ′′ (α∗ )
αk +1 − α∗ = αk − α
I I 2
e ainda
′′ (α )
E I φ_
∗
I k +1
= 2
2
IE I
k
( ∗)
Como φ ′′ α é diferente de zero, a pode ser ainda escrita da
seguinte forma:
φ ′′ (α∗ )
I I= _= C ≠ 0
Ek +1
lim k →∞ 2
2
IE I
k
(5.15)
onde λk é um parâmetro usado para controle do passo. Em outras palavras,
a técnica de Newton-Raphson (e a Equação (5.6b)) procura o ponto onde um
conjunto de equações se iguala a zero. Nesse caso, não é possível saber ob-
jetivamente ao longo do processo iterativo se a busca vai ser bem sucedida
ou não. Contudo, na forma proposta pela técnica de Newton, procura-se
caminhar na direção em que a função objetivo diminui. Logo, é possível
saber de forma bem objetiva se a iteração foi bem sucedida ou não. Para isso,
basta checar se a função objetivo diminuiu. Se a função objetivo aumentou
ao longo de uma iteração, dois fatos podem ter ocorrido. O primeiro fato
está relacionado ao tamanho do passo. Pode ser que o avanço tenha sido
excessivo, em decorrência da aproximação quadrática não ser ter sido boa.
Nesse caso, basta dar um passo um pouco menor e mais conservativo, dado
que a aproximação proposta pela Equação (5.8) é sempre válida numa vizi-
nhança suficientemente pequena da estimativa disponível. O segundo fato
diz respeito à forma da função objetivo, que pode ser não convexa na região
analisada; ou seja, não ter a curvatura que caracteriza a existência de um
mínimo. Nesse caso, é necessário garantir que o procedimento numérico não
vai caminhar para um ponto de máximo, ao invés de um ponto de mínimo.
Esses dois aspectos são considerados no algoritmo apresentado a seguir.
i)FObj(a)
3. Calcular; i)al
u•
Vfk =
i)FO!IJ ((l)
i.laNP u•
5. Inverter Hk;
-· -·
6. Calcular a k+1 = αk – λk Hk–1 ∇Fk;
7. Calcular Gk = FObj ( a k+1);
8. Se Gk < Fk, a iteração foi bem sucedida;
8a) Verifica-se o critério de convergência. Se houve convergência,
pare.
8b) Se não houve convergência, atualiza-se o procedimento:
k = k + 1; λk = 1; Fk = Gk;
8c) Retorna-se ao passo 3;
9. Se Gk > Fk, a iteração foi mal sucedida;
9a) Verifica-se a curvatura da aproximação quadrática, segundo
a Equação (5.8):
9b) Se ∆FObj
lin
> 0 , inverte-se a direção de busca: λk = – λk e volta-
se ao passo 6;
9c) Se ∆FObjlin
< 0 , reduz-se o tamanho do passo: λ k = r λ k,
0 < r < 1, e volta-se ao passo 6.
E
yi = exp −(k010 )ti exp −
17
Ti
onde i indica o experimento, ti é o tempo, Ti é a temperatura, yi é a
fração que resta do reagente e k0 e E são os parâmetros que devem
ser estimados a partir dos dados experimentais, apresentados na
Tabela 5.3. (Observe que de acordo com a Equação de Arrhenius,
E = ∆E/R) Como o valor de k0 é da ordem de 1017, foi inserida uma
constante na equação do modelo, para que o parâmetro k0 ficasse
com um valor próximo de 1.
Tabela 5.4 - Seqüência obtida pelo método de Newton ao longo das iterações.
iteração k0 [s-1] E [K] FObj (x10-2) λ
0 0.6000 25000.0 2276.56 ----
1 0.6006 25263.8 2224.46 -1.00
2 0.6035 25595.0 2063.93 -1.00
3 0.6084 25994.4 1608.54 -1.00
4 0.6151 26875.3 231.708 -1.00
5 0.6173 27310.4 9.54981 +1.00
6 0.6176 27418.5 1.14302 +1.00
7 0.6155 27430.6 1.03352 +1.00
8 0.6569 27472.9 1.03217 -0.06
9 0.6779 27491.8 1.03081 +1.00
10 0.7273 27537.2 1.03065 +1.00
11 0.7379 27544.8 1.02912 +1.00
12 0.7703 27572.4 1.02875 +0.44
13 0.7869 27585.3 1.02835 +1.00
14 0.8222 27613.4 1.02823 +1.00
15 0.8299 27618.6 1.02800 +1.00
16 0.8561 27638.4 1.02798 +1.00
∂FObj F1 − F2
≈
∂α i 2δi
F1 − F2 F3 − F4
−
∂ 2 FObj 2δ 2δ
≈
j j
∂α i ∂α j 2δi
Se (i = j) é o mesmo parâmetro:
2m) Perturbar o i-ésimo parâmetro para a frente: αki = αki + δi;
2n) Calcular a função objetivo: F1 = FObj ( k);
∂α i ∂α i δi
(5.17)
(5.18)
'
Figura 5.3 - Gráfico de contorno da função objetivo como função dos
parâmetros, mostrando os caminhos percorridos pelo método de Gauss
(círculos) e pelo método de Newton-Newton (quadrados) para duas
estimativas iniciais diferentes.
(5.19)
onde λ é um escalar que define o tamanho do passo que será dado ao longo
da direção determinada pelo vetor gradiente. Comparando-se a Equação
(5.19) com a Equação (5.13), conclui-se que a técnica de gradiente pode ser
interpretada como uma técnica de Newton em que se aproxima a matriz
Hessiana (de forma grosseira) pela matriz identidade. Contudo, diferente-
mente do método de Newton, que propõe que uma boa aproximação para
αk +1 = αk − λ ⋅ f ′ (αk )
Assim, a função que gera os números da seqüência pode ser
escrita como
φ (α ) = α − λ ⋅ f ′ (α )
Expandindo a função φ(α) em série de Taylor em torno do ponto
α* e fazendo α = αk encontramos:
φ ′ (α∗ )= 1− λ ⋅ f ′′ (α∗ )
αk +1 − α∗ = αk − α∗ ⋅ φ ′ (α∗ )
I I
e ainda
IE I= φ′ (α )
k +1 ∗
IE I
k
lim k →∞ IE I= φ′ (α )= 1−λ ⋅ f ′′ (α )≠ 0
k +1 ∗ ∗
IE Ik
(5.20a)
onde Ak é uma matriz positiva definida qualquer. (Isto quer dizer que
todos os valores característicos da matriz são positivos Ak. Uma discussão
sobre valores característicos e matrizes positivas definidas é apresen-
tada no final do Capítulo 3.) Portanto, basta que o vetor gradiente seja
multiplicado por uma matriz positiva definida para que se garanta a
convergência do procedimento numérico da Equação (5.20c) para um
mínimo. Por isso, vários métodos propostos exploram as conseqüências
desse teorema para fins de proposição de algoritmos de minimização.
O método de Levenberg-Marquardt utiliza uma aproximação do tipo
apresentado na Equação (5.20a), substituindo a matriz identidade por
uma matriz positiva definida A genérica que aproxima de alguma forma
a matriz Hessiana. A matriz A pode ser obtida ao longo do procedimento
iterativo, à medida que a forma da função objetivo (e do seu gradiente)
vai sendo revelada pelo processo de busca. Várias soluções já foram
propostas para obtenção eficiente da matriz A, incluindo formas que
evitam a necessidade de inverter a matriz Hessiana aproximada. Esses
métodos são chamados genericamente de métodos de Quasi-Newton, por
usarem uma formulação aproximada da matriz Hessiana do método de
Newton. O leitor interessado deve consultar a lista de leituras sugeridas
para obter maiores detalhes a respeito dessas técnicas.
(5.22b)
onde αLo e αHo são os limites da região no início da busca, αotm é o ponto
ótimo encontrado até a iteração k e TR controla a taxa de redução da
região de busca. A inclusão do parâmetro TR reduz a robustez do método,
já que o sucesso da minimização fica dependente da escolha adequada do
valor de TR, que deve ser da ordem de 1% (podendo variar de acordo com
o problema que está sendo resolvido). Os outros parâmetros de busca do
método de Monte Carlo são o número de iterações (Niter) e o número de
pontos (Npt) avaliados em cada iteração. Um fluxograma ilustrativo do
algoritmo do método de Monte Carlo é apresentado na Figura 5.4.
INIOO
Mformar:
1\.'1'.10 dto bUICI
*m
1~/.ttr.}fJf
l)dinir aillrio de pnd1
Vaiuec irtic:itia:
k• O; T-• 1013:1
A(Udooa her~
k-H I
Companr e- ed«ionur
o mdbor pooto
Nlo
f1M
(5.24)
L5 , - - - - - - - - - - - - - - - - - - - - - - .
--.. ---
· · -· ··~ -- ~--~~ ---- -----
Ul '------------------~------'
{1, 100 !00
tn I ~
~
~·
n
I ,., ,..
...
.... ..., ••• ---"
Figura 5.6 - Variação dos melhores parâmetros obtidos ao longo
das iterações com o método de Monte Carlo.
I
D
SeJeci onllf_r pn_res
I e t:fetuar c..ruzamenlo
D
[ Selt:cionar individuoo
e ef~tuar m uta.y,!io
T~estar
criterio
....____ de parada
n
..__ _ Flrvl _j
Figura 5.7 - Fluxograma das operações realizadas pelo Algoritmo Genético.
P1 1 0 1 1 0 0 1 1 1 0
P2 1 1 0 1 0 1 0 1 1 0
O cruzamento entre os dois indivíduos acima é realizado através da
troca de parte do conjunto de informações de cada indivíduo. Uma das
formas de cruzamento consiste em sortear um ou mais pontos de quebra
e cruzar as informações, conforme exemplificado abaixo:
P1 0 1 1 1 0 0 1 1 1 0
P2 1 1 0 1 0 1 0 1 1 0
F1 0 1 1 1 0 1 0 1 1 0
F2 1 1 0 1 0 0 1 1 1 0
Da mesma forma que o cruzamento, a mutação de um determinado
indivíduo só ocorre se uma certa probabilidade de mutação for satisfeita.
Assim, um número aleatório com distribuição uniforme no intervalo
[0, 1] é sorteado. Se este número for menor que a probabilidade de
mutação, o indivíduo sofre a mutação; caso contrário, nada acontece e
o indivíduo passa para a população seguinte. No cruzamento, os indiví-
duos mais aptos têm maior probabilidade de serem selecionados para o
cruzamento. Já na mutação, todos os indivíduos são selecionados, que
ocorre ou não de acordo com a probabilidade de mutação. Uma forma de
realizar a mutação consiste em sortear um ou mais pontos do conjunto
de informações de um indivíduo e inverter o valor deste ponto, conforme
exemplificado abaixo:
F1 0 1 1 1 0 1 0 1 1 0
M1 0 1 0 1 0 1 1 1 1 0
Entretanto, para problemas de otimização em que as variáveis são
contínuas, a utilização da codificação binária não é recomendada, já que
o algoritmo de representação binária pode apresentar complexidade
significativa. Um destes problemas ocorre porque a mudança de apenas
um ponto do indivíduo pode levar a grandes modificações neste, o que
atrapalha a convergência do algoritmo, conforme é mostrado abaixo:
1111 1 31 111 1 1 31 11 1 11 31 1 1 111 31 1 1111 31
1111 0 30 111 0 1 29 11 0 11 27 1 0 111 23 0 1111 15
Outro problema associado é a necessidade de discretizar as variáveis
contínuas, o que pode levar a aumento considerável da dimensão do
problema (quanto maior a precisão, maior o número de bits necessários
para representar um indivíduo). Por fim, existe ainda a necessidade de
converter os indivíduos da codificação real para codificação binária e
vice-versa, o que aumenta o custo computacional do algoritmo. Portanto,
a utilização da codificação decimal usual para representar o conjunto de
informações de um indivíduo é mais adequada quando são utilizadas
αi , Novo = αi , P + r (αi , P − αi , P )
1 2 1
(5.26)
"
-s ".., Ln'
!" u ..............' ............ ............ - -- ...............
,," 0 l iot
•• ''""';)(;W ,., ·~ ""
Figura 5.9 - Variação da função objetivo ao longo das iterações com
o método do Algoritmo Genético.
.
"; --
£_. •
:
- Lll'
--···············-····-·---·-··-·· - t] •
;;; ...... ······-··-·-··-··-··-· -··-··-·····-·····-·····-··-
•-
'
•
--
••
- -- p •• ~
""'•
Figura 5.10 - Variação dos melhores parâmetros obtidos ao longo
~ ~
-· - •• -
das iterações com o método do Algoritmo Genético.
∆F ∗
T0 = − (5.30)
ln (0.95)
""~
Ro:J;Itodt~
,\T, Iff. 11
l>~finir ail irio . ,.__
L-;::=:,:.:.::d~flifj•l..
ll' • O; '-• 101"1
lsonw ~ ....u.poc.~ollilld.ll.l
I
••
¢.'cut • • ••llli •
llpolnii.IO(Ifi"O
~••p~II .S.olr
• tfllrUI,. .
""
Alll.ilin. - ·~rio..
0 •llkll Qll~
ti
I
.
,.,...... •
c L3
~
~
~
~
-:2'
..... t ::!
,Qo
Ll
IL
.
I
ltt:ra¥t1o
ln.----------------------,
•
... ..
..•.
:... .. ~ l . ... _
a.k+l
d
l,
= a.z,k d + v.z,k+l
d (5.32)
L.S.
u.
...
I;
....-
~ ,
~
.a .,-'
·~ L :!
~
lt r-------------------------------~
n
,L-_________________________________ J
u IJII H WU - 1«1
n...L------~-~-------
M-
u-------------~-------~
~
~~·
,~,
(5.39)
(5.40)
:"11111111
!ISOO
!14101)
~ ..,.,!IIi
"' !XIOO
1".,1)1) A
"""'""'• I •• ... I "
,. Ho •• •• "'
Figura 5.17 - Região de confiança elíptica (linha), de verossimilhança
obtida pelo Enxame de Partículas (pontos) e de verossimilhança exata
(região curvada).
~~~LO~--'------------------c----~~c--='
o• o: 11..1 o• O« 111 t ! 1.1 H• 1a ~ ~~
ko 111"11
Figura 5.18 - Ampliação da Figura 5.17 na região próxima ao mínimo.
- """}()
:!_ 11SOO
·~
l1<)IJO
':6SOO
:'6000
J6il no 31 0 3?<1
A
.... .,. •20
A
Figura 5.20 - Ampliação da Figura 5.19 na região próxima ao mínimo.
v = [2.87894.:d0-5 2.4()003:~:1~]
• 2.40003zl~ 8.06698%10'
de onde se pode calcular que a correlação entre os parâmetros é
igual a 0.157487. Isso mostra que esta forma de reparametriza-
ção praticamente elimina a correlação entre os parâmetros. Essa
observação é fantástica, pois mostra que o usuário tem liberda-
de para influir sobre a qualidade e significância dos resultados
obtidos.
Usando Equação (5.39), como no Exemplo 5.11, chega-se a:
−1
kT 7.58624 x10−3 kT 7.58624 x10−3
T
−5
24.0003
−
0
2.87894 x10 −
0
≤ 1.7069 x10−3
E 27642.7
E 27642.7 24.0003
8.06698 x108
(5.41a)
,. K 1 x"'
y = l + K x"' (5.41b)
2
podem ser escritos na forma linear da Equação (5.42)
(5.42a)
(5.42b)
dy σ y2
dz = → σ = 2
z
(5.43a)
y y2
e
dy σ y2
dz = − 2 → σ = 2
z 4
(5.43b)
y y
A Equação (5.43) mostra de forma bastante clara que as variâncias de
medida das variáveis transformadas podem ser funções complexas das
condições de medição. Nesse caso, mesmo que faça sentido usar a téc-
nica de mínimos quadrados para a representação proposta na Equação
(5.41), a partir da informação de que os erros de medida da variável y são
constantes na região de experimentação, o uso da técnica de mínimos
quadrados para a representação da Equação (5.42) é completamente
descabido, como mostra a Equação (5.43). Ainda mais sério, ao usar a
representação da Equação (5.42) para estimar os parâmetros do modelo,
o usuário estará implicitamente admitindo que os erros de medida da
variável y crescem com uma potência elevada do valor medido, o que
é quase sempre um absurdo! Ou seja, a transformação das medidas
experimentais pode provocar deformações profundas no procedimento
de estimação de parâmetros e no conjunto final de resultados obtidos.
Por isso, dados experimentais nunca devem ser transformados.
O usuário deve perceber que a aplicação das técnicas numéricas apre-
sentadas nesse capítulo permite realizar os procedimentos de estimação
de parâmetros de forma adequada, quaisquer que sejam as naturezas
dos dados experimentais e dos modelos utilizados. Por isso, o usuário
deve resistir à tentação de representar os dados experimentais numa
falsa representação linear, que permita a obtenção de soluções analíticas
para o problema de estimação. Apenas uma situação pode justificar a
transformação das medidas experimentais – a necessidade de obter um
conjunto de estimativas iniciais confiáveis para o conjunto de parâmetros
do modelo, para simplificar a busca realizada pelo algoritmo numérico.
Nesse caso, a estimação deve ser realizada ao menos duas vezes: uma
na forma transformada da medida, como na Equação (5.42), para que
se obtenha uma estimativa inicial confiável dos parâmetros; outra na
forma natural da medida, como na Equação (5.41), para que se obtenham
E
yi = exp −k0 ti exp −
Ti
Aplicando-se o logaritmo em ambos os lados da equação, chega-se a:
E
ln ( yi ) = −k0 ti exp −
T i
E
ln − ln ( yi ) = ln (k0 )+ ln (ti )−
Ti
Portanto, é possível escrever o modelo na forma:
h = α1 + x1 – α1x1
onde as novas variáveis são:
η = ln − ln ( yi )
x1 = ln (ti) x1 = 1/Ti
e os parâmetros são:
α1 = ln(k0) α2 = E
Os parâmetros são agora estimados de forma a minimizar a função
de mínimos quadrados:
NE
FObj = ∑ η − η ( )
2
e m
i i
i =1
d ln ( y ) dy σ 2
dη = − =− → ση2 =
y
ln ( y ) y ln ( y ) y ln ( y )
2
que mostra a complexidade da transformação de erros proposta.
(Observe que a transformação tende a infinito quando y se apro-
xima dos valores 0 e 1.)
Além destas questões relacionadas à caracterização dos erros, é
necessário perceber que o ponto de mínimo da função de mínimos
quadrados das diferenças entre y experimental e y calculado:
NE
FObj = ∑ yie − yim( )
2
i =1
( ( ))
NE NE
( ) ( )
2
FObj = ∑ η − η = ∑ ln − ln yie − ln − ln yim
2
e m
i i
i =1 i =1
5.9. Conclusões
Foram apresentadas nesse capítulo diferentes técnicas numéricas que
permitem a obtenção dos parâmetros que minimizam as funções objeti-
vos propostas para redução da distância existente entre os dados expe-
rimentais e as previsões fornecidas pelo modelo. As diferentes técnicas
apresentam vantagens e desvantagens características, de maneira que
o usuário é levado a interagir com o problema para definir apropriada-
mente as técnicas que deve usar. Por exemplo, técnicas numéricas de-
terminísticas derivadas do método de Newton são eficientes (convergem
rapidamente com relativamente poucos pontos), mas são excessivamente
dependentes da disponibilidade de boas estimativas iniciais para os pa-
râmetros (são pouco robustas). Por outro lado, técnicas heurísticas são
muito robustas (dependem pouco da disponibilidade de boas estimativas
iniciais), mas são computacionalmente custosas (dependem de grande
número de avaliações da função objetivo). Entre um extremo e outro,
é possível encontrar técnicas numéricas que apresentam virtualmente
todos os tipos de características intermediárias. O usuário deve consi-
derar com carinho a possibilidade de combinar os métodos heurísticos e
determinísticos, para ganhar o que os dois grupos de métodos oferecem
de melhor: baixa sensibilidade às condições iniciais e convergência rápida
nas proximidades do ponto de mínimo.
Foram também apresentadas técnicas numéricas que permitem a ava-
liação da região de confiança dos parâmetros. Curiosamente, observou-se
que a forma de parametrização do modelo influi decisivamente sobre
a qualidade dos resultados obtidos. Portanto, o usuário deve investigar
diferentes formas de apresentação do modelo, para tornar possível a iden-
tificação independente dos diferentes efeitos paramétricos considerados.
Finalmente, foi mostrado que, ao contrário dos parâmetros do modelo,
a forma de apresentação dos dados experimentais não deve ser jamais
modificada, sob pena de descaracterizar completamente o significado
estatístico da análise efetuada.
α1 x
M1: y= M2: y = α1 x α 2
1+ α2 x
onde α1 e α2 são os parâmetros a serem estimados para cada modelo.
Faça a estimação e compare os resultados obtidos por cada modelo.
Na sua opinião, qual é o melhor modelo?
6 Propostos
Capítulo 1
1. Defina os seguintes eventos como determinísticos ou estocásticos e
justifique:
a) Tempo de cozimento de um tijolo na olaria;
b) Tempo de espera por um ônibus depois da chegada no ponto;
c) Tempo da viagem do Rio de Janeiro a Salvador por via terrestre e por
via aérea;
d) Número de telhas necessárias para cobrir um telhado;
e) Número de equipamentos que falham por ano em uma escola de
informática;
f) Condição do tempo daqui a exatamente dois meses.
Pode até parecer que não, mas todos os eventos acima deveriam
ser classificados como estocásticos (pelo menos em alguma medida). O
leitor cuidadoso pode observar que sempre existem fontes de erro ou
perturbações que não podem ser quantificadas e muitas vezes nem são
conhecidas, tornando o resultado final até certo ponto imprevisível. Esse
é o objetivo central desse exercício – mostrar como muitas vezes pode
ser difícil diferenciar eventos determinísticos de eventos estocásticos.
a) O tempo de cozimento de um tijolo na olaria depende de diversas
variáveis, como a umidade inicial do barro, a constituição do barro,
a temperatura e a umidade ambiente, a temperatura do forno etc.
Pode-se até imaginar algum modelo matemático que considere todas
estas variáveis; no entanto, ainda assim a medição destas variáveis
não pode ser feita de forma exata, o que torna o cálculo do tempo
de cozimento um resultado também estocástico.
Pi = (1 − q )q i −1
onde i (i = 1, 2, ... , N, ...) é o comprimento, Pi é a probabilidade de en-
contrar uma espécie de tamanho i e q é uma constante 0 < q < 1 que
caracteriza o processo.
a) Prove que Pi é de fato uma distribuição de probabilidades, provando
que as Equações (1.5) e (1.6) são satisfeitas;
b) Calcule o comprimento médio da população µi;
c) Calcule a variância da população σ i .
2
0 ≤ pi ≤ 1 (1.5)
∑p
i =1
i =1 (1.6)
∑ p = ∑ (1 − q )q
i =1
i
i =1
i −1
∑ p = (1 − q )∑ q
i =1
i
i =1
i −1
∑ p = ∑q
i =1
i
i =1
i −1
− ∑ qi
i =1
∞
∑ p = (q
i =1
i
0
)(
+ q1 + q 2 + q 3 + ... − q1 + q 2 + q 3 + ... = q 0 = 1 )
garantindo que, de fato, a curva de Flory caracteriza uma distribuição
de probabilidades.
∞
Resultado similar pode ser encontrado, mostrando-se que a série
∑ qi −1 é uma série geométrica com uma razão de progressão igual a q.
i =1
∞
1
∑ pi = (1 − q )
i =1 (1 − q )
=1
ou ainda
∞ ∞
µi = ∑ iq i −1
− ∑ iq i
i =1 i =1
(
µi = 1 + 2q + 3q 2 + 4q 3 + ... − q + 2q 2 + 3q 3 + ... )( )
∞
(
µi = 1 + q + q + q + ... = ∑ q i
2 3
)
i =0
∞
A série ∑q
i =0
i
é uma série geométrica, cuja soma converge para
NR
= ∑ pi (xi − µ X )
2
σ 2
XX
i =1 (1.36)
Usando-se o valor médio da distribuição, calculado no item anterior,
pode-se escrever:
2
∞ 1
σ i = ∑ (1 − q )q i −
2 i −1
(1 − q )
i =1
ou ainda
∞ ∞ ∞
1
σ = (1 − q )∑ i q
2 2 i −1
− 2∑ iq i −1
+ ∑ q i −1
i
i =1 i =1 (1 − q ) i =1
∞ ∞ ∞ ∞
1
σ = ∑i q
2 2 i −1
− ∑ i q − 2∑ iq 2 i i −1
+ ∑ q i −1
i
i =1 i =1 i =1 (1 − q ) i =1
Alterando o início da soma de i = 1 para i = 0:
∞ ∞ ∞ ∞
1
σ = ∑ (i + 1) q − ∑ i q − 2∑ (i + 1)q + ∑
2 i i i
2
qi 2
i
i =0 i =0 i =0 (1 − q ) i =0
Expandindo a equação anterior e simplificando os termos:
∞ ∞ ∞ ∞ ∞ ∞ ∞
1
σ = ∑ i q + 2∑ iq + ∑ q − ∑ i q − 2∑ iq − 2∑ q +
2 2 i i
∑ qi i 2 i i i
i
i =0 i =0 i =0 i =0 i =0 i =0 (1 − q ) i =0
1 ∞
∞ 1 ∞ i
σ = −∑ q +
2
∑ q = −1 +
i i
∑q
i
i =0 (1 − q ) i =0 (1 − q ) i =0
∞
q
σi =
2
∑
(1 − q ) i =0
qi
∞
Como visto anteriormente, o somatório ∑q
i =0
i
converge para
q 1 q
σ i2 = =
(1 − q ) (1 − q ) (1 − q )2
4- Para a distribuição exponencial, ℘(x ) = α exp (−α x ) , definida no
intervalo contínuo 0, ∞ ) : [
a) Calcule o valor de α, para que ℘(x) seja de fato uma densidade de
probabilidades;
b) Calcule a probabilidade acumulada PAC(x) no intervalo de definição
do problema;
c) Calcule o valor médio de x;
d) Calcule a variância de x;
e) Pense em quantos momentos estatísticos independentes podem ser
definidos.
a) Para que uma distribuição não negativa ℘(x) qualquer seja de fato
uma densidade de probabilidades, a Propriedade 1.13 deve ser satis-
feita; ou seja:
xmax
∫ ℘(x )dx = 1
xmin
x
PAC (x ) = ∫ α exp (−α z ) dz = 1 − exp (−α x )
0
µx = ∫ x℘(x )dx
xmin
(1 + α x )exp (−α x ) 1 1
µ x = lim x →∞ − + =
α α α
∫ (x − µ x ) ℘(x )dx
2
σ x2 =
xmin
( )
(
1 + α x exp (−α x ) 2 2
)
σ x2 = ∫
xmin
x −
α
α exp −α x dx = −
α2
0
σ x2 = lim x→∞ −
( )
1 + α 2 x 2 exp (−α x ) 1
+ =
1
α2 α
2
α2
c) Calcule ℘(y/x);
d) Calcule Covar(x,y) e ρxy;
e) Comente o significado dos resultados obtidos no item anterior.
∫ ℘(x )dx = 1
xmin
∫ 1 dx = x 0 = 1
1
℘( y )dy =℘(x ( y )) d (x ( y ))
ou ainda:
d
℘( y ) dy =℘(x ( y )) (x ( y )) dy
dy
d
℘( y ) =℘(x ( y )) (x ( y ))
dy
Como y = 4 x (1 − x ) , é possível escrever:
1± 1− y
x=
2
( )
Como ℘(x) = 1, ℘(x ) =℘ x ( y ) =1 . Com relação ao outro
termo,
d ±1
dy
(x ( y )) =
4 1− y
Observe que apenas a solução positiva da equação acima é con-
sistente estatisticamente, pois a uma distribuição de probabilidades
é sempre não negativa. Por outro lado, é necessário ainda multiplicar
a expressão de ℘(y) por 2, já que existem dois valores de x, separados
simetricamente em torno do valor x=0.5, que levam a um mesmo valor
de y. Dessa forma:
1 1
℘( y ) = 2 ⋅1 ⋅ =
4 1− y 2 1− y
Para mostrar que ℘(y) é de fato uma distribuição de probabilidades
no intervalo [0,1], pode-se fazer a integral
ymax 1
1 1
∫ ℘( y )dy = ∫ dy = − 1 − y = 1
ymin 0 2 1− y 0
℘(y/x) = δ [y – 4x(1–x)]
0
xmin
2 12
ymax 1 2
3 1 4
= ∫ ( y − µY ) ℘( y )dy = ∫ y −
2
σ 2
YY dx =
ymin 0
4 2 1− y 45
1
1 1
3
σ 2
XY = ∫ x − ∫ y − δ y − 4 x (1 − x ) dy dx =
0
2 0 4
1 1
1 3 2 3x 3
∫0 2
x − 4 x (1 − x ) − dx = ∫0
4 x (1 − x ) − 2 x (1 − x ) − + dx =
4 4 8
1 1
2 3x 3 11x 3
∫0 4 x − 4 x − 2 x + 2 x − 4 + 8 dx = ∫0 −4 x + 6 x − 4 + 8 dx =
3 2 3 2
11 3
−1 + 2 − + = 0
8 8
Conseqüentemente, o valor da correlação é igual a (Equação (1.50)):
σ XY
2
ρ XY = =0
σ XσY
e) Observe que apesar de haver uma clara dependência entre os valores
de x e y, o valor da covariância e, conseqüentemente, da correlação
entre estas variáveis é nulo. Isso ocorre porque a dependência entre as
variáveis não é linear. No intervalo [0, 0.5] um aumento em x provoca
um aumento e y. Já no intervalo [0.5, 1] um aumento em x provoca
uma diminuição em y. Como os dois intervalos são simétricos, a
correlação se anula, de forma que o resultado final é uma correlação
igual a 0, apesar das variáveis estarem ligadas deterministicamente
uma à outra. Isso mostra que o experimentador deve estar sempre
preparado para analisar com maior profundidade o verdadeiro sig-
nificado das covariâncias e coeficientes de correlação estimados nos
diferentes problemas.
Capítulo 2
1. Você acha que a curva normal pode descrever satisfatoriamente uma
curva de distribuição de tamanhos de partículas muito finas? E de
partículas grandes? Justifique.
Inicialmente devemos lembrar que a curva normal tem seu domínio
definido no intervalo (-∞, +∞) e que é simétrica em relação ao valor
médio. Quando as partículas são muito finas, é muito provável que o
ajuste da curva normal resulte em uma área considerável na região de
diâmetros negativos, como mostrado na Figura 6.1. Quando as partículas
são grandes, apesar do domínio ser o mesmo, (-∞, +∞), é mais provável
que a região correspondente a diâmetros negativos seja desprezível.
Assim, a curva normal pode descrever satisfatoriamente a curva de dis-
tribuição de tamanhos de partículas grandes, mas descrever de forma
inapropriada a distribuição de partículas muito finas. Deve ainda ser
observado que a distribuição real de tamanhos deve ser simétrica (o que
é raro), para que a curva normal possa ser utilizada de forma adequada
para representar as populações de tamanho; caso contrário, mesmo para
partículas grandes, a curva normal não poderá ser usada para fornecer
uma boa descrição da distribuição dos tamanhos.
' •
'' ••
'' •
' •
' •
'
'
' •
' ''
-20 0 20 100
Dp
Figura 6.1 – Deslocamento da curva normal ao longo do eixo x.
2. Discuta se uma curva normal pode ser usada como modelo de proba-
bilidades para descrever as flutuações de altura numa população de
indivíduos. Que modificações poderiam ser introduzidas no modelo
para torná-lo mais crível e representativo da realidade.
Mais uma vez, deve-se lembrar que a curva normal tem seu domínio
definido no intervalo (-∞, +∞). Como todos os indivíduos têm alturas
positivas e maiores do que 0, o uso da curva normal para descrever
as variações de tamanho pode não ser rigorosamente adequado. Uma
alternativa possível é usar a distribuição Log-Normal, cujo domínio é
definido em (0, +∞), e admite a distribuição normal da variável ln(x).
Quando os valores de x se encontram entre 0 e 1, ln(x) assume valores
X k +1 = 11 X k − Trunc (11 X k )
Yk = X k +1
Repare que X e Y identificam seqüências distintas de pontos deslocados
no tempo
Z k +1 = 11 Z k − Trunc (11 Z k )
Wk = Z k +1
Repare que Z e W identificam seqüências distintas de pontos deslocados
no tempo, diferentes das duas seqüências X e Y anteriores.
...,
~
r-- f-
.g
liS•• I - - r--......,
~ ~
·~ 5"CC
;z
l•
1.0
08
11 I I B e
I
M
.,;
o•
\.0
O.l 08
o6
Ol
1)11 02
o.o
Figura 6.3 – Relação entre os pontos adjacentes da seqüência pseudo-aleatória.
O objetivo central desse exercício é mostrar mais uma vez como pode
ser difícil diferenciar eventos determinísticos de eventos estocásticos.
Além disso, o exercício reforça a idéia de que é possível gerar sinais com
comportamento pseudo-aleatório a partir de regras determinísticas.
∫ ℘ (x )dx = ∫ ℘ ( y )dy
xmin
1
ymin
2 (2.24)
xi = ∫ ℘ ( y )dy = P ( y )
ymin
2 AC ,2 i
lmervnlo de dados
1 2 yi − µ 1 2 yi − µ
xi = − erf − + lim x→−∞ erf −
2 2 σ 2 2 σ
1 2 yi − µ
xi = − erf − + 1
2 2 σ
2 yi − µ
erf − = 2 (1 − xi )
2 σ
A equação acima não apresenta uma solução analítica para yi como
função de xi. Felizmente, procedimentos numéricos para este cálculo
podem ser encontrados em grande parte das planilhas eletrônicas co-
merciais. Usando uma destas planilhas, é possível converter os valores da
seqüência uniforme Z em valores com distribuição normal, considerando
como média o valor µ=0 e como variância o valor σ2 = 1. O histograma
obtido é apresentado abaixo.
p (x)= rr{
1=1 c;.t
I
J(2n)
exp[-~2 (x, -~l,t
(r
]} =n
·"x ( )
P x,u r=)
p( )
x
I
J(2n )"'x
I
exp -
[
2a~ L (x, - Jl )~ ]
1 NX
=
n,.,
Nx ,
a~ r-1
,
p(x)= nN \'
·
{
I
eXp [ __ ( I
1x -
~)· ' ]} =n
.v.v
(x)
•=t c; J(2n) 2 (J" ;=t P •
Capítulo 3
1. Suponha que você está insatisfeito com a reprodutibilidade de uma
certa técnica experimental e não pode comprar um novo equipa-
mento e nem pode melhorar a técnica disponível. O que você pode
fazer para melhorar a precisão das análises efetuadas? Será que você
pode obter uma precisão arbitrariamente pequena para uma técnica
experimental? Justifique.
Uma alternativa seria a realização de várias réplicas e utilizar como
resposta a média destas réplicas, já que o desvio padrão da média é igual
ao desvio padrão das medidas dividido pela raiz quadrada do número
de réplicas. Assim, realizando um grande número de réplicas, é possível
diminuir cada vez mais o desvio padrão do valor médio. Entretanto, o
número de réplicas necessárias para se obter uma boa precisão pode
ser muito grande e inviabilizar este procedimento. Apesar disso, várias
normas técnicas propõem o uso de valores médios para representar
medidas experimentais, com o objetivo de reduzir o espalhamento
característico da medida.
X − µX
t=
sX
N
Calculando-se o intervalo de confiança da variável t com 98% de confiança
e com 19 graus de liberdade (limite inferior de 1% e superior de 99%):
t190.01 = -2.539483
t190.99 = +2.539483
O intervalo de confiança da média amostral é calculado como:
X − µX
-2.539483 ≤ ≤ 2.539483
sX
N
sX s
X -2.539483 ≤ µ X ≤ X +2.539483 X
N N
Para o cálculo do intervalo de confiança da variância é usada a dis-
tribuição χ2, conforme descrito pela Equação (3.23):
s X2
χ = (N − 1) 2
2
σX
36.190869 7.632730
Média Variância
Limite Inferior Limite Superior Limite Inferior Limite Superior
Turma 1 0.890737 0.911963 0.000183 0.000869
Turma 2 0.836665 0.899735 0.001619 0.007677
Turma 3 0.772230 0.870470 0.003928 0.018626
Turma 4 0.905631 0.912069 0.000017 0.000080
Observe que agora a Turma 2 não pode mais ser considerada equi-
valente à Turma 3, pois suas variâncias tornaram-se diferentes após a
eliminação do ponto espúrio. Por outro lado, agora a Turma 2 pode ser
considerada equivalente à Turma 1. Na Figura abaixo, fica claro o efeito
que apenas um outlier estava provocando no conjunto de dados, aumen-
tando em muito a variância dos dados da Turma 2.
] C)
••.. •
.
41
• •
0&
• ,. I
••
0.6
., .. • • •
• """' '
,
•
.....
• ••
' ..
•!li>
•
0.
... •
. • ..
• • '
0.0
0.0 r0.2 0:4· 0.6 08 UJ
::
~ ~--~------~----------~--------~------~
0.2
•
•
0.0
..... .............. ............................................... .
0 2 3 4 s 6 7 10
"
Figura 6.12 – Probabilidades acumuladas no Exercício Proposto 3.4, em que n
representa o número de pontos contidos em um certo intervalo.
0.5147 − 2.40
F 0.0856
50
≤ µ ≤ 0.5147 + 2.40
0.4154 ≤ µ ≤ 0.6140
0.0856
50 F
0 l
T −1
x1 1 1 0.9 x1 1
− − =1
x2 1 0.9 1 x2 1
ou ainda
100 2
19
(
x1 + x22 −
180
19
) 20 1
x1 x2 − (x1 + x2 ) + = 0
19 19
100 (x 2
1 + x )− 180 x x
2
2 1 2 − 20 (x1 + x2 ) + 1 = 0
1.5
,;: 1.0
0.5
0.0
-0.5
.0.5 o.o o.s 1.0 1.5 2.0 2.5
-··
Figura 6.13 – Forma da região de confiança no Exercício Proposto 3.5.
1 − λ 0.9
det (VX − λ I ) = det = (1 − λ )(1 − λ ) − 0.81 = 0
0.9 1 − λ
λ 2 − 2λ + 0.19 = 0
de onde se chega a:
0 ≤ x1 ≤ 2 0 ≤ x2 ≤ 2
É interessante observar que devido à alta correlação existente entre as
variáveis x1 e x2, a definição dos intervalos de confiança pode levar a uma
má interpretação dos resultados. Por exemplo, de acordo com os limites
definidos, pode-se pensar que quaisquer pares de valores de x1 e x2 no
intervalo de 0 a 2 são igualmente prováveis. Porém, observando a Figura
6.13, fica claro, por exemplo, que o par [x1, x2] = [1.5, 0.5] fica fora da
região de confiança, apesar dos limites de confiança individuais de cada
uma das variáveis serem respeitados. É por este motivo que a análise de
dados multivariados sempre deve considerar e avaliar a correlação entre
os dados, para evitar que se cheguem a conclusões equivocadas.
s2 = = 15.25
3 −1
s = 15.25 = 3.91
b) O experimentador deve fazer novas medições para verificar se o últi-
mo ponto pode ou não ser descartado, já que a análise do intervalo de
confiança não permite o descarte do ponto: x + 2 s = 11.32 > 8.0
; ou seja, o limite superior é maior que o valor 8.0 (considerando a
distribuição normal com um nível de confiança de aproximadamente
95%). Portanto, o experimentador apressado que descarte o valor
8.0 pode estar cometendo um equívoco profundo e subestimando
s 2
= = 11.37
4 −1
s = 11.37 = 3.37
Portanto, não parece apropriado descartar o valor 8.0. Essa é uma
atitude um tanto arbitrária do experimentador. Refazendo-se as contas
sem o ponto suspeito:
1.0 + 1.5 + 1.3
x= = 1.27
3
(1.0 − 1.27 ) + (1.5 − 1.27 ) + (1.3 − 1.27 )
2 2 2
s2 = = 0.063
3 −1
s = 0.063 = 0.25
Portanto, de forma genérica
8.0 − 1.27
x + cs = 8.0 → c= = 27
0.25 ,
conclui-se que o ponto 8.0 é muito diferente dos demais e poderia ser
excluído do conjunto.
Capítulo 4
1. Os seguintes dados estão disponíveis:
NE x y
1 0.10 0.38
2 0.20 0.91
3 0.30 1.69
4 0.40 2.13
5 0.50 2.66
6 0.60 2.61
7 0.70 3.65
8 0.80 3.94
9 0.90 4.28
10 1.00 5.24
Admitindo-se que o modelo y = a x é válido, onde a é o parâmetro a
ser determinado, estime o melhor valor de a nos três casos abaixo:
10
∑ (yie − yic ) ;
2
a) Fa =
i =1
10
∑ (y − yic ) ;
8
b) Fb = e
i
i =1
2
yie − yic
10
c) Fc = ∑ e ;
i = 1 yi
d) Compare os valores obtidos.
∂Fa 10
= −2 ∑ (yie − axie )xie = 0
∂a i =1
∑ (y x ) e e
i i
a = i =101
∑ (x )
i =1
e 2
i
b) Para esta função objetivo, apesar do modelo ser linear, não é possível
obter uma solução analítica. Observe que derivando-se Fb em relação
ao parâmetro a é obtido um polinômio de sétimo grau:
∂Fb 10
= −8 ∑ (yie − axie ) xie = 0
7
∂a i =1
a partir do qual não é possível derivar uma solução analítica para a. Nes-
te caso, é necessário utilizar um método numérico, como os discutidos
no Capítulo 5. Outra alternativa é a utilização de algum dos diversos
programas computacionais que possuem estas rotinas numéricas já
programadas. A solução numérica desta equação ao valor de a igual a
4.92. O leitor deve observar que o novo parâmetro é diferente do anterior,
em função da mudança da função objetivo.
c) Neste caso é possível obter uma solução analítica para o valor de a. De-
rivando Fc em relação ao parâmetro a e igualando a zero, chega-se a:
∂Fc 10
yie − axie xie
= −2 ∑ e =0
∂a i = 1 yi
e
yi
Resolvendo para a, obtém-se:
(y x )
10 e e
∑
i i
a=
(y )
i =1
e 2
i
2
10
xie
∑ e
i = 1 yi
d) Pode ser observado que cada função objetivo fornece um valor dife-
rente para o parâmetro a. Assim, fica claro que a definição da função
objetivo deve estar baseada em conceitos estatísticos rigorosos, em
particular os que dizem respeito à definição do comportamento
dos erros experimentais. Por exemplo, a função objetivo do item (a)
considera que os erros experimentais são constantes. Já a função
objetivo do item (c) considera que a variância dos erros experimentais
P (ε i ) =
1 ε
exp − i _II ,
2σ i σi −∞ < ε i < ∞
onde εi são os desvios ou erros experimentais e σi é uma medida do desvio
experimental, defina a função objetivo a ser usada em um procedimento
de estimação de parâmetros que está baseado nesses dados.
Como os erros são independentes, a distribuição de probabilidades
de um conjunto de NE medições pode ser definida como:
ln[P(~:)]= ln [IT-1
a,
exp(_le,l)]
,.1a,
Como o logaritmo de um produto é a soma dos logaritmos de cada
fator, pode-se escrever:
F =∑
NE
Iε I
i
i =1 σi
y = Ax + B
para as seguintes funções objetivos.
NE
∑ (y − yim ) ;
2
a) F = e
i
i =1
(yie − yim )
2
NE
b) F = ∑i =1 σ i2
;
NE NE
i xie yie
1 1 2
2 2 3
3 3 7
i =1
Conclui-se que:
NE
F = ∑ (yie − Axie − B )
2
i =1
∂F NE
= 2∑ (yie − Axie − B )(−1) = 0
∂B i =1
NE NE NE
A∑ x + B ∑1 = ∑ yie
e
i
(a2)
i =1 i =1 i =1
∑y e
i − A∑ xie
B= i =1 i =1
NE
NE ∑y e
i − A∑ xie NE NE
A∑ (x i)+
e 2 i =1 i =1
∑x =∑y x e
i
e e
i i
i =1 NE i =1 i =1
NE
NE e
2 NE NE NE
A NE ∑ (xi ) − ∑ xi = NE ∑ yi xi − ∑ yi ∑ xie
e 2 e e e
i =1 i =1 i =1 i =1 i =1
NE NE NE
NE ∑ y x − ∑ y e e
i i
e
i ∑x e
i
A= i =1 i =1 i =1
2
NE
NE e
NE ∑ (x )
e 2
i − ∑ xi
i =1 i =1
Assim, calcula-se primeiro o valor do parâmetro A e em seguida o
valor do parâmetro B.
(yie − yim )
2
NE
F =∑
i =1 σ i2
Conclui-se que:
(yie − Axie − B )
2
NE
F =∑
i =1 σ i2
Derivando em relação a A e B, chega-se a:
∂F
= 2∑
(
NE y e − Ax e − B
i i )(− xie )
=0
∂A i =1 σi2
∂F
= 2∑
( i i ) =0
NE y e − Ax e − B (−1)
∂B i =1 σ i2
Expandindo as expressões acima:
(xie )
2
NE
xie NE yie xie
NE
A∑ + B∑ 2 = ∑ 2 (b1)
i =1 σ i2 i =1 σ i i =1 σ i
NE
xie NE
1 NE
yie
A∑ 2 + B ∑ 2 = ∑ 2 (b2)
i =1 σ i i =1 σ i i =1 σ i
NE ( ) 2
2
NE x e
1 NE
x e
NE
1 NE yie xie NE yie NE xie
A ∑ 2 ∑ 2 −∑ 2 = ∑ 2 ∑ 2 −∑ 2 ∑ 2
i i
i =1 σ i i =1 σ i i =1 σ i i =1 σ i i =1 σ i i =1 σ i i =1 σ i
NE
1 NE yie xie NE yie NE xie
∑ 2∑
i =1 σ i i =1 σ i
2
−∑ 2∑ 2
i =1 σ i i =1 σ i
A=
NE
1 NE
(x ) −
e 2 NE
x e
2
∑σ ∑ ∑
i i
i =1
2
i i =1 σ i2 i =1 σ i
2
i =1 j =1
Conclui-se que:
NE NE
F = ∑∑ (yie − Axie − B )(y ej − Ax ej − B )vij
−1
i =1 j =1
Derivando em relação a A e B:
∂F NE NE
= ∑∑ (− xie )(y ej − Ax ej − B )vij + (yie − Axie − B )(− x ej )vij = 0
−1 −1
∂A i =1 j =1
∂F NE NE
= ∑∑ (−1)(y ej − Ax ej − B )vij + (yie − Axie − B )(−1) vij = 0
−1 −1
∂B i =1 j =1
i =1 j =1 i =1 j =1 i =1 j =1
(c1)
NE NE NE NE NE NE
A∑∑ (x + x )vij + B ∑∑ 2 vij = ∑∑ (y ej + yie )vij
e e −1 −1 −1
i j
i =1 j =1 i =1 j =1 i =1 j =1
(c2)
A partir da equação (c2), pode-se obter a seguinte expressão para B:
NE NE NE NE
A= 2
NE NE NE NE NE NE −1
(2 x x )vij − ∑∑ (xie + xej )vij
−1 −1
∑∑ 2 vij ∑∑ e
i
e
j
i =1 j =1 i =1 j =1 i =1 j =1
NE NE NE
NE ∑ y x − ∑ y e e
i i
e
i ∑x e
i
A= i =1 i =1 i =1 NE NE
NE
NE 2
∑y e
− A∑ xie
NE ∑ (xie ) − ∑ xie
2 i
B= i =1 i =1
i =1 i =1 NE
Do conjunto de dados fornecidos:
NE NE
∑ x = 1 + 2 + 3 = 6; ∑ (xie ) = 12 + 22 + 32 = 14
e 2
i
i =1 i =1
NE NE
∑y
i =1
e
i = 2 + 3 + 7 = 12; ∑y x
i =1
e e
i i = 1 ⋅ 2 + 2 ⋅ 3 + 3 ⋅ 7 = 29
Como NE = 3, tem-se:
3 ⋅ 29 − 12 ⋅ 6 12 − 2.5 ⋅ 6
A= = 2.500; B = = −1.000
3 ⋅14 − 62 3
Para calcular os erros paramétricos, pode ser usada a Equação
(4.28):
Vα = σy2 M–1
onde σy2 é uma medida do erro experimental, que pode ser aproximado
pela Equação (4.11), lembrando que ν = NE-NP, como foi mostrado no
Exemplo (4.21).
NE
∑( ) (2 − 1) + (3 − 4 ) (7 − 6.5)
2
yie − yim 2 2 2
3
σ y2 = i =1
= =
NE − NP 3− 2 2
A matriz M é definida na Equação (4.17) na forma:
NE e 2 NE
∑ xk ( ) ∑x 62 12
e
1, k
M = NE =
k =1 k =1
12 3
∑ x1,k
e
NE e
k =1
1 14 −2I 7
M −1 = I
−2I 7 31I 21
NE
1 1 1 1 NE
xie 1 2 3
∑
i =1 σ 2
= + + = 2.1;
1 1 10
∑
i =1 σ 2
= + + = 3.3
1 1 10
i i
NE
(x ) e 2
12 22 32 NE
yie 2 3 7
∑ ∑
i
= + + = 5.9; = + + = 5.7
i =1 σ i2 1 1 10 i =1 σ i
2
1 1 10
NE
yie xie 1 ⋅ 2 2 ⋅ 3 3 ⋅ 7
∑i =1 σ i2
=
1
+
1
+
10
= 10.1
~r (x~)
Va-M-
-
1 -
-
i=1 j=1 0" ij
=[5.9
3.3 2.1
1
3.3]- = [ 1.40 -2.20]
-2.20 3.93
~r (x~) rr-2
NENY1
1.400 −2.200 x
σˆ y2 = [x 1] = 1.400 x 2 − 4.400 x + 3.933
−2.200 3.933 1
Para a função objetivo do item (c) solução é dada por:
NE NE NE NE NE NE NE NE
A= 2
NE NE NE NE NE NE
−1
2 vij ∑∑ (2 x x )vij − ∑∑ (xie + x ej )vij
−1 −1
∑∑ e
i
e
j
i =1 j =1 i =1 j =1 i =1 j =1
NE NE NE NE
i =1 j =1
V -M
-
-1
-- [4.412 2.123]-l - [ 0.892 -1.382]
-
a 2.123 1.370 -1.382 2.871
Nesse caso, o desvio padrão do parâmetro A é igual a 0.944, enquanto
o desvio padrão do parâmetro B é igual a 1.694, sendo o coeficiente de
correlação igual a -0.864.
0.892 −1.382 x
σˆ y2 = [x 1] = 0.892 x 2 − 2.764 x + 2.871
−1.382 2.871 1
Resumindo, os parâmetros estimados com cada uma das funções
objetivos testadas foram:
F A B σA σA ρAB
(a) 2.500 -1.000 0.327 1.488 -0.881
(b) 1.600 0.200 1.183 1.983 -0.938
(c) 1.295 0.678 0.944 1.694 -0.864
Capítulo 5
1. Considere o seguinte modelo não-linear
y = α1 (1 − exp (−α 2 x ))
onde α1 e α2 são os parâmetros a serem estimados a partir do seguinte
conjunto de dados:
xe ye σ2
0.50 7.92 25.00
1.00 18.51 25.00
1.50 20.09 9.00
2.00 18.97 9.00
3.00 26.67 1.00
4.00 29.45 1.00
5.00 32.58 0.25
7.00 34.54 0.25
10.00 34.62 0.01
(y − yim )
e 2
NE
FObj = ∑
i
i =1 σ i2
Para executar a minimização, foi utilizado o método do Enxame de
Partículas acoplado com um método de Gauss-Newton (método híbrido),
que utiliza o melhor valor encontrado pelo Enxame de Partículas como
estimativa inicial.
O valor mínimo da função objetivo encontrado foi igual a 6.075 e os
valores estimados dos parâmetros foram: α1 = 34.85 e α2 = 0.5128
A matriz de covariância dos parâmetros, calculada de acordo com a
Equação (4.82), é:
0.01569 0.002157]
va = [ 0.002157 0.0007291
ε − µε
t7,2.5% < < t7,97.5%
sε
N
0.34 − µε
−2.36 < < 2.36
2.11
9
−1.28 < µε < 1.96
Pode ser observado que o intervalo da média contém o valor zero,
de forma que o ajuste pode ser considerado satisfatório.
FObj = ∑
NE
(y
e
i −y m 2
i )
i =1 σ i2
Apêndice A 431
PERTENCE AO N O DE O I
1l
,
II
• ]
.. •
.. ..
~·
·U
.. • ....
·I
~
oi l
• ·l
..
·~ a lro • Jr.
II
- I ,. ]I
%
.. -
Figura 6.16 – Resíduos do modelo 1 (esquerda) e modelo 2 (direita) como
função da condição experimental.
Apêndice A 433
PERTENCE AO N O DE O I
APÊNDICE A
Tabela A.1 - Distribuição Normal de Probabilidade
1 e -(u)Yz du
Ju* J2i
_a
•
u 0.00 0.01 0.02 0.03 0.04
0.0 0.5000 0.5040 0.5080 0.5120 0.5160
0.1 0.5398 0.5438 0.5478 0.5517 0.5557
0.2 0.5793 0.5832 0.5871 0.5910 0.5948
0.3 0.6179 0.6217 0.6255 0.6293 0.6331
0.4 0.6554 0.6591 0.6628 0.6664 0.6700
0.5 0.6915 0.6950 0.6985 0.7019 0.7054
0.6 0.7257 0.7291 0.7324 0.7357 0.7389
0.7 0.7580 0.7611 0.7642 0.7673 0.7704
0.8 0.7881 0.7910 0.7939 0.7967 0.7995
0.9 0.8159 0.8186 0.8212 0.8238 0.8264
1.0 0.8413 0.8438 0.8461 0.8485 0.8508
1.1 0.8643 0.8665 0.8686 0.8708 0.8729
1.2 0.8849 0.8869 0.8888 0.8907 0.8925
1.3 0.9032 0.9049 0.9066 0.9082 0.9099
1.4 0.9192 0.9207 0.9222 0.9236 0.9251
1.5 0.9332 0.9345 0.9357 0.9370 0.9382
1.6 0.9452 0.9463 0.9474 0.9484 0.9495
1.7 0.9554 0.9564 0.9573 0.9582 0.9591
1.8 0.9641 0.9649 0.9656 0.9664 0.9671
1.9 0.9713 0.9719 0.9726 0.9732 0.9738
2.0 0.9772 0.9778 0.9782 0.9788 0.9793
2.1 0.9821 0.9826 0.9830 0.9834 0.9838
2.2 0.9861 0.9864 0.9868 0.9871 0.9875
2.3 0.9893 0.9896 0.9898 0.9901 0.9904
2.4 0.9918 0.9920 0.9922 0.9925 0.9927
2.5 0.9938 0.9940 0.9941 0.9943 0.9945
2.6 0.9953 0.9955 0.9956 0.9957 0.9959
2.7 0.9965 0.9966 0.9967 0.9968 0.9969
2.8 0.9974 0.9975 0.9976 0.9977 0.9977
2.9 0.9981 0.9982 0.9982 0.9983 0.9984
3.0 0.9987 0.9987 0.9987 0.9988 0.9988
3.1 0.9990 0.9991 0.9991 0.9991 0.9992
3.2 0.9993 0.9993 0.9994 0.9994 0.9994
3.3 0.9995 0.9995 0.9995 0.9996 0.9996
3.4 0.9997 0.9997 0.9997 0.9997 0.9997
Pontos percentuais eqüidistantes da distribuição normal
PAC(u) 0.75 0.90 0.95 0.975 0.99
α= 2[1 - PAC(u)] 0.50 0.20 0.10 0.05 0.02
u 0.674 1.282 1.645 1.960 2.326
Apêndice A 435
PERTENCE AO N O DE O I
℘ (t )
PAC(t* )
0 t* t
PAC(t*)
0.55 0.60 0.65 0.70 0.75 0.80 0.85
v
1 0.158 0.325 0.510 0.727 1.000 1.376 1.963
2 0.142 0.289 0.445 0.617 0.816 1.061 1.386
3 0.137 0.277 0.424 0.584 0.765 0.978 1.250
4 0.134 0.271 0.414 0.569 0.741 0.941 1.190
5 0.132 0.267 0.408 0.559 0.727 0.920 1.156
6 0.131 0.265 0.404 0.533 0.718 0.906 1.134
7 0.130 0.263 0.402 0.549 0.711 0.896 1.119
8 0.130 0.262 0.399 0.546 0.706 0.889 1.108
9 0.129 0.261 0.398 0.543 0.703 0.883 1.100
10 0.129 0.260 0.397 0.542 0.700 0.879 1.093
11 0.129 0.260 0.396 0.540 0.697 0.876 1.088
12 0.128 0.259 0.395 0.539 0.695 0.873 1.083
13 0.128 0.359 0.394 0.538 0.694 0.870 1.079
14 0.128 0.258 0.393 0.537 0.692 0.868 1.076
15 0.128 0.258 0.393 0.536 0.691 0.866 1.074
16 0.128 0.258 0.392 0.535 0.690 0.865 1.071
17 0.128 0.257 0.392 0.534 0.689 0.863 1.069
18 0.127 0.257 0.392 0.534 0.688 0.862 1.067
19 0.127 0.257 0.391 0.533 0.688 0.861 1.066
20 0.127 0.257 0.391 0.533 0.687 0.860 1.064
21 0.127 0.257 0.257 0.532 0.686 0.859 1.063
22 0.127 0.256 0.390 0.532 0.686 0.858 1.061
23 0.127 0.256 0.390 0.532 0.685 0.858 1.060
24 0.127 0.256 0.390 0.531 0.685 0.857 1.059
25 0.127 0.256 0.390 0.531 0.684 0.856 1.058
26 0.127 0.256 0.390 0.531 0.684 0.856 1.058
27 0.127 0.256 0.389 0.531 0.684 0.855 1.057
28 0.127 0.256 0.389 0.530 0.683 0.855 1.056
29 0.127 0.256 0.389 0.530 0.683 0.854 1.055
30 0.127 0.256 0.389 0.530 0.683 0.854 1.055
40 0.126 0.255 0.388 0.529 0.681 0.851 1.050
60 0.126 0.254 0.387 0.527 0.679 0.848 1.046
120 0.126 0.254 0.386 0.526 0.677 0.845 1.041
∞ 0.126 0.253 0.385 0.524 0.674 0.842 1.036
Apêndice A 437
PERTENCE AO N O DE O I
()
℘χ2
PAC ( χ 2 )
0 ÷*2 χ2
PAC(χ *)
2
0.005 0.01 0.02 0.025 0.05 0.10 0.20
v
1 0.00004 0.00016 0.00062 0.00098 0.00393 0.0158 0.0642
2 0.0100 0.0201 0.0404 0.0506 0.103 0.211 0.446
3 0.0717 0.115 0.185 0.216 0.352 0.584 1.005
4 0.207 0.297 0.429 0.484 0.711 1.064 1.649
5 0.412 0.554 0.752 0.831 1.145 1.610 2.343
6 0.676 0.872 1.134 1.237 1.635 2.204 3.070
7 0.989 1.239 1.564 1.690 2.167 2.833 3.822
8 1.344 1.646 2.032 2.180 2.733 3.490 4.594
9 1.735 2.088 2.532 2.700 3.325 4.168 5.380
10 2.156 2.558 3.059 3.247 3.940 4.865 6.179
11 2.603 3.053 3.609 3.816 4.575 5.578 6.989
12 3.074 3.571 4.178 4.404 5.226 6.304 7.807
13 3.565 4.107 4.765 5.009 5.892 7.042 8.634
14 4.075 4.660 5.368 5.629 6.571 7.790 9.467
15 4.601 5.229 5.985 6.262 7.261 8.547 10.307
16 5.142 5.812 6.614 6.908 7.962 9.312 11.152
17 5.697 6.408 7.255 7.564 8.672 10.085 12.002
18 6.265 7.015 7.906 8.231 9.390 10.865 12.857
19 6.844 7.633 8.567 8.907 10.117 11.651 13.716
20 7.434 8.260 9.237 9.591 10.851 12.443 14.578
21 8.034 8.897 9.915 10.283 11.591 13.240 15.445
22 8.643 9.542 10.600 10.982 12.338 14.041 16.314
23 9.260 10.196 11.293 11.689 13.091 14.848 17.187
24 9.886 10.856 11.992 12.401 13.848 15.659 18.062
25 10.520 11.524 12.697 13.120 14.611 16.473 18.940
26 11.160 12.198 13.409 13.844 15.379 17.292 19.820
27 11.808 12.879 14.125 14.573 16.151 18.114 20.703
28 12.461 13.565 14.847 15.308 16.928 18.939 21.588
29 13.121 14.256 15.574 16.047 17.708 19.768 22.475
30 13.787 14.953 16.306 16.791 18.493 20.599 23.364
PAC(χ *)
2
0.25 0.30 0.50 0.70 0.75 0.80 0.90
v
1 0.102 0.148 0.455 1.074 1.323 1.642 2.706
2 0.575 0.713 1.386 2.408 2.772 3.219 4.605
3 1.213 1.424 2.366 3.665 4.108 4.642 6.251
4 1.923 2.195 3.357 4.878 5.385 5.989 7.779
5 2.675 3.000 4.351 6.044 6.626 7.289 9.236
6 3.455 3.828 5.348 7.231 7.841 8.558 10.645
7 4.255 4.671 6.346 8.383 9.037 9.803 12.017
8 5.071 5.527 7.344 9.524 10.219 11.030 13.362
9 5.899 6.393 8.343 10.656 11.389 12.242 14.684
10 6.737 7.267 9.342 11.781 12.549 13.442 15.987
11 7.584 8.148 10.341 12.899 13.701 14.631 17.275
12 8.438 9.034 11.340 14.011 14.845 15.812 18.549
13 9.299 9.926 12.340 15.119 15.984 16.985 19.812
14 10.165 10.821 13.339 16.222 17.117 18.151 21.064
15 11.037 11.721 14.339 17.322 18.245 19.313 22.307
16 11.912 12.624 15.338 18.418 19.369 20.465 23.542
17 12.792 13.531 16.338 19.511 20.489 21.615 24.769
18 13.675 14.440 17.338 20.601 21.605 22.760 25.989
19 14.562 15.352 18.338 21.689 22.718 23.900 27.204
20 15.452 16.266 19.337 22.775 23.828 25.038 28.412
21 16.344 17.182 20.337 23.858 24.935 26.171 29.615
22 17.240 18.101 21.337 24.939 26.039 27.301 30.813
23 18.137 19.021 22.337 26.018 27.141 28.429 32.007
24 19.037 19.943 23.337 27.096 28.241 29.553 33.196
25 19.939 20.867 24.337 28.172 29.339 30.675 34.382
26 20.843 21.792 25.336 29.246 30.435 31.795 35.563
27 21.749 22.719 26.336 30.319 31.528 32.912 36.741
28 22.657 23.647 27.336 31.391 32.621 34.027 37.916
29 23.567 24.577 28.336 32.461 33.711 35.139 39.087
30 24.478 25.508 29.336 33.530 34.800 36.250 40.256
Apêndice A 439
PERTENCE AO N O DE O I
PAC(χ *)
2
0.95 0.975 0.98 0.99 0.995 0.999
v
1 3.841 5.024 5.412 6.635 7.879 10.827
2 5.991 7.378 7.824 9.210 10.597 13.815
3 7.815 9.348 9.837 11.345 12.838 16.268
4 9.488 11.143 11.668 13.277 14.860 18.465
5 11.070 12.833 13.388 15.086 16.750 20.517
6 12.592 14.449 15.033 16.812 18.548 22.457
7 14.067 16.013 16.622 18.475 20.278 24.322
8 15.507 17.535 18.168 20.090 21.955 26.125
9 16.919 19.023 19.679 21.666 23.589 27.877
10 18.307 20.483 21.161 23.209 25.188 29.588
11 19.575 21.920 22.618 24.725 26.757 31.264
12 21.026 23.337 24.054 26.217 28.299 32.909
13 22.362 24.736 25.472 27.688 29.819 34.528
14 23.685 26.119 26.873 29.141 31.319 36.123
15 24.996 27.488 28.259 30.578 32.801 37.697
16 36.296 36.845 29.633 32.000 34.267 39.252
17 27.587 30.191 30.995 33.409 35.719 40.790
18 28.869 31.526 32.346 34.805 37.156 42.312
19 30.144 32.852 33.687 36.191 38.582 43.820
20 31.410 34.170 35.020 37.566 39.997 45.315
21 32.671 35.479 36.343 38.932 41.401 46.797
22 33.924 36.781 37.659 40.289 42.796 48.268
23 35.172 38.076 38.968 41.638 44.181 49.728
24 36.145 39.364 40.270 42.980 45.559 51.179
25 37.652 40.647 41.566 44.314 46.928 52.620
26 38.885 41.923 42.856 45.642 48.290 54.052
27 40.113 43.194 44.140 46.963 49.645 55.476
28 41.337 44.461 45.419 48.278 50.993 56.893
29 42.557 45.722 46.693 49.588 52.336 58.302
30 43.773 46.979 47.962 50.892 53.672 59.703
JoF* p(F)dF
0 F* F
v1
1 2 3 4 5 6
v2
1 1.0000 1.5000 1.70923 1.8227 1.8937 1.9422
2 0.66667 1.0000 1.1349 1.2071 1.2519 1.2824
3 0.58506 0.88110 1.0000 1.0632 1.1024 1.1289
4 0.54863 0.82843 0.94053 1.0000 1.0367 1.0617
5 0.52807 0.79877 0.90715 0.96456 1.0000 1.0240
6 0.51489 0.77976 0.88578 0.94191 0.97654 1.0000
7 0.50572 0.76655 0.87094 0.92619 0.96026 0.98334
8 0.49898 0.75683 0.86004 0.91465 0.94831 0.97111
9 0.49382 0.74938 0.85168 0.90580 0.93916 0.96175
10 0.48974 0.74349 0.84508 0.89882 0.93193 0.95436
11 0.48643 0.73872 0.83973 0.89316 0.92608 0.94837
12 0.48370 0.73477 0.83531 0.88848 0.92124 0.94342
13 0.48140 0.73145 0.83159 0.88455 0.91718 0.93927
14 0.47944 0.72863 0.82842 0.88119 0.91371 0.93572
15 0.47775 0.72619 0.82568 0.87830 0.91072 0.93267
16 0.47628 0.72406 0.82330 0.87579 0.90812 0.93001
17 0.47499 0.72219 0.82121 0.87357 0.90583 0.92767
18 0.47384 0.72054 0.81935 0.87161 0.90381 0.92560
19 0.47282 0.71906 0.81770 0.86986 0.90200 0.92375
20 0.47191 0.71773 0.81621 0.86829 0.90038 0.92209
21 0.47108 0.71654 0.81487 0.86688 0.89891 0.92060
22 0.47033 0.71545 0.81365 0.86559 0.89758 0.91924
23 0.46964 0.71446 0.81255 0.86442 0.89637 0.91800
24 0.46902 0.71356 0.81153 0.86335 0.89526 0.91687
25 0.46844 0.71273 0.81060 0.86236 0.89425 0.91583
26 0.46791 0.71196 0.80974 0.86145 0.89331 0.91487
27 0.46743 0.71125 0.80895 0.86061 0.89244 0.91398
28 0.46697 0.71059 0.80821 0.85984 0.89164 0.91316
29 0.46655 0.70998 0.80753 0.85911 0.89089 0.91240
30 0.46616 0.70941 0.80689 0.85844 0.89019 0.91169
40 0.46332 0.70530 0.80228 0.85357 0.88516 0.90654
60 0.46050 0.70122 0.79770 0.84873 0.88017 0.90144
120 0.45771 0.69717 0.79316 0.84393 0.87521 0.89638
∞ 0.45494 0.69315 0.78866 0.83918 0.87029 0.89135
Apêndice A 441
PERTENCE AO N O DE O I
v1
7 8 9 10 12 15
v2
1 1.9774 2.0041 2.0250 2.0419 2.0674 2.0931
2 1.3046 1.3213 1.3344 1.3450 1.3610 1.3771
3 1.1482 1.1627 1.1741 1.1833 1.1972 1.2111
4 1.0797 1.0933 1.1040 1.1126 1.1255 1.1386
5 1.0414 1.0545 1.0648 1.0730 1.0855 1.0980
6 1.0169 1.02975 1.0398 1.0478 1.0600 1.0722
7 1.0000 1.0126 1.0224 1.0304 1.0423 1.0543
8 0.98757 1.0000 1.0097 1.0175 1.0293 1.0412
9 0.97805 0.99037 1.0000 1.0077 1.0194 1.0311
10 0.97054 0.98276 0.99232 1.0000 1.0116 1.0232
11 0.96445 0.97660 0.98610 0.00373 1.0052 1.0168
12 0.95943 0.97152 0.98097 0.98856 1.0000 1.0115
13 0.95520 0.96724 0.97665 0.98421 0.99560 1.0071
14 0.95160 0.96360 0.97298 0.98051 0.99186 1.0033
15 0.94850 0.96046 0.96981 0.97732 0.98863 1.0000
16 0.94580 0.95772 0.96705 0.97454 0.98582 0.99716
17 0.94342 0.95532 0.96462 0.97209 0.98334 0.99466
18 0.94132 0.95319 0.96247 0.96993 0.98116 0.99245
19 0.93944 0.95129 0.96056 0.96800 0.97920 0.99047
20 0.93776 0.94959 0.95884 0.96626 0.97746 0.98870
21 0.93624 0.94805 0.95728 0.96470 0.97587 0.98710
22 0.93486 0.94665 0.95588 0.96328 0.97444 0.98565
23 0.93360 0.94538 0.95459 0.96199 0.97313 0.98433
24 0.93245 0.94422 0.95342 0.96081 0.97194 0.98312
25 0.93140 0.94315 0.95234 0.95972 0.97084 0.98201
26 0.93042 0.94217 0.95135 0.95872 0.96983 0.98099
27 0.92952 0.94126 0.95043 0.95779 0.96889 0.98004
28 0.92869 0.94041 0.94958 0.95694 0.96802 0.97917
29 0.92791 0.93963 0.94879 0.95614 0.96722 0.97835
30 0.92719 0.93890 0.94805 0.95540 0.96647 0.97759
40 0.92197 0.93361 0.94272 0.95003 0.96104 0.97211
60 0.91679 0.92837 0.93743 0.94471 0.95566 0.96667
120 0.91165 0.92318 0.93219 0.93943 0.95032 0.96128
∞ 0.90654 0.91802 0.92698 0.93418 0.94503 0.95593
v1
20 24 30 40 60 120 ∞
v2
1 2.1190 2.1321 2.1452 2.1584 2.1716 2.1848 2.1981
2 1.3933 1.4014 1.4096 1.4178 1.4261 1.4344 1.4427
3 1.2252 1.2322 1.2393 1.2464 1.2536 1.2608 1.2680
4 1.1517 1.1583 1.1649 1.1716 1.1782 1.1849 1.1916
5 1.1106 1.1170 1.1234 1.1297 1.1361 1.1420 1.1490
6 1.0845 1.0907 1.0969 1.1031 1.1093 1.1156 1.1219
7 1.0664 1.0724 1.0785 1.0846 1.0908 1.0969 1.1031
8 1.0531 1.0591 1.0651 1.0711 1.0771 1.0832 1.0893
9 1.0429 1.0489 1.0548 1.0608 1.0667 1.0727 1.0788
10 1.0349 1.0408 1.0467 1.0526 1.0585 1.0645 1.0705
11 1.0284 1.0343 1.0401 1.0460 1.0519 1.0578 1.0637
12 1.0231 1.0289 1.0347 1.0405 1.0464 1.0523 1.0582
13 1.0186 1.0243 1.0301 1.0360 1.0418 1.0476 1.0535
14 1.0147 1.0205 1.0263 1.0321 1.0379 1.0437 1.0495
15 1.0114 1.0172 1.0229 1.0287 1.0345 1.0403 1.0461
16 1.0086 1.0143 1.0200 1.0258 1.0315 1.0373 1.0431
17 1.0060 1.0117 1.0174 1.0232 1.0289 1.0347 1.0405
18 1.0038 1.0095 1.0152 1.0209 1.0267 1.0324 1.0382
19 1.0018 1.0075 1.0132 1.0189 1.0246 1.0304 1.0361
20 1.0000 1.0057 1.0114 1.0171 1.0228 1.0285 1.0343
21 0.99838 1.0040 1.0097 1.0154 1.0211 1.0268 1.0236
22 0.99692 1.0026 1.0082 1.0139 1.0196 1.0253 1.0311
23 0.99558 1.0012 1.0069 1.0126 1.0183 1.0240 1.0297
24 0.99436 1.0000 1.0057 1.0113 1.0170 1.0227 1.0284
25 0.99324 0.99887 1.0045 1.0102 1.0159 1.0215 1.0273
26 0.99220 0.99783 1.0035 1.0091 1.0148 1.0205 1.0262
27 0.99125 0.99687 1.0025 1.0082 1.0138 1.0195 1.0252
28 0.99036 0.99598 1.0016 1.0073 1.0129 1.0186 1.0243
29 0.98954 0.99515 1.0008 1.0064 1.0121 1.0177 1.0234
30 0.98877 0.99438 1.0000 1.0056 1.0113 1.0170 1.0226
40 0.98323 0.98880 0.99440 1.0000 1.0056 1.0113 1.0169
60 0.97773 0.98328 0.98884 0.99441 1.0000 1.0056 1.0112
120 0.97228 0.97780 0.98333 0.98887 0.99443 1.0000 1.0056
∞ 0.96687 0.97236 0.97787 0.98339 0.98891 0.99445 1.0000
Apêndice A 443
PERTENCE AO N O DE O I
0 F* F
v1
v2 1 2 3 4 5 6 7
1 5.8284 7.5000 8.1999 8.5809 8.8198 8.9833 9.1021
2 2.5714 3.0000 3.1534 3.2321 3.2799 3.3121 3.3352
3 2.0239 2.2798 2.3556 2.3901 2.4095 2.4218 2.4302
4 1.8074 2.0000 2.0467 2.0642 2.0723 2.0766 2.0790
5 1.6925 1.8528 1.8843 1.8927 1.8947 1.8945 1.8935
6 1.6214 1.7622 1.7844 1.7872 1.7852 1.7821 1.7789
7 1.5732 1.7010 1.7169 1.7157 1.7111 1.7059 1.7011
8 1.5384 1.6569 1.6683 1.6642 1.6575 1.6508 1.6448
9 1.5121 1.6236 1.6315 1.6253 1.6170 1.6091 1.6022
10 1.4915 1.5975 1.6028 1.5949 1.5853 1.5765 1.5688
11 1.4749 1.5767 1.5798 1.5704 1.5598 1.5502 1.5418
12 1.4613 1.5595 1.5609 1.5504 1.5389 1.5286 1.5197
13 1.4500 1.5452 1.5451 1.5336 1.5214 1.5105 1.5011
14 1.4403 1.5331 1.5317 1.5194 1.5066 1.4952 1.4854
15 1.4321 1.5227 1.5202 1.5071 1.4938 1.4820 1.4718
16 1.4249 1.5137 1.5103 1.4965 1.4827 1.4705 1.4601
17 1.4186 1.5057 1.5015 1.4872 1.4730 1.4605 1.4497
18 1.4130 1.4988 1.4938 1.4790 1.4644 1.4516 1.4406
19 1.4081 1.4925 1.4870 1.4717 1.4568 1.4437 1.4325
20 1.4037 1.4870 1.4808 1.4652 1.4500 1.4366 1.4252
21 1.3997 1.4820 1.4753 1.4593 1.4438 1.4302 1.4186
22 1.3961 1.4774 1.4703 1.4540 1.4382 1.4244 1.4126
23 1.3928 1.4733 1.4657 1.4491 1.4331 1.4191 1.4072
24 1.3898 1.4695 1.4615 1.4447 1.4285 1.4143 1.4022
25 1.3870 1.4661 1.4577 1.4406 1.4242 1.4099 1.3977
26 1.3845 1.4629 1.4542 1.4369 1.4203 1.4058 1.3935
27 1.3821 1.4600 1.4510 1.4334 1.4166 1.4021 1.3896
28 1.3800 1.4573 1.4480 1.4302 1.4133 1.3986 1.3860
29 1.3780 1.4547 1.4452 1.4272 1.4102 1.3953 1.3826
30 1.3761 1.4524 1.4426 1.4244 1.4073 1.3923 1.3795
40 1.3626 1.4355 1.4239 1.4045 1.3863 1.3706 1.3571
60 1.3493 1.4188 1.4055 1.3848 1.3657 1.3491 1.3348
120 1.3362 1.4024 1.3873 1.3654 1.3453 1.3278 1.3128
∞ 1.3233 1.3863 1.3694 1.3463 1.3251 1.3068 1.2910
v1
8 9 10 12 15 20
v2
1 9.1923 9.2631 9.3202 9.4064 9.4934 9.5813
2 3.3526 3.3661 3.3770 3.3934 3.4098 3.4263
3 2.4364 2.4410 2.4447 2.4500 2.4552 2.4602
4 2.0805 2.0814 2.0820 2.0826 2.0829 2.0828
5 1.8923 1.8911 1.8899 1.8877 1.8851 1.8820
6 1.7760 1.7733 1.7708 1.7668 1.7621 1.7569
7 1.6969 1.6931 1.6898 1.6843 1.6781 1.6712
8 1.6396 1.6350 1.6310 1.6244 1.6170 1.6088
9 1.5961 1.5909 1.5863 1.5788 1.5705 1.5611
10 1.5621 1.5563 1.5513 1.5430 1.5338 1.5235
11 1.5346 1.5284 1.5230 1.5140 1.5041 1.4930
12 1.5120 1.5054 1.4996 1.4902 1.4796 1.4678
13 1.4931 1.4861 1.4801 1.4701 1.4590 1.4465
14 1.4770 1.4697 1.4634 1.4530 1.4414 1.4284
15 1.4631 1.4556 1.4491 1.4383 1.4263 1.4127
16 1.4511 1.4433 1.4366 1.4255 1.4130 1.3990
17 1.4405 1.4325 1.4256 1.4142 1.4014 1.3869
18 1.4311 1.4230 1.4159 1.4042 1.3911 1.3762
19 1.4228 1.4145 1.4073 1.3953 1.3819 1.3665
20 1.4153 1.4069 1.3995 1.3873 1.3736 1.3580
21 1.4086 1.4000 1.3925 1.3801 1.3661 1.3502
22 1.4025 1.3937 1.3861 1.3735 1.3593 1.3431
23 1.3969 1.3880 1.3803 1.3675 1.3531 1.3366
24 1.3918 1.3828 1.3750 1.3621 1.3474 1.3307
25 1.3871 1.3781 1.3701 1.3570 1.3422 1.3252
26 1.3828 1.3736 1.3656 1.3524 1.3374 1.3202
27 1.3788 1.3696 1.3615 1.3481 1.3329 1.3155
28 1.3752 1.3658 1.3576 1.3441 1.3288 1.3112
29 1.3717 1.3623 1.3541 1.3404 1.3249 1.3071
30 1.3685 1.3590 1.3507 1.3369 1.3213 1.3033
40 1.3455 1.3354 1.3266 1.3119 1.2952 1.2758
60 1.3226 1.3119 1.3026 1.2870 1.2691 1.2481
120 1.2999 1.2886 1.2787 1.2621 1.2428 1.2200
∞ 1.2774 1.2654 1.2549 1.2371 1.2163 1.1914
Apêndice A 445
PERTENCE AO N O DE O I
v1
24 30 40 60 120 ∞
v2
1 9.6255 9.6698 9.7144 9.7591 9.8041 9.8492
2 3.4345 3.4428 3.4511 3.4594 2.4677 3.4761
3 2.4626 2.4650 2.4674 2.4697 2.4720 2.4742
4 2.0827 2.0825 2.0821 2.0817 2.0812 2.0806
5 1.8802 1.8784 1.8763 1.8742 1.8719 1.8694
6 1.7540 1.7510 1.7477 1.7443 1.7407 1.7368
7 1.6675 1.6635 1.6593 1.6548 1.6502 1.6452
8 1.6043 1.5996 1.5945 1.5892 1.5836 1.5777
9 1.5560 1.5506 1.5450 1.5389 1.5325 1.5257
10 1.5179 1.5119 1.5056 1.4990 1.4919 1.4843
11 1.4869 1.4805 1.4737 1.4664 1.4587 1.4504
12 1.4613 1.4544 1.4471 1.4393 1.4310 1.4221
13 1.4397 1.4324 1.4247 1.4164 1.4075 1.3980
14 1.4212 1.4136 1.4055 1.3967 1.3874 1.3772
15 1.4052 1.3973 1.3888 1.3796 1.3698 1.3591
16 1.3913 1.3830 1.3742 1.3646 1.3543 1.3432
17 1.3790 1.3704 1.3613 1.3514 1.3406 1.3290
18 1.3680 1.3592 1.3497 1.3395 1.3284 1.3162
19 1.3582 1.3492 1.3394 1.3289 1.3174 1.3048
20 1.3494 1.3401 1.3301 1.3193 1.3074 1.2943
21 1.3414 1.3319 1.3217 1.3105 1.2983 1.2848
22 1.3341 1.3245 1.3140 1.3025 1.2900 1.2761
23 1.3275 1.3176 1.3069 1.2952 1.2824 1.2681
24 1.3214 1.3113 1.3004 1.2885 1.2754 1.2607
25 1.3158 1.3056 1.2945 1.2823 1.2698 1.2538
26 1.3106 1.3002 1.2889 1.2765 1.2628 1.2474
27 1.3058 1.2953 1.2838 1.2712 1.2572 1.2414
28 1.3013 1.2906 1.2790 1.2662 1.2519 1.2358
29 1.2971 1.2863 1.2745 1.2615 1.2470 1.2306
30 1.2933 1.2823 1.2703 1.2571 1.2424 1.2256
40 1.2649 1.2529 1.2397 1.2249 1.2080 1.1883
60 1.2361 1.2229 1.2081 1.1912 1.1715 1.1474
120 1.2068 1.1921 1.1752 1.1555 1.1314 1.0987
∞ 1.1767 1.1600 1.1404 1.1164 1.0838 1.0000
JoF* p(F)dF
0 F* F
v1
v2 1 2 3 4 5 6 7
1 39.8635 49.5000 53.5932 55.8330 57.2401 58.2044 58.9060
2 8.5263 9.0000 9.1618 9.2434 9.2926 9.3255 9.3491
3 5.5383 5.4624 5.3908 5.3426 5.3092 5.2847 5.2662
4 4.5448 4.3246 4.1909 4.1072 4.0506 4.0097 3.9790
5 4.0604 3.7797 3.6195 3.5202 3.4530 3.4045 3.3679
6 3.7759 3.4633 3.2888 3.1808 3.1075 3.0546 3.0145
7 3.5894 3.2574 3.0741 2.9605 2.8833 2.8274 2.7849
8 3.4579 3.1131 2.9238 2.8064 2.7264 2.6683 2.6241
9 3.3603 3.0065 2.8129 2.6927 2.6106 2.5509 2.5053
10 3.2850 2.9245 2.7277 2.6053 2.5216 2.4606 2.4140
11 3.2252 2.8595 2.6602 2.5362 2.4512 2.3891 2.3416
12 3.1765 2.8068 2.6055 2.4801 2.3940 2.3310 2.2828
13 3.1362 2.7632 2.5603 2.4337 2.3467 2.2830 2.2341
14 3.1022 2.7265 2.5222 2.3947 2.3069 2.2426 2.1931
15 3.0732 2.6952 2.4898 2.3614 2.2730 2.2081 2.1582
16 3.0481 2.6682 2.4618 2.3327 2.2438 2.1783 2.1280
17 3.0262 2.6446 2.4374 2.3077 2.2183 2.1524 2.1017
18 3.0070 2.6239 2.4160 2.2858 2.1958 2.1296 2.0785
19 2.9899 2.6056 2.3970 2.2663 2.1760 2.1094 2.0580
20 2.9747 2.5893 2.3801 2.2489 2.1582 2.0913 2.0397
21 2.9610 2.5746 2.3649 2.2333 2.1423 2.0751 2.0233
22 2.9486 2.5613 2.3512 2.2193 2.1279 2.0605 2.0084
23 2.9374 2.5493 2.3387 2.2065 2.1149 2.0472 1.9949
24 2.9271 2.5383 2.3274 2.1949 2.1030 2.0351 1.9826
25 2.9177 2.5283 2.3170 2.1842 2.0922 2.0241 1.9714
26 2.9091 2.5191 2.3075 2.1745 2.0822 2.0139 1.9610
27 2.9012 2.5106 2.2987 2.1655 2.0730 2.0045 1.9515
28 2.8938 2.5028 2.2906 2.1571 2.0645 1.9959 1.9427
29 2.8870 2.4955 2.2831 2.1494 2.0566 1.9878 1.9345
30 2.8807 2.4887 2.2761 2.1422 2.0492 1.9803 1.9269
40 2.8354 2.4404 2.2261 2.0909 1.9968 1.9269 1.8725
60 2.7911 2.3933 2.1774 2.0410 1.9457 1.8747 1.8194
120 2.7478 2.3473 2.1300 1.9923 1.8959 1.8238 1.7675
∞ 2.7055 2.3026 2.0838 1.9449 1.8473 1.7741 1.7167
Apêndice A 447
PERTENCE AO N O DE O I
v1
v2 8 9 10 12 15 20
1 59.4390 59.8576 60.195 60.705 61.220 61.740
2 9.3668 9.3805 9.3916 9.4081 9.4247 9.4413
3 5.2517 5.2400 5.2304 5.2156 5.2003 5.1845
4 3.9549 3.9357 3.9199 3.8955 3.8689 3.8443
5 3.3393 3.3163 3.2974 3.2682 3.2380 3.2067
6 2.9830 2.9577 2.9369 2.9047 2.8712 2.8363
7 2.7516 2.7247 2.7025 2.6681 26.322 2.5947
8 2.5893 2.5612 2.5380 2.5020 2.4642 2.4246
9 2.4694 2.4403 2.4163 2.3789 2.3396 2.2983
10 2.3772 2.3473 2.3226 2.2841 2.2435 2.2007
11 2.3040 2.2735 2.2482 2.2087 2.1671 2.1230
12 2.2446 2.2135 2.1878 2.1474 2.1049 2.0597
13 2.1953 2.1638 2.1376 2.0966 2.0532 2.0070
14 2.1539 2.1220 2.0954 2.0537 2.0095 1.9625
15 2.1185 2.0862 2.0593 2.0171 1.9722 1.9243
16 2.0880 2.0553 2.0281 1.9854 1.9399 1.8913
17 2.0613 2.0284 2.0009 1.9577 1.9117 1.8624
18 2.0379 2.0047 1.9770 1.9333 1.8868 1.8368
19 2.0171 1.9836 1.9557 1.9117 1.8647 1.8142
20 1.9985 1.9649 1.9367 1.8924 1.8449 1.7938
21 1.9819 1.9480 1.9197 1.8750 1.8272 1.7756
22 1.9668 1.9327 1.9043 1.8593 1.8111 1.7590
23 1.9531 1.9189 1.8903 1.8450 1.7964 1.7439
24 1.9407 1.9063 1.8775 1.8319 1.7831 1.7302
25 1.9292 1.8947 1.8658 1.8200 1.7708 1.7175
26 1.9188 1.8841 1.8550 1.8090 1.7596 1.7059
27 1.9091 1.8743 1.8451 1.7989 1.7492 1.6951
28 1.9001 1.8652 1.8359 1.7895 1.7395 1.6852
29 1.8918 1.8568 1.8274 1.7808 1.7306 1.6759
30 1.8841 1.8490 1.8195 1.7727 1.7223 1.6673
40 1.8289 1.7929 1.7627 1.7146 1.6624 1.6052
60 1.7748 1.7380 1.7070 1.6574 1.6034 1.5435
120 1.7220 1.6842 1.6524 1.6012 1.5450 1.4821
∞ 1.6702 1.6315 1.5987 1.5458 1.4871 1.4206
v1
v2 24 30 40 60 120 ∞
1 62.002 62.265 62.529 62.794 63.061 63.328
2 9.4496 9.4539 9.4663 9.4746 9.4829 9.4913
3 5.1764 5.1681 5.1597 5.1512 5.1425 5.1337
4 3.8310 3.8174 3.8036 3.7896 3.7753 3.7607
5 3.1905 3.1741 3.1573 3.1402 3.1228 3.1050
6 2.8183 2.8000 2.7812 2.7620 2.7423 2.7222
7 2.5753 2.5555 2.5351 2.5142 2.4928 2.4708
8 2.4041 2.3830 2.3614 2.3391 2.3162 2.2926
9 2.2768 2.2547 2.2320 2.2085 2.1843 2.1592
10 2.1784 2.1554 2.1317 2.1072 2.0818 2.0554
11 2.1000 2.0762 2.0516 2.0261 1.9997 1.9721
12 2.0360 2.0115 1.9861 1.9597 1.9323 1.9036
13 1.9827 1.9576 1.9315 1.9043 1.8759 1.8462
14 1.9377 1.9119 1.8852 1.8572 1.8280 1.7973
15 1.8990 1.8728 1.8454 1.8168 1.7867 1.7551
16 1.8656 1.8388 1.8108 1.7816 1.7507 1.7182
17 1.8362 1.8090 1.7805 1.7506 1.7191 1.6856
18 1.8103 1.7827 1.7537 1.7232 1.6910 1.6567
19 1.7873 1.7592 1.7298 1.6988 1.6659 1.6308
20 1.7667 1.7382 1.7083 1.6768 1.6433 1.6074
21 1.7481 1.7193 1.6890 1.6569 1.6228 1.5862
22 1.7312 1.7021 1.6714 1.6389 1.6042 1.5668
23 1.7159 1.6864 1.6554 1.6224 1.5871 1.5490
24 1.7019 1.6721 1.6407 1.6073 1.5715 1.5327
25 1.6890 1.6589 1.6272 1.5934 1.5570 1.5176
26 1.6771 1.6468 1.6147 1.5805 1.5437 1.5036
27 1.6662 1.6356 1.6032 1.5686 1.5313 1.4906
28 1.6560 1.6252 1.5925 1.5575 1.5198 1.4784
29 1.6465 1.6155 1.5825 1.5472 1.5090 1.4670
30 1.6377 1.6065 1.5732 1.5376 1.4989 1.4564
40 1.5741 1.5411 1.5056 1.4672 1.4248 1.3769
60 1.5107 1.4755 1.4373 1.3952 1.3476 1.2915
120 1.4472 1.4094 1.3676 1.3203 1.2646 1.1926
∞ 1.3832 1.3419 1.2951 1.2400 1.1686 1.0000
Apêndice A 449
PERTENCE AO N O DE O I
0 F* F
v1
v2 1 2 3 4 5 6 7
1 161.45 199.50 215.71 224.58 230.16 233.99 236.77
2 18.513 19.000 19.164 19.247 19.296 19.330 19.353
3 10.1280 9.5521 9.2766 9.1172 9.0135 8.9406 8.8867
4 7.7086 6.9443 6.5914 6.3882 6.2561 6.1631 6.0942
5 6.6079 5.7861 5.4095 5.1922 5.0503 4.9503 4.8759
6 5.9874 5.1433 4.7571 4.5337 4.3874 4.2839 4.2067
7 5.5914 4.7374 4.3468 4.1203 3.9715 3.8660 3.7870
8 5.3177 4.4590 4.0662 3.8379 3.6875 3.5806 3.5005
9 5.1174 4.2565 3.8625 3.6331 3.4817 3.3738 3.2927
10 4.9646 4.1028 3.7083 3.4780 3.3258 3.2172 3.1355
11 4.8443 3.9823 3.5874 3.3567 3.2039 3.0946 3.0123
12 4.7472 3.8853 3.4903 3.2592 3.1059 2.9961 2.9134
13 4.6672 3.8056 3.4105 3.1791 3.0254 2.9153 2.8321
14 4.6001 3.7389 3.3439 3.1122 2.9582 2.8477 2.7642
15 4.5431 3.6823 3.2874 3.0556 2.9013 2.7905 2.7066
16 4.4940 3.6337 3.2389 3.0069 2.8524 2.7413 2.6572
17 4.4513 3.5915 3.1968 2.9647 2.8100 2.6987 2.6143
18 4.4139 3.5546 3.1599 2.9277 2.7729 2.6613 2.5767
19 4.3807 3.5219 3.1274 2.8951 2.7401 2.6283 2.5435
20 4.3512 3.4928 3.0984 2.8661 2.7109 2.5990 2.5140
21 4.3248 3.4668 3.0725 2.8401 2.6848 2.5727 2.4876
22 4.3009 3.4434 3.0491 2.8167 2.6613 2.5491 2.4638
23 4.2793 3.4221 3.0280 2.7955 2.6400 2.5277 2.4422
24 4.2597 3.4028 3.0088 2.7763 2.6207 2.5082 2.4226
25 4.2417 3.3852 2.9912 2.7587 2.6030 2.4904 2.4047
26 4.2252 3.3690 2.9752 2.7426 2.5868 2.4741 2.3883
27 4.2100 3.3541 2.9604 2.7278 2.5719 2.4591 2.3732
28 4.1960 3.3404 2.9467 2.7141 2.5581 2.4453 2.3593
29 4.1830 3.3277 2.9340 2.7014 2.5454 2.4324 2.3463
30 4.1709 3.3158 2.9223 2.6896 2.5336 2.4205 2.3343
40 4.0847 3.2317 2.8387 2.6060 2.4495 2.3359 2.2490
60 4.0012 3.1504 2.7581 2.5252 2.3683 2.2541 2.1665
120 3.9201 3.0718 2.6802 2.4472 2.2899 2.1750 2.0868
∞ 3.8415 2.9957 2.6049 2.3719 2.2141 2.0986 2.0096
v1
v2 8 9 10 12 15 20
1 238.88 240.54 241.88 243.91 245.95 248.01
2 19.371 19.385 19.396 19.413 19.429 19.446
3 8.8452 8.8123 8.7855 8.7446 8.7029 8.6602
4 6.0410 5.9988 5.9644 5.9117 5.8578 5.8025
5 4.8183 4.7725 4.7351 4.6777 4.6188 4.5581
6 4.1468 4.0990 4.0600 3.9999 3.9381 3.8742
7 3.7257 3.6767 3.6365 3.5747 3.5108 3.4445
8 3.4381 3.3881 3.3472 3.2840 3.2184 3.1503
9 3.2296 3.1789 3.1373 3.0729 3.0061 2.9365
10 3.0717 3.0204 2.9782 2.9130 2.8450 2.7740
11 2.9480 2.8962 2.8536 2.7876 2.7186 2.6464
12 2.8486 2.7964 2.7534 2.6866 2.6169 2.5436
13 2.7669 2.7144 2.6710 2.6037 2.5331 2.4589
14 2.6987 2.6458 2.6021 2.5342 2.4630 2.3879
15 2.6408 2.5876 2.5437 2.4753 2.4035 2.3275
16 2.5911 2.5377 2.4935 2.4247 2.3522 2.2756
17 2.5480 2.4943 2.4499 2.3807 2.3077 2.2304
18 2.5102 2.4563 2.4117 2.3421 2.2686 2.1906
19 2.4768 2.4227 2.3779 2.3080 2.2341 2.1555
20 2.4471 2.3928 2.3479 2.2776 2.2033 2.1242
21 2.4205 2.3660 2.3210 2.2504 2.1757 2.0960
22 2.3965 2.3419 2.2967 2.2258 2.1508 2.0707
23 2.3748 2.3201 2.2747 2.2036 2.1282 2.0476
24 2.3551 2.3002 2.2547 2.1834 2.1077 2.0267
25 2.3371 2.2821 2.2365 2.1649 2.0889 2.0075
26 2.3205 2.2655 2.2197 2.1479 2.0716 1.9898
27 2.3053 2.2501 2.2043 2.1323 2.0558 1.9736
28 2.2913 2.2360 2.1900 2.1179 2.0411 1.9586
29 2.2783 2.2229 2.1768 2.1045 2.0275 1.9446
30 2.2662 2.2107 2.1646 2.0921 2.0148 1.9317
40 2.1802 2.1240 2.0772 2.0035 1.9245 1.8389
60 2.0970 2.0401 1.9926 1.9174 1.8364 1.7480
120 2.0164 1.9588 1.9105 1.8337 1.7505 1.6587
∞ 1.9384 1.8799 1.8307 1.7522 1.6664 1.5705
Apêndice A 451
PERTENCE AO N O DE O I
v1
v2 24 30 40 60 120 ∞
1 249.05 250.09 251.14 252.20 253.25 254.32
2 19.454 19.462 19.471 19.479 19.487 19.496
3 8.6385 8.6166 8.5944 8.5720 8.5494 8.5265
4 5.7744 5.7459 5.7170 5.6878 5.6581 5.6281
5 4.5272 4.4957 4.4638 4.4314 4.3984 4.3650
6 3.8415 3.8082 3.7743 3.7398 3.7047 3.6688
7 3.4105 3.3758 3.3404 3.3043 3.2674 3.2298
8 3.1152 3.0794 3.0428 3.0053 2.9669 2.9276
9 2.9005 2.8637 2.8259 2.7872 2.7475 2.7067
10 2.7372 2.6996 2.6609 2.6211 2.5801 2.5379
11 2.6090 2.5705 2.5309 2.4901 2.4480 2.4045
12 2.5055 2.4663 2.4259 2.3842 2.3410 2.2962
13 2.4202 2.3803 2.3392 2.2966 2.2524 2.2064
14 2.3487 2.3082 2.2664 2.2230 2.1778 2.1307
15 2.2878 2.2468 2.2043 2.1601 2.1141 2.0658
16 2.2354 2.1938 2.1507 2.1058 1.0589 2.0096
17 2.1898 2.1477 2.1040 2.0584 2.0107 1.9604
18 2.1497 2.1071 2.0629 2.0166 1.9681 1.9168
19 2.1141 2.0712 2.0264 1.9796 1.9302 1.8780
20 2.0825 2.0391 1.9938 1.9464 1.8963 1.8432
21 2.0540 2.0102 1.9645 1.9165 1.8657 1.8117
22 2.0283 1.9842 1.9380 1.8895 1.8380 1.7831
23 2.0050 1.9605 1.9139 1.8649 1.8128 1.7570
24 1.9838 1.9390 1.8920 1.8424 1.7897 1.7331
25 1.9643 1.9192 1.8718 1.8217 1.7684 1.7110
26 1.9464 1.9010 1.8533 1.8027 1.7488 1.6906
27 1.9299 1.8842 1.8361 1.7851 1.7307 1.6717
28 1.9147 1.8687 1.8203 1.7689 1.7138 1.6541
29 1.9005 1.8543 1.8055 1.7537 1.6981 1.6377
30 1.8874 1.8409 1.7918 1.7396 1.6835 1.6223
40 1.7929 1.7444 1.6928 1.6373 1.5766 1.5089
60 1.7001 1.6491 1.5943 1.5343 1.4673 1.3893
120 1.6084 1.5543 1.4952 1.4290 1.3519 1.2539
∞ 1.5173 1.4591 1.3940 1.3180 1.2214 1.0000
JoF* p(F)dF
0 F* F
v1
v2 1 2 3 4 5 6 7
1 647.79 799.50 864.16 899.58 921.85 937.11 948.22
2 38.506 39.000 39.166 39.248 39.298 39.332 39.355
3 17.443 16.044 15.439 15.101 14.885 14.735 14.624
4 12.218 10.649 9.9792 9.6045 9.3645 9.1973 9.0741
5 10.007 8.4336 7.7636 7.3879 7.1464 6.9777 6.8531
6 8.8131 7.2599 6.5988 6.2272 5.9876 5.8198 5.6955
7 8.0727 6.5415 5.8898 5.5226 5.2852 5.1186 4.9949
8 7.5709 6.0595 5.4160 5.0526 4.8173 4.6517 4.5286
9 7.2093 5.7147 5.0781 4.7181 4.4844 4.3197 4.1970
10 6.9367 5.4564 4.8256 4.4683 4.2361 4.0721 3.9498
11 6.7241 5.2559 4.6300 4.2751 4.0440 3.8807 3.7586
12 6.5538 5.0959 4.4742 4.1212 3.8911 3.7283 3.6065
13 6.4143 4.9653 4.3472 3.9959 3.7667 3.6043 3.4827
14 6.2979 4.8567 4.2417 3.8919 3.6634 3.5014 3.3799
15 6.1995 4.7650 4.1528 3.8043 3.5764 3.4147 3.2934
16 6.1151 4.6867 4.0768 3.7294 3.5021 3.3406 3.2194
17 6.0420 4.6189 4.0112 3.6648 3.4379 3.2767 3.1556
18 5.9781 4.5597 3.9539 3.6083 3.3820 3.2209 3.0999
19 5.9216 4.5075 3.9034 3.5587 3.3327 3.1718 3.0509
20 5.8715 4.4613 3.8587 3.5147 3.2891 3.1283 3.0074
21 5.8266 4.4199 3.8188 3.4754 3.2501 3.0895 2.9686
22 5.7863 4.3828 3.7829 3.4401 3.2151 3.0546 2.9338
23 5.7498 4.3492 3.7505 3.4083 3.1835 3.0232 2.9023
24 5.7166 4.3187 3.7211 3.3794 3.1548 2.9946 2.8738
25 5.6864 4.2909 3.6943 3.3530 3.1287 2.9685 2.8478
26 5.6586 4.2655 3.6697 3.3289 3.1048 2.9447 2.8240
27 5.6331 4.2421 3.6472 3.3067 3.0828 2.9228 2.8021
28 5.6096 4.2205 3.6264 3.2863 3.0626 2.9027 2.7820
29 5.5878 4.2006 3.6072 3.2674 3.0438 2.8840 2.7633
30 5.5675 4.1821 3.5894 3.2499 3.0265 2.8667 2.7460
40 5.4239 4.0510 3.4633 3.1261 2.9037 2.7444 2.6238
60 5.2856 3.9253 3.3425 3.0077 2.7863 2.6274 2.5068
120 5.1523 3.8046 3.2269 2.8943 2.6740 2.5154 2.3948
∞ 5.0239 3.6889 3.1161 2.7858 2.5665 2.4082 2.2875
Apêndice A 453
PERTENCE AO N O DE O I
v1
v2 8 9 10 12 15 20
1 956.66 963.28 968.63 976.71 984.87 993.10
2 39.373 39.387 39.398 39.415 39.431 39.448
3 14.540 14.473 14.419 14.337 14.253 14.167
4 8.9796 8.9047 8.8439 8.7512 8.6565 8.5599
5 6.7572 6.6811 6.6192 6.5246 6.4277 6.3285
6 5.5996 5.5234 5.4613 5.3662 5.2687 5.1684
7 4.8993 4.8232 4.7611 4.6658 4.5678 4.4667
8 4.4333 4.3572 4.2951 4.1997 4.1012 3.9995
9 4.1020 4.0260 3.9639 3.8682 3.7694 3.6669
10 3.8549 3.7790 3.7168 3.6209 3.5217 3.4186
11 3.6638 3.5879 3.5257 3.4296 3.3299 3.2261
12 3.5118 3.4358 3.3736 3.2773 3.1772 3.0728
13 3.3880 3.3120 3.2497 3.1532 3.0527 2.9477
14 3.2853 3.2093 3.1469 3.0501 2.9493 2.8437
15 3.1987 3.1227 3.0602 2.9633 2.8621 2.7559
16 3.1248 3.0488 2.9862 2.8890 2.7875 2.6808
17 3.0610 2.9849 2.9222 2.8249 2.7230 2.6158
18 3.0053 2.9291 2.8664 2.7689 2.6667 2.5590
19 2.9563 2.8801 2.8173 2.7196 2.6171 2.5089
20 2.9128 2.8365 2.7737 2.6758 2.5731 2.4645
21 2.8740 2.7977 2.7348 2.6368 2.5338 2.4247
22 2.8392 2.7628 2.6998 2.6017 2.4984 2.3890
23 2.8077 2.7313 2.6682 2.5699 2.4665 2.3567
24 2.7791 2.7027 2.6396 2.5412 2.4374 2.3273
25 2.7531 2.6766 2.6135 2.5149 2.4110 2.3005
26 2.7293 2.6528 2.5895 2.4909 2.3867 2.2759
27 2.7074 2.6309 2.5676 2.4688 2.3644 2.2533
28 2.6872 2.6106 2.5473 2.4484 2.3438 2.3224
29 2.6686 2.5919 2.5286 2.4295 2.3248 2.2131
30 2.6513 2.5746 2.5112 2.4120 2.3072 2.1952
40 2.5289 2.4519 2.3882 2.2882 2.1819 2.0677
60 2.4117 2.3344 2.2702 2.1692 2.0613 1.9445
120 2.2994 2.2217 2.1570 2.0548 1.9450 1.8249
∞ 2.1918 2.1136 2.0483 1.9447 1.8326 1.7085
v1
v2 24 30 40 60 120 ∞
1 997.25 1001.4 1005.6 1009.8 1014.0 1018.3
2 39.456 39.465 39.473 39.481 39.490 39.498
3 14.124 14.081 14.037 13.992 13.947 13.902
4 8.5109 8.4613 8.4111 8.3604 8.3092 8.2573
5 6.2780 6.2269 6.1751 6.1225 6.0693 6.0153
6 5.1172 5.0652 5.0125 4.9589 4.9045 4.8491
7 4.4150 4.3624 4.3089 4.2544 4.1989 4.1423
8 3.9472 3.8940 3.8398 3.7844 3.7279 3.6702
9 3.6142 3.5604 3.5055 3.4493 3.3918 3.3329
10 3.3654 3.3110 3.2554 3.1984 3.1399 3.0798
11 3.1725 3.1176 3.0613 3.0035 2.9441 2.8828
12 3.0187 2.9633 2.9063 2.8478 2.7874 2.7249
13 2.8932 2.8373 2.7797 2.7204 2.6590 2.5955
14 2.7888 2.7324 2.6742 2.6142 2.5519 2.4872
15 2.7006 2.6437 2.5850 2.5242 2.4611 2.3953
16 2.6252 2.5678 2.5085 2.4471 2.3831 2.3163
17 2.5598 2.5021 2.4422 2.3801 2.3153 2.2474
18 2.5027 2.4445 2.3842 2.3214 2.2558 2.1869
19 2.4523 2.3937 2.3329 2.2695 1.2032 2.1333
20 2.4076 2.3486 2.2873 2.2234 2.1562 2.0853
21 2.3675 2.3082 2.2465 2.1819 2.1141 2.0422
22 2.3315 2.2718 2.2097 2.1446 2.0760 2.0032
23 2.2989 2.2389 2.1763 2.1107 2.0415 1.9677
24 2.2693 2.2090 2.1460 2.0799 2.0099 1.9353
25 2.2422 2.1816 2.1183 2.0517 1.9811 1.9055
26 2.2174 2.1565 2.0928 2.0257 1.9545 1.8781
27 2.1946 2.1334 2.0693 2.0018 1.9299 1.8527
28 2.1735 2.1121 2.0477 1.9796 1.9072 1.8291
29 2.1540 2.0923 2.0276 1.9591 1.8861 1.8072
30 2.1359 2.0739 2.0089 1.9400 1.8664 1.7867
40 2.0069 1.9429 1.8752 1.8028 1.7242 1.6371
60 1.8817 1.8152 1.7440 1.6668 1.5810 1.4822
120 1.7597 1.6899 1.6141 1.5299 1.4327 1.3104
∞ 1.6402 1.5660 1.4835 1.3883 1.2684 1.0000
Apêndice A 455
PERTENCE AO N O DE O I
0 F* F
v1
v2 1 2 3 4 5 6 7
1 4052.2 4999.5 5403.4 5624.6 5763.6 5859.0 5928.4
2 98.503 99.000 99.166 99.249 99.299 99.333 99.356
3 34.116 30.817 29.457 28.710 28.237 27.911 27.672
4 21.198 18.000 16.694 15.977 15.522 15.207 14.976
5 16.258 13.274 12.060 11.392 10.967 10.672 10.456
6 13.745 10.925 9.7795 9.1483 8.7459 8.4661 8.2600
7 12.246 9.5466 8.4513 7.8466 7.4604 7.1914 6.9928
8 11.259 8.6491 7.5910 7.0061 6.6318 6.3707 6.1776
9 10.561 8.0215 6.9919 6.4221 6.0569 5.8018 5.6129
10 10.044 7.5594 6.5523 5.9943 5.6363 5.3858 5.2001
11 9.6460 7.2057 6.2167 5.6683 5.3160 5.0692 4.8861
12 9.3302 6.9266 5.9525 5.4120 5.0643 4.8206 4.6395
13 9.0738 6.7010 5.7394 5.2053 4.8616 4.6204 4.4410
14 8.8616 6.5149 5.5639 5.0354 4.6950 4.4558 4.2779
15 8.6831 6.3589 5.4170 4.8932 4.5556 4.3183 4.1415
16 8.5310 6.2262 5.2922 4.7726 4.4374 4.2016 4.0259
17 8.3997 6.1121 5.1850 4.6690 4.3359 4.1015 3.9267
18 8.2854 6.0129 5.0919 4.5790 4.2479 4.0146 3.8406
19 8.1849 5.9259 5.0103 4.5003 4.1708 3.9386 3.7653
20 8.0960 5.8489 4.9382 4.4307 4.1027 3.8714 3.6987
21 8.0166 5.7804 4.8740 4.3688 4.0421 3.8117 3.6396
22 7.9454 5.7190 4.8166 4.3134 3.9880 3.7583 3.5867
23 7.8811 5.6637 4.7649 4.2636 3.9392 3.7102 3.5390
24 7.8229 5.6136 4.7181 4.2184 3.8951 3.6667 3.4959
25 7.7698 5.5680 4.6755 4.1774 3.8550 3.6272 3.4568
26 7.7213 5.5263 4.6366 4.1400 3.8183 3.5911 3.4210
27 7.6767 5.4881 4.6009 4.1056 3.7848 3.5580 3.3882
28 7.6356 5.4529 4.5681 4.0740 3.7539 3.5276 3.3581
29 7.5977 5.4204 4.5378 4.0449 3.7254 3.4995 3.3303
30 7.5625 5.3903 4.5097 4.0179 3.6990 3.4735 3.3045
40 7.3141 5.1785 4.3126 3.8283 3.5138 3.2910 3.1238
60 7.0771 4.9774 4.1259 3.6490 3.3389 3.1187 2.9530
120 6.8509 4.7865 3.9491 3.4795 3.1735 2.9559 2.7918
∞ 6.6349 4.6052 3.7816 3.3192 3.0173 2.8020 2.6393
v1
v2 8 9 10 12 15 20
1 5981.1 6022.5 6055.8 6106.3 6157.3 6208.7
2 99.374 99.388 99.399 99.416 99.432 99.449
3 27.489 27.345 27.229 27.052 26.872 26.690
4 14.799 14.659 14.546 14.374 14.198 14.020
5 10.289 10.158 10.051 9.8883 9.7222 9.5527
6 8.1017 7.9761 7.8741 7.7183 7.5590 7.3958
7 6.8400 6.7188 6.6201 6.6591 6.3143 6.1554
8 6.0289 5.9106 5.8143 5.6668 5.5151 5.3591
9 5.4671 5.3511 5.2565 5.1114 4.9621 4.8080
10 5.0567 4.9424 4.8492 4.7059 4.5582 4.4054
11 4.7445 4.6315 4.5393 4.3974 4.2509 4.0990
12 4.4994 4.3875 4.2961 4.1553 4.0096 3.8584
13 4.3021 4.1911 4.1003 3.9603 3.8154 3.6646
14 4.1399 4.0297 3.9394 3.8001 3.6557 3.5052
15 4.0045 3.8948 3.8049 3.6662 3.5222 3.3719
16 3.8896 3.7804 3.6909 3.5527 3.4089 3.2588
17 3.7910 3.6822 3.5931 3.4552 3.3117 3.1615
18 3.7054 3.5971 3.5082 3.3706 3.2273 3.0771
19 3.6305 3.5225 3.4338 3.2965 3.1533 3.0031
20 3.5644 3.4567 3.3682 3.2311 3.0880 2.9377
21 3.5056 3.3981 3.3098 3.1729 3.0299 2.8796
22 3.4530 3.3458 3.2576 3.1209 2.9780 2.8274
23 3.4057 3.2986 3.2106 2.0740 2.9311 2.7805
24 3.3629 3.2560 3.1681 3.0316 2.8887 2.7380
25 3.3239 3.2172 3.1294 2.9931 2.8502 2.6993
26 3.2884 3.1818 3.0941 2.9579 2.8150 2.6640
27 3.2558 3.1494 3.0618 2.9256 2.7827 2.6316
28 3.2259 3.1195 3.0320 2.8959 2.7530 2.6017
29 3.1982 3.0920 3.0045 2.8685 2.7256 2.5742
30 3.1726 3.0665 2.9791 2.8431 2.7002 2.5487
40 2.9930 2.8876 2.8005 2.6648 2.5216 2.3689
60 2.8233 2.7185 2.6318 2.4961 2.3523 2.1978
120 2.6629 2.5586 2.4721 2.3363 2.1915 2.0346
∞ 2.5113 2.4073 2.3209 2.1848 2.0385 1.8783
Apêndice A 457
PERTENCE AO N O DE O I
v1
v2 24 30 40 60 120 ∞
1 6234.6 6260.7 6268.8 6313.0 6339.4 6366.0
2 99.458 99.466 99.474 99.483 99.491 99.501
3 26.598 26.505 26.411 26.316 26.221 26.125
4 13.929 13.838 13.745 13.652 13.558 13.463
5 9.4665 9.3793 9.2912 9.2020 9.1118 9.0204
6 7.3127 7.2285 7.1432 7.0568 6.9690 6.8801
7 6.0743 5.9921 5.9084 5.8236 5.7372 5.6495
8 5.2793 5.1981 5.1156 5.0316 4.9460 4.8588
9 4.7290 4.6486 4.5667 4.4831 4.3978 4.3105
10 4.3269 4.2469 4.1653 4.0819 3.9965 3.9090
11 4.0209 3.9411 3.8596 3.7761 3.6904 3.6025
12 3.7805 3.7008 3.6192 3.5355 3.4494 3.3608
13 3.5868 3.5070 3.4253 3.3413 3.2548 3.1654
14 3.4274 3.3476 3.2656 3.1813 3.0942 3.0040
15 3.2940 3.2141 3.1319 3.0471 2.9595 2.8684
16 3.1808 3.1007 3.0182 2.9330 2.8447 2.7528
17 3.0835 3.0032 2.9205 2.8348 2.7459 2.6530
18 2.9990 2.9185 2.8354 2.7493 2.6597 2.5660
19 2.9249 2.8442 2.7608 3.6742 2.5839 2.4893
20 2.8594 2.7785 2.6947 2.6077 2.5168 2.4212
21 2.8011 2.7200 2.6359 2.5484 2.4568 2.3603
22 2.7488 2.6675 2.5831 2.4951 2.4029 2.3055
23 2.7017 2.6202 2.5355 2.4471 2.3542 2.2559
24 2.6591 2.5773 2.4923 2.4035 2.3099 2.2107
25 2.6203 2.5383 2.4530 2.3637 2.2695 2.1694
26 2.5848 2.5026 2.4170 2.3273 2.2325 2.1315
27 2.5522 2.4699 2.3840 2.2938 2.1984 2.0965
28 2.5223 2.4397 2.3535 2.2629 2.1670 2.0642
29 2.4946 2.4118 2.3253 2.2344 2.1378 2.0342
30 2.4689 2.3860 2.2992 2.2079 2.1107 2.0062
40 2.2880 2.2034 2.1142 2.0194 1.9172 1.8047
60 2.1154 2.0285 1.9360 1.8363 1.7263 1.6006
120 1.9500 1.8600 1.7628 1.6557 1.5330 1.3805
∞ 1.7908 1.6964 1.5923 1.4730 1.3246 1.0000
JoF* p(F)dF
0 F* F
v1
v2 1 2 3 4 5 6 7
1 16211 20000. 21615. 22500. 23056. 23437. 23715.
2 198.50 199.00 199.17 199.25 199.30 199.33 199.36
3 55.552 49.799 47.467 46.195 45.392 44.839 44.434
4 31.333 26.284 24.259 23.155 22.456 21.975 21.622
5 22.785 18.314 16.530 15.556 14.940 14.513 14.200
6 18.635 14.544 12.917 12.028 11.464 11.073 10.786
7 16.236 12.404 10.882 10.051 9.5221 9.1553 8.8854
8 14.688 11.042 9.5965 8.8051 8.3018 7.9520 7.6941
9 13.614 10.107 8.7171 7.9559 7.4712 7.1339 6.8849
10 12.827 9.4270 8.0807 7.3428 6.8724 6.5446 6.3025
11 12.226 8.9122 7.6004 6.8809 6.4217 6.1016 5.8648
12 11.754 8.5096 7.2258 6.5211 6.0711 5.7570 5.5245
13 11.374 8.1865 6.9258 6.2335 5.7910 5.4819 5.2529
14 11.060 7.9216 6.6804 5.9984 5.5623 5.2574 5.0313
15 10.798 7.7008 6.4760 5.8029 5.3721 5.0708 4.8473
16 10.576 7.5138 6.3034 5.6378 5.2117 4.9134 4.6920
17 10.384 7.3536 6.1556 5.4967 5.0746 4.7789 4.5594
18 10.218 7.2148 6.0278 5.3746 4.9560 4.6627 4.4448
19 10.073 7.0935 5.9161 5.2681 4.8526 4.5614 4.3448
20 9.9439 6.9865 5.8177 5.1743 4.7616 4.4721 4.2569
21 9.8295 6.8914 5.7304 5.0911 4.6809 4.3931 4.1789
22 9.7271 6.8064 5.6524 5.0168 4.6088 4.3225 4.1094
23 9.6348 6.7300 5.5823 4.9500 4.5441 4.2591 4.0469
24 9.5513 6.6609 5.5190 4.8898 4.4857 4.2019 3.9905
25 9.4753 6.5982 5.4615 4.8351 4.4327 4.1500 3.9394
26 9.4059 6.5409 5.4091 4.7852 4.3844 4.1027 3.8928
27 9.3423 6.4885 5.3611 4.7396 4.3402 4.0594 3.8501
28 9.2838 6.4403 5.3170 4.6977 4.2996 4.0197 3.8110
29 9.2297 6.3958 5.2764 4.6591 4.2622 3.9831 3.7749
30 9.1797 6.3547 5.2388 4.6234 4.2276 3.9492 3.7416
40 8.8279 6.0664 4.9758 4.3738 3.9860 3.7129 3.5088
60 8.4946 5.7950 4.7290 4.1399 3.7599 3.4918 3.2911
120 8.1788 5.5393 4.4972 3.9207 3.5482 3.2849 3.0874
∞ 7.8796 5.2985 4.2795 3.7152 3.3500 3.0914 2.8969
Apêndice A 459
PERTENCE AO N O DE O I
v1
v2 8 9 10 12 15 20
1 23925. 24091. 24224. 24426. 24630. 24836.
2 199.37 199.39 199.40 199.42 199.43 199.45
3 44.126 43.882 43.686 43.387 43.085 42.778
4 21.352 21.139 20.967 20.705 20.438 20.167
5 13.961 13.772 13.618 13.385 13.146 12.904
6 10.566 10.392 10.250 10.034 9.8140 9.5888
7 8.6781 8.5138 8.3803 8.1764 7.9678 7.7540
8 7.4959 7.3386 7.2106 7.0149 6.8143 6.6082
9 6.6933 6.5411 6.4172 6.2274 6.0325 5.8318
10 6.1159 5.9676 5.8467 5.6613 5.4707 5.2740
11 5.6821 5.5368 5.4183 5.2363 5.0489 4.8552
12 5.3451 5.2021 5.0855 4.9062 4.7213 4.5299
13 5.0761 4.9351 4.8199 4.6429 4.4600 4.2703
14 4.8566 4.7173 4.6034 4.4281 4.2468 4.0585
15 4.6744 4.5364 4.4235 4.2497 4.0698 3.8826
16 4.5207 4.3838 4.2719 4.0994 3.9205 3.7342
17 4.3894 4.2535 4.1424 3.9709 3.7929 3.6073
18 4.2759 4.1410 4.0305 3.8599 3.6827 3.4977
19 4.1770 4.0428 3.9329 3.7631 3.5866 3.4020
20 4.0900 3.9564 3.8470 3.6779 3.5020 3.3178
21 4.0128 3.8799 3.7709 3.6024 3.4270 3.2431
22 3.9440 3.8116 3.7030 3.5350 3.3600 3.1764
23 3.8822 3.7502 3.6420 3.4745 3.2999 3.1165
24 3.8264 3.6949 3.5870 3.4199 3.2456 3.0624
25 3.7758 3.6447 3.5370 3.3704 3.1963 3.0133
26 3.7297 3.5989 3.4916 3.3252 3.1515 2.9685
27 3.6875 3.5571 3.4499 3.2839 3.1104 2.9275
28 3.6487 3.5186 3.4117 3.2460 3.0727 2.8899
29 3.6131 3.4832 3.3765 3.2110 3.0379 2.8551
30 3.5801 3.4505 3.3440 3.1787 3.0057 2.8230
40 3.3498 3.2220 3.1167 2.9531 2.7811 2.5984
60 3.1344 3.0083 2.9042 2.7419 2.5705 2.3872
120 2.9330 2.8083 2.7052 2.5439 2.3727 2.1881
∞ 2.7445 2.6211 2.5189 2.3584 2.1869 2.0000
v1
v2 24 30 40 60 120 ∞
1 24940. 25044. 25148. 25253. 25359. 25464.
2 199.46 199.47 199.47 199.48 199.49 199.50
3 42.622 42.466 42.308 42.149 41.990 41.828
4 20.030 19.892 19.752 19.611 19.468 19.325
5 12.780 12.656 12.530 12.402 12.274 12.144
6 9.4742 9.3582 9.2408 9.1219 9.0015 8.8794
7 7.6450 7.5345 7.4224 7.3088 7.1933 7.0761
8 6.5029 6.3961 6.2875 6.1772 6.0649 5.9506
9 5.7292 5.6248 5.5186 5.4104 5.3001 5.1876
10 5.1732 5.0706 4.9659 4.8592 4.7501 4.6386
11 4.7557 4.6543 4.5508 4.4450 4.3367 4.2256
12 4.4314 4.3309 4.2282 4.1229 4.0149 3.9040
13 4.1726 4.0727 3.9704 3.8655 3.7577 3.6466
14 3.9614 3.8619 3.7600 3.6552 3.5473 3.4359
15 3.7859 3.6867 3.5850 3.4803 3.3722 3.2603
16 3.6378 3.5389 3.4372 3.3324 3.2240 3.1116
17 3.5112 3.4124 3.3108 3.2058 3.0971 2.9840
18 3.4017 3.3030 3.2014 3.0962 2.9871 2.8733
19 3.3062 3.2075 3.1058 3.0004 2.8908 2.7762
20 3.2220 3.1234 3.0215 2.9159 2.8058 2.6905
21 3.1474 3.0488 2.9467 2.8408 2.7302 2.6141
22 3.0807 2.9821 2.8799 2.7736 2.6625 2.5456
23 3.0208 2.9221 2.8197 2.7132 2.6015 2.4838
24 2.9667 2.8679 2.7654 2.6585 2.5463 2.4277
25 2.9176 2.8187 2.7160 2.6088 2.4961 2.3766
26 2.8728 2.7738 2.6709 2.5633 2.4501 2.3298
27 2.8318 2.7327 2.6296 2.5217 2.4079 2.2867
28 2.7941 2.6949 2.5916 2.4834 2.3690 2.2470
29 2.7594 2.6600 2.5565 2.4479 2.3331 2.2102
30 2.7272 2.6278 2.5241 2.4151 2.2998 2.1761
40 2.5020 2.4015 2.2958 2.1838 2.0636 1.9318
60 2.2898 2.1874 2.0789 1.9622 1.8341 1.6886
120 2.0890 1.9840 1.8709 1.7469 1.6055 1.4312
∞ 1.8984 1.7892 1.6693 1.5327 1.3639 1.0116
Apêndice A 461
PERTENCE AO N O DE O I