Escolar Documentos
Profissional Documentos
Cultura Documentos
ISSN 1517-536X
Colombo
2000
Documentos, 46
ISSN 1517-536-X
Produo:
REA DE COMUNICAES E NEGCIOS
Supervisor: Miguel Haliski
Embrapa, 2000
LAYOUT DA CAPA:
Cleide da S.N.F. de Oliveira
DIAGRAMAO
Marta de Ftima Vencato
IMPRESSO
Grfica Radial - Fone: 333-9593
Dezembro/2000
2
Documentos, 46
Sumrio
1 SINOPSE ............................................................................ 5
2 INTRODUO ........................................................................ 8
3 ESTIMAO E PREDIO BAYESIANA .............................................. 9
3.1 CONCEITO DE PROBABILIDADE, PROBABILIDADE CONDICIONAL E TEOREMA
BAYES ......................................................................... 10
DE
E VANTAGENS DA ABORDAGEM
BAYESIANA ..................................... 34
Documentos, 46
1. Sinopse
A predio de valores genticos e a estimao de componentes de
varincia so atividades essenciais no melhoramento de plantas perenes, sendo
que o procedimento padro de estimao/predio o REML/BLUP (mxima
verossimilhana restrita/melhor predio linear no viciada). Uma deficincia
do procedimento REML/BLUP para a estimao/predio de componentes de
varincia/valores genticos refere-se ao fato de que o mtodo REML propicia
intervalos de confiana apenas aproximados para os parmetros genticos,
atravs do uso de aproximaes e suposies de normalidade assinttica. Isto
porque a distribuio e varincia dos estimadores no so conhecidos e, assim,
questes referentes efetividade da seleo a ser praticada no podem ser
respondidas com rigor.
A anlise Bayesiana baseia-se no conhecimento da distribuio a posteriori
dos parmetros genticos e possibilita a construo de intervalos de confiana
(melhor definido como intervalo de probabilidade ou intervalo de confiana
Bayesiano) exatos para as estimativas dos parmetros genticos. Assim, esta
anlise propicia uma descrio mais completa sobre a confiabilidade dos
parmetros genticos do que o mtodo REML (Gianola & Fernando, 1986;
Resende, 1997; 1999).
A inferncia estatstica Bayesiana baseia-se na distribuio condicional
do parmetro (q) dado o vetor de dados (y), ou seja na distribuio a posteriori
do parmetro dadas as observaes fenotpicas, a qual eqivale a:
f ( y ) =
f ( y ) f ( )
f ( y ) f ( ) d , em que:
Documentos, 46
1 =
r 2 + 2 y
;
r 2 + 2
r12 = r 2 + 2
Documentos, 46
a2
y2 a2
Y u 1
1
= h 2 ( y u ),
= 2 + 2
/
+ 2
2
2
2
a y a a y a
=
+ 2
2
2
a y a
X ' R 1 X + S 1
1
Z'R X
X ' R 1Z E ( y ) X ' R 1 y + S 1 r1
=
Z ' R 1Z + G 1 E (a y ) Z ' R 1 y + G 1 0
X ' R 1 y
=
1 , em que:
a Z ' R y
X ' R 1 X
1
Z'R X
X ' R 1Z
Z ' R 1Z + G 1
R = I e2 ;
G = A a2 e S = Var ( ).
Documentos, 46
2. Introduo
A predio de variveis aleatrias e a estimao de componentes de
varincia e efeitos fixos via metodologia de modelos mistos apresentam grande
relevncia na gentica quantitativa aplicada ao melhorameto de plantas perenes.
Embora a metodologia de modelos lineares mistos (MMLM) tratada pela
abordagem da Inferncia Estatstica Freqentista apresente vrias propriedades
desejveis, publicaes recentes tm mostrado uma superioridade da MMLM
quando abordada do ponto de vista da Inferncia Estatstica Bayesiana.
Documentos, 46
Documentos, 46
Probabilidade Freqentista
nA
n lim f A = P[ A] , em que nA o nmero de vezes em que ocorreu o
n
resultado A e P[A] denota a probabilidade de A.
fA =
(ii)
Probabilidade Subjetiva
Probabilidade Lgica
10
Documentos, 46
P [A B ] =
P [A, B ]
se P [B ] 0,
P [B ]
Desta forma, como P[AB] uma probabilidade, valem para ela todas
as propriedades de probabilidade. A prova de que a proporo P[A,B]/P[B]
uma probabilidade vem da verificao dos axiomas:
(i)
(ii)
(iii)
P U A1 B = P[A1 B ]
i =1
i =1
Regra da multiplicao: Para um dado espao de probabilidade
(W ,A, P[.]), se A1, A2, ... An so eventos em A, para o qual [A1, A2, ... An-1]
> 0; ento:
P[A1.A2.... An] = P[A1]. P[A2A1]. P[A3A1A2] ....P[AnA1.A2 ... An-1]
Eventos independentes: Para um dado espao de probabilidade
(W ,A, P[.]), sejam A e B dois eventos em A. Os eventos A e B so definidos
ser independentes se, e somente se, uma das condies for satisfeita:
(i)
P[A,B] = P[A].P[B]
(ii)
(iii)
Documentos, 46
11
[ ]
] [ ]
P[A] = P A B j P B j = P[A]
j 1
[ ]
P[Bk A] =
P[A Bk ] P[Bk ]
n
j 1
] [ ]
P A Bj P Bj
P[C1 V ] =
12
P[V C1 ].P[C1 ]
P[V C1 ].P[C1 ] + P[V C2 ].P[C2 ]
.=
P[V C1 ].P[C1 ]
P[V ]
0,60.0,5
= 0,6428
0,4666
Documentos, 46
f ( y ) =
f ( y ) f ( )
f ( y ) f ( ) d
(1), onde:
q vetor de parmetros
y vetor de dados ou de informaes obtidas por amostragem
f(qy) distribuio condicional de q dado y, ou distribuio a posteriori (que
a base da estimao e predio Bayesiana).
f(yq) funo densidade de probabilidade da distribuio condicional de uma
observao (y) dado q (denominada funo de verossimilhana ou
modelo para os dados).
f(q)
funo densidade de probabilidade da distribuio a priori, que
tambm a densidade marginal de q. Esta funo denota o grau de
conhecimento acumulado sobre q, antes da observao de y.
f(yq) f(q) funo densidade conjunta de y e q.
f ( y ) = R f ( y, ) d = R f ( y ) f ( ) d = E f ( y )
distribuio
Como f(y) no funo de q (ou seja, f(y) constante para qualquer q),
a forma usual da formulao de Bayes : f(qy) a f(yq) f(q), onde a indica
proporcionalidade.
A expresso (1) advm das expresses f(q,y) = f(yq) f(q) e
f(q,y)=f(qy) f(y), as quais so obtidas a partir do teorema da probabilidade
condicional.
Verifica-se pela expresso (1) que um fator lgico que diferencia o enfoque
Bayesiano da abordagem freqentista refere-se ao tipo de informao utilizada.
Na concepo Bayesiana, toda informao de que se dispe til e deve ser
utilizada. Por outro lado, a estatstica clssica utiliza apenas observaes de
dados reais, desprezando-se as informaes subjetivas (Gamerman & Migon,
1993).
A componente amostral ou experimental comum aos modelos clssicos
e Bayesianos, mas com interpretaes diferentes. Embora os modelos
Bayesianos passem por uma extenso dos modelos clssicos, existe uma
Documentos, 46
13
P[C1 V1 V2 ] =
P[V1 V2 C1 ].P[C1 ]
P[V2 C1 ].P[C1 V1 ]
.=
P[V1 V2 ]
P[V2 C1 ].P[C1 V1 ] + P[V2 C2 ].P[C2 V1 ]
P[C1 V1 V2 ] =
0,60 0,6428
. = 0,7641
0,60.0,6428 + 0,3333.0,3572
Documentos, 46
1 =
r 2 + 2 y
;
r 2 + 2
r12 = r 2 + 2
( )
i f ( y ) f ( ) d
R
f ( y ) f ( ) d
de qi.
O teorema de Bayes pode ser estendido para inferncias sobre dados
no observados (dados futuros, por exemplo) (Lindley, 1965; Gammerman &
Migon, 1993). Sendo ~
y um vetor de dados no observados, tem-se
Documentos, 46
15
f (~
y , y ) = f ( ~y , y ) f ( y ) ,
(2)
y y ) = R f ( ~
y , y ) d
por f ( ~
(3)
= R f ( ~
y , y ) f ( y ) d
= R f ( ~
y ) f ( y ) d
= E y [ f ( ~
y )]
As expresses (2) e (3) representam a base para os problemas de predio
Bayesiana. Do exposto, torna-se claro que a estimao trata da compreenso
de um fenmeno (realidade) atravs de afirmaes probabilsticas a respeito
de quantidades no observveis e a predio trata de se fazer afirmaes
probabilsticas acerca de quantidades a serem observadas no futuro.
f ( y | ) d y = 1 mas
l( ; y ) d = K 1 , ou seja a integral
16
Documentos, 46
2
A funo de probabilidade eqivale a p(yq) = y
qy (1 - q)2-y, a qual
2
se y = 0, ento l (q; y = 0) = 0 q0 (1 - q)2 = (1 - q)2;
(ii)
2
se y = 1, ento l (q; y = 1) = 1 q1 (1 - q)1 = 2q (1 - q);
(iii)
2
se y = 2, ento l (q; y = 2) = 2 q2 (1 - q)0 = q2.
Documentos, 46
17
l (; y)
l (; y=0)
1
l (; y=2)
l (; y=1)
0,5
0,5
l (q; 0);
l (q; y~ )=f( y~ q) = f (y1, y2, ... ynq), funo essa que associa a cada q, um
valor de f(yq).
A funo conjunta l (q; y~ )=f( y~ q) = f (y1, y2, ... ynq) fatora nas
marginais de forma que eqivale ao produtrio l (q; y~ )=f (y1q) ... f (ynq) =
n
2
f ( yi ). Como exemplo, considere a distribuio normal N( , ). Neste
i =1
18
Documentos, 46
i =1
i =1
f N ( yi ; , 2 ) =
1 ( yi ) 2
1
n
2
exp
exp 2 ( y ) ,
2 1/ 2
2
[2 ]
2
2
Documentos, 46
19
1
; 0 < 2 < .
2
(ii)
f ( ) d .
d
d
.
d
d
20
Documentos, 46
(ii)
(iii)
s
(q
|y)~N(m1, r12 ). Assim, tem-se a priori e a posteriori com distribuio normal,
ou seja, priori normal conjugada a posteriori normal. Este tipo de priori, segundo
Gamerman & Migon (1993) torna a anlise mais tratvel, permitindo explorar
a natureza seqencial do mtodo Bayesiano.
Documentos, 46
21
(ii)
(ii)
(iii)
(iv)
(v)
Documentos, 46
y (1 ) n y n n
pode
y n (n y) n y
Documentos, 46
23
a2
y2 a2
0
1
Y 1
= h 2 ( y ),
= 2 + 2
+
/
a y a2 a2 y2 a2
1
=
+
a2 y2 a2
24
Documentos, 46
yi = + Si + ei. ; i = 1,..., S ,
onde
E ( wi Si ) = S i e Var ( wi Si ) = e2 / ni .
Uma vez que os genitores no so aparentados, a densidade a priori
dada por:
S
f ( ) =
i =1
1
2 S2
(S g )2
exp i 2
2 S
f ( wi ,..., wS ) =
S
i =1
n (w s )2
ni
exp i i 2 i .
2
2 e
2 e
Documentos, 46
25
f ( Si w1 ,..., wS ) = f ( Si wi ); i = 1,..., S
A densidade a posteriori da capacidade de transmisso do i-simo genitor
ento:
2
2
1 S + e2 / ni
wi S2 + g e2 / ni
(
)
exp
.
f Si wi
X Si
2 S2 e2 / ni
S2 + e2 / ni
E ( Si wi ) =
wi S2 + g e2 / ni g ( S2 ) 1 + wi ( e2 / ni ) 1
=
.
( S2 ) 1 + ( e2 / ni ) 1
S2 + e2 / ni
E ( Si wi ) = ag + (1 a) wi
= g + (1 a )(wi g ) = g + (1 a )( yi g ),
que a mdia condicional de uma distribuio normal bivariada.
Sendo (1 a ) = ni /(ni +
E ( Si wi ) =
e2
) , e sendo g = 0, neste caso tem-se:
S2
ni
ni
( yi . ) =
(Yi. ),
2
ni + (4 h 2 ) / h 2
ni + e2
S
Documentos, 46
E(e) = 0;
Var(a) = G;
var(e) = R;
W = [X Z];
t= [b a];
E(y) = Xb;
cov (a, e) = 0;
var(y) = ZGZ+ R.
A primeira derivao (Dempfle, 1977) usa o teorema de Bayes e assumese que adicionalmente t ~ N (r, M); e ~ N (0, R); y ~ N(Xb, WMW+ R),
onde:
r
S 0
E (t ) = E = r = 1 e var(t ) = M =
a
0
0 G
Dado t, y ~ N(Wt, R), e dado r, t ~ N(r, M). A verossimilhana de y
dado t
L (t; y) = k1 exp[-(y Wt)R-1 (y Wt)/2] = f (y|t), e a densidade da
distribuio a priori de t
f(t) = k2 exp [-(t - r) M-1 (t r)/2].
Assim, a distribuio a posteriori de t proporcional a
f(t|y) a L(t; y) f(t) a k3 exp{-[(y Wt)R-1 (y Wt) + (t r)M-1 (t-r)]/2}.
Esta equao pode ser expressa tambm em termos da densidade
conjunta a posteriori dada por:
f(a, b) a exp { - (y Xb - Za) R-1 (y Xb - Za)}
x exp { - (b r1) S-1 (b r1)}
x exp { - (a E(a)) G-1 (a E(a))}.
Uma vez que esta distribuio simtrica e unimodal (normal), a moda,
a mediana e a mdia so idnticas e uma grande classe de funes de perda
comum (funo de perda quadrtica, funo de perda absoluta ou funo de
perda uniforme) conduz ao mesmo estimador. Determinando a moda, obtmse o vetor mdio da distribuio conjunta a posteriori, por maximizao e no
integrao. Diferenciando a expresso com respeito a t (b e a) e igualando a
zero, obtm-se:
[W ' R
W + M 1 t = W ' R 1 y + M 1r , onde t = E [t y ] .
Documentos, 46
27
X ' R 1 X + S 1
1
Z'R X
E ( y ) X ' R 1 y + S 1 r1
=
Z ' R 1Z + G 1 E (a y ) Z ' R 1 y + G 1 0
X ' R 1Z
(5)
X ' R 1 X
1
Z'R X
1
1
Z'R Z + G
X ' R 1Z
X ' R 1 y
=
1
a Z ' R y
t1 = (W ' R 1W ) 1 W ' R 1 y e
(ii) o estimador a priori de t
t2 = E (t ) = r.
Estes estimadores apresentam as matrizes de varincia-covarincia
Documentos, 46
E ( | y ) = ( X 'V 1 X ) 1 X 'V 1 y = e
E (a y ) = GZ 'V 1 [ y X ] = a
um estimador GLS e tambm ML de b e a um estimador ML de
E(ab, y), eqivalendo mdia da distribuio condicional na qual b fixado.
Documentos, 46
29
0 G
1
e ~ N 0 , 0
2 ZG
y
GZ '
R R
, onde V = ZGZ+R e G e R so conhecidas.
R V
Documentos, 46
f (1 | y ) = R2 R3 f (1 2 , 3 , y ) f ( 2 , 3 y ) d 2 d 3
Tomando a distribuio conjunta a posteriori de forma que a maioria da
densidade esteja na moda ( , ) , tem-se:
2
f (1 | y ) =& f (1 2 = 2 , 3 = 3 , y ) .
Usando prioris no informativas para q2 e q3, tem-se que 2 e 3 so
precisamente estimadores ML de q2 e q3, pois neste caso f(q2, q3|y) a
f(y|q2, q3), ou seja a densidade de q2 e q3 dado y proporcional funo de
verossimilhana, de forma que a moda da posteriori conjunta corresponde ao
mximo da funo de verossimilhana, produzindo estimadores ML.
Uma abordagem alternativa para inferncia sobre q1 consiste em obter
f (1 , 2 | y ) =& f (1 , 2 | 3 = 3 , y ), onde 3
refere-se
moda
da
Documentos, 46
31
Documentos, 46
K = 1
(t 3) 2
(Yi.. Y... ) 2
2
, onde t refere-se ao nmero de tratamentos e
Documentos, 46
33
E(e) = 0;
Var(a) = G;
Var(e) = R;
COV(a, e)=0
Var(y) = ZGZ+ R = V
34
Documentos, 46
um preditor no viciado
(ii)
(iii)
(iv)
(ii)
a estimador ML de E(a|y)
(iii)
(iv)
(v)
Documentos, 46
35
Torna-se claro ento, que BLUP sob um modelo de seleo requer, pelo
menos, o conhecimento das varincias antes da seleo. Estimativas de
componentes de varincia pelos mtodos ML e REML so livres de algumas
formas de vcio devidos seleo (Thompson, 1979; 1982; Gianola et al.,
1989).
Assumir distribuio normal multivariada de y, a e e, implica assumir
que os caracteres sejam determinados por um infinito nmero de locos no
ligados de pequenos efeitos aditivos (modelo infinitesimal) (Mrode, 1996). Com
o modelo infinitesimal, alteraes na varincia gentica devidas seleo, tais
como desequilbrio gamtico (covarincia negativa entre freqncias allicas
em diferentes locos) ou mudanas devidas a endogamia e deriva gentica so
consideradas nas equaes de modelo misto atravs da incluso da matriz de
parentesco completa (Sorensen & Kennedy, 1983). Alteraes na varincia
devidas a cruzamentos preferenciais, tambm so consideradas da mesma
forma. Considerando o modelo infinitesimal, os componentes de varincia
podem ser estimados de forma no viciada por REML, desde que os dados
utilizados incluam informaes sobre as quais a seleo foi baseada.
Dentre as propriedades desejveis do BLUP, duas esto associadas
propriedade Best: minimizao do quadrado mdio do erro de predio e
maximizao da correlao entre os valores genticos verdadeiros e os preditos.
A terceira refere-se propriedade de no vcio [ E ( a | a ) = a ] . Estas trs
propriedades so interessantes do ponto de vista estatstico, entretanto, somente
a propriedade de maximizao da correlao entre a e a apresenta uma conexo
direta com o problema do melhoramento por seleo. Uma vez que o objetivo
das funes dos dados ordenar os candidatos seleo e praticar a seleo
de forma a se maximizar o ganho gentico com seleo, as propriedades de
mnima varincia e normalidade assinttica talvez sejam irrelevantes (Gianola
& Fernando, 1986; Gianola, 1995). Esta assertiva pode ser confirmada
considerando que com dados desbalanceados, independentemente da
distribuio, o ordenamento dos candidatos com base em E(a|y) e a seleo
daqueles com os maiores valores, maximiza a mdia dos indivduos selecionados,
conforme demonstrado por Bulmer (1980); Goffinet (1983) e Fernando & Gianola
(1986).
A seguir sero relatados alguns pontos desfavorveis da abordagem
clssica e vantagens da inferncia Bayesiana para estimao. As propriedades
desejveis dos estimadores pontuais e intervalares na estatstica clssica so
baseadas em hipotticas repeties do experimento em um nmero infinito de
vezes e no considera apenas os dados disponveis. Isto significa que, na teoria
de amostragem, q uma quantidade conhecida fixa e o intervalo de confiana
aleatrio. Assim, sob hipottica repetio de y, espera-se que o intervalo
contenha q em uma certa proporo das amostras (repeties). Entretanto,
36
Documentos, 46
S i E ( S i | wi )
~ N (0,1) e computar para quaisquer
Var ( S i | wi )
f ( | y ) = R f (1 , 2 y ) d 2
2
= R f (1 2 , y ) f ( 2 , y ) d 2
2
Documentos, 46
37
f (1 | y ) = R f (1 2 , y) f ( 2 y) d 2 da seguinte forma:
2
f(qi|yi) = f(qii|h2 = 0, yi) x 0,10
+ f(qii|h2 = 0,10, yi) x 0,40
+ f(qii|h2 = 0,20, yi) x 0,50
= 0,10 E(qii|h2 = 0, yi)
f ( 1 | h 2 = K , yi ) normal
com mdia
= 0,14 yi
E (1 | h 2 = K , yi ) = Kyi ).
Documentos, 46
f ( y0 , yi , 1 , 2 , 3 )
P[ y0 Ri ]
f ( y0 , yi )
P[ y0 Ri ]
f ( y0 , yi , 1 , 2 , 3 ) / P[ y0 Ri ]
f ( y0 , yi ) / P[ y0 Ri ]
Documentos, 46
39
Documentos, 46
Documentos, 46
41
E [ g ( ) y ] = R g ( ) p( y ) d , onde:
g ( ) = , para obteno da mdia a posteriori e
Documentos, 46
normal multivariada:
2
e
Documentos, 46
43
S 2
p ( i2 i , S i2 ) ( i2 ) ((i / 2 ) +1) exp i 2i
2 i
(i = e, a ) , onde u so os graus
i = 2 e S i2 = 0
p ( , a, a2 , e2 y ) p ( , a, a2 , e2 ) p ( y , a, a2 , e2 )
= p ( ) p ( a a2 ) p ( a2 ) p ( e2 ) p ( y , a, a2 , e2 ) , onde
omitiu-se o condicionamento nos hiperparmetros (parmetros que auxiliam na
especificao da priori) e na conhecida matriz de parentesco A.
Considerando a distribuio a priori dos componentes de varincia como
uma qui-quadrado escalonada invertida, tem-se que a distribuio conjunta a
posteriori pode ser reescrita:
p ( , a, a2 , e2 y ) e2
a2
44
n + e
+1
2
q + a
+1
2
( y X Za )' ( y X Za )+ e S e2
exp
2 e2
(a ' A1a + a S a2
exp
2 a2
Documentos, 46
S, onde
= 0
2
2 . A distribuio condicional a
a e / a
1
posteriori de q :
X' X
Ci , i i i
X' X
=
Ci , i i i
Z ' X i
X 'i X i
X ' i X i
Z ' X i
X 'i Z
X 'i Z
,
Z ' Z + A1
Ci ,i i = (W 'i y Ci , i i ).
Tem-se tambm:
i i , a, a2 , e2 , y ~ N ( i , ( X ' X i ) 1 e2 ),
em que : i = ( X ' X i ) 1 X 'i ( y X i i Za )
Documentos, 46
(3)
45
A1
A = ii1
Ai ,i
1
Ai, 1i
;
Ai1, i
X'X
C = z 'i X
Z 'i X
X ' zi
z 'i zi + Ai,i1
Z 'i zi + Ai1,i
X ' Z i
1
z 'i Z i + Ai , i
Z 'i Z i + Ai1, i
ai , ai , a2 , e2 , y ~ N ( ai , ( z 'i zi + Ai,i1 ) 1 e2 )
(4)
p ( a2 , a, e2 , y ) ( a2 )
= ( a2 )
a +1
2
q + a
+1
2
a ' A 1a + a S a2
exp
2 a2
~ S~ 2
exp a 2 a , em que
2 a
~
S a2 = (a' A1a + a S a2 ) / ~a e ~a = q + a
A expresso de p ( a2 , a, e2 , y) proporcional distribuio quiquadrado (c2) escalonada invertida, com ~a graus de liberdade e parmetro de
escala a ' A1a + a S a2 .
46
Documentos, 46
Assim:
~
a2 , a, e2 , y ~ ~a S a2 ~2a
(5)
e para amostrar desta distribuio deve-se inicialmente trabalhar com um quiquadrado com ~ = q + graus de liberdade, inverter este nmero e
a
p ( e2 , a, a2 , y ) ( e2 )
= ( )
2
e
n + e
+1
2
e +1
2
( y X Za )' ( y X Za ) + e S e2
exp
2 e2
~ S~ 2
exp e 2e , onde
2 e
~
~e = n + e e Se2 = (( y X Za)' ( y X Za) + e Se2 ) / ~e .
A expresso de p ( e2 , a, a2 , y) proporcional distribuio quiquadrado escalonada invertida, com ~e = n + e graus de liberdade e parmetro
de escala ( y X Za)' ( y X Za) + e Se2 .
Assim, tem-se:
~
e2 , a, a2 , y ~ ~e S e2 ~e2
(6)
Documentos, 46
47
Considere o exemplo:
Indivduo
1
2
3
4
5
6
7
Bloco
1
2
1
2
1
2
1
Pai
1
1
3
1
5
Me
2
4
4
6
Yi
Y3
Y4
Y5
Y6
-
1
2
a1
a2
C = a3
a4
a5
a6
a7
a1
a2
a3
a4
2,00
0,00
0,00
0,00
1,00
0,00
1,00
0,00
0,00
0,00
2,00
0,00
0,00
0,00
0,00
1,00
0,00
0,00
2,33
a5
a6
a7
0,00
1,00
1,00
0,00
0,00
1,00
0,00
0,00
0,00
0,00
0,00
0,00
1,23
1,23
2,46
0,50
0,66
0,50
0,00
1,00
0,00 0,50
0,00 0,66
1,50
0,00
0,00
1 + 2,83
1,00
0,50
0,00
1,00
0,00
0,00
1,00
0,50
1,00
0,50
1 + 3,00
1,00
1,00
0,00
1,00
0,00
1,00
0,00
0,00
1,00
0,00
1,00
1,00
0,00
0,00
0,00
0,00
0,00
1 + 2,62
0,62
0,62
1 + 2,62
1,23
1,23
48
Documentos, 46
2(1) por sua vez, retirado de uma distribuio normal com mdia
N ( a 6 , (1 + 2,62 ) 1 e2 ), onde
a6 =
Documentos, 46
49
a2 , a, e2 , y ~ SSa(1) q22
(7)
e2 , a, a2 , y ~ SSe(1) n22
(8)
2.
Gerar valores para os efeitos fixos. Sendo o nico efeito fixo, a mdia
geral, tem-se:
y = y + rnd e /(n)1/ 2
3.
50
Documentos, 46
4.
SSE = ( yi y ai ) 2
e2 =
5.
a2 =
6.
a ' A 1a
X q2
=
7.
SSE
X n2
e2
a2
Documentos, 46
51
Documentos, 46
p ( y , , v) = p ( y , , w) p ( w v) d w
Dessa forma, a distribuio de w define a distribuio de y. As
distribuies normal/independente tm algumas propriedades comuns, tais quais
(Lange & Sinsheimer, 1993): (i) se y ~p (y|m, , v), ou seja se y tem distribuio
normal/independente, ento E[y|m, , v] = m e Var [y|m, , v] = E[w-1|v] ,
desde que existam o primeiro e segundo momentos; (ii) p(y|m, , v) simtrica
e unimodal, de forma que a moda e a mediana so iguais mdia m.
Dentre as distribuies robustas mencionadas, a t de Student tem um
nico parmetro de robustez, que so os graus de liberdade da distribuio.
Quanto menor o nmero de graus de liberdade, mais pesadas so as caudas
das distribuies t. Na distribuio Slash, a robustez tambm definida por
um nico parmetro. Por outro lado, a distribuio normal contaminada
apresenta dois parmetros de robustez, sendo que um fornece a proporo de
contaminantes e o outro define como a varincia das duas (contaminantes e
no contaminantes) populaes difere (Rosa, 1999). Verifica-se que estas
distribuies robustas so modificaes da distribuio normal (Gaussiana),
modificaes estas em funo dos parmetros de robustez. Assim, a
distribuio Gaussiana um caso particular de distribuio normal/independente
Documentos, 46
53
54
Documentos, 46
y , a, c, e2 ~ N ( X + Za + Wc, I e2 )
a A, a2 ~ N (0, A a2 )
c c2 ~ N (0, I c2 )
e e2 ~ N (0, I e2 )
COV (a, c' ) = 0; COV (a, e' ) = 0; COV (c, e' ) = 0 , em que:
A = matriz de parentesco gentico aditivo.
I = matriz identidade de ordem apropriada.
h2 =
a2
;
+ c2 + e2
2
a
c2 =
c2
+ c2 + e2
2
a
Documentos, 46
55
a2
c2
n + e
+1
2
q + a
+1
2
(a ' A1a + a S a2
exp
2 a2
p + c
+1
2
(c ' c + c S c2
exp
2 c2
i i , a, c, a2 , c2 , e2 , y ~ N ( i , ( X ' X i ) 1 e2 ),
em que : i = ( X ' X i ) 1 X 'i ( y X i i Za Wc )
ci , a, ci , a2 , c2 , e2 , y ~ N (ci , (W ' Wi + *) 1 e2 )
~
a2 , a, c, c2 , e2 , y ~ ~a S a2 ~2a
56
Documentos, 46
~
c2 , a, c, a2 , e2 , y ~ ~C S c2 ~2c
e2
~2 2
~
=
*
em
que
e os demais parmetros
, a, c, , , y ~ e Se ~e
2
2
e
2
a
2
c
Documentos, 46
57
(n)
e2( n ) ] ,
h2
c2
10.000
100
0,34
0,032
20.000
100
0,34
0,032
15.000
50
0,38
0,029
20.000
50
0,36
0,030
58
Documentos, 46
GS
REML
Mdia + s*
Moda
Mediana
s**
h2
0,34 + 0,005
0,34
0,34
0,0004
0,33
c2
0,032 + 0,003
0,032
0,032
0,0002
0,026
y2
8,2441 + 0,02
Intervalo de
Confiana (95%)
0,35
0,038
-
Estimativa
0,32 + 0,06
0,031 + 0,01
8,0624
59
Mdia + Desvio
Padro
Ordem
(GS)
+
+
+
+
+
+
+
+
+
+
1
2
3
4
5
6
7
8
9
10
2,70
2,23
2,19
2,07
2,03
1,99
1,97
1,90
1,80
1,79
0,03
0,07
0,06
0,07
0,09
0,07
0,03
0,03
0,05
0,03
BLUP + SEP*
2,61
2,15
2,26
1,96
1,96
1,89
1,97
1,82
1,81
1,69
+
+
+
+
+
+
+
+
+
+
0,80
0,94
0,86
0,99
1,06
0,96
0,78
0,79
0,96
0,65
Acurcia
(BLUP)
Ordem (BLUP)
0,86
0,81
0,84
0,78
0,75
0,80
0,87
0,87
0,80
0,91
GS
1
3
2
5
6
7
4
8
9
10
BLUP
Ganho
gentico (cm)
2,066 + 0,04
(1,99
Ganho
gentico (%)
13,93 + 0,27
(13,40
2,14)**
2,011 + 0,28
(1,46 - 2,56)***
14,46)**
13,56 + 1,88
(9,88 - 17,24)***
Documentos, 46
Documentos, 46
61
62
Documentos, 46
FRIES, L.A.; SCHENKEL, F.S. Estimation and prediction under a selection model.
In: REUNIO ANUAL DA SOCIEDADE BRASILEIRA DE ZOOTECNIA, 30.,
1993, Rio de Janeiro. Anais dos Simpsios. Rio de Janeiro: Sociedade
Brasileira de Zootecnia , 1993. p.1-20.
GAMERMAN, D. Simulao estocstica via cadeias de Markov. Caxamb:
Associao Brasileira de Estatstica, 1996. 196p.
GAMERMAN, D. Markov Chain Monte Carlo: stochastic simulation for bayesian
inference. Boca Raton: CRC Press, 1997.
GAMERMAN, D.; MIGON, H.S. Inferncia Estatstica: uma abordagem
integrada. Rio de Janeiro: Instituto de Matemtica / UFRJ, 1993. 207p.
GARCIA-CORTES, L.A.; SORENSEN, D. On a multivariate implementation of
the Gibbs samples. Genetique, Selection, Evolution, v.28, p.121-126,
1996.
GELFAND, A.E.; SMITH, A.F.M. Sampling-based approaches to calculating
marginal densities. Journal of the American Statistical Association, v.85,
p.398-409, 1990.
GEMAN, S.; GEMAN, D. Stochastic relaxation, gibbs distribution and the
Bayesian rstoration of imagens. IEEE Transactions on Pattern Analysis
and Machine Intelligence, v.6, p.721-741, 1984.
GIANOLA, D. Statistics in animal breeding. Journal of the American Statistical
Association, v.95, p.296-299, 2000.
GIANOLA, D. Inferences about best, worst and ordered genetic values in a
small population with unknown variance. In: CONGRESSO NACIONAL
DE GENETICA, 41., 1995, Caxamb. Anais. Ribeiro Preto: Sociedade
Brasileira de Gentica, 1995. Palestra.
GIANOLA, D.; FERNANDO, R.L. Bayesian methods in animal breeding theory.
Journal of Animal Science, v.63, p.217-244, 1986.
GIANOLA, D.; FERNANDO, R.L.; IM, S.; FOULLEY, J.L. Likelihood estimation
of quantitative genetic parameters when selection occurs: models and
problems. Genome, Ottawa, v.31, p.768-777, 1989.
GIANOLA, D.; FOULLEY, J.L. Variance estimation from integrated likelihood
(VEIL). Genetics Selection Evolution, v.22, p.403-417, 1990.
GIANOLA, D.; IM, S.; MACEDO, F.W. A framework for prediction of breeding
value. In: GIANOLA, D.; HAMMOND, K., ed. Advances in statistical
methods for genetic improvement of livestock. Berlin: Springer Verlag,
1990. p.210-238.
Documentos, 46
63
64
Documentos, 46
LERNER, I.M. The genetic basis of selection. New York: John Wiley & Sons,
1957. 298p.
LINDLEY, D.W. Introduction to probability and statistics. Cambridge: Cambridge
University Press, 1965.
LINDLEY, D.V. The Bayesian approach. Scandinavian Journal of Statistics,
v.5, p.1-26, 1978.
LINDLEY, D.V.; SMITH, A.F.M. Bayes estimates for the linear model. Journal
of the Royal Statistical Society, Series B, v.34, p.1-41, 1972.
LINDSEY, J.K. Some statistical heresies. Journal of the Royal Statistical Society,
Series B, v.61, p. 1- 26 , 1999.
MAGNABOSCO, C.V. Estimativas de parmetros genticos em caractersticas
de crescimento de animais da raa Nelore usando os mtodos REML e
Amostragem de Gibbs. Ribeiro Preto: USP / FMRP. 1997. 83p. Tese
Doutorado.
MOOD, A.M.; GRAYBILL, F.A.; BOES, D.C. Introduction to the theory of
statistics. McGraw-Hill, 1974.
MRODE, R.A. Linear models for the prediction of animal breeding values.
Wallingford: CAB International, 1996, 187p.
MURTEIRA, B.J.F. Estatstica: inferncia e deciso. Lisboa: Imprensa Nacional,
Casa da Moeda, 1988.
MURTEIRA, B.J.F. Probabilidade e estatstica: inferncia estatstica. 2.ed.
Lisboa: McGraw-Hill, 1990. v.2.
PATTERSON, H.D.; THOMPSON, R. Recovery of inter-block information when
block sizes are unequal. Biometrika, London, v.58, p.545-554, 1971.
PEREIRA, B.B. Inferncia verossimilhana. Boletim da Associao Brasileira de
Estatstica, v.38, p.31-42, 1997.
REKAYA, R. Analisis Bayesiano de datos de produccin en los das de control
para la seleccin de caracteres lecheros. Madrid: Universidad Politcnica
de Madrid. 1997. Doctoral Tesis.
RESENDE, M.D.V. de. Avanos da gentica biomtrica florestal. In: BANDEL,
G.; VELLO, N.A.; MIRANDA FILHO, J.B., eds. In: ENCONTRO SOBRE
TEMAS DE GENTICA E MELHORAMENTO: Gentica Biometrica Vegetal,
14, 1997, Piracicaba. Anais... Piracicaba: ESALQ, 1997. p.20-46.
RESENDE, M.D.V. de. Predio de valores genticos, componentes de varincia,
delineamentos de cruzamento e estrutura de populaes no melhoramento
florestal. Curitiba: Universidade Federal do Paran, 1999. 434p. Tese
Doutorado.
Documentos, 46
65
Documentos, 46
67
VLECK, L.D. van; POLLAK, E.J.; OLTENACU, E.A.B. Genetics for the animal
sciences. New York: W.H. Freeman, 1987. 391p.
WANG, C.S.; GIANOLA, D.; SORENSEN, D.A.; JENSEN, J.; CHRISTENSEN,
A.; RUTLEDGE, J.J. Response to selection for litter size in Danish Landrace
pigs: a Bayesian analysis. Theor. Appl. Genet., v.88, p.220, 1994a.
WANG, C.S.; RUTLEDGE, J.J.; GIANOLA, D. Bayesian analysis of mixed linear
models via Gibbs sampling with an application to litter size in Iberian pigs.
Genetics Selection Evolution. v.26, p.91, 1994b.
WANG, C.S.; RUTLEDGE, J.J.; GIANOLA, D. Marginal inferences about
variance components in a mixed linear model using Gibbs sampling.
Genetics Selection Evolution, v.25, p.41, 1993.
WEIGEL, K.A.; GIANOLA, D. A computationally simple bayesian method for
estimation of heterogeneous within-herd phenotypic variances. Journal
of Dairy Science, v.76, p.1455-1465, 1993.
ZELLNER, A. An introduction to Bayesian inference in econometrics. New
York: J. Wiley and Sons, 1971.
68
Documentos, 46