Você está na página 1de 12

ANÁLISE BAYESIANA PARA MODELOS

DE EQUAÇÕES ESTRUTURAIS

Jorge Alberto ACHCAR1

RESUMO: Neste artigo introduzimos uma análise Bayesiana para modelos de equações
estruturais usando métodos Monte Carlo em Cadeias de Markov (MCCM). Em especial, usamos
o algoritmo de Metropolis-Hastings para gerar amostras da distribuição a posteriori conjunta para
os parâmetros do modelo. Ilustramos a metodologia com um conjunto de dados reais.
PALAVRAS-CHAVE: Modelos de equações estruturais; análise Bayesiana; métodos de Monte
Carlo em cadeias de Markov.

1 Introdução
Os modelos de equações estruturais (MEE) incluem análise de trajetórias e análise
fatorial. Também temos classificados em modelos MEE os modelos econométricos de
equações simultâneas (ver, por exemplo, Kenny,1979).
A análise de trajetórias foi desenvolvida como um método para decompor
correlações em diferentes componentes para a interpretação de efeitos (por exemplo,
como a educação dos pais pode influenciar os rendimentos dos filhos depois de 40 anos).
A análise de trajetórias é relacionada com regressão múltipla (ver, por exemplo,
Blalock,1969; Duncan,1975; Maruyama,1998 ou Ullman,1996) usando modelos lineares
padronizados,isto é, onde todas as variáveis tem média zero e variância um. A análise de
trajetórias foi primeiramente desenvolvida pelo geneticista Sewall Wright (1921). As
trajetórias nos modelos representam hipóteses dos pesquisadores.
Os componentes básicos da análise de trajetórias são o diagrama de trajetórias, a
primeira lei e a lei de traços.
Como um caso especial, o conjunto de equações estruturais (1) pode ser sumarizado
graficamente no diagrama da Figura 1.
X3 = p31X1 + p32X2 + p3UU,
(1)
X4 = p41X1 + p42X2 + p43X3 + p4V V,
onde U e V são distúrbios aleatórios (erros).
No diagrama de trajetórias, setas mostram supostas relações causais.Uma seta
unidirecional mostra relações de causas para efeitos. Uma seta curva bidirecional indica
que as variáveis estão correlacionadas; neste caso não há suposição de relação causal. As

1 Departamento de Medicina Social, Faculdade de Medicina de Ribeirão Preto, Universidade de São Paulo -
USP, CEP: 14049-900, Ribeirão Preto, SP. E-mail: achcar@fmrp.usp.br

Rev. Mat. Estat., São Paulo, v.22, n.1, p.113-124, 2004 113
variáveis independentes são chamadas variáveis exógenas e as variáveis dependentes são
chamadas variáveis endógenas. Um coeficiente de trajetórias indica o efeito direto de uma
variável suposta como a causa em outra variável suposta como um efeito.

FIGURA 1 - Um modelo de trajetórias.

Algumas suposições são usualmente consideradas para uma análise de trajetórias:

• Todas as relações são lineares e aditivas. As suposições causais (o que causa o que) são
mostradas no diagrama causal.
• As variáveis são medidas sem erros.
• Os resíduos (termos de erros) não são correlacionados com as variáveis no modelo e
entre si.
• O fluxo causal é unidirecional.
• As variáveis são medidas numa escala contínua.

1.1 Primeira lei


Dado o modelo estrutural padronizado, a correlação entre quaisquer duas variáveis
pode ser determinada pela seguinte regra, chamada primeira lei de análise de trajetórias:
ρYZ = pYX i ρ X i Z (2)
i

onde p YX i é o parâmetro de trajetória ou parâmetro causal da variável Xi em Y, ρ X i Z é a


correlação entre Xi e Z, e o conjunto de variáveis Xi inclui todas as causas da variável Y.
Como um caso especial, a correlação entre X1 e X3 para o modelo na Figura 1 é dada
por ρ31 = p31ρ11 + p32ρ12 + p3Uρ1U. Como ρ11=1 e ρ1U=0, temos ρ31 = p31 + p32ρ12. As
correlações restantes na Figura 1 são dadas por:
ρ32 = p32 + p31ρ12,
ρ41 = p41 + p42ρ12 + p43ρ13,
ρ42 = p42 + p41ρ12 + p43ρ23, (3)
ρ43 = p43 + p41ρ13 + p42ρ23,
ρ34 = p31ρ14 + p32ρ24 + p3UρU4.

114 Rev. Mat. Estat., São Paulo, v.22, n.1, p.113-124, 2004
Observar que existem duas expressões para ρ34 pois cada uma das variáveis X3 ou X4
pode ser considerada como uma variável endógena. Observar que ρUV = 0, mas ρU4≠ 0.

1.2 Lei de traços


A lei de traços é uma regra não matemática simples: a correlação entre Xi e Xj é igual
à soma do produto de todas as trajetórias obtidas de cada um dos possíveis traços entre i e
j. O conjunto de traços inclui todas as rotas possíveis de Xi a Xj dado que: (a) a mesma
variável não entra duas vezes e (b) uma variável não pode entrar a partir de uma seta à
direita e de uma seta à esquerda simultaneamente. Observando a Figura 1, obtemos, ρ31 =
p31 + p32ρ12. Existem dois traços possíveis: primeiro, um caminho direto de X1 para X3, e,
segundo, um traço de X1 a X2 daí para X3. Observar que as correlações entre variáveis
puramente exógenas não são tratadas de forma diferente. Um traço não é permitido de X1
a X4 e daí para X3, pois X4 entra no modelo por duas setas unidirecionais simultâneas da
esquerda para a direita (ver Figura 1). As correlações restantes para a Figura 1 são:

ρ32 = p32 + p31ρ12,

ρ41 = p41 + p42ρ12 + p43p31 + p43p32ρ12 ,

ρ42 = p42 + p31p43ρ12 + p41ρ12 + p43p32,


(4)
ρ43 = p43 + p31p41 + p31p42ρ12 + p32p41ρ12 + p32p42,

ρ3U = p3U,

ρ4V = p4V.

Das equações (4) relativas ao diagrama da Figura 1, encontramos interpretações


simples e úteis para os efeitos diretos e indiretos de uma variável exógena em uma
variável endógena. Como um caso especial, observar que o coeficiente de trajetórias p41
no diagrama de trajetórias da Figura 1 mede o efeito direto da variável X1 em X4 e o efeito
indireto da variável X1 em X4 via as outras variáveis X2 e X3 é dado por
ρ41-p41 = p42ρ12+p43p31+p43p32ρ12.
Similarmente, encontramos as decomposições de efeitos diretos e indiretos para as
outras correlações no diagrama de trajetórias da Figura 1.
Neste artigo, exploramos o uso de métodos Bayesianos para obter inferências para os
coeficientes de trajetórias. Considerando alguns casos especiais de diagramas de
trajetórias encontramos sumários a posteriori de interesse usando métodos Monte Carlo
em Cadeias de Markov (MCCM) baseados no algoritmo de Metropolis-Hastings (ver, por
exemplo, Chib e Greenberg, 1995; ou Roberts e Smith, 1993).
O uso de métodos MCCM tem se tornado rotina para análise Bayesiana de modelos
econométricos (ver por exemplo, Chib e Hamilton, 2000).

Rev. Mat. Estat., São Paulo, v.22, n.1, p.113-124, 2004 115
2 Estimação dos coeficientes de trajetórias
Vamos considerar o diagrama de trajetórias dado na Figura 2.

FIGURA 2 - Um diagrama de trajetórias.

Associado à Figura 2, temos a seguinte equação estrutural:


X3 = p31X1 + p32X2 + cU (5)
onde U é o termo erro.
Da primeira lei, temos,
ρ31 = p31 + ρ12p32
(6)
ρ32 = p32 + ρ12p31

Das equações (6), encontramos os estimadores,


2
p̂ 31 = (r 31 - r 12 r 32 ) / (1 - r12 )
(7)
2
p̂32 = (r 32 - r 12 r 31 ) / (1- r )12

onde rij é a correlação amostral entre as variáveis Xi e Xj.


Observar que todas variáveis têm média zero e variância um (variáveis
padronizadas).
Os estimadores (7) também são os Estimadores de Mínimos Quadrados (EMQ)
usuais de p31 e p32. Para obter um estimador para c2 (variância do erro ε=cU), observar que
como Var(X3) = 1, temos,
1 = Var(X3) = Var (p31X1 + p32X2 + cU),
isto é,
2
1 = p 31 2
Var(X1) + p 32 Var(X2) + 2p31 p32Cov(X1,X2) + c2Var(U).

Assim, temos uma restrição para os parâmetros p31 , p32 e c2 dada por,

116 Rev. Mat. Estat., São Paulo, v.22, n.1, p.113-124, 2004
2
1 = p 31 2
+ p 32 + 2p31p32ρ12 + c2 (8)

De (8), encontramos um estimador para c2 dado por,

ĉ 2 = 1 - p̂ 31
2 2
- p̂ 32 - 2 p̂31 p̂ 32 r12 (9)

Resultados similares são obtidos para outros diagramas de trajetórias.


Assumindo uma distribuição normal N{0,c2} para o erro ε = cU no modelo (5),
podemos encontrar os Estimadores de Máxima Verossimilhança (EMV) para os
parâmetros p31 , p32 e c2.
A função de verossimilhança para p31, p32 e c2 é dada por,
n
L(p31, p32, c2 ) = ∏ exp{-εi2 / 2c2 } / 2 c2 (10)
i =1

onde εi = cUi = X3i - p31X1i - p32X2i.


Os estimadores de máxima verossimilhança para p31 , p32 e c2 são obtidos por
2 2
maximização da função de verossimilhança (10) sujeita à restrição p 31 + p 32 + 2p31p32r12
2
+ c = 1. Esses estimadores podem ser obtidos usando multiplicadores de Lagrange para
maximização com restrição.

2.1 Uma análise Bayesiana


Assumindo independência a priori para os parâmetros p31 e p32, vamos considerar as
seguintes densidades a priori para p31 e p32:
p31 ~ N{µ1,σ12}
(11)
p32 ~ N{µ2,σ22}
onde N{µ,σ2} denota uma distribuição normal com média µ e variância σ2; µ1, µ2, σ12 e
σ22 são constantes conhecidas.
Essas densidades a priori são escolhidas porque elas são flexíveis o suficiente para
expressar opinião a priori nos parâmetros. Quando não temos conhecimento suficiente a
priori sobre os parâmetros, podemos considerar as densidades a priori (11) com médias
iguais a zero e variância grande (por exemplo, variância igual a 106) o que leva a
distribuições a priori não-informativas. Similarmente, poderíamos considerar
distribuições a priori uniformes num intervalo de grande amplitude (por exemplo, no
intervalo (-100,100)).
A intensidade a posteriori conjunta para p31 e p32 (ver por exemplo, Zellner (1971) é
dada por,
(p31,p32/dados) = exp{-(p31-µ1)2/2σ12-(p32-µ2)2/2σ22}ψ(p31,p32) (12)
n
onde ψ(p31,p32) = exp{-(n/2)log(c2) - (x3i - p31x1i - p32x2i)2 / 2c2},
i =1

c2 = 1 - p 31
2 2
- p 32 - 2p31p32r12.

Rev. Mat. Estat., São Paulo, v.22, n.1, p.113-124, 2004 117
Usando o algoritmo de Metropolis-Hastings (ver, por exemplo, Chib e Greenberg,
1995), encontramos a densidade a posteriori conjunta (12) aproximada pelas amostras de
Gibbs obtidas das seguintes densidades condicionais:
(i) (p31/p32,dados) = exp{- (p31-µ1)2/2σ12}ψ(p31,p32)
(13)
(ii) (p32/p31,dados) = exp{- (p32-µ2)2/2σ22}ψ(p31,p32)
onde ψ(p31,p32) é dada em (12).
Uma amostra de valores da densidade a posteriori conjunta (10) pode agora ser
obtida sucessivamente amostrando p31 de (p31/p32,dados), e dado este valor de p31,
simulando p32 de (p32/p31,dados).
Observar que o valor de p31 é simulado como: na s-ésima iteração (dado o valor atual
( s −1)
p 32 ) gerar um candidato p32(s)
de uma densidade normal N{µ1,σ12}; mover a este ponto
com probabilidade,
(s) ( s −1) ( s −1) ( s −1)
mínimo{ψ ( p 31 , p 32 ) / ψ (p 31 , p 32 ) , 1} (14)
(s) ( s −1)
De outra parte, fazer p 31 = p 31 .
Similarmente, o valor de p32 é simulado como: na s-ésima iteração (dado o valor
(s) (S)
atual p 31 ) gerar um candidato p 32 de uma densidade normal N{µ2,σ22}; mover a este
ponto com probabilidade,
(s) (S) (s) ( s −1)
mínimo {ψ( p 31 , p 32 ) / ψ( p 31 , p 32 ) , 1} (15)

(S ) ( s −1)
De outra parte, fazer p 32 = p 32 .
Convergência de algoritmos de simulação via cadeias de Markov são introduzidos
por vários autores (ver, por exemplo, Raftery e Lewis, 1992).
Dessa forma, podemos examinar gráficos de séries temporais de seqüências
simuladas ou usar o método de Gelman e Rubin (1992) baseado na técnica de análise de
variância para determinar se iterações adicionais são necessárias.
Podemos usar as amostras geradas de Gibbs para obter inferências em funções de
interesse dos parâmetros p31 e p32. Um estimador Bayesiano de c2 (ver (12)) com respeito a
função de perda quadrática é dada por,
2 2
E(c2/dados)= ( 1 - p 31 - p 32 - 2p31p32r12) (p31,p32 /dados)dp31dp32 (16)

(S )
(s)
Sejam p 31 e p 32 os valores de p31 e p32 obtidos na s-ésima iteração, onde S é o
número total de iterações do amostrador de Gibbs.
Assim, um estimador de Monte Carlo de (16) é dado por,
S
ĉ 2 = (s)2 (s)2 (s)
(1-p 31 -p 32 -2 p 31 p 32 r12) / S
(S)
(17)
s =1

118 Rev. Mat. Estat., São Paulo, v.22, n.1, p.113-124, 2004
3 Uma análise Bayesiana para empresas de energia elétrica
Na Tabela 1, temos um conjunto de dados introduzidos por Johnson e Wishern
(1992, p.592). Esses dados foram selecionados de 22 empresas de energia elétrica
americanas, para o ano 1975.
Na Tabela 2, temos as correlações entre pares de variáveis para os dados de
empresas de energia elétrica da Tabela 1.
Como uma primeira ilustração, vamos assumir o diagrama de trajetórias da Figura 2,
com a equação estrutural (5), isto é,
X3 = p31X1 + p32X2 + ε (18)
onde X3 é o custo por KW local, X1 é a taxa de lucro (ganho/débito) e X2 é a taxa de
retorno de capital. Das correlações dadas na Tabela 2, temos r12=0,643, r13= -0,103 e
r23=-0,348. Os EMQ (ver (7)) são dados por p̂31 = 0,205 e p̂32 = -0,480.
De (9), obtemos um estimator para c2 dado por ĉ 2 = 0,85412.
Usando as equações (6) e o diagrama de trajetórias da Figura 2, encontramos
interpretações simples para as correlações r31 e r32 em termos de efeitos diretos e indiretos.
Assim, p31=0,205 estima o efeito direto de X1 (taxa de lucro) em X3 (custo por KW local)
e r12p32 = (0,643)(-0,48) = -0,30864 estima o efeito da variável X1 em X3, através da
variável X2 (taxa de retorno).
Assumindo as densidades a priori (11) para p31 e p32 com µ1 = 0,σ1 = 1.000, µ2 = 0 e
σ2 = 1.000 (distribuições a priori não informativas), geramos S = 11.000 amostras de
Gibbs das densidades condicionais (13) usando o algoritmo de Metropolis-Hastings, onde
as 1.000 amostras iniciais foram descartadas para eliminarmos o efeito dos valores iniciais
considerados (“burn-in samples”) e daí foram escolhidas amostras de 10 em 10 o que
totaliza uma amostra final de tamanho 1.000. Na geração das amostras de Gibbs usamos o
software WinBUGS (Spiegelhalter et al., 1999). Na Tabela 3, temos os sumários a
posteriori para os parâmetros p31 e p32.
De (17), obtemos um estimador de Monte Carlo para c2 baseado nas S = 1.000
amostras geradas de Gibbs dado por ĉ 2 = 0,90011.
A convergência do algoritmo foi verificada graficamente (gráficos - séries temporais
das amostras simuladas) e usando alguns índices usuais para verificar a convergência.
Observar que se não considerarmos as restrições (8), isto é, c2 = 1 - p31 2 2
- p32 -
2
2p31p32r12 , obteríamos estimadores diferentes para p31, p32 e c . Assumindo as mesmas
densidades a priori para p31 e p32 (11) e uma densidade gama inversa IG(a1,a2) com a1 e a2
conhecidos para c2 (se v IG(a,b), temos π(v) v-(a+1)e-b/v, v>0), as densidades a posteriori
condicionais para p31, p32 e c2 necessárias para o amostrador de Gibbs são dadas por:

(i) Π(p31/ p32, c2 , dados) N{µ1,σ12}ψ1(p31,p32,c2),


n
onde ψ1(p31, p32, c2) = exp{- (x3i-p31x1i-p32x2i)2 / 2c2},
i =1
(19)
(ii) Π(p32/ p31, c2, dados) N{µ2,σ22} ψ1(p31,p32,c2),
n
(iii) Π(c2/ p31, p32, dados) IG{n/2 + a1 ; a2+ (x3i-p31x1i-p32x2i)2 / 2}
i =1

Rev. Mat. Estat., São Paulo, v.22, n.1, p.113-124, 2004 119
Tabela 1 - Dados de empresas de energia elétricas

Empresa X1 X2 X3 X4 X5 X6 X7 X8
Arizona (S) 1,06 9,2 151 54,4 1,6 9077 0,0 0,628
Boston (E) 0,89 10,3 202 57,9 2,2 5088 25,3 1,555
Louziana 1,43 15,4 113 53,0 3,4 9212 0,0 1,058
Edison 1,02 11,2 168 56,0 0,3 6423 34,3 0,700
Edison NY 1,49 8,8 192 51,2 1,0 3300 15,6 2,044
Florida 1,32 13,5 111 60,0 -2,2 11127 22,5 1,241
Hawai 1,22 12,2 175 67,6 2,2 7642 0,0 1,652
Idaho 1,10 9,2 245 57,0 3,3 13082 0,0 0,309
Kentucky 1,34 13,0 168 60,4 7,2 8406 0,0 0,862
Madison 1,12 12,4 197 53,0 2,7 6455 39,2 0,623
Nevada 0,75 7,5 173 51,5 6,5 17441 0,0 0,768
N. England 1,13 10,9 178 62,0 3,7 6154 0,0 1,897
Northern 1,15 12,7 199 53,7 6,4 7179 50,2 0,527
Oklahoma 1,09 12,0 96 49,8 1,4 9673 0,0 0,588
Pacific 0,96 7,6 164 62,2 -0,1 6468 0,9 1,400
Puget 1,16 9,9 252 56,0 9,2 15991 0,0 0,620
S. Diego 0,76 6,4 136 61,9 9,0 5714 8,3 1,920
Southern 1,05 12,6 150 56,7 2,7 10140 0,0 1,108
Texas 1,16 11,7 104 54,0 -2,1 13507 0,0 0,636
Wisconsin 1,20 11,8 148 59,9 3,5 7287 41,1 0,702
United 1,04 8,6 204 61,0 3,5 6650 0,0 2,116
Virginia 1,07 9,3 174 54,3 5,9 10093 26,6 1,306
X1: taxa de lucro (ganho/débito); X2: taxa de retorno de capital; X3: custo por KW local; X4: fator de carga anual;
X5: pico de demanda em crescimento de KWH de 1974 a 1975; X6: vendas (uso de KWH por ano); X7:
porcentagem nuclear; X8: custo total de combustível (centavos por KWH).

Observar que c2 pode ser gerado usando o amostrador de Gibbs (ver, por exemplo,
Gelfand e Smith,1990), mas p31 e p32 poderiam ser geradas pelo algoritmo de Metropolis-
Hastings.
Com µ1=0, σ1=1.000, µ2=0, σ2=1.000, a1=1 e a2=1, geramos S=11.000 amostras de
Gibbs das densidades condicionais (19) usando o algoritmo de Metropolis-Hastings, onde
as 1.000 amostras iniciais foram descartadas para eliminarmos o efeito dos valores iniciais
considerados (“burn-in samples”) e daí foram escolhidas amostras de 10 em 10 o que
totaliza uma amostra final de tamanho 1.000. Na Tabela 4, temos os sumários a posteriori
para os parâmetros p31, p32 e c2.
Neste caso, o estimador obtido para c2 não satisfaz à restrição (8).
Agora, vamos considerar o diagrama de trajetórias da Figura 3 para os dados de
empresas de energia elétrica da Tabela 1. Este diagrama é construído pelo pesquisador a
partir de uma formulação teórica mostrando relações causas-efeitos para as variáveis do
sistema.
Associado ao diagrama de trajetórias da Figura 3, temos as seguintes equações
estruturais:

120 Rev. Mat. Estat., São Paulo, v.22, n.1, p.113-124, 2004
(i) X1=p12X2+p13X3+p15X5+p16X6+c1U1
(ii) X2=p23X3+p24X4+p25X5+c2U2
(iii) X3=p34X4+p35X5+p37X7+c3U3
(iv) X4=p46X6+p48X8+p47X7+c4U4
(v) X5=p54X4+p56X6+p57X7+c5U5
(vi) X6=p67X7+p68X8+c6U6
(vii) X7=p78X8+c7U7

Tabela 2 - Correlações entre pares de variáveis (dados de energia elétrica)

X1 X2 X3 X4 X5 X6 X7 X8
1,0000 0,643 -0,103 -0,082 -0,259 -0,152 0,045 -0,013
0,643 1,0000 -0,348 -0,086 -0,260 -0,010 0,211 -0,328
-0,103 -0,348 1,0000 0,100 0,435 0,028 0,115 0,005
-0,082 -0,086 0,100 1,0000 0,034 -0,288 -0,164 0,486
-0,259 -0,260 0,435 0,034 1,0000 0,176 -0,019 -0,007
-0,152 -0,010 0,028 -0,288 0,176 1,0000 -0,374 -0,561
0,045 0,211 0,115 -0,164 -0,019 -0,374 1,0000 -0,185
-0,013 -0,328 0,005 0,486 -0,007 -0,561 -0,185 1,0000

Tabela 3 - Sumários a posteriori (dados de energia elétrica)

Média a posteriori Desvio padrão Interv. credib. 95%


p31 0,1717 0,2274 (-0,2869;0,5954)
p32 -0,3978 0,2181 (-0,7690;0,0626)

Tabela 4 - Sumários a posteriori (dados de energia elétrica)

Média a posteriori Desvio padrão Interv. credib. 95%


p31 0,2097 0,2837 (-0,3436;0,7644)
p32 -0,4814 0,2840 (-1,0310;0,0786)
c2 1,1030 0,3331 (0,5521;1,8310)

Na Tabela 5, temos os EMQ para os parâmetros das equações estruturais (20) (ver
por exemplo, Draper e Smith, 1981).
Para obter estimadores de c 2j , j =1, ..., 7 (variância do erro εj=cjUj), observar que
como todas as variáveis têm variância igual a um e do resultado,
m m 2
Var(Xj)=Var{ pjlXl+cjUj} = p 2jl Var(Xl) + 2 pjlpjkCov(Xl,Xk) + c j ,
l =1 l =1 l <k

onde m é o número de variáveis exógenas na equação estrutural e j = 1, ..., 7, temos,


m
1= p 2jl + 2 pjlpjkrlj+ cj2 (20)
l =1 l <k

Rev. Mat. Estat., São Paulo, v.22, n.1, p.113-124, 2004 121
FIGURA 3 - Um diagrama de trajetórias para os dados de energia elétrica.

De (21), vemos que a variabilidade total de Xj pode ser decomposta na forma:

Assim, para cada equação estrutural (20) , temos:


c12=1-p122-p132-p152-p162-2p12p13r23-2p12p15r25-2p12p16r26-2p13p15r35-
2p13p16r36-2p15p16r56
c2 =1-p232-p242-p252-2p23p24r34-2p23p25r35-2p24p25r45
2

c32=1-p342-p352-p372-2p34p35r45-2p34p37r47-2p35p37r57
(21)
c42=1-p462-p482-p472-2p46p48r68-2p46p47r67-2p48p47r78
c52=1-p542-p562-p572-2p54p56r46-2p54p57r47-2p56p57r67
c62=1-p672-p682-2p67p68r78
c72=1-p782
Assumindo independência a priori entre os parâmetros, consideramos densidades a
priori normais para os coeficientes de trajetórias, isto é,
pjl ~ N{µjl,σjl2} (22)
com µjl e σjl conhecidos; j = 1, ..., 7; l é o l-ésimo coeficiente de trajetória na j-ésima
2

equação estrutural dada por (20).


As densidades condicionais necessárias para o amostrador de Gibbs para cada
parâmetro na equação estrutural (20), são dadas por,
Π(plj/p(lj),dados) ∝ exp{-(plj-µlj)2/2σjl2}ψj(p) (23)

122 Rev. Mat. Estat., São Paulo, v.22, n.1, p.113-124, 2004
onde ψj(p)=exp{-(n/2)log(cj2)- εij2/2cj2}, εij=cjUij , cj2 são dados em (22) para j =1 ,..., 7
i =1
e p(1j) é o vetor de todos os coeficientes de trajetórias não incluindo p1j.
Considerando µjl =0 e σjl=1.000 na densidade a priori (23), geramos S=11.000
amostras de Gibbs das densidades condicionais (24) usando o algoritmo de Metropolis-
Hastings, onde 1.000 amostras iniciais foram descartadas para eliminar os efeitos dos
valores iniciais (“ burn-in samples”) e daí foram escolhidas amostras de 10 em 10 o que
totaliza uma amostra final de tamanho 1.000. Na Tabela 5, temos os sumários a posteriori
para os parâmetros de trajetórias das equações estruturais (20).
Dos intervalos de credibilidade 95% dados na Tabela 5, observamos quais variáveis
tem efeitos diretos significativos nas variáveis endógenas.
Tabela 5 - Sumários a posteriori (dados de energia elétrica)

Modelo Coeficientes Média a Interv. de créd.


EMQ D.P.
estrutural de trajetórias posteriori 95%
p12 0,672 0,5677 0,1403 (0,2412;0,7919)
p13 0,199 0,1651 0,1717 (-0,1841;0,4883)
(i)
p15 -0,149 -0,1243 0,1682 (-0,4422;0,2167)
p16 -0,124 -0,1068 0,1501 (-0,3876;0,1967)
p23 -0,283 -0,2467 0,1919 (-0,5848;0,1603)
(ii) p24 -0,053 9,46.10-6 1,38.10-5 (-1,1.10-5;3,6.10-5)
p25 -0,135 -0,0962 0,1953 (-0,4622;0,2934)
p34 0,109 5,5. 10-6 1,3. 10-5 (-2,1.10-5;3,1. 10-5)
(iii) p35 0,434 0,3628 0,1635 (-0,0036;0,6308)
p37 0,141 0,1148 0,1711 (-0,2334;0,4283)
p46 -0,117 -2,2. 10-6 2,2. 10-5 (-4,5. 10-5;4,1.10-5)
(iv) p47 -0,135 -9,5. 10-6 1,9. 10-5 (-4,6. 10-5;2,7.10-5)
p48 0,395 1,2. 10-6 2,1. 10-5 (-2,9. 10-5;5,2.10-5)
p54 0,119 -3,8. 10-6 1,4. 10-7 (-3,2.10-5;2,4. 10-5)
(v) p56 0,245 0,1468 0,1930 (-0,2423;0,4920)
p57 0,092 0,0327 0,1967 (-0,3492;0,4056)
p67 -0,494 -0,4545 0,1321 (-0,6734;-0,1593)
(vi)
p68 -0,652 -0,5981 0,1189 (-0,7799;-0,3180)
(vii) p78 -0,185 -0,155 0,1878 (-0,4904;0,2336)

Conclusões
O uso de métodos MCCM para uma análise Bayesiana de modelos de equações
estruturais pode ser uma boa alternativa para obter estimadores precisos para os
parâmetros do modelo sujeito a algumas restrições. Também observamos que a obtenção
das amostras simuladas de Gibbs para a distribuição a posteriori conjunta dos parâmetros
do modelo não exige um grande conhecimento computacional e as amostras de Gibbs são
facilmente obtidas usando softwares estatísticos disponíveis no mercado. Intervalos de
credibilidade Bayesianos com grande precisão são facilmente obtidos das amostras
geradas de Gibbs para a distribuição a posteriori conjunta dos parâmetros. Outras
distribuições a priori também poderiam ser consideradas para os coeficientes de
trajetórias.

Rev. Mat. Estat., São Paulo, v.22, n.1, p.113-124, 2004 123
ACHCAR, J.A . Bayesian analysis for structural equation models. Rev. Mat. Estat., São
Paulo, v.22, n.1, p.113-124, 2004.
ABSTRACT: In this paper, we introduce a Bayesian analysis for structural equation models,
using MCMC (Markov Chain Monte Carlo).In special, we use the Metropolis-Hastings algorithm
to obtain samples for the joint posterior distribution for the model’s parameters. We illustrate the
proposed methodology with a real data set.
KEYWORDS: Structural equations; Bayesian analysis; Markov Chain Monte Carlo methods.

Referências
BLALOCK, H.M. Theory construction: from verbal to mathematical formulations. New
Jersey: Prentice-Hall, 1969. 232 p.
CHIB, S; GREENBERG, E. Understanding the metropolis-hastings algorithm. Am. Stat.,
Washington, v.49, n.4, p.327-35, 1995.
CHIB, S.; HAMILTON, B.H. Bayesian analysis of cross-section and clustered data
treatment models, J. Econom., Lausanne, v.97, p.25-50, 2000.
DRAPER, N.R.; SMITH, H. Applied regression analysis. NewYork: Wiley, 1981. 709 p.
DUNCAN, O.D. Introduction to structural equation models. NewYork: Academic Press,
1975. 320p.
GELFAND, A.E.; SMITH, A.F.M. Sampling-based approaches to calculating marginal
densities. J. Am. Stat. Assoc., Alexandria, v.85, p.398-409, 1990.
GELMAN, A.; RUBIN, D. Inference from iterative simulation using multiple sequences.
Stat. Sci., Hay Ward, v.7, p.457-72, 1992.
JOHNSON, R.; WICHERN, D. Applied multivariate statistical analysis. New Jersey:
Prentice Hall, 1982. 642p.
KENNY, D.A. Correlation and causality. New York: Wiley, 1979. 277p.
MARUYAMA, G.M. Basics of structural equation modeling. Thousand Oaks: SAGE,
1998. 328p.
RAFTERY, A.E.; LEWIS, S.M. How many iterations in the Gibbs sampler? In:
BERNARDO, J.M. et al. (Ed.) Bayesian statistics. 4.ed. Oxford: Oxford University Press,
1992. p.765-76.
ROBERTS, G.O.; SMITH, A.F.M. Bayesian methods via the Gibbs sampler and related
Markov Chain Monte Carlo methods. J. R. Stat. Soc., B, Cambridge, v.55, n.1, p.3-23,
1993.
SPIEGELHALTER, D.A.; THOMAS, A.; BEST, N.G. WinBUGS: Bayesian inference
using Gibbs sampling. Cambridge: MRC Biostatistics Unit., 1999. 220p.
ULLMAN, J.B. Structural equation modeling. In: TABACHNICK; B.G.; FIDELLIS, L.S.
(Ed.) Using multivariate statistics. 3.ed. New York: Harper Collins College, 1996. 746p.
WRIGHT, S. Correlation and causation. J. Agric. Res., Lahore, v.20, p.557-85, 1921.
ZELLNER, A. An introduction to Bayesian inference in econometrics. New York: Wiley,
1971. 523p.
Recebido em 14.01.2003.
Aprovado após revisão em 28.12.2003.

124 Rev. Mat. Estat., São Paulo, v.22, n.1, p.113-124, 2004

Você também pode gostar