Escolar Documentos
Profissional Documentos
Cultura Documentos
Para
Regina e Henrique
Nosso envolvimento com a TRI comecou em 1996, com a analise dos dados
gerados pela pesquisa AVEJU, da Secretaria de Estado da Educac ao de Sao
Paulo, e continuou no Sistema de Avaliac
ao do Rendimento Escolar do Estado
de Sao Paulo SARESP e no Sistema de Avaliac ao da Educac
ao Basica
SAEB do INEP/MEC. Esses dois sistemas de avaliac ao possuem a sua base
metodologica fundamentada na TRI e sao, atualmente, os grandes exemplos
no Brasil da sua potencialidade.
Nossa maior preocupacao foi a de escrever um texto que pudesse ser utili-
zado nao so pelos estatsticos, mas tambem pelos especialistas em avaliac
ao.
O sucesso da TRI passa necessariamente pelo trabalho conjunto de especia-
listas dessas duas areas. Devido a enorme abrangencia da TRI. Nesse sentido,
procuramos detalhar alguns pontos que achamos importantes.
Este trabalho foi parcialmente financiado pelo CNPq, pela CAPES, pelo
Projeto Tematico da FAPESP no. 96/01741-7 e pelo PRONEX no. 76.97.1081.00.
Fevereiro 2000
Apresenta
cao iii
Pref
acio v
Lista de Figuras 1
1 Introdu
cao 3
3 Estima c
ao: uma u nica popula c
ao 27
3.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2 Estimacao dos parametros dos itens . . . . . . . . . . . . . . . . 31
3.2.1 Aplicacao do algoritmo Newton-Raphson . . . . . . . . . 37
3.2.2 Aplicacao do metodo Scoringde Fisher . . . . . . . . . . 41
3.2.3 Erro-padrao . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.4 Escore nulo ou perfeito . . . . . . . . . . . . . . . . . . . . 43
3.2.5 Estimativas iniciais . . . . . . . . . . . . . . . . . . . . . . 43
3.3 Estimacao das habilidades . . . . . . . . . . . . . . . . . . . . . 44
3.3.1 Aplicacao do algoritmo Newton-Raphson . . . . . . . . . 46
3.3.2 Aplicacao do metodo Scoringde Fisher . . . . . . . . . . 47
3.3.3 Erro-padrao . . . . . . . . . . . . . . . . . . . . . . . . . . 47
viii Conte
udo
4 Equalizac
ao 79
4.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2 Diferentes tipos de equalizacao . . . . . . . . . . . . . . . . . . . 81
4.2.1 Um u nico grupo fazendo uma u nica prova . . . . . . . . . 81
4.2.2 Um u nico grupo fazendo duas provas totalmente distintas 81
4.2.3 Um u nico grupo fazendo duas provas parcialmente distintas 82
4.2.4 Dois grupos fazendo uma u nica prova . . . . . . . . . . . 83
4.2.5 Dois grupos fazendo duas provas totalmente distintas . . . 83
4.2.6 Dois grupos fazendo duas provas parcialmente distintas . 84
4.3 Diferentes problemas de estimac ao . . . . . . . . . . . . . . . . 85
4.3.1 Quando todos os itens sao novos . . . . . . . . . . . . . . 85
4.3.2 Quando todos os itens ja estao calibrados . . . . . . . . . 85
4.3.3 Quando alguns itens sao novos e outros ja estao calibrados 86
4.4 Equalizacao a posteriori . . . . . . . . . . . . . . . . . . . . . . . 87
5 Estima c
ao: duas ou mais popula c
oes 93
5.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2 Notacoes e definic
oes . . . . . . . . . . . . . . . . . . . . . . . . 94
5.3 Estimacao dos parametros dos itens . . . . . . . . . . . . . . . . 96
5.4 Estimacao dos parametros populacionais . . . . . . . . . . . . . 99
5.4.1 Estimac ao conjunta: aplicacao do algoritmo EM . . . . . 102
8 Considera
coes gerais 135
A 139
A.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
A.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
A.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
Refer
encias Bibliogr
aficas 147
Introduc
ao
Modelos Matem
aticos
2.1 Introduc
ao
A TRI e um conjunto de modelos matematicos que procuram representar a
probabilidade de um indivduo dar uma certa resposta a um item como func ao
dos parametros do item e da habilidade (ou habilidades) do respondente. Essa
relacao e sempre expressa de tal forma que quanto maior a habilidade, maior
a probabilidade de acerto no item. Os varios modelos propostos na literatura
dependem fundamentalmente de tres fatores:
(ii) do n
umero de populacoes envolvidas apenas uma ou mais de uma;
ou errado) quanto para a analise de itens abertos (de resposta livre), quando
avaliados de forma dicotomizada.
Na pratica, os modelos logsticos para itens dicotomicos sao os modelos de
resposta ao item mais utilizados, sendo que h a basicamente tres tipos, que se
diferenciam pelo n umero de parametros que utilizam para descrever o item.
Eles sao conhecidos como os modelos logsticos de 1, 2 e 3 par ametros, que
consideram, respectivamente:
Definic
ao
1
P (Uij = 1|j ) = ci + (1 ci ) , (2.1)
1+ eDai (j bi )
com i = 1, 2, , I, e j = 1, 2, , n, onde:
ai e o parametro de discriminac
ao (ou de inclinac
ao) do item i, com valor
proporcional `a inclinac
ao da Curva Caracterstica do Item CCI no
ponto bi .
Interpretac
ao e representaca
o gr
afica
Note que P (Uij = 1|j ) pode ser vista como a proporc ao de respostas cor-
retas ao item i dentre todos os indivduos da populac ao com habilidade j . A
relacao existente entre P (Uij = 1|j ) e os parametros do modelo e mostrada
na Figura 2.1, que e chamada de Curva Caracterstica do Item CCI.
O modelo proposto baseia-se no fato de que indivduos com maior habilidade
possuem maior probabilidade de acertar o item e que esta relac ao nao e linear.
De fato, pode-se perceber a partir do grafico acima que a CCI tem forma
de Scom inclinacao e deslocamento na escala de habilidade definidos pelos
parametros do item.
A escala da habilidade e uma escala arbitr aria onde o importante sao as
relacoes de ordem existentes entre seus pontos e nao necessariamente sua
magnitude. O parametro b e medido na mesma unidade da habilidade e o
parametro c nao depende da escala, pois trata-se de uma probabilidade, e
como tal, assume sempre valores entre 0 e 1.
Na realidade, o par ametro b representa a habilidade necessaria para uma
0.8 a
0.6
0.4
c
0.2 b
0.0
-4.0 -3.0 -2.0 -1.0 0.0 1.0 2.0 3.0 4.0
iiiiiiii
habilidade
Func
ao de Informac
ao do Item
Ii () e a informac
aofornecida pelo item i no nvel de habilidade ;
Qi () h Pi () ci i2
Ii () = D2 a2i .
Pi () 1 ci
Func
ao de Informac
ao do Teste
I
X
I() = Ii ().
i=1
1
EP () = p .
I()
1,00 1,00
0,80 0,80
0,60 0,60
0,40 0,40
0,20 0,20
0,00 0,00
-3,00 -2,00 -1,00 0,00 1,00 2,00 3,00 -3,00 -2,00 -1,00 0,00 1,00 2,00 3,00
habilidade habilidade
1,00 1,00
0,80 0,80
0,60 0,60
0,40 0,40
0,20
0,20
0,00
0,00
-3,00 -2,00 -1,00 0,00 1,00 2,00 3,00
-3,00 -2,00 -1,00 0,00 1,00 2,00 3,00
habilidade habilidade
A Escala de Habilidade
1. = 40 + 200,
2. b = 40 b + 200,
3. a = a/40,
4. P (Ui = 1|) = P (Ui = 1| ).
Por exemplo, os valores dos par ametros a e b do item 1 mostrado anterior-
mente, na escala (0,1) s
ao, respectivamente, 0,80 e -0,20 e seus correspondentes
na escala(200;40) sao, respectivamente, 0,02 = 0,80 / 40 e 192 = 40 (-0,20)
+ 200. Alem disso, um indivduo com habilidade = 1, 00 medida na escala
(0,1) tem sua habilidade representada por = 40 1,00 + 200 = 240 na
escala(200;40) e
1
P (U1 = 1| = 1) = 0, 20 + (1 0, 20)
1 + e1,70,80(1(0,20))
1
= 0, 20 + (1 0, 20) 1,70,02(240192)
1+e
= P (U1 = 1| = 240) = 0, 87,
ou seja, a probabilidade de um indivduo responder corretamente a um certo
item e sempre a mesma, independentemente da escala utilizada para medir a
sua habilidade, ou ainda, a habilidade de um indivduo e invariante `a escala
de medida. Assim, nao faz qualquer sentido querermos analisar itens a partir
dos valores de seus parametros a e b sem conhecer a escala na qual eles foram
determinados.
Suposic
oes do Modelo: Unidimensionalidade e Independencia Local
1
P (Uij = 1|j ) = , (2.2)
1+ eDai (j bi )
com i = 1, 2, , I, e j = 1, 2, , n.
Se alem de nao existir resposta ao acaso ainda tivermos todos os itens com
o mesmo poder de discriminacao, tem-se o chamado modelo logstico unidi-
mensional de 1 par ametro (ML1), tambem conhecido como modelo de Rasch.
Este modelo e dado por:
1
P (Uij = 1|j ) = , (2.3)
1+ eD(j bi )
com i = 1, 2, , I, e j = 1, 2, , n.
+ 1
Pi,k (j ) = , (2.5)
1+ eDai (j bi,k )
com i = 1, 2, , I, j = 1, 2, , n, e k = 0, 1, , mi , onde:
+ +
Pi,k (j ) = Pi,k (j ) Pi,k+1 (j ).
+ +
Samejima tambem define Pi,0 (j ) e Pi,mi +1
(j ) de modo que:
+
Pi,0 (j ) = 1
+
Pi,mi +1
(j ) = 0.
Portanto,
+ + +
Pi,0 (j ) = Pi,0 (j ) Pi,1 (j ) = 1 Pi,1 (j )
+ + +
Pi,m (j ) = Pi,m (j ) Pi,mi +1
(j ) = Pi,m (j ).
1 1
Pi,k (j ) = , (2.7)
1+ eDai (j bi +dk ) 1+ eDai (j bi +dk+1 )
com i = 1, 2, , I, j = 1, 2, , n, e k = 0, 1, , m, onde:
bi e agora o parametro de locac
ao do item i e
dk e o parametro de categoria.
+ +
Como Pi,k (j ) Pi,k+1 (j ) 0, ent
ao, dk dk+1 0. Ou seja, devemos ter:
d1 d2 dm .
Note que a maior distincao entre o modelo de resposta gradual e o modelo
de escala gradual esta na hipotese de nesse u
ltimo os escores das categorias
de resposta devem ser equidistantes. Assim, no modelo de escala gradual o
parametro bi,k e decomposto em um par ametro bi de locac
ao do item e num
parametro de categoria dk , isto e:
bi,k = bi dk .
Cabe ressaltar que os parametros de categoria dk nao dependem do item,
isto e, sao comuns a todos os itens do teste. Logo, se os itens que comp oem
a prova tiverem suas proprias categorias de resposta, que podem diferir no
numero, entao este modelo nao e adequado.
Em um teste composto por itens com (m + 1) categorias de resposta cada
um, m parametros de categoria necessitam ser estimados, alem dos par ametros
de inclinacao e de locacao de cada item. Logo, se o teste tiver I itens, teremos
[2I + m] parametros de item a serem estimados.
Na Figura 2.3 temos a representac ao grafica do modelo de escala gradual e
do modelo de resposta gradual para alguns itens com 4 categorias de resposta.
Em todos os itens, o parametro ai foi mantido igual a 1,0. Dessa maneira,
podemos verificar a importancia dos parametros de categoria bi,k . Os itens 1
e 4, por terem os parametros de categoria igualmente espacados, podem ser
representantes do modelo de escala gradual. J a o modelo de resposta gradual
poderia ser representado por qualquer um dos itens acima.
Observando o item 1, podemos notar que indivduos com habilidade ate -
2,0 tem maior probabilidade de responder apenas a categoria 0. J a indivduos
Item 1:
a1=1,0 b1,1=-2,0, b1,2=0,0, b1,3=2,0 Item 2: a2=1,0, b2,1=-2,0, b2,2=0,5, b2,3=2,0
1,0 1,0
P0 P0 P1
prob. de resposta correta
0,4 0,4
0,2 0,2
0,0 0,0
-6,0 -4,0 -2,0 0,0 2,0 4,0 6,0 -6,0 -4,0 -2,0 0,0 2,0 4,0 6,0
habilidade habilidade
Item 3: a3=1,0, b3,1=-2,0 , b3,2=0,0, b3,3=0,5 Item 4: a4=1,0, b4,1=-2,0, b4,2=-1,0, b4,3=0,0
1,0 1,0
P0
prob. de resposta correta
0,6 0,6
0,4 0,4
P2 P1 P2
0,2 0,2
0,0 0,0
-6,0 -4,0 -2,0 0,0 2,0 4,0 6,0 -6,0 -4,0 -2,0 0,0 2,0 4,0 6,0
habilidade habilidade
com habilidades entre -2,0 e 0,0, tem mais chance de alcancarem a categoria 1.
Para habilidades entre 0,0 e 2,0, a maior probabilidade e que os indivduos
respondam ate a categoria 2. Finalmente, indivduos com habilidade acima de
2,0, devem alcancar a ultima categoria de resposta (que devera representar o
acerto total).
Note que do item 1 para o 2, a distancia entre bi,2 e bi,3 tornou-se menor. A
consequencia disto e que aumenta a faixa de habilidade em que os indivduos
dever ao responder somente ate a categoria 1: de -2,0 a 0,0 no item 1 para
-2,0 a 0,5 no item 2. Em outras palavras, a categoria 2 ficou mais difcil de
ser alcancada, uma vez que no item 1 indivduos com habilidades entre 0,0 e
2,0 tem maior probabilidade de conseguir responder `a essa categoria do que
indivduos com habilidades entre 0,5 e 2,0 no item 2.
No item 3, praticamente nao ha chance dos indivduos responderem ate a
categoria 2: indivduos com habilidade entre -2,0 e 0,0 tem mais chance de
Modelo de Cr
edito Parcial (Partial Credit Model)
O modelo de credito parcial foi desenvolvido por Masters (1982) e e tambem
um modelo para analise de respostas obtidas de duas ou mais categorias orde-
nadas. Nesse sentido, esse modelo e utilizado com os mesmos propositos que
outros ja citados, inclusive o modelo de resposta gradual. O modelo de credito
parcial difere do gradual, entretanto, por pertencer ` a famlia de modelos de
Rasch. Na verdade, o modelo de credito parcial e uma extensao do modelo
de Rasch para itens dicotomicos. Logo, todos os parametros no modelo sao
de locacao, sendo que o poder de discriminac ao e assumido ser comum para
todos os itens.
Supondo que o item i tem (mi + 1) categorias de resposta orden aveis (k =
0, 1, . . . , mi ), temos que o modelo de credito parcial e dado por:
hP i
k
exp u=0 (j b i,u )
Pi,k (j ) = P hP i, (2.8)
mi u
u=0 exp v=0 (j bi,v )
Assim, para itens com (mi + 1) categorias de resposta, sera necessario esti-
mar mi parametros de item. Note que para itens com apenas 2 categorias de
resposta, este modelo fica an
alogo ao modelo de Rasch para itens dicotomicos.
Modelo de Cr
edito Parcial Generalizado (Generalized Partial Credit
Model)
O modelo de credito parcial generalizado MCPG foi formulado por Mu-
raki (1992), que se baseou no modelo de creditos parciais de Masters, relaxando
a hipotese de poder de discriminacao uniforme para todos os itens. O modelo
de credito parcial generalizado e dado por:
hP i
k
exp u=0 Da i (j bi,u )
Pi,k (j ) = P hP i, (2.9)
mi u
u=0 exp v=0 Dai (j bi,v )
com i = 1, 2, , I, j = 1, 2, , n, e k = 0, 1, , mi .
Se o numero de categorias de respostas e (mi + 1), somente mi parametros
de categoria do item podem ser identificados. Qualquer um dos (mi + 1)
parametros de dificuldade das categorias pode ser arbitrariamente definido
com qualquer valor. A raz ao e que o termo incluso no parametro e cancelado
no numerador e no denominador do modelo. Em geral, definimos bi,0 0.
Os parametros de categoria do item, bi,k , sao os pontos na escala de j em
as curvas de Pi,k1 (j ) e Pi,k (j ) se interceptam. Essas duas func oes se inter-
ceptam somente uma vez, e a intersecc ao pode ocorrer em qualquer ponto da
escala j . Entao, sob a hipotese de que ai > 0,
se j = bi,k ent
ao Pi,k (j ) = Pi,k1 (j ),
bi,k = bi dk .
Mas, e importante ressaltar que, diferentemente do modelo de escala gra-
dual, aqui os valores de dk n ao sao necessariamente ordenados sequencialmente
dentro de um item. O parametro dk e interpretado como a dificuldade relativa
da categoria k em comparacao com as outras categorias do item ou o desvio
da dificuldade de cada categoria em relac ao `a locac
ao do item, bi .
Assim, em testes compostos por itens com (mi + 1) categorias de resposta,
mi parametros de categoria necessitam ser estimados, alem dos parametros de
inclinacaho e de locacao ide cada item. Logo, se tivermos um teste com I itens,
PI
teremos i=1 mi + 2I par ametros de item a serem estimados.
1
P (Uijk = 1|jk ) = ci + (1 ci ) , (2.10)
1+ eDai (jk bi )
com i = 1, 2, , I, j = 1, 2, , nk , e k = 1, 2, , K, onde:
Estimac
ao: uma u
nica populac
ao
3.1 Introduc
ao
Uma das etapas mais importantes da TRI e a estimac ao dos parametros dos
itens e das habilidades dos respondentes. Como foi visto no captulo anterior,
a probabilidade de uma resposta correta a um determinado item depende
somente da habilidade do indivduo e dos parametros que caracterizam o item.
Mas, em geral, ambos sao desconhecidos. Apenas as respostas dos indivduos
aos itens do teste sao conhecidas.
Assim, nos modelos de resposta ao item temos um problema de estimac ao
que envolve dois tipos de parametros, os parametro dos itens e as habilidades
dos indivduos. Entao, do ponto de vista te orico, podemos dividir o problema
em tres situacoes, quando ja conhecemos os parametros dos itens, temos apenas
que estimar as habilidades; se ja conhecemos as habilidades dos respondentes,
estaremos interessados apenas na estimac ao dos parametros dos itens e, por
fim, a situacao mais comum, em que desejamos estimar os parametros dos
itens e as habilidades dos indivduos simultaneamente. Na TRI, o processo de
estimacao dos parametros dos itens e conhecido como calibrac ao.
Em qualquer uma das situacoes citadas acima, geralmente a estimac ao e feita
pelo Metodo da Maxima Verossimilhanca atraves da aplicac ao de algum pro-
cesso iterativo, como o algoritmo Newton-Raphson (ver Issac & Keller (1966),
por exemplo) ou Scoringde Fisher (ver Rao (1973), por exemplo). Alguns
procedimentos bayesianos tambem sao aplicados com bastante freq uencia (ver
Mislevy (1986a), por exemplo).
Na situacao em que desejamos estimar tanto os parametros dos itens, quanto
as habilidades, ha duas abordagens usuais: estimac ao conjunta, parametros dos
itens e habilidades, ou em duas etapas, primeiro a estimac ao dos parametros
dos itens e, posteriormente, das habilidades. No caso da estimac ao conjunta,
28 Estima
cao: uma u
nica popula
cao
Gifford (1983) reforcam a conjectura de que os EMV dos parametros dos itens
e das habilidades sao nao-viciados, quando o n
umero de itens e o n
umero de
indivduos crescem.
O problema de possvel inconsistencia dos estimadores obtidos em uma etapa
levou ao desenvolvimento da estimac ao em duas etapas por Bock & Lieber-
man (1970). Este metodo baseia-se na existencia de uma distribuic ao (latente)
associada `a habilidade dos indivduos da populac ao em estudo (ver Ander-
sen (1980) para maiores detalhes). Isso possibilita que a estimac ao dos itens
seja feita pelo Metodo da M axima Verossimilhanca Marginal, ou seja, consi-
derando uma determinada distribuic ao para a habilidade dos indivduos de
, cuja funcao densidade de probabilidade (f dp) e g(|), onde e o con-
junto de parametros associados `a , e integrando a func ao de verossimilhanca
com relacao a . Apos a estimac ao dos parametros dos itens, as habilidades
sao estimadas individualmente por maxima verossimilhanca ou pela moda ou
media da distribuicao condicional de j dado uj. = (uj1 , , ujI ), o vetor
de respostas do indivduo j, j = 1, , n, com i = (ai , bi , ci ), o vetor de
parametros do item i, i = 1, , I, conhecidos. Embora este metodo tenha a
vantagem de envolver, na primeira etapa, apenas a estimac ao dos parametros
dos itens, a estimacao e feita atraves de aplicac
ao de metodos numericos que
dependem das derivadas segundas da log-verossimilhanca com relac ao a i e
k , i, k = 1, , I, que podem ser nao nulas para i 6= k. Com isso, h a a ne-
cessidade da inversao de matrizes de ordem 3I 3I para o ML3, o que ainda
pode ser bastante exigente do ponto de vista computacional. Para contornar
esse problema, Bock & Aitkin (1981) fizeram uma modificac ao no modelo de
Bock & Lieberman adicionando a suposic ao de independencia entre os itens,
de forma que as derivadas segundas citadas acima para i 6= k sejam nulas.
Com isso, a matriz 3I 3I (no ML3) de derivadas segundas torna-se bloco-
diagonal, o que possibilita que os (parametros dos) itens sejam estimados in-
dividualmente. Adicionalmente, Bock & Aitkin prop oem que a obtenc ao das
estimativas de maxima verossimilhanca seja feita com a aplicac ao do algoritmo
EM introduzido por Dempster, Laird & Rubin (1977).
Embora existam outras propostas de estimac ao para os parametros dos itens
e habilidades, as citadas acima podem ser consideradas as mais importantes
e, portanto, serao exploradas nesse texto. Na Sec
ao 3.2 consideraremos o caso
da estimacao dos parametros dos itens quando as habilidades sao conhecidas.
(S2) os itens sao respondidos de forma independente por cada indivduo (In-
dependencia Local), fixada sua habilidade.
3.2 Estimac
ao dos par
ametros dos itens
Nesta secao trataremos da estimac
ao dos parametros dos itens pelo metodo
da maxima verossimilhanca, quando as habilidades sao conhecidas. Embora
qualquer modelo descrito no Captulo 2 possa ser adotado para fins de aplicacao,
o ML3 tem sido amplamente empregado e, por isso, o usaremos para efeito
de exemplificacao. Os modelos ML1 e ML2 sao casos particulares do ML3; a
escolha desse u ltimo leva a resultados que servem para os dois primeiros.
Pela independencia entre as respostas de diferentes indivduos (S1) e a in-
dependencia local (S2), podemos escrever a verossimilhanca, L() = P (U .. =
u.. |, ), como
n
Y
L() = P (U j. = uj. |j , )
j=1
n Y
Y I
= P (Uji = uji |j , i ),
j=1 i=1
Portanto,
n Y
Y I
u 1uji
L() = Pjiji Qji . (3.2)
j=1 i=1
n X
X I
log L() = {uji log Pji + (1 uji ) log Qji }. (3.3)
j=1 i=1
log L()
= 0, i = 1, , I.
i
Notemos que
Xn
log L() (log Pji ) (log Qji )
= uji + (1 uji )
i i i
j=1
Xn
1 Pji 1 Pji
= uji (1 uji )
Pji i Qji i
j=1
Xn
1 1 Pji
= uji (1 uji )
Pji Qji i
j=1
Xn
uji Pji Pji
= . (3.4)
Pji Qji i
j=1
Pji Qji
Wji = , (3.5)
Pji Qji
onde
n
( )
log L() X Wji Pji
= (uji Pji ) . (3.7)
i Pji Qji i
j=1
Pji
= D(1 ci )(j bi )Pji Qji , (3.8)
ai
Pji
= Dai (1 ci )Pji Qji , (3.9)
bi
Pji
= Qji . (3.10)
ci
n
( )
log L() X Pji Wji
= (uji Pji )
ai ai Pji Qji
j=1
n
( )
X Wji
= (uji Pji )D(1 ci )(j bi )Pji Qji
Pji Qji
j=1
n
X
= D(1 ci ) (uji Pji )(j bi )Wji . (3.11)
j=1
n
( )
log L() X Pji Wji
= (uji Pji )
bi bi Pji Qji
j=1
n
( )
X Wji
= (uji Pji )(1)Dai (1 ci )Pji Qji
Pji Qji
j=1
n
X
= Dai (1 ci ) (uji Pji )Wji . (3.12)
j=1
n
( )
log L() X Pji Wji
= (uji Pji )
ci ci Pji Qji
j=1
n
( )
X Wji
= (uji Pji )Qji
Pji Qji
j=1
n
( )
X Wji
= (uji Pji ) . (3.13)
Pji
j=1
Em resumo, as equac
oes de estimac
ao para os parametros ai , bi e ci sao,
respectivamente,
n
X
ai : D(1 ci ) (uji Pji )(j bi )Wji = 0, (3.14)
j=1
n
X
bi : Dai (1 ci ) (uji Pji )Wji = 0, (3.15)
j=1
n
X Wji
ci : (uji Pji ) = 0. (3.16)
Pji
j=1
I
q Y
Y
fki rki fki rki
L() = P Q ,
rki ki ki
k=1 i=1
e a log-verossimilhanca,
q X
X I
log L() = C + {rki log Pki + (fki rki ) log Qki } , (3.17)
k=1 i=1
P P ki
onde C = qk=1 Ii=1 log frki e constante com relac
ao a . Tomando a deri-
vada de (3.17) com relac
ao a i , teremos
Xq
log L() 1 Pki 1 Qki
= rki + (fki rki )
i Pki i Qki i
k=1
Xq
1 Pki
= (rki fki Pki )
Pki Qki i
k=1
Xq
Wki Pki
= (rki fki Pki ) ,
Pki Qki i
k=1
onde a u
ltima igualdade e devida a (3.5). Usando as expressoes (3.8) a (3.10),
temos que as equacoes de estimac
ao para os parametros ai , bi e ci sao, respec-
tivamente,
q
X
ai : D(1 ci ) (rki fki Pki )(k bi )Wki = 0, (3.18)
k=1
q
X
bi : Dai (1 ci ) (rki fki Pki )Wki = 0, (3.19)
k=1
q
X Wki
ci : (rki fki Pki ) = 0. (3.20)
Pki
k=1
3.2.1 Aplicac
ao do algoritmo Newton-Raphson
Seja l() = log L() a log-verossimilhanca, onde = ( 1 , , I ), com i =
b(0) = (a(0) , b(0) , c(0) )0 podem ser encontrados
(ai , bi , ci )0 . Se valores iniciais i i i i
para i , entao uma estimativa atualizada ser
ab(1) =
b(0) +
b(0) , ou seja,
i i i
l() b(0) )
l( 2 b(0)
(0) l( i )
2 b(0)
(0) l( i )
2 b(0)
(0) l( i )
= i
+
ai
+ bi +
ci b(0) ),
+ Rai (
2 i
ai ai ai ai bi ai ci
l() b(0) )
l( 2 b(0)
(0) l( i )
2 b(0)
(0) l( i )
2 b(0)
(0) l( i )
= i
+ bi
+ bi +
ci b(0) ),
+ Rbi (
2 i
bi bi bi bi ai bi ci
l() b(0) )
l( 2 b(0)
(0) l( i )
2 b(0)
(0) l( i )
2 b(0)
(0) l( i )
= i
+
ai
+ bi +
ci b(0) ),
+ Rci (
2 i
ci ci ci ci ai ci bi
l( i ) l( i ) l( i )
= = = 0,
ai bi ci
usando a notacao
(0)
b )
l( b(0) )
2 l( 2 l(
(0)
b ) (0)
b )
2 l(
i i i i
L1 = L11 = L12 = L13 = ,
ai a2i ai bi ai ci
(0) (0)
b )
l( b )
2 l( b(0) )
2 l( b(0) )
2 l(
i i i i
L2 = L21 = L22 = 2 L23 = ,
bi bi ai bi bi ci
(0) (0)
b )
l( b )
2 l( b(0) )
2 l( b(0) )
2 l(
i i i i
L3 = L31 = L32 = L33 = 2 ,
ci ci ai ci bi ci
Apos obtido b(1) , este e considerado um novo ponto inicial para a obtenc
ao
i
(2)
b
de i , e assim por diante. Este processo e repetido ate que algum criterio
de parada seja alcancado. Por exemplo, ate que b(t) = b(t)
b(t1) seja
i i i
suficientemente pequeno ou que um n umero pre-definido, tmax , de iterac
oes
seja cumprido.
As expressoes Lk , k = 1, 2, 3 sao dadas por (3.11) a (3.13), respectivamente
e as expressoes Lkl , k, l = 1, 2, 3, s
ao obtidas de
Xn 2
log L() uji Pji Pji 0 uji Pji Pji
= +
i 0i j=1
i Pji Qji i Pji Qji i 0i
Xn 2
vji Pji 0 Pji
= + vji , (3.22)
j=1
i i i 0i
onde
uji Pji
vji = (3.23)
Pji Qji
e
vji uji Pji
= =
i i Pji Qji
1 Pji Pji Qji
= Pji Qji (uji Pji )
(Pji Qji )2 i i
1 Pji Pji Pji
= Pji Qji + (uji Pji ) 2Pji
(Pji Qji )2 i i i
1 Pji
= {Pji Qji + (uji Pji )(1 2Pji )}
(Pji Qji )2 i
1 Pji
= 2
(uji Pji )2 ,
(Pji Qji ) i
2 Pji
= vji . (3.24)
i
b(t+1) =
b(t) [H(
b(t) )]1 h(
b(t) ). (3.25)
i i i i
log L()
h( i )
i
n
( )
X Wji
= (uji Pji ) (Pji Qji )hji
Pji Qji
j=1
Xn
= (uji Pji )Wji hji . (3.26)
j=1
log L()
H( i )
i 0i
n
( 2 )
X uji Pji uji Pji
= (Pji Qji )H ji (Pji Qji )2 hji h0ji
Pji Qji Pji Qji
j=1
Xn
= (uji Pji )Wji H ji (uji Pji )Wji hji h0ji . (3.27)
j=1
com
D(1 ci )(j bi )
Pji
hji = (Pji Qji )1 = Dai (1 ci ) ,
i 1
Pji
e
2 Pji
H ji = (Pji Qji )1
i 0i
D2 (1 ci )(j bi )2 (1 2Pji ) . .
= D(1 ci ){1 + Dai (j bi )(1 2Pji )} D2 a2i (1 ci )(1 2Pji ) . .
D(j bi ) Dai 0
q
X
h( i ) = (rki fki Pki )Wki hki ,
k=1
q
X
H( i ) = (rki fki Pki )Wki H ki (rki fki Pki )Wki hki h0ki .
k=1
3.2.2 Aplicac
ao do m
etodo Scoringde Fisher
( i ) E(H( i ))
N
X
= E(Uji Pji )Wji H ji E(Uji Pji )2 Wji2 hji h0ji
j=1
N
X
= Pji Qji Wji2 hji h0ji
j=1
N
X
= Pji Qji Wji hji h0ji . (3.28)
j=1
q
X
( i ) = Pki Qki Wki hki h0ki .
k=1
b(t+1) =
b(t) [(
b(t) )]1 h(
b(t) ).
i i i i
3.2.3 Erro-padr
ao
Os estimadores de m axima verossimilhanca gozam de propriedades as-
sintoticas conhecidas, tais como vcio nulo e eficiencia. Sob algumas condic
oes
de regularidade (ver Sen & Singer (1993), por exemplo) a distribuic ao as-
sintotica do estimador de maxima verossimilhanca, b , e normal com vetor de
i
media i e matriz de covariancias dada pela inversa da matriz de informacao
2 log L()
I( i ) = E = ( i ), (3.29)
i 0i
ai
T,Ui = q , 1 < T,Ui < 1, (3.30)
1 + a2i
i = (i ), i = bi T,Ui , (3.31)
usar a funcao Logstica para a FRI, o fator D = 1, 702 torna os modelos Normal
e Logstico muito proximos (ver Halley (1952)) de forma que as express oes
(3.30) e (3.31) produzem bons resultados para o modelo logstico.
3.3 Estimac
ao das habilidades
n X
X I
log L() = {uji log Pji + (1 uji ) log Qji }. (3.32)
j=1 i=1
log L()
= 0, j = 1, , n. (3.33)
j
XI
log L() (log Pji ) (log Qji )
= uji + (1 uji ) (3.34)
j j j
i=1
XI
1 Pji 1 Pji
= uji (1 uji )
Pji j Qji j
i=1
XI
1 1 Pji
= uji (1 uji )
Pji Qji j
i=1
XI
uji Pji Pji
= (3.35)
Pji Qji j
i=1
I
( )
X Wji Pji
= (uji Pji ) , (3.36)
Pji Qji j
i=1
onde a u
ltima igualdade segue de (3.5). Como
Pji
= Dai (1 ci )Pji Qji , (3.37)
j
obtem-se
I
( )
log L() X Wji
= (uji Pji )Dai (1 ci )Pji Qji
j Pji Qji
i=1
I
X
= D ai (1 ci )(uji Pji )Wji . (3.38)
i=1
I
X
j : D ai (1 ci )(uji Pji )Wji = 0. (3.39)
i=1
3.3.1 Aplicac
ao do algoritmo Newton-Raphson
(t)
De forma similar ao que foi feito na Sec ao 3.2.1, e considerando bj a
estimativa de j na iterac
ao t, ent
ao na iterac
ao t + 1 do algoritmo Newton-
Raphson teremos que
log L()
h(j )
j
I
( )
X Wji
= (uji Pji ) (Pji Qji )hji
Pji Qji
i=1
XI
= (uji Pji )Wji hji
i=1
2 log L()
H(j )
j2
I
( 2 )
X uji Pji u ji Pji
= (Pji Qji )Hji (Pji Qji )2 h2ji
Pji Qji Pji Qji
i=1
XI
= (uji Pji )Wji Hji (uji Pji )Wji h2ji (3.41)
i=1
com
Pji
hji = (Pji Qji )1 = Dai (1 ci ) (3.42)
j
e
!
2 Pji
Hji = (Pji Qji )1 = D2 a2i (1 ci )(1 2Pji ). (3.43)
j2
3.3.2 Aplicac
ao do m
etodo Scoringde Fisher
Para aplicacao do metodo Scoringde Fisher, devemos substituir os com-
ponentes da matriz de derivadas segundas usadas no processo iterativo de
Newton-Raphson pelos seus valores esperados. Por (3.41) temos que
(j ) E(H(j ))
I
X
= E(Uji Pji )Wji Hji E(Uji Pji )2 Wji2 h2ji
i=1
I
X
= Pji Qji Wji h2ji . (3.44)
i=1
3.3.3 Erro-padr
ao
Sob algumas condicoes de regularidade (ver Sen & Singer (1993), por exem-
axima verossimilhanca, bj , e
plo) a distribuicao assintotica do estimador de m
normal com media j e variancia dada pela inversa da matriz de informac ao
!
2 log L()
I(j ) = E = (j ), (3.45)
j2
3.4 Estimac
ao conjunta: par
ametros dos itens e ha-
bilidades
Nesta etapa trataremos do caso mais comum, em que nem os parametros
dos itens e nem as habilidades sao conhecidos. As Sec
oes 3.2 e 3.3 compoem as
partes basicas da estimac
ao conjunta. Nas expressoes (3.14) a (3.16) e (3.39)
temos as equacoes de estimac
ao para os parametros dos itens e habilidades.
Entretanto, estas equac
oes nao apresentam express oes explicitas para os res-
pectivos EMV. Por conta disso, algum processo iterativo deve ser aplicado
no processo de maximizac ao e, como consequencia, algumas quantidades ou
suposicoes podem ser adicionadas ao modelo.
L(, )
= 0, para i 6= l. (3.46)
i 0l
Pela independencia entre as respostas de indivduos diferentes, temos que
L(, )
= 0, para j 6= l. (3.47)
j l
Vale notar que (3.46) e (3.47) sao conseq uencias das suposic
oes inerentes do
modelo. Uma suposic ao adicional que simplifica bastante a estrutura de H e
a de que nao existe correlac
ao entre itens e habilidades. Essa suposicao condiz
com situacoes praticas, pois as habilidades sao inerentes dos indivduos, que
em nada dependem dos itens envolvidos no estudo. Como conseq uencia desta
suposicao, temos que
L(, )
= 0, para i = 1, , I e j = 1, , n. (3.48)
i j
Assim, a matriz H torna-se bloco-diagonal, na qual os I primeiros blocos
sao matrizes 3 3 relativas aos parametros dos itens e os n blocos seguintes
sao escalares relativos `as habilidades. As express
oes (3.46) a (3.48) facilitam
bastante a estrutura de H, mas nao diminuem sua dimens ao. Entretanto, com
base nessa estrutura bloco-diagonal, Birbaum (1968) prop os um algoritmo
em que os itens e as habilidades sao estimados individualmente, utilizando
o algoritmo Newton-Raphson ou o metodo Scoringde Fisher, no qual cada
iteracao e composta de dois estagios:
Est
agio 1: Comecando com estimativas iniciais para as habilidades (escores
padronizados, por exemplo) e tratando estas habilidade como conheci-
das, estimamos i , i = 1, , I.
Est
agio 2: Comecando com estimativas iniciais (obtidas no Estagio 1) para
e tratando estes parametros como conhecidos, estimamos as habilidades
j , j = 1, , n.
Coment
arios
b , i = 1, , I, e bj , j = 1, , n, continuam sendo
Os erros-padrao para i
obtidos com o uso das express oes (3.29) e (3.45). Alem disso, a estimac ao
conjunta apresenta os mesmos problemas ja citados anteriormente, ou seja,
quando algum item e respondido corretamente, ou incorretamente, por todos
os indivduos, ou quando algum indivduo responde corretamente, ou incor-
retamente, a todos os itens. Mais adiante, nesse captulo e no Captulo 7,
veremos como tratar destes casos.
3.5 M
axima verossimilhan
ca marginal
O metodo da Maxima Verossimilhanca Marginal, proposto por Bock & Lie-
berman (1970 apresenta algumas vantagens em relac ao ao metodo da Maxima
Verossimilhanca Conjunta. A proposta desse metodo e fazer a estimac ao em
duas etapas: primeiro os parametros dos itens e, posteriormente, as habilida-
des. Como as habilidades nao sao conhecidas, precisaremos usar algum artifcio
de forma que a verossimilhanca nao seja mais func ao das habilidades. Ander-
son (1980) argumenta que se considerarmos uma populac ao composta por n
indivduos com habilidades j , j = 1, , n, e construirmos a distribuic
ao de
frequencia acumulada G()=(n umero de j : j )/n, ent ao, se n for suficien-
temente grande os j estarao bastante proximos de forma que G() pode ser
aproximada por uma distribuicao contnua. A densidade g(), relativa `a G(),
Embora a verossimilhanca possa ser escrita como (3.50), tem sido freq uente
utilizar a abordagem de Padr oes de Resposta. Como temos I itens no total,
a S = 2I possveis respostas
com 2 possveis respostas para cada item (0 ou 1), h
s
Y
n!
L(, ) = Qs [P (uj. |, )]rj , (3.52)
j=1 rj ! j=1
e, portanto, a log-verossimilhanca e
( ) s
n! X
log L(, ) = log Qs + rj log P (uj. |, ).
j=1 rj ! j=1
log L(, )
= 0, i = 1, , I, (3.53)
i
com
log L(, ) s
X
= rj log P (uj. |, )
i i
j=1
s
X 1 P (uj. |, )
= rj . (3.54)
P (uj. |, ) i
j=1
Mas
Z
P (uj. |, )
= P (uj. |, )g(|)d
i i IR
Z
= P (uj. |, ) g(|)d (3.55)
IR i
Z I
!
Y
= P (ujl |, l ) g(|)d
IR i
l=1
Z I
Y
P (uj. |, )
= P (ujl |, l )P (uji |, i ) g(|)d
i IR i
l6=i
Z
P (uji |, i )/ i
= P (uj. |, )g(|)d, (3.56)
IR P (uji | i )
uji 1uji
P (uji |, i ) = Pi Qi
i i
u 1 Pi 1u u u
= uji Pi ji Qi ji + (1 uji )Qi ji Pi Pi ji
i i
P
u 1 1u u u i
= uji Pi ji Qi ji (1 uji )Qi ji Pi ji .
i
Notemos agora que o termo entre parenteses vale 1 quando uji = 1 e vale -1
quando uji = 0, portanto podemos reescreve-lo como (1)uji +1 . Com isso,
Pi
P (uji |, i ) = (1)uji +1 . (3.57)
i i
(
(1)uji +1 Pi Qi Qi se uji = 1
u 1u = (3.58)
Pi ji Qi ji Pi se uji = 0,
podemos reescrever este termo como uji Pi . Segue que (3.56) pode ser escrita
como
Z
P (uj. |, ) (uji Pi ) Pi
= P (uj. |, )g(|)d (3.59)
i IR Pi Qi i
Por conveniencia, consideremos a seguinte ponderac
ao:
Pi Qi
Wi = , (3.60)
Pi Qi
onde
Z
P (uj. |, ) Pi Wi
= (uji Pi ) P (uj. |, )g(|)d. (3.62)
i IR i Pi Qi
Usando a notacao
P (uj. |, )g(|)
gj () g(|uj. , , ) = , (3.63)
P (uj. |, )
teremos que a funcao de verossimilhanca (3.54) pode ser escrita como
s
X Z
log L(, ) Pi Wi
= rj (uji Pi ) g ()d. (3.64)
i IR i Pi Qi j
j=1
Resta agora a obtenc ao das equacoes especficas para cada parametro do ve-
tor i = (ai , bi , ci )0 . As expressoes para as derivadas de Pi sao dadas por (3.8) a
(3.10) com Pji , Qji , Pji e Qji substitudas por Pi , Qi , Pi e Qi , respectivamente.
Para obtermos a equac ao de estimacao para o parametro de discriminac ao,
ai , notemos que da expressao (3.64) temos que
log L(, )
=
ai
X s Z
Pi Wi
= rj (uji Pi ) Q gj ()d
IR a i Pi i
j=1
X s Z
Wi
= rj (uji Pi )D(1 ci )( bi )Pi Qi gj ()d
IR Pi Qi
j=1
X s Z
= D(1 ci ) rj [(uji Pi )( bi )Wi ] gj ()d. (3.65)
j=1 IR
log L(, )
=
bi
X s Z
Pi Wi
= rj (uji Pi ) Q gj ()d
IR b i Pi i
j=1
X s Z
Wi
= rj (uji Pi )(1)Dai (1 ci )Pi Qi gj ()d
IR Pi Qi
j=1
X s Z
= Dai (1 ci ) rj [(uji Pi )Wi ] gj ()d. (3.66)
j=1 IR
s
X Z
log L(, ) Pi Wi
= rj(uji Pi ) Q gj ()d
ci IR c i Pi i
j=1
Xs Z
Wi
= rj (uji Pi )Qi gj ()d
IR Pi Qi
j=1
Xs Z
Wi
= rj (uji Pi ) gj ()d. (3.67)
IR Pi
j=1
s
X Z
ai : D(1 ci ) rj [(uji Pi )( bi )Wi ] gj ()d = 0, (3.68)
j=1 IR
s
X Z
bi : Dai (1 ci ) rj [(uji Pi )Wi ] gj ()d = 0, (3.69)
j=1 IR
s
X Z
Wi
ci : rj (uji Pi ) gj ()d = 0, (3.70)
IR Pi
j=1
3.5.2 M
etodos iterativos
Para aplicacao do algoritmo Newton-Raphson, precisaremos das derivadas
segundas de log L(, ). Quando desenvolvemos as express oes para a estimacao
de i na Secao 3.2, a propriedade de independencia local foi suficiente para ga-
rantir que os (parametros dos) itens pudessem ser estimados individualmente,
pois a derivada segunda de log L() com relac ao a i e l , para l 6= i, era
nula. Entretanto, na estimacao por maxima verossimilhanca marginal isso n ao
acontece, levando `a necessidade da estimac ao dos I itens conjuntamente. As
expressoes para as derivadas segundas s ao obtidas a partir de
2 log L(, ) log L(, ) 0
=
l 0i l i
0
X s
1 P (uj. |, )
= rj
l P (uj. |, ) i
j=1
X s 2
P (uj. |, )/( l 0i ) P (uj. |, )/ l P (uj. |, )/ i 0
= rj .
P (uj. |, ) P (uj. |, ) P (uj. |, )
j=1
(3.71)
para i, l = 1, , I.
log L(, )
h( i ) =
i
X Z
s
= rj (uji Pi )Wi hi gj ()d, (3.73)
j=1 IR
e
2 log L(, )
H( i , l ) =
l 0i
Xs n o
= rj H il(j) hi(j) h0l(j) . (3.74)
j=1
s
X
( i , l ) = E[H( i , l )] = rj [hi(j) hi(j) ].
j=1
3.5.3 M
etodos de quadratura
Antes de prosseguir, vamos discutir um problema importante encontrado
na implementacao da estimacao dos parametros dos itens. Podemos notar que
as equacoes (3.68) a (3.70), por exemplo, envolvem integrais que n ao apresen-
tam solucao analtica. Por conta disso, algum meio deve ser encontrado para
a solucao (aproximacao) numerica de uma integral. Embora existam muitos
metodos de aproximacoes de integrais, na TRI tem sido freq uente a aplicac
ao
do metodo Hermite-Gauss, usualmente denominado de metodo de quadratura
gaussiana. Se g(|) e uma func ao contnua com integral finita, ela pode ser
aproximada, para qualquer grau de precisao, por uma outra func ao que assume
um n umero finito de pontos. Dessa forma, o problema de obter a integral de
uma funcao contnua e substitudo pela obtenc ao da soma das area de um
numero finito, digamos q, de retangulos. Os pontos medios de cada retangulo,
k , k = 1, , q, sao denominados de n os (ou pontos de quadratura). Cada
no tem um peso Ak A(k ) associado que leva em conta a altura g(k |) e a
largura (k ) do respectivo intervalo, tal como Ak = g(k |) k . Os valores
k e Ak sao obtidos resolvendo-se um conjunto de equac oes que envolvem a
funcao g(|) e o n umero de nos (ver Hildebrand (1956), paginas 327-330).
Uma tabela para k e Ak relativa a func ao gaussiana pode ser encontrada em
Stroud & Sechest (1966). Para adaptar essa tabela para o caso em que g(|)
representa a f dp de uma variavel N (0, 1), basta multiplicar os nos k por 2
e dividir os pesos Ak por .
Equa
coes de estima
cao em forma de quadratura
Consideremos conhecidos os nos k e os pesos, Ak , k = 1, , q, com Ak =
g(k |) k . Com isso, podemos escrever
I
Y u 1u
P (uj. |k , ) = [Pkiji Qki ji ],
i=1
q
X q
X
P (uj. |, ) ' P (uj. |k , )g(k |)k = P (uj. |k , )Ak .
k=1 k=1
P (uj. |k , )Ak
gj (k ) ' Pq 1
k . (3.75)
k=1 P (u j. | k , )Ak
s
X Z
log L(, )
= D(1 ci ) rj [(uji Pi )( bi )Wi ] gj ()d
ai IR
j=1
Xs Xq
' D(1 ci ) rj (uji Pki )(k bi )Wki gj (k )k
j=1 k=1
P (uj. |k , )Ak
gj (k ) = Pq . (3.76)
k=1 P (uj. | k , )Ak
q
s X
X
ai : D(1 ci ) rj (uji Pki )(k bi )Wki gj (k ). (3.77)
j=1 k=1
q
s X
X
bi : Dai (1 ci ) rj [(uji Pki )Wki ] gj (k ) = 0, (3.78)
j=1 k=1
q
s X
X
Wki
ci : rj (uji Pki ) gj (k ) = 0. (3.79)
Pki
j=1 k=1
Deve ser ressaltado que a funcao gj (k ) nas equac oes (3.77) a (3.79) deve
ser calculada por (3.76). Novamente, estas equac oes nao apresentam soluc oes
explcitas para os EMV dos parametros dos itens. Para aplicac ao dos proce-
dimentos Newton-Raphson ou Scoringde Fisher devemos notar que as deri-
vadas segundas de log L(, ) com relac ao a i e l , para i 6= l, nao sao nulas,
o que leva `a necessidade da estimac
ao dos parametros dos I itens simultanea-
mente. Isso pode gerar uma grande limitac ao na estimac ao de um n umero alto
de itens devido `a necessidade da invers ao de matrizes de dimensoes 3I 3I.
A proposta de Bock & Aitkin (1981), que apresentaremos a seguir, contorna
este problema.
2 log L(, )
= 0, para i 6= l. (3.80)
i l
Essa suposicao modifica a matriz H P I () tornando-a bloco diagonal, uma
s
X Z
log L(, )
= D(1 ci ) rj [(uji Pi )( bi )Wi ] gj ()d
ai IR
j=1
Xs Z
= D(1 ci ) rj ( bi ) uji gj () Pi gj () Wi d
j=1 IR
Z Xs s
X
log L(, )
= D(1 ci ) ( bi ) rj uji gj () Pi rj gj () Wi d
ai IR j=1 j=1
Z
= D(1 ci ) ( bi ) [ri () Pi fi ()] Wi d, (3.81)
IR
onde
s
X s
X
ri () = rj uji gj (), fi () = rj gj ().
j=1 j=1
Z
log L(, )
= Dai (1 ci ) [ri () Pi fi ()] Wi d, (3.82)
bi IR
Z
log L(, )
= [ri () Pi fi ()] Wi d. (3.83)
ci IR
Equa
coes de estima
cao em forma de quadratura
Considerando conhecidos os n os k e os pesos, Ak , k = 1, , q, temos que
as equacoes de estimacao em forma de quadratura para os parametros ai , bi e
ci sao, respectivamente,
q
X
ai : D(1 ci ) (k bi ) [rki Pki fki ] Wki = 0, (3.84)
k=1
q
X
bi : Dai (1 ci ) [rki Pki fki ] Wki = 0, (3.85)
k=1
q
X Wki
ci : [rki Pki fki ] = 0. (3.86)
Pki
k=1
onde
s
X s
X
rki = rj uji gjk , fki = rj gjk e gjk = gj (k ). (3.87)
j=1 j=1
3.5.5 Aplicac
ao do algoritmo EM
O algoritmo EM e um processo iterativo para determinac ao de estimativas
de maxima verossimilhanca de parametros de modelos de probabilidade na
presenca de variaveis aleatorias nao observadas. Cada iteracao deste processo
e feita em dois passos: Esperanca (E) e Maximizac ao (M ). No caso da TRI,
o objetivo e obter estimativas de na presenca das vari aveis nao observadas
. Neste caso, u.. representa o vetor de dados incompletos e (u.. , ) o vetor de
dados completos. Seja f (u.. , |) a densidade conjunta do dados completos.
b(k) e uma estimativa de na iterac
Se ao t, ent
ao os passos EM para obtencao
b(k+1) sao
de
b(k) ]
Passo E: Calcular E[log f (u.. , |)|u.. ,
q
Y
n!
P (f i |) = Qq jfki , i = 1, , I.
k=1 fki ! k=1
P (f , r|, ) = P (f |, )P (r|f , , )
= P (f |)P (r|h, )
( I )( I q )
Y YY
= P (f i |) P (rki |fki , k )
i=1 i=1 k=1
q
I X
X
log L() = log P (f |) + log P (rki |fki , k )
i=1 k=1
XI X q
fki
= log P (f |) + log + rki log Pki + (fki rki ) log Qki
rki
i=1 k=1
q X
X I
= C+ {rki log Pki + (fki rki ) log Qki } ,
k=1 i=1
PI Pq f
onde C = log P (f |) + i=1 k=1 log ki e constante com relac ao a . Te-
rki
mos que (f , r) sao nao-observ
aveis, mas tomando a esperanca da log-verossimi-
lhanca, condicional em u.. e , e usando a notac
ao
q
I X
X
E[log L()] = C + rki log Pki + (f ki rki ) log Qki . (3.88)
i=1 k=1
Estes passos compoem cada iteracao do algoritmo EM, as quais serao repe-
tidas ate que algum criterio de parada seja alcancado. Apos a finalizac
ao do
processo, os erros-padrao sao obtidos com o uso de (3.29).
3.6 Estimac
ao bayesiana
A estimacao por maxima verossimilhanca apresenta problemas na estimac ao
de itens que sao respondidos corretamente, ou incorretamente, por todos os
indivduos, e tambem das habilidades de indivduos que responderam corre-
tamente, ou incorretamente, a todos os itens. Alem disso, ha a possibilidade
de que as estimativas dos parametros dos itens caiam fora do intervalo espe-
rado, tal como valores de ai negativos, ou valores de ci fora do intervalo [0, 1].
A metodologia bayesiana apresenta uma soluc ao em que estes problemas sao
contornados.
Ha varias propostas para a estimac ao bayesiana dos parametros de interesse
na TRI. A mais utilizada e a Estimac ao Bayesiana Marginal proposta por Mis-
levy (1986a), que e uma generalizac ao da proposta de Bock & Aitkin (1981).
Basicamente, a estimacao bayesiana consiste em estabelecer distribuic oes a
priori para os parametros de interesse, construir uma nova func ao denomi-
nada distribuicao a posteriori e estimar os parametros de interesse com base
em alguma caracterstica dessa distribuic ao. Consideremos que as componen-
tes de sao variaveis aleatorias independentes e contnuas, com distribuic oes
especificadas. Por estarmos tratando de uma extens ao da proposta de Bock
& Aitkin, a estimacao e feita por maxima verossimilhanca marginal, em duas
etapas.
Para tornar o tratamento mais geral, vamos considerar que a distribuic ao
da habilidade e funcao de um vetor de parametros , com densidade g(|), e
que a distribuicao de i , i = 1, , I, e func
ao de um vetor de parametros ,
com densidade g(| ). Podemos, ainda, estabelecer distribuic oes a priori para
os parametros e , digamos f ( ) e g(). Para definir a metrica, digamos
(0,1), em que os parametros dos itens (e, posteriormente, as habilidades) ser ao
estimados, podemos adotar uma distribuic ao degenerada para em (0,1) ou
uma distribuicao que tenha vetor de medias (0,1) e vari ancias muito pequenas.
A primeira opcao equivale a eliminar a func ao g(), mas para tornar o trata-
f (, , , ) = f (| )g(|)f ( )g()
( I ) n
Y Y
= f ( i | ) g(j |) f ( )g().
i=1 j=1
3.6.1 Estimac
ao dos par
ametros dos itens
Para fazer inferencias com relac
ao aos parametros dos itens, e conveniente
marginalizara posteriori integrando com relac ao a e , obtendo a distri-
buicao a posteriori de e :
Z Z
f (, |u.. ) = C P (u.. ; , )f (| )g(|)f ( )g()dd
Z Z
= Cg() f (| )f ( )d P (u.. ; , )g(|)d
sendo que as mais adotadas sao a media e a moda. No que segue vamos con-
siderar a moda da posteriori como o estimador de , ou seja, o valor de que
maximiza a posteriori marginal. Temos que
Distribui
cao a priori para ai
Geralmente, adota-se as distribuicoes Log-normal ou Chi-Quadrado para
ai . Neste texto, vamos supor que cada parametro ai tem distribuic ao Log-
2
normal com parametro = (a , a ). Uma justificativa teorica para a adoc ao
desta distribuicao e que na pratica os ai s
ao, em geral, positivos, sugerindo
que a distribuicao de ai pode ser modelada por uma distribuic ao unimodal
e com assimetria positiva (ver Mislevy (1986a)), tal como a log-normal. A
transformacao i = log ai resulta em cada i tendo uma distribic ao Normal
( , ), onde a = exp[ + /2] e a = (exp( ) 1) exp[2 + 2 ]. Alguns
2 2 2 2
autores (ver Baker (1992), por exemplo) preferem desenvolver expressoes para
1 1
f (ai |a , a2 ) = 2
exp 2 (log ai a ) .
2ai a 2a
log f (ai |a , a2 ) 1 log ai a
= 1+ . (3.92)
ai ai a2
Distribui
cao a priori para bi
Como os parametros de dificuldade estao na mesma escala da habilidade,
em geral, supoem-se que cada bi s tem distribuicao Normal com vetor de
parametros = (b , b2 ). Desta forma, a segunda parcela de (3.91) pode ser
escrita como
Distribui
cao a priori para ci
Como ci so pode pertencer ao intervalo [0; 1], uma priori Beta foi proposta
por Swaminathan & Gifford (1986). A func ao densidade da distribuicao Beta
com parametros s + 1 e t + 1 e dada por
(s + t + 2) s
f (ci |s, t) = c (1 ci )t , (3.94)
(s + 1)(t + 1) i
Z
(d) = xd1 ex dx.
0
A media desta distribuicao e dada por
s+1
p= .
s+t+2
Swaminathan & Gifford propoem, ainda, a seguinte reparametrizac
ao:
= mp + 1 e = m(1 p) + 1,
onde m = s+t+2. Desta forma, p = (s+1)/m e, consequentemente, s = mp1
e t = m s 2 = m(1 p) 1. Segue disso que
s=2 e t = 2.
Retornando a (3.94), obtemos
( + 2) 2
f (ci |, ) = c (1 ci )2 . (3.95)
( 1)( 1) i
Neste caso, a media p passa a ser interpretada como a probabilidade de
acerto por indivduos com baixa habilidade. Desta forma, os parametros e
sao definidos para que p tenha o valor desejado. Entretanto, Swaminathan &
Gifford sugerem que a escolha de m deva se situar no intervalo {15, , 20},
o que leva a uma certa restricao na escolha de e .
Para chegarmos a expressao para a segunda parcela de (3.91), notemos que
Consequentemente,
log f (ci |, ) 2 2
= . (3.97)
ci ci 1 ci
Com as componentes (3.92), (3.93) e (3.97), temos que as equac
oes de es-
timacao para as componentes de i s
ao
Z
1 log ai a
ai : D(1 ci ) ( bi ) [ri () Pi fi ()] Wi d 1+ = 0,
IR ai a2
(3.98)
Z
(bi b )
bi : Dai (1 ci ) [ri () Pi fi ()] Wi d = 0, (3.99)
IR b2
Z
Wi 2 2
ci : [ri () Pi fi ()] d + = 0. (3.100)
IR Pi ci 1 ci
2 log f (ai |a , a2 ) 1 2
= a + log ai a 1 ,
a2i 2
ai a
2 log f (bi |b , b2 ) 1
= , (3.101)
b2i b2
2 log f (ci |, ) 2 2
= .
c2i 2
ci (1 ci )2
Equa
coes de estima
cao em forma de quadratura
q
X
1 log ai a
ai : D(1 ci ) (k bi ) [rki Pki fki ] Wki 1+ = 0,
ai a2
k=1
(3.102)
q
X (bi b )
bi : Dai (1 ci ) [rki Pki fki ] Wki = 0, (3.103)
b2
k=1
q
X Wki 2 2
ci : [rki Pki fki ] + = 0. (3.104)
Pki ci 1 ci
k=1
3.6.2 Estimac
ao das habilidades
Tal como na estimacao por maxima verossimilhanca marginal, a estimac ao
bayesiana das habilidades e feita em uma segunda etapa, considerando os
parametros dos itens fixos. Atraves da suposicao de independencia entre as
habilidades de diferentes indivduos, podemos fazer as estimac oes em separado
para cada indivduo.
Vamos assumir que a distribuic ao a priori para j , j = 1, , n, e Normal
2
com vetor de parametros = (, ) conhecidos. A posteriori para a habilidade
do indivduo j pode ser escrita como
Estima
cao pela moda da posteriori - MAP
A estimacao pela moda da posteriori (ou MAP: maximum a posteriori)
consiste em obter o maximo de (3.105). Por facilidade, vamos trabalhar com
o logaritimo da posteriori
I
X
log P (uj. |j , ) log P (uji | i , j )
=
j j
i=1
XI
P (uji | i , j )/j
= . (3.107)
P (uji | i , j )
i=1
u 1uji
Lembramdo que P (uji | i , j ) = Pjiji Qji e usando o desenvolvimento de
(3.34) a (3.38), teremos que
X I
log P (uj. |j , )
=D ai (1 ci )(uji Pji )Wji . (3.108)
j
i=1
log g(j |) (j )
= . (3.109)
j 2
Por (3.108) e (3.109), temos que a equac
ao de estimac
ao para j e
I
X (j )
j : D ai (1 ci )(uji Pji )Wji = 0. (3.110)
2
i=1
Como esta equacao nao tem soluc ao explcita, podemos aplicar algum metodo
iterativo para resolve-la. Para isso sera necessaria a derivada segunda de
log g(j |uj. , , ) com relacao a j , cuja expressao e
I
X 1
H(j ) = (uji Pji )Wji Hji (uji Pji )Wji h2ji 2 , (3.111)
i=1
onde hji e Hji sao dados por (3.42) e (3.43), respectivamente. Para aplicarmos
o metodo Scoringde Fisher, devemos tomar a esperanca da expressao acima,
resultando em
I
X 1
(j ) = Pji Qji Wji h2ji . (3.112)
2
i=1
Estima
cao pela m
edia da posteriori - EAP
A estimacao de j pela media da posteriori (ou EAP: expected a posteriori)
consiste em obter a esperanca da posteriori, que pode ser escrita como
P (uj. |, )g(|)
g(|uj. , , ) = . (3.113)
P (uj. |, )
R
b g(|)P (uj. |, )d
j E[|uj. , , ] = RIR . (3.114)
IR g(|)P (uj. |, )d
3.7 Resumo
A seguir, faremos um sntese das vantagens e desvantagens dos metodos
citados neste livro. Vale ressaltar que existem ainda outros metodos de es-
timacao propostos na literatura.
Na sntese abaixo, o smbolo representar a uma caracterstica positiva,
enquanto representar a uma caracterstica negativa.
Estimac
ao dos Par
ametros dos Itens
M
axima Verossimilhan
ca Marginal - MVM :
Bayesiano :
Estima
cao das habilidades
M
axima Verossimilhan
ca - MV :
Bayesiano - EAP :
Bayesiano - MAP :
Estima
cao dos par
ametros dos itens e das habilidades
M
axima Verossimilhan
ca Conjunta - MVC :
Equalizac
ao
4.1 Introduc
ao
No captulo anterior, apresentamos os metodos de estimac
ao mais utilizados
quando todos os parametros dos itens de uma unica prova devem ser estimados.
No entanto, esta e apenas uma das possveis situac
oes que na pratica iremos
encontrar. A seguir, listaremos os 6 casos possveis, quanto ao n umero de
grupos e de tipos de prova envolvidos. Esses casos est ao esquematizados na
Figura 4.1.
1. Um u
nico grupo fazendo uma u
nica prova.
2. Um unico grupo, dividido em dois subgrupos, fazendo duas provas, to-
talmente distintas (nenhum item comum).
3. Um unico grupo, dividido em dois subgrupos, fazendo duas provas, ape-
nas parcialmente distintas, ou seja, com alguns itens comuns.
4. Dois grupos fazendo uma u
nica prova.
5. Dois grupos fazendo duas provas, totalmente distintas (nenhum item
comum).
6. Dois grupos fazendo duas provas, apenas parcialmente distintas, ou seja,
com alguns itens comuns.
Note que para simplificar, listamos os casos acima utilizando apenas duas
provas e duas populacoes, mas as situac oes envolvendo um n
umero maior de
provas e/ou de populacoes sao analogas.
Alem disso, os problemas de estimacao tambem podem diferir dependendo
do conjunto de itens que necessita ser estimado, ou seja, se nosso conjunto de
itens e composto de:
80 Equaliza
cao
(a) apenas itens novos (ou seja, itens que ainda nao foram calibrados);
grupos, na mesma metrica, isto e, numa escala comum, tornando os itens e/ou
as habilidades comparaveis.
Existem dois tipos de equalizac ao: a equalizac
ao via populac
ao e a equa-
lizacao via itens comuns. Isto significa que h
a duas maneiras de colocar parame-
tros, tanto de itens quanto de habilidades, numa mesma metrica: na primeira
usamos o fato de que se um u nico grupo de respondentes e submetido a provas
distintas, basta que todos os itens sejam calibrados conjuntamente para termos
a garantia de que todos estarao na mesma metrica. Ja na equalizac ao via itens
comuns, a garantia de que as populac oes envolvidas terao seus parametros
em uma u nica escala sera dada pelos itens comuns entre as populac oes, que
servirao de ligacao entre elas.
4.2.1 Um u
nico grupo fazendo uma u
nica prova
Este e o caso trivial, em que se aplicam diretamente os modelos ma-
tematicos e os metodos de estimac
ao descritos nos captulos anteriores. Foi
o caso considerado ate agora, nos Captulos 2 e 3, e pela propria natureza do
problema, nao e necessario nenhum tipo de equalizac
ao.
Um exemplo para ilustrar este caso seria uma prova de 30 itens aplicada
`a 4.a serie diurna do Ensino Fundamental da rede p ublica estadual de S ao
Paulo.
4.2.2 Um u
nico grupo fazendo duas provas totalmente distintas
Este e um caso classico do que chamamos de equalizac ao via populac
ao.
Para resolve-lo, basta que todos os itens de ambas as provas sejam calibrados
cada um. Foram entao montados 26 cadernos, cada um composto por 3 blocos
distintos. Assim, cada aluno responde a 39 itens. E importante notar que
diferentes blocos nao tem itens comuns entre si, mas que diferentes cadernos
podem ou nao ter itens comuns: basta que tenham algum bloco em
comum. Concluindo, desta maneira foram aplicados diferentes tipos de provas
representados pelos 26 cadernos com itens comuns a um u nico grupo de
respondentes alunos da 3.a serie do Ensino Medio brasileiro.
O SAEB tambem e um bom exemplo pratico do que chamamos de provas
com itens nao apresentados. Podemos considerar que a prova e composta dos
169 itens, mas que apenas 39 sao submetidos a cada aluno. Consequentemente,
temos 130 itens que nao foram apresentados para cada aluno. Quando temos
provas com um n umero originalmente grande de itens, podemos resolver o
problema utilizando esquemas semelhantes ao usado no SAEB. Assim, o que
inicialmente poderia ser considerado como uma u nica prova, pode vir a ser
considerado como varias provas, se n
ao submetermos todos os itens a todos os
alunos.
tidos, uma vez que eles estarao em metricas diferentes. Neste caso, nao faz
sentido comparar os resultados destes dois grupos, assim como n ao faz sentido
comparar diretamente 40o C com 40o F . Assim como essas duas temperatu-
ras estao em escalas de medida diferentes, os parametros obtidos nestas duas
provas tambem estarao. A diferenca e que, no caso das temperaturas, h a uma
relacao conhecida entre as duas escalas, e assim, e possvel colocarmos uma
das temperaturas na mesma escala que a outra, possibilitando ent ao, a com-
paracao. Ja no caso das provas, n
ao existe nenhuma relac ao entre elas e nem
entre os dois grupos, que torne possvel a comparacao.
Um exemplo que ilustra esta situac ao seria a elaboracao de duas provas
distintas: uma, composta de 30 itens, seria aplicada `a 4.a serie diurna (po-
pulacao 1) e a outra prova, composta de 40 itens, seria aplicada `a 5.a serie
diurna (populacao 2) do Ensino Fundamental da rede p ublica estadual de Sao
Paulo. Estas duas provas poderiam ser calibradas separadamente e seus resul-
tados poderiam ser interpretados isoladamente dentro de cada serie, mas nao
poderamos comparar os resultados dos itens e nem das habilidades estimadas
para os indivduos das duas series.
2). Entre elas poderiam haver 10 itens comuns (por exemplo, 10 itens da ma-
triz curricular da 3.a serie). Desta maneira, no final do processo de estimac
ao
teramos todos os 50 itens numa mesma metrica, possibilitando comparac oes
entre alunos de 3.a e 4.a series, e tambem possibilitando a criac ao de uma
a a
escala de conhecimentoda 3. e da 4. serie nesta dada disciplina. Como ve-
remos no Captulo 6, esta escala possibilitaria a verificac
ao dos conte
udos que
os alunos destas duas series dominam, dos conte udos onde ha falhas, acompa-
nhar a evolucao do conhecimentode uma serie para outra, etc.
4.4 Equalizac
ao a posteriori
Ate aqui discutimos formas de equalizac ao entre 2 ou mais populac oes
feitas durante o proprio processo de estimac ao dos par ametros. Mas, tambem e
possvel fazer a equalizacao a posteriori, isto e, depois de terminado o processo
de calibracao dos itens. Basicamente, a equalizac ao a posteriori e feita da
seguinte maneira: calibra-se separadamente os dois conjuntos de itens, que
foram submetidos `as duas populac oes de interesse. Obviamente, a condic ao
necessaria e que hajam itens comuns entre os dois conjuntos. Assim, para os
1
bG1 = bG2 + e aG1 = aG2 , (4.1)
onde bG1 e bG2 sao os valores do parametro de dificuldade e aG1 e aG2 sao
os valores do parametro de discriminac ao nos grupos 1 e 2, respectivamente.
Uma vez determinados os coeficientes e , as estimativas dos parametros
dos itens do grupo 2 podem facilmente ser colocados na mesma escala das
estimativas do grupo 1.
Varios metodos, que se baseiam nessas relac oes lineares existentes entre os
parametros de um mesmo item medidos em escalas diferentes, poderiam ser
entao utilizados para determinar os coeficientes e . A soluc ao mais natural
pelo proprio tipo de relac ao existente entre os parametros seria determi-
nar esses coeficientes atraves de uma regressao linear simples. No entanto, a
crtica feita `a utilizacao desse metodo e que ele n
ao e simetrico, ou seja, uma
regressao de x por y e diferente de uma regressao de y por x.
Um dos metodos de equalizac ao a posteriori existentes que nao apresenta
esse problema, ou seja, e invariante (simetrico) em relac ao `as vari
aveis utili-
zadas, e denominado Media-Desvio (Mean-Sigma). O metodo Media-Desvio
utiliza:
SG1
= e = MG1 MG2 , (4.2)
SG2
onde SG1 e SG2 sao os desvios-padrao e MG1 e MG2 as medias amostrais das
estimativas dos parametros de dificuldade dos itens comuns nos grupos 1 e 2,
respectivamente. Da mesma forma, as habilidades dos respondentes do grupo
1
G2 = G2 + , (4.3)
1
onde G2 e o valor da habilidade G2 na escala do grupo 1. Maiores detalhes
sobre este e outros metodos de equalizacao, como por exemplo Media-Desvio
Robusto e Curva Caracterstica, podem ser encontrados em Kolen & Brennan
(1995).
Exemplificando, uma avaliacao feita no estado do Rio Grande do Norte
(ver Fundacao Carlos Chagas (1997)) utilizou alguns itens do SAEB 95, com
o intuito de colocar os resultados obtidos na mesma metrica do SAEB. As
Fuguras 4.2 e 4.3 mostram as relac oes entre as estimativas dos parametros a
e b nas duas avaliacoes, para a disciplina Lngua Portuguesa da 8.a serie do
Ensino Fundamental.
Figura 4.2 Gr
afico de dispers
ao das estimativas do parametro de dificuldade - b dos
itens comuns da prova de Lngua Portuguesa da 8.a serie entre o RN e o SAEB
3
8 srie - SAEB 95
0
-3 -2 -1 0 1 2 3 4 5
-1
-2
-3
8 srie - RN
3
8 srie - SAEB 95
0
0 1 2 3 4
8 srie - RN
SSAEB 1, 614
= = = 1, 462,
SRN 1, 104
1 1
aN
RN
OV O
= aRN = aRN ,
1, 462
bN
RN
OV O
= bRN + = 1, 462bRN 0, 126,
N OV O
RN = RN + = 1, 462RN 0, 126.
Uma u ltima observacao sobre equalizacao deve ser feita com relac
ao `
a quan-
tidade de itens comuns. Certamente, quanto maior o n umero de itens comuns,
melhor sera a qualidade da equalizac ao. Assim, o melhor caso de equalizac ao
entre dois grupos distintos e a situacao da Sec
ao 4.2.4, ou seja, quando trata-se
exatamente da mesma prova. No entanto, ja sabemos que nao e necessario que
todos os itens sejam comuns. O n umero mnimo de itens comuns necessario
para uma boa equalizacao entre duas populac oes depende basicamente de dois
fatores: do tipo de equalizacao que sera feita e da qualidadedesses itens
comuns.
Equalizacoes feitas durante o processo de calibrac ao, com os modelos para
duas ou mais populacoes que serao discutidos no proximo captulo, sao mais
eficazese portanto, exigem um n umero menor de itens comuns do que equa-
lizacoes feitas a posteriori. Alem disso, se os itens comuns utilizados na equa-
lizacao tiverem nveis de dificuldade baixos ou altos demais com relac ao `as po-
pulac oes envolvidas, ou entao se apresentarem baixo poder de discriminac ao,
havera necessidade de um n umero maior de itens.
Alguns autores tem sugerido pelo menos 6 itens comuns entre 2 provas de
30 itens, quando a equalizacao e feita durante a calibrac ao. Um estudo de si-
mulacao considerando diferentes situac oes de equalizacao pode ser encontrado
em Andrade (1999).
Estimac
ao: duas ou mais populac
oes
5.1 Introduc
ao
1
P (ukji = 1|kj ) = ci + (1 ci ) .
1+ eDai (kj bi )
5.2 Notaco
es e definic
oes
Embora tenhamos K testes, devemos notar que alguns itens estar ao em
dois ou mais testes. Por conta disso vamos fazer uma ordenac ao nos I itens
que compoem o conjunto dos K testes, representando-os por = ( 1 , , I )
e denotando por I k o conjunto dos ndices dos itens aplicados P ao grupo k.
Considerando Ik o n umero de itens no teste k, teremos que I K k=1 Ik . Se-
jam nk o n umero de indivduos do grupo k e n o n umero total de indivduos
na amostra. Sejam ainda, U kj. = (Ukj1 , Ukj2 , , UkjIk ) o vetor aleatorio de
respostas do indivduo j do grupo k; U k.. = (U 1.. , U 2.. , , U nk .. ) o vetor
aleatorio de respostas do grupo k e U ... = (U 1.. , U 2.. , , U n.. ) o vetor to-
tal de respostas. De forma similar, representaremos as respostas observadas
por ukji , ukj. , uk.. e u... . Com esta notac
ao e a independencia local, podemos
escrever a probabilidade associada ao vetor de respostas U kj. como
Y
P (ukj. |kj , ) = P (ukji |kj , i ).
iI k
1 = 0, 1 = 1. (5.1)
5.3 Estimac
ao dos par
ametros dos itens
Embora as equacoes de estimac ao a serem desenvolvidas nesta secao te-
nham como prioridades compor o conjunto das equac oes para estimac
ao con-
junta dos parametros dos itens e populacionais, cabe notar que elas tambem
poderao ser adotadas na situac
ao em que os parametros populacionais sao co-
nhecidos. Uma situacao dessas ocorre quando tais par ametros populacionais
foram estimados em outra an alise, talvez com um n umero de indivduos bem
maior, de forma que nao ha interesse na reestimac
ao desses parametros.
Com as notacoes definidas acima, temos que a probabilidade marginal de
U kj. e dada por
Z
P (ukj. |, k ) = P (ukj. |, , k )g(| k )d
IR
Z
= P (ukj. |, )g(| k )d,
IR
onde na u
ltima igualdade usamos que a distribuic
ao de U kj. n
ao e func
ao de
k .
Usando a independencia entre as respostas de diferentes indivduos, pode-
mos escrever a probabilidade associada ao vetor de respostas U ... como
nk
K Y
Y
P (u... |, ) = P (ukj. |, k ). (5.2)
k=1 j=1
Embora a verossimilhanca possa ser escrita como (5.2), tem sido freq
uente
utilizar a abordagem de Padr
oes de Resposta. Como temos Ik itens no teste
a Sk = 2Ik possveis
k, com duas possveis respostas para cada item (0 ou 1), h
respostas (padroes de resposta) associados a esse teste. Seja rkj o n umero
de ocorrencias distintas do padrao de resposta j no grupo k, e ainda sk
min(nk , Sk ) o n
umero de padrao de respostas com rkj > 0. Segue que
sk
X
rkj = nk . (5.3)
j=1
E, portanto, a log-verossimilhanca e
K
( ) sk
K X
X n ! X
log L(, ) = log Qsk k + rjk log P (ujk. |, k ). (5.5)
k=1 j=1 rjk ! k=1 j=1
log L(, )
= 0, i = 1, , I, (5.6)
i
com
log L(, ) sk
K X
X
= rjk log P (ukj. |, k )
i i
k=1 j=1
sk
K X
X 1 P (ukj. |, k )
= rjk
P (ukj. |, k ) i
k=1 j=1
sk
K X
X Z
Pi Wi
= rkj (ukji Pi ) Q gkj ()d, (5.7)
IR i Pi i
k=1 j=1
onde
P (ukj. |, )g(| k )
gkj () g(|ukj. , , k ) = . (5.8)
P (ukj. |, k )
log L(, )
=
ai
XK X sk Z
Pi Wi
= rkj (ukji Pi ) g ()d
IR ai Pi Qi kj
k=1 j=1
sk
K X
X Z
Wi
= rkj (ukji Pi )D(1 ci )( bi )Pi Qi gkj ()d
IR Pi Qi
k=1 j=1
sk
K X
X Z
= D(1 ci ) rkj [(ukji Pi )( bi )Wi ] gkj ()d.
k=1 j=1 IR
log L(, )
=
bi
XK X sk Z
Pi Wi
= rkj (ukji Pi ) Q gkj ()d
IR b i P i i
k=1 j=1
sk
K X
X Z
Wi
= rkj (ukji Pi )(1)Dai (1 ci )Pi Qi g ()d
IR Pi Qi kj
k=1 j=1
sk
K X
X Z
= Dai (1 ci ) rkj [(ukji Pi )Wi ] gkj ()d.
k=1 j=1 IR
Por u
ltimo, para o parametro de acerto ao acaso ci , usando tambem (3.10),
obtem-se
sk
K X
X Z
log L(, ) Pi Wi
= rkj (ukji Pi ) g ()d
ci IR ci Pi Qi kj
k=1 j=1
sk
K X
X Z
Wi
= rkj (ukji Pi )Qi g ()d
IR Pi Qi kj
k=1 j=1
sk
K X
X Z
Wi
= rkj (ukji Pi ) gkj ()d.
IR Pi
k=1 j=1
sk
K X
X Z
ai : D(1 ci ) rkj [(ukji Pi )( bi )Wi ] gkj ()d = 0, (5.9)
k=1 j=1 IR
sk
K X
X Z
bi : Dai (1 ci ) rkj [(ukji Pi )Wi ] gkj ()d = 0, (5.10)
k=1 j=1 IR
sk
K X
X Z
Wi
ci : rkj (ukji Pi ) gkj ()d = 0, (5.11)
IR Pi
k=1 j=1
5.4 Estimac
ao dos par
ametros populacionais
Novamente, embora as equacoes de estimacao a serem desenvolvidas nesta
secao tenham como prioridades compor o conjunto das equac oes para es-
timacao conjunta dos parametros dos itens e populacionais, cabe notar que
elas tambem poderao ser adotadas na situac ao em que os parametros dos
itens sao conhecidos.
Considerando a log-verossimilhanca obtida em (5.5), as equac oes de es-
ancias das populac
timacao para as habilidades medias e vari oes sao obtidas
por
sk
X Z
log L(, ) 1 g(| k )
= rjk P (ukj. |, ) d
k P (ukj. |, k ) IR k
j=1
Xsk Z
1 log g(| k )
= rjk P (ukj. |, ) g(| k )d
P (ukj. |, k ) IR k
j=1
Xsk Z
log g(| k )
= rjk gkj ()d.
IR k
j=1
log g(| k ) k
=
k k2
e
log g(| k ) k2 ( k )2
= .
k2 2k4
Assim, as formas finais das equacoes de estimacao sao
sk
X Z
k : (k2 )1 rkj
( k )gkj ()d = 0, (5.12)
j=1 IR
Xsk Z
2
k2 : (2k4 )1 rkj k ( k )2 gkj ()d = 0. (5.13)
j=1 IR
sk
X Z sk
X Z
0 = rkj gkj ()d
bk rkj gkj ()d
j=1 IR j=1 IR
Xsk sk
X
= rkj
bkj
bk rkj
j=1 j=1
Xsk
= rkj
bkj nk
bk ,
j=1
sk
1 X
bk = rkj
bkj . (5.16)
nk
j=1
sk
X Z sk
X Z
0 = bk2
rkj
gkj ()d rkj bk )2 gkj
(
()d
j=1 IR j=1 IR
sk
X sk
X Z Z
= bk2
rkj rkj ( bkj )2 gkj
d + (b
kj bk )2 gkj
()d
j=1 j=1 IR IR
sk
X 2
= bk2
nk rkj
bkj + (b bk )2 ,
kj
j=1
sk
1 X 2
bk2 =
rkj
bkj + (b bk )2 .
kj (5.17)
nk
j=1
sk sk sk
1 X 1 X 1 X
k. = rkj kj , 2k. = 2
rkj kj e 2
k. = rkj (kj k )2 ,
nk nk nk
j=1 j=1 j=1
2
bk.
bk = e b2k. + c
bk2 = k. , k = 2, , K. (5.18)
Estas expressoes nos permitem interpretac oes bastante intuitivas. Primeiro,
notemos que os somat orios nas definic
oes acima podem ser adaptados de forma
a considerar as respostas individuais ao inves dos padroes de respostas. Com
isso, o estimador para a habilidade media da populac ao k e a media obtida
com os estimadores das medias da distribuic ao condicional da habilidade, da-
dos os vetores de respostas individuais ukj. . Por outro lado, o estimador para
a variancia das habilidades da populac ao k n
ao e simplesmente a media entre
estimadores das variancias da distribuic ao condicional da habilidade, dados os
vetores de respostas individuais ukj. . Existe tambem uma outra contribuic ao
relativa `a variabilidade entre os estimadores das medias da distribuic ao con-
dicional da habilidade com relac ao ao estimador da media populacional asso-
ciada.
5.4.1 Estimac
ao conjunta: aplicac
ao do algoritmo EM
De forma similar ao que foi feito na Sec
ao 3.5.5, podemos escrever a equac
ao
de estimacao para i como
K Z
X
Pi Wi
i : (rki () Pi fki ()) d = 0, (5.19)
IR i Pi Qi
k=1
onde
sk
X sk
X
fki () = rkj gj ()e rki () =
rkj ukji gkj ()
j=1 j=1
representam, respectivamente, o n umeros de indivduos do grupo k com habi-
lidade respondendo ao item i e o n umeros destes indivduos que respondem
corretamente ao item i. Novamente, as integrais sao aproximadas atraves de
quadratura Gaussiana. Fixados os q n os kl e os pesos Akl , l = 1, , q, k =
1, , K, e com estimativas iniciais dos parametros dos itens, b , i = 1, , I,
i
as equacoes (5.18) podem ser resolvidas diretamente para obtenc ao das esti-
mativas desejadas. A estimacao e feita em separado para cada item, e por isso
poderemos utilizar o desenvolvimento da Sec ao 3.2. Reformulando-se os passos
do algoritmo EM descritos na Sec ao 3.5.3, para a situac
ao de duas ou mais
populacoes, teremos
Passo E
1. Usar os pontos de quadratura kl , os pesos Akl , l = 1, , q e
estimativas iniciais dos parametros dos itens , i , i = 1, , I, e
dos parametros populacionais, k e k2 , k = 1, , K, para gerar
( ) e, posteriormente, r
gkj kl kli e f kli , i = 1, , I e k = 1, , q.
q
K X
X
h( i ) = (rkli fkli Pkli )Wkli hkli ,
k=1 l=1
XK X q
H( i ) = (rkli fkli Pkli )Wkli H kli (rkli fkli Pkli )Wkli hkli h0kli ,
k=1 l=1
q
K X
X
( i ) = Pkli Qkli Wkli hkli h0kli .
k=1 l=1
5.5 Estimac
ao bayesiana dos par
ametros dos itens
K Z
X
1 log ai a
ai : D(1 ci ) ( bi ) [rki () Pi fki ()] Wi d 1+ = 0,
IR ai a2
k=1
K Z
X (bi b )
bi : Dai (1 ci ) [rki () Pi fki ()] Wi d = 0,
IR b2
k=1
K Z
X Wi 2 2
ci : [rki () Pi fki ()] d + = 0.
IR Pi ci 1 ci
k=1
As derivadas segundas destas expressoes sao facilmente obtidas pela Sec ao 3.2
e por (3.101). A aplicacao do algoritmo EM se da de forma identica `a estimac
ao
por MVM, delineada na secao anterior.
5.6 Estimac
ao das habilidades
Uma etapa que pode ser considerada opcional e a estimac ao das habili-
dades. Talvez o interesse da an alise se concentre apenas na estimac ao dos
parametros dos itens e populacionais, sem relevar a estimac ao das habilida-
des. Em caso contrario, as habilidades podem ser estimadas por MV, como
descrito na Secao 3.3, ou de forma bayesiana, como descrito na Sec ao 3.6.2.
Devido a presenca de varios grupos na analise, as expressoes para obtenc
ao das
habilidades sao ligeiramente modificadas, e por isso as apresentaremos nesta
secao.
Vale ressaltar que em todos os metodos de estimac ao descritos abaixo, con-
sideraremos fixos os parametros dos itens e os populacionais.
5.6.1 Estimac
ao por MV
Neste caso, a estimacao das habilidades e feita iterativamente pelo algo-
(t)
ritmo Newton-Raphson ou metodo Scoringde Fisher. Considerando bkj uma
estimativa de kj na iteracao t, ent
ao na iterac
ao t + 1 teremos que
onde
X
H(kj ) = (ukji Pkji )Wkji Hkji (ukji Pkji )Wkji h2kji ,
iI k
X
(kj ) = Pkji Qkji Wkji h2kji .
iI k
5.6.2 Estimac
ao por MAP
A estimacao pelo maximo da posteriori (MAP) tambem e obtida iterativa-
mente pela aplicacao de (5.20), com
X 1
H(kj ) = (ukji Pkji )Wkji Hkji (ukji Pkji )Wkji h2kji 2 , (5.21)
k
iI k
onde hkji e Hkji sao dados por (3.42) e (3.43), respectivamente, com j subs-
tituda por kj . Para aplicarmos o metodo Scoringde Fisher, devemos tomar
a esperanca da expressao acima, resultando em
X 1
(kj ) = Pkji Qkji Wkji h2kji . (5.22)
k2
iI k
5.6.3 Estimac
ao por EAP
A estimacao de kj pela media da posteriori (EAP) consiste em obter a
esperanca da posteriori, que pode ser escrita como
P (ukj. |, )g(| k )
g(|ukj. , , k ) = . (5.23)
P (ukj. |, k )
R
b g(| k )P (ukj. |, )d
kj E[|ukj. , , k ] = RIR . (5.24)
IR g(| k )P (ukj. |, )d
6.1 Introduc
ao
Neste captulo vamos descrever os procedimentos para a construc ao de es-
calas de habilidade e em seguida iremos ilustrar como e feita sua interpretac
ao
atraves de uma aplicacao pratica da TRI na
area de avaliac
ao da aprendiza-
gem.
6.2 Construc
ao e interpretac
ao de escalas de habili-
dade
Uma vez que todos os parametros dos itens e que todas as habilidades dos
respondentes tanto individuais como populacionais de todos os grupos
avaliados estao numa mesma metrica, ou seja, quando todos os parametros
envolvidos sao comparaveis, pode-se ent ao construir escalas de conhecimento
interpretaveis.
Devido `a natureza arbitraria das estimativas dos parametros dos itens e
das habilidades, ja comentada anteriormente, sabemos que podemos comparar
entre si as habilidades obtidas para os diferentes respondentes, mas que no
entanto, elas nao possuem de per si qualquer significado pratico em termos
pedagogicos. Assim, a menos que efetue-se uma ligac ao desses valores com os
conteudos envolvidos na avaliacao, pode-se dizer apenas que um indivduo com
habilidade 1,80 na escala (0,1) deve possuir um conhecimento muito maior do
conteudo avaliado do que um indivduo com habilidade -0,50, e tambem que
o primeiro indivduo tem uma habilidade 1,80 desvios-padrao acima da media
da populacao avaliada enquanto que o segundo tem habilidade 0,50 desvios-
110 A Escala de Habilidade e uma Aplica
cao Pr
atica
padrao abaixo da media dessa mesma populac ao. Por outro lado, nao podemos
afirmar nada a respeito do que o indivduo com habilidade 1,80 sabe a mais
do que aquele com habilidade -0,50.
Estes fatos motivaram entao a criac ao de escalas de conhecimento tambem
chamadas de escalas de habilidade , que tornam possvel a interpretac ao pe-
dagogica dos valores das habilidades. Essas escalas s ao definidas por nveis
ancora, que por sua vez sao caracterizados por conjuntos de itens denomina-
dos itens ancora. Nveis ancora sao pontos selecionados pelo analista na escala
da habilidade para serem interpretados pedagogicamente. Ja os itens ancora
sao itens selecionados, segundo a definic ao dada abaixo, para cada um dos
nveis ancora.
Definic
ao de item
ancora: Considere dois nveis ancora consecutivos Y e Z
com Y < Z. Dizemos que um determinado item e ancora para o nvel Z se e
somente se as 3 condic
oes abaixo forem satisfeitas simultaneamente:
1. P (U = 1| = Z) 0, 65 e
2. P (U = 1| = Y ) < 0, 50 e
3. P (U = 1| = Z) P (U = 1| = Y ) 0, 30
a0 = 1, 52 , b0 = 0, 47 e c0 = 0, 13
a2 = 1, 97 , b2 = 1, 50 e c2 = 0, 13.
0,9
0,8
0,7
Item 0 Item 2
0,6
0,5
0,4
0,3
0,2
0,1
0,0
-3 -2 -1 0 1 2 3
habilidade
A partir das expressoes abaixo, pode-se verificar que os dois itens satisfazem
a definicao de item ancora:
(i) P (U0 = 1| = 0) = 0, 80 0, 65
(ii) P (U0 = 1| = 1) = 0, 31 < 0, 50
(iii) P (U0 = 1| = 0) P (U0 = 1| = 1) = 0, 80 0, 31 = 0, 49 0, 30
(i) P (U2 = 1| = 2) = 0, 86 0, 65
(ii) P (U2 = 1| = 1) = 0, 27 < 0, 50
(iii) P (U2 = 1| = 2) P (U2 = 1| = 1) = 0, 86 0, 27 = 0, 59 0, 30.
A priori, nao se pode ter certeza de quantos itens ancoras serao selecionados
para cada nvel ancora e nem se existirao no teste aplicado itens ancoras para
todos os nveis ancora determinados. Por isto, e fundamental que os nveis
ancoras sejam escolhidos nao muito proximos uns dos outros e tambem que
o n umero de itens aplicados seja bastante grande de modo a possibilitar a
construcao e interpretac ao da escala de habilidade. No SAEB por exemplo,
foram aplicados 130 itens para cada uma das disciplinas avaliadas na 4.a serie
do Ensino Fundamental e 169 itens de cada uma das disciplinas da 8.a serie
do Ensino Fundamental e tambem da 3.a serie do Ensino Medio. Como ja
foi comentado anteriormente, essa quantidade de itens foi aplicada visando
cobrir amplamente a grade curricular de cada uma das series nas disciplinas
avaliadas e tambem propiciou a identificac ao e caracterizac
ao de diversos nveis
ancora para a construc ao das escalas de habilidades. Maiores detalhes sobre
construcao e interpretac
ao de escalas de habilidade poder ao ser encontrados
em Beaton & Allen (1992).
segunda composta de itens que haviam sido submetidos ` a 7.a e `a 8.a series.
Essas duas provas adicionais foram aplicadas no final do ano de 1997, a uma
amostra de alunos da 3.a e da 7.a series, respectivamente. Cabe ressaltar, que
estes dois grupos adicionais foram introduzidos no estudo com o u nico objetivo
de possibilitar a equalizacao, nao havendo nenhum interesse em estudar o
desempenho destas populacoes.
A partir destas provas de ligacao foi possvel a criacao de uma escala u nica
para as series consecutivas, permitindo assim a comparac ao dos resultados e a
ao de escalas de conhecimento interpretaveis. No SARESP essas escalas
criac
foram construdas para as disciplinas Lngua Portuguesa e Matematica, por
serem as u nicas disciplinas avaliadas em todas as series, todos os anos.
Vamos descrever mais detalhadamente esse processo usando como exemplo
as provas de Lngua Portuguesa da 3.a e 4.a series.
28 itens 30 itens
11 itens
21 itens
prova de ligao
3. srie de 1997
ligacao foi a 3.a serie de 1997, pois como ja foi dito, os itens das provas da 3.a
serie de 96 e da 4.a serie de 97 foram elaboradas com base nos conte udos dos
anos anteriores, ou seja, eram referentes aos conte udos do Ciclo Basico e da
3.a serie, respectivamente. Como a prova de ligac ao foi aplicada no final do
ano letivo de 1997, a serie mais indicada para ser submetida a tal prova era,
portanto, a 3.a serie.
Todos os 58 itens, respondidos pelos alunos das 3 populac oes envolvidas
foram entao calibrados simultaneamente, atraves do modelo de 3 populac oes
discutido no Captulo 5. Foram utilizados procedimentos bayesianos para a
estimacao dos parametros dos itens e das habilidades. Assim, foram conside-
radas distribuicoes a priori para cada um dos par ametros dos itens e tambem
distribuicoes normais padrao a priori, para cada uma das populac oes envolvi-
das. O grupo submetido `a prova de ligac ao (3.a serie de 97) foi considerado
a populacao de referencia. Portanto, as outras series foram posicionadas em
relac
ao `a ela. No final do processo de estimacao, foram fornecidas as estimati-
vas das distribuicoes a posteriori, para cada uma das populac oes.
Cabe ressaltar novamente que n ao havia interesse em estudar o desempenho
dos alunos submetidos `a prova de ligac ao, ou seja, ao grupo da 3.a serie de 97. O
numero de alunos que fizeram essa prova foi apenas o suficiente para atender `as
exigencias da TRI, no que se refere ao n umero mnimo de sujeitos necessarios
para obter-se boas estimativas dos parametros dos itens. As Figuras 6.2 e
6.3 ilustram a forma dessas distribuic oes, obtidas para as duas populac oes de
interesse. Para a construcao desses graficos foi utilizada uma amostra de 2059
alunos da 3.a serie de 1996 e 1989 alunos da 4.a serie de 1997.
-4,0 -3,0 -2,0 -1,0 0,0 1,0 2,0 3,0 4,0 5,0
-4,0 -3,0 -2,0 -1,0 0,0 1,0 2,0 3,0 4,0 5,0
6.3.4 Interpreta
c
ao dos resultados
N
vel 60 - L
ngua Portuguesa
Nessa nova equalizacao, os itens da 3.a serie nao precisaram mais entrar na
prova de ligacao, pois a 3.a e a 4.a series ja haviam sido colocadas na mesma
metrica. Na verdade, agora e como se fossemos apenas colara 5.a serie nas
series anteriores. Assim, essa segunda equalizac ao foi realizada de uma ma-
neira bastante distinta da primeira. Os itens calibrados no ano anterior foram
Recursos computacionais
7.1 Introduc
ao
Sem d uvida alguma, o crescimento e a divulgacao da TRI sempre estiveram
intimamente ligados ao desenvolvimento paralelo de recursos computacionais
que viabilizassem sua utilizacao. Isto porque as ferramentas matematicas ne-
cessarias para sua aplicacao sao muito mais complexas do que as tecnicas
empregadas na Teoria Classica de Medidas.
Desde suas primeiras aplicacoes, pesquisadores tem desenvolvido seus pr o-
prios programas computacionais, mas e certo que sua utilizac
ao em larga escala
depende diretamente da disponibilidade de programas computacionais comer-
ciais no mercado. Na Europa e nos Estados Unidos, desde a decada de 70
foram lancados varios programas especficos para analise via TRI. Aqui no
Brasil, onde a utilizacao da TRI e bem mais recente, ha uma variedade bem
menor de programas computacionais comerciais sendo usados.
Neste captulo, vamos comentar os programas computacionais comerciais
mais usados atualmente no Brasil e que se prop oem a resolver, na pratica,
muitos dos problemas abordados pela TRI e que foram descritos nos captulos
anteriores.
o caso dos itens, quando sao considerados como certo ou errado), est ao im-
plementados neste programa. Uma delas e a analise fatorial feita a partir da
matriz de correlacao tetracorica, que e um tipo especial de correlac
ao, utili-
zada quando as variaveis assumem apenas os valores 0 ou 1 (ver Divgi (1979)).
A outra tecnica implementada e a analise fatorial plena, baseada no metodo
de maxima verossimilhanca (ver Mislevy (1986b)).
Para a analise de itens nao dicotomicos, podemos citar o programa PARS-
CALE (ver Muraki & Bock (1997)), que tem implementados os modelos de
Resposta Gradual e de Creditos Parciais, descritos no Captulo 2. Em sua
versao mais recente, e possvel fazer analises para mais de um grupo de res-
pondentes.
Dos programas disponveis no mercado, os que sao atualmente mais utiliza-
dos nas analises envolvendo a TRI - aqui no Brasil - sao o BILOG (ver Mislevy
& Bock (1990) e o BILOG-MG (ver Zimowski et al. (1996)). Estes dois pro-
gramas sao especficos para analises via TRI de itens dicot
omicos ou dicotomi-
zados e ambos tem implementados os modelos unidimensionais logsticos de 1,
2 e 3 parametros. A diferenca basica entre eles e que o BILOG-MG permite a
analise de mais de um grupo de respondentes, enquanto que o BILOG permite
apenas analisar respondentes considerados como provenientes de uma u nica
populacao.
Vamos comentar a seguir quais dos metodos de estimac ao descritos nos
Captulos 3 e 5 estao implementados nestes dois programas e tambem dar
uma enfase especial ao desempenho deles perante as diversas situac oes que
envolvem equalizacoes, descritas no Captulo 4.
7.2.2 M
etodos para a calibrac
ao dos itens
Como foi dito na sec ao anterior, esses dois programas realizam inicialmente
a calibracao (estimacao dos parametros) dos itens e depois a estimac ao das ha-
bilidades dos respondentes. Dois metodos de estimac ao para os parametros dos
itens estao implementados, tanto no BILOG, como no BILOG-MG: maxima
verossimilhanca marginal e um metodo bayesiano de estimac ao por maxi-
mizacao da distribuicao marginal a posteriori.
Assim, como foi descrito nos Captulos 3 e 5, para que os parametros dos
itens possam ser estimados atraves de qualquer um desses dois metodos, e
necessaria a utilizacao de distribuic
oes de probabilidade para as habilidades
dos respondentes. Esses programas assumem que os respondentes representam
uma amostra aleatoria de uma populac ao de habilidades que pode ser assumida
como tendo ou uma distribuic ao normal padrao, ou uma distribuic ao discreta
arbitrariamente especificada pelo usu ario, ou ainda uma distribuicao emprica,
a ser estimada conjuntamente com os parametros dos itens. Esta distribuic ao
emprica e representada na forma de uma distribuic ao discreta, atraves de
pontos de quadratura.
No caso de mais de um grupo de respondentes, quando usamos o BILOG-
MG, ao final do processo de calibrac ao dos itens sao fornecidas tambem esti-
mativas da media e desvio-padrao da distribuic ao de habilidades a posteriori
para cada populacao.
Tambem, como ja foi citado nos captulos sobre estimac ao, na estimac ao
por maximizacao da distribuic ao marginal a posteriori, distribuic oes a priori
sao definidas para os parametros dos itens. No caso desses dois programas,
o usuario pode especificar prioris normais para o parametro de dificuldade,
prioris log-normais para os parametros de discriminac ao e prioris beta para o
parametro de acerto casual.
O BILOG e o BILOG-MG utilizam duas formas de resolver as equac oes de
verossimilhanca marginal: o algoritmo EM e o metodo Scoringde Fisher.
7.2.3 M
etodos implementados para a estimac
ao das habilidades
Uma vez terminada a calibrac ao dos parametros, sera feita a estimac
ao
das habilidades dos respondentes. O BILOG e o BILOG-MG tem implemen-
tados os metodos de estimac
ao por maxima verossimilhanca, por esperanca a
7.3 A equalizac
ao nos programas BILOG e BILOG-
MG
Quando desejamos que a equalizac ao seja feita durante o processo de cali-
bracao dos itens, o uso de programas computacionais especificamente desenvol-
vidos para esse fim sao uma ferramenta bastante importante. O BILOG-MG
e um bom exemplo de um programa que pode ser utilizado na maioria dos
casos descritos no Captulo 4. Nesta sec ao, vamos ent ao descrever quando e
possvel sua utilizacao em cada um daqueles casos e em quais deles o BILOG
tambem pode ser usado. Os casos 1 a 6 tratam, respectivamente, das situac oes
descritas nas Secoes 4.2.1 a 4.2.6 do Captulo 4. Ja os casos (a) a (c) tratam,
respectivamente, das situac oes descritas nas Sec
oes 4.3.1 a 4.3.3.
Caso 1: Aqui temos um u nico grupo fazendo uma u nica prova. Por se tratar
do caso mais basico, em que nao se faz necessario nenhum tipo de equalizacao,
podemos utilizar qualquer um dos programas computacionais disponveis que
tratam da TRI, inclusive o BILOG e o BILOG-MG.
Caso 2: Aqui temos um u nico grupo fazendo duas provas totalmente di-
ferentes. Por se tratar de um caso de equalizac ao via populac ao, basta que
todos os itens de ambas as provas sejam calibrados simultaneamente. Para
tanto, devemos fazer apenas uma ligeira alterac ao nos modelos ja propostos,
incorporando a informac ao da prova a que cada aluno foi submetido, uma vez
que a cada prova esta associado um conjunto de itens distintos. Este tambem
e um caso bastante comum que a maioria dos programas computacionais para
analise via TRI e capaz de resolver. No BILOG-MG est a situac
ao e tratada
sem maiores problemas. Ja no BILOG, h a uma limitac
ao tecnica: as respostas
dos alunos devem estar ja corrigidas (codificadas com 0 ou 1), para que nao
haja necessidade de utilizar os gabaritos das provas, uma vez que o programa
nao consegue ler 2 tipos de gabaritos distintos.
Caso 4: Aqui temos dois grupos fazendo uma mesma prova. Por se tratar
de uma situacao onde se faz necessaria uma equalizacao via itens comuns, este
caso necessita de programas computacionais para analise via TRI que tenham
implementados modelos para mais de um grupo. O BILOG, por exemplo, n ao
comporta esse tipo de problema, enquanto que o BILOG-MG foi especialmente
desenvolvido para modelar esse tipo de situac ao. Se so dispusessemos do BI-
LOG, uma alternativa seria calibrar as provas dos dois grupos separadamente,
e depois realizar uma equalizacao a posteriori, como foi descrito no Captulo 4.
Nesse caso, como todos os itens sao comuns, metodos de equalizac ao a posteri-
ori, como o metodo Media-Desvio, produzem resultados bastante satisfatorios,
quando comparados `a equalizacao feita durante o processo de calibrac ao dos
itens (ver Andrade (1999), por exemplo).
Caso 5: Aqui temos dois grupos fazendo duas provas totalmente diferentes.
Como ja foi explicado no Captulo 4, nao ha nenhuma maneira de tornar
comparaveis os resultados desses dois grupos.
Caso 6: Aqui dois grupos sao submetidos a duas provas diferentes, mas que
tem alguns itens comuns. Assim como no Caso 4, esta e uma situac ao tpica
para ser abordada no BILOG-MG, utilizando-se um modelo para mais de uma
populacao e, portanto, nao e possvel o uso do BILOG. Como ja foi citado no
caso 3, devemos apenas ter o cuidado de n ao considerar duas vezes os itens
repetidos. Assim como foi comentado no Caso 4, aqui tambem pode-se resolver
o problema atraves de uma equalizac ao a posteriori. No entanto, o desempenho
desse tipo de equalizacao torna-se bastante inferior `a equalizac
ao feita durante
o processo de calibracao se o numero de itens comuns for pequeno.
Caso (b): todos os itens ja sao calibrados. Se nao desejamos calibrar ne-
nhum dos itens, estamos interessados apenas em estimar as habilidades dos
respondentes. Este problema pode ser resolvido de maneira relativamente sim-
ples atraves dos programas BILOG e BILOG-MG, sendo necessario apenas
fornecermos um arquivo contendo as estimativas dos par ametros de interesse.
No entanto, cabe aqui uma observac ao: quando se utilizar o BILOG ou o
BILOG-MG e sempre recomendavel utilizar as estimativas dos parametros na
escala original, isto e, como foram fornecidas pelo programa, sem que te-
nham sofrido nenhum tipo de transformac ao linear. Isto porque, quando se
utiliza os metodos EAP ou MAP para estimar as habilidades dos responden-
tes, faz-se necessario o uso de uma distribuicao a priori para a habilidade de
cada um desses respondentes, e o padr ao desses programas e utilizar a distri-
buicao normal padrao ou outras distribuic
oes discretas, mas sempre com media
e desvio-padrao nas vizinhancas dos valores 0 e 1, respectivamente. Assim, se
por exemplo, a metrica da populac ao em que os par ametros foram estima-
dos tiver sido transformada para (200,40), havera problemas na estimac ao das
habilidades dos novos respondentes.
Caso (c): alguns itens s aonovose outros ja estao calibrados. Neste caso,
desejamos calibrar alguns itens e manter os par ametros de outros, que ja foram
calibrados anteriormente. Para que possamos fixar par ametros de alguns itens
e calibrar o restante utilizando o BILOG e o BILOG-MG, deveremos neces-
sariamente utilizar um metodo de estimac ao bayesiano, uma vez que o u nico
procedimento disponvel nesses programas para fixar apenas parte dos itens,
e o uso de distribuicoes a priori convenientes para os parametros desses itens.
Para os itens novos, que desejamos calibrar, utilizamos as prioris padrao su-
geridas pelo programa. J a para os outros itens, definimos prioris cujas medias
sao os proprios valores dos parametros que desejamos fixar e cujos desvios-
padrao sao tao pequenos que a distribuicao torna-se praticamente degenerada
naquele ponto. O que ocorre na pr atica e que todos os parametros sao estima-
dos novamente, mas a convergencia daqueles itens conhecidos e artificialmente
induzida para os valores que desejamos. Pode-se tambem reforcarainda mais
a convergencia utilizando-se outro recurso do programa, que e a definic ao, por
parte do usuario, de valores iniciais convenientes. Mas, o uso deste tipo de pro-
cedimento pode acarretar alguns problemas. Por exemplo, se n ao utilizarmos
novamente o mesmo grupo de respondentes da calibrac ao inicial, poderemos ter
problemas para obter a convergencia nessa segunda calibrac ao. E, na pratica,
muitas vezes nao dispomos do conjunto original de respondentes para juntar-
mos aos respondentes da nova aplicac ao. E devemos ressaltar que estamos nos
referindo ao caso em que ha uma u nica populacao sendo submetida a uma
u
nica prova. O problema se torna ainda mais complexo, no caso de termos
mais de uma populacao envolvida (comentaremos essa situac ao a seguir).
!
Considerac
oes gerais
A.1 Express
oes da p
agina 40
Para chegarmos `as expressoes de H( i ) e h( i ) usadas em (3.25), notemos
que de (3.22),
n
( 2 )
log L() X uji Pji Pji uji Pji 2 Pji Pji 0
= .
i 0i j=1
Pji Qji i 0i Pji Qji i i
(A.1)
Porem,
D(1 ci )(j bi )
Pji
hji = (Pji Qji )1 = Dai (1 ci ) ,
i 1
Pji
2 Pji
H ji = (Pji Qji )1
i 0i
D2 (1 ci )(j bi )2 (1 2Pji ) . .
= D(1 ci ){1 + Dai (j bi )(1 2Pji )} D2 a2i (1 ci )(1 2Pji ) . .
D(j bi ) Dai 0
log L()
h( i )
i
n
( )
X Wji
= (uji Pji ) (Pji Qji )hji
Pji Qji
j=1
Xn
= (uji Pji )Wji hji . (A.8)
j=1
Retornando a (A.1),
log L()
H( i )
i 0i
n
( 2 )
X uji Pji uji Pji
= (Pji Qji )H ji (Pji Qji )2 hji h0ji
Pji Qji Pji Qji
j=1
n
X
= (uji Pji )Wji H ji (uji Pji )Wji hji h0ji . (A.9)
j=1
A.2 Express
oes da p
agina 46
Para chegarmos `as expressoes de H(j ) e h(j ) usadas em (3.40), notemos
que de (3.35),
I
( 2 !)
2 log L() X uji Pji Pji uji Pji Pji
2 = +
j i=1
j Pji Qji j Pji Qji j2
I
( 2 ! )
X uji Pji Pji uji Pji 2 Pji 2
= 2 (. A.10)
Pji Qji j Pji Qji j
i=1
2 Pji
= D2 a2i (1 ci )Pji Qji (1 2Pji ). (A.11)
j2
Sejam
Pji
hji = (Pji Qji )1 = Dai (1 ci ), (A.12)
j
!
2 Pji
Hji = (Pji Qji )1 = D2 a2i (1 ci )(1 2Pji ). (A.13)
j2
log L()
h(j )
j
I
( )
X Wji
= (uji Pji ) (Pji Qji )hji
Pji Qji
i=1
XI
= (uji Pji )Wji hji .
i=1
Retornando a (A.10),
log L()
H(j )
j2
I
( )
X uji Pji uji Pji 2 2 2
= (Pji Qji )Hji (Pji Qji ) hji
Pji Qji Pji Qji
i=1
I
X
= (uji Pji )Wji Hji (uji Pji )Wji h2ji . (A.14)
i=1
A.3 Express
oes da p
agina 59
b e hP I ( ) usadas em (3.72), co-
Para chegarmos `as expressoes de H P I () i
mecemos adotando a notac
ao
Wi (uji Pi )
vji = (uji Pi ) = .
Pi Qi Pi Qi
Segue, de (3.55) e (3.62), que
P (uj. |, ) Pi
= vji P (uj. |, ). (A.15)
i i
Z
P (uj. |, )/ i Pi
hi(j) = vji gj ()d. (A.16)
P (uj. |, ) IR i
Z
2 P (uj. |, ) Pi 0
= vji P (uj. |, )g(|)d
i 0i i IR i
Z
Pi 0
= vji P (uj. |, ) g(|)d. (A.17)
IR i i
Pi 0
vji P (uj. |, ) =
i i
Pi 0 P (uj. |, ) Pi 0
= vji P (uj. |, ) + vji
i i i i
0 2
2 Pi Pi Pi 2 Pi Pi 0
= vji + vji P (uj. |, ) + vji P (uj. |, )
i i i 0i i i
2
Pi
= vji P (uj. |, )
i 0i
Z
2 P (uj. |, ) 2 Pi
= vji P (uj. |, )g(|)d.
i 0i IR i 0i
Z
2 P (uj. |, )/( i 0i ) 2 Pi
H ii(j) = vji gj ()d. (A.18)
P (uj. |, ) IR i 0i
Z
2 P (uj. |, ) Pi 0
= vji P (uj. |, )g(|)d
l 0i l IR i
Z
P (uj. |, ) Pi 0
= vji g(|)d
IR l i
Z
Pl Pi 0
= vji vjl P (uj. |, )g(|)d
IR l i
Z 0
2 P (uj. |, )/( l 0i ) Pl Pi
H il(j) = vji vjl gj ()d
P (uj. |, ) IR l i
(A.19)
D(1 ci )( bi )
Pi
hi = (Pi Qi )1 = Dai (1 ci ) ,
i 1
Pi
2 Pi
H ii = (Pi Qi )1
i 0i
D2 (1 ci )( bi )2 (1 2Pi ) . .
= D(1 ci ){1 + Dai ( bi )(1 2Pi )} D2 a2i (1 ci )(1 2Pi ) .
D( bi ) Dai 0
e, para i 6= l,
0
Pi Pl
H il = hi h0l = (Pi Qi )1 (Pl Ql )1
i l
D2 (1 c )(1 c )( b )( b ) D 2 al (1 ci )(1 cl )( bi ) D(1 ci )( bi )/Pl
i l i l
= D 2 ai (1
ci )(1 cl )( bl ) D2 ai al (1 ci )(1 cl ) Dai (1 ci )/Pl .
D(1 cl )( bl )/Pi Dal (1 cl )/Pi [Pi Pl ]1
Retornando a (A.18), temos que a primeira parcela de (3.71) pode ser rees-
crita como
Z
H ii(j) = (uji Pi )Wi H ii gj ()d
IR
e, para i 6= l,
Z
H il(j) = (uji Pi )(ujl Pl )Wi Wl H il gj ()d (A.20)
IR
2 log L(, )
H( i , l ) =
l 0i
X n
s o
= rj H il(j) hi(j) h0l(j) . (A.21)
j=1
h( 1 ) H( 1 , 1 ) H( 1 , I )
hP I () = ... e H P I () = ..
.
..
.
..
. .
h( I ) H( I , 1 ) H( I , I )
[10] Birnbaum, A. (1957). Efficient design and use of tests of a mental ability
for various decision-making problems, ( Series Report No. 58-16. Project
No. 7755-23). USAF School of Aviation Medicine, Texas: Randolph Air
Force Base.
[11] Birnbaum, A. (1968). Some Latent Trait Models and Their Use in Infering
an Examinees Ability. In F.M. Lord & M.R. Novick. Statistical Theories
of Mental Test Scores. Reading, MA:Addison-Wesley.
[12] Bock, R. D. (1972). Estimating item parameters and latent ability when
responses are scored in two or more nominal categories. Psychometrika,
37, 29-51.
[24] Goldstein, H. and Wood, R. (1989). Five decades of item response mo-
delling. British Journal of Mathematical and Statistical Psychology, 42,
139-167.
[27] Gulliksen, H. (1950). Theory of Mental Tests. New York : John Wiley
and Sons.
[30] Hambleton, R.K. and Cook, L.L. (1997). Latent trait models and their
use in the analysis of educational test data. Journal of Educational Mea-
surement, 14, 75-96.
[47] Masters, G. N. (1982). A Rasch model for partial credit scoring. Psycho-
metrika, 47, 149-174.
[55] Mislevy, R. J. and Bock, R. D. (1990). BILOG 3 : Item Analysis and Test
Scoring with Binary Logistic Models. Chicago : Scientific Software, Inc.
[57] Muraki, E. and Bock, R. D. (1997). PARSCALE : IRT Based Test Scoring
and Item Analysis for Graded Open-Ended Exercices and Performance
Tasks. Chicago : Scientific Software, Inc.
[61] Novick, M. R. (1966). The axioms and principal results of classical test
theory. Journal of Mathematical Psycology, 3,1-18.
[62] Rao, C. R. (1973). Linear Statistical Inference and Its Applications. New
York: Wiley & Sons.
[63] Rasch, G. (1960). Probabilistic Models for Some Intelligence and Attain-
ment Tests. Copenhagen : Danish Institute for Educational Research.
[73] Tennant, A., Hillman, M., Fear, J., Pickering, A. and Chamberlin, M.
A. (1996). Are we making the most of the stanford health assessment
questionnaire? Brit. J. Rheum., 35, 574-578.