Escolar Documentos
Profissional Documentos
Cultura Documentos
NOTAS DE CLASE
26 de agosto de 2016
2
Contenido
1. Introduccin 1
1.1. Motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Y1 . . . . . . . . . . . . . . . .
1.3.1. Distribucin condicional de Y 2 |Y 22
1.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2. Distribuciones muestrales 25
2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
i
ii CONTENIDO
3.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5. Modelos de regresin 55
5.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Introduccin
1.1. Motivacin
En muchas reas de la estadstica aplicada, gran parte del anlisis de los datos
se hace bajo la teora de los modelos lineales y no lineales; en este tipo de estudio
se busca determinar la relacin entre una variable respuesta (Y ) y un conjunto de
variables asociadas (variables explicativas, X1 , . . . , Xp ). Si existe esta relacin, sta
por lo general es desconocida, pero usualmente asume una forma particular la cual se
conoce como modelo postulado o propuesto. En esta lnea de trabajo se incluyen reas
tales como: anlisis de series de tiempo, anlisis multivariado, anlisis de regresin,
anlisis longitudinales de datos, anlisis de datos categricos, anlisis de varianza y
modelos jerrquicos, entre otros.
Las reas de regresin (donde por lo general hay una medicin en escala continua)
y anlisis de la varianza (donde los factores de clasificacin generalmente se miden en
escala discreta) constituyen los tpicos ms usados por los investigadores que traba-
jan en investigacin aplicada, motivados tal vez por la relativa facilidad en el anlisis
y en la interpretacin de la informacin. Sin embargo, los desarrollos relativamente
recientes de los modelos lineales generalizados, los modelos de sobredispersin y los
modelos generalizados mixtos, permiten el abordaje de datos de conteo, de escala de
proporcin continua, de escala ordinal, entre otras.
1
2 CAPTULO 1. INTRODUCCIN
Las bases tericas de estos modelos las dieron Gauss y Legendre a comienzos del
siglo XIX, ellos describen el mtodo de los mnimos cuadrados desarrollado bajo el
supuesto de la normalidad de los errores. Sin embargo, la metodologa basada en la
mxima verosimilitud (MV) propuesta por Fisher en el primer cuarto del siglo XX,
da credibilidad a la teora de los mnimos cuadrados. Fisher present inicialmente el
procedimiento de MV en 1912 y se considera uno de los desarrollos ms importantes
del siglo XX en la estadstica.
Fisher en 1912 propuso el criterio absoluto que fue derivado inicialmente del
principio de la probabilidad inversa. En 1921 desarroll el principio del ptimo
el cual se asociaba con la nocin de verosimilitud. El mtodo de MV propuesto
en 1922 produce estimadores que satisfacen los criterios de suficiencia y eficiencia o
cuando se hace MV se llega a un mundo de ideas y nomenclatura estadstica, tales
como parmetros, estadstica, verosimilitud, suficiencia, consistencia, eficiencia e in-
formacin. El mtodo de MV constituye una herramienta importante en el desarrollo
de estimacin tanto en los modelos lineales clsicos como en la estructura de los mo-
delos lineales generalizados (MLG) y los modelos de dispersin, y en general, de casi
todas las reas del conocimiento cientfico.
Para visualizar en forma rpida del concepto de MV, de acuerdo a Khuri (2009),
se tiene que si Y es una variable aleatoria (v.a.), cuya distribucin depende de al-
gunos parmetros desconocidos = (1 , . . . , p )t , sea g(y, ) la funcin densidad de
probabilidad (fdp) de Y con y un valor de Y . Se supone que se tiene una mues-
tra aleatoria (m.a.) de observaciones independientes de Y , denotadas por Y1 , . . . , Yn ,
entonces la fdp de Y = (Y1 , . . . , Yn )t esta dada por
n
Y
h(y, ) = g(Y1, . . . , Yn ) (1.1)
i=1
entonces L(y, ) = 2 3 con esto se sigue que L(y, = 0.1) = 0.009, L(y, =
0.7) = 0.147. Estos resultados significan que lo ms probable es que = 0.7.
2 L(y, )
<0
2
y as L(y, = 2/3) = 0.148. Luego en b = 2/3 se tiene una respuesta mxima como
se observa en la figura 1.1
l(y,)
Si ahora se obtiene el logaritmo de la funcin de verosimilitud
= 0 entonces
se obtiene que b = 2/3. Adems,
2 l(y, )
<0
2
En los libros clsicos tales como Draper & Smith (1966), Scheffe (1959) y Graybill
(1961), se sintetizan los desarrollos tericos de los modelos lineales alcanzados en la
primera mitad del siglo XX.
0.15
0.10
L
0.05
0.00
Existen dos clases generales de modelos que tienen como soporte terico la dis-
tribucin normal: los modelos de regresin y los modelos de anlisis de varianza,
cada uno de estos modelos pueden ser vistos como modelos super parametrizados
y/o modelo de medias de celdas, introducido por Hocking & Speed (1975)
0.0
0.5
1.0
1.5
2.0
L
2.5
l=log L
i) Los modelos de regresin son valiosos para describir el tipo de asociacin entre
la variable respuesta yi y las variables predictoras (xi1 , xi2 , . . . , xij , . . . , xip ),
i = 1, . . . , n. En este caso, lo que se persigue es resumir las tendencias de los
datos y encontrar la forma de asociacin entre las variables.
ii) Un uso importante de los modelos de regresin es que se tiene la posibilidad de
predecir el valor que tendra yi , o la media de la poblacin del conjunto de yi
(E (Yi )) cuando se especifican las condiciones del proceso mediante los valores
de xij , i = 1, . . . , n, j = 1, . . . , p.
iii) Un modelo de regresin puede servir para encontrar cules son los valores de los
xj (j = 1, . . . , p) que pueden optimizar, de acuerdo con algn criterio los valores
de la variable dependiente yi . Este sistema de control es usado ampliamente en
ensayos con fertilizantes, funciones de produccin y curvas de crecimiento.
iv) La regresin es empleada tambin en problemas de calibracin, en donde Yi
es una caracterstica aleatoria, fcil de medir que depende de una variable no
aleatoria difcil de medir. En este caso, la relacin de dependencia se puede
medir mediante una regresin del tipo
p
X
yi = j gj (xi ) + ei i = 1, ..., n.
j=1
o en forma matricial
y = X + e
donde y = (y1 , . . . , yn )t , la i-sima fila de la matriz X es (1, xi1 , xi2 , . . . , xip ), el vector
de parmetros t = (0 , 1 , . . . , p ), y por lo general, se asume que e N (0, 2 I).
1.1. MOTIVACIN 7
como un tratamiento cuantitativo, los tratamientos son caracterizados por los niveles
del factor. En experimentos ms complejos los tratamientos son caracterizados por
la combinacin de niveles de varios factores. En este caso, el modelo de medias de
celdas puede ser aplicado directamente pero teniendo en cuenta un conveniente uso
de ms de un subndice para describir la poblacin que va a ser examinada.
En los modelos de efectos fijos, el inters se centra en las medias de las celdas, en
tanto que en los modelos de efectos mixtos el inters se centra tanto en los compo-
nentes de varianza como en las medias de las celdas. Tambin pueden estudiarse los
modelos de efectos aleatorios, los cuales describen un caso especial donde las medias
son todas las mismas y el inters se centra en los componentes de varianza y en las
predicciones.
Entre los modelos de efectos fijos se estudian tpicamente los modelos de efectos
cruzados con n-vas de clasificacin y con efectos de la interaccin, los modelos anida-
dos y jerrquicos, y los modelos con restriccin de medias de celdas. Sin embargo,
de acuerdo a la naturaleza de los datos, se puede tener un espectro ms amplio de
trabajo desde el punto de vista de los modelos de efectos mixtos.
Y = W + e
s.a. G = g
ij i j = ij i j (1.4)
Ejemplo 1.4. Suponga que se est interesado en aplicar cada variedad a n parcelas
experimentales. Idealmente se puede tener na parcelas homogneas las cuales pueden
ser aleatoriamente asignadas a los tratamientos, con n parcelas para cada variedad.
Un modelo a una va de clasificacin puede ser usado, teniendo en cuenta la estruc-
tura lineal: yij = i + eij ; en donde yij hace referencia al rendimiento de la j-sima
unidad experimental en la i-sima variedad y i denota la respuesta media de la
i-sima variedad. Frecuentemente, por cuestiones de tiempo y dinero no es posible
tener un nmero suficientemente grande de unidades experimentales, pero se pueden
tener grupos de unidades tales que, dentro de grupos, las unidades se espera que res-
pondan en forma similar (lleva al concepto de bloque); sin embargo, puede adems
haber diferencias entre grupos causadas por diferencias entre fertilizantes.
Si ahora se supone que se tienen b diferentes campos en los cuales se puede se-
leccionar a parcelas, se debe ser cuidadoso en asignar cada una de las variedades
aleatoriamente para una parcela en cada campo. Con este diseo se obtienen b ob-
servaciones en cada variedad y dentro de campo, se obtiene una comparacin de
variedades, las cuales estn libres de las diferencias entre los campos.
10 CAPTULO 1. INTRODUCCIN
donde Var(bj ) = b2 , Var(eij ) = e2 y se asume que los errores eij tienen media cero
y son independientes entre si e independientes de los bj s, los cuales tienen tambin
media cero.
V = e2 I ab + b2 J a I b
donde J b es una matriz cuadrada de orden a con todos sus elementos iguales a uno.
El modelo de medias de de celdas a una va de clasificacin es escrito matricialmente
como
Y = (I a 1b ) + .
donde ij = bj + eij y Var() = V . El inters en stos modelos se centra en la
estimacin y el anlisis de e2 y b2 . Adems, como e2 y b2 son varianzas positivas,
entonces V es definida positiva. El estudio de modelos de componentes de varianza
puede estudiarse en detalle en Henderson (1984) y Searle et al. (1992).
El propsito de este captulo es pues, dar una visin general sobre los conceptos de
modelos lineales, los cuales van a ser estudiados bajo el supuesto de normalidad, en
primera instancia en los primeros captulos y en los captulos siguientes, se abordaran
los modelos bajo distribuciones distintas a la normal.
Definicion 1.4. Modelo lineal (ML). Para motivar la definicin de ML, se con-
sidera que se hacen observaciones con respuestas determinadas por distribuciones de
probabilidad. Las distribuciones dependen del conocimiento de los parmetros y de las
caractersticas de la poblacin. El objetivo de esta lnea del conocimiento, es desarro-
llar modelos apropiados y poder estimar y hacer inferencia acerca de los parmetros
de las distribuciones dependiendo de la naturaleza de los datos.
El modelo se puede entender como una salida que ha sido procesada y depende
por supuesto de varias variables de entrada. Esquemticamente se puede decir que
en general en el estudio de ML se estructura la siguiente estructura:
sobre las medias puede describirse en trminos del valor esperado como:
p
X
E(Yi ) = j xij i = 1, . . . , n. (1.5)
j=1
donde los xij denotan la j-sima variable de entrada asociada con la i-sima respuesta
y j es el parmetro desconocido, j = 1, 2, . . . , p.
Nota 1.1. El trmino lineal se refiere nicamente a la estructura de los parmetros.
donde V t es una matriz simtrica conocida, con elementos vtij , la cual se conoce
como matriz de componentes de varianza y t es el componente de varianza asociado
a V t.
1.1. MOTIVACIN 13
Esta distribucin hace parte de la familia exponencial (FE), la cual se puede escribir
de la forma cannica de acuerdo a McCullagh & Nelder (1989) como:
1
f (yi , , ) = exp [yi b() + c(yi , )] I(yi ) (1.11)
a()
h i
2 yi2
Luego = , b() = 2
, 2
a() = y c(yi , ) = 12 2
2
+ ln(2 ) entonces si
2 2
Yi N(, ) con desconocido y > 0 conocido forma parte de la FE unipara-
metrizada. Sin embargo, esta distribucin puede extenderse a la familia exponencial
multivariada.
Sea X = (X1 , . . . , Xn )t vector aleatorio continuo con fdp f (X) la cual es positiva
en un dominio DX Rn . Sea Y = (Y1 , . . . , Yn )t un vector n-dimensional. Sea
Yi = gi (X1 , . . . , Xn ) i = 1, . . . , n
donde un n-valor real evaluado en una transformacin uno a uno de las n-variables
con transformacin inversa
Xi = gi (Y1, . . . , Yn ) i = 1, . . . , n
f (yy ) = f (x
x)|J
J (Y
Y )|
1.2. USO DE TRANSFORMACIONES LINEALES 15
J (Y
donde |J Y )| denota el determinante Jacobiano de la transformacin, la cual esta
dado por: X X
X1
Y1
1
Y2
1
Yn
..
Y ) = ...
J (Y ..
.
..
. .
Xn Xn Xn
Y1 Y2
Yn
esto es muy til en estudios de modelos lineales multivariados incluyendo datos lon-
gitudinales y series de tiempo multivariadas.
Resultado 1.1. Sea P una matriz n m. Sea A una matriz n n definida no-
negativa y r(P ) < m entonces la matriz P t AP es definida no-negativa. Si A es
definida positiva y r(P ) = m entonces P t AP es definida positiva.
16 CAPTULO 1. INTRODUCCIN
Sea ahora
Y un vector de vs as independientes, definiendo que satisface
E(Y1 )
..
E(Y ) = . = , Cov(Y ) = V = E(Y Y t ) t . Ya que V es una matriz
E(Yp )
positiva definida, existe A una matriz no-singular tal que V = AAt . Sea entonces
la transformacin:
Y = AZ + (1.13)
A continuacin se va a encontrar la funcin de densidad de probabilidad para el vector
aleatorio Y . Teniendo en cuenta los resultados sobre transformaciones, se satisface
que
Z1 Z1 Z1
Y1 Y2 Yp
.. .. .. ..
J| =
|J . . . .
Zp Zp
Zp
Y1 Y2 Yp
Pero de (1.13), Z = A 1 (Y Y ) y Z
Yi
i
= aij A 1 pues se observa que Zi =
Zi Zi
ai1 (Y1 1 ) + + aip (Yp p ) de tal forma que Y 1
= ai1 , , Y p
= aip , y as
J | = |A 1
A |; entonces:
|J
fY (yy ) = A 1 fZ (A
A1 (Y
Y ))
1 n t 1 o
= A 1 exp A 1
Y
(Y ) A Y
(Y )
(2)p/2
A1 |
|A h i
t 1 t 1
= exp Y
(Y ) A A Y
(Y )
(2)p/2
Pero t 1
A 1 A 1 = AA t = V 1
y
1 1/2
A = |A A|1/2 = AA t
A|1/2 |A V |1/2
= |V
Por lo tanto,
V |1/2
|V 1 t 1
fY (yy ) = exp (YY ) V (YY )
(2)p/2 2
y se conoce como una distribucin normal multivariada con media y matriz de
, V ).
covarianza V y es denotada como Y N (
1.2. USO DE TRANSFORMACIONES LINEALES 17
R
ii) x exp 12 x2 dx = 0.
R
iii) x2 exp 12 x2 dx = 2.
Resultado 1.2. Integral de Aitken. Sea A nn una matriz definida positiva y sim-
trica, sea x = (x1 , . . . , xn )t un vector n-dimensional, entonces
Z Z
1 t
exp x Ax dx A|1/2
x = (2)n/2 |A
2
Z Z
I= x tAx + x ta + a0 exp x tBx + x tb + b0 dxx
es evaluada como
n/2
1 1/2 1 1
I= B|
|B AB
traz(AB ) b B a + b tB 1AB 1b + 2a0
t 1
2 2
1 t 1
exp b B b b0
4
donde
1 t 1
Z Z 2itttZ = Z tZ 2itttZ + (itt)t (itt) (itt)t (itt)
2 2
1 1
= (ZZ itt)t (Z
Z itt) t t iitt
2 2
al reemplazar en (1.14), se sigue que:
Z
1 1 t t
1 t
Z (tt) = exp (Z Z itt) (Z
Z itt) t t d (Z
Z itt) = exp tt
(2)p/2 p 2 2
Entonces
t 1 t t t 1 t t 1 t
Z A t = exp A t A t = exp t AA t = exp t Vt
2 2 2
y finalmente
t 1 t
Y (tt) = exp itt + t V t
2
que es la funcin caracterstica de la distribucin normal multivariada.
Teorema 1.1. Si Y N(
, V ) entonces la funcin generadora de momentos (fgm)
es
1 t
MY (t) = exp t + t V t , t Rp
t
2
1.2. USO DE TRANSFORMACIONES LINEALES 19
R t
Demostracin. De la definicin de la fgm, MY (tt) = Rn
et Y fY (yy )dY
Y , entonces
Z
1 t 1 t 1
MY (tt) = Y ) V (Y
exp t Y (Y Y ) dY
Y (1.15)
(2)p/2 |V
V |1/2 Rp 2
Yt
Y
Sea X = Y V t de tal forma que X
X
= I p entonces
Z
1 t 1 t 1 t 1
MY (tt) = exp t + t V t X V X dX X
(2)p/2 |V
V |1/2 Rp 2 2
Z
1 t 1 t 1 t 1
= exp t + t V t exp X V X dXX (1.16)
V |1/2
(2)p/2 |V 2 Rp 2
Ahora tomando la ltima parte del lado derecho de la expresin (1.16) y haciendo
Z = V 1/2X , se encuentra
Z Z
1 t 1 1 t dXX t
exp X V X dX X= exp Z Z Z
dZ
Rp 2 Rp 2 Z
dZ
Z
1 t
= exp Z Z V 1/2 dZ Z
Rp 2
p Z
1/2
Y 1 2
V|
= |V e 2 Zi dZi
i=1
Siempre que V sea definida positiva, pero por resultados de la integral de Aitken:
Z Z
1 2
e 2 Zi dZi = (2)1/2 , i = 1, . . . , n
Luego Z
1 t 1
exp X V X dX V |1/2
X = (2)p/2 |V (1.17)
Rp 2
sustituyendo (1.17) en (1.16), entonces claramente
t 1 t
MY (tt) = exp t + t V t
2
20 CAPTULO 1. INTRODUCCIN
T 1y )|J
hY (y) = fX (T J |.
A, AV At ).
entonces Y N(A
A
V 21V 1
Z 1 = Y 1 1 ; Z 2 = V Y 1 1 ) + (Y
11 (Y Y 2 2)
donde
t V 11 0
AV A =
0 V 22 V 21V 1
11 V 12
De esta forma Z 1 N (0, V 11 ) y Z 2 N 0, V 22 V 21V 1 11 V 12 . Como la
Z 1 , Z 2 ) = 0 entonces la funcin de densidad conjunta es
Cov (Z
1 entonces Y 1 = 1 +Z
Adems, como Z 1 = Y 1 Z 1 , y por lo tanto, Y 1 N (
1 , V 11 )
conocida como la marginal de Y 1 .
Y 2 2 ) V 21V 1
Z 2 = (Y Y 1 1)
11 (Y
entonces
Y 2 = Z 2 + 2 + V 21V 1 Y 1 1 )
11 (Y
Y 2 ) = 2 y Var (Y
con E (Y Y 2 ) = V 22 . Por lo tanto, Y 2 N (
2 , V 22 ) es conocida como
la marginal de Y 2 .
1.3.1. Y1
Distribucin condicional de Y 2 |Y
1.4. Ejercicios
1. Presente la estructura de V para los siguientes modelos, donde solo se considera
fijo el efecto de la media poblacional :
2. Suponga que todas las varianzas son iguales Var(Yi ) = 1 y todas las covarian-
zas son iguales Cov(Y
Pi , Yi ) = 2 verifique que V 1 = I y V 2 = J I teniendo
en cuenta que V = t tV t .
1.4. EJERCICIOS 23
1
Np
,
.
P
N
c2
=1
P
N
b) Demuestre que T = (X X c )t se distribuye como
X c ) (X
=1
NP
1
Z Z t donde los Z s se distribuyen independientemente como
=1
Np (0, ).
c) Demuestre que y T son independientes.
24 CAPTULO 1. INTRODUCCIN
X1 + X2
Y1 =
2
X2 + X3
Y2 =
2
X3 + X4
Y3 =
2
..
.
X9 + X10
Y9 =
2
obtenga la distribucin de Y = (Y1 , . . . , Y9 )t .
a) La distribucin de 2X 10 Y 10 .
b) P 2X 10 Y 10 < 0.1 .
c) La funcin generadora de momentos de 2X 10 Y 10 .
Captulo 2
Distribuciones muestrales
En esta seccin se lleva a cabo el desarrollo terico para las distribuciones Chi-
cuadrado, F y t, las cuales son de gran relevancia en el anlisis inferencial (prueba
de hiptesis e intervalos de confianza) a travs de la teora de modelos lineales.
j=1 j=1
25
26 CAPTULO 2. DISTRIBUCIONES MUESTRALES
iii) f : .
2t
Q = z tz 2zz t + t t
(1 2t)
2t
= (zz )t (zz ) t
(1 2t)
Adems, el Jacobiano es
(1 2t)1/2 0 0
0 (1 2t)1/2 0
J| =
|J .. .. .. .. = (1 2t)p/2
. . . .
0 0 (1 2t)1/2
Entonces
Z
1 1 t 2t t
MY tY (t) = exp (zz ) (zz ) |JJ | dzz
(2)p/2 p 2 (1 2t)
Z
p/2 t t
= (1 2t) exp fZ (zz )dzz
1 2t p
p/2 t t
= (1 2t) exp (2.2)
1 2t
28 CAPTULO 2. DISTRIBUCIONES MUESTRALES
j=0
(1 2t)j j! j=0
j!
Ahora si Z = Y tY , entonces
j
X p+2j
1
e z 2
fZ (z) = p+2j ez/2
j=0
j! p+2j
2 2
2
y se dice que Z 2
(p,) .
Nota 2.1. Si W1 2 2
(p1 ,1 ) y W2 (p2 ,2 ) , y W1 y W2 son independientes, entonces
W1 + W2 2
(p1 +p2 ,1 +2 ) .
Y tY
, 2I ) entonces
Observacin 2.3. Si Y N ( 2
2 p, 21 2 t .
Observacin 2.4. Si Y N ( , V ), donde V = (AAtA )1 entonces Z = AY
A, AV At ), pero como AV At = I , entonces Z N (A
A
N (A A, I ) y Z tZ 2p, 1 tV 1 .
A
( 2 )
Esta distribucin tiene gran inters en la teora de potencias de prueba, las cuales
son frecuentes en estudios de regresin, anlisis de varianza, estudios multivariados
de datos, entre otras reas del conocimiento estadstico.
n
m+n+2j m+2j
Entonces haciendo k = 2
2 2 2
se obtiene
X e j 1 n+m+2j v
fU,V (u, v) = u 2 (n+2) v 2
1
e 2[u/(u+1)] .
j=0
j!k
X 1 Z 2
e j u 2 (n+2) 2 u+1 ( u+1
u
)
= v dv
n2 m+2j
n+m+2j
j=0
j! 2 0 n+m+2j
2 2 e 2[u/(u+1)]
2
2.2. DISTRIBUCIN F NO CENTRAL 31
m+2j 1 m+2j
m X e j
n+m+2j m
2
z 2 1 n
2
fZ (z) = n+m+2j
n j=0 j! n
m+2j
1 + m
z 2
2 2 n
m+2j 1 m m+j
X e j
n+m+2j
z 2 2
2 n
=
j=0
j! n m+2j 1 + m z 2 n+m+2j
2 2 n
(m + 2 )
F = m/ m + 2 F y m = ,
m + 22
siendo F un valor de tablas de la F central con m y n grados de libertad.
32 CAPTULO 2. DISTRIBUCIONES MUESTRALES
2.3. Ejercicios
1. Suponga el modelo Yij = i + eij , i = 1, . . . , a, j = 1, . . . , n donde eij
P
a P
n Pa 2
N (0, 2 ). Obtenga la distribucin de Yij2 y de Yi Y .
i=1 j=1 i=1
, V ).
2. Si Y es un vector aleatorio, tal que Y N(
a) Halle la MY (tt).
1 0 0
b) Si = 1 0 2 y V = 0 2 1 y suponiendo que Y se distri-
0 1 1
buye como en 2a). Sea
Z1 =Y1 + Y2 Y3
Z2 =Y1
Z3 =Y1 Y2
3. Suponga
que , V ) con t = (10, 12, 14, 16) y adems V
Y N4 (
=
2 1 1 1
1 2 1 1
.
1 1 2 1
1 1 1 2
1 1 1 1
C tY
a) Obtenga la distribucin de Z = C Y donde C = Ct .
1 1 1 1
Y , Z ).
b) Obtenga la matriz de Cov(Y
4. Obtenga la media y la varianza de una distribucin F(n,m,) .
33
34 CAPTULO 3. DISTRIBUCIN DE FORMAS LINEALES Y CUADRTICAS
BY ) = B
E(BY
BY ) = E (BY
Var(BY BY B B)t = BV B t
BY B
B)(BY
B 1Y , B 2Y ) = B 1V B t2 .
Si L 1 = B 1Y y L 2 = B 2Y entonces Cov(B
, 2I ) entonces
Ejemplo 3.1. Si Y NN (
1 1 t1
E Y = 1t = =
N N
1 1 2
Var Y = 1t 2I 1=
N N N
, V ) entonces
Teorema 3.2. Si Y NN (
Y tAY ) = tr(AV
a) E(Y AV ) + tA
A.
Y tAY ) = 4
b) Var(Y AV )2 .
tAV A + 2tr (AV
c) El r-cumulante de Y tAY es
Y tAY ) = 2r1 (r 1)! tr(AV
K r (Y AV )r + r
tA (V
VAA)r1 .
Y , Y tAY ) = 2V
d) Cov(Y V A
A.
BY , Y tAY ) = 2BV
e) Cov(BY BV A
A.
Demostracin. a)
Y tAY ) = E tr(AY
E(Y AY Y t ) = tr E AY Y t
=tr AE Y Y t = tr A V + t
AV ) + tA
=tr(AV
36 CAPTULO 3. DISTRIBUCIN DE FORMAS LINEALES Y CUADRTICAS
d)
n t o
Y , Y tAY ) = E (Y
Cov(Y Y ) Y tAY E Y tAY
Y ) Y tAY tA tr (AV
= E (Y AV )
= E (Y Y )tA (Y
Y ) (Y Y ) + 2(YY )tA tr(AV
AV )
Y ) son ceros, entonces
Debido a que el primer y el tercer momento de (Y
Y , Y tAY ) =2V
Cov(Y V A
entonces
2
1 2 1 1 1
E S = tr I J + 1 I J 1 = 2
2 t
N 1 N N 1 N
donde = 1.
3.2. INDEPENDENCIA ENTRE UNA FORMA LINEAL Y UNA FORMA CUADRTICA37
BY , L tY ) = BV L = 0, BY N (B
Adems Cov (BY B, BV B t ), LY N (L
B L, LV L t )
L
y la conjunta tambin se distribuye en forma independientemente normal. Adems
Y tAY = Y tLL tY es una funcin de L tY ; por lo tanto BY y Y tAY son independien-
tes.
38 CAPTULO 3. DISTRIBUCIN DE FORMAS LINEALES Y CUADRTICAS
, I ) el
En Searle (1971) y Hocking (1996) se demuestra que cuando Y N (
t
r-simo cumulante de Y AY es:
Kr Y tAY = 2r1 (r 1)! tr(A
A)r + r AI)r1
tA (AI
AI
3.3. INDEPENDENCIA ENTRE FORMAS CUADRTICAS 39
Y tAY ] = 2tr(A
Si r = 2 entonces Var [Y A)2 + 4
tAA
AA. Ahora si
Var Y t (A
A + B ) Y = 2tr (AA + B )2 + 4
t (A
A + B ) (A
A + B) (3.4)
Pero por independencia
Var Y t (A
A + B ) Y = Var Y t (A Y + Var Y t (B
A)Y B )Y
Y (3.5)
A + B )2 + 4
2tr (A t (A
A + B ) (A A)2 + 4
A + B ) =2tr(A t (A
A)2 + 2tr(B
B )2 + 4
tB 2
Se observa que
tBA = 0
4 (3.6)
AB
Como tr(AB
AB) = tr(ABAB t
AB ) = tr(B B tA tBA
BA) entonces
B A ) = tr(BA
tBA =tr(
tBA
BA) = tr[( tBA
BA)t ]
tA tB t ) = tr(
=tr( tAB
AB).
1 t
Teorema 3.6. Si Y N ( , V ) y q = Y tAY entonces q 2 A ),) con = 2 A
(r(A
si y solo si AV es idempotente.
t
Bajo la transformacin X = (C C 1 ) Y , se puede ver que X N( , I ) donde
t
C 1 ) . Haciendo Z = P tX se obtiene que Z N( , I ) con = P t . Bajo la
= (C
anterior secuencia de transformaciones, la forma cuadrtica toma la siguiente forma
donde es una matriz diagonal con los valores propios de B , denotados por i y
Z 2i 2(1,2 ) . De los grados de libertad de una chi-cuadrado no central se sigue que
i
i = 1, i = 1, . . . , r. Por lo tanto, B es idempotente y adems, AV tiene la esta
misma propiedad.
Ejemplo 3.3. Sea , 2I ), L = BY con B = n1 1t y q1 = Y tA 1Y con
Y N(
A 1 = 12 I n1 J
1 1 2 1
A 1V = 2 I J I = I J = (A A1V )(AA 1V )
n n
luego es idempotente. Entonces por teorema anterior, se sigue que
q1 2tr(A 2
A 1V ) = (n1)
P tAP = D
entonces A = P DP t = P 1P t1 y como
Z tAZ = W t1W 1 2
tP t P 1
= 2k, 1 tA
k, 1
2
( 2 )
con A = P t1P 1 .
X, 2I ) con Y n para una matriz A idempotente de
X
Ejemplo 3.4. Si Y N (X
rango k
Y tAY
2
(k, 212 tX tAX )
2
1
X tX )
as por ejemplo A = I X (X X t , AX = 0 y entonces
Y tAY
2(k)
2
Ejemplo 3.5. Supongamos el modelo Yij = +i +j +eij , i = 1, . . . , t, j = 1, . . . , b,
P Y2 2
con eij N (0, 2 ) se demuestra que SCtrts = ti=1 bi. Ytb.. = Y tT Y con
1 1
T = (II t J b ) (JJ t J b)
b tb
42 CAPTULO 3. DISTRIBUCIN DE FORMAS LINEALES Y CUADRTICAS
se verifica que
b b b tb
T 2 =T
TT = 2
(II t J b ) 2 (J J t J b ) 2 (J
J t J b ) + 2 2 (J
J t J b)
b tb tb tb
1 1
= (II t J b ) (J J t J b) = T
b tb
Luego
Y tT Y 2
2
(r(T
T ),)
tb
T ) = tr(T
donde r(T T) = b
1 = t 1 y el parmetro de no-centralidad es
X t
1
= 2 tX tT X
X = b (i )2
2 i=1
Y tT Y
2t1, 1 b Pt ( )2
2 ( 22 i=1 i )
3.4. Ejercicios
1. Si X Nn (, I ) encuentre la distribucin de Y = AX + b con A una matriz de
dimensin apropiada de constantes y b un vector de constantes. Adems, halle
la distribucin de Y = n1 1tY .
, 2I ) y sea qi = 12 Y tA iY donde
4. Sea Y Nn (
1 1 0 1 1 2
1 1 1
A 1 = 11t , A 2 = 1 1 0 , A3 = 1 1 2
3 2 6
0 0 0 2 2 4
Determine la distribucin de los qi y verifique la independencia de esas formas
cuadrticas.
5. Suponga que Y NN (W W, 2I ) donde
W = I a 1m , N = an. Sea qi = Y tA iY ,
i = 1, 2 con A 1 = 12 I n1 W W t y A 2 = 12 n1 W W t an
1
11t .
a) Determine la distribucin de q1 y q2 .
b) Verifique la independencia.
.
q2 q1
c) Determine la distribucin de r2 r1
donde r1 y r2 son los rangos de A 1 y
A2 , respectivamente.
d) Defina M i = 12 A i , i = 1, 2 y M = M 1 + M 2 , determine la distribucin
conjunta de q1 y q2 .
6. Suponga que Y Nn ( , V ) donde V = 0 (II a I n ) + 1 (II a J n ) con 0 > 0
y 0 + n1 > 0.
h i
a) Determine la distribucin de q1 = Y t 10 I n1 W W t Y y q2 =
h i
t 1 1 t 1 t
Y 0 +n1 n W W an 11 Y con W definido como en el ejercicio 5.
.
b) Determine la distribucin de la razn qr22 qr11 .
11. Sea Y Nn (, QA
QA) con A matriz positiva definida y Q matriz simtrica e
Q) = m, halle la distribucin de U = Y tA 1Y .
idempotente con tr(Q
, ) con r(
12. Si Y = (Y1 , . . . , Yn ) Nn ( ) = n
a) Muestre que
Z
1 t 1
Y ) (Y
exp (Y Y ) dY1 dYn = (2)n/2 |
|1/2 .
2
Rn
b) Evale Z Z
exp (x21 + 2x1 x2 + 4x22 ) dx1 dx2 .
donde xi = yi , i = 1, 2.
Captulo 4
1. X t1X 1B 1 = X t1 y P 1 = X 1B 1 .
t t
2. X1 X2 X1 X2 B 12 = X1 X2 y P 12 = X1 X2 B 12
t t
3. X 1 X 2 X 3 X 1 X 2 X 3 B 123 = X1 X2 X3 y con P 123 =
X 1 X 2 X 3 B 123
..
.
t t
k. X1 X2 Xk X 1 X 2 X k B 12,...,k = X1 X2 Xk
y P 12,...,k = X 1 X 2 X k B 12,...,k
45
46CAPTULO 4. MODELO LINEAL PARTICIONADO EN K-PARTES ORDENADAS
Demostracin. Se demuestra que P 12j P 12i = P 12i para cada pareja (i < j)
X 1 , X 2 , . . . , X i )B 12i = (X
P 12j P 12i = P 12j (X X 1 , X 2 , . . . , X i ) B 12i = P 12i ahora
si i 2 , entonces P 12i P 12(i1) P 1 = P 1 P 1 = 0.
C de V g.l SC
X 1 1 r(XX) Y tP 1Y
X 2 2 | X 1 1 X 1 , X 2 ) r(X
r (X X 1) Y t (P
P 12 P 1 ) Y
X 3 3 | X 1 1 + X 2 2 X 1 , X 2 , X 3 ) r (X
r (X X 1, X 2) Y t (P
P 123 P 12 ) Y
.. .. ..
. . .
X k k | X 1 1 + + X k1 k1 X 1 , . . . , X k ) r (X
r (X X 1 , . . . , X k1 ) Y t P 12k P 12(k1) Y
Error n r (X X 1, . . . , X k) Y t (II P 12...k ) Y
Total n Y tY
4.1. TEOREMA DE COCHRAN 47
a) A 1 , A 2 , . . . , A k idempotentes.
b) A iA j = 0 para todo i 6= j, i, j = 1, . . . , k.
Pk
c) i=1 A i = A es idempotente.
k
!2 k
X X X
2
A = Ai = A 2i + A iA j
i=1 i=1 i6=j
k
X k
X
A 2i = Ai = A
i=1 i=1
A 2 =A
A
k
X k
X
A 2i = A i
i=1 i=1
k
X Xk
1 1
A 2i A 1 = A iA 1
i=1
i=1
A 31 A21
=A
Demostracin. : ) Si Y tA iY 2r , 1 tA y son independientes, entonces
(i2 i )
k
X k
X
Y tA iY = Y t A iY = Y tY (2r, 1 t )
2
i=1 i=1
, I ) entonces
Lo anterior es cierto por el hecho que si Y N (
Y tY 2r, 1 t
( 2 )
50CAPTULO 4. MODELO LINEAL PARTICIONADO EN K-PARTES ORDENADAS
Pk
entonces r = i=1 ri .
P P
) Si r = ki=1 ri = ki=1 r(AAi ), por lema 4.1 A i es idempotente, y por consi-
Ai ) = ri . Entonces
guiente r(A
Y tA iY 2
(r(A
A i ), 21 tA i )
.
q2 2
2
1, N2
2
Y ) = 1N donde N = an y
Ejemplo 4.2. Considere el modelo lineal definido por E(Y
Y ) = V = 0 (II a I n ) + 1 (II a J n )
Var(Y
4.2. EJERCICIOS 51
q1 2(a(n1),0)
q2 2((a1),0)
q3 2
2
1, 2(an
+n
0 1)
4.2. Ejercicios
1. Suponga que se tiene el modelo Y = X +ee caracterizado por Yij = + i + eij
i = 1, . . . , a, j = 1, . . . , b. Si se supone que i N(0, 2 ) y eij N(0, 2 ).
a) Obtenga la matriz V .
b) Obtenga E(SC()), E(SC(T rts)) y E(SC(Error)).
c) Muestre las formas cuadrticas asociadas a las respectivas sumas de cua-
drados, y muestre adems, que las matrices son simtricas e idempotentes.
52CAPTULO 4. MODELO LINEAL PARTICIONADO EN K-PARTES ORDENADAS
/* AJUSTE SECUENCIAL */
X1=J(6,1,1);
X2=X[ ,1:3];
X12=X1 || X2;
X123=X1 ||X ;
PRINT X1 X12 X123;
/* MATRICES DE PROYECCIN */
P1=X1*(INV(t(X1)*X1))*t(X1);
P12=X12*(GINV(t(X12)*X12))*t(X12);
4.2. EJERCICIOS 53
P123=X123*(GINV(t(X123)*X123))*t(X123);
PRINT P1 P12 P123;
B1=P12-P1;
B2=P123-P12;
B3=I(6)-P123;
RANB=RANMODELO-RAN1;
RUN;
Modelos de regresin
o en forma matricial
Y = X + e (5.1)
X ) = [f0 (x
donde f (X x), f1 (x
x), . . . , fk (x x) = (1, . . . , 1)t , como un ejemplo se
x)] con f0 (x
55
56 CAPTULO 5. MODELOS DE REGRESIN
i) E b = .
ii) Var b = 2 (X
X tX )1 .
SCReg
iii) Si CMReg = p
entonces
1 1 1
E(CMReg) = Y tHY ) = tX tX + 2
E(SCReg) = E(Y
p p p
SCE
iv) Si CME = np
entonces
1
E(CME) = E Y t (II H )Y
Y
np
1
= X + e )t (II H )(X
E (X X + e )
np
58 CAPTULO 5. MODELOS DE REGRESIN
1 t t
E(CME) = X + e t )(II H )(X
E ( X + e )
np
1 t t
= X + E[eet (II H )ee]
X (II H )X
np
2 tr(II H )
= = 2
np
Por tanto
X tX =X
X tY
b =(X
X tX )1X tY
X tX ).
X ) = r(X
Teorema 5.1. r(X
Xtk2 = 0 Xt = 0 t F (X
X tXt = 0 t tX tXt = 0 kXt
Xt X)
b = (X
X tX )1X tY
y
1 1 t
s = 2
Q b = b
ebe
np np
y se distribuyen independientemente como
b N 0, 2 (X
X tX )1
y
e N 0, 2 (II H )
b
Demostracin. Sea
Yb H
BY = = Y
b
e I H
5.1. MTODOS DE ESTIMACIN 61
Se observa que
H HX X
BX = X = =
I H (II H ) X 0
Adems
t H 0
BB =
0 I H
Luego Cov Yb b
e
, = 0.
P 1Y =P
P 1X + P 1e
W + U
Z =W
U tU =eetV 1e = (Y X)tV 1 (Y
Y X Y X
X)
t
=(ZZ W ) (ZZ W )
=ZZ tZ 2
tW tZ + tW tW
62 CAPTULO 5. MODELOS DE REGRESIN
U tU
U
W tZ + 2W
= 2W W tW = 0
W tW b =W
W tZ
o en forma equivalente
X tP 1P 1X b =X
X tP 1P 1Y
X tV 1X b =X
X tV 1Y
t
W tW )1W t , SCT otal = Z tZ , SCReg = b W tZ y SCE = Z t (II
donde H W = W (W
Z.
H W )Z
t
A continuacin se probara que Yb b
e = 0.
e = Y Yb = Y X b = Y X (X
b X tX )1X tY = (II X (X
X tX )1X t )Y
Y
t t
As, Yb b X b)t (II X (X
e = (X Y = b X t (II X (X
X tX )1X t )Y X tX )1X t )Y
Y = 0.
t b tYb + b t t
Pn 2 b t b Pn 2
Retornando
Pn 2 (5.7), Y Y = Y e b
e , pero Y Y = i=1 y i , Y Y = bi y
i=1 y
t
b
ebe = i=1 bei .
De lo anterior,
n
X n
X n
X
yi2 = ybi2 + e 2i
b (5.8)
i=1 i=1 i=1
As (5.8) se transforma en
n
X n
X n
X
yi2 ny 2 = ybi2 ny 2 + eb2i
i=1 i=1 i=1
n
X n
X n
X
(yi y)2 = yi y)2 +
(b eb2i (5.9)
i=1 i=1 i=1
64 CAPTULO 5. MODELOS DE REGRESIN
P
Dividiendo (5.9) por ni=1 (yi y)2 se tiene que:
Pn Pn 2
yi y)2
(b SCRegCM b
e
2
R = Pn i=1
2
= = 1 Pn i=1 i 2 (5.10)
i=1 (yi y) SCTCM i=1 (yi y)
Pn P n
donde SCRegCM = i=1 (b yi y)2 y SCECM = i=1 (yi y)2 .
Claramente tX t (II H )X
X = 0, entonces
SCE
2(np) = ( np ,2)
2 2
Luego
SCE = Y t (II H )Y
Y ( np ,22 )
2
X tX )1X t (II H ) = 0
B = X (X
1
iv) 2
SCReg 2p, 1 tX tX .
( 22 )
v) Los estimadores de MCO o MV del modelo (5.1), son de varianza mnima (sa-
tisfacen el teorema de Gauss Markov, Khuri (2009)). Si c t es una funcin lineal
de con c el vector de constantes distinto de cero. Si e N(0, 2I ), entonces
c tb (soluciones de MCO) tiene la menor varianza entre todos los estimadores
insesgados.
Entonces c tb es insesgado.
Sea tY otro estimador lineal insesgado para c t , es decir, E(tY ) = c t en-
tonces tX = c t , de donde se sigue que tX = c t . La varianza de tY es
tY ) = t 2
Var(
y la
Var c tb = 2c t (X
X tX )1c ,
como c t = tX entonces Var c tb = 2 tX (X X tX )1X t . Haciendo las dife-
rencias de varianzas, es decir
tY ) Var(cct ) =
Var( t 2 2 tX (X
X tX )1X t
2 t (II H )
0 (5.11)
66 CAPTULO 5. MODELOS DE REGRESIN
La igualdad en (5.11) se logra si y slo si c t = tY y Var(tY ) = Var c tb
= 0 o equivalentemente t = tH . Luego
en (5.11). Si (II H )
X tX )1X tY = c tb
tY = tHY = tX (X
H0 : 1 = = k = 0 vs Ha : al menos un j 6= 0, j = 1, ..., k
o equivalentemente
H0 : = 0 vs Ha : 6= 0 ; 2 > 0 (5.12)
Bajo H0 en (5.12) se tiene una familia de distribuciones, una para cada valor de
2 , para llevar a cabo el desarrollo de la prueba, se parte de la funcin de verosimilitud
dada en (5.3). La prueba de hiptesis, se har utilizando la razn de verosimilitud
5.4. PRUEBA DE HIPTESIS 67
generalizada
Y , , 2 )
Sup L (Y
=0
H0 :
=
Y , , 2 )
Sup L (Y
h i
1 1
n/2 exp 2
2H
Y tY
(2H2 0 ) 0
= h i (5.13)
1 1 t
(22 )n/2
exp 22 (Y Y X
) (Y
Y X
)
2
donde H 0
= n1 Y tY entonces nH2
0
= Y tY y
1 h 1 t i
2 = Y t I X X tX X Y
n
1 t
n 2 =YY tY Y tX X tX XY (5.14)
por lo que
1
2/n = 2 (5.15)
H0
2
SCE
Adems, al reemplazar por el estimador mximo verosmil de 2 = n
entonces
1
2/n = (5.16)
X t X )1 X t Y
Y t X (X
1+ SCE
68 CAPTULO 5. MODELOS DE REGRESIN
1
2/n Y tX (X tX ) X tY
Observacin 5.4. i) es pequea si SCE
es grande.
ii) En (5.16) se tiene una funcin montona, este hecho, permite utilizar a
1
Y tX (X tX ) X tY
SCE
para llevar a cabo la prueba de hiptesis en (5.12).
1
2
SCE 2(np)
h i
X tX )1 X t I (X
y se demuestro que X (X X tX )1 X t = 0. De esta manera, entonces
el cociente
(n p) Y tX (XX tX )1 X tY
F = F(p,np,) (5.17)
Y t I X (X
pY X tX )1 X t Y
El valor de la F en (5.17) se distribuye como una F central si y solo si H0 en (5.12)
es cierta.
Otras causas para imponer restricciones en los parmetros es el hecho de que estos
no pueden tomar cualquier valor. Como sta, se pueden imponer otras condiciones
(restricciones) lineales que en general se pueden plantear de la forma:
A = m (5.18)
La matriz
1 0 0 0
A=
0 1 1 1
y el vector
616000
m=
1
S = (Y X)t (Y
Y X Y X
X)
m = 0.
pero ahora se sujeta a la restriccin dada en (5.18), que es equivalente a A m
L = (Y X)t (Y
Y X Y X t (A
X) 2 A m )
70 CAPTULO 5. MODELOS DE REGRESIN
br =(XX tX )1 (X
X tY + A t ) = (X
X tX )1X tY + (X
X tX )1A t
=b + (X
X tX )1A t (5.21)
Abr = m
Abr = Ab + A (X
X tX )1A t =m
m
1
X tX )1A t
= A (X m Ab)
(m
i. Es insesgado, es decir
1
E(br ) = E(b) + (X
X tX )1A t A (X
X tX )1A t m A E(b)) =
(m
5.5. MODELO DE REGRESIN CON RESTRICCIN 71
a. El estimador br no es insesgado.
b. Su matriz de varianza es desconocida.
c. Y por los puntos anteriores, toda inferencia sobre los parmetros y predicciones
es incorrecta.
Observe que
n 1 o
E (A Ab m )t A (X
X tX )1A t Ab m ) =
(A
1 n 1 o
A m )t A (X
(A X tX )1A t A m ) + tr A (X
(A X tX )1A t X tX )1A t 2
A (X
1
A m )t A (X
= (A X tX )1A t A m ) + q 2
(A
Por lo tanto, 1
A m )t A (X
(A X tX )1A t A m ) > 0
(A
X tX )1A t es definida positiva. Luego valores grandes de F conllevan a rechazar
y A (X
H0 : A = m .
72 CAPTULO 5. MODELOS DE REGRESIN
En general el problema se puede plantear con una matriz general A qx(k+1) , con
A) = q, es decir, se desea una regin de confianza (un subconjunto
q (k + 1) y r(A
A
de q ) donde se mueven las combinaciones lineales de los parmetros. Sea
a00 a01 . . . a0k
a10 a11 . . . a1k
A = .. .. . . ..
. . . .
aq0 aq1 . . . aqk
b N(A
Se tiene que A A, 2A(X
A X tX )1At ) y
t
Ab A [A A(X At ]1 Ab A
X tX )A
L1 = 2q
2
Ahora si se divide dos variables aleatorias chi cuadrado se tiene una variable
L1 /q
aleatoria F ; utilizando esto, se puede dividir SCE/[n(k+1)] obteniendo:
Ab R
(A R)t [A X tX )A
A(X Ab A
At ]1 (A A)
F(q,n(k+1))
qCME
SCE
donde CME = nk1
.
c t
cct
Se tiene adems que t(nk1) , por lo que un intervalo de confianza
CM Ecct (X
X tX )1c
para estimar a c t es
h p p i
P c t X tX )1c c t c t + t(nk1,/2) CMEcc t (X
t(nk1,/2) CMEcc t (X X tX )1c
=1
bj j
cjj
q t(nk1) , j = 1, ..., k
1 SCE
nk1
y tambin
b b
b cjj < j < j + t(nk1,/2)
P j t(nk1,/2) b cjj = 1
Ejemplo 5.1. En la Tabla 5.1 aparecen los datos de variables artificialmente creadas.
El modelo ajustado es yi = 0 + 1 x1i + 2 x2i + 3 x3i + ei .
donde,
0.502 0.034 0.037 0.079
0.034 0.061 0.006 0.009
X tX )1
(X =
0.037 0.006
0.006 0.004
0.097 0.009 0.004 0.026
t 1 t 0.061 0.009 1 17.06 5.62
X X) A =
A (X X tX )1A t
y A (X =
0.009 0.026 5.62 39.74
Ab A
(A A)t [A X tX )A
A(X Ab A
At ]1 (A A)
2
F(2,21,0.95)
2
17.06(1.5013 1 )2 2(5.62)(1.5013 1 )(0.4987 + 3 ) + 39.74(0.4987 + 3 )2
3.49
2(0.0385)2
17.0612 + 39.7432 + 11.2413 45.621 + 22.763 + 39.91 0
0.500
0.505
0.510
0.515
ybp = b0 + b1 xp
i)
h i
E(yp yp ) = E b0 + b1 xp (0 + 1 xp + ep )
= E(b0 ) + E(b1 )xp 0 1 xp E(ep )
=0 + 1 xp 0 1 xp E(ep ) = E(ep ) = 0
ii)
2
2 b b
Var(yp ) = E (yp yp ) = E 0 + 1 xp 0 1 xp ep
h i2
b b
= E (0 0 ) + (1 1 )xp ep
h i
= E(b0 0 )2 + E(b1 1 )2 x2p + E(e2p ) + 2 E (b0 0 )(b1 1 ) xp
h i h i
2 E (b0 0 )ep + 2 E (b1 1 )ep xp
= Var(b0 ) + Var(b1 )x2p + 2 + 2 Cov(b0 , b1 )xp
5.7. PREDICCIN DE NUEVAS OBSERVACIONES 77
Recordando:
1 2
+ Sxxx Sxxx
Var(b) = 2 n
Sxxx 1
Sxx
Pn
donde Sxx = i=1 (xi x)2 .
Se tiene un conjunto de valores para las variables independientes, para los cuales
se desconoce el valor de Y 0 . Sea
1 x011 . . . x01k
1 x0 . . . x0
21 2k
X 0 = .. .. . . ..
. . . .
1 x0p1 . . . x0pk
Yb 0 = X 0b (5.24)
X 0b X 0 e 0 ) = E(X
E(Yb 0 Y 0 ) = E(X X 0b) E(X
X 0 ) E(ee0 )
X 0 E(b) X 0 = 0
=X
t h ih it
Var(Yb 0 ) = E b b
Y 0 Y 0 Y 0 Y 0 b
= E X 0 e0 X 0 e0 b
t h i
X 0 E b b
=X X t0 + E(ee0e t0 ) X 0 E b e t0
t
E e 0 b X t0 = 2X 0 (XX tX )1X t0 + 2I p = P
Adems, cada prediccin tiene distribucin normal, es decir, ybi N(yi , Pii ), per-
mitiendo esto ltimo realizar estimaciones por intervalo para las predicciones de
inters.
5.8. Ejercicios
1. Para el modelo de regresin lineal simple, se va a suponer que (yi , xi ), i =
1, . . . , t
a) Determine el producto 1 x .
b) Suponga que wi = xi x, con la media muestral x la media muestral de los
xi s. Considere el modelo E(yi ) = 0 + 1 wi , relacione los coeficientes para
0 y 1 en el modelo yi = 0 + 1 xi + ei
5.8. EJERCICIOS 79
c) Obtenga 1 tw .
d) Suponga que las variables de entrada son igualmente espaciadas, xi+1 =
xi+c , i = 1, . . . , 5. Encuentre x, y sea wi = xi x, encuentre 1 tw y w tw .
3. Una variable Y depende de otra x (variable control no aleatoria) que toma los
valores x1 = 1, x2 = 2, x3 = 3, x4 = 4 de acuerdo con el modelo lineal normal
yi = 0 + 1 xi + 2 x2i + ei . Encontrar la expresin del estadstico F para la
hiptesis H0 : 2 = 0. Estudiar la expresin del estadstico F para contrastar
la hiptesis H0 : 1 = 2 .
b2 = 400,
bb0 = 10,
bb1 = 25,
bb2 = 4,
bb3 = 8 y CMTCM = 1600.
10. El modelo
yi = 0 + 1 xi1 + 2 xi2 + 3 xi3 + ei
Se estim por el mtodo de mnimos cuadrados ordinarios a partir de 26 ob-
servaciones. Los resultados fueron
yi = 0 + 1 xi1 + + m xim + ei , i = 1, . . . , n.
13. La matriz
de diseo reducida correspondiente a un modelo lineal normal es
1 0 1
X = 1 1 0 . Se sabe adems que: y 1 = 11, y2 = 10, y3 = 15, n1 =
0 1 1
P
n2 = n3 = 10, s21 = n11 (yi1 y 1 )2 = 4.5, s22 = 6.0 y s23 = 4.3. Se pide:
a) Hallar la expresin general de las estimaciones MC de .
b) Calcular SCE Se ajustan los datos al modelo definido por X? (nivel de
significacin del 5 %).
c) Dada la funcin paramtrica estimable = 1 + 2 , contrastar la hiptesis
H0 : = 3, al 5 % de significancia, en los casos:
i. 2 varianza del diseo desconocida.
ii. 2 = 5 varianza del diseo conocida.
d) Hallar la funcin paramtrica estimable tal que b = c1 y 1 + c2 y 2 + c3 y 3
verifica c21 + c22 + c23 = 1 y adems b es mximo.
14. Suponga que se realizan n replicaciones en k diferentes valores de la variable
predictora. Los datos son obtenidos en parejas (yij , xi ), para i = 1, 2, ..., k y
j = 1, 2, ..., n. Sea y i que denota la media de las observaciones en xi .
a) Demuestre que los coeficientes de regresin estimados en los siguientes mo-
delos son idnticos:
yij = 0 + 1 xi + eij y i = 0 + 1 xi + di
Y ) = X
b) Para cada modelo presentado en a) escriba E(Y X, especificando X y
.
c) Compare la suma de cuadrados de los residuales en los dos modelos dados
en a).
5.8. EJERCICIOS 83
d) Cul modelo de los dos modelos dados en a) debera usarse para la infe-
rencia y prediccin?
e) Obtenga la varianza del valor estimado de la media de yi para un nuevo
valor xi , denotado por x .
15. Considere el modelo lineal en el cual se supone normalidad de los yij , con
yij = i + i + eij , i = 1, . . . , a, j = 1, . . . , b. Use los resultados del modelo
particionado y responda las siguientes preguntas:
a) Determine va mximo verosimilitud los estimadores de i , y 2 .
b) Encuentre la media y la varianza de los estimadores encontrados en a) y su
distribucin.
c) Determine el estadstico de prueba para la prueba de hiptesis H0 : = 0.
16. Considere el modelo lineal
Use los resultados del modelo particionado y responda las siguientes preguntas:
a) Determine el estimador de i , y 2 .
b) Determine el estadstico de prueba para la hiptesis H0 : = 0.
1 t
1
X 2
17. Para el modelo Y N(XX, I ), considere: H e = N .
At
a) Determine la distribucin de Z = H eY .
b) Usando la distribucin marginal Z 2 = A tY donde A satisface las condicio-
nes:
AtA = I N p y AAt = I X (X
X tX )1X t
Demuestre que el estimador mximo verosmil de 2 basado en la distribu-
cin de Z 2 es insesgado.
18. Pruebe los siguientes resultados para b e en un modelo con intercepto. Cules son
los anlogos en un modelo sin intercepto? Cov(b e , Y ) = (II H e , Yb ) =
H X ) 2 , Cov(b
P P
0, Cov(ee, Yb ) = 2H X , Cov(ee, b) = X (X
X tX )1 2 , ebi Yi = SCE y b ei Ybi = 0.
19. Para el modelo yij = + i + j + eij , i = 1, 2, . . . , k, j = 1, 2, . . . , r. Si
adems Y N(XX, 2I ), encuentre la prueba de mxima verosimilitud para
X
las hiptesis:
84 CAPTULO 5. MODELOS DE REGRESIN
a) H0 : 1 = 2 = = k .
b) H0 : 1 = 2 = = r .
En este captulo se llevan a cabo los desarrollos tericos a partir de los cuales se
llegan a la realizacin de hiptesis para modelos lineales particionados. Considerando
el modelo particionado en dos partes
Y = X 1 1 + X 2 2 + e (6.1)
i)
X t1X 1 1 + X t1X 2 2 = X t1Y (6.2)
ii)
X t2X 1 1 + X t2X 2 2 = X t2Y (6.3)
1 = (X
De (6.2), se sigue que X t1X 1 )1 (X
X t1Y X t1X 2 2 ) y al sustituir en (6.3),
se tiene
h 1 t i
t t t
X 2X 1 X 1X 1 X 1Y X 1X 2 2 + X t2X 2 X t2Y
2 =X
1 t 1 t
XX t2X 1 X t1X 1 2 + X t2X 2
X 1X 2 X t2Y X t2X 1 X t1X 1
2 =X X 1Y
85
86CAPTULO 6. ESTIMACIN E HIPTESIS EN MODELOS PARTICIONADOS
h 1 t i h 1 t i
X t2 I X 1 X t1X 1 X 1 X 2 X t2 I X 1 X t1X 1
2 =X X1 Y (6.4)
X t2 [II H 1 ] X 2 X t2 [II H 1 ] Y
2 =X
X t2P 1X 2 X t2P 1Y
2 =X (6.5)
donde
1
P 1 = I X 1 X t1X 1 X t1 = I H 1 (6.6)
Teniendo en cuenta que ee = (II H ) Y , se sigue de (6.5) que P 1Y es el vector de
residuales cuando se ajusta el modelo Y = X 1 1 , en tanto que las columnas de P 1X 2
en (6.5) son los vectores de residuales si se ajustan las columnas de X 2 como vector
de respuestas. En el modelo anterior se observa que
Y ) = P 1X 2 2 = X 2 ,
P 1Y ) = P 1 E(Y
E (P X = P 1X 2
Comparando este resultado con (6.6) se nota que la suma de cuadrados del residuo
es h 1 t i
SCE b1 , b2 = Y t P 1 P 1X 2 X t2P 1X 2 X 2P 1 Y
que corresponde al modelo (6.5), el cual es idntico a la suma de cuadrados del
residual en el modelo (6.1).
1 , 2 )t p , 2 > 0, entonces
donde = t = (
1
Sup L = en/2
(2)n/2 ( 2 )n/2
Luego el problema se reduce entonces a encontrar
Sup L Y , 1 , 2 , 2 = Sup L Y , 2 , 2
1 =0
H0 : 1 =0,2 >0
Entonces los estimadores que hacen mxima la funcin en el modelo (6.9) son:
1 t 1
2
b
b2 = X t2X 2 2
X 2Y y H =
Y X 2 2
0
n
1
As al sustituir se sigue que Sup L = n/2 en/2 , luego al reemplazar en
H0 (2)n/2 (
bH2
)
0
(6.9) se encuentra que
2
n/2 n/2
2H 0
en/2 ( 2 )
= = n/2
(2 2 )n/2 en/2 2
H 0
Por lo tanto,
1 1
2/n = 2
= 2
(6.10)
H 0
/ 2 nH 0
/n 2
Se verifica que h
2 t t
1 t i
nH 0
= Y I X 2 X X
2 2 X2 Y (6.11)
y adems se sabe que
h 1 t i
n 2 = Y t I X X tX X Y (6.12)
1
= h 1
i (6.13)
t
Y X (X X 2 (X t2X 2 ) X t2 Y
X tX )1X t X
1+ Y t [I X X tX )1X t ]Y
X (X
1
X tX )
Luego X (X X tX 2 = X 2 y en forma similar se muestra que
1 t
X t2X X tX X = X t2 (6.14)
1 /
Observacin 6.1. Si 1 es ortogonal a 2 se satisface que R ( 2 ) = R (
1) y
2 /
R ( 1 ) = R (
2 ).
Ejemplo 6.1. Suponga el modelo
Yi = 0 + Xi 1 + ei
n P0 1 t 2
X tX
La matriz X X = 2 , R(0 ) = n Y JY = nY . Por otro lado, R (1 /0 ) =
0 Xi
1 P 2
P 2
t X X ) X Y = P X 2 ( Xi Yi )2 y R(0 , 1 ) = nY + ( PXXi Y2i ) .
Y X (X t t 1
i i
Para efectos de este curso los valores de X sern igualmente espaciados (Xi =
a + ih). El modelo (6.17) puede reemplazarse por
donde los Pr (X)s (r = 1, ..., k) son coeficientes que se calculan para obtener polino-
mios ortogonales. Estos deben satisfacer
P
i) Pr (Xi ) = 0.
P
ii) Pr (Xi )Pr (Xi ) = 0, r 6= r .
P0 (Xi ) P1 (Xi )
1 a+b
1 a + 2b
1 a + 3b
1 a + 4b
1 a + 5b
P
i) P1 (Xi ) = 5a + 15b = 0.
92CAPTULO 6. ESTIMACIN E HIPTESIS EN MODELOS PARTICIONADOS
P
ii) P0 (Xi )P1 (Xi ) = 5a + 15b = 0.
P2 (Xi )
c+d+e
c + 2d + 4e
c + 3d + 9e
c + 4d + 16e
c + 5d + 25e
y as P
P02 (Xi ) P 0
P12 (Xi )
X tX = ..
.
P
0 Pk2 (Xi )
Por otro lado, P
P0 (Xi ) Yi
P P1 (Xi ) Yi
X tY = ..
P .
Pk (Xi ) Yi
Por lo tanto, la solucin es
P
P (X )Y
P 02 i i
P0 (Xi )
1 ..
b = X tX X tY =
.
P
P (X )Y
P k2 i i
Pk (Xi )
Ejemplo 6.2. Khuri & Cornell (1987) citan un experimento, en el cual se tomaron
12 ratones de igual tamao y edad, a los cuales se les suprima el alimento excepto
durante una hora por da durante 10 das. En el da 11, cada ratn fue inoculado
con una droga que disminua el hambre (en dosis de 0.3 y 0.7 mg/kg) despus de un
tiempo especfico (tiempos 1, 5 y 9 horas). Cada combinacin dosis tiempo se les
aplic a dos ratones. El peso, en gramos, de la comida ingerida por cada ratn fue
94CAPTULO 6. ESTIMACIN E HIPTESIS EN MODELOS PARTICIONADOS
Tabla 6.3: Peso por alimento consumido en ratones para los datos de Khuri y Cornell.
Dosis Droga Tiempo
(mg/kg) 1 5 9 Total
0.3 5.63 6.42 11.57 12.16 12.68 13.31 61.77
0.7 1.38 1.94 5.72 4.69 8.28 7.73 29.74
Total 15.37 34.14 42.00 91.51
0.3
0.3
0.7
12
0.7
10
Peso de la comida ingerida
8
6
4
2
2 4 6 8
Tiempo
Figura 6.1: Interaccin entre el tiempo y la dosis de la droga segn el peso por
alimento consumido por los ratones.
Tabla 6.5: Anlisis de varianza para el peso por alimento consumido en los ratones.
2
Como Rajus = 0.9644, se puede concluir entonces que el total de la variacin de
la cantidad de alimento ingerida por los ratones es explicada en un 96.44 % por las
variables dosis y tiempo. Los valores de prediccin y los residuales se presentan en
la tabla 6.6.
6.1. POLINOMIOS ORTOGONALES 97
En la prueba de falta de ajuste del modelo se puede presentar una de las siguientes
causas:
La prueba para el ajuste del modelo apropiado requiere dos condiciones que de-
penden de la naturaleza de los datos:
P
m
donde n = ni y m es el nmero de grupos diferentes que se pueden formar con
i=1
los mismos xs.
La suma de cuadrados del error puro es una parte de la suma de cuadrados del
error. Se puede escribir el error para la j-sima observacin en el i-simo grupo como
P
m P
ni P
m P
ni P
m P
ni
(yij yi )2 = (yij yi )2 + (yi yi )2
i=1 j=1 i=1 j=1 i=1 j=1
Suma de cuadrados Suma de cuadrados Suma de cuadrados
del error del error puro de la falta de ajuste
P
m P
ni
La igualdad se mantiene por el hecho que la suma del producto cruzado (yij
i=1 j=1
yi )(yi yi ) es cero.
100CAPTULO 6. ESTIMACIN E HIPTESIS EN MODELOS PARTICIONADOS
Los grados de libertad de cada una de las sumas de cuadrados anteriores son,
respectivamente,
m
X m
X
n l 1, (ni 1) = ni m = n m y m l 1
i=1 i=1
Con estos resultados, se tiene que el cuadrado medio del error puro es
m P
P ni
(yij yi )2
i=1 j=1
CMEP =
nm
Y ) = X
En este caso se plantea la hiptesis H0 : El modelo ajusta los datos (E(Y X),
se debe asumir que sta es cierta y como
(1) E(CMEP ) = 2
m
P
Y )X
ni | E(Y X
X|
(2) E(CMEF A) = 2 + i=1
ml1
6.1. POLINOMIOS ORTOGONALES 101
CMEF A
F = F(ml1;nm) bajo H0
CMEP
Si el valor de la estadstica es cercana a uno no se tendr evidencia para rechazar la
hiptesis nula.
Ejemplo 6.3. Para ilustrar el uso de la prueba de falta de ajuste del modelo de
segundo orden, se tiene en cuenta los datos de la cantidad de alimento consumido
por los ratones, presentado en el ejemplo 6.2. Se sabe que SCE = 4.14 con 7 grados
de libertad. Por consiguiente,
con glEP = 12 6 = 6, y
H0 : A = 0 (6.22)
A) = k.
con A matriz k p (k p), r(A
Observacin 6.3. . Es necesario que A sea de rango completo por fila (sean lineal-
mente independientes) y as no se va a tener hiptesis redundantes.
102CAPTULO 6. ESTIMACIN E HIPTESIS EN MODELOS PARTICIONADOS
Y = XW 1W + e
Si W 1 = .. entonces (6.22) se escribe como
Ct
C . Dt
A
. + e
X
Y =X C t .. D t
B
XC tA + XD tB + e
=XC (6.23)
Observe que el modelo (6.24) tiene una estructura similar al modelo (6.1). Por
lo tanto, el resultado de la prueba de hiptesis de ese modelo es aplicable a (6.24),
o sea para realizar la prueba H0 : A = 0 se debe usar la razn de verosimilitud
generalizada
1
2/n = h 1
i
t
Y Z (Z t 1 t
Z Z ) Z Z Z 2 (Z t2Z 2 ) Z t2 Y
1+ Y t [I Z Z tZ )1Z t ]Y
Z (Z
Por lo tanto,
t
1 t t 1 X tX ) C t C (X
C (X X tX ) D t
ZZ= W X XW =
X tX ) C t D (X
D (X X tX ) D t
y su inversa es
t
1 t
1 t X tX )1 A t A (X
A (X X tX )1 B t
ZZ =W X X W = (6.26)
X tX )1 A t B (X
B (X X tX )1 B t
y finalmente
1 1 1
Z Z tZ Z t =XW
XW 1W X tX Wt Wt Xt
1 t
X X tX
=X X
Z ) = r(X
verificndose de esta manera que r(Z X) = p
X tX )1 B = 0 , entonces en (6.26)
Si B se construye de tal forma que A (X
t
1 X tX )1 A t
A (X 0
ZZ =
0 X tX )1 B t
B (X
y as
t X tX ) C t
C (X 0 Z t1Z 1 0
ZZ= =
0 X X ) Dt
D (X t
0 t
Z 2Z 2
D tB = I C tA
X tX ) = C (X
as C (X X tX )1 entonces
X tX ) C tA y postmultiplicando por (X
1
C = C X tX C tA X tX (6.27)
y nuevamente, por la ortogonalidad se encuentra que
h 1 t 1 t i h 1 t i
Y t Z Z tZ Z Z 2 Z t2Z 2 Z 2 Y = Y t Z 1 Z t1Z 1 Z1 Y
entonces 1 1
Z 1 Z t1Z 1 Z t1 = XC t C X tX C t CX t
Reemplazando el valor de C encontrado en (6.27), se obtiene
1 t 1 t 1 t
Z 1 Z t1Z 1 Z 1 = X X tX A C X tX C tA X tX X
y volviendo a reemplazar C por el valor encontrado en (6.27), se satisface
h i1
t t t 1 t
C (XX X ) C = A (X X X) A y as
h
t t
1 t i t t
1 t h t
1 t i1 t
1 t
Y Z 1 Z 1Z 1 Z1 Y = Y X X X A A XX A A XX X Y
y el cociente
h i1
t t 1 t t 1 t t 1 t
X X ) A A (X
(n p) Y X (X X X) A X X) X Y
A (X
F(k,np,)
X tX )1 X t Y
Y t I X (X
kY
Por otro lado, tambin se puede verificar que cuando p y 2 > 0, la funcin
de verosimilitud se maximiza con
1 t
= Z tZ ZY
2 1 2 1 t t
1 t
Y Z
= kY k = Y I Z Z Z Z Y (6.30)
n n
y de esta forma la razn de verosimilitud es
Sup Y , 2 ; 2)
L (Y n/2
1 m;2 >0
=m 2
= = 2
Y , 2 ; 2)
Sup L (Y H
p ;2 >0
y entonces
1
n/2 = 2
(6.31)
H / 2
utilizando (6.29) y (6.30) y reemplazando en (6.31), se obtiene
1
n/2 = h
t 1
i
Y Z
(Y Z 2 (Z t2Z 2 ) Z t2 (Y
Z 1m ) I Z Y Z
Z 1m )
Y t [I Z Z tZ )1Z t ]Y
Z (Z
1
= h 1
i
Y Z
(Y t
Z 2 (Z t2Z 2 ) Z t2 (Y
Z 1m ) I Z Y Z Y t [I Z
Z 1m )Y Z tZ )1Z t ]Y
Z (Z
Y t [I Z Z tZ )1Z t ]Y
Z (Z
106CAPTULO 6. ESTIMACIN E HIPTESIS EN MODELOS PARTICIONADOS
y as
1
n/2 = h 1
i (6.32)
Y Z
(Y t
Z 2 (Z t2Z 2 ) Z t2 (Y
Z 1m ) I Z Y Z Y t [I Z
Z 1m )Y Z tZ )1Z t ]Y
Z (Z
1+ Y t [I Z Z tZ )1Z t ]Y
Z (Z
h i h i
pero como I Z (Z Z tZ )1 Z t Z = 0 entonces I Z (Z
Z tZ )1 Z t Z 1 = 0 y al susti-
tuir en (6.32), entonces
1
n/2 = h 1
i
(Y Z 1m )t I Z
Y Z Z 2 (Z t2Z 2 ) Z t2 (Y
Y Z
Z 1m )(Y Z 1m )t [I Z
Y Z Z tZ )1Z t ](Y
Z (Z Y Z
Z 1m )
1+ Y t [I Z Z tZ )1Z t ]Y
Z (Z
1
= h 1
i (6.33)
Y Z
(Y t
Z 1m ) Z (Z Z 2 (Z t2Z 2 ) Z t2 (Y
Z tZ )1Z t Z Y Z
Z 1m )
1+ Y t [I Z Z tZ )1Z t ]Y
Z (Z
Z tZ )1 Z t = X (X
i) Z (Z X tX )1 X t .
h i h i
t t 1 t t 1 t t t 1 t
Z Z ) Z Z 2 (Z
ii) Y Z (Z Z 2Z 2 ) Z 2 Y = Y Z 1 (Z
Z 1Z 1 ) Z 1 Y .
1
n/2 = t 1
(Y Z 1m ) Z 1 (Z t1Z 1 )
Y Z Z t1 (Y
Y Z 1m )
Z
1+ Y t
[ Z (Z
I Z t 1 t
Z Z) Z Y ]
X 1 1 + e 1
Y 1 =X (6.34)
X 2 2 + e 2
Y 2 =X (6.35)
H0 : 1 = 2 vs Ha : 1 6= 2
Y = X + e
H0 : 1 = 2 o equivalentemente H0 : A = 0
donde
1 t
t t
b = X t 1X X t 1Y = b1 , b2
con bi = (X
X tiX i )1X tiY i , con esto se tiene que (6.36) es reescrita como
t 1
b1 b2 12 (X
X t1X 1 )1 + 22 (X
X t2X 2 )1 b1 b2 2(k)
108CAPTULO 6. ESTIMACIN E HIPTESIS EN MODELOS PARTICIONADOS
donde n = n1 + n2 .
n2k
b b [c(XX t
X ) 1
+ X
(X t
X ) 1 1 b
] b
k 1 2 1 1 2 2 1 2
F = (6.37)
(n1 k)CME1 /c + (n2 k)CME2
bajo H0 , F F(k,n2k) .
Observacin 6.4. En general 12 y 22 son desconocidos, y en consecuencia, tambin
12
22
. En este caso, en (6.37) puede utilizarse CMEi (i = 1, 2) y entonces la prueba es
aproximada Ali & Silver (1985).
6.4. Ejercicios
1. Para el modelo particionado Y = X 1 1 + X 2 1 + d se le asocian dos anlisis de
varianza, pruebe que si X t1X 2 = 0, estos dos anlisis de varianza son idnticos.
2. Mltiples regresiones basadas en 60 individuos de Y en X1 , X2 , X3 , X4 ,
X5 y X6 , generan las siguientes sumas de cuadrados: SCTCM = 19306,
SCR(X1 /X0 ) = 6291, SCR(X2 /X0 ,X1 ) = 997, SCR(X3 ,X4 /X0 ,X1 ) = 1420,
SCR(X3 ,X4 /X0 ,X1 ,X2 ) = 2283 y SCR(X1 ,X2 ,X3 ,X4 ,X5 ,X6 |X0 ) = 11064. Usando los
mismos datos anteriores, realice una prueba estadstica que compare los dos
siguientes modelos:
Y = 0 + 1 X1 + 2 X2 + 3 X3 + 4 X4 + 5 X5 + 6 X6 + e
6.4. EJERCICIOS 109
versus
Y = 0 + 1 X1 + 2 X2 + 3 X3 + 4 X4 + e
Y = 0 + 1 X1 + 2 X2 + 3 X3 + 4 X4 + 5 X5 + e versus Y = 0 + 1 X1 + e
Fuente gl SC CM
RegresinCM
X 1 153784.8 153784.8
X 2 /X 1 88.3 88.3
Residuo
Bondad de Ajuste 15 2773.9 184.9
Error Puro 8 911.5 113.9
TotalCM 25 157558.5
110CAPTULO 6. ESTIMACIN E HIPTESIS EN MODELOS PARTICIONADOS
Dosis/Ha
20 40 60
54 70 65
45 80 58
52 75 60
39 82 55
T1 T2 T3
2 4 6
3 2 7
2 5 8
1 2 3
1 4 6 8
9 6
5
2 5 4 3
7
7.1. Introduccin
Y = X + e (7.1)
donde Yn1 es un vector de variables aleatorias, Xnp una matriz de efectos conocida
(matriz de diseo) de rango k mn{n, p}, p1 un vector de parmetros desco-
nocidos y en1 un vector de variables aleatorias no observables, se supone adems
112
7.2. CONCEPTOS BSICOS DE MODELOS LINEALES 113
que en1 N(0, 2 Inn ), con 0 un vector de ceros y una matriz identidad Inn de
tamao n.
Estimacin de parmetros
Anlisis de varianza
Y Rn
e C (X) Y C(X)
P 2
donde ||Y ||2 = Y t Y = Yi hace referencia a la suma de cuadrados total no co-
rregida; ||Y || = ||P Y || = Y t P Y hace referencia a la suma de cuadrados de los
2 2
Las sumas de cuadrados asociados al modelo (7.1) pueden ser descritas a travs
de la notacin R (Speed et al. 1978), la cual es til en la caracterizacin de la suma
de cuadrados en los modelos S.
R() = (0 )t X t Y (7.3)
Ejemplo 7.1. Considrese el conjunto de datos de la tabla 7.1. En este caso, cada
observacin se puede caracterizar mediante el modelo
Tabla 7.2: Tabla de anlisis de varianza para los datos del ejemplo 7.1.
C de V gl Sumas de Cuadrados Valor F Pr>F
Cuadrados Medios
Modelo 4 240 60 15 0.0054
Error 5 20 4
TotalCM 9 260
Los modelos superparametrizados, han sido de gran utilidad, ya que ellos mues-
tran explcitamente cada uno de los parmetros del modelo. Sin embargo, Speed
7.2. CONCEPTOS BSICOS DE MODELOS LINEALES 117
et al. (1978), Hocking (1985), Searle (1987), entre otros, afirman que estos modelos
presentan algunos inconvenientes como por ejemplo el de poseer ms parmetros que
medias de celda para estimarlos; este problema se acenta an ms con la presencia
de celdas vacas. Por lo anterior, proponen los modelos de medias de celdas, los cuales
presentan la ventaja de describir hiptesis con gran simplicidad, en comparacin con
el modelo S.
Y = W + e (7.4)
Ecuaciones normales
Retomando los datos de la tabla 7.1, el modelo lo podemos escribir como yijk =
ij + eijk , con ij = + i + j + ij , se observa que el vector de parmetros se reduce
a las medias de las celdas en trminos del modelo (7.4). Para ilustrar este modelo,
volvemos a los datos del arreglo presentado en la tabla 7.1.
modelo:
Y111 7 1 0 0 0 0
Y112 9 1 0 0 0 0 e111
e112
Y121 8 0 1 0 0 0
11 e121
Y131 2 0 0 1 0 0
12 e131
Y132
= 4 = 0 0 1 0 0 13 + e132
Y211 5 0 0 0 1 0
21 e211
Y212 7 0 0 0 1 0
22 e212
Y221 14 0 0 0 0 1
e221
Y222 15 0 0 0 0 1
e222
Y223 19 0 0 0 0 1
Bajo el supuesto de que los errores tengan media 0 y varianza constante, se llega
a la siguiente solucin de mnimos cuadrados
7.3. Estimabilidad
SCH0 = (t 0 )t t (X t X) 1 (t 0 ) (7.6)
la cual constituye una forma simple y prctica para el clculo de sumas de cuadrados
asociados a una hiptesis lineal, resultados que pueden verse en Iemma et al. (1999).
Sea el modelo lineal (7.1), donde se satisface que E(Y ) = X, el inters inicial,
es estimar parmetros de o alguna combinacin lineal de estos, notados por t , a
partir de una combinacin lineal de los componentes del vector Y que tengan como
valor esperado t , la cual es estimable si y solo si existe una combinacin lineal de
los componentes del vector Y cuyo valor esperado es t (Rao & Mitra 1971).
Una vez determinado el conjunto generador de t , donde t tiene rango fila com-
pleto, t puede ser estimado por t 0 , con 0 solucin de las ecuaciones normales
X t X = X t Y .
1 3 6
Mtodo 1.
Para que sea estimable se debe satisfacer que at X = t . Por consiguiente reali-
zando este procedimiento matricialmente se llega:
En i)
1 1 2
1 2 4
(2 1 0 0)X = (2 1 0 0)
1
= (1 0 0) = t1
1 2
1 3 6
En ii)
1 1 2
1 2 4
(1 1 0 0)X = (1 1 0 0)
1
= (0 1 2) = t .
1 2 2
1 3 6
Luego 0 y 1 + 22 son estimables.
Mtodo 2.
.
Este mtodo consiste en particionar X en X = [X1 .. X1 D], donde X1 tiene r
funciones columnas linealmente independientes y D es de dimensin (p r). t es
.
estimable si y slo si t = [K t .. K t D], donde K t tiene r elementos y K t D tiene
1 1 1 1
(p r) elementos.
t1 = (1 0 0) es estimable si
0
K1t = (1 0), K1t D = (1 0) = 0.
2
..
Como t1 = [K1t . K1t D], entonces t1 es estima-
t t
ble. En el segundo caso 2 = (0 1 2) si K1 = (0 1) y
.
K1t D = (0 1)(0 2)t = 2, se observa que t2 = [K1t .. K1t D] luego es estimable.
En el tercer caso t3 = (0 1 0), se observa que K1t = (0 1) y K1t D = (0 1)(0 2)t = 2,
.
teniendo en cuenta que t es diferente de [K t .. K t D], encontrndose as que esta
3 1 1
funcin no es estimable.
Mtodo 3.
Retomando el ejemplo,
1 1 2
0
1 0
2 4
2 = 0
XC =
1
1 2 0
1
1 3 6 0
122 CAPTULO 7. MODELOS DE ANLISIS DE VARIANZA
Observe que:
Mtodo 4.
Prueba.
) Si t es estimable entonces t = at X para algn a y t H = t (X t X)g (X t X) =
at X(X t X)g (X t X) = at PX X = at X = t .
Retomando el ejemplo,
4 7 14
(X t X) = 7 15 30
14 30 60
una g-inversa es
15 7 0
1
(X t X)g = 7 4 0
11
0 0 0
obtenindose entonces que
7.3. ESTIMABILIDAD 123
observando que el espacio de estimacin coincide con el que contiene todos los
MELIS, es decir, at Y pertenece al espacio de estimacin si y slo si at Y es el
MELI de su esperanza.
Prueba.
MELI(t ) = t 0 = t (X t X)g X t Y
y
V ar(MELI(t )) = V ar(t ) = t V ar(0 )= t (X t X)g 2 = q t 2 .
32 0
De las EN
6 +31 +22 +3 = Y..
3 +31 = Y1.
(7.8)
2 +22 = Y2.
+3 = Y3.
V ar(MELI(1 2 )) = V ar(1 2 ) = q t 2
= q t X t Xq = V ar(q t X t Y ) = q t 2
1 1 t 2 5
= 0 0 [0 1 1 0] = 2 .
3 2 6
Y1. 2
Y1.2
Y1. 1 3 9 Y1.2
SC = SC (1 1 1 0 0 0)Y = = 1 =
3 3 at a 3
3
entonces
Y1. 2 Y1. (3 + 31 )2
E SC = + SC = 2 + = 2 + 3( + 1 )2 .
3 3 3
Y = Z + e (7.11)
Y = X + e = (X ) + e. (7.12)
128 CAPTULO 7. MODELOS DE ANLISIS DE VARIANZA
b) Hay una correspondencia uno a uno entre las funciones estimables de los mo-
delos (7.1) y (7.12).
c) Los MELI de las correspondientes funciones estimables son idnticos.
Teorema 7.4. Un modelo de las hiptesis lineales que no sea de rango comple-
to, puede expresarse siempre como uno de rango completo sobre cualquier conjunto
deseado de k funciones estimables linealmente independientes, donde k es el rango
de la matriz asociada al modelo.
11/6 4/3 11/6 3/2 4/3 90 11
4/3 4/3 4/3
1 4/3 30 8
11/6 4/3 7/3 3/2 11/6 =
28 5
3/2 1 3/2 3/2 1 56
5
4/3 4/3 11/6 1 7/3 16 10
pero como Y = X + e = ZT + e = Z + e, entonces X = ZT , donde
1 0 1 0 0 1 0 1 1 0 1
0 1 1 0 0 0 0 1 0 0 1
t 1 t
T = (Z Z) Z X = 0 0 0 1 0 1 0 1 1 1 1
0 0 0 0 1 1 0 1 1 0 0
0 0 0 0 0 0 1 1 0 1 1
Finalmente se observa que el vector de parmetros en el modelo reparametrizado se
puede escribir en trminos de los parmetros del modelo superparametrizado, reali-
zando la siguiente transformacin:
+ 2 + 3 12 + 13 + 22
1 2 + 12 22
= T =
1 3 + 12 13 + 21 22
2 3 + 12 13
11 12 21 + 22
(X12 , . . . , Xq2 ) en el modelo, o tambin si Y = F (X1 /X2 ), es decir que si X11 , . . . , Xp1
explican a Y dado que estn incluidos en el modelo X12 , . . . , Xq2 . En ste caso se puede
ajustar los modelos
Y = X1 1 + X2 2 (7.13)
o
Y = X2 2 + X1 1 . (7.14)
se considera el modelo,
Y = X2 2 + e (7.15)
entonces
R(2 ) = (20 )t X2t Y, (7.16)
donde 20 es una solucin al sistema X2t X2 2 = X2t Y .
Y t (P12 P1 )Y = Y t P2 Y, Y
y
Y t (P12 P2 )Y = Y t P1 Y, Y
luego P12 = P1 + P2 o tambin X1t P12 X2 = X1t P1 X2 + X1t P2 X2 , lo cual implica que
X1t X2 = 0.
Las sumas de cuadrados asociadas a cada una de las causas de variacin y con la
finalidad de obtener la tabla de anlisis de varianza asociada a los datos del ejemplo
7.3, se debe tener en cuenta el siguiente procedimiento:
y..2 (50.4)2
= = = 423.36
6 6
P3
con n = i=1 ni , la cual se conoce como suma de cuadrados asociado a la
media.
7.4. MODELOS LINEALES PARTICIONADOS Y SUMASDE CUADRADOS ASOCIADAS133
X3
1 2 y..2
SCM = y
i=1
ni i. 6
1 1 (50.4)2
= (300)2 + (172)2 + (32)2 = 45932.64
3 2 6
Tabla 7.4: Tabla de anlisis de varianza del modelo particionado para los datos del
ejemplo 7.3.
Causas de Variacin gl SC
2
y..
Media (X1 1 ) 1 6 = 423.36
P3
1 2
2
y..
Modelo (X2 2 /X1 1 ) 2 ni yi. 6 = 45392.64
i=1
P3 Pni
2
P
3
1 2
Residual 3 yij ni yi.
i=1 j=1 i=1
P3 P ni
2
Total 6 yij
i=1 j=1
Ejemplo 7.6. Hinkelman & Kempthorne (1994) consideran un modelo a dos vas
de clasificacin sin interaccin, es decir
1 1
Xr /1 Xc /1
y
Xc /1, Xr Xr /1, Xc
I/1, Xr , Xc I/1, Xr , Xc
Reemplazando por las matrices asociadas al proyector, se satisface que el lado iz-
quierdo en (7.28) es Xrt Xc Xrt Xc = 0 y el lado derecho es Xrt Xc Xrt P1 Xc . De esta
manera, Xrt Xc = n1 (Xrt 1)(1t Xc ) es el nmero de observaciones para cada combinacin
fila-columna, entonces se dice que hay una nica ANOVA si hay proporcionalidad en
las celdas.
136 CAPTULO 7. MODELOS DE ANLISIS DE VARIANZA
t t t
X123 X123 B123 = X123 y P123 = X123 B123 = X123 (X123 X123 ) X123 t
..
.
t t t
X1k X1k B1k = X1k y P1k = X1...k B1k = X1k (X1k X1k ) X1k
t
Y = X1 1 + d
Y = X1 1 + X2 2 + d
..
.
Y = X1 1 + X2 2 + + Xk k + d
Observacin 7.7. Cada modelo va a tener k! anlisis de varianza, una para cada
orden posible en el que se arreglan las k-componentes. Si hay ortogonalidad o sea si
Xit Xj = 0 se va a tener un nico anlisis de varianza.
Ejemplo 7.7. Suponga el siguiente conjunto de datos de la tabla 7.6, donde se ca-
racteriza un modelo a dos vas sin interaccin.
Tabla 7.6: Datos ficticios para un modelo de clasificacin a dos vas sin interaccin.
Factor B
Factor A 1 2 3 4
1 3.5 2.6 2.9 3.6
2 2.8 1.9 2.1 3.4
3 3.8 2.9 3.2 3.2
4 4.1 4.9 4.2 4.3
5 2.7 1.6 1.8 2.5
La matriz diseo para este conjunto de datos asociada al modelo (7.1) esta dada
por
. . . .
X = [X1 .. X2 .. X3 ] = [120 .. I5 14 .. 15 I4 ].
1. Yij = + eij ; i = 1, 2, . . . , 5; j = 1, 2, 3, 4.
En este caso, Y = [3.5, 2.6, 2.9, 3.6, 2.8, 1.9, 2.1, 3.4, 3.8, 2.9, 3.2, 3.2, 4.1, 4.9, 4.2,
4.3, 2.7, 1.6, 1.8, 2.5]t,
1
P1 = X1 (X1t X1 ) X1t = J20
20
con J20 es una matriz de unos de tamao 20 20 y X1 = 120 es un vector de
unos de tamao 20 1.
138 CAPTULO 7. MODELOS DE ANLISIS DE VARIANZA
t 1
P12 = X12 (X12 X12 ) X12
t
= (I5 J4 )
4
donde I5 una matriz identidad de tamao 55, J4 una matriz de unos de
.
tamao 4 4 y X12 = [120 .. I5 14 ].
La suma de cuadrados asociada a este modelo es
En este caso, la suma de cuadrados asociada al error para este modelo esta
dada por
. .
donde, X123 = [120 .. I5 14 .. 15 I4 ]. La suma de cuadrados asociada a este
modelo esta dada por
Tabla 7.7: Anlisis de varianza para los datos del ejemplo 7.7 con el modelo completo.
C de V gl SC CM F Valor p
Modelo Correg. 7 13.15 1.8786 10.87 0.0002
Error 12 2.07 0.1727
Total correg. 19 15.22
Con estos resultados, se construye la tabla 7.7 de ANOVA para el modelo completo
sin interaccin.
Los grados de libertad (gl) y la suma de cuadrados del modelo asociados a la tabla
7.7 se descompone en los efectos que aparecen en la tabla 7.8.
Tabla 7.8: Suma de cuadrados tipo I para los datos del ejemplo 7.7.
C de V gl SC CM F Valor p
A 4 11.46 2.86 16.58 0.0001
B 3 1.69 0.56 3.26 0.0593
Error 12 2.07 0.17
o equivalentemente,
(1)
H0 : 1 = 2 = 3 = 4 = 5
se rechaza (valor p=0.0001).
o equivalentemente,
(2)
H0 : 1 = 2 = 3 = 4 = 5
no se rechaza a un nivel de significancia del 5 % (valor p=0.0593).
140 CAPTULO 7. MODELOS DE ANLISIS DE VARIANZA
En esta seccin se lleva a cabo el desarrollo de cada una de las sumas de cuadrados
presentadas, siguiendo la lgica del procedimiento GLM del paquete estadstico SAS
(2014).
Las funciones estimables tipo I, definen las hiptesis a probar cuando la reduc-
cin en suma de cuadrados es calculada para cada efecto ajustado por los efectos
precedentes.
Las funciones estimables tipo I son obtenidas haciendo una debida particin en la
matriz X como en (7.30), de acuerdo con los parmetros del modelo. Las funciones
estimables se obtienen segn sea el inters de entrada de los diferentes trminos al
modelo; por ejemplo el modelo (7.1) se puede expresar como Y = X1 +X2 +X3 +e,
entonces para obtener las funciones estimables tipo I, se construyen las siguientes
matrices iniciales asociadas a cada uno de los efectos:
. .
G1 =(X1t X1 .. X1t X2 .. X1t X3 )
. .
G2 =(0 .. X2t M1 X2 .. X2t M1 X3 )
. .
G3 =(0 .. 0 .. X3t M2 X3 )
G1 =(X1t X1 ) G1
G2 =(X2t M1 X1 ) G2
G3 =(X3t M2 X3 ) G3
ii) Si E2 tiene ms variables que E1 y si E1 tiene variables de tal forma que todas
las de E1 estn en E2 .
La forma general de las funciones estimables puede ser manejada para obtener
pruebas de hiptesis que involucren solo el efecto en cuestin.
Goodnight (1978) describe un proceso reversible para obtener las funciones esti-
mables tipo II basado en la siguiente definicin:
7.5. SUMAS DE CUADRADOS Y FUNCIONES ESTIMABLES 143
El anlisis tipo III est asociado con las sumas de cuadrados parciales, llama-
do anlisis completo de mnimos cuadrados, el cual equivale al anlisis de medias
cuadrticas de Yates. Se aplica principalmente cuando se requiere comparar efectos
principales, an en presencia de interaccin. Cada efecto es ajustado por los dems,
lo que implica que si el modelo contiene slo efectos principales, entonces el anlisis
tipo II es igual al anlisis tipo III.
144 CAPTULO 7. MODELOS DE ANLISIS DE VARIANZA
La definicin anterior implica que las funciones estimables tipo II pueden ser
transformadas a las funciones estimables tipo III, haciendo que cada L de orden in-
ferior sea ortogonal a los L de todos los efectos que contienen al efecto de inters.
Adicionalmente, si un efecto no esta contenido en otro, entonces las funciones esti-
mables tipo II y tipo III coinciden. Las funciones estimables tipo III se construyen
de la siguiente forma:
Si existen coeficientes libres fuera del factor E1 , entonces cada uno de estos coe-
ficientes se iguala a una funcin de los coeficientes libres de E1 , de esta manera se
construyen las funciones estimables tipo III, para el efecto E1 , ortogonales a cada
una de las dems funciones estimables tipo III que contienen E1 .
Otra alternativa para la construccin de las funciones estimables tipo III consiste
en encontrar un conjunto de vectores linealmente independientes, asignando un vector
a cada coeficiente libre y anulando los dems coeficientes. El nmero de vectores
fila generado, corresponde al nmero de coeficientes libres. Se inicia con el primer
vector fila, anulando todos los parmetros asociados con E1 ; los dems vectores
se hacen ortogonales al primer vector por medio de operaciones entre filas, de tal
7.5. SUMAS DE CUADRADOS Y FUNCIONES ESTIMABLES 145
forma que el primer factor se anule. El proceso contina hasta anular todos los
parmetros asociados con E1 . Los parmetros resultantes son expresados nuevamente
en la notacin inicial y de esta manera, se obtienen las funciones estimables tipo III
asociadas a E1 .
Para algn efecto E1 , si E1 no est contenida en algn otro efecto entonces las
funciones estimables tipo II, III y IV son iguales. Cuando E1 est contenida en otros
efectos entonces las funciones estimables tipo IV asignan la misma ponderacin a los
niveles altos de los contrastes lineales asociados a los parmetros de E1 .
Las funciones estimables tipo IV, para un efecto E1 pueden ser construidas de la
base de funciones estimables, tomando los smbolos asociados a E1 de la siguiente
forma: considere que el efecto E1 est contenido en otros efectos de acuerdo con
un orden determinado (segn el nmero de efectos que componen una interaccin).
Cuando hay celdas vacas, los coeficientes de efectos intermedios (de acuerdo al orden)
no tendrn siempre una asignacin igual a los coeficientes asignados para los efectos
de orden bajo, as siempre se determinan primero los coeficientes de ms alto orden.
Una vez que los coeficientes de orden superior son hallados, los coeficientes de efectos
intermedios quedan determinados.
ii) Si alguno de los niveles del factor E1 tiene como coeficiente el cero, entonces
se igualan a cero todos los coeficientes de orden superior que contengan dicho
nivel.
iii) Si un coeficiente de algn nivel superior es cero y el coeficiente del nivel asociado
para E1 es diferente de cero, entonces las funciones estimables para este efecto
no son nicas.
Dentro de los varios tipos de hiptesis existentes, el procedimiento GML del SAS,
incorpora, en relacin con el modelo en estudio, cuatro tipos de funciones y sumas
de cuadrados para probar efectos de filas, cuatro para probar efectos de columnas y
uno para el efecto de interaccin. Aqu solamente se considera un tipo en cada caso.
a) Hiptesis Tipo I. Las hiptesis tipo I, igualdad entre los efectos de filas, se
verifica a travs de las medias ponderadas. Utilizando el modelo (7.4), se tiene
(1) 2 2 2 1 2 2 3
H0 : 1 2 2 + 3 + 11 + 12 + 13 21 22 = 0
5 5 5 5 5 5 5
que sin duda no es una hiptesis simple de ser interpretada y que es bien
diferente de la hiptesis H0 : 1 = 2 (o H0 : 1 2 = 0) que en general, un
investigador cree estar probando.
Utilizando el modelo (7.4), la hiptesis nula se puede escribir de la forma:
(1)
H0 : t1 = 0, donde t1 = [ 25 , 15 , 25 , 25 , 35 ]. En este caso, a1 = W + 1 , entonces
E(at1 Y ) = t1 , donde
t 1 1 1 1 1 1 1 1 1 1
a1 = , , , , , , , , ,
5 5 5 5 5 5 5 5 5 5
148 CAPTULO 7. MODELOS DE ANLISIS DE VARIANZA
encontrndose
(1)
SCH0 = R(t /) = Y t P1 Y
= (t1 )t [t1 (W t W )1 1 ]1 (t1 ) = 90.
b) Hiptesis Tipo II. Con las hiptesis Tipo II, se prueban los efectos de co-
lumnas a travs de medias ponderadas de columnas ajustadas por filas. Para
los datos utilizados se tiene, conforme Searle (1987) y Iemma et al. (1999)
(
211 +221
(6) 4
= 2F1 +2
4
F2
H0 12 +322
4
= F1 +3
4
F2
donde
211 + 12 + 213 221 + 322
F1 = y F2 = .
5 5
Obtenindose finalmente
3 1 1 3 3
10 11 10 12 5 13 + 10 21 10 22 = 0
(6)
H0
1
10 11 + 15 12 10
1 3
13 10 3
21 + 10 22 = 0
la cual no contiene los efectos de fila, pues en esta hiptesis los efectos de
columnas estn ajustados por filas.
7.6. HIPTESIS MS COMUNES SOBRE FILAS Y COLUMNAS 149
(6)
En el modelo (7.4), la hiptesis a probar se puede escribir como H0 : t2 = 0,
donde 3
1
10
10 15 3
10
3
10
t2 =
1 1 1 3 3
10 5
10 10 10
(6)
Luego SCH0 = R(i,j /i ) = R(/, ) = Y t P2 Y = 107.14.
c) Hiptesis Tipo III. Con esta hiptesis, la igualdad entre efectos de fila es
verificada a travs de sus medias no ponderadas. En este caso las frecuencias
de celdas no son importantes. Continuando con el ejemplo de inters se tiene
(3) 11 + 12 21 + 22
H0 : =
2 2
Se observa que para esta hiptesis no se utiliza la informacin de la celda (1,3).
En trminos del modelo (7.1), la hiptesis de inters es
(3) 1 1 1 1
H0 : 1 2 + 11 + 12 21 22 = 0.
2 2 2 2
150 CAPTULO 7. MODELOS DE ANLISIS DE VARIANZA
(3)
En el modelo (7.4), la hiptesis nula se puede expresar como H0 : t3 = 0,
donde t3 = [ 12 , 12 , 0, 12 , 12 ], realizando las respectivas operaciones, se encuen-
tra
t 1 1 1 1 1 1 1 1
a3 = , , , 0, 0, , , , ,
4 4 2 4 4 6 6 6
9 9 18 0 0 9 9 6 6 6
9 9 18 0 0 9 9 6 6 6
18 18 36 0 0 18 18 12 12 12
0 0 0 0 0 0 0 0 0 0
1 0 0 0 0 0 0 0 0 0 0
P3 =
84 9 9 18 0 0 9 9 6 6 6
9 9 18 0 0 9 9 6 6 6
6 6 12 0 0 6 6 4 4 4
6 6 12 0 0 6 6 4 4 4
6 6 12 0 0 6 6 4 4 4
y entonces,
(3)
SCH0 = R(ij /j,ij ) = R(/, , ) = Y t P3 Y = 15.43
d) Hiptesis tipo IV. Con las hiptesis tipo IV, la igualdad entre factores de
columnas se verifica a travs de medias no ponderadas. En este contexto, stas
pueden ser semejantes a las tipo III. Si existen celdas vacas y ms de dos
niveles de cada factor, en general, las hiptesis tipo III y IV son diferentes.
Las hiptesis tipo IV no son nicas, en general, cuando hay celdas vacas, estas
dependen de la cantidad y la posicin de las celdas. Las hiptesis tipo IV
pueden ser obtenidas construyendo contrastes entre medias de celdas que estn
en la misma columna, despus de cambiar las filas por columnas en el tabla
7.1, inicindose el proceso siempre por la ltima fila. De esta forma, se obtiene
la tabla 7.9.
Tabla 7.9: Arreglo de la informacin del tabla 7.1 para construir de las funciones
estimables tipo IV.
i=1 i=2
j=1 Y111 = 7 Y112 = 9 11 Y211 = 5 Y212 = 7 21
Se puede observar, en este caso, que esta hiptesis no considera ninguna ob-
servacin de la fila 2. En trminos del modelo (7.1), esta hiptesis se puede
escribir como (
(8) 1 3 + 11 13 = 0
H0
2 3 + 12 13 = 0
donde
0 1 1 0 0
t4 =
1 0 1 0 0
y entonces
1 1
0 0 1 0 0 0 0 0
at4 = 2 2
21 12 0 1
2
1
2
0 0 0 0 0
y as,
3 3 2 2 2 0 0 0 0 0
3 3 2 2 2 0 0 0 0 0
2 2 8 2 2 0 0 0 0 0
2 2 2 3 3 0 0 0 0 0
1
P4 = 2 2 2 3 3 0 0 0 0 0
10
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
(8)
encontrndose SCH0 = Y t P4 Y = 30.
esa regla deja de ser vlida. En el ejemplo se tiene apenas una interaccin que
puede ser estimada
=11 + 22 12 21
t5 = [1 1 0 1 1],
1 1 1 1 1 1 1
at5 = t5 (W + )t = , , 1, 0, 0, , , , ,
2 2 2 2 3 3 3
y
9 9 18 0 0 9 9 6 6 6
9 9 18 0 0 9 9 6 6 6
18 18 36 0 0 18 18 12 12 12
0 0 0 0 0 0 0 0 0 0
1
0 0 0 0 0 0 0 0 0 0
P5 =
84
9 9 18 0 0 9 9 4 4 4
9 9 18 0 0 9 9 4 4 4
6 6 12 0 0 4 4 4 4 4
6 6 12 0 0 4 4 4 4 4
6 6 12 0 0 4 4 4 4 4
7.8. Implementacin en R
anova(glm.D93)
summary(glm.D93)
summary(LinearModel.2)
7.9. Ejercicios
1. Escriba los supuestos que se hacen sobre el error experimental en los modelos
y diga qu importancia tienen en el anlisis estadstico.
2. Dado el modelo lineal
y1 2 1
= +
y2 1 2
halle la estimacin de mnimos cuadrados de y la suma de cuadrados residual.
3. Sean X N(1 , 2 ), Y N(2 , 2 ) variables independientes. En muestras de
tamao n1 de X, n2 de Y , plantear la hiptesis nula H0 : 1 = 2 mediante
el concepto de hiptesis lineal contrastable y deducir el test t de Student de
comparacin de medias a partir del test F .
4. Para el modelo particionado E(Y ) = X1 1 + X2 2 , considere el modelo super-
parametrizado E(yij ) = + i con i = 1, . . . , a y j = 1, . . . , ni .
b y b a travs de e.
i.
ii. M = bt X t Y
iii. M = Y t P Y ; P = X(X t X)1 X t
iv. R = Y t Y bt X t Y .
t1 t2
b1 2 4
b2 3 6
b3 5 5
Y t AT Y = Y t Ab Y + Y t At Y + Y t AR Y
donde
1
Ab = np
E(n) p.I(p) E(p)
1
At = np n.I(n) E(n) E(p)
1
AR = np nI(n) E(n) p.I(p) E(p)
AT = Ab + At + AR
en este caso se tienen 6 observaciones y adems I y E son matrices identidades
y matrices cuadradas con todos los elementos iguales a 1, respectivamente.
9. Considere el modelo
y los contrastes
m
X m
X
(1) (2)
C1 = ai i y C2 = ai i
i=1 i=1
12. Suponga que se tiene el modelo (1): Y = X + e, sea P una matriz no singular
tal que se tiene el modelo (2) P 1 Y = P 1X + P 1 e. Pruebe que t es
estimable en el modelo (1) si y solo si es estimable en el modelo (2).
T1 T2 T3
2 4 6
3 2 7
2 5 8
1 2 3
4 3 10
5 4 14
9 2 11
P1 = X1 (X1t X1 )1 X1t .
1 2 3
1 4 6 8
9 6
5
2 5 4 3
7
a. H0 : 1 = 2 = = k .
b. H0 : 1 = 2 = = r .
21. Suponga un modelo de dos vas de clasificacin con dos filas y dos columnas,
pruebe que
n1. n2. (y1.. y2.. )2
R(/) = n..
(y1. n11 y1.. n21 y2.. )2
R(/, ) = n11 n12
+ 21
n n22
n 1. n 2.
Definicion 8.1. Bajo el modelo lineal (Y X; 2I ) se dice que una funcin lineal
Y , X
paramtrica es estimable, si existe un vector a t = (a1 , ..., an ) tal que E(aatY ) = t .
t
P
Demostracin. =) suponiendo que t F(XX ), se tiene que t = aiX i = at X y
t t t t
de esa forma = a X = a E(Y ) = E(a Y ).
=)Suponiendo que t es estimable ,entonces existe a tal que E(at Y ) = t para
todo , entonces E(at Y ) = at X = t ,por lo tanto at X = t y as t
R(X).
Observacin 8.1. Si t es estimable ,se va a satisfacer que Ran(X t ) = Ran(X t :
).
Corolario 8.1. : El nmero de funciones paramtricas estimables t es igual al
ran(X).
Corolario 8.2. Cualquier funcin lineal de funciones estimables es estimable.
Definicion 8.2. Un conjunto de funciones paramtricas (t 1 , t2 , ....., tm ) son
independientemente estimables si t1 , t2 , ....., tm son estimables y 1 , 2 , ..., m
son linealmente independientes.
163
164 CAPTULO 8. ESTIMABILIDAD EN EL MODELO LINEAL
t t
Demostracin. : Supongamos tm , son estimables y consideremos
P1 , t 2 , .....,P P una
combinacin lineal de estas: i ai (i ) = ( ai i ) que es estimable pues ai i
R(X).
Corolario 8.4. : Si el rango de Xnxp es p ,entonces cualquier funcin paramtrica
lineal es estimable.
= V ar(at Y ) + (a a )t (a a ) 2 V ar(at Y )
Esta desigualdad y el hecho de ser at Y un estimador lineal insesgado (ELI) de t
completan la prueba.
Teorema 8.3. . Si t es estimable en el modelo (Y, X, 2 I) , entonces su
MELI (t ) = t = g tX t Y, es nico, con g solucin de las ecuaciones norma-
les conjugadas. X t Xg = .
Se verifica
1. E (g t X t Y ) = g t X t X = g t X t Y = t pues de la E.N.C X t Xg = .
V ar g t X t Y = g t X t V ar (Y ) Xg = g t X t Xg 2 = t g 2 (8.1)
Sea ahora g t X t Y Y otro estimador insesgado entonces at Y = (g t X t ) Y
V ar at Y = g t X t V ar (Y ) g t X t
= g t X t Xg g t X t t Xg t 2 (8.2)
por otro lado E (at Y ) = t (g t X t t ) X = t de donde se sigue g t X t Xg
g t X = t t t X = t t X = 0 t X = 0 y as (8.2) queda
V ar at Y = g t X t Xg + t 2
= t g + t 2
V ar at Y V ar g t XY
g t XY = t
Teorema 8.4. . Si t es estimable en el modelo Y = X + e E (t ) = t 0
con 0 solucin de las E.N.
t 0 = lt X t Y = t
E t 0 = t E 0
= t E X t X X t Y
= t X t X X t X
= gt
y
V ar t 0 = V ar t X t X X t Y
= t X t X X t X X t X 2
= t X t X 2
MELI(t ) = g t X t Y = g t X t X = t b
Corolario 8.6. Una condicin necesaria y suficiente para que una funcin param-
trica t sea linealmente estimable es que exista un vector que satisfaga g t X t X = t ,
si tal g existe el MELI (t ) = g t X t Y
P P P
Demostracin.
MELI { ci (ti )} = MELI {( ci ti ) } = ( ci ti ) =
P
ci ti
Consideremos una matriz S de nxk cuyo espacio columna sea idntico al espacio
columna de la matriz X de nxp, denotada por
v0 = XS = Sg (8.3)
8.2. TRANSFORMACIONES PARAMTRICAS LINEALES 169
E(Y ) = X = S (8.4)
de tal forma que el modelo (1.7) lo podemos expresar como
Y = X + e = S + e (8.5)
X = S (8.7)
y el MELI (t ) = t = at X = at S = MELI de la funcin estimable at S que
corresponde a t con el modelo expresado como Y = S + e
b) Hay una correspondencia uno a uno entre las funciones estimables en ambas for-
mas del modelo.
c) Los MELI de las correspondientes funciones estimables son idnticos.
Teorema 8.8. Si en el modelo Y = X + e se introduce la transformacin param-
trica = T g , donde la matriz T es no singular, entonces las condiciones (a), (b) y
(c) del corolario anterior se cumplen.
Teorema 8.9. Un modelo lineal que no sea de rango completo, puede expresarse
siempre como uno de rango completo sobre cualquier conjunto deseado de rango g
de funciones estimables linealmente independientes donde g = ran(X).
= t = T (8.9)
luego
= T 1 = T 1 t (8.10)
y as
Y = X + e = S + e = ST 1 t + e
Ejemplo 8.1. . Consideremos el modelo lineal de clasificacin Y = + ai + bj + eij
i = 1, 2 j = 1, 2, la matriz de diseo
1 1 0 1 0
1 1 0 0 1
X = 1 0 1 1 0
(8.11)
1 0 1 0 1
8.2. TRANSFORMACIONES PARAMTRICAS LINEALES 171
= (, a1 , a2 , b1 , b2 ) 5
y
+ a2 + b2 0
= T = a1 a2 = 1
b1 b2 2
1 -1 -1 b1 b
Luego
Z = A + f (8.12)
es equivalente al modelo (1.7).
t
MELI t = MELI g t X t V 1 X = g t X t V 1 XY = g t V 1 X Y
t
= g t V 1 X X
t
EMC t = g t X t V 1 X = g t V 1 X X = g t (XQ)t X
= g t X t X = g t QX t Y = MELI t
para toda pareja (g,h) y para todo Y . Esto se satisface en vista que
C X t V 1 X = C At A = C At = C (X) = C X t X
V 1 Xg = Xg (g, h)
sustituyendo sucesivamente los vectores
se obtiene que
V 1 X (g1 , g2, , gp ) = X (h1 , h2 , , hp )
V 1 X = XQ
Dada la importancia que tienen las E.N. en la estimacin de las funciones pa-
ramtricas estimables (t ) , es conveniente presentar algunos mtodos para resol-
ver este sistema de ecuaciones. Las soluciones propuestas son para el caso donde
ran (X) < mn {n, p} . Bsicamente consideraremos las siguientes situaciones:
iii) Usar las ecuaciones C = c como condiciones aplicadas al modelo inicial, de tal
forma que el nuevo modelo es Y = X + e sujeto a (s.a) la condicin C = c.
X t X = X t Y (8.14)
s.a C = c
donde las funciones C son no estimables entonces las ecuaciones (8.4) son consis-
tentes
X tX X tY
Demostracin. = son consistentes sii
C C
at X t X + bt C = 0 at X t Y + bt C = 0
Observe que
at X t X = bt C at X t X = 0
y
bt C = 0
at X t Xa = 0 at X t = 0 at X t Y = 0
y adems bt C = bt C = 0 y finalmente at X t Y + bt C = 0
que es el mismo sistema de E.N pero sin ecuaciones redundantes, luego el sistema
(8.4) es equivalente al sistema
Q1 X t X Q1 X t Y
= (8.15)
C c
176 CAPTULO 8. ESTIMABILIDAD EN EL MODELO LINEAL
X t X = X t Y 0 1 1 1 0 0 0
con C=
C = 0 0 0 0 0 1 1 1
= Y
1 = Y1 Y
..
.
= a = Y a Y (8.17)
1 = Y1 Y
..
.
b = Yb Y
8.4. SOLUCIN DE LAS ECUACIONES NORMALES 177
no estan en R(X).
Luego las estimaciones obtenidas en (103) estn estimando a sus esperanzas que,
resultan ser funciones lineales paramtricas estimables.
X t X + C t m = X t Y (8.18)
C t = c
t
1 X tX C t
Demostracin. = (0, 0) se observa al solucionar el sistema
2 C 0
que
t1 X t X1 = 0 t1 X t X = 0 t1 C = 0
Adems X1 = 0 t1 X t Y = 0 y como 0 = t2 C = t2 C = 0 entonces
t
1 X tY
=0
2 c
178 CAPTULO 8. ESTIMABILIDAD EN EL MODELO LINEAL
X t X = X t Y
C = c
X t X = X t Y
1.
C = c
t t
X X Ct XY
2. =
C 0 m C
3. [X t X + C t C] = [X t Y + C t C]
1 2
2 5
3 4
se llega a la solucin:
4 2 2 0 0 0 14
2 2 0 + 0 1 1 1 = 5
2 0 2 0 1 1 2 9
8.4. SOLUCIN DE LAS ECUACIONES NORMALES 179
4 2 2 14
= 2 3 1 1 = 5 (8.19)
2 1 3 2 9
Teniendo asi una matriz no singular. La solucin en (8.19) es : t = [3.5; 1.0; 1.0]
. Luego = 3.5 y 1 + 2 = 0, el Sistema de Ecuaciones Normales con Restriccin
en la Solucin (S.E.N.R.S) es:
0
5 3 2 14
3 3 0 10 = 5
2 0 2 20 9
Observacin 8.7. Se verifica que X t X [X t X + C t C] X t X = X t X, osea
[X t X + C t C] es una inversa condicional no singular de X t X y entonces
t
X t X = X t X X t X + C t C X t Y = X t XX + Y = X t Y
entonces Y = X = X0 es invariante. Adems E t = X t [X t X + C t C] X t X
teniendo en cuenta las E.N.C X t Xg = entonces
E t = g t X t X X t X + C t C X t X = g t X t X = t
y adems t = g t X t Y
V ar t = t X t X + C t C X t X X t X + C t C 2
= g t X t X X t X + C t C X t X X t X + C t C X t Xg 2
= g t X t Xg 2 = t g 2
Otra forma:
180 CAPTULO 8. ESTIMABILIDAD EN EL MODELO LINEAL
1
Como = [X t X + BB t ] [X t Y + BC]
h t i
t t t t 1 t
E = E X X + BB X Y +B C
1
= t X t X + BB t X t X + B t C
1 t
= t X t X + BB t X X + BB t BB t + B t C
1 1
= t X t X + BB t X t X + BB t t X t X + BB t BB t B t C
1 t
= t t X t X + BB t B C BtC
= t
n 1 o
V ar t = t V ar X t X + BB t X t X + BC
1 t t 1 2
= t X t X + BB t X X X X + BB t
1
= t X t X + BB t 2
Esto garantiza que Y = X = X0 y por lo tanto toda la teora de estimabilidad es
aplicable.
t
Demostracin. C 1 = C 2 C 1 2 = 0 X X 1 2 + C (m1 m2 ) = 0
1 2 X t X 1 2 = 1 2 X t X (m1 m2 )
t
pero como C 1 2 = 0 1 2 X t X 1 2 = 0 X 1 2 = 0
X 1 = X 2 y C t m1 = C t m2
X t X + Cm = X t Y (8.21)
C t = C (8.22)
t
Por ser C estimable, va a existir W tal que
X tW = C (8.23)
X t X + X t W m = X t Y (8.24)
W t X = c (8.25)
premultiplicando (8.22) por X + se sigue que
X + P W m = P Y (8.26)
182 CAPTULO 8. ESTIMABILIDAD EN EL MODELO LINEAL
t
donde P = XX + es el proyector de Y en el espacio columna de X (C (X))
luego
SC R = SCR + SCHo (8.31)
Donde SCHo es el incremento en la suma de cuadrados del residual al imponerse la
restriccin estimable C t = c en los parmetros del modelo y corresponde a la suma
de cuadrados de la hiptesis Ho : C = c
8.6. RESTRICCIONES ESTIMABLES EN LOS PARMETROS Y SUMAS DE CUADRADOS DEL RES
Y1j Y2j 0
2 5 3.5
=
3 4 m 3.5
5 9 20
0
cm = 1 (2) 6= 0
1
m = 2
SCU = SC(e) +
con
t h t i1
t = mW t P W m = SCH0 = C0 C C X tX C C0 C
siendo H0 : C t = C
1 1 0 3.5
1 0
1 0 3.5
Y = X =
1
3.5 =
0 1 3.5
3.5
1 0 1 3.5
1.5
0.5
e = Y X =
1.5
0.5
..
4 2 2 . 1
.. 14
2 2 0 . 1
.. 1 5
=
2 0 2 . 0 2 9
m 5
..
1 1 0 . 0
Considere el modelo
(39)
con ran (c) = q, sea Cq una submatriz no singular, de
.
tal forma que C = Cr ..Cq , donde Cr(qxr)
Cr r + Cq q = c (8.32)
q = Cq1 (c Cr r ) (8.33)
8.7. MTODO DEL MODELO REDUCIDO 185
2 1
2
1
S =
Y X R
= QR R (8.38)
N r N r
1 t
SCE = QR R = YRt I XR XRt XR XR Y R
los dems parmetros del modelo original se estiman teniendo en cuenta la particin
de y (8.33) osea
r r 0 Ir
= = = + r
q Cq1 (c Cr r ) Cq1 c Cq1 Cr
y
EMV 2 = s2
2
Donde s2 N r
2(N r) y adems y Q son independientes
Pr [ R (Y )] = 1 (8.39)
con verdadero vector de parmetros. La regin definida por R(Y ), tiene una
probabilidad (1 ) de contener a .
El coeficiente de confianza, usualmente expresado como porcentaje, es dado por
100 (1 ) .
Para la construccin de las regiones de confianza se parte del modelo lineal normal
con restriccin. La regin de aceptacin para la hiptesis H0 : A = c, da como regin
de confianza un elipsoide centrado por = A, el cual est definido por
8.9. INTERVALOS DE CONFIANZA 187
t 1 t 1 t
t t
A A XX A A qCME F(,q,N p) (8.40)
1 1
con q = ran(A); CME = N p
Yt I X (X t X) X t , Cuadrado Medio del
Error.
Observacin
8.9. Si en (127) se construye a de la forma a =
i
0, 0, , 0, 1, 0, 0 , se va a obtener un intervalo de confianza para i y
i j
para a = 0, 0, , 0, 1, 1, 0, 0 se obtiene un intervalo para la diferencia
i j
188 CAPTULO 8. ESTIMABILIDAD EN EL MODELO LINEAL
Esta definicin es una condicin suficiente para llevar acabo pruebas de hiptesis.
Y = X + Z + e (8.42)
puede evaluar P .. ! (Y ) .
C X .Z
8.10. REGRESIN SECUENCIAL EN FACTORES 189
Y = X + e (8.43)
..
Demostracin. Sea z C X .Z z = V + W, podemos escribir
n o n o
(W ) (W )
z = V PC(X) + W PC(X) = h + m
(W )
ntese que PC(X) C (X) y V C (X) h C (X), por otro lado, por construccin
Pq
m C (X) y adems como W C (X) , W = j Z j , pero el operador proyeccin
es lineal por lo que
X X X
(W )
m = w PC(X) = j Zj PC(X) j Z j = j Zj C Z M
.. .. M
osea z C X .Z z C X .Z
P .. M ! (Y ) = PC(X) (Y ) + PC(Z M ) (Y )
C X .Z
t
.. Y XX 0 Xt
= X .Z t t Y
0 ZM ZM ZM
t
t
= X X tX X tY + Z M Z M Z M Z M Y
= PC(X) (Y ) + PC(Z M ) (Y )
ii) Dado que PC(X) (Y ) C (X) entonces PC(Z M ) PC(X) (Y ) = 0 ya que Z M X
iii) Y P .. ! (Y ) = Y PC(X) (Y ) PC(Z M ) Y PC(X) (Y ) .
C X .Z
por lo que podemos concluir que dada la forma del residual en el modelo (8.43), con
grados de libertad del error n ran (X) = n r y si definimos
h t i
M t
Y = I X X X X Y (8.44)
h t i
M t
X = I X X X X Z (8.45)
Y = X0 0 + Z + e
calcule
h i h i
Y MR = I X0 X0t X0 X0 Y, Z M = I X0 X0t X0 X0 Z
y as
2
SCE0 =
Y MR PC(X MR ) Y MR
y
v0 = n ran (X0 ) q
La estadstica de prueba
Yij = + i + j
donde
= Y
i = Yi Y
j = Yj Y
El diagnstico numrico son funciones de los datos, cuyos valores pueden detectar
respuestas yi que son anormales (grandes o pequeos outliers) o valores Xj extremos
y pueden tener alta influencia o leverage. En el diagnstico se debe incluir una com-
binacin de mtodos numricos y grficos. Los mtodos numricos de diagnstico,
estn basado en el anlisis de residuales ee, la matriz hat (H H = X (X X tX )1X t ), la su-
ma de cuadrados y productos cruzados (X X tX ) y su inversa (X
X tX )1 ) y el cuadrado
2 t
medio del error o residual (s = CME = ee ee/(n p)). En este tipo de anlisis es
de inters obtener (b(i) ) y eet(i)ee(i) /(n p) que son las estimaciones de y 2 sin la
i-sima, respectivamente.
194
9.1. RESIDUALES Y DETECCIN DE OUTLIERS 195
Note que
e ) =(II H ) E(Y
E (b Y ) = (II H )X
X = X HX
X X (X
=X X tX )1X tX = X X = 0
Adems,
e ) = Var[(II H )Y
Var (b Y ] = (II H ) Var(Y Y )(II H )t
= 2 (II H )(II H t ) = 2 (II H )2 = 2 (II H )
Observe que:
1. Si |hii | > 2p/n (algunos usan 3p/n. Aqu p es le nmero de parmetros) entonces
la i-sima observacin es considerada un punto leverage y puede ser influyente.
2. Definiendo
ebi
rs i = (9.1)
b 1 hii
e
ti = i (9.2)
b(i) 1 hii
donde b = CME y
b(i) es la raz cuadrada del CME sin incluir la i-sima
observacin.
k
X
y i = 0 + j (xij xj ) + ei , i = 1, ..., n (9.3)
j=1
o en forma matricial
Y = 0 1 + X c c + e
9.1. RESIDUALES Y DETECCIN DE OUTLIERS 197
70
O O
60
50 O
40
C2
30
20
10
0
0 5 10 15 20 25 30 35
C1
Para encontrar estos cambios se parte de hechos que si X denota la matriz original
de prediccin, x ti = (xi1 , . . . , xik ). Sea X (i) que denota la matriz de prediccin cuando
se remueve la i-sima observacin, entonces
k
X
t
XX = x j x tj = X t(i)X (i) + x ix ti
j=1
X t(i)X (i) =X
X tX (II (X
X tX )1x ix ti )
1
X t(i)X (i) X tX )1x ix ti )1 (X
=(II (X X tX )1
X tX )1xixti (1 xti (X
=[II + (X X tX )x
xi )1 ](X
X tX )1
1 t 1 t
= I+ X X ) x ix i (X
(X X tX )1 (9.5)
1 hii
X tY = X t(i)Y (i) + x i yi
200 CAPTULO 9. DIAGNSTICO DEL MODELO DE REGRESIN
y entonces
b(i) =(XX t(i)X (i) )1X t(i)Y (i)
1 1
=b + X tX )1x ix tib (X
(X X tX )1x i yi X tX )1x ix ti (X
(X X tX )1x i yi
1 hii 1 hii
b t 1 1 hii
= + (X X X ) xi ybi yi yi
1 hii 1 hii
ei
=b X tX )1x i
(X (9.6)
1 hii
donde ei es el i-simo residual en la regresin completa.
X tX )1x i ebi
i) b(i) = b (X
1hii
.
influyente que de la mayora de los datos. Se desea localizar estos puntos influyentes y
medir su impacto en el modelo. Si por alguna razn concreta son puntos malos"se
eliminaran, pero si no ocurre nada extrao, su estudio puede da algunas claves del
modelo.
Casi siempre los puntos definidos por las variables regresoras o explicativas forman
una nube y estn razonablemente repartidos alrededor del punto medio. Sin embargo,
alguno de ellos o un pequeo grupo puede aparecer muy alejado del resto. Estos
valores son potencialmente peligrosos, puesto que pueden afectar excesivamente al
ajuste del modelo. Se defini el concepto de nivel de un punto y se sealarn los que
tengan un nivel muy alto (leverage points).
Como
n
X
H X ) = r(H
hii = tr(H HX) = k + 1
i=1
el tamao medio de cada hii es (k + 1)/n. As cuando un punto verifique hii >
2(k + 1)/n se dir que dicha observacin es un punto de alto nivel. Estos puntos se
deben marcar para su posterior estudio ya que son potencialmente influyentes.
donde b son las estimaciones de mnimos cuadrados en el modelo con todos los puntos,
mientras que b(i) son las estimaciones sin el i-simo punto. Esta medida calcula la
distancia cuadrtica entre b y b(i) , relativa a la geometra fija de X tX .
Otra medida de influencia sobre cada coeficiente de regresin por separado fue
propuesta por Belsley et al.[6] y consiste en la diferencia estandarizada entre la
estimacin de mnimos cuadrados de dicho parmetro con todas las observaciones y
la estimacin de mnimos cuadrados del mismo sin la i-sima:
j j(i)
Df betasj(i) = q (9.10)
s2(i) cjj
|yi yi(i) |
Df f itsi = q
s2(i) hii
ei
ti = q t(nk2)
s2(i) (1 hii )
en cuenta que
n
X
SCE(i) = e2j(i) e2i(i)
j=1
Xn 2 2
ei ei
= ej + hij
j=1
1 hii 1 hii
n 2 n
! n
X ei X 2ei X
2
= ej 1 h2ij + ej hij
j=1
1 hii j=1
1 hii j=1
n
X e2i
= e2j
j=1
1 hii
ya que
e2i
(n k 1)s2 1hii
s2(i) =
nk2
206 CAPTULO 9. DIAGNSTICO DEL MODELO DE REGRESIN
entonces
e2i
rs2i =(n k 1)
(1 hii )SCE
e2i
=(n k 1)
(1 hii ) SCE(i) + e2i /(1 hii )
1
t2i
=(n k 1) n k 2
1
1+ t2
nk2 i
y se sigue de la relacin de la F y la distribucin beta que
2 1 nk2
rsi (n k 1)Beta ;
2 2
y el cociente
s2(i) nk1 1 nk2 1
= 1 r2 Beta ;
s2 nk2 n k 1 si 2 2
Observacin 9.2. Con base en este resultado, observe que la relacin entre el esta-
dstico Df f itsi y la distancia de Cooks es
s2
(Df f itsi )2 = (k + 1) Ci
s2(i)
9.4. Ejercicios
1. Considere un experimento en el cual r tratamientos deben deben ser compara-
dos con un control (grupo de tratamientos r + 1). Las ecuaciones del modelo
pueden escribirse de la siguiente forma:
yij = i + eij
con i = 1, 2, , r + 1; j = 1, 2, , ni
208 CAPTULO 9. DIAGNSTICO DEL MODELO DE REGRESIN
Tiempo 1 2 3 4 5 6 7 8 9 10
Y 95 93 93 91 90 88 86 85 86 82
Tiempo 11 12 13 14 15 16 17 18 19 20
Y 81 75 63 55 42 32 25 16 7 3
9.4. EJERCICIOS 209
4. Suponga
Y1j = 0 + 1 X1j + 1j j = 1, 2 , n1
Y2j = 0 + 1 X2j + 2j j = 1, 2 , n2
i) n (0nx1 , 2 I)
210
211
1
OBJETIVO. , , l , var lt = 2 lt (X t X) l (estimadores puntuales e
2 t
intervalos de confianza).
.
Teorema 10.1. : Sea Sp p una matriz definida positiva, entonces existe una
matriz T de rango p tal que S = T t T, donde T es una matriz triangular superior y
tal que tii > 0 para i = 1, 2, p. La matriz T es nica.
Cmo hallar T
? S = [sij ] T = [tij ]
1. t11 = s11
s1j
2. t1j = t11
s
P
i1
3. tii = sii t2ki i = 2, 3, , p
k=1
1
P
i1
4. tij = tii
sij tki tkj j>i i = 2, 3, , p 1
k=1
212 CAPTULO 10. CLCULOS BASADOS EN EL MTODO DE CHOLESKY
5. tij = 0 i>j i = 2, 3, , p
P
j
Sij tik t1
kj
k=i+1
tij = i = 1, 2, , j 2, j 1, j.
tii
1 si i = j
Sij =
0 si i 6= j
16 -8 12 8
-8 8 -8 6
S=
12 -8 19 -5
8 6 -5 49
1. Por 1. t11 = s11 = 16 = 4
s12 8 s13 12 s14 8
2. Por 2. t12 = t11
= 4
= 2 t13 = t11
= 4
=3 t14 = t11
= 4
=2
p q
3. Por 3. t22 = s22 t212 = 8 (2)2 = 2
1
4. Por 4. t23 = t22
[s23 t12 t13 ] = 12 [8 (2)(3)] = 1
1 1
t24 = t22
[s24 t12 t14 ] = 2
[6 (2)(2)] = 5
p p
5. Por 3. t33 = s33 t213 t223 = 19 (3)2 (1)2 = 3
1
6. Por 4. t34 = t33
[s34 t13 t14 t23 t24 ] = [5 (3) (2) (1) (5)] = 2
213
p q
7. por 3. t44 = s44 t214 t224 t234 = 49 (2)2 (5)2 (2)2 = 4
4 -2 3 2
0 2 -1 5
T =
0 0 3 -2
0 0 0 4
160 81 + 122 + 83 = 72
80 + 81 82 + 63 = 14
120 81 + 192 53 = 43
80 + 61 52 + 493 = 139
Y t Y = 1177
1. Encontrar 4x1
4. Probar la hiptesis H0 : 2 = 3 = 0
1
5. Encontrar (X t X)
Redefiniendo
X tX | X tY | l | H t | I
lo cual es equivalente a
1 h 1
i
Tt X t X | X t Y | l | H t | I = T | t | a | Gt | T t
donde
1 1 1 1 1
i) T = T t(X t X) = T t (T t T ) = T (X t X) =T Tt
t1 t t1 t
ii) t = T X Y = T X X = T resolvemos el sistema T = t
1
para = T t
1 1 1
iii) tt t = t T Tt (X t Y ) = X t Y 2 = np
(Y t Y tt t)
1 1 1 1
iv) a = T t l at a = lt T T t l = lt (X t X) l
V ar lt = 2 at a
1 1 1
v) at t = lt T T t (X t Y ) = lt (X t X) (X t Y ) = lt = at t
1 1
vi) Gt = T t H t Gt = HT t = H
Definimos
g = Gt h = H h
y aplicamos nuevamente el mtodo de Cholesky a la matriz particionada: [GGt | g]
1
lo cual es equivalente a T0t [GGt | g] = [T0 | t0 ] donde :
1 1 1 1 1
a) T0 = T0t (GGt ) = T0t (T0t T0 ) = T0 (GGt ) = T0 T0t
1 1 1 1 1
donde GGt = HT T t H t = H (X t X) H t T0 T0t =
h i1
1
H (X t X) H t
215
1 1 1
b) t0 = T0t g tt0 t0 = g t T0 T0t g =
t h i1
1 tt0 t0
H h H (X t X) H t H h W = 2 q
X tX X tY l Ht I Gt G g
16 -8 12 8 72 8 0 0 1 0 0 0
5 1
-8 8 -8 6 14 6 0 0 0 1 0 0 36 24
2
1 1
12 -8 19 -5 43 10 1 0 0 0 1 0 24 16
3
8 6 -5 49 139 27 0 1 0 0 0 1
1
4 2 3 2 18 2 0 0 4
0 0 0
1 1 5 1 12
0 2 1 5 11 5 0 0 4 2
0 0 6
4 5 5
1 1 1 1 1
0 0 3 2 0 3 3
0 6 6 3
0 0 24 5
1 1 25 13 1 1 2 5 5
0 0 0 4 12 1 6 4 48 24 6 4
1
T t a Gt T t
T0 t0
977 874 -328 -300
1 1 1
874 1316 -80 -312
T Tt =
(48)2 -328 -80 320 96
-300 -312 96 144
1
1) t = tt T t = [1, 1, 2, 3]
2) = at t = 103
1 1
3) tt t = 589 2 = np (Y t Y tt t) = 164
(1177 589) = 49 at a =
39 V ar = 2 at a = 49 (39) = 1911 luego
r
t( ,(np)) V ar = 103 2.179 1911
2
(7.745; 198.255)
216 CAPTULO 10. CLCULOS BASADOS EN EL MTODO DE CHOLESKY
tt t 144
4) tt0 t0 = 144 W = 02 q0 = 49(2) = 1.469 rechazamos H0 a un nivel de
significancia del 5 % dado que F(.05,2,12) = 3.89
1 1 1
5) (X t X) =T Tt
10.1. Ejercicios
1. (Ejercicio 2)
2. (Ejercicio 3)
3. (Ejercicio 4)
4. (Ejercicio 5)
5. (Ejercicio 6)
6. (Ejercicio 8)
7. (Ejercicio 9)
8. (Ejercicio 11)
9. (Ejercicio 13)
Ali, M. & Silver, J. L. (1985), Tests for Equality Between Sets of Coefficients in
Two Linear Regressions Under Heteroscedasticity, Journal of the American
Statistical Association 80(391), 730735.
Draper, N. & Smith, H. (1966), Applied Regresion Analysis, John Wiley and Sons,
New York.
Hoaglin, D. C. & Welsch, R. E. (1978), The Hat Matrix in Regression and ANOVA,
The American Statistician 32(1), 1722.
218
BIBLIOGRAFA 219
Hocking, R. R. (1996), Methods and applications of linear models, John Wiley and
Sons, New York.
Hocking, R. R. & Speed, F. M. (1975), A Full Rank Analysis of Some Linear Model
Problems, American Statistical Association 70(351), 706712.
Huber, P. J. (1981), Robust Statistics, John Wiley and Sons, New York.
Khuri, A. (2009), Linear Model Methodology, CRC Press - Chapman and Hall Book,
New York.
Little, R. J. A. & Rubin, D. (1987), Statistical Analysis with Missing Data, John
Wiley & Sons, New York.
McCullagh, P. & Nelder, J. (1989), Generalized Linear Models, Chapman Hall, Lon-
don.
Rao, C. R. & Mitra, S. K. (1971), Generalized Inversa of Matrices and Its Applica-
tions, John Wiley & Sons, New York.
Scheffe, H. (1959), Analysis of Variance, John Wiley and Sons, New York.
Searle, S. R. (1971), Linear Models, John Wiley and Sons, New York.
Searle, S. R. (1987), Linear Models for Unbalanced Data, John Wiley and Sons, New
York.
Searle, S. R., Casella, G. & McCulloch, C. (1992), Variance Components, John Wiley
and Sons, New York.