Escolar Documentos
Profissional Documentos
Cultura Documentos
22
(iii) Muestre que |X = x Gamma(n, nlog(z/)), donde z = ( ni=1 xi )1/n es
la media geometrica de las observaciones.
(iv) Para el caso = 50, calcule la media y la varianza de la distribuci
on a
posteriori.
CAPITULO 2
PUNTUAL
ESTIMACION
on Potencia(, ),
10. Sea X = (X1 , . . . , Xn ) una muestra aleatoria simple de la distribuci
con funcion de densidad dada por
f (x|, ) =
( + 1)x
, 0 < x < ;
+1
+1
k
+k+1 ;
2.1.
ESTIMADORES
23
PUNTUAL
CAPITULO 2 ESTIMACION
24
ERROR CUADRATICO
MEDIO
2.2.
El Error Cuadr
atico Medio (ECM) del estimador ! de viene dado por
! = E(! )2 ,
ECM ()
25
Entonces,
2
= = ECM (!
Var(X)
).
n
2 como estimador de 2 .
Uno puede considerar a
!2 = n1 (Xi X)
Note que,
!2 =
Notemos que,
=
! + 2
! = E(!2 ) 2E()
ECM ()
! + (E()
! )2
= (E(!2 ) E2 ())
! + (E()
! )2 .
= Var()
=
entonces,
2
1 2
E
Xi + E X
n
2
2
2
+
= +
n
2 n1
=
n
E(!
2) =
Se dene
! = E()
!
Sesgo()
luego,
! = Var()
! + (Sesgo())
! 2.
ECM ()
2.2.1.
$
1 # 2
+X
2)
(Xi 2Xi X
n
#
$
1 2
2 + n X
2
Xi 2nX
n
1 2
Xi X,
n
Estimadores Insesgados
! = 0, i.e., si E()
! = .
Se dice que ! es un estimador insesgado de si Sesgo()
! = Var().
!
Si ! es un estimador insesgado de , entonces ECM ()
luego,
!2 no es un estimador insesgado. Pero,
n
!2
S2 =
n1
1
2
=
(Xi X)
n1
es un estimador insesgado de 2 .
Ejemplo 2.2.
2.2.2.
1. X = (X1 , . . . , Xn ) m.a. Bernoulli(p).
Luego, p! =
Xi
n
Comparaci
on de Estimadores
Con lo que,
ECM (!
p) = Var(!
p)
p(1 p)
=
n
2. X = (X1 , . . . , Xn ) m.a. N (, 2 ).
n = 1 Xi es un estimador insesgado, i.e.,
Luego,
!=X
n
E(!
) = .
1. !1 es mejor que !2 si
ECM (!1 ) ECM (!2 ), para todo
ECM (!1 ) < ECM (!2 ), para alg
un .
En tal caso, !2 se dice inadmisible.
2. De existir un estimador ! , de manera que para todo estimador ! de , se tenga
! para todo
ECM (! ) ECM (),
! para alg
ECM (! ) < ECM (),
un ,
! se dice estimador optimo de .
PUNTUAL
CAPITULO 2 ESTIMACION
26
Var(!2 ) =
2.3.
ESTIMADORES EFICIENTES
3
8
!2 = max(Xi ),
E(!2 ) =
n
,
n+1
Var(!1 ) =
2
12n
Var(!2 ) =
n
2
(n + 2)(n + 1)2
y
! =
Var()
=
ECM (!2 ) =
entonces,
2
ECM (!1 ) ,
4
son
" = 4Var(X
n)
Var()
2
= 4
12n
2
=
3n
E(!1 ) = ,
2
n+1
n X(n)
Luego,
1
3
< ECM (!2 ) = .
3
8
!1 = X,
"
"
Var()
ECM ()
=
,
!
!
ECM ()
Var()
entonces,
ECM (!1 ) =
27
! )
" =
ef(,
Ejemplo 2.3. Sea X = (X1 , . . . , Xn ) m.a. de X con E(X) = y Var(X) = 1. Supongamos que
X1 + X2 + X3
1
Var(!1 ) =
,
E(!1 ) = ,
!1 =
3
3
1
1
1
!2 = X1 + X2 + X3 , E(!2 ) = ,
2
4
4
2
0, n .
(n + 1)(n + 1)
n+1
n
2
Var(X(n) )
n2
n+1 2
n
(n + 2)(n + 1)2
2
n(n + 2)
entonces,
n
ECM (!2 )
ECM (!1 )
5 2
18
1 2
10
0,27
4 2
15
1 2
21
0,12
10
31 2
120
1 2
662
0,04
20
61 2
240
1
2
2312
0,01
! )
" =
ef(,
=
2
3n
2
n(n+2)
n+2
> 1, n > 1
3
"
! es m
as eciente que .
La denicion de eciencia (en terminos absolutos) se relaciona con el concepto de
Informaci
on de Fisher.
PUNTUAL
CAPITULO 2 ESTIMACION
28
2.4.
DE FISHER
INFORMACION
DE FISHER
2.4 INFORMACION
Demostraci
on de las Propiedades
a)
E
2 &
%
29
log f (X|)
1 f
= E
1 f
=
f dx
f
f
dx (b.c.c.r se intercambian derivadas por integrales)
=
f dx
=
log f (X|)
,
2
log f (x|)
=
f (x|)dx.
I() = E
integral de
una densidad
(1)
= 0.
=
f (x|) =
b) Es un buen ejercicio de c
alculo, notando que
2 log f (X|)
2
por lo que,
I() =
=
=
=
2.4.1.
1
E(X )2
2
Var(X)
2
2
1
, > 0.
log f (X|)
log f (x|)
,
, x.
log f (X|)
1 f
Nota.
Propiedades
=0
2
log f (X|)
b) I() = E
2
2.
log f (X|)
PUNTUAL
CAPITULO 2 ESTIMACION
30
Ejemplo 2.7. Sea X P (), que cumple las condiciones de regularidad. Entonces,
f (X|) =
log f (X|) =
log f (X|)
=
2 log f (X|)
=
2
X e
(X)
I
X! {0,1,...}
cte + X log
X
1
X
2,
n
f (xi |);
log f (xi |)
2.5.
= n
I()
Inf. de Fisher
asociada a Xi
Finalmente,
In () = nI().
Ejemplo 2.8.
1. Sea X = (X1 , . . . , Xn ) m.a. P (), entonces
In () =
n
.
1
In ()
1
.
nI()
Cota de
Cram
er-Rao
Demostraci
on de la Desigualdad de Cram
er-Rao
f (X|)
= 0.
Demostraci
on. (i) E log
!
(x)f
(x|)dx = .
(ii) ! estimador insesgado de , entonces E() =
X
f
!
dx = 1, pero
(ii)+ condici
on de regularidad
X
Ii ()
conocida, entonces
n
.
2
DESIGUALDAD DE CRAMER-RAO
log f
1 f
=
por
2
log f (X|)
In () = E
2
2 log f (Xi |)
=
E
2
n
con
In () =
por lo que,
I() = E X2
1
E(X)
=
2
=
2
1
=
.
31
N (, 2 ),
as,
X
y luego
log f
f dx = 1
!
log f
= 1.
E !
f
El coeciente de correlacion entre ! y log
, viene dado por
log
! E log f
E ! f E()
log f
!
'
,
=
! Var( log f )
Var()
10
'
! n I()
Var()
1
'
,
! n I()
Var()
PUNTUAL
CAPITULO 2 ESTIMACION
32
! 1 .
2 1 Var()
n I()
33
1. C
alculo de la cota de Cramer-Rao (CCR) para un estimador insesgado de g().
e x
x!
log f (x|) = + x log() log(x!)
log f (x|)
x
= 1 +
2
log f (x|)
x
=
,
2
2
f (x|) =
! =
Denici
on 2.5.1. El estimador insesgado ! se dice eciente si Var()
varianza alcanza la cota de Cramer-Rao.
!=
Ejemplo 2.9. Sea X = (X1 , . . . , Xn ) m.a. P () y
! =
Var()
=
por lo que, In () =
1
n
1
n I() ,
i.e., si su
luego
n , entonces,
Xi = X
n
n2
2
log f (X|)
I() = E
2
X
= E
2
1
,
=
por lo que
1
n I()
1
=
n 1
=
.
n
Ahora, la cota de Cramer-Rao para un estimador insesgado de g() es
CCR() =
Caso de Par
ametro Vectorial
Si = (1 , . . . , r ), se dene la matriz de informacion de Fisher asociada a X por
2
log f (X|)
(Iij ()) = E
, i, j = 1, . . . , r.
i j
En este caso, si !i es un estimador insesgado de i entonces Var(!i ) es eciente si
Var(!i ) = Iii1() ; i = 1, 2, . . . , r.
) =
CCR(g())
=
(g ())2
nI()
(e )2
n
e2
n
2. Estimaci
on de g().
[g ()]
,
nI()
Sea
S=
( g() I1 ()g(),
b) Rr ; Var(g())
donde, I() es la informaciond de Fisher asociada a una observaci
on X con densidad
f (x|). I() es la matriz de informacion asociada a X con densidad f (x|).
Ejemplo 2.10. Sea X1 , . . . , Xn m.a. de la v.a. X Poisson(). Se desea estimar
P (X = 0) = e
= g().
1,
0,
si X1 = 0
en otro caso.
PUNTUAL
CAPITULO 2 ESTIMACION
34
3. Eciencia de S.
E(S ) = 1 Pr(S = 1) + 0 Pr(S = 0)
2
= e
Var(S) = E(S 2 ) E2 (S)
= e e2
= e (1 e ).
) S no es un estimador eciente de g().
Como Var(S) = CCR(g()),
2.6.
1, si X = 0
1
S=
0, en otro caso
Vimos anteriormente que S es insesgado para g(). Ahora, encontremos el estadstico
suciente para T ,
n
e xi
1
xi n ,
= en
L() =
xi !
x!
i
g(,T )
h(x)
on e es uno a uno, por lo que T =
Xi
T =
Xi es suciente para . La funci
es suciente para g().
! = E(S|T )
Sea
X1 , . . . , Xn
m.a.
de
la
v.a.
X
con
densidad
f (x|).
Sea
T = T (X1 , . . . , Xn ) una estadstica suciente para y S = S(X1 , . . . , Xn ) un estimador
de que no es funcion de la estadstica suciente.
Entonces, ! = E(S|T ), es un estimador de , es decir, una funci
on de T que no depende de , pues siendo T suciente, la distribuci
on condicional de X1 , . . . , Xn dado T es
independiente de .
Ahora, si S es un estimador insesgado de , entonces ! tambien lo es y se tiene que
!
Var(S) Var().
Veriquemos lo anterior,
=
! = E(E(S|T ))
E()
= ,
e e(n1) ((n1))t
t!
en (n)t
t!
t
= E(S)
!
Var(S) = Var(E(S|T )) + E(Var(S|T )) Var(E(S|T )) Var().
35
n1
n
n1
n
xi
,
! Var(S), .
! es insesgado para g() = e y Var()
Ejemplo 2.12. Sea X = (X1 , . . . , Xn ) m.a. Bernoulli(p). Sea S = X1 un estimador
insesgado de p, pues E(S) = p, donde
1, con probabilidad p,
X1 =
0, con probabilidad 1-p.
Luego, T =
PUNTUAL
CAPITULO 2 ESTIMACION
36
37
Considerar p! = E(S|T )
E(Xi |T = t) = 1 Pr(X1 = 1|T = t) + 0 Pr(X1 = 0|T = t)
Pr(X1 = 1 , ni=1 Xi = t)
=
Pr(T = t)
Pr(X1 = 1 , ni=2 Xi = t)
=
Pr(T = t)
Pr(X1 = 1) Pr( ni=1 X i = t)
=
Pr(T = t)
t1
(1 p)n1(t1)
p n1
t1 p
n
=
t (1 p)nt
p
t
(n 1)!
(n t)!t!
=
(n t)!(t 1)!
n!
t
=
n
Xi
=
n
= X.
La unicidad del estimador insesgado de varianza uniformemente mnima (EIVUM) para
el par
ametro, requiere de una condici
on adicional sobre la estadstica suciente T .
E(g(T )) = 0
n
g(t) Pr(T = t) = 0
t=0
(1 )n
n
t
) = 0
g(t)
(
t 1
n t
g(t)
,
= 0, =
(1 )
t
polinomio de
grado n en
2.6.1.
Estadstica Completa
pero X1 no es igual a X2 con probabilidad 1, i.e., T no es cero con probabilidad 1.
Para probar que una estadstica no es completa, uno debe encontrar una funci
on de
T no nula de manera que su esperanza si sea nula.
3.
Xi es completa.
Teorema 2.6.1. Sea X = (X1 , . . . , Xn ) m.a. proveniente de una v.a. X con densidad
f (x|), donde , siendo un intervalo real.
Si f (x|) = a(x) exp{u(x)() + b()}, i.e., f (x|) pertenece a la familia exponencial
uniparametrica, entonces T = U (Xi ) es una estadstica suciente y completa para .
Ejemplo 2.13.
1. Sea X = (X1 , . . . , Xn ) m.a. Bernoulli().
T = Xi es suciente y T Binomial(n, ).
Pr(T = t) = nt t (1 )nt , t = 0, 1, . . . , n.
Nota 1.
1. Lo del intervalo real para , se reere al hecho de que el dominio de () contenga
un intervalo.
PUNTUAL
CAPITULO 2 ESTIMACION
38
2.6.2.
1, si X = 0
1
S=
0, o.c
E(S) = 1 Pr(X1 = 0) = e .
T = Xi es una estadstica suciente y completa, esto pues,
f (x|) = Pr (X = x)
=
=
Demostraci
on. Si !1 y !2 son dos estimadores insesgados basados en T , entonces
E(!1 !2 ) = 0
pero T es completa, luego !1 !2 = 0 con probabilidad 1, i.e., Pr(!1 = !2 ) = 1 y RaoBackwell garantiza que ! es el EIVUM.
Uno podra pensar en las siguientes situaciones.
Caso 1.
T suciente y completa
! estimador insesgado de basado en T
39
en Xi
I{0,1,...}n (x)
Xi !
I(x)
exp
log() n .
Xi !
! es el EIVUM de .
f (x|) = ex , x > 0.
Aqu E(X) = 1 , luego
T (x) =
Xi
= n Xi I(0,)n (x)
= exp
Xi + n log() I(0,)n (x),
(1 )n Xi I{0,1}n (x)
= exp
Xi log
+ n log(1 ) I{0,1}n (x).
1
=
L(, X) = f (X|)
Caso 2.
S estimador insesgado de
T estadstica suciente y completa
! = E(S|T ) es el EIVUM de .
R.B.
lo anterior implica que T (X) =
Xi es una estadstica suciente y completa. Dada la
estructura del problema, uno puede pensar que el EIVUM de es ! = cXi y c se obtiene
! = .
de E()
T = Xi Gamma(n, ), por lo que T1 GI(n, ). Luego,
! = cE 1 = c = .
E()
T
n1
Entonces, c = n 1 y ! =
(n1)
Xi
es el EIVUM de .
PUNTUAL
CAPITULO 2 ESTIMACION
40
2.7.
2.7.1.
PUNTUAL
METODOS
DE ESTIMACION
PUNTUAL
2.7 METODOS
DE ESTIMACION
M
etodo de los Momentos
Tal vez este sea el metodo mas intuitivo. Supongamos que X = (X1 , . . . , Xn ) es una
m.a. de X con densidad f (x|), donde = (1 , . . . , r ).
Ademas, se supone que existen los momentos de la distribucion X, i.e,
log f (x|)
= 0 (ecuacion de verosimilitud).
k () = E(X ), k = 1, 2, . . .
2 log f (x|)
< 0.
2
mk =
log f (x|)
= 0, i = 1, . . . , r
i
k () = mk , k = 1, 2, . . . , r.
La solucion de estas ecuaciones denen el estimador de momento (e.m.m.) de .
Ejemplo 2.17. Sea X = (X1 , . . . , Xn ) m.a. N (, 2 ), entonces
1 = E(X) =
2 = E(X 2 ) = 2 +
n, 2 = 1
2 = n 1 S2.
! = m1 = X
(Xi X)
1
n
n
m1 = n Xi = Xn
2
m2 = n1
Xi
Es claro que los e.m.m. no son necesariamente insesgados.
2.7.2.
El metodo de maxima verosimilitud es el mas utilizado en la literatura y en las aplicaciones. Esto se debe fundamentalmente a lo facil de implementar e incluso viene implementado en los software estadsticos.
Si X = (X1 , . . . , Xn ) es una m.a. proveniente de una densidad f (x|),
R y L() = L(, x) = f (x|) es la funcion de verosimilitud asociada a la muestra
X = (X1 , . . . , Xn ). Se dice que ! es el estimador de maxima verosimilitud de si
! = max L() = max f (x|).
L()
2 log f (x|)
i j
Xi en
I{0,1,...}n (x)
Xi !
log f (X|) =
Xi log n + cte
log f (X|)
Xi
!=X
n
=
n=0
2 log f (X|)
Xi
= 2 < 0, .
2
f (X|) =
M
etodo de M
axima Verosimilitud
41
! = (insesgamiento) y Var()
! 0 cuando n .
E()
PUNTUAL
CAPITULO 2 ESTIMACION
42
N (, 2 ).
1
2
1
f (X|, ) =
e 22 (Xi )
(2 2 )1/2
n
1
log f (X|, 2 ) = log( 2 ) 2
(Xi )2 + cte
2
2
2
log f (X|, )
1
=
(Xi ) = 0
n
Xi n = 0
!=X
log f (X|, 2 )
2
n
1
+
(Xi )2 = 0
2 2 2( 2 )2
1
(Xi )2
n
(n 1) 2
s
n
PUNTUAL
2.7 METODOS
DE ESTIMACION
*2 =
*2 =
*2 no lo es para 2 .
Es claro que
! es un estimador insesgado de , pero
Ejemplo 2.20. Sea X = (X1 , . . . , Xn ) m.a. U [0, ].
1 , si 0 x
f (x|) =
0, en otro caso
f (x|) =
1
, si max(xi ).
n
43
max L()
G(w)
!
= L(),
pues {G(w) : w } es una particion de .
Deniendo M (w) = maxG(w) L(), entonces
M (w)
! = max M (w)
w
max L(),
G(w)
( = g().
!
w
! es el e.m.v de g(), es decir, g()
Ejemplo 2.21.
!=
1. Sea X = (X1 , . . . , Xn ) m.a. P (). Luego,
Sea g() = Pr(X = 0) =
e ,
Xi
n
n es el e.m.v de .
=X
! = eXn .
entonces el e.m.v de g() es g()
*2 = 1 (Xi X)
n y
2 son los
2. Sea X = (X1 , . . . , Xn ) m.a. N (, 2 ). Luego,
!=X
n
2
e.m.v de y .
*2 ) = X
2 +
Sea g(, 2 ) = E(X 2 ) = 2 + 2 , entonces el e.m.v de g(, 2 ) es g(!
,
1
2.
(Xi X)
n
2. Distibuci
on Asint
otica de los e.m.v.
1
a
a) ! N ;
, cuando n .
n I()
[g ()]2
a
!
N g() ;
b) g()
n I()
PUNTUAL
CAPITULO 2 ESTIMACION
44
2.7.3.
M
etodos Bayesianos
PUNTUAL
2.7 METODOS
DE ESTIMACION
45
a = b = 1 U (0, 1).
En este caso todos lo puntos del intervalo [0, 1] son soluci
on. Existe la posibilidad
on U (0, 1) es simetrica
como soluci
on " = 12 ; con el argumento de que la distribuci
en torno a ese punto.
a = 1, b > 1.
() = cte (1 )b1 , 0 1 que es estrictamente decreciente, luego la moda
es 0.
a > 1, b = 1.
M
etodo de M
axima Densidad a Posteriori
Se trata del metodo analogo al metodo de maxima verosilitud y consiste en maximizar
la densidad a posteriori. "B es un estimador de maxima densidad a posteriori si ("B |x) =
max (|x) o equivalentemente, es posible max log (|x).
En realidad, "B es la moda de la densidad a posteriori.
En general,
log ()
log ()
=0
(1 + )
(a 1)(1 ) (b 1)
=0
(1 )
(a b 2) + (a 1) = 0
=
entonces,
a1
.
a+b2
Se deben encontar condiciones para que la moda este bien denida.
moda =
2
.
12
2
= 1 , entonces (|X) f (X|); , i.e.,
Si () (I())1/2 = cte = 12
2
n , que coincide con el e.m.v. de .
Estimaci
on bajo P
erdida Cuadr
atica
En este contexto el problema se aborda recurriendo a elementos de la teora de decisiones. El modelo bayesiano en este marco cosidera X = (X1 , . . . , Xn ) m.a. proveniente
de una densidad f (x|).
Verosimilitud : L() = f (x|),
Priori : ()
Posteriori : (|x) f (x|) (), .
Se puede visualizar lo siguiente:
PUNTUAL
CAPITULO 2 ESTIMACION
46
PUNTUAL
2.7 METODOS
DE ESTIMACION
L:A R
.
L(, d(x))f (x|)()d dx
X
-
r(, d) =
Al estimar usando la accion a, uno incurre en una cierta perdida L(, a). Esto origina
la denicion de funci
on de perdida,
(, a) L(, a).
47
donde f (x) =
f (x|)()
d f (x)dx,
L(, d(x))
f (x)
X
(|x)
f (x|)()d
aA
aA
(a) = 2 ( a)(|X)d = 0
(|x)d = a
(|X)d
1
a =
(|X)d
a = E(|X)
(a ) = Var(|X).
El riesgo es la perdida esperada al tomar la decision d. Hasta aqu, esto puede ser aplicado
! = E(! )2 es una funci
on de riesgo.
en un contexto clasico, por ejemplo, ECM ()
El riesgo de Bayes, se dene como la esperanza en relacion a la priori () del riesgo
R(, d), viene dado por
,
+
r(, d) = E EX| L(, d(x))
.
-
=
L(, d(x))f (x|)dx ()d,
Resultados
Si L(, a) = ( a)2 , el estimador de Bayes viene dado por
!B = E(|X).
Notemos que el valor mnimo alcanzado es Var(|X) y se llama riesgo de Bayes del estimador !B cuando es constante, i.e., rB (!B ) = Var(|x).
PUNTUAL
CAPITULO 2 ESTIMACION
48
Ejemplo 2.24.
1. Sea X = (X1 , . . . , Xn ) m.a. Bernoulli(), donde Beta(a, b).
y Var() = (a+b)2ab
.
(a+b+1)
Luego, |X = x Beta (a + xi ; b + n xi ).
Entonces, E() =
Ejemplo
2.25. Sea X1 , . . . , Xn iid tal que = E(Xi ),
n ) = , Var(X
n ) = 2 .
n = Xi satisface que E(X
X
n
n
a + xi
(a + b + n)
a
n
a+b
(
xn )
+
=
a
+
b
+
n
a
+
b
b + n
a +
n
n | > }
Pr{|X
2 n
0,
n2
n es un estimador
!=X
i.e, independiente de la distribuci
on de la secuencia X1 , . . . , Xn ;
consistente de = E(X).
En el lenguaje probabilstico,
P
n
1n
= Var(Xi ); i = 1, . . . , n, luego
As, > 0
a
a+b
!B =
49
Luego, |X N (1 , 12 ) !B = 1 .
2.8.
La ley de T = max(xi ) es
ESTIMADORES CONSISTENTES
Pr{|!n | > } 0.
Esto quiere decir que !n esta mas cerca de cuando el tama
no de muestra es grande. Note
que la denici
on tambien se escribe, > 0, Pr{|!n | } 1.
En el lenguaje probabilstico, lo anterior se lee como: !n es consistente para si !n
P
converge en probabilidad a , lo que se anota !n .
Desigualdad de Tchebychev
2
.
2
1,
t<0
, 0t<
t
1 0,
>
=
n
,
1
2.8.1.
0,
n
P
i.e., !n = max(xi ) es consistente para o max(xi ) .
b) Por Tchebychev.
P
"
n
P
E(X) = 2 , luego X
2 , i.e., 2Xn , entonces n = 2Xn es consistente para .
PUNTUAL
CAPITULO 2 ESTIMACION
50
Resultados en T
erminos de Insesgamiento
a)
E(!n ) =
Var(!n ) 0
!n es consistente para .
Var(!n )
0, cuando n .
2
Estimadores insesgados con varianza que tiende a cero son consistentes.
Pr{|!n | > }
2.9 EJERCICIOS
2.9.
51
EJERCICIOS
b)
E(!n )
Var(!n ) 0
!n es consistente para .
0.
( |E(!n )|)2
1 |xa|
e ; x, , 0.
2
!=
n1 w + n2
Y
con Y!i = n1 ij para i = 1, 2.
j=1 ni
PUNTUAL
CAPITULO 2 ESTIMACION
52
on Potencia(, ),
2.6. Sea X = (X1 , . . . , Xn ) una muestra aleatoria simple de la distribuci
con funcion de densidad dada por
( + 1)x
, 0 < x < ,
f (x|, ) =
+1
2.9 EJERCICIOS
53
i=1 Xi ,
Encuentre el ECM
2.11.
e .
n
i=1 Xi .
Es bien
z n1 ez
, z 0.
(n 1)!
!=
Utilice esto para calcular el sesgo y el ECM de
n1
Sn .
n
2.7. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
on Normal(, 1). Considere
!1 = X
y
!2 = 10 como estimadores de . Calcule el ECM de cada uno de los estimadores de y
haga un gr
aco para n = 10.
2.8. Sean 1 y 2 dos estimadores insesgados de un parametro , tales que Var() = Vari
conocida para i = 1, 2, ademas Cov(1 , 2 ) = 0. Ahora considere el estimador de la forma
! = !1 + (1 )!2 con 0 1.
!
(a) Obtenga el ECM de .
1
(b) Muestre que el ECM del estimador es mnimo cuando = VarVar
.
1 +Var2
2.9. Sean X1 , . . . , Xn variables aleatorias iid N (, 1). Se propone usar como estimador de
e a ex . Evalue el sesgo, varianza y ECM.
PUNTUAL
CAPITULO 2 ESTIMACION
54
2.9 EJERCICIOS
55
2.15. Demuestre que bajo ciertas condiciones de regularidad se satisface la siguiente igualdad
2
log f (X|)
log f (X|) 2
=E
.
E
2
2.16. Sea X = (X1 , . . . , Xn ) una m.a.s. de la densidad f (x|) = x1 , 0 < x < 1, donde
> 0.
c
T.
2.21. En cada uno de los siguientes modelos observacionales, considere una m.a.s de
tama
no n, X = (X1 , . . . , Xn ), con el n de determinar (si es posible) los estimadores de
momentos.
(a) N (, 2 ).
), x (0, 1).
(b) f (x|) = x log( 1
on N (0, 2 ).
2.17. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
(a) Encuentre una estadstica suciente para 2 .
(b) Encuentre la informaci
on de Fisher de 2 asociada a la muestra.
(c) Determine un estimador insesgado de
y verique si es eciente.
(e) f (x|) =
1
2
2.22. Sea X = (X1 , . . . , Xn ) una m.a.s. de la v.a. con densidad f (x|) = x1 , 0 < x < 1,
donde > 0.
(a) Calcule el estimador de maxima verosimilitud de y de g() =
n y
on U (0, ). Considere "1 = X
2.18. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
"2 = max{Xi } como estimadores de .
n y !2 = c2 max{Xi }n sean estimadores
(a) Determine c1 y c2 de manera que !1 = c1 X
insesgados de .
(b) Determine cual estimador es mas eciente que el otro.
on Poisson().
2.19. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
(a) Calcule el EIVUM de , usando S
T = ni=1 Xi como estadstica suciente.
on
(b) Calcule el EIVUM de g() = Pr(X = 0), usando S = I(X1 =0) , i.e., la funci
indicadora del evento (X1 = 0), como estimador insesgado.
+1 .
x x/
e
,
2
PUNTUAL
CAPITULO 2 ESTIMACION
56
on N ( + xi , 2 ), donde xi es conocido
2.25. Sean Yi v.a. independientes con distribuci
i = 1, . . . , n. Determine los estimadores de maxima verosimilitud de , y 2 . Estudie su
insesgamiento.
on N (1 , 2 ) e Y = (Y1 , . . . , Ym )
2.26. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
una m.a.s. de la distribuci
on N (2 , 2 ).
Suponga que ambas muestras son independientes.
2.9 EJERCICIOS
57
on U (a, b). Encuentre un es2.30. Sean X1 , . . . , Xn variables aleatorias iid con distribuci
timador de momentos para a y b.
x x22
e 2 .
2
(a) Binomial(n, p)
(b) Poisson()
(c) Normal(, 2 )
Encuentre los EMV para p, , y 2 respectivamente.
x2i
= 1559,66. Construya un
PUNTUAL
CAPITULO 2 ESTIMACION
58
1
2.9 EJERCICIOS
1 x
f (x, ) = e ; x 0, 0.
1
n
n
2
i=1 xi
59
es un estimador insesgado de W = 22 .
xr1 ex , x > 0
f (x|r, ) = (r)
0,
en otro caso
donde r, > 0; r entero conocido.
k
, r > k, k = 1, 2, . . .
(a) Muestre que E X1k = (r1)(r2)(rk)
(b) Encuentre una estadstica, T , que sea suciente para y determine su distribuci
on
de probabilidad.
(c) Calcule el estimador maximo verosmil de .
a
b,
Var(X) =
a
,
b2
MX (t) = E(etX ) =
PUNTUAL
CAPITULO 2 ESTIMACION
60
1 x/
xe
, x>0
2
donde > 0. Para realizar inferencia acerca de , se considera una muestra aleatoria
X = (X1 , . . . , Xn ) que representa los tiempos de duracion de n de esos componentes.
(a) Determine un estadstico suciente para . Cual es su distribucion?
Considere los siguiente datos de tiempos de duracion, en horas:
12,5 5,2 6,8 3,6 10,9 12,8 7,8 8,6 6,3 6,918,2 15,4 9,2 10,3 7,3
xi = 131,80,
x2i = 1559,66.
" .
!
(b) Calcule los estimadores de momentos y maxima verosimilitud de , digamos ,
Utilice los datos.
(c) Calcule la estimacion de maxima verosimilitud de la probabilidad que el tiempo de
duracion sea por lo menos 10 horas.
! y Var().
! Es ! un estimador eciente de ?
(d) Calcule E()
(e) Demuestre que ! es consistente.
(f) Muestre que GI(a, b) (distribuci
on Gamma Inversa de parametros (a, b) es una
priori conjugada para este problema).
(g) Utilizando los datos y si a = 2 y b = 5, calcule el estimador Bayesiano de bajo
perdida cuadr
atica.
(h) Suponga ahora que () [I()]1/2 , donde I() es la informacion de Fisher de
asociada a una observaci
on X. Rehaga los calculos de (g).
2.9 EJERCICIOS
61
Xi2
e(x) , x
f (x|, ) =
0,
en otro caso.
donde , > 0. Suponga que es conocido.
(a) Muestre que E(X) =
+ y que Var(X) =
1
.
2
on de la estadstica
(b) Encuentre un estimador insesgado, !1 , de que sea solo funci
n
i=1 Xi .
(c) Determine, rigurosamente, una estadstica suciente para , denotela por T .
(j) Calcule el estimador maxima densidad a posteriori de , considerando las dos prioris
anteriores. Comente sus resultados.
on de la
(e) Encuentre un estimador insesgado, !2 , de , de manera que sea solo funci
estadstica T .
on Weibull(, 2),
2.42. Sea X = (X1 , . . . , Xn ) una muestra aleatoria proveniente de la distribuci
i.e., con funci
on de densidad de probabilidad dada por
2xex2 , x > 0
f (x|) =
0,
en otro caso.
PUNTUAL
CAPITULO 2 ESTIMACION
62
2.9 EJERCICIOS
63
2.48. Suponga que !n es un estimador consistente para y que (an ) es una sucesion de
n
umeros reales tal que an 0. Demuestre que !n +an tambien es un estimador consistente
para .
r r1
e
,
(r)
2.49. En los siguientes casos compruebe que el estimador de Bayes bajo perdida cuadr
atica
es consistente para el parametro de interes.
(a) X = (X1 , . . . , Xn ) m.a.s N (, 2 ), con 2 conocido. En los casos que
(i) N (, 2 ).
(ii) () cte.
(b) X = (X1 , . . . , Xn ) m.a.s Poisson(). En los casos que
(i) exp().
(ii) () (I())1/2 .
on N (0, 2 ).
2.46. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
f (x|, ) = x(+1) , x ,
y verique si es eciente.
2.51. Suponga que es conocido.
(c) Determine cual de los dos estimadores insesgados anteriores es mas eciente.