Você está na página 1de 21

CAPITULO 1 ELEMENTOS DE INFERENCIA ESTADISTICA

22


(iii) Muestre que |X = x Gamma(n, nlog(z/)), donde z = ( ni=1 xi )1/n es
la media geometrica de las observaciones.
(iv) Para el caso = 50, calcule la media y la varianza de la distribuci
on a
posteriori.

CAPITULO 2
PUNTUAL
ESTIMACION

on Potencia(, ),
10. Sea X = (X1 , . . . , Xn ) una muestra aleatoria simple de la distribuci
con funcion de densidad dada por
f (x|, ) =

( + 1)x
, 0 < x < ;
+1

donde > 0 y > 1 es conocido.


(i) Muestre que E(X k ) =

+1
k
+k+1 ;

(ii) A partir de la estadstica S =


"
, denotelo por .

k = 1, 2, . . .. Deduzca E(X) y Var(X).


n
i=1 Xi , construya un estimador insesgado de

(iii) Muestre, rigurosamente, que T = max(Xi ) es una estadstica suciente para .


(iv) Muestre que T Potencia(n + n 1, ).

En este captulo se estudian los fundamentos b


asicos de la teora de estimacion puntual.
Luego se revisan sus metodos y propiedades.

2.1.

ESTIMADORES

En lo que sigue usamos la notacion habitual X = (X1 , . . . , Xn ) m.a. de X donde


X f (x|).
Un estimador de es una estadstica que asume valores en el espacio de parametros .
! ,
" , . . . Esto es, un estimador es una v.a.
Generalmente, se anota por ,
! 1 , . . . , Xn ) que asume valores en .
! = (X
Como funcion denida sobre el espacio muestral X,
! : X
!
x (x)
!
Es com
un, llamar a (x),
estimacion de dada una observaci
on x = (x1 , . . . , xn ).
Ejemplo 2.1. Sea X = (X1 , . . . , Xn ) m.a. Bernoulli(p). Sea,

cantidad de exitos en la muestra
Xi
=
.
p! =
n
tama
no muestra
Como p! es funci
on de X = (X1 , . . . , Xn ) y asume valores en el intervalo (0, 1), p! es
un estimador de p.
En particular, E(!
p) = p y Var(!
p) = p(1p)
n .

on para p es p! = 0,18.
Suponga que n = 100,
xi = 18, entonces una estimaci

23

PUNTUAL
CAPITULO 2 ESTIMACION

24

ERROR CUADRATICO
MEDIO

2.2.

El Error Cuadr
atico Medio (ECM) del estimador ! de viene dado por
! = E(! )2 ,
ECM ()

2.2 ERROR CUADRATICO


MEDIO

25

Entonces,
2
= = ECM (!
Var(X)
).
n

2 como estimador de 2 .
Uno puede considerar a
!2 = n1 (Xi X)

Note que,

donde el operador esperanza es tomado en relacion a la ley de X.

!2 =

Notemos que,
=
! + 2
! = E(!2 ) 2E()
ECM ()
! + (E()
! )2
= (E(!2 ) E2 ())
! + (E()
! )2 .
= Var()

=
entonces,

 2
1 2

E
Xi + E X
n


2
2
2
+
= +

n
2 n1
=
n

E(!
2) =

Se dene
! = E()
!
Sesgo()
luego,
! = Var()
! + (Sesgo())
! 2.
ECM ()

2.2.1.

$
1 # 2
+X
2)
(Xi 2Xi X
n
#
$
1 2
2 + n X
2
Xi 2nX
n
1 2

Xi X,
n

Estimadores Insesgados

! = 0, i.e., si E()
! = .
Se dice que ! es un estimador insesgado de si Sesgo()
! = Var().
!
Si ! es un estimador insesgado de , entonces ECM ()

luego,
!2 no es un estimador insesgado. Pero,
n

!2
S2 =
n1
1
2
=
(Xi X)
n1
es un estimador insesgado de 2 .

Ejemplo 2.2.
2.2.2.
1. X = (X1 , . . . , Xn ) m.a. Bernoulli(p).
Luego, p! =

Xi
n

Comparaci
on de Estimadores

El ECM es tambien utilizado para comparar el desempe


no de estimadores.

es un estimador insesgado de p, i.e.,


Denici
on 2.2.1.
E(!
p) = p.

Con lo que,
ECM (!
p) = Var(!
p)
p(1 p)
=
n
2. X = (X1 , . . . , Xn ) m.a. N (, 2 ).
n = 1  Xi es un estimador insesgado, i.e.,
Luego,
!=X
n
E(!
) = .

1. !1 es mejor que !2 si
ECM (!1 ) ECM (!2 ), para todo
ECM (!1 ) < ECM (!2 ), para alg
un .
En tal caso, !2 se dice inadmisible.
2. De existir un estimador ! , de manera que para todo estimador ! de , se tenga
! para todo
ECM (! ) ECM (),
! para alg
ECM (! ) < ECM (),
un ,
! se dice estimador optimo de .

PUNTUAL
CAPITULO 2 ESTIMACION

26

3. Si en lo anterior tanto ! y ! son estimadores insesgados de , entonces se dice que !


es el estimador insesgado de varianza uniformemente mnima de , lo que se abrevia
diciendo que, ! es el EIVUM de si para todo ! insesgado de
! para todo
Var(! ) Var(),
! para alg
Var(! ) < Var(),
un .

Var(!2 ) =

2.3.

ESTIMADORES EFICIENTES

La eciencia, en primera instancia, es un concepto relativo, compara el desempe


no de
dos estimadores insesgados.
" dos estimadores insesgados de , la eciencia relativa de ! viene dada por
Sean ! y ,

3
8

Ejemplo 2.5. Sea X = (X1 , . . . , Xn ) m.a. U (0, ). Entonces, " = 2n y ! =


estimadores insesgados de .

Ejemplo 2.4. Sea X = (X1 , . . . , Xn ) m.a. U (0, ).

!2 = max(Xi ),

E(!2 ) =

n
,
n+1

Var(!1 ) =

2
12n

Var(!2 ) =

n
2
(n + 2)(n + 1)2

y
! =
Var()
=

ECM (!2 ) =




entonces,
2
ECM (!1 ) ,
4

son

" = 4Var(X
n)
Var()
2
= 4
12n
2
=
3n

Por lo tanto, 2 es inadmisible.

E(!1 ) = ,
2

n+1
n X(n)

Luego,

1
3
< ECM (!2 ) = .
3
8

!1 = X,

"
"
Var()
ECM ()
=
,
!
!
ECM ()
Var()

cuando la razon no depende de .


! )
" > 1, entonces se dice que ! es mas eciente que .
"
Si ef(,
! < Var(),
" .
En resumen, ! es mas eciente que " si Var()

entonces,
ECM (!1 ) =

27

! )
" =
ef(,

Ejemplo 2.3. Sea X = (X1 , . . . , Xn ) m.a. de X con E(X) = y Var(X) = 1. Supongamos que
X1 + X2 + X3
1
Var(!1 ) =
,
E(!1 ) = ,
!1 =
3
3
1
1
1
!2 = X1 + X2 + X3 , E(!2 ) = ,
2
4
4

2.3 ESTIMADORES EFICIENTES

2
0, n .
(n + 1)(n + 1)

n+1
n

2
Var(X(n) )


n2
n+1 2
n
(n + 2)(n + 1)2
2
n(n + 2)

entonces,
n

ECM (!1 ) ECM (!2 )

ECM (!2 )
ECM (!1 )

5 2
18

1 2
10

0,27

4 2
15

1 2
21

0,12

10

31 2
120

1 2
662

0,04

20

61 2
240

1
2
2312

0,01

En todos los casos anteriores 2 es mejor que 1 .

! )
" =
ef(,
=

2
3n
2
n(n+2)

n+2
> 1, n > 1
3

"
! es m
as eciente que .
La denicion de eciencia (en terminos absolutos) se relaciona con el concepto de
Informaci
on de Fisher.

PUNTUAL
CAPITULO 2 ESTIMACION

28

2.4.

DE FISHER
INFORMACION

DE FISHER
2.4 INFORMACION

Demostraci
on de las Propiedades

Sea X una observaci


on con densidad f (x|), donde R. La informaci
on de
Fisher de asociada con la observacion X viene dada por

a)

E

2 &

%

29

log f (X|)



1 f
= E


1 f
=

f dx
f


f
dx (b.c.c.r se intercambian derivadas por integrales)
=

f dx
=

  

log f (X|)
,

2
 
log f (x|)
=
f (x|)dx.

I() = E

La informacion de Fisher puede depender del par


ametro o ser constante. Para estimadores
ecientes, necesita la informacion de Fisher.

integral de
una densidad

(1)

= 0.
=

Ejemplo 2.6. Sea X P (), entonces,


e X
I{0,1,...} (X)
X!
log f (x|) = cte + X log()
log f (x|)
X
= 1 + ,

f (x|) =

b) Es un buen ejercicio de c
alculo, notando que
2 log f (X|)
2

por lo que,
I() =
=
=
=

2.4.1.

1
E(X )2
2
Var(X)
2

2
1
, > 0.

1. Las condiciones de regularidad son


Existencia de

log f (X|)

log f (x|)
,

, x.

Intercambio de integrales con derivadas.


Por ejemplo, si X U (0, ), no se puede hacer, porque los lmites dependen de
.
2

0 < E logf2(X|) < . Es decir, en media,

2 log f (X|) < 0


2
log f (X|) = 0.

Bajo ciertas condiciones de regularidad (b.c.c.r.)


a) E



log f (X|)



1 f

(Regla del producto de derivadas).


f

Nota.

Propiedades

=0


 2
log f (X|)
b) I() = E
2

2.

log f (X|)

es una variable aleatoria con media 0 y varianza I().

PUNTUAL
CAPITULO 2 ESTIMACION

30

Ejemplo 2.7. Sea X P (), que cumple las condiciones de regularidad. Entonces,
f (X|) =
log f (X|) =
log f (X|)
=

2 log f (X|)
=
2

X e
(X)
I
X! {0,1,...}
cte + X log
X
1

X
2,

2.5 DESIGUALDAD DE CRAMER-RAO

2. Sea X = (X1 , . . . , Xn ) m.a.

Si uno dispone de una m.a. X = (X1 , . . . , Xn ) proveniente de la densidad f (x|),


f (x|) =
log f (x|) =

n


f (xi |);

log f (xi |)

2.5.

Sea ! un estimador insesgado de , entonces (b.c.c.r)


!
Var()
=

= n

I()


Inf. de Fisher
asociada a Xi

Finalmente,
In () = nI().
Ejemplo 2.8.
1. Sea X = (X1 , . . . , Xn ) m.a. P (), entonces
In () =

n
.

1
In ()
1
.
nI()
  
Cota de
Cram
er-Rao

Demostraci
on de la Desigualdad de Cram
er-Rao


f (X|)
= 0.
Demostraci
on. (i) E log

!
(x)f
(x|)dx = .
(ii) ! estimador insesgado de , entonces E() =
X

f
!
dx = 1, pero

(ii)+ condici
on de regularidad
X

La informacion de Fisher asociada a la muestra aleatotia X = (X1 , . . . , Xn ) viene dada

Ii ()

conocida, entonces

n
.
2

DESIGUALDAD DE CRAMER-RAO

log f
1 f
=

por

 2
log f (X|)
In () = E
2

 2 log f (Xi |) 
=
E
2
n 



con

In () =

por lo que,
 
I() = E X2
1
E(X)
=
2

=
2
1
=
.

31

N (, 2 ),

as,


X

y luego

log f
f dx = 1
!



log f
= 1.
E !

f
El coeciente de correlacion entre ! y log
, viene dado por



log


! E log f
E ! f E()

log f
!
'
,
=

! Var( log f )
Var()

10
'
! n I()
Var()

1
'
,
! n I()
Var()

PUNTUAL
CAPITULO 2 ESTIMACION

32

! 1 .
2 1 Var()
n I()

2.5 DESIGUALDAD DE CRAMER-RAO

33

1. C
alculo de la cota de Cramer-Rao (CCR) para un estimador insesgado de g().
e x
x!
log f (x|) = + x log() log(x!)
log f (x|)
x
= 1 +

2
log f (x|)
x
=

,
2
2
f (x|) =

! =
Denici
on 2.5.1. El estimador insesgado ! se dice eciente si Var()
varianza alcanza la cota de Cramer-Rao.

!=
Ejemplo 2.9. Sea X = (X1 , . . . , Xn ) m.a. P () y
! =
Var()
=
por lo que, In () =

1
n

1
n I() ,

i.e., si su

luego
n , entonces,
Xi = X

n
n2

! es un estimador eciente para .


 2
log f (X|)
I() = E
2

 
X
= E
2

1
,
=

por lo que
1
n I()
1
=
n 1

=
.
n
Ahora, la cota de Cramer-Rao para un estimador insesgado de g() es
CCR() =

Caso de Par
ametro Vectorial
Si = (1 , . . . , r ), se dene la matriz de informacion de Fisher asociada a X por
 2

log f (X|)
(Iij ()) = E
, i, j = 1, . . . , r.
i j
En este caso, si !i es un estimador insesgado de i entonces Var(!i ) es eciente si
Var(!i ) = Iii1() ; i = 1, 2, . . . , r.

) =
CCR(g())
=

Caso de una funci


on g()

( es un estimador insesgado de g(), g funcion real, entonces


Si g(),
(
a) R; Var(g())

(g  ())2
nI()
(e )2
n

e2
n

2. Estimaci
on de g().

[g  ()]
,
nI()

Sea
S=

( g() I1 ()g(),
b) Rr ; Var(g())
donde, I() es la informaciond de Fisher asociada a una observaci
on X con densidad
f (x|). I() es la matriz de informacion asociada a X con densidad f (x|).
Ejemplo 2.10. Sea X1 , . . . , Xn m.a. de la v.a. X Poisson(). Se desea estimar

P (X = 0) = e

= g().

1,
0,

si X1 = 0
en otro caso.

S es un estimador insesgado de g() = e , pues


E(S) = 1 Pr(S = 1) + 0 Pr(S = 0)
= Pr(X1 = 0)
= e
= g().

PUNTUAL
CAPITULO 2 ESTIMACION

34

3. Eciencia de S.
E(S ) = 1 Pr(S = 1) + 0 Pr(S = 0)
2

= e
Var(S) = E(S 2 ) E2 (S)
= e e2
= e (1 e ).
) S no es un estimador eciente de g().
Como Var(S) = CCR(g()),

2.6.

ESTIMADORES BASADOS EN ESTADISTICAS SUFICIENTES


(RAO-BACKWELL)

2.6 ESTIMADORES BASADOS EN ESTADISTICAS SUFICIENTES (RAO-BACKWELL)

Ejemplo 2.11. Tenemos el ejemplo anterior, X1 , . . . , Xn m.a. de la v.a. X P (), donde


se desea estimar g() = Pr(X = 0) = e .
Sea

1, si X = 0
1
S=
0, en otro caso
Vimos anteriormente que S es insesgado para g(). Ahora, encontremos el estadstico
suciente para T ,
n


e xi
1
xi n ,
= en 
L() =
xi !
x!
  i
g(,T )
h(x)



on e es uno a uno, por lo que T =
Xi
T =
Xi es suciente para . La funci
es suciente para g().
! = E(S|T )

Sea
X1 , . . . , Xn
m.a.
de
la
v.a.
X
con
densidad
f (x|).
Sea
T = T (X1 , . . . , Xn ) una estadstica suciente para y S = S(X1 , . . . , Xn ) un estimador
de que no es funcion de la estadstica suciente.
Entonces, ! = E(S|T ), es un estimador de , es decir, una funci
on de T que no depende de , pues siendo T suciente, la distribuci
on condicional de X1 , . . . , Xn dado T es
independiente de .
Ahora, si S es un estimador insesgado de , entonces ! tambien lo es y se tiene que
!
Var(S) Var().

= 1 Pr(S = 1|T = t) + 0 Pr(S = 0|T = t)


= Pr(X1 = 0|T = t)

Pr(X1 = 0 , ni=1 xi = t)
=
Pr(T = t)

Pr(X1 = 0 , ni=2 xi = t)
=
Pr(T = t)

Pr(X1 = 0) Pr( ni=2 xi = t)
=
Pr(T = t)

Veriquemos lo anterior,

=
! = E(E(S|T ))
E()

= ,

por lo tanto ! es insesgado para .



e e(n1) ((n1))t
t!
en (n)t
t!

t

= E(S)

!
Var(S) = Var(E(S|T )) + E(Var(S|T )) Var(E(S|T )) Var().
  


! basado en la estadstica suciente T , presenta una


De aqu, tenemos que el estimador ,
menor varianza (o igual) que la del estimador insesgado S.
De este modo, cualquier estimador S que no es funcion de una estadstica suciente
puede ser mejorado por este metodo.

35

n1
n
n1
n

 xi
,

! Var(S), .
! es insesgado para g() = e y Var()
Ejemplo 2.12. Sea X = (X1 , . . . , Xn ) m.a. Bernoulli(p). Sea S = X1 un estimador
insesgado de p, pues E(S) = p, donde

1, con probabilidad p,
X1 =
0, con probabilidad 1-p.
Luego, T =

Xi es una estadstica suciente para p.

PUNTUAL
CAPITULO 2 ESTIMACION

36

2.6 ESTIMADORES BASADOS EN ESTADISTICAS SUFICIENTES (RAO-BACKWELL)

37

Considerar p! = E(S|T )
E(Xi |T = t) = 1 Pr(X1 = 1|T = t) + 0 Pr(X1 = 0|T = t)

Pr(X1 = 1 , ni=1 Xi = t)
=
Pr(T = t)

Pr(X1 = 1 , ni=2 Xi = t)
=
Pr(T = t)

Pr(X1 = 1) Pr( ni=1 X i = t)
=
Pr(T = t)
  t1
(1 p)n1(t1)
p n1
t1 p
n
=
t (1 p)nt
p
t
(n 1)!
(n t)!t!
=

(n t)!(t 1)!
n!
t
=
n

Xi
=
n

= X.
La unicidad del estimador insesgado de varianza uniformemente mnima (EIVUM) para
el par
ametro, requiere de una condici
on adicional sobre la estadstica suciente T .

E(g(T )) = 0
n

g(t) Pr(T = t) = 0

t=0

(1 )n

 
n
t
) = 0
g(t)
(
t 1



n t

g(t)
,
= 0, =
(1 )
t



polinomio de
grado n en

coecientes del polinomio deben ser nulos, i.e.,


 
n
g(t) = 0, t = 0, 1, . . . , n
t
g(t) = 0, t = 0, 1, . . . , n.
Uno puede armar que la familia de distribuciones (Binomial) de T es completa.
2. Un ejemplo de estadstica que no es completa.
En el item anterior, considerar T = X1 X2 .
E(T ) = E(X1 ) E(X2 ) = = 0

2.6.1.

Estadstica Completa
pero X1 no es igual a X2 con probabilidad 1, i.e., T no es cero con probabilidad 1.

Se dice que la estadstica T = T (X1 , . . . , Xn ) es completa en relacion a la familia


densidades f (x|), si la u
nica funci
on de T , digamos g(T ), que tiene esperanza nula es
la funci
on nula, con probabilidad 1. En rigor, T es completa si E(g(T )) = 0 g(T ) = 0
con probabilidad 1 para todo .
Nota.

Para probar que una estadstica no es completa, uno debe encontrar una funci
on de
T no nula de manera que su esperanza si sea nula.
3.

a) Sea X = (X1 , . . . , Xn ) m.a. P (). T =

Xi es completa.

b) Sea X = (X1 , . . . , Xn ) m.a. U (0, ). T = max(Xi ) es completa.

Es usual, decir que la familia de distribuciones T es completa.


La completitud de T , en muchos casos es difcil de probar, sin embargo veremos
ejemplos ilustrativos.

Teorema 2.6.1. Sea X = (X1 , . . . , Xn ) m.a. proveniente de una v.a. X con densidad
f (x|), donde , siendo un intervalo real.
Si f (x|) = a(x) exp{u(x)() + b()}, i.e., f (x|) pertenece a la familia exponencial

uniparametrica, entonces T = U (Xi ) es una estadstica suciente y completa para .

Ejemplo 2.13.
1. Sea X = (X1 , . . . , Xn ) m.a. Bernoulli().

T = Xi es suciente y T Binomial(n, ).
 
Pr(T = t) = nt t (1 )nt , t = 0, 1, . . . , n.

Nota 1.
1. Lo del intervalo real para , se reere al hecho de que el dominio de () contenga
un intervalo.

PUNTUAL
CAPITULO 2 ESTIMACION

38

2. En el caso multiparamtetrico se requiere que el dominio parametrico contenga un


intervalo r-dimensional. En tal caso,



Ur (Xi )
T (X) =
U1 (Xi ), . . . ,
es una estadstica conjuntamente suciente y completa para = (1 , . . . , r ).

2.6.2.

Estimador Insesgado de Varianza Uniformemente Mnima (EIVUM)

2.6 ESTIMADORES BASADOS EN ESTADISTICAS SUFICIENTES (RAO-BACKWELL)

Ejemplo 2.15. Sea X = (X1 , . . . , Xn ) m.a. P ().


g() = Pr (X = 0) = Pr(X = 0|) = e .
Sea

1, si X = 0
1
S=
0, o.c
E(S) = 1 Pr(X1 = 0) = e .

T = Xi es una estadstica suciente y completa, esto pues,
f (x|) = Pr (X = x)

Teorema 2.6.2 (Lehman-Sche


e). Sea X = (X1 , . . . , Xn ) m.a. f (x|). Si S es un
estimador insesgado de y T una estadstica suciente y completa para , entonces
! = E(S|T ) es el u
nico estimador insesgado de en T y ! es el EIVUM para .

=
=

Demostraci
on. Si !1 y !2 son dos estimadores insesgados basados en T , entonces
E(!1 !2 ) = 0
pero T es completa, luego !1 !2 = 0 con probabilidad 1, i.e., Pr(!1 = !2 ) = 1 y RaoBackwell garantiza que ! es el EIVUM.
Uno podra pensar en las siguientes situaciones.
Caso 1.
T suciente y completa
! estimador insesgado de basado en T

39

en Xi

I{0,1,...}n (x)
Xi !

I(x)

exp
log() n .
Xi !

Con (0, ) que es un intervalo. El EIVUM de g() es


 X i

( = E(S|T ) = n 1
.
g()
n
Caso 3.
! )) = , donde (T
! ) es funcion de T , T es suciente y
Plantear la ecuacion E((T
! ).
completa. De la ecuacion anterior, uno despeja (T
Ejemplo 2.16. Sea X = (X1 , . . . , Xn ) m.a. y


! es el EIVUM de .

f (x|) = ex , x > 0.
Aqu E(X) = 1 , luego

Ejemplo 2.14. Sea X = (X1 , . . . , Xn ) m.a. Bernoulli(), 0 < < 1.



T = Xi es una estadstica suciente y completa, pues
f (x|) = Pr (X = x)

T (x) =

Xi

= n Xi I(0,)n (x)

= exp
Xi + n log() I(0,)n (x),

(1 )n Xi I{0,1}n (x)




= exp
Xi log
+ n log(1 ) I{0,1}n (x).
1
=

L(, X) = f (X|)

Xi es suciente y es completa, pues = (0, 1) es un intervalo.

Caso 2.
S estimador insesgado de
T estadstica suciente y completa


! = E(S|T ) es el EIVUM de .

R.B.


lo anterior implica que T (X) =
Xi es una estadstica suciente y completa. Dada la
estructura del problema, uno puede pensar que el EIVUM de es ! = cXi y c se obtiene
! = .
de E()

T = Xi Gamma(n, ), por lo que T1 GI(n, ). Luego,
 
! = cE 1 = c = .
E()
T
n1
Entonces, c = n 1 y ! =

(n1)

Xi

es el EIVUM de .

PUNTUAL
CAPITULO 2 ESTIMACION

40

2.7.
2.7.1.

PUNTUAL
METODOS
DE ESTIMACION

PUNTUAL
2.7 METODOS
DE ESTIMACION

En resumen, uno debe resolver

M
etodo de los Momentos

Tal vez este sea el metodo mas intuitivo. Supongamos que X = (X1 , . . . , Xn ) es una
m.a. de X con densidad f (x|), donde = (1 , . . . , r ).
Ademas, se supone que existen los momentos de la distribucion X, i.e,

log f (x|)
= 0 (ecuacion de verosimilitud).

La condicion de segundo orden corresponde a que

k () = E(X ), k = 1, 2, . . .

2 log f (x|)
< 0.
2

Luego, se denen los momentos muestrales por


1 k
Xi , k = 1, 2, . . .
n
n

mk =

Si = (1 , . . . , n ), entonces uno debe resolver el gradiente log f (x|) = 0, i.e.,

El metodo de los momentos consiste en resolver para = (1 , . . . , r ) las ecuaciones

log f (x|)
= 0, i = 1, . . . , r
i

k () = mk , k = 1, 2, . . . , r.
La solucion de estas ecuaciones denen el estimador de momento (e.m.m.) de .
Ejemplo 2.17. Sea X = (X1 , . . . , Xn ) m.a. N (, 2 ), entonces

1 = E(X) =


2 = E(X 2 ) = 2 +
n, 2 = 1
2 = n 1 S2.

! = m1 = X
(Xi X)

1

n
n
m1 = n Xi = Xn

 2

m2 = n1
Xi
Es claro que los e.m.m. no son necesariamente insesgados.

2.7.2.

El metodo de maxima verosimilitud es el mas utilizado en la literatura y en las aplicaciones. Esto se debe fundamentalmente a lo facil de implementar e incluso viene implementado en los software estadsticos.
Si X = (X1 , . . . , Xn ) es una m.a. proveniente de una densidad f (x|),
R y L() = L(, x) = f (x|) es la funcion de verosimilitud asociada a la muestra
X = (X1 , . . . , Xn ). Se dice que ! es el estimador de maxima verosimilitud de si
! = max L() = max f (x|).
L()

La condicion de segundo orden corresponde a que la matriz hessiana sea denida


negativa, i.e., para la matriz

H=

2 log f (x|)
i j

; debe cumplirse que a Ha < 0, a Rn


ij

lo cual tiene una caracterizacion con terminos de los valores propios de H.

Xi en

I{0,1,...}n (x)
Xi !

log f (X|) =
Xi log n + cte

log f (X|)
Xi
!=X
n
=
n=0


2 log f (X|)
Xi
= 2 < 0, .
2

f (X|) =

Dado que la funci


on logaritmo es estrictamente creciente, es equivalente a resolver
max log L() = max l() = max log f (x|).

el cual puede ser no lineal.

Ejemplo 2.18. Sea X = (X1 , . . . , Xn ) m.a. Poisson().

M
etodo de M
axima Verosimilitud

41

! = (insesgamiento) y Var()
! 0 cuando n .
E()

PUNTUAL
CAPITULO 2 ESTIMACION

42

Ejemplo 2.19. Sea X = (X1 , . . . , Xn ) m.a.

N (, 2 ).

1 
2
1
f (X|, ) =
e 22 (Xi )
(2 2 )1/2
n
1
log f (X|, 2 ) = log( 2 ) 2
(Xi )2 + cte
2
2
2
log f (X|, )
1
=
(Xi ) = 0

n
Xi n = 0
!=X

log f (X|, 2 )
2

n
1
+
(Xi )2 = 0
2 2 2( 2 )2

1
(Xi )2
n
(n 1) 2
s
n

PUNTUAL
2.7 METODOS
DE ESTIMACION

b) Si g no es uno a uno, la propiedad tambien es valida.


Supongamos que
g:
w = g().
!
Denotemos por w
! = g().
Sea G(w) = { : g() = w}, luego ! G(w)
! por lo tanto,
!
L()

*2 =

*2 =

*2 no lo es para 2 .
Es claro que
! es un estimador insesgado de , pero
Ejemplo 2.20. Sea X = (X1 , . . . , Xn ) m.a. U [0, ].

1 , si 0 x

f (x|) =
0, en otro caso
f (x|) =

1
, si max(xi ).
n

Note que log f (x|) = n log , luego


n
log f (x|)
= < 0, max(xi ).

En realidad, f (x|) es una funci


on decreciente, luego su valor m
aximo lo alcanza en ! =
aximo verosmil de .
max(Xi ), que corresponde al estimador m
En este caso se consider
o el intervalo cerrado [0, ], pues si no el estimador m
aximo
verosmil no existira.

Propiedades de los Estimadores M


aximo Verosmil
1. Invarianza
! es el e.m.v de g().
Si ! es el e.m.v de , entonces g()
! es el
a) Si g es uno a uno, entonces max L() = max L(g 1 (g()). De esta forma g()
e.m.v de g().

43

max L()

G(w)

max max L()


w G(w)

!
= L(),
pues {G(w) : w } es una particion de .
Deniendo M (w) = maxG(w) L(), entonces
M (w)
! = max M (w)
w

max L(),

G(w)

( = g().
!
w
! es el e.m.v de g(), es decir, g()

Ejemplo 2.21.
!=
1. Sea X = (X1 , . . . , Xn ) m.a. P (). Luego,
Sea g() = Pr(X = 0) =

e ,

Xi
n

n es el e.m.v de .
=X

! = eXn .
entonces el e.m.v de g() es g()

*2 = 1 (Xi X)
n y
2 son los
2. Sea X = (X1 , . . . , Xn ) m.a. N (, 2 ). Luego,
!=X
n
2
e.m.v de y .
*2 ) = X
2 +
Sea g(, 2 ) = E(X 2 ) = 2 + 2 , entonces el e.m.v de g(, 2 ) es g(!
,
1 
2.
(Xi X)
n

2. Distibuci
on Asint
otica de los e.m.v.


1
a
a) ! N ;
, cuando n .
n I()


[g  ()]2
a
!
N g() ;
b) g()
n I()

PUNTUAL
CAPITULO 2 ESTIMACION

44

Los e.m.v son asintoticamente insesgados y ecientes.


3. El e.m.v de , de existir, es funci
on de una estadstica suciente.
Del teorema de Factorizacion,
f (X|) = g(, T (X)) h(X); ,
max f (X|) o max log f (X|) inevitablemente conduce a que ! es funcion de T (X).

2.7.3.

M
etodos Bayesianos

PUNTUAL
2.7 METODOS
DE ESTIMACION

45

a = b = 1 U (0, 1).
En este caso todos lo puntos del intervalo [0, 1] son soluci
on. Existe la posibilidad
on U (0, 1) es simetrica
como soluci
on " = 12 ; con el argumento de que la distribuci
en torno a ese punto.
a = 1, b > 1.
() = cte (1 )b1 , 0 1 que es estrictamente decreciente, luego la moda
es 0.
a > 1, b = 1.

Sea X = (X1 , . . . , Xn ) m.a f (x|), donde (), entonces


(|x) f (x|) ().

() = cte a1 , 0 1 que es estrictamente creciente.


a=b.
moda = 12 .

M
etodo de M
axima Densidad a Posteriori
Se trata del metodo analogo al metodo de maxima verosilitud y consiste en maximizar
la densidad a posteriori. "B es un estimador de maxima densidad a posteriori si ("B |x) =
max (|x) o equivalentemente, es posible max log (|x).
En realidad, "B es la moda de la densidad a posteriori.

En general,
log ()
log ()

Ejemplo 2.22. Sea X = (X1 , . . . , Xn ) m.a. N (, 2 ), 2 desconocido y N (, 2 ).


Se vi
o anteriormente que |X = x N (1 , 12 ) donde 12 = 2 + n 2 y
2
2 X
n
.
1 = +n
2
1

En este caso, el e.m.d.p. de es


n
"B = 1 = n + (1 n )X
donde n =

log cte + (a 1) log + (b 1) log(1 )


(a 1) (b 1)
=

=0

(1 + )
(a 1)(1 ) (b 1)
=0

(1 )
(a b 2) + (a 1) = 0
=

entonces,

a1
.
a+b2
Se deben encontar condiciones para que la moda este bien denida.
moda =

2
.
12

 2
= 1 , entonces (|X) f (X|); , i.e.,
Si () (I())1/2 = cte = 12


2
n , que coincide con el e.m.v. de .

|X = x N Xn , n y luego el e.m.d.p. es " = X


Ejemplo 2.23. Sea X Binomial(n, p) y Beta(a, b), entonces
(|X) X (1 )nX a1 (1 )b1 ; 0 1
a+X1 (1 )b+nX1 ,
|X = x Beta(a + X; b + n X)
on Beta(a + X; b + n X).
"B es la moda de la distribuci

Estimaci
on bajo P
erdida Cuadr
atica
En este contexto el problema se aborda recurriendo a elementos de la teora de decisiones. El modelo bayesiano en este marco cosidera X = (X1 , . . . , Xn ) m.a. proveniente
de una densidad f (x|).
Verosimilitud : L() = f (x|),
Priori : ()
Posteriori : (|x) f (x|) (), .
Se puede visualizar lo siguiente:

PUNTUAL
CAPITULO 2 ESTIMACION

46

: espacio de parametros. Son los estados de la naturaleza. Para dar estimacion de


, se debe tomar una cierta accion a A, donde A es el conjunto de todas las posibles
acciones que podran tomarse, por lo tanto, en el proceso de estimacion A = .

PUNTUAL
2.7 METODOS
DE ESTIMACION

Por el teorema de Fubini,

L:A R

Las perdidas negativas se entienden como utilidades. La funci


on de perdida cuadr
atica se
dene por
L(, a) = ( a)2 .
La estimacion de por a, sera una funci
on de la observaci
on x = (x1 , . . . , xn ). De esta
forma se dene la regla de decision d por
d:X A
x a = d(x).
En rigor, considerando a d como funcion del vector aleatorio X = (X1 , . . . , Xn ), d(X)
es el estimador de y a = d(x) viene a ser la estimacion de , i.e., el valor particular del
estimador de , cuando se observa x = (x1 , . . . , xn ).
Supondremos que las decisiones d son elementos del espacio de decisiones D.
Se dene la funci
on de riesgo por

.
L(, d(x))f (x|)()d dx
X

 -
r(, d) =

Al estimar usando la accion a, uno incurre en una cierta perdida L(, a). Esto origina
la denicion de funci
on de perdida,

(, a) L(, a).

47

donde f (x) =

 
f (x|)()

d f (x)dx,
L(, d(x))
f (x)

X



(|x)

f (x|)()d

es una densidad marginal de X.

La forma extensiva del principio de Bayes, consiste en que para cada x,




L(, a)(|x)d
o mn
L(, a)(|x)d.
mn
dD

aA

El resultado de este proceso nos da el estimador de Bayes.


Ahora si L(, a) = ( a)2 entonces se tiene que

mn ( a)2 (|X) d = mn (a).
aA

aA


 (a) = 2 ( a)(|X)d = 0



(|x)d = a
(|X)d

 

1


a =
(|X)d

R(, d) = Ex| (L(, d(x)))



=
L(, d(x)) f (x|)dx.

a = E(|X)
(a ) = Var(|X).

El riesgo es la perdida esperada al tomar la decision d. Hasta aqu, esto puede ser aplicado
! = E(! )2 es una funci
on de riesgo.
en un contexto clasico, por ejemplo, ECM ()
El riesgo de Bayes, se dene como la esperanza en relacion a la priori () del riesgo
R(, d), viene dado por
,
+
r(, d) = E EX| L(, d(x))
.
 -
=
L(, d(x))f (x|)dx ()d,

!B = d (X) es un estimador de Bayes de si r(, d ) = mndD r(, d).

Resultados
Si L(, a) = ( a)2 , el estimador de Bayes viene dado por
!B = E(|X).
Notemos que el valor mnimo alcanzado es Var(|X) y se llama riesgo de Bayes del estimador !B cuando es constante, i.e., rB (!B ) = Var(|x).

PUNTUAL
CAPITULO 2 ESTIMACION

48

Ejemplo 2.24.
1. Sea X = (X1 , . . . , Xn ) m.a. Bernoulli(), donde Beta(a, b).
y Var() = (a+b)2ab
.
(a+b+1)


Luego, |X = x Beta (a + xi ; b + n xi ).

Entonces, E() =

2.8 ESTIMADORES CONSISTENTES

Ejemplo
2.25. Sea X1 , . . . , Xn iid tal que = E(Xi ),

n ) = , Var(X
n ) = 2 .
n = Xi satisface que E(X
X
n
n


a + xi
(a + b + n)


a
n
a+b

(
xn )
+
=
a
+
b
+
n
a
+
b
b + n
  
a +
n

n | > }
Pr{|X

2 n
0,
n2

n es un estimador
!=X
i.e, independiente de la distribuci
on de la secuencia X1 , . . . , Xn ;
consistente de = E(X).
En el lenguaje probabilstico,
P
n

1n

= n (media a priori) + (1 n ) (media muestral),

= Var(Xi ); i = 1, . . . , n, luego

As, > 0

a
a+b

!B =

49

es conocida como la ley debil de los grandes n


umeros.

es decir, una combinaci


on convexa entre la media a priori y la media muestral.
2. Sea X = (X1 , . . . , Xn ) m.a. N (, 2 ), con 2 conocido, donde N (, 2 ).

Ejemplos Ilustrativos de la Denici


on
Sea X = (X1 , . . . , Xn ) m.a. U (0, ).

Luego, |X N (1 , 12 ) !B = 1 .

a) El e.m.v. de que es !n = max(xi ) es consistencte para .

2.8.

La ley de T = max(xi ) es

ESTIMADORES CONSISTENTES

Se dice que el estimador !n es un estimador consistente para si > 0,


FT (t) =

Pr{|!n | > } 0.
Esto quiere decir que !n esta mas cerca de cuando el tama
no de muestra es grande. Note
que la denici
on tambien se escribe, > 0, Pr{|!n | } 1.
En el lenguaje probabilstico, lo anterior se lee como: !n es consistente para si !n
P
converge en probabilidad a , lo que se anota !n .

Desigualdad de Tchebychev

Sea X v.a. con = E(X), 2 = Var(X), entonces > 0,


Pr{|X | > }

2
.
2

1,

t<0
, 0t<
t

Sea > 0, entonces


Pr{|!n | } = Pr{ !n + }
= FT ( + ) FT ( )

1 0,
>


=
n

,
1

La desigualdad de Tchebychev a seguir, juega un rol importante en consistencia de


estimadores.

2.8.1.

0,

 n

P
i.e., !n = max(xi ) es consistente para o max(xi ) .

b) Por Tchebychev.
P
"
n
P

E(X) = 2 , luego X
2 , i.e., 2Xn , entonces n = 2Xn es consistente para .

PUNTUAL
CAPITULO 2 ESTIMACION

50

Resultados en T
erminos de Insesgamiento
a)

E(!n ) =
Var(!n ) 0


!n es consistente para .

Var(!n )
0, cuando n .
2
Estimadores insesgados con varianza que tiende a cero son consistentes.
Pr{|!n | > }

2.9 EJERCICIOS

2.9.

51

EJERCICIOS

2.1. Sea (X1 , X2 ) una m.a.s. de una poblaci


on descrita por la variable aleatoria X, con
densidad
f (x|) = ex , x > 0, > 0.
Se quiere estimar g() = Pr(X1 > x0 ), donde x0 es un real positivo conocido.
(a) Muestre que Z = I(x0 ,) (X1 ) es un estimador insesgado para g().
(b) Encuentre un estadstico suciente para g().

b)

E(!n )
Var(!n ) 0


!n es consistente para .

|!n | = |!n E(!n ) + E(!n ) |


|!n E(!n )| + |!n |

(c) Encuentre un estimador insesgado de menor varianza que Z.


1 es la media de una muestra aleatoria de tama
no n de una poblaci
on
2.2. Suponga que X
2 es la media de una muestra aleatoria de tama
no n de una poblaci
on N (, 22 )
N (, 22 ), X
2 es un estimador de .
1 + (1 )X
y que
= X
(a)
es insesgado?
(b) Cual debe ser el valor de para que la varianza sea mnima?

|!n | > |!n E(!n )| + |E(!n ) | > .

Pr(|!n | > ) Pr{|!n E(!n )| > |E(!n )|}


Var(!n )
n

0.
( |E(!n )|)2

2.3. Sea X1 , . . . , Xn una muestra aleatoria de media y varianza 2 . Se propone estimar


= n Ci Xi donde los Ci son n
umeros jos. Determine los ci tal que el
mediante X
i=1
estimador sea insesgado y de varianza mnima.
on de densidad de probabilidad dada por
2.4. Sea X1 , . . . , Xn v.a. iid con funci
f (x) =

Ejemplo 2.26. Sea X = (X1 , . . . , Xn ) m.a. U (0, ). Luego, !n = max(Xi ).


n
n
2
, Var(!n ) = (n+2)(n+1)
Entonces, E(!n ) = n+1
2 0.
Por lo que, !n = max(Xi ) es consistente para .

1 |xa|
e ; x, , 0.
2

Determine un estimador insesgado y de varianza m


nima
para .
Nota: E(x) = , Var(x) = 2 2 y |x a| exp 1 .
2.5. Dos instrumentos 1 y 2 son usados para medir la cantidad de un componente qumico
presente en diferentes muestras de cierto material. Sea Yij : cantidad del componente en la
j-esima muestra obtenida con el i-esimo instrumento, j = 1, . . . , n1 , i = 1, 2.
Suponga que X11 , . . . , X1n1 son v.a. iid N (, 12 ); X21 , . . . , X2n2 son v.a. iid N (, 22 ),
y que ambas muestras son independientes.
Ademas suponga que 22 = w12 , (0 < w < 1) con w y 12 conocido. Considere el
siguiente estimador para ,
! 1 + n2 X
!2
n1 wX

!=
n1 w + n2

Y
con Y!i = n1 ij para i = 1, 2.
j=1 ni

PUNTUAL
CAPITULO 2 ESTIMACION

52

(a) Muestre que


! es un estimador insesgado de y determine su ECM. Analice su
consistencia.
(b) Muestre que
es un estimador insesgado de varianza mnima.

on Potencia(, ),
2.6. Sea X = (X1 , . . . , Xn ) una muestra aleatoria simple de la distribuci
con funcion de densidad dada por
( + 1)x
, 0 < x < ,
f (x|, ) =
+1

2.9 EJERCICIOS

53

2.10. Sean X1 , X2 P (), iid. Se desea estimar Pr(X1 = 0) =


de los siguientes estimadores
 X +X
(a) 12 1 2 .


(b) Proporci
on de Xi = 0 puede ser 0, 12 o 1 .

Sean X1 , . . . , Xn iid con densidad ex , con x 0 y n 2. Sea Sn =


conocido que Z = Sn tiene densidad dada por
f (z) =

(a) Calcule E(X), Var(X).


n

i=1 Xi ,

construya un estimador insesgado de ,

(c) Muestre, rigurosamente, que T = max(Xi ) es una estadstica suciente para y


determine su distribuci
on de probabilidad.

Encuentre el ECM

2.11.

donde > 0 y > 1 es conocido.

(b) A partir de la estadstica S =


"
denotelo por .

e .

n

i=1 Xi .

Es bien

z n1 ez
, z 0.
(n 1)!

!=
Utilice esto para calcular el sesgo y el ECM de

n1
Sn .

2.12. Sean Y1 , . . . , Yn U (0, ). Sea T = max(Y1 , . . . , Yn ) y considere los estimadores de


de la forma cT , c 0.
(a) Para que valor de c, cT es insesgado?

(d) A partir de la estadstica suciente para , construya un estimador insesgado de ,


!
denotelo por .
! es mas eciente?
(e) Cual de los dos estimadores, " o ,

n
2.7. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
on Normal(, 1). Considere
!1 = X
y
!2 = 10 como estimadores de . Calcule el ECM de cada uno de los estimadores de y
haga un gr
aco para n = 10.

2.8. Sean 1 y 2 dos estimadores insesgados de un parametro , tales que Var() = Vari
conocida para i = 1, 2, ademas Cov(1 , 2 ) = 0. Ahora considere el estimador de la forma
! = !1 + (1 )!2 con 0 1.
!
(a) Obtenga el ECM de .
1
(b) Muestre que el ECM del estimador es mnimo cuando = VarVar
.
1 +Var2

(c) Obtenga la varianza del estimador que minimiza el ECM.

2.9. Sean X1 , . . . , Xn variables aleatorias iid N (, 1). Se propone usar como estimador de
e a ex . Evalue el sesgo, varianza y ECM.

(b) Para que valor de c, el ECM (cT ) es mnimo?


on N (0, 2 ). Considere los esti2.13. Sea X = (X1 , . . . , Xn ) una m.a. de la distribuci

!c2 = c Xi2 .
madores de 2 de la forma
(a) Encuentre el ECM de esta clase de estimadores.
(b) Determine el valor de c que minimiza el ECM.
on
2.14. Sea X = (X1 , . . . , Xn ), una muestra aleatoria simple proveniente de la distribuci
N (, 1). Se quiere estimar = g() = 2 .
(a) Determine la distribuci
on de probabilidad de la v.a. Y = (X )2 . Calcule E(Y ), y
Var(Y ).
(b) Basandose en la muestra X = (X1 , . . . , Xn ), construya un estimador insesgado de .
(c) Demuestre que la informacion de Fisher de asociada a una observaci
on X puede
expresarse como
 2
I()
d
=
I() = I()
d
(2)2
donde I() es la informacion de Fisher de asociada a una observaci
on X.

PUNTUAL
CAPITULO 2 ESTIMACION

54

(d) Verique si el estimador insesgado de , construido en (b), es eciente.


Nota: Si X N (, 1) entonces E(X 4 ) = 4 + 62 + 3.

2.9 EJERCICIOS

55

2.20. Sea X = (X1 , . . . , Xn ) una m.a.s. proveniente de la distribuci


on exponencial de
par
ametro , i.e., con densidad dada por f (x|) = ex , x > 0.
(a) Encuentre una estadstica suciente, T .

2.15. Demuestre que bajo ciertas condiciones de regularidad se satisface la siguiente igualdad

 2

 
log f (X|)
log f (X|) 2
=E
.
E
2

2.16. Sea X = (X1 , . . . , Xn ) una m.a.s. de la densidad f (x|) = x1 , 0 < x < 1, donde
> 0.

(b) Determine el EIVUM de 1 .


(c) Determine el EIVUM de , considerando que sea de la forma

c
T.

2.21. En cada uno de los siguientes modelos observacionales, considere una m.a.s de
tama
no n, X = (X1 , . . . , Xn ), con el n de determinar (si es posible) los estimadores de
momentos.

(a) Encuentre una estadstica suciente para .

(a) N (, 2 ).

(b) Encuentre la informaci


on de Fisher de asociada a la muestra.

), x (0, 1).
(b) f (x|) = x log( 1

(c) Determine un estimador insesgado de y verique si es eciente.

(c) Beta(a, b).


(d) Binomial(n, p) con n y p desconocidos.

on N (0, 2 ).
2.17. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
(a) Encuentre una estadstica suciente para 2 .
(b) Encuentre la informaci
on de Fisher de 2 asociada a la muestra.
(c) Determine un estimador insesgado de

y verique si es eciente.

(e) f (x|) =

1
2

exp{|x |}, con x R.

2.22. Sea X = (X1 , . . . , Xn ) una m.a.s. de la v.a. con densidad f (x|) = x1 , 0 < x < 1,
donde > 0.
(a) Calcule el estimador de maxima verosimilitud de y de g() =

n y
on U (0, ). Considere "1 = X
2.18. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
"2 = max{Xi } como estimadores de .
n y !2 = c2 max{Xi }n sean estimadores
(a) Determine c1 y c2 de manera que !1 = c1 X
insesgados de .
(b) Determine cual estimador es mas eciente que el otro.
on Poisson().
2.19. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
(a) Calcule el EIVUM de , usando S

T = ni=1 Xi como estadstica suciente.

X1 como estimador insesgado y

on
(b) Calcule el EIVUM de g() = Pr(X = 0), usando S = I(X1 =0) , i.e., la funci
indicadora del evento (X1 = 0), como estimador insesgado.

+1 .

(b) Determine la distribuci


on aproximada de los estimadores encontrados en (a) cuando
n es grande.

2.23. Considere el modelo exponencial truncado dado por la densidad de probabilidad


f (x|) = exp (x ), x > , donde > 0, y sea X = (X1 , . . . , Xn ) una m.a.s. de esta
poblacion.
!
(a) Determine el estimador de maxima verosimilitud de , .
(b) Muestre que para todo  > 0, Pr(|! | > ) 0, cuando n .
2.24. Sea X = (X1 , . . . , Xn ) una m.a.s. de la v.a. X, con densidad f (x|) =
x > 0, donde > 0.

x x/
e
,
2

(a) Encuentre el estimador de maxima verosimilitud de y verique si es eciente.

PUNTUAL
CAPITULO 2 ESTIMACION

56

(b) Encuentre el estimador de m


axima verosimilitud de Pr(X > 10) y determine su
distribuci
on para muestras grandes.

on N ( + xi , 2 ), donde xi es conocido
2.25. Sean Yi v.a. independientes con distribuci
i = 1, . . . , n. Determine los estimadores de maxima verosimilitud de , y 2 . Estudie su
insesgamiento.

on N (1 , 2 ) e Y = (Y1 , . . . , Ym )
2.26. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
una m.a.s. de la distribuci
on N (2 , 2 ).
Suponga que ambas muestras son independientes.

2.9 EJERCICIOS

57

2.29. Sean X1 , . . . , Xn v.a iid con funci


on de densidad dada por
f (x|) = ( + 1)x ; 0 x 1.
(a) Encuentre un estimador de momentos para .
(b) Determine el EMV de .

on U (a, b). Encuentre un es2.30. Sean X1 , . . . , Xn variables aleatorias iid con distribuci
timador de momentos para a y b.

on de densidad dada por


2.31. Sea X1 , . . . , Xn una muestra aleatoria simple con una funci
(a) Calcule los e.m.v. de 1 , 2 y 2 .
f (x|) =

(b) Estudie si los estimadores son asint


oticamente insesgados.

x x22
e 2 .
2

(a) Encuentre un estimador de momentos para .


2.27. Suponga que el tiempo de duraci
on X de un cierto componente electronico posee


on de densidad dada por
distribuci
on Weibull 2, 1 , con funci
2
2
f (x|) = xex / ; x > 0, > 0.

2.32. Sean X1 , . . . , Xn variables aleatorias iid,

Para realizar inferencia acerca de , se considera una muestra aleatoria X = (X1 , . . . , Xn )


que representa los tiempos de duracion de n de esos componentes.
(a) Demuestre que T =
tribuci
on.

(b) Determine el EMV de .

Xi2 es una estadstica suciente para y determine su dis-

(a) Binomial(n, p)
(b) Poisson()
(c) Normal(, 2 )
Encuentre los EMV para p, , y 2 respectivamente.

(b) Calcule el estimador de maxima verosimilitud de y muestre que es insesgado.


(c) Verique si el estimador de maxima verosimilitud de es eciente.


(d) Concretamente se observo n = 15,


xi = 131,80,
intervalo de 95 % de conanza para .

x2i

= 1559,66. Construya un

2.28. Sean X1 , . . . , Xn , Y1 , . . . , Yn v.a. independientes con Xi exp( 1 ) e Yi exp( 1 ),


i = 1, . . . , n; j = 1, . . . , n. Se dene el par
ametro = (1 , 2 ) por 1 = y 2 = .
(a) Determine los EMV para 1 .
(b) Encuentre el sesgo y el ECM de !1 y !2 .

2.33. Sean x1 , . . . , xn v.a iid N (, ), con > 0


(a) Determine el EMV de .
(b) Encuentre la distribuci
on asint
otica de .
no alcanza la cota de Cramer Rao.
(c) Muestre que X

2.34. Suponga que X sigue una distribuci


on Pareto, con funci
on de densidad dada por
f (x|, ) = x1 ; x , 1.
Asuma que > 0 es conocido y que X1 , . . . , Xn son v.a. iid.

PUNTUAL
CAPITULO 2 ESTIMACION

58

(a) Encuentre un estimador de momentos para .


(b) Determine el EMV de .

2.35. Sean X1 , . . . , Xn v.a. iid exp

1

con funcion de densidad dada por

2.9 EJERCICIOS

2.38. Se desea estudiar el nivel de inteligencia de un ni


no que cursa ense
nanza basica en
una escuela municipalizada. Se le aplican m tests independientes estandares en este tipo
de estudios. El modelo observacional es Xi N (, 100), donde Xi es el puntaje obtenido
en el i-esimo test; i = 1, . . . , m, y es el verdadero valor del coeciente intelectual. Si se
observ
o x = (115, 120, 118, 115, 121).

1 x
f (x, ) = e ; x 0, 0.

(a) Calcule el estimador de maxima verosimilitud de y su varianza.


(b) Suponga que es una v.a. tal que E() = 100, E(2 ) = 10225.

(a) Encuentre el EMV de .

Especique una priori conjugada y determine el estimador de Bayes del coeciente


intelectual de ese ni
no (i.e., media o esperanza de la distribuci
on a posteriori) y la
varianza a posteriori.

si alcanza la cota de Cramer Rao.


(b) Muestre que X
*n =
(c) Pruebe que W

1
n

n

2
i=1 xi

59

es un estimador insesgado de W = 22 .

(d) Encuentre la distribuci


on asint
otica de Wn .

2.39. Usted observa X| U ( 1, + 1) y asume priori del tipo ()1 , > 0.


(a) Pruebe que (|x) = c1 , (x 1, x + 1), donde c1 = log((x + 1)/(x 1)),
x > 1.

2.36. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci


on N (, 1).
(a) Encuentre el estimador de maxima verosimilitud de .

(b) Calcule la media (esperanza), la moda y la mediana de la distribuci


on a posteriori.

(b) Encuentre el estimador de m


axima verosimilitud de g() = Pr(X 0).
2.37. Sea X = (X1 , . . . , Xn ) una m.a.s. de la densidad f (x|) = x1 , 0 < x < 1, donde
> 0.
(a) Determine el estimador de maxima verosimilitud para y su distribuci
on para muestras grandes.
(b) Suponga una priori gamma para , i.e., () = r r1 e /(r), > 0, donde
r, > 0 son conocidos.

on Gamma(r, ), con densidad


2.40. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
dada por
r

xr1 ex , x > 0
f (x|r, ) = (r)

0,
en otro caso
donde r, > 0; r entero conocido.
 
k
, r > k, k = 1, 2, . . .
(a) Muestre que E X1k = (r1)(r2)(rk)

Muestre que esta priori es conjugada y calcule la media (i.e.,la esperanza) de la


densidad a posteriori (esta corresponde al estimador Bayesiano de en relacion a la
perdida cuadr
atica).

(b) Encuentre una estadstica, T , que sea suciente para y determine su distribuci
on
de probabilidad.
(c) Calcule el estimador maximo verosmil de .

(c) Suponga ahora la priori no informativa () [I()]1/2 , donde I() es la informacion


de Fisher de asociada a una observaci
on X.

(d) Calcule la media y la varianza del estimador m


aximo verosmil de .
! que sea
(e) A partir del estimador maximo verosmil de , construya un estimador, ,
insesgado para . Verique si el estimador construido es eciente.

Encuentre la media (i.e., la esperanza) de la densidad a posteriori (esta corresponde


al estimador Bayesiano de en relacion a la perdida cuadr
atica).
(d) Compare lo obtenido en (c) con lo obtenido en (a). Que sucede en (b) si se considera
r, 0?

Nota: Si X Gamma(a, b) entonces E(X) =


a
.
1 bt

a
b,

Var(X) =

a
,
b2

MX (t) = E(etX ) =

PUNTUAL
CAPITULO 2 ESTIMACION

60

2.41. Suponga que el tiempo de duraci


on X de un cierto componente electronico posee
distribuci
on Gamma(2, ), con funci
on de densidad de probabilidad dada por
f (x|) =

1 x/
xe
, x>0
2

donde > 0. Para realizar inferencia acerca de , se considera una muestra aleatoria
X = (X1 , . . . , Xn ) que representa los tiempos de duracion de n de esos componentes.
(a) Determine un estadstico suciente para . Cual es su distribucion?
Considere los siguiente datos de tiempos de duracion, en horas:
12,5 5,2 6,8 3,6 10,9 12,8 7,8 8,6 6,3 6,918,2 15,4 9,2 10,3 7,3


xi = 131,80,

x2i = 1559,66.

" .
!
(b) Calcule los estimadores de momentos y maxima verosimilitud de , digamos ,
Utilice los datos.
(c) Calcule la estimacion de maxima verosimilitud de la probabilidad que el tiempo de
duracion sea por lo menos 10 horas.
! y Var().
! Es ! un estimador eciente de ?
(d) Calcule E()
(e) Demuestre que ! es consistente.
(f) Muestre que GI(a, b) (distribuci
on Gamma Inversa de parametros (a, b) es una
priori conjugada para este problema).
(g) Utilizando los datos y si a = 2 y b = 5, calcule el estimador Bayesiano de bajo
perdida cuadr
atica.
(h) Suponga ahora que () [I()]1/2 , donde I() es la informacion de Fisher de
asociada a una observaci
on X. Rehaga los calculos de (g).

2.9 EJERCICIOS

(a) Muestre que T =

61

Xi2

es una estadstica suciente para y que T Gamma(n, ).

(b) Calcule el estimador de maxima de verosimilitud de , denotelo por


!M V .
Es insesgado?, de no serlo construya un estimador insesgado de , denotelo por
".
(c) Calcule la informacion de Fisher de asociada a la muestra X = (X1 , . . . , Xn ) y
verique si el estimador
" es eciente para .
(d) Para determinar una distribuci
on a priori conjugada para , de la experiencia pasada
se considera que E() = 0,30 y Var() = 0,03.
Determine tal distribuci
on a priori y calcule el estimador de Bayes de bajo perdida
cuadratica.

x1 ex , x > 0, donde , > 0.


Nota: X Gamma(, ) si f (x|, ) = ()
Si = 1 se dice que X se distribuye exponencial de para
ametro .


.
E(X) = , Var(X) = 2 , MX (t) = E(etx ) = 1 t
2

, Var(Y ) = (1)2 (2) , > 2.


Y = X1 GI(, ), E(Y ) = 1

on exp(, ), con densidad dada


2.43. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci
por

e(x) , x
f (x|, ) =
0,
en otro caso.
donde , > 0. Suponga que es conocido.
(a) Muestre que E(X) =

+ y que Var(X) =

1
.
2

on de la estadstica
(b) Encuentre un estimador insesgado, !1 , de que sea solo funci
n
i=1 Xi .
(c) Determine, rigurosamente, una estadstica suciente para , denotela por T .

(i) Compare los resultados de (h) con (b).

(d) Determine la distribuci


on de probabilidad de T , E(T ) y Var(T ).

(j) Calcule el estimador maxima densidad a posteriori de , considerando las dos prioris
anteriores. Comente sus resultados.

on de la
(e) Encuentre un estimador insesgado, !2 , de , de manera que sea solo funci
estadstica T .

on Weibull(, 2),
2.42. Sea X = (X1 , . . . , Xn ) una muestra aleatoria proveniente de la distribuci
i.e., con funci
on de densidad de probabilidad dada por

2xex2 , x > 0
f (x|) =
0,
en otro caso.

(f) Cual de los estimadores calculados anteriormente es mas eciente?


(g) Muestre que Var(!2 ) (nI())1 , donde I() es la informacion de Fisher asociada
a una observaci
on X con densidad f (x|).
Que sucede en este caso en relacion con la cota de Cramer-Rao?

PUNTUAL
CAPITULO 2 ESTIMACION

62

2.44. Sea X = (X1 , . . . , Xn ) una muestra aleatoria proveniente de la distribuci


on de
Pareto de par
ametros (, ), con funci
on de densidad dada por f (x|, ) = x(+1) ,
x , donde , > 0. Suponga que es conocido.

2.9 EJERCICIOS

63

2.48. Suponga que !n es un estimador consistente para y que (an ) es una sucesion de
n
umeros reales tal que an 0. Demuestre que !n +an tambien es un estimador consistente
para .

(a) Calcule el estimador de maxima verosimilitud de .


(b) Suponga una priori gamma para , i.e., () =
son conocidos.

r r1
e
,
(r)

> 0, donde r, > 0

Muestre que esta priori es conjugada y calcule el estimador de Bayes de en relacion


a la perdida cuadr
atica.
(c) Suponga ahora la priori no-informativa () [I()]1/2 , donde I() es la informacion
de Fisher de asociada a una observaci
on X.
Encuentre el estimador de Bayes bajo perdida cuadr
atica.

2.49. En los siguientes casos compruebe que el estimador de Bayes bajo perdida cuadr
atica
es consistente para el parametro de interes.
(a) X = (X1 , . . . , Xn ) m.a.s N (, 2 ), con 2 conocido. En los casos que
(i) N (, 2 ).
(ii) () cte.
(b) X = (X1 , . . . , Xn ) m.a.s Poisson(). En los casos que
(i) exp().

(d) Compare lo obtenido en (c) con lo obtenido en (a).

(ii) () (I())1/2 .

Que sucede en (b) si se considera r, 0?


2.45. Sea X = (X1 , . . . , Xn ) una m.a.s. de la densidad f (x|) = x1 , 0 < x < 1, donde
> 0.

(c) X = (X1 , . . . , Xn ) m.a.s de la densidad f (x|) = x1 , con 0 < x < 1 y donde


Gamma(r, ).

on Pareto(, ), con densidad dada


2.50. Sea X = (X1 , . . . , Xn ) una m.a.s de la distribuci
por

(a) Encuentre una estadstica suciente para .


(b) Encuentre la informaci
on de Fisher de asociada a la muestra.
(c) Determine un estimador insesgado de y verique si es eciente.

on N (0, 2 ).
2.46. Sea X = (X1 , . . . , Xn ) una m.a.s. de la distribuci

f (x|, ) = x(+1) , x ,

(a) Encuentre una estadstica suciente para 2 .

(a) A traves de la denicion de consistencia.

(b) Encuentre la informaci


on de Fisher de 2 asociada a la muestra.

(b) Usando la caracterizacion equivalente.

(c) Determine un estimador insesgado de

y que Var(X) = (2)(1)


2 , donde > 2.
!
Suponga que es conocido. Compruebe que n = mn(Xi ) es un estimador consistente
para .

donde , > 0. Se sabe que E(X) =

y verique si es eciente.
2.51. Suponga que es conocido.

2.47. Sea X = (X1 , . . . , Xn ) una m.a.s de la densidad f (x|) =


con 0 < x < 1 y
donde > 0. Compruebe que el estimador de maxima verosimilitud para es consistente.
x1 ,

(a) A partir del estimador de m


axima verosimilitud de , construya un estimador insesgado de .

(a) A traves de la denicion de consistencia.

(b) A partir del estimador de momentos de , construya un estimador insesgado de .

(b) Usando la caracterizacion de equivalente.

(c) Determine cual de los dos estimadores insesgados anteriores es mas eciente.

Você também pode gostar