Você está na página 1de 5

INFERENCIA ESTADISTICA PARAMETRICA Sem. Ac.

2011-1
TEOREMA DE RAO-BLACKWELL Mg. Rosario Z. Bullon C.
Teorema.- Sea X

= (X
1
, X
2
, . . . , X
n
) una muestra aleatoria de tama no n de una poblacion
f(x; ), y sean,

=

(X

) una estadstica suciente para y


(X

) un estimador insesgado de
que no es funcion de

. Entonces, la esperanza condicional de

dado

, E[

|

] dene una funcion
t(

), para la cual se cumple,


i) E[t(

)] = ,
ii) V ar[t(

)] < V ar[

],
iii) t(

) es una estadstica pues no contiene a .


Demostracion.

son dos variables aleatorias, cuya distribucion de probabilidad conjunta f

, ), se
obtiene a partir de la distribucion conjunta de X

, es decir de f
X

(x

). Puede calcularse la distribucion


condicional de

dado

, denotada por f

), que no depende de , pues



es una estadstica
suciente. Luego, la esperanza condicional de

dado

, E[

|

] no depende (funcionalmente) de
y es funcion de

, esto es, es funcion de X

que no es funcion de , por consiguiente E[

|

] = t(

),
es una estadstica, con lo cual queda probado iii). Entonces,
E[

|

] = t(

) =
_

) d

(1)
Por otro lado, como

es un estimador insesgado de , entonces,


= E[

] =
_

, ; ) d

d
(1)
=
_

__

) d

_
f

(; )d
=
_

t(

)f

(; )d = E[t(

)]
con lo cual queda probado i). Ademas,
V [

] = E[(

)
2
]
= E[(

+ t(

) t(

))
2
]
= E[{(

t(

)) + (t(

) )}
2
]
= E[(

t(

))
2
] + E[(t(

) )
2
] + 2E[(

t(

))(t(

) )],
sin embargo,
E[(

t(

))(t(

) )] =
_

t( ))(t( ) )f

, ; ) d

d
=
_

__

t( ))f

) d

_
. .
= 0, por (1)
(t(

) ) f

(; )d = 0,
luego
V [

] = E[(

t(

))
2
] + V [t(

)] > V [t(

)],
con lo cual queda probado ii). lqqd.
TEOREMA DE LEHMANN-SCHEFF

E
Teorema.- Sea X

una muestra aleatoria de tama no n, de una poblacion f(x; ). Sea Y = y(X

)
una estadstica suciente para y f
Y
(y; ) una familia completa. Si existe una funcion continua de
Y, (Y ), que sea un estimador insesgado de , entonces (Y ) es el unico mejor estimador insesgado
de , es decir, (Y ) es el estimador insesgado de varianza mnima para .
Demostracion.
Supongamos que existe (Y ) tal que E[(Y )] = , . Sea (Y ) una funcion continua de Y
que no es funcion de tal que E[(Y )] = , . Entonces E[(Y ) (Y )] = 0, . Como
f
Y
(y; ) es completa, debe ser (Y ) (Y ) = 0, y donde f
Y
(y; ) > 0 y para alg un . Por
lo tanto, en todo punto donde f
Y
(y; ) > 0 se cumple, (Y ) = (Y ). Por consiguiente, (Y ) es la
unica funcion continua de Y que es un estimador insesgado de .
Pero, (Y ) es funcion de una estadstica suciente, de modo que por el Teorema de Rao-Blackwell,
su varianza es mas peque na que la de cualquier otro estimador insesgado de . As, (Y ) es el mejor
estimador de . lqqd.
DESIGUALDAD DE CRAM

ER-RAO
Teorema.- Sea X

una muestra aleatoria de tama no n, de una poblacion f(x; ), IR. Sea


Y = y(X

) una estadstica suciente para . Sea Z = (Y ) un estimador insesgado de . Entonces,


si f
X
(x; ) es un caso regular de la familia exponencial, para la varianza de Z se cumple la siguiente
desigualdad,

2
Z

1
nE
_
_
_

lnf
X
(X; )
_
2
_
_
(1)
y la igualdad se da, si y solo si existe una funcion c = c(, n) tal que

lnf
Y
(y; ) = c(, n){(y) }. (2)
Demostracion.
Sea la variable aleatoria, U =

lnf
X

(X

; ), tal que E[U] = 0, y V [U] = E


_
_
_

lnf(X

; )
_
2
_
_
.
Luego,
Cov(U, Z) = E(U, Z) =
_
H
n
_
(y)

lnf(x

; )
_
f(x

, ) dx

=
_
H
n
_
(y)
1
f(x

, )

f(x

; )
_
f(x

, ) dx

=
_
H
n
(y)

f(x

; ) dx

bajo condiciones de regularidad del calculo integral,


=

_
H
n
(y) f(x

; ) dx

E[(Y )] =

= 1.
Por la desigualdad de Cauchy-Schwarz:
{E[XY ]}
2
{E[Y ]}
2
{E[X]}
2
, con igualdad s.s.s. P[Y = cX] = 1, para alguna constante c.
Entonces,
{Cov(UZ)}
2
V ar(U) V ar(Z), y la igualdad se cumple s.s.s. existe una constante c, tal que
P[{U E(U)} = c{Z
E
(Z)}] = 1.
Luego, 1 V ar(U) V ar(Z), o lo que es lo mismo,
2
Z

1
V ar(U)
, o

2
Z

1
E
_
_
_

lnf(X

; )
_
2
_
_
=
1
nE
_
_
_

lnf(X; )
_
2
_
_
y la igualdad se cumple s.s.s. existe una constante (esto es, no depende de las x
i
) tal que

lnf(x

; ) = c(z ), con probabilidad 1, (*)


pero como Y es una estadstica suciente, entonces
f(x

; ) = g(y; ) k(x

),
donde k es una funcion que no depende de , luego (*) es equivalente a

lnf(y; ) = c((y) ),
con probabilidad 1, en todo punto donde g(y; ) > 0. lqqd.
LEMA DE NEYMAN-PEARSON
Teorema.- Sea X

= (X
1
, X
2
, . . . , X
n
) una muestra aleatoria de tama no n de una poblacion
f(x; ), donde es uno de dos valores conocidos
0
o
1
(es decir, con = {
0
,
1
}), y sea
0 < < 1 un valor jo. Sean k, una constante positiva, y R
c
un subconjunto del espacio muestral
H, que satisfacen,
i) P[X

R
c
|
0
] = ,
ii) =
L(X

|
0
)
L(X

|
1
)
=
L
0
L
1
< k, X

R
c
,
iii) > k, si X



R
c
.
Entonces , la docima que corresponde a la region crtica R
c
es una docima mas potente de tama no
para H
0
: =
0
contra H
1
: =
1
. (o, R
c
es la mejor region crtica de tama no para docimar
H
0
: =
0
contra H
1
: =
1
).
Demostracion.
Fijado el valor de , puede existir mas de una region del espacio muestral H que contenga ala
muestra aleatoria cuando H
0
es verdadera, con la misma probabilidad. Si R
c
es una region crtica
unica, entonces es la mejor region crtica . Sin embargo, si hay otra region crtica A de tama no ,
debemos probar que
P[X

R
c
|
1
] > P[X

A |
1
].
La demostracion se hace para poblaciones continuas, usando la siguiente notacion,
P[X

R | ] =
_

_
R
L(x

; )dx

=
_
R
L().
Luego, queremos probar que:
_
R
c
L(
1
) >
_
A
L(
1
), o que,
_
R
c
L(
1
)
_
A
L(
1
) > 0.
De la teora de conjuntos se cumple que,
R
c
= R
c
A R
c

A,
A = R
c
A

R
c
A.
Entonces,
_
R
c
L(
1
)
_
A
L(
1
) =
_
R
c
A
L(
1
) +
_
R
c

A
L(
1
)
_
R
c
A
L(
1
)
_

R
c
A
L(
1
)
=
_
R
c

A
L(
1
)
_

R
c
A
L(
1
)
?
> 0 (1)
Por ii): L(
0
) < kL(
1
) o L(
1
) >
1
k
L(
0
), en todo punto de R
c
, en consecuencia, tambien en R
c

A,
es decir que
_
R
c

A
L(
1
) >
1
k
_
R
c

A
L(
0
).
Ademas, por iii): L(
1
) <
1
k
L(
0
), en

R
c
A, es decir que
_

R
c
A
L(
1
) <
1
k
_

R
c
A
L(
0
) o
_

R
c
A
L(
1
) >
1
k
_

R
c
A
L(
0
).
Por lo tanto, en (1),
_
R
c

A
L(
1
)
_

R
c
A
L(
1
) >
1
k
__
R
c

A
L(
0
)
_

R
c
A
L(
0
)
_
(2)
En (1), remplazando
1
por
0
:
_
R
c

A
L(
0
)
_

R
c
A
L(
0
) =
_
R
c
L(
0
)
_
A
L(
0
) = = 0.
Luego, en (2),
_
R
c

A
L(
1
)
_

R
c
A
L(
1
) > 0,
y por (1),
_
R
c
L(
1
)
_
A
L(
1
) > 0.
lqqd.
Observaciones.
1).- En el caso de poblaciones discretas, la demostracion es similar, remplazando las integrales por
sumatorias.
2).- En principio no esta claro como la condicion i) del lema hace intervenir el valor de k, pero la
region de H en la cual es valida la condicion ii) cambia cuando vara el valor de k, y cuando
esto ocurre puede haber una region (que corresponde a un valor de k)para la cual se cumple i).
3).- Del lema conclumos que si consideramos R
c
como el conjunto de todos los puntos (X
1
, X
2
, . . . , X
n
)
que satiafacen < k, k > 0, entonces R
c
es la mejor region crtica, en el sentido de que es la
region crtica mas potente de tama no .
4).- Frecuentemente, esta desigualdad puede expresarse en una de las formas,

1
(x
1
, . . . , x
n
;
0
,
1
) < c
1
o

2
(x
1
, . . . , x
n
;
0
,
1
) > c
2
,
donde c
1
y c
2
son constantes.
Si
1
< c
1
entonces como
0
y
1
son valores conocidos,
1
es una estadstica. Si es posible encon-
trar la distribucion de
1
cuando H
0
es verdadera, puede determinarse el nivel de signicacion
de la docima, H
0
contra H
1
a partir de esta distribucion. Ademas, la docima puede susten-
tarse en esta estadstica estableciendo que si la muestra observada es
1
(x
1
, . . . , x
n
;
0
,
1
) < c
1
entonces se rechaza H
0
. En este caso no es necesario ensayar varios k para obtener un nivel
de signicacion deseado, pues si se conoce la distribucion de probabilidades de la estadstica,
puede buscarse c
1
tal que P[(x

) < c
1
|
0
] = establecido o deseado.
5).- Este lema da la forma de la region crtica. La region crtica real depende del valor especco
de .
********************

Você também pode gostar