Você está na página 1de 19

ESTIMACIN

TEMA 5: Estimacin puntual I. Propiedades de los estimadores


TEMA 6: Estimacin puntual II. Mtodos de estimacin puntual
TEMA 7: Estimacin por intervalos

CONTRASTES DE HIPTESIS
TEMA 8: Contrastes paramtricos
TEMA 9: Contrastes no paramtricos
TEMA 5:
ESTIMACIN PUNTUAL I.
PROPIEDADES DE LOS ESTIMADORES

5.1. Concepto de estimador


5.2. Estimadores insesgados
5.3. Comparacin de estimadores. Error cuadrtico medio
5.4. Estimador insesgado de varianza mnima. Eficiencia
5.5. Estimadores consistentes
5.6. Estimadores suficientes
OBJETIVOS:

proponer distintos estimadores para un mismo parmetro;

evaluar las propiedades de un estimador e interpretarlas en trminos


estadsticos;

comparar dos estimadores en trminos de sesgo y varianza.


1. CONCEPTO DE ESTIMADOR
Modelo: Xf(x;),
=parmetro(s) desconocido(s), =espacio paramtrico

Problema: Estimar a partir de los datos: (X1,...,Xn) m.a.s. (i.i.d.) de X

Estimacin puntual: proponer un valor plausible para el parmetro cmo?

Estimador: funcin de la muestra (v.a.) que toma valores en el espacio


paramtrico . Se denota por = (X1,..., X n )

Ejemplo 1: (X1,...,Xn) m.a.s. de b(p) p =(X1+Xn)/2; p =(X1+...+Xn)/n SI


p =2X1, p =X1+X2 NO

Estimacin: valor numrico del estimador para una muestra concreta (n)
2. ESTIMADORES INSESGADOS

La distribucin de
est centrada en el parmetro que se estima

E( )=

Estimador sesgado: no insesgado E( )= E(


) sesgo( )-

1 2 1 es insesgado
2 es sesgado
E( 1 )= E( 2 )
sesgo

Estimador asintticamente insesgado: nlim E(


)=.

Ejemplo 1: Sea (X1,...,Xn) m.a.s. de X con E(X)=
X1 + ... + X n 1
E( X )=E( )= [E(X1 ) + ... + E(X n )]= n E(X)
n =E(X) =
n n

La media muestral es siempre estimador


insesgado de la media poblacional

Ejemplo 2: Sea (X1,...,Xn) m.a.s. de X con E(X)=, Var(X)=2


n

2
Xi n
E(S )= E( n ) - E( X )= E(Xi2 ) - E( X 2 )= n (2 + 2 ) - ( +2)= 2- 1n 2 = n n 1 22
2 i =1 2 1 1 2

n i =1 n n

La varianza muestral es siempre estimador


sesgado de la varianza poblacional
n 2
Ejercicio: construir un estimador insesgado a partir de S2 Sc2 = S E( Sc2 )=2
n 1
3. COMPARACIN DE ESTIMADORES. ERROR CUADRTICO MEDIO

Entre dos estimadores insesgados, cul es preferible? El que tenga


menos varianza porque sus valores estarn ms prximos al verdadero .

1 1 y
insesgados
2

2 Var( 1 )<Var( 2 )


Entre dos estimadores no necesariamente insesgados, cmo elegir?
1 1 sesgado; 2 insesgado

2 sin embargo Var(


)<Var( )
1 2


E.C.M.( )=E( -)2=Var( )+sesgo2

Entre dos estimadores de un mismo parmetro, es preferible


aquel estimador que tenga menor error cuadrtico medio:

1 ms eficiente que 2 si ECM( 1 )<ECM( 2 )

Obviamente, si es insesgado E.C.M.( )= Var( ).

Si 1 y 2 son insesgados,
1 es ms eficiente que 2 si Var( 1 )<Var( 2 )
Ejemplo: Sea (X1,...,Xn) m.a.s. de X N(,). Estimar 2 ?
n
(X i X )
n 2
X i2 n 2
S2 = i =1 - X2 , Sc2 = i =1 = S
n n 1 n 1

S es ms eficiente que Sc2


2

n 2 n 1 2 2
Distribucin: S = S n -1
2
2 c

n 1 2 n 1 2
2
E(S ) =
2
sesgado ! sesgo= - 2 = n1 2
n n
2 4 2(n-1)
n 2 4 n 2
S
Var( 2 )=Var( n -1)=2(n-1) Var(S )= 2 Var( 2 S ) =
2
n n2
2 4
ECM(S )=Var(S )+sesgo = 2 (2n-1)
2 2
n

E( Sc2 ) = E(
n 2
S )= n n 1 2 =2 insesgado ! sesgo= 0
n 1 n 1 n
n 1
Var( 2 Sc2 )=Var( n2 -1)=2(n-1) Var( Sc2 ) = ECM( Sc2 )= 2 4

(n 1)
4. ESTIMADOR INSESGADO DE VARIANZA MNIMA. EFICIENCIA
Estimador insesgado de varianza mnima = estimador insesgado
con menor varianza dentro de la clase de los insesgados
si existe, es nico cmo encontrarlo?
Teorema: Cota de Cramer-Rao
(X1,...,Xn) m.a.s. de una variable aleatoria X cuya distribucin verifica
ciertas condiciones de regularidad.1 Sea un estimador insesgado de :
1
Var ()
ln f ( X1 ,..., X n ; ) 2
E

Proporciona la menor varianza posible de un estimador insesgado


Definicin: condiciones de regularidad y insesgado. es eficiente si:
Var( ) = cota C-R
Si es el estimador eficiente es el insesgado de mnima varianza
1
El campo de variacin de X no depende del parmetro a estimar
Teorema: bajo condiciones de regularidad y insesgado
ln f (X1 ,..., X n ; )
estimador eficiente de = K ()( )

1
Adems: donde K()=
Var ( )
Ejemplo:
(X1,...,Xn) muestra aleatoria simple de una v.a. Bernoulli b(p)

f(x;p) = p(X=x) = px(1-p)1-x

f(x1,,xn;p)= f(x1;p)f(xn;p)= p(X=x1) p(X=xn)= p xi (1 p)n xi

ln(f(x1,,xn;p))=xi ln(p)+(n-xi)ln(1- p)

ln f ( x1 ,..., xn ; p) xi n xi X 1 X n
= =n = (X p) X eficiente de p
p p (1 p ) p (1 p) p(1 p)

K(p)=1/ Var( X ) Var( X )=p(1- p)/n


5. ESTIMADORES CONSISTENTES

Un estimador se define para un cierto tamao muestral n


Un estimador, calculado para distintos tamaos
muestrales, puede verse como una sucesin de variables
aleatorias { n }n={ 1 , 2 ,..., n ,...}. Qu pasa si n?

Ejemplo:

(X1,...,Xn) muestra aleatoria simple de una Bernoulli b(p) p = X


X +X X1 + X 2 + X 3 X + ... + X
p1 = X1 =X1; p 2 = X 2 = 1 2 ; p 3 = X3 = ; ...; p n = X n = 1 n n ; ....
2 3
Tiramos n veces una moneda y observamos la proporcin de caras:

N ensayos (n) N caras (Xi) Frecuencia= NNensayos


caras
= Xn
1000 501 0.501
2000 986 0.493
3000 1495 0.49833
4000 2031 0.50775
. . ..
7000 3504 0.50057
8000 4001 0.500125
Notacin:
c. p.
0.5 p lim Xn =0.5 lim p(| X n - 0.5|)=0
X n
n n
DEFINICION:
c.p.
n es un estimador consistente de si
n
:

si >0, nlim p(| n - |<)=1 lim p(|


n - |)=0
n

A partir de un determinado tamao muestral,


suficientemente grande, es muy probable que el
valor de n difiera muy poco de (menos de ).

Notacin: plim
n

n =
CMO PROBAR LA CONSISTENCIA DE UN ESTIMADOR?
Proposicin:
Condiciones suficientes para que n sea consistente:
n =) o asintticamente insesgado ( lim E n =)
Insesgado (E
n

Al aumentar n, suvarianza tiende a cero ( nlim



Var
n =0)

Entonces, n es consistente.
Ejemplo:(X1,...,Xn) m.a.s. de X con E(X)=, Var(X)=2<

E( X ) = E(X) = estimador insesgado de

Var( X )= Varn(X) n

0

La media muestral es estimador consistente de la media poblacional


Proposicin: Ley dbil de los grandes nmeros
En general, los momentos muestrales ak convergen en probabilidad
a los correspondientes momentos poblacionales k.
Ejemplo: p lim Xn = E(X) =
n

La media muestral es estimador consistente de la media poblacional


Proposicin: Teorema de Slutsky
p lim g (n ) = g ( p limn ) , si g es continua
n n

Operaciones bsicas con plim igual que con lmites de nos (lim)
Ejemplo: Sea (X1,...,Xn) m.a.s. de Xcon E(X)=, Var(X)=2<
n n
Xi
2 2
Xi 2
p lim S 2 = plim ( i=1
n n n
-X 2
) = n
plim i=1
n
-( plim
n
X ) =E(X2)-(EX)2 =2

La varianza muestral es estimador consistente de la varianza poblacional


6. ESTIMADORES SUFICIENTES
Recoge toda la informacin contenida en la muestra acerca de .

Formalmente:
T=T(X1,...,Xn) es estadstico suficiente para el parmetro
si la distribucin condicionada de la muestra, (X1,...,Xn),
dado el valor de T, no depende de :

p(X1=x1,...,Xn=xn / T=t) no depende de

conocido T, la muestra (X1,...,Xn) ya no tiene nada que


decir sobre
Ejemplo: (X1,X2) m.a.s. de Bernoulli T=X1+X2 es suficiente
Teorema de factorizacin de Neyman:
Sea (X1,...,Xn) m.a.s. de una variable aleatoria cuya
distribucin depende de un parmetro . Sea
T=T(X1,...,Xn) un estadstico.

T es suficiente p(X1=x1,...,Xn=xn) = g(T(x1,...,xn);) h(x1,...,xn)

depende de y de la muestra
slo a travs del estadstico T
no depende de

Ejemplo: (X1,...,Xn) m.a.s. de Bernoulli T=Xi es suficiente


Un estimador suficiente es un estimador que como
estadstico es un estadstico suficiente.

Propiedad:
Una funcin 1:1 de un estadstico suficiente es un
estadstico suficiente.

Ejemplo

Si la suma, T=Xi, es suficiente,

Tambin lo es la media muestral: X =(T)=T/n=Xi/n

Você também pode gostar