Escolar Documentos
Profissional Documentos
Cultura Documentos
Estimación Puntual:
Propiedades de los Estimadores
10.1. Introduccı́on
La mayorı́a de las veces al obtener una muestra el problema es que no cono-
cemos con exactitud la distribución de donde proviene. Algunas veces seremos
capaces de determinar el tipo de distribución que tiene, sin embargo, podrı́amos
no conocer los parámetros de esta distribución. Pues bien, la Estadı́stica Inferen-
cial se encarga de dar estimaciones para estos parámetros.
236
10. Estimación Puntual: Propiedades de los Estimadores 237
Para todo
Y por supuesto, siempre esperamos que el ECM sea lo más pequeño posible.
Ahora veremos el desarrollo de ECM
Insesgadez,
Eficiencia,
Consistencia,
Suficiencia,
Invarianza,
Robustez.
10.4. Insesgadez
Antes demos esta definición
2. Sean θ̂1 y θ̂2 estimadores con el mismo sesgo, entonces existen infinidad de
estimadores con este sesgo.
Por hipótesis
y consideremos
θ̂ = cθ̂1 + (1 − c)θ̂2 ,
ası́
n
X
3. Sea ci ∈ h0, 1i para i = 1, n y ci = 1, además (x1 , . . . , xn ) una m.a.,
i=
entonces
n
X
µ̂ = ci xi
i=1
10. Estimación Puntual: Propiedades de los Estimadores 241
n−1 2
E(s2 ) = σ .
n
Si en su lugar tomamos la cuasivarianza muestral
n 2
s21 = s
n−1
tenemos un estimador insesgado
2 n 2 n n−1 2
E(s1 ) = E s = σ = σ2
n−1 n−1 n
n
Multiplicando por el factor a la varianza muestral es como obtuvimos
n−1
un estimador insesgado.
10.5. Eficiencia
Al definir un estimador pretendemos que este se acerque lo más posible al
verdadero valor del parámetro desconocido. O bien, buscamos que el ECM sea
mı́nimo.
Definición 10.8 La eficiencia relativa de θ̂1 con respecto a θ̂2 , e(θ̂1 , θ̂2 ), está da-
da por
ECM (θ̂2 )
e(θ̂1 , θ̂2 ) :=
ECM (θ̂1 )
donde los ECM no dependen del parámetro a estimar. Y según su valor:
Var(θ̂2 )
e(θ̂1 , θ̂2 ) =
Var(θ̂1 )
Ahora supongamos que queremos el estimador que tenga varianza mı́nima
de entre todos los posibles estimadores. Pues bien, es necesario antes estudiar el
concepto de cota de Cramér-Rao.
5
También llamado estimador insesgado uniforme de varianza mı́nima, Uniform Minimum
Variance Unbiased Estimator (UMVUE).
10. Estimación Puntual: Propiedades de los Estimadores 243
Cota de Cramér–Rao
Tenemos una población definida por la f.(d.)p. fX (x|θ) con parámetro descono-
cido θ, estimado por θ̂. Este estimador contiene la información que proporciona la
m.a. X de tamaño n. La función de verosimilitud de la muestra es
L(θ) = fX (x1 , x2 , . . . , xn |θ)
verificándose
Z
L(θ) = 1.
x
Definición 10.9 La v.a. score está dada por
∂ ln L(X|θ)
SC(θ) = .
∂θ
De ahı́
∂ ln L(X|θ)
E[SC(θ)] = E =0
∂θ
( )
∂ ln L(X|θ) 2
∂ ln L(X|θ)
Var[SC(θ)] = Var =E = I(θ)
∂θ ∂θ
donde
Definición 10.10 La cantidad de información que la m.a. contiene respecto
al parámetro θ es
( )
∂ ln L(X|θ) 2
I(θ) := E ,
∂θ
2. La función ln L(X|θ) admite, por lo menos, las dos primeras derivadas re-
specto a θ.
y de (10.3) tenemos
[1 + b0 (θ̂)]2 ≤ Var(θ̂)I(θ)
ası́
[1 + b0 (θ̂)]2 [1 + b0 (θ̂)]2
Var(θ̂) ≥ = h i2 .
I(θ) ∂ ln L(X |θ)
E ∂θ
Además:
Si la muestra es simple
( 2 ) ( 2 )
∂ ln L(X|θ) ∂ ln f (x|θ)
E = nE
∂θ ∂θ
y la cota es
[1 + b0 (θ̂)]2
Var(θ̂) ≥ h i2 .
∂ ln f (x|θ)
nE ∂θ
Si b(θ̂) = 0, la cota es
1
Var(θ̂) ≥ h i2
∂ ln L(X |θ)
E ∂θ
y para m.a.s.
1
Var(θ̂) ≥ h i2 .
∂ ln f (x|θ)
nE ∂θ
10. Estimación Puntual: Propiedades de los Estimadores 246
∂ ln L(x|θ)
= A(θ)(θ̂ − θ).
∂θ
10.6. Consistencia
Ahora estudiaremos el comportamiento de los estimadores cuando el tamaño
de muestra aumenta.
En lo siguiente consideraremos una sucesión de estimadores {θ̂n }n≥1 , donde θ̂n
es un estimador que toma como argumento una muestra aleatoria de tamaño n,
es decir
lı́m Pr(|ak − αk | ≥ ) = 0.
n→∞
lı́m Pr(|mk − µk | ≥ ) = 0 .
n→∞
10.7. Suficiencia
Se suele decir que un estadı́stico es suficiente cuando resume toda la informa-
ción que proporciona la muestra. Dicho de otro modo, da lo mismo conocer cada
uno de los valores de la muestra que conocer el valor de θ̂.
Un estadı́stico T (X) define una partición del espacio muestral si lo divide en
una colección de sucesos disjuntos Si tales que
k
[
Si = S
i=1
Si ∩ Sj = ∅ ∀ i 6= j
FX (X|θ̂) no depende de θ.
10.8. Invarianza
Antes definamos el concepto de invarianza.
Definición 10.22 Diremos que para que un estimador θ̂ sea invariante a cam-
bios de origen y de escala se tiene que verificar
Ejemplo 10.4 Los estimadores media y varianza muestrales son invariantes frente
a permutaciones. J
10.9. Robustez
Hay métodos inferenciales que se ven seriamente afectados cuando violamos
algunos de los supuestos en los cuales se sustentan. Otros sufren pequeños efectos,
nos referiremos a estos como los que tienen la propiedad de robustez.