Você está na página 1de 5

1

UNIVERSIDAD CENTRAL DE VENEZUELA


FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES
ESCUELA DE ESTADÍSTICA Y CIENCIAS ACTUARIALES
ESTADÍSTICA II SEGUNDO PERIODO 2006 Sección 21
PROF. OMAIRA DE LOS SANTOS

TEMA 1.- INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA

INTRODUCCIÓN

Uno de los aspectos más relevantes que pretende resolver la


Inferencia Estadística es el de la estimación de parámetros
poblacionales desconocidos, a través de los datos obtenidos de una
muestra aleatoria. Parámetros poblacionales como la media,
varianza, la proporción representan características de importancia en
la investigación de una población.
Tenemos en consecuencia que hallar indicadores muestrales
que nos permitan aproximar el valor del parámetro en cuestión.
Luego podemos utilizar una magnitud simple para estimar el
parámetro (Estimación Puntual): por ejemplo, utilizar la
cuasivarianza muestral para estimar la varianza poblacional; o
calcular un intervalo entre cuyos límites se espera que éste el
parámetro con una razonable confianza (Estimación por
intervalos)

ESTIMACIÓN PUNTUAL.

Sea X una variable aleatoria que tiene una distribución


probabilística conocida determinada por un parámetro, θ ,
desconocido, al tomar una muestra aleatoria1 de tamaño n, X1 ,X2,
…,Xn , se escogerá una función , θˆ , de los datos muestrales.

La variable aleatoria θˆ se denomina ESTIMADOR de θ y el valor


que toma θˆ se denomina ESTIMACIÓN PUNTUAL o ESTIMACIÓN
UNIVALUADA.
Por ser el estimador del parámetro una función de las variables
de una muestra, es evidente que podemos escoger distintos
estimadores para un mismo parámetro, puesto que podemos elegir
arbitrariamente la función que vamos a utilizar.

1
Dada una población con una determinada distribución probabilística, f(x), si X 1,X2,
…Xn , son n variables aleatorias independientes e idénticamente distribuidas con
función de densidad f(x), entonces X1,X2,…Xn , constituye una muestra aleatoria de
tamaño n de la población, cuya función de densidad es f(x).
2

Así tendremos, por ejemplo:

POBLACIÓN MUESTRA n
N
PARÁMETRO θ ESTIMADOR θˆ
µ X , M e , RANGO
σ2 S 2 , Sˆ 2 = S 2
c

π= P= p p̂
µ1 − µ2 X1 − X 2

Es evidente que existen muchos ESTADÍSTICOS para estimar θ


, el punto es escoger el ESTIMADOR que sea generalmente más
cercano al parámetro. En consecuencia, se debería tener algún tipo
de medida para decidir cual es el estimador más apropiado en algún
sentido.
La selección apropiada de un buen estimador depende de las
consecuencias negativas o pérdidas que acarrean las decisiones
equivocadas.
Un estimador, θˆ , debe estar “próximo” en algún sentido al
valor verdadero del parámetro desconocido θ .

PROPIEDADES DE LOS ESTIMADORES.

1.- INSESGAMIENTO

Se dice que θˆ es un ESTIMADOR INSESGADO de θ , si la


Esperanza Matemática o Valor Esperado de la Distribución Muestral
de θˆ es igual a θ , esto es:

E (θˆ) = θ

Si E (θˆ) ≠ θ
entonces diremos que θˆ es un ESTIMADOR
SESGADO y el SESGO es medido por la diferencia E (θˆ) − θ .
Obviamente si un Estimador es insesgado, el sesgo E (θˆ) − θ es
igual a cero.
3

EJERCICIO 1.1.-

Sea X1,X2,…Xn , una muestra aleatoria de tamaño n extraída de


una población normalmente distribuida con media poblacional µ y
varianza poblacional σ 2 .
Demostrar que:
E( X ) = µ
E ( Sˆ 2 ) = σ 2
n −1 2
E (S 2 ) = σ
n

Cabe destacar que en ocasiones podrían existir varios


estimadores insesgados del parámetro desconocido. Puesto que no
hay un estimador insesgado único no es posible depender
exclusivamente de esta propiedad para seleccionar el “mejor”
estimador.

2.- EFICIENCIA

Sean θˆ¨1 y θˆ¨2 dos estimadores insesgados de θ , esto es:


E (θˆ¨1 ) = E ( θˆ¨2 ) = θ , definamos como ERROR CUADRÁTICO MEDIO, ECM
del estimador θˆ a la expresión:
2 2
ECM = E (θˆ − θ ) 2 = E θˆ − E (θˆ)  + θ − E (θˆ) 

= Var (θˆ) + SESGO 2

Luego, el error cuadrático medio para θˆ¨1 y θˆ¨2 pueden


escribirse como:

ECM (θ1 ) = E (θˆ1 − θ ) 2 = Var (θˆ1 ) + SESGO2


ECM (θ 2 ) = E (θˆ2 − θ ) 2 = Var (θˆ2 ) + SESGO2
4

Puesto que θˆ¨1 y θˆ¨2 son estimadores insesgados2 del


parámetro, ambos sesgos son igual a cero, luego los
correspondientes errores cuadráticos medios son iguales a sus
respectivas varianzas

ECM (θ1 ) = Var (θˆ1 )


ECM (θ ) = Var (θˆ )
2 2

Entonces, la EFICIENCIA RELATIVA, por ejemplo de θˆ¨2 con


respecto a θˆ1 se define como el cociente de los respectivos errores
cuadráticos medios.
ECM (θ1 )
Si <1 θ1 es más eficiente , Var ( θ1 ) < Var ( θ2 )
ECM (θ 2 )

>1 θ 2 es más eficiente , Var ( θ2 ) < Var ( θ1 )

En consecuencia, estaremos revisando cual de los dos


estimadores tiene varianza mínima.

En general, diremos que un estimador θˆ1 es más eficiente que


otro estimador θˆ¨2 , si ECM (θ1 ) < ECM (θ2 ) , ∀θ

EJERCICIO 1.2.-

Supongamos que deseamos estimar la media


poblacional μ de una población. Sea X1 ,X2,…,Xn una
muestra aleatoria, donde para todo i, E(Xi)= μ y Var(Xi )= σ 2 .
Consideremos dos estimadores insesgados de μ: la
media muestral y la i-ésima observación de la muestra
aleatoria. (demostrar que la i-ésima observación de la
muestra es un estimador insesgado de la media poblacional)
Demostrar que el estimador media muestral es más
eficiente que la i-ésima observación.

2
También podemos considerar que un estimador es insesgado cuando el error
cuadrático medio es igual a la varianza del estimador.
5

3.- CONSISTENCIA

Generalmente, un estimador θˆ no es idéntico al parámetro θ


que se estima, debido al error de muestreo o sesgo.
Sin embargo, esperamos que un buen estimador produzca
estimaciones cercanas al parámetro o que por lo menos tenga una
alta probabilidad de acercarse, cuanto mayor sea el tamaño de la
muestra, se asume que teniendo más información, el estimador
debería acercarse más al verdadero valor del parámetro.
Se dice que un estimador θˆ es CONSISTENTE, si se aproxima
(en el sentido de la probabilidad) al parámetro θ , a medida que el
tamaño muestral se hace grande, esto es:

lim Pr ob ( θˆ − θ
n →∞
)
> ε → 0, ε > 0

donde ε es una constante elegida arbitrariamente (error de muestreo)


(el límite cuando n tiende a infinito de que la probabilidad del valor
absoluto del sesgo sea mayor que epsilon tiende a cero)

4.- SUFICIENCIA

Diremos que un estimador θˆ es suficiente si registra tanta


información de la muestra como es posible acerca del parámetro θ .
Por ejemplo, si se toma una muestra aleatoria de tamaño n de
una población para estimar la media poblacional y usamos como
estimador la media de los dos primeros elementos de la muestra es
obvio que no estamos utilizando toda la información de la muestra. Lo
mismo podríamos decir si utilizamos, por ejemplo la Mediana o el
Rango de los datos de la muestra.
Un estimador es suficiente si recoge toda la información que la
muestra provee; es decir, si ningún otro estimador de la misma
muestra puede añadir información sobre el parámetro que se esta
estimando.
En nuestro caso particular, donde queremos estimar la media
poblacional, es claro que un estimador suficiente es la media
muestral.

Você também pode gostar