Você está na página 1de 20

Unidad 2 Estimación

2.1 Introducción

La estadística nos proporciona herramientas que formalizan y uniforman los


procedimientos para sacar conclusiones siempre que las muestras
seleccionadas sean representativas de la población que han sido extraídas.
Esta representatividad permite extender los valores que describen a las
muestras (estadísticos), tales como la media, la desviación típica, un
coeficiente de correlación, a la población correspondiente, es decir, la media o
la desviación típica (estadísticos) pueden tomarse como estimadores de los
parámetros μ y σ, valores que caracterizan a la población.

Los estadísticos, valores obtenidos en la muestra, son, pues, estimadores de


los parámetros correspondientes (valores de la población)

2.2 Características de un buen estimador 

a) CARENCIA DE SESGO.

Un estimador (estadístico) carece de sesgo si el promedio (media) de todos


los valores posibles de todas las muestras posibles de tamaño n de una
población es igual al parámetro, es decir, si la media de la distribución muestral
del estadístico considerado es igual al valor del parámetro. Así, la media es un
estimador insesgado de μ porque se puede demostrar que la media aritmética
de una distribución muestral coincide con el valor del parámetro, algo que no
puede decirse, por ejemplo, o de la varianza o de la mediana de una población
no distribuida normalmente.

b) CONSISTENCIA.

Un estimador es consistente en la medida en que, al aumentar el tamaño de la


muestra, (n) su valor se acerca cada vez más al parámetro correspondiente o
lo que es lo mismo, si a medida que aumenta el tamaño de la muestra, las
estimaciones que ésta proporciona son cada vez más próximas al valor del
parámetro.
 Algunos estimadores sesgados son consistentes, acercándose cada vez más
sus valores a los de sus respectivos parámetros a medida que el tamaño de la
muestra (n) aumenta, tal es el caso de s o s2 que son estimadores sesgados
pero consistentes de la desviación típica (σ) o de la varianza (σ2) de la
población.

c) EFICIENCIA

La 3ª propiedad de los estimadores es su eficiencia, que se refiere a la


precisión que alcanzan los estadísticos en la estimación de los parámetros, es
decir, un estimador será tanto más eficiente cuanto menos varíe de muestra a
muestra de una misma población. Como la variabilidad de una distribución
muestral viene dada por su error típico, un buen estimador será aquel que
menor error típico alcanza. Así, entre la media y la mediana, la primera es
claramente más eficiente. La varianza de la distribución mue stral de la mediana
es mayor que la de la media, lo que significa que la mediana fluctúa más que la
media en muestras sucesivas de la misma población.
En general, para escoger un óptimo estimador de un parámetro, deben
combinarse los criterios de no tendenciosidad (carencia de sesgo) y de
eficiencia. Ante dos estimadores insesgados del mismo parámetro, se preferirá
aquel que tenga mayor eficiencia, es decir, que tenga el mínimo error en
términos de varianza.
• Estimadores insesgados: Media, Mediana, Moda, la desviación típica cuando
n es tiende a infinito, la cuasivarianza muestral
• Estimadores sesgados: la varianza muestral.
• Estimadores consistentes: Proporciones, la media, la varianza y desviación
típìca.
• Estimadores insesgados y no eficientes: Mediana muestral (estimador 
insesgado de μ]
2.3 Estimación puntual

Estimación puntual

Consiste en la estimación del valor del parámetro mediante un sólo valor,


obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la
talla media de un determinado grupo de individuos, puede extraerse una
muestra y ofrecer como estimación puntual la talla media de los individuos. Lo
más importante de un estimador, es que sea un estimador eficiente. Es decir,
que sea insesgado (ausencia de sesgos) y estable en el muestreo o eficiente
(varianza mínima).

Si a partir de las observaciones de una muestra se calcula un solo valor como


estimación de un parámetro de la población desconocido, el procedimiento
denomina estimación puntual .

Por ejemplo queremos estimar la nota media de los alumnos de bachiller en la


asignatura de matemáticas que notaremos. Sea X la variable aleatoria que
indica la nota obtenida por cada estudiante. Tomamos una muestra de tamaño
n y denotamos la nota media de la muestra. Si al tomar una muestra de 100
estudiantes obtenemos que la media es 6´2, este número lo tomaríamos como
estimativo de. Decimos que 6´2 es una estimación puntual de.

Un estimador puntual T de un parámetro es cualquier estadística que nos


permita a partir de los datos muestrales obtener valores aproximados del
parámetro.

Para indicar que T es un estimador del parámetro escribimos =T.


Con esto queremos decir que empleamos la expresión dada mediante T para
obtener valores próximos al valor del parámetro.
Es muy probable que haya error cuando un parámetro es estimado. Es cierto
que si el número de observaciones al azar se hace suficientemente grande,
éstas proporcionarían un valor que casi sería semejante al parámetro; pero a
menudo hay limitaciones de tiempo y de recursos y se tendrá que trabajar con
unas cuantas observaciones. Para poder utilizar la información que se tenga de
la mejor forma posible, se necesita identificar las estadísticas que sean
“buenos” estimadores. Hay cuatro criterios que se suelen aplicar para
determinar si una estadística es un buen estimador:

Insesgamiento, eficiencia, consistencia y suficiencia

2.4 Estimación puntual por intervalos.

Estimación por intervalos. El intervalo dentro del cual se espera que se


encuentre un parámetro poblacional usualmente es conocido como intervalo de
confianza.

Se trata por lo tanto de una variable aleatoria bidimensional, donde, por 


ejemplo, el intervalo de confianza para la media poblacional es el intervalo de
valores que tiene una alta probabilidad de contener a la media de la población.
Por lo tanto, en una estimación por intervalo se establece el rango de valores
dentro del cual se espera que se encuentre un parámetro poblacional.

 Al ser el estimador por intervalo una variable aleatoria, resulta adecuado hablar 
en términos de probabilidad de que el estimador cubra el verdadero valor del
parámetro.
Por lo tanto, si se seleccionan 100 muestras de una población y se calcula la media de
las muestras para intervalos de confianza del 95% para cada muestra; se observa que
aproximadamente 95 de los 100 intervalos de confianza contienen la media poblacional.

El nivel de confianza es la probabilidad de que el parámetro poblacional se encuentre


dentro del intervalo; los niveles de confianza más ampliamente usados son 0.95 y 0.99,
sin embargo puede usarse cualquier probabilidad cercana a 1.

Los casos que existen en el planteamiento de los estimadores por intervalos de


confianza para una distribución normal son los siguientes, en función del conocimiento
 previo que se tenga de la población:

- Intervalo de confianza para la media de una distribución normal de varianza conocida


⇒ test Z

- Intervalo de confianza para la media de una distribución normal de varianza


desconocida

i. Muestras superiores a 30 ⇒ test Z

ii. Muestras pequeñas n< 30 ⇒ test t

- Intervalo de confianza para varianza de una distribución normal ⇒ test F

2.4.1 Intervalo de confianza para la diferencia de medias

Você também pode gostar