Você está na página 1de 6

MOMENTOS DE UNA VARIABLE Momentos respecto del origen Dada una variable aleatoria X con funcin de probabilidad o densidad

f(x) podemos definir una funcin de X que sea igual a la variable elevada a un exponente entero no negativo.

El valor esperado de z(x) es el k-simo momento de la variable X respecto a su origen y se llama

k=0

k=1

A este primer momento respecto al origen que es igual al valor esperado se le llama tambin media aritmtica de la variable y se le denomina X, simplemente . En la mayora de los casos, la media expresa la tendencia central de la variable o el orden de magnitud de sus valores.

El resto de los momentos respecto al origen tienen escaso inters en la mayora de los casos. Momentos respecto a la media Dada una variable aleatoria X con funcin de probabilidad o densidad f(x) podemos definir una funcin de X que sea igual a la diferencia entre la variable y su media aritmtica elevada a un exponente entero no negativo.

El valor esperado de z(x) es el k-simo momento de la variable X respecto a la media y se llama k.

k=0

k=1 es decir, en cualquier variable aleatoria su primer momento respecto de la media es igual a 0. Esta propiedad se utilizar reiteradamente en las demostraciones estadsticas.

k=2

Este segundo momento respecto de la media se le llama tambin varianza.

La varianza de una variable mide la dispersin de sus valores respecto al valor central . Para calcular la varianza por un mtodo ms sencillo se utiliza la expresin:

Es decir, la varianza de una variable es igual a la media de los cuadrados menos el cuadrado de la media.

= asimetra El tercer momento respecto de la media mide la asimetra de la distribucin, es decir, si existen o no observaciones muy extremas en algn sentido con frecuencias razonablemente altas. Si la asimetra es negativa, la variable toma valores muy bajos con mayor frecuencia que valores muy altos y se dice que tiene una cola izquierda pesada o que es asimtrica hacia la izquierda. Si la asimetra es positiva, la variable toma valores muy altos con mayor frecuencia que valores muy bajos y se dice que tiene una cola derecha pesada o que es asimtrica hacia la derecha. Si la asimetra es cero, los valores bajos y altos de la variable tienen probabilidades iguales (el ejemplo ms tpico de variable simtrica es la variable normal)

La asimetra tiene el mismo problema que la varianza y la covarianza en cuanto a sus unidades de medida y, por ello, normalmente se utiliza una medida adimensional de la asimetra que es el coeficiente de asimetra, g1, que se calcula como el cociente entre el tercer momento y el cubo de la desviacin tpica. Sesgo El sesgo de un estimador a la diferencia entre su esperanza matemtica y el valor numrico del parmetro que estima. Un estimador cuyo sesgo es nulo se llama insesgado o centrado. En estimador notacin matemtica, dada una muestra y un

del parmetro muestral , el sesgo es:

El no tener sesgo es una propiedad deseable de los estimadores. Una propiedad relacionada con sta es la de la consistencia: un estimador puede tener un sesgo pero el tamao de ste converge a cero conforme crece el tamao muestral. Dada la importancia de la falta de sesgo, en ocasiones, en lugar de estimadores naturales se utilizan otros corregidos para eliminar el sesgo. As ocurre, por ejemplo, con la varianza muestral. Curtosis En teora de la probabilidad y estadstica, la curtosis es una medida de la forma. As, las medidas de curtosis tratan de estudiar la proporcin de la varianza que se explica por la combinacin de datos extremos respecto a la media en contraposicin con datos poco alejados de la misma. Una mayor curtosis implica una mayor concentracin de datos muy cerca de la media de la distribucin coexistiendo al mismo tiempo con una relativamente elevada frecuencia de datos muy alejados de

la misma. Esto explica una forma de la distribucin de frecuencias con colas muy elevadas y un con un centro muy apuntado. El coeficiente de apuntamiento de uso ms extendido es el basado en el cuarto momento con respecto a la media y se define como:

Donde

es el 4 momento centrado o con respecto a la media y

es

la desviacin estndar.

En ocasiones se emplea esta otra definicin del coeficiente de curtosis:

Donde al final se ha sustraido 3 (que es la curtosis de la Normal) con objeto de generar un coeficiente que valga 0 para la Normal y tome a sta como referencia de apuntamiento: Tomando, pues, la distribucin normal como referencia, una distribucin puede ser:

ms apuntada y con colas ms anchas que la normal leptocrtica. menos apuntada y con colas menos anchas que la normal- platicrtica. la distribucin normal es mesocrtica. En la distribucin normal se verifica que , donde es el momento

de orden 4 respecto a la media y As tendremos que:


la desviacin tpica.

Si la distribucin es leptocrtica Si la distribucin es platicrtica

y y

Si la distribucin es mesocrtica

Otra forma de medir la curtosis se obtiene examinando la frmula de la curtosis de la suma de variables aleatorias. Si Y es la suma de n variables

aleatorias estadsticamente independientes, todas con igual distribucin X, entonces

, complicndose la frmula si la curtosis se hubiese definido como .