Você está na página 1de 12

Asimetría estadística

De Wikipedia, la enciclopedia libre


Saltar a navegación, búsqueda

Ejemplo de datos experimentales con una asimetría positiva (respuesta gravitrópica de los
coleóptilos del trigo).

Contenido
[ocultar]
• 1 Definición
• 2 Medidas de asimetría
○ 2.1 Coeficiente de asimetría de Fisher
○ 2.2 Coeficiente de asimetría de Pearson
○ 2.3 Coeficiente de asimetría de Bowley
• 3 Utilidad
• 4 Referencias
• 5 Enlaces externos

[editar] Definición
Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o
asimetría) que presenta una distribución de probabilidad de una variable aleatoria sin tener
que hacer su representación gráfica.
Como eje de simetría consideramos una recta paralela al eje de ordenadas que pasa por la
media de la distribución. Si una distribución es simétrica, existe el mismo número de
valores a la derecha que a la izquierda de la media, por tanto, el mismo número de
desviaciones con signo positivo que con signo negativo. Decimos que hay asimetría
positiva (o a la derecha) si la "cola" a la derecha de la media es más larga que la de la
izquierda, es decir, si hay valores más separados de la media a la derecha. Diremos que hay
asimetría negativa (o a la izquierda) si la "cola" a la izquierda de la media es más larga que
la de la derecha, es decir, si hay valores más separados de la media a la izquierda.
[editar] Medidas de asimetría
[editar] Coeficiente de asimetría de Fisher
En teoría de la probabilidad y estadística, la medida de asimetría más utilizada parte del uso
del tercer momento estándar. La razón de esto es que nos interesa mantener el signo de las
desviaciones con respecto a la media, para obtener si son mayores las que ocurren a la
derecha de la media que las de la izquierda. Sin embargo, no es buena idea tomar el
momento estándar con respecto a la media de orden 1 (¡Ya que una simple suma de todas
las desviaciones siempre es cero!). Por ello, lo más sencillo es tomar las desviaciones al
cubo.
El coeficiente de asimetría de Fisher, representado por γ1, se define como:

donde μ3 es el tercer momento en torno a la media y σ es la desviación estándar.


Si γ1 = 0, la distribución es simétrica.
Si γ1 > 0, la distribución es asimétrica positiva o a la derecha.
Si γ1 < 0, la distribución es asimétrica negativa o a la izquierda.
[editar] Coeficiente de asimetría de Pearson
Sólo se puede utilizar en distribuciones campaniformes, unimodales y moderadamente
asimétricas. Se basa en que en distribuciones simétricas la media de la distribución es igual
a la moda.

Si la distribución es simétrica, μ = moda y Ap = 0. Si la distribución es asimétrica positiva la


media se sitúa por encima de la moda y, por tanto, Ap > 0.
[editar] Coeficiente de asimetría de Bowley
Está basado en la posición de los cuartiles y la mediana, y utiliza la siguiente expresión:

En una distribución simétrica el tercer cuartil estará a la misma distancia de la mediana que
el primer cuartil. Por tanto AB = 0.
Si la distribución es positiva o a la derecha, AB > 0.
[editar] Utilidad
La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen una
distribución normal, esto es, simétrica en torno a la media. La distribución normal tiene una
asimetría cero. Pero en realidad, los valores no son nunca perfectamente simétricos y la
asimetría de la distribución proporciona una idea sobre si las desviaciones de la media son
positivas o negativas. Una asimetría positiva implica que hay más valores distintos a la
derecha de la media.
Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto con las
medidas de apuntamiento o curtosis se utilizan para contrastar si se puede aceptar que una
distribución estadística sigue la distribución normal. Esto es necesario para realizar
numerosos contrastes estadísticos en la teoría de inferencia estadística.

Medidas de Distibución - Asimetría y Curtosis


Las medidas de distribución nos permiten identificar la forma en que se separan o aglomeran los valores
de acuerdo a su representación gráfica. Estas medidas describen la manera como los datos tienden a
reunirse de acuerdo con la frecuencia con que se hallen dentro de la información. Su utilidad radica en
la posibilidad de identificar las características de la distribución sin necesidad de generar el gráfico. Sus
principales medidas son la Asimetría y la Curtosis.

1. ASIMETRÍA
Esta medida nos permite identificar si los datos se distribuyen de forma uniforme alrededor del punto
central (Media aritmética). La asimetría presenta tres estados diferentes [Fig.5-1], cada uno de los
cuales define de forma concisa como están distribuidos los datos respecto al eje de asimetría. Se dice
que la asimetría es positiva cuando la mayoría de los datos se encuentran por encima del valor de la
media aritmética, la curva es Simétrica cuando se distribuyen aproximadamente la misma cantidad de
valores en ambos lados de la media y se conoce como asimetría negativa cuando la mayor cantidad de
datos se aglomeran en los valores menores que la media.

Figura 5-1

El Coeficiente de asimetría, se representa mediante la ecuación matemática,


Ecuación 5-9

Donde (g1) representa el coeficiente de asimetría de Fisher, (Xi) cada uno de los valores, ( ) la media
de la muestra y (ni) la frecuencia de cada valor. Los resultados de esta ecuación se interpretan:

• (g1 = 0): Se acepta que la distribución es Simétrica, es decir, existe


aproximadamente la misma cantidad de valores a los dos lados de la
media. Este valor es difícil de conseguir por lo que se tiende a tomar los
valores que son cercanos ya sean positivos o negativos (± 0.5).
• (g1 > 0): La curva es asimétricamente positiva por lo que los valores se
tienden a reunir más en la parte izquierda que en la derecha de la media.
• (g1 < 0): La curva es asimétricamente negativa por lo que los valores se
tienden a reunir más en la parte derecha de la media.
Desde luego entre mayor sea el número (Positivo o Negativo), mayor será la distancia que separa la
aglomeración de los valores con respecto a la media.

2. CURTOSIS
Esta medida determina el grado de concentración que presentan los valores en la región central de la
distribución. Por medio del Coeficiente de Curtosis, podemos identificar si existe una gran concentración
de valores (Leptocúrtica), una concentración normal (Mesocúrtica) ó una baja concentración
(Platicúrtica).

Figura 5-2

Para calcular el coeficiente de Curtosis se utiliza la ecuación:

Ecuacion 5-10

Donde (g2) representa el coeficiente de Curtosis, (Xi) cada uno de los valores, ( ) la media de la
muestra y (ni) la frecuencia de cada valor. Los resultados de esta fórmula se interpretan:
• (g2 = 0) la distribución es Mesocúrtica: Al igual que en la asimetría es
bastante difícil encontrar un coeficiente de Curtosis de cero (0), por lo que
se suelen aceptar los valores cercanos (± 0.5 aprox.).
• (g2 > 0) la distribución es Leptocúrtica
• (g2 < 0) la distribución es Platicúrtica
Cuando la distribución de los datos cuenta con un coeficiente de asimetría (g1 = ±0.5) y un coeficiente
de Curtosis de (g2 = ±0.5), se le denomina Curva Normal. Este criterio es de suma importancia ya que
para la mayoría de los procedimientos de la estadística de inferencia se requiere que los datos se
distribuyan normalmente.

La principal ventaja de la distribución normal radica en el supuesto que el 95% de los valores se
encuentra dentro de una distancia de dos desviaciones estándar de la media aritmética (Fig.5-3); es
decir, si tomamos la media y le sumamos dos veces la desviación y después le restamos a la media dos
desviaciones, el 95% de los casos se encontraría dentro del rango que compongan estos valores.

Figura 5-3

Desde luego, los conceptos vistos hasta aquí, son sólo una pequeña introducción a las principales
medidas de Estadística Descriptiva; es de gran importancia que los lectores profundicen en estos temas
ya que la principal dificultad del paquete SPSS radica en el desconocimiento de los conceptos
estadísticos.

Las definiciones plasmadas en este capítulo han sido extraídas de los libros Estadística para
administradores escrito por Alan Wester de la editorial McGraw-Hill y el libro Estadística y Muestreo
escrito por Ciro Martínez editorial Ecoe editores (Octava edición). No necesariamente tienes que guiarte
por estos libros ya que en las librerías encontraras una gran variedad de textos que pueden ser de
bastante utilidad en la introducción a esta ciencia.
Atrás
Medidas de Dispersión
Siguiente
Escalas de Medida
SECCIONES
Nosotros
Curso de SPSS
Servicios
Ayudas
Download
Contacto
CURSO DE SPSS
Cap. 5 - Estadística
1. Tendencia Central
2. Medidas Dispersión
3. Medidas Distribución
4. Escalas de Medida
5. Análisis Descriptivo
6. Frecuencias: Opciones
7. Frecuencias: Graficos
8. Frecuencias: Formato
9. Variables Categoricas
10. Resultado Categorica
11. Variables de Escala
12. Resultados Escala
13. Drescriptivos SPSS
14. Descriptivos 2

Medidas de Simetría:
Las medidas de la asimetría, al igual que la curtosis, van a ser medidas de la forma de la distribución, es
frecuente que los valores de una distribución tiendan a ser similares a ambos lados de las medidas de
centralización. La simetría es importante para saber si los valores de la variable se concentran en una
determinada zona del recorrido de la variable.

As<0 As=0 As>0

Asimetría Negativa a la Izquierda Simétrica Asimetría Positiva a la Derecha.

Para medir la asimetría se puede realizar atendiendo básicamente a dos criterios:


• Comparando la Media y la Moda.
• Comparando los valores de la variable con la media.
Comparando la Media y la Moda:

Si la diferencia es positiva, diremos que hay asimetría positiva o a la derecha, en el caso de que
sea negativa diremos que hay asimetría negativa o a la izquierda. No obstante, esta medida es poco operativa
al no ser una medida relativa, ya que esta influida por la unidad en que se mida la variable, por lo que se
define el coeficiente de Asimetría como:

Esta medida es muy fácil de calcular, pero menos precisa que el coeficiente de asimetría de Pearson.
El coeficiente de asimetría de Pearson, se basa en la comparación con la media de todos los valores de la

variable, así que es una medida que se basará en las diferencias , como vimos en el caso de la
dispersión si medimos la media de esas desviaciones sería nulas, si las elevamos al cuadrado, serían siempre
positivas por lo que tampoco servirían, por lo tanto precisamos elevar esas diferencias al cubo.
Para evitar el problema de la unidad, y hacer que sea una medida escalar y por lo tanto relativa, dividimos por
el cubo de su desviación típica. Con lo que resulta la siguiente expresión:
Coeficiente de correlación de Pearson
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
En estadística, el coeficiente de correlación de Pearson es un índice que mide la relación
lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la
correlación de Pearson es independiente de la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlación de Pearson como
un índice que puede utilizarse para medir el grado de relación de dos variables siempre y
cuando ambas sean cuantitativas.
[editar] Definición
En el caso de que se esté estudiando dos variables aleatorias x e y sobre una población
estadística; el coeficiente de correlación de Pearson se simboliza con la letra ρx,y, siendo la
expresión que nos permite calcularlo:

Donde:
• σXY es la covarianza de (X,Y)
• σX es la desviaciones típicas de la variable X
• σY es la desviaciones típicas de la variable Y
De manera análoga podemos calcular este coeficiente sobre un estadístico muestral,
denotado como rxy a:

[editar] Interpretación
El valor del índice de correlación varía en el intervalo [-1,1]:
• Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia
total entre las dos variables denominada relación directa: cuando una de ellas
aumenta, la otra también lo hace en proporción constante.
• Si 0 < r < 1, existe una correlación positiva.
• Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las
variables son independientes: pueden existir todavía relaciones no lineales entre las
dos variables.
• Si -1 < r < 0, existe una correlación negativa.
• Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia
total entre las dos variables llamada relación inversa: cuando una de ellas aumenta,
la otra disminuye en proporción constante.
• Coeficiente Asimetria De
Pearson
• Principio del formulario
partner-pub-8555 ISO-8859-1


Buscar

w w w .mitecnolog w w w .mitecnolog


• Final del formulario
• Medidas de Dispersión
• Las medidas de tendencia central tienen como objetivo el
sintetizar los datos en un valor representativo, las
medidas de dispersión nos dicen hasta que punto estas
medidas de tendencia central son representativas como
síntesis de la información. Las medidas de dispersión
cuantifican la separación, la dispersión, la variabilidad de
los valores de la distribución respecto al valor central.
Distinguimos entre medidas de dispersión absolutas, que
no son comparables entre diferentes muestras y las
relativas que nos permitirán comparar varias muestras.
• MEDIDAS DE DISPERSIÓN ABSOLUTAS
• u VARIANZA ( s2 ): es el promedio del cuadrado de las
distancias entre cada observación y la media aritmética
del conjunto de observaciones.
• Haciendo operaciones en la fórmula anterior obtenemos
otra fórmula para calcular la varianza:
• Si los datos están agrupados utilizamos las marcas de
clase en lugar de Xi.
• u DESVIACIÓN TÍPICA (S): La varianza viene dada por
las mismas unidades que la variable pero al cuadrado,
para evitar este problema podemos usar como medida de
dispersión la desviación típica que se define como la raíz
cuadrada positiva de la varianza
• Para estimar la desviación típica de una población a partir
de los datos de una muestra se utiliza la fórmula (cuasi
desviación típica):
• u RECORRIDO O RANGO MUESTRAL (Re). Es la
diferencia entre el valor de las observaciones mayor y el
menor. Re = xmax - xmin
• MEDIDAS DE DISPERSIÓN RELATIVAS
• u COEFICIENTE DE VARIACIÓN DE PEARSON:
Cuando se quiere comparar el grado de dispersión de dos
distribuciones que no vienen dadas en las mismas
unidades o que las medias no son iguales se utiliza el
coeficiente de variación de Pearson que se define como el
cociente entre la desviación típica y el valor absoluto de
la media aritmética
• CV representa el número de veces que la desviación
típica contiene a la media aritmética y por lo tanto cuanto
mayor es CV mayor es la dispersión y menor la
representatividad de la media.
• Medidas de Forma
• Comparan la forma que tiene la representación gráfica,
bien sea el histograma o el diagrama de barras de la
distribución, con la distribución normal.
• MEDIDA DE ASIMETRÍA
• Diremos que una distribución es simétrica cuando su
mediana, su moda y su media aritmética coinciden.
• Diremos que una distribución es asimétrica a la derecha si
las frecuencias (absolutas o relativas) descienden más
lentamente por la derecha que por la izquierda.
• Si las frecuencias descienden más lentamente por la
izquierda que por la derecha diremos que la distribución
es asimétrica a la izquierda.
• Existen varias medidas de la asimetría de una distribución
de frecuencias. Una de ellas es el Coeficiente de
Asimetría de Pearson:
• Su valor es cero cuando la distribución es simétrica,
positivo cuando existe asimetría a la derecha y negativo
cuando existe asimetría a la izquierda.
• MEDIDA DE APUNTAMIENTO O CURTOSIS
• Miden la mayor o menor cantidad de datos que se
agrupan en torno a la moda. Se definen 3 tipos de
distribuciones según su grado de curtosis:
• Distribución mesocúrtica: presenta un grado de
concentración medio alrededor de los valores centrales de
la variable (el mismo que presenta una distribución
normal). Distribución leptocúrtica: presenta un elevado
grado de concentración alrededor de los valores centrales
de la variable. Distribución platicúrtica: presenta un
reducido grado de concentración alrededor de los valores
centrales de la variable.
• EJEMPLO 1
• El número de diás necesarios por 10 equipos de
trabajadores para terminar 10 instalaciones de iguales
características han sido: 21, 32, 15, 59, 60, 61, 64, 60, 71,
y 80 días. Calcular la media, mediana, moda, varianza y
desviación típica
• SOLUCIÓN:
• La media: suma de todos los valores de una variable
dividida entre el número total de datos de los que se
dispone:
• La mediana: es el valor que deja a la mitad de los datos
por encima de dicho valor y a la otra mitad por debajo. Si
ordenamos los datos de mayor a menor observamos la
secuencia:
• 15, 21, 32, 59, 60, 60,61, 64, 71, 80.
• Como quiera que en este ejemplo el número de
observaciones es par (10 individuos), los dos valores que
se encuentran en el medio son 60 y 60. Si realizamos el
cálculo de la media de estos dos valores nos dará a su vez
60, que es el valor de la mediana.
• La moda: el valor de la variable que presenta una mayor
frecuencia es 60
• La varianza S2: Es la media de los cuadrados de las
diferencias entre cada valor de la variable y la media
aritmética de la distribución.
• Sx2=
• La desviación típica S: es la raíz cuadrada de la varianza.
• S = √ 427,61 = 20.67
• El rango: diferencia entre el valor de las observaciones
mayor y el menor
• 80 - 15 = 65 días
• El coeficiente de variación: cociente entre la desviación
típica y el valor absoluto de la media aritmética
• CV = 20,67/52,3 = 0,39
• EJEMPLO 2
• El precio de un interruptor magentotérmico en 10
comercios de electricidad de una ciudad son : 25, 25, 26,
24, 30, 25, 29, 28, 26, y 27 Euros. Hallar la media, moda,
mediana, (abrir la calculadora estadística, más abajo)
diagrama de barras y el diagrama de caja.
• SOLUCIÓN:
• Utilizar la calculadora de debajo)
• El diagrama de cajas: caja desde Q1 a Q3 (50% de los
datos), bigotes el recorrido]
• COEFICIENTE DE ASIMETRÍA DE PEARSON
• El coeficiente de asimetría de Pearson mide la desviación
respecto de la simetría expresando la diferencia entre la
media y la mediana en relación con la desviación estándar
del grupo de medidas. Las fórmulas son:
• En una distribución simétrica, el valor del coeficiente de
asimetría será siempre de cero, porque la media y la
mediana son iguales entre sí en valor En una distribución
asimétrica positiva, la media siempre es mayor que la
mediana; en consecuencia, el valor del coeficiente es
positivo. En una distribución asimétrica negativa, la
media siempre es menor que la mediana; por lo tanto, el
valor del coeficiente es negativo. EJEMPLO En relación
con los datos de ventas de equipos de aire acondicionado
presentados en el ejemplo anterior, la media es 10.5
unidades, la mediana 11.0 unidades (con base en las
secciones 2.2 y 2.4) y la desviación estándar 3.3
unidades. El coeficiente de asimetría es
• Así, la distribución de cantidades de ventas es en cierto
modo asimétrica negativa, o sesgada a la izquierda.

Você também pode gostar