Você está na página 1de 22

Anova

Profesor
Juan Barile Sanhueza
ANOVA = (ANDEVA)

Corresponde al capítulo fundamental de la


Estadística, es la herramienta básica para el
diseño de experimentos y fundamental para
adentrarse en la naturaleza de la variación de los
acontecimientos; permite discernir mejor las
causas de los fenómenos y los efectos de los
factores involucrados.
¿Qué mide el Anova ?

)El ANOVA verifica si dos o más medias muestrales


fueron extraídas de una misma población. En
consecuencia, cuando estas medias muestrales no
sean coincidentes habrá que suponer que
provienen de poblaciones diferentes por el efecto
causado por un factor en estudio.
Supuestos del ANOVA

1.Muestreo Aleatorio

Un muestreo no aleatorio introducirá un sesgo en


nuestros datos y este sesgo NO tiene solución.

Así mismo, la asignación de réplicas a distintos


tratamientos de un experimento debe también ser al
azar.
2. Independencia de los Errores

Aquellos factores que tienen un efecto sobre la


variable a analizar pero que NO forman parte del o
los tratamientos bajo estudio, NO deben estar
correlacionados con los tratamientos.

La única manera de garantizar independencia de


errores es tomar muestras o asignar réplicas
completamente al azar. La falta de independencia
de errores en un diseño NO tiene solución.
3. Normalidad

Los datos de cada grupo a comparar deben seguir


una distribución normal.

Si los datos NO cumplen con este supuesto, es


posible transformar los datos.

En muchos casos es difícil determinar si los datos


siguen o no una distribución normal debido al bajo
número de réplicas. En estos casos hacemos uso de
un teorema que dice que si los datos están
normalmente distribuidos, entonces los ‘errores’
(variación no explicada alrededor de la media) deben
estar también normalmente distribuidos.
El Anova es muy robusto a desviaciones de
normalidad. Esto significa que desviaciones del
supuesto de distribución normal no afectarán
grandemente las conclusiones respecto de la
significancia de la variable de interés.

La mayoría de las pruebas de distribución libre (“no


paramétricas”) no requieren de este supuesto de
normalidad en los datos. En su lugar, estas pruebas
casi siempre suponen que todos los grupos a
comparar tienen la misma distribución (no
necesariamente la normal).
4. Homocedasticidad
Es el supuesto más importante del Anova porque es
más sensitivo a desviaciones de este supuesto que
ha desviaciones de normalidad. Sin embargo,
pequeñas desviaciones de homogeneidad de
varianza tampoco afectarán los resultados.
Puesto que la varianza dentro de grupos estima la
misma varianza poblacional que la varianza entre
grupos (si Ho es verdadera), Todos los grupos a
comparar deben tener la misma varianza.
La transformación de los datos que solucionan este
problema de varianzas heterogéneas y al mismo
tiempo pueden solucionar desviaciones de
normalidad.
La mayoría de las pruebas estadísticas no-
parametricas también son sensibles a desviaciones
de homogeneidad de varianza y en algunos casos
son más sensibles que el Anova.
Qué significa en términos
estadísticos que una prueba
estadística sea sensible a normalidad
u homogeneidad de varianza?

Significa que si se realiza una ANDEVA con


datos que presentan varianzas heterogéneas, no
se esta seguro que el Error Tipo I sea realmente
0.05.
Verificación de homogeneidad de varianza
(homocedasticidad)

Las mas usadas son:


a) Test de Bartlett (no muy recomendable pues es
muy sensitiva a normalidad)
b) Test de Levene (bastante utilizado, no depende del
supuesto de normalidad)
c) Test de Fmax de Hartley (la más fácil de aplicar,
pero la menos confiable)
Ejemplo para verificar (homocedasticidad)
D1 D2 D3
32 36 35
37 38 30
34 37 36
33 30 29
30 34 31
Descriptivos

VAR00001

Dieta 1 Dieta 2 Dieta3 Total


N 5 5 5 15
Media 33,2000 35,0000 32,2000 33,4667
Desviación típica 2,58844 3,16228 2,58844 2,99682

Error típico 1,15758 1,41421 1,39284 ,77378


Intervalo de confianza Límite inferior 29,9860 31,0735 28,3329 31,8071
para la media al 95% Límite superior 36,4140 38,9265 36,0671 35,1263
Prueba de homogeneidad de varianzas

VAR00001
Estadístico
de Levene gl1 gl2 Sig.
,404 2 12 ,676

El valor excede , el nivel 0,05 y se asume que las varianzas


de los tres grupos son iguales
Computo del Anova
ANOVA

VAR00001
Suma de Media
cuadrados gl cuadrática F Sig.
Inter-grupos 20,133 2 10,067 1,144 ,351
Intra-grupos 105,600 12 8,800
Total 125,733 14

1. La variación total esta particionada en dos componentes


2. Entre grupos representa la variación de las medias de los
grupos de la media general
3. Dentro de grupos representa la variación de los datos
individuales respecto de la media de su respectivo grupo

En este caso no hay diferencias significativas entre los grupos


(significancia> 0,05)
PASOS PARA REALIZAR UNA ANDEVA

1. Normalidad de los datos


a) graficar las frecuencias de los datos crudos
b) Aplicar test de normalidad
c) Transformar los datos si existen desviaciones muy
grandes de normalidad
d) Verificar normalidad de datos transformados
e) Si aun no existe normalidad pero los datos son
cercanos a los normal, seguir adelante con
precaución (cuidado con valores de signifiacncia
muy cercanos a 0.05).
2. Homogeneidad de Varianza
a) correlación entre medias y varianzas de los
grupos
b) aplicar test de homogeneidad
c) Transformar si varianzas son muy heterogéneas
d) Verificar homogeneidad de varianzas de datos
transformados
e) Si los datos aún NO presentan homogeneidad de
varianzas, PARAR aquí y consultar

3. Si todo esta bien, realizar el ANDEVA

4. Si hay más de dos grupos y el ANDEVA muestra que


al menos uno difiere significativamente, se requiere
aplicar una prueba de comparación múltiple , a
posteriori, para determinar cuál o cuáles difieren de
otros.
Comparaciones múltiples

Los diferentes métodos de hacer comparaciones


múltiples se emplean sólo cuando el resultado del
ANOVA resulta significativo. En tal caso, se sabe que
existen diferencias entre las muestras, pero sin poder
especificar entre cuales de ellas. Se necesita, entonces,
alguna forma de poder compararlas entre sí, y alcanzar
así el objetivo final del ANOVA.

Para un Modelo II el trabajo es mucho más simple, solo


se trata de cuantificar a la componente añadida de
varianza. En cambio, para un Modelo I se debe analizar
primero si las comparaciones fueron planeadas antes de
realizar el experimento o después.
Cuando se analizan los datos y se encuentran
resultados sorpresivos, no previstos, a veces conviene
un análisis posterior que se diseña en función de estos
resultados, en cuyo caso se deben usar los métodos
para comparaciones no planeadas. Existen numerosos
modelos estadísticos para todas estas posibilidades,
tanto para tamaños muestrales iguales como distintos.

Cuando se trata de un modelo I de Anova, lo que más


interesa es poder comparar las medias muestrales entre
sí, una vez que se sabe que hay diferencia significativa
entre ellas.
Hay dos formas básicas de poder efectuar estas
comparaciones :

Comparaciones “a priori“: Son aquellas comparaciones


planificadas previamente, durante la etapa del diseño
experimental. Es decir, las que el experimentador cree
que va a encontrar diferencias significativas, antes de
hacer el experimento.

Comparaciones “a posteriori“: Son aquellas


comparaciones no planificadas de antemano. Surgen a
partir de los datos experimentales, cuando el
investigador descubre diferencias inesperadas y quiere
testearlas.
COMPARACIONES PLANEADAS O a priori

• Estas comparaciones son diseñadas y planeadas en


forma independiente de los resultados obtenidos.

• Deben ser planeadas antes de realizar el experimento


de acuerdo al interés especifico de los investigadores.

• Las comparaciones a realizar NO pueden cambiarse


después de realizado el experimento y de obtener los
resultados.

• En general NO es posible comparar todos los grupos


unos contra otros (existen restricciones).
COMPARACIONES NO PLANEADAS O a posteriori

• Al contrario de las comparaciones planeadas, las


comparaciones a posteriori son realizadas después
de realizado el experimento y de que se conocen los
resultados.

• Estas comparaciones son sugeridas por los


resultados mismos y NO son planeadas antes del
experimento por los investigadores. .

• Puesto que las comparaciones se realizan después


de conocerse los resultados, las pruebas de hipótesis
deben considerar el hecho que ya no se trata de una
muestra completamente aleatoria de una población
normal, sino que de una muestra selectiva o parcial.
Modelos “a posteriori” con tamaños muestrales iguales:
- Modelo de Tukey (T-method).
- Modelo de Tukey corregido (T’-method) cuando las
muestras son aproximadamente iguales.
- Modelo de Welsch (Welsch-method).
- Modelo de Dunn-Sidák.

Modelos “a posteriori” con tamaños muestrales distintos:


- Modelo de Hochberg (GT2-method).
- Modelo de Tukey – Kramer (TK-method).
- Modelo de Student – Neumann – Keuls (SNK-method).
- Modelo de Scheffé.
- Modelo de Gabriel (SS-STP method) para hacer todas las
comparaciones posibles.

Você também pode gostar