Você está na página 1de 113

ANALISIS DE DATOS

ESTADSTICA DESCRIPTIVA
E INFERENCIAL
CONCEPTOS BSICOS DE ESTADSTICA
POBLACIN: es el conjunto de todos los elementos que cumplen
ciertas propiedades, entre las cuales se desea estudiar un determinado
fenmeno UNIVERSO
SEGN LA FINITUD:
Poblacin finita: se conoce el nmero exacto de todos los elementos que
componen el conjunto
Poblacin infinita: en el supuesto que no se puedan conocer todos los elementos
que componen el conjunto
SEGN LA MUESTRA ESCOGIDA
Poblacin objeto: es aquella en la que se desea estudiar cierta informacin
Poblacin inferencial: es aquella para la cual se hacen inferencias, no
necesariamente vlidas
ESCALAS DE MEDIDA NIVELES DE MEDIDA DE LAS VARIABLES*
MUESTRA: si la poblacin es un conjunto, la
muestra es un subconjunto de sta.
INDIVIDUO: se identifica al individuo de una
poblacin o de una muestra como cada uno de los
elementos que la componen y de los cuales
obtenemos cierta informacin mensurable del
fenmeno que se desea estudiar.
Podemos considerar individuo un ser humano, un
animal, o un evento, por ejemplo acudir a
consulta, etc.
CONCEPTOS BSICOS DE ESTADSTICA
CARCTER: es la propiedad o cualidad que presentan los
elementos de una poblacin que se desea estudiar
Caracteres cualitativos: son aquellos que no pueden medirse
numricamente, es decir, que no pueden cuantificarse.
Caracteres cuantitativos: son aquellos que pueden medirse
numricamente, es decir, pueden cuantificarse

Modalidad o clase de un carcter: son las distintas formas en
las que dicho carcter puede presentarse.

Ej: el carcter sexo presenta dos modalidades hombre y mujer.

CONCEPTOS BSICOS DE ESTADSTICA
La frecuencia absoluta de una modalidad de un carcter es
el nmero de elementos en estudio que presentan esa
modalidad de ese carcter.

La frecuencia relativa de una modalidad de un carcter es el
cociente entre la frecuencia absoluta de dicha modalidad y el
nmero total de elementos que constituyen la muestra.

Porcentaje de una modalidad: se obtiene multiplicando la
frecuencia relativa por 100.
CONCEPTOS BSICOS DE ESTADSTICA
NIVELES DE MEDIDA DE LAS VARIABLES
Medicin supone establecer una regla para hacer
corresponder los nmeros con las formas en las que se
presenta una caracterstica de los objetos o individuos.
Con niveles de medida nos referimos a las formas en que se
emplean los nmeros:
Nominal: asignar nmeros supone etiquetar o poner nombres.
Los objetos difieren entre s.
Ordinal: establecemos una ordenacin, creciente o decreciente,
entre los objetos. Sabemos que es mayor o menor, pero no
cunto.
Intervalo: las distancias numricas iguales suponen distancias
idnticas respecto a la cualidad que se est midiendo.
Razn: a las caractersticas del nivel de medida de intervalo, se
aade la existencia del cero absoluto (cero supone ausencia de
rasgo medido), no hay valores negativos.
ESCALAS DE MEDIDA
ESCALAS DE
MEDIDA
OPERACIONES
LGICAS
CONDICIONES ESTADSTICOS
APLICABLES
Nominal Establecer la igualdad
o desigualdad
Permutacin Frecuencias
Moda
Coefic. De contigencia
Ordinal Determinar lo >, lo =,
o lo <
Mantenimiento del
orden
Mediana
Percentiles
Correlacin lineal
De intervalo Determinar la
igualdad o diferencia
de intervalo
Unidad constante Media aritmtica
Desviacin tpica
Correlaciones
De razn o
proporcin
Establecer igualdad
de razones
Cero absoluto Media geomtrica
Media armnica
Coeficiente de variacin
ANLISIS VALIDEZ Y
FIABILIDAD DE LA MEDIDA
Anlisis de la Fiabilidad
La precisin o fiabilidad de una medida: ausencia de variabilidad.
Una medicin es fiable cuando se obtienen resultados iguales en
mediciones sucesivas.
Medicin de temperatura: 36, 30, 40 (no es fiable).
Orgenes de la variabilidad:
1.Variabilidad atribuible al procedimiento (instrumentos, pruebas,
cuestionarios, etc).
2.Variabilidad debida a discrepancias entre los observadores (variaciones
inter-observador e intra-observador).
3.Variabilidad por cambios en las caractersticas sometidas a medicin
(variaciones biolgicas, conductuales, ambientales, etctera),
La fiabilidad se valora realizando dos o ms mediciones independientes del
mismo atributo y comparando luego los hallazgos.
Anlisis de la Fiabilidad
La fiabilidad de las medidas utilizadas ha de analizarse cuando se aplique una
forma de medicin nueva.
Se deben realizar esfuerzos para hacer ms fiable la informacin recogida,
pero ms que intentar conseguir una fiabilidad total, se debe poder cuantificar
el grado de error cometido en la medicin.
Cuando en el diseo de un estudio se planifique la medicin de las variables
seleccionadas, se deben adoptar medidas para conseguir una mnima
variabilidad en los resultados.
Cmo?:
- definiciones operativas claras,
- instrucciones precisas sobre la recogida de informacin,
- entrenamiento de los observadores,
- procedimientos de medidas estndar previamente utilizados y
- tcnicas de enmascaramiento.

Anlisis de la Fiabilidad en variables
cualitativas
Analizar/ Estadsticos descriptivos / Tablas de Contingencia / ndice Kappa de
Cohen + coeficiente de contingencia + prueba Chi-cuadrado
Coincidieron 20
negativos en el test1
tb son negativos en
el test2.
20 + en test 1
tambin son + en el
test2.
No coincidieron 5 +
en test 1 despus en
test 2 son negativos
No coincidieron 5
negativos en test 1
despus en test 2
son +
Tuvo en total 40
coincidencias (20 ++
y 20 --) y 10 no
coincidencias (5+- y
5 -+)
Analizar/ Estadsticos descriptivos / Tablas de Contingencia / ndice Kappa de
Cohen + coeficiente de contingencia + prueba Chi-cuadrado (es una binomial 2x2)
Anlisis de la Fiabilidad en variables
cualitativas
Chi-cuadrado indica si una medicin coincide con la otra o no.
Analizar/ Escalas / Anlisis de fiabilidad
Anlisis de la Fiabilidad en variables
cuantitativas
La matriz de correlaciones indica que existe una alta relacin entre las mediciones, o
sea que existe escasa variabilidad, por lo que mis 5 mediciones han sido muy fiables.
Analizar/ Escalas / Anlisis de fiabilidad
Anlisis de la Fiabilidad en variables
cuantitativas
Medida de adecuacin muestral de Kaiser-
Meyer-Olkin.
,752
Prueba de esfericidad
de Bartlett
Chi-cuadrado
aproximado
64,101

gl 10

Sig. ,000
Componente

1
PRETEST dolor
cabeza-cuello
,771
PRETEST dolor
columna dorsal
,773
PRETEST dolor
columna lumbar
,589
PRETEST dolor
MM.II.
,555
PRETEST dolor
MM.SS.
,852
VALIDEZ Y FIABILIDAD
DE LA ESCALA DE MEDIDA
Analizar/ Reduccin de datos / Anlisis factorial /
KMO y prueba de esfericidad de Barlett
Anlisis de la Variabilidad
(varianza) de una medicin
Identificar un pequeo
nmero de factores que
explique la mayora de la
varianza observada.
Kaiser-Meyer-Olkin contrasta si las
correlaciones parciales entre las
variables son pequeas (% de varianza en
mis variables generada por esos
factores).
La prueba de esfericidad de Bartlett me
indica si mis variables estn relacionadas
o no.
Grfico de sedimentacin: varianza
asociada a cada factor. Tpicamente
muestra la clara ruptura entre la
pronunciada pendiente de los factores
ms importantes y el descenso gradual
de los restantes (los sedimentos).
ESTADSTICA DESCRIPTIVA
UNIVARIANTE
Una distribucin de frecuencias consiste en
presentar deforma ordenada todos los valores que
contiene la variable objeto de estudio, as como la
frecuencia con que aparecen
En el SPSS:
ESTADSTICA DESCRIPTIVA
Analizar/ Estadsticos descriptivos/ Frecuencias
Una serie de datos quedan perfectamente definidos si se dan sus tablas de
frecuencias o se realizan unas representaciones grficas adecuadas.
A veces es ms simple y suficientemente representativo obtener unas
medidas que los resuma.
A tales medidas se les denomina medidas de distribucin de frecuencias.
medidas de tendencia central,
medidas de posicin,
medidas de dispersin y
medidas de forma.
ESTADSTICA DESCRIPTIVA
ESTADSTICA DESCRIPTIVA
MEDIDAS DE
TENDENCIA
CENTRAL
Media
Mediana
Moda
MEDIDAS DE
DISPERSIN o
VARIABILIDAD
Desviacin tpica
Varianza
Amplitud

MEDIDAS
DE FORMA

Asimetra
Curtosis
Analizar/ Estadsticos descriptivos/ Frecuencias
Analizar/ Estadsticos descriptivos/ Descriptivos
Analizar/ Estadsticos descriptivos/ Explorar
MEDIDAS DE
POSICIN
Mediana
Cuartiles
Deciles
Centiles
Percentiles

MEDIDAS DE TENDENCIA CENTRAL
MEDIA: se define como el valor obtenido como
resultado de sumar todas las puntuaciones y
dividir por el nmero de las mismas.

Para su clculo, los datos han de estar medidos, al
menos, en una escala de intervalo.

Solo para variables cuantitativas.
Estadsticos
rea_de_contacto_pi_izquierdo
48
0
126,6731
124,2000
80,08
a
6080,31
Vlidos
Perdidos
N
Media
Mediana
Moda
Suma
Existen varias modas. Se
mostrar el menor de los valores.
a.





MEDIDAS DE TENDENCIA CENTRAL
MEDIANA: es el valor perteneciente o no a la muestra que divide en dos partes
iguales un conjunto de puntuaciones.
Deja tantas observaciones por debajo como por encima de l.
Es el percentil 50
Su clculo es posible cuando los datos se miden en escala ordinal, al menos
(variables cuantitativas).
La mediana en un nmero de datos impar, corresponde al valore central.
Cuando el nmero de observaciones es par, la mediana es el promedio de
las dos observaciones centrales.
La mediana es una medida de tendencia central que
no es sensible a los valores atpicos (a diferencia de la
media).

Estadsticos
rea_de_contacto_pi_izquierdo
48
0
126,6731
124,2000
80,08
a
6080,31
Vlidos
Perdidos
N
Media
Mediana
Moda
Suma
Existen varias modas. Se
mostrar el menor de los valores.
a.





MEDIDAS DE TENDENCIA CENTRAL
MODA: es el valor que ms se repite dentro de un
conjunto de puntuaciones.
Valor con mayor frecuencia absoluta.
Si varios valores comparten la mayor frecuencia
de aparicin, cada una de ellas es una moda.
SPSS da la + pequea de esas modas mltiples.
Se calcula con cualquiera de los
niveles de medida (variables cuali-
tativas o cuantitativas).
Estadsticos
rea_de_contacto_pi_izquierdo
48
0
126,6731
124,2000
80,08
a
6080,31
Vlidos
Perdidos
N
Media
Mediana
Moda
Suma
Existen varias modas. Se
mostrar el menor de los valores.
a.





MEDIDAS DE TENDENCIA CENTRAL
Suma: es la suma o total de todos los
valores, a lo largo de todos los casos que
no tengan valores perdidos .
Estadsticos
rea_de_contacto_pi_izquierdo
48
0
126,6731
124,2000
80,08
a
6080,31
Vlidos
Perdidos
N
Media
Mediana
Moda
Suma
Existen varias modas. Se
mostrar el menor de los valores.
a.





MEDIDAS DE TENDENCIA CENTRAL

La mediana es menos sensible que la media a la variacin de las observaciones
muestrales.
La media est muy influenciada por observaciones muy grandes o muy pequeas con
relacin a las restantes que componen la muestra, y sin embargo la mediana no.
La mediana es el fundamento de diversas tcnicas estadsticas, pero el nmero de
estas es mucho menor que el de las tcnicas basadas en la media.
La mediana es ms recomendable que la media cuando la distribucin de frecuencias
es muy asimtrica, es decir, cuando existen una o muy pocas observaciones en uno de
los extremos.
La media no debe ser calculada cuando las observaciones no sean numricas.
La moda tiene el inconveniente de no ser necesariamente nica.
En el caso de variables cualitativas y dado que este tipo de datos no permite el clculo
ni de la media ni de la mediana, el clculo de la moda es forzoso.
Las unidades en que vienen expresadas la media, mediana y moda corresponden a las
de la variables en estudio.
MEDIDAS DE DISPERSIN
DESVIACIN TPICA: es la raz cuadrada de la varianza.
VARIANZA: suma de los cuadrados de las desviaciones respecto a la media
dividida por el nmero de casos menos 1.
Es el promedio de las desviaciones de las
puntuaciones respecto a la media aritmtica.
Ejemplo: podemos obtener una media de 5 con los siguientes datos:
5,6,4,5,5. Pero tb con: 10,5,1,2,7. en el segundo caso diremos que hay
mayor variabilidad. pero como podemos medir la variabilidad?
Analizar/ Estadsticos descriptivos/ Frecuencias
Analizar/ Estadsticos descriptivos/ Descriptivos
Analizar/ Estadsticos descriptivos/ Explorar





Indican si los valores de las observaciones (si los valores de las
modalidades de un carcter) se encuentran muy prximas entre s
o muy dispersas.
MEDIDAS DE DISPERSIN
AMPLITUD: es la diferencia entre el valor mximo y el
mnimo de un conjunto de puntuaciones.
Mnimo. Valor ms pequeo de una variable numrica.
Mximo. El mayor valor de una variable numrica.
Error Tpico de la media. Medida de cunto puede variar el
valor de la media de una muestra a otra, extradas stas de la
misma distribucin.
Analizar/ Estadsticos descriptivos/ Frecuencias
Analizar/ Estadsticos descriptivos/ Descriptivos
Analizar/ Estadsticos descriptivos/ Explorar





MEDIDAS DE DISPERSIN
Todas las medidas de dispersin son siempre positivas.
Todas las medidas de dispersin se anulan cuando todas las observaciones
muestrales son idnticas.
La amplitud presenta el inconveniente de utilizar nicamente dos
observaciones: las dos ms extremas.
La varianza tiene el inconveniente de tener como unidades las de la variable
original al cuadrado. Esta es la razn por la que se emplea la desviacin
tpica.
La varianza y la desviacin tpica son muy sensibles a la variacin de cada
una de las observaciones, ya que su valor depende de todos y cada uno de
los valores de los datos obtenidos en la muestra.
La varianza y la desviacin tpica son fundamentos de muchas tcnicas
estadsticas.
No se recomienda el uso de la varianza o de la desviacin tpica en aquellos
casos en los que no se recomiende el uso de la media como medida de
tendencia central.
MEDIDAS DE FORMA
Estas medidas nos informan sobre la distribucin de las
puntuaciones
Describen la forma y la simetra de mi distribucin de datos.
Dos medidas: (asimetra y curtosis)
ASIMETRA:
Si valores de media, mediana y moda coinciden distribucin simtrica
Cuando se alejan hacia la izda asimetra negativa
Hacia la dcha asimetra positiva
Analizar/ Estadsticos descriptivos/ Frecuencias
Analizar/ Estadsticos descriptivos/ Descriptivos
Analizar/ Estadsticos descriptivos/ Explorar
Estadsticos
rea_de_contacto_pi_izquierdo
48
0
,173
,343
,077
,674
Vlidos
Perdidos
N
Asimetra
Error tp. de asimetra
Curtosis
Error tp. de curtosis






MEDIDAS DE FORMA
ASIMETRA:
Una distribucin que tenga una asimetra positiva significativa tiene una
cola derecha larga.
Una distribucin que tenga una asimetra negativa significativa tiene una
cola izquierda larga.
Un valor de la asimetra mayor que el doble de su error tpico se asume
que indica una desviacin de la simetra.
Cuando al trazar una vertical, en el diagrama de barras o histograma, de
una variable (discreta o continua) por la media, esta vertical es el eje de
simetra, la distribucin es simtrica.
Simtrica, cuando a ambos lados de la media aritmtica haya el mismo
n de valores de la variable, equidistantes de dicha media dos a dos, y
tales que cada par de valores equidistantes tiene la misma frecuencia
absoluta.
MEDIDAS DE FORMA
Clculo de la ASIMETRA:

coeficiente de FISHER (g1):
Si g1 > 0 la distribucin ser asimtrica positiva o a derechas
(desplazada hacia la derecha).
Si g1 < 0 la distribucin ser asimtrica negativa o a izquierdas
(desplazada hacia la izquierda).
Si g1 = 0 la distribucin ser simtrica.

coeficiente de PEARSON (Ap):
solo es cierto cuando la distribucin
tiene las siguientes condiciones: Unimodal,
campaniforme y moderada o ligeramente asimetrica.
MEDIDAS DE FORMA
CURTOSIS:
Medida del grado en que las observaciones estn agrupadas en torno al
punto central
Nos indica el apuntamiento o escarpamiento de la distribucin de
puntuaciones.

Analizar/ Estadsticos descriptivos/ Frecuencias o
Analizar/ Estadsticos descriptivos/ Descriptivos
Analizar/ Estadsticos descriptivos/ Explorar
Estadsticos
rea_de_contacto_pi_izquierdo
48
0
,173
,343
,077
,674
Vlidos
Perdidos
N
Asimetra
Error tp. de asimetra
Curtosis
Error tp. de curtosis






MEDIDAS DE POSICIN
Estas medidas nos informan de la situacin de una puntuacin
respecto al grupo en el que se encuentra includo.
Mediana: es tb una medida de tendencia central, aqu divide la
distribucin de la variable en dos partes iguales.
Cuartiles: son los 3 valores que divide en 4 partes idnticas el conjunto
de puntuaciones
Deciles: son los 9 valores que divide en 10 partes idnticas el conjunto
de puntuaciones
Centiles: es dividir la distribucin de la variable en 100 partes iguales
99 valores, pertenecientes o no a la distibucin de datos, que dividen a esta en
100 partes iguales.
Percentiles: es asignar a un valor de la variable el porcentaje de
individuos que deja por debajo de l.
Tales medidas son informacin de las m simas (por ciento,
dcimas y cuartas) partes del total de puntuaciones del grupo.
MEDIDAS DE POSICIN
Analizar/ Estadsticos descriptivos/ Frecuencias
Analizar/ Estadsticos descriptivos/ Explorar
Estadsticos
edad
52
0
47,30
55,00
62,00
66,75
Vli dos
Perdi dos
N
5
25
50
75
Percenti l es
Estadsticos
edad
52
0
55,00
62,00
66,75
Vli dos
Perdidos
N
25
50
75
Percentiles
Estadsticos
edad
52
0
50,30
54,60
55,00
55,00
57,20
62,00
64,00
65,10
66,75
68,00
70,00
Vli dos
Perdidos
N
10
20
25
30
40
50
60
70
75
80
90
Percentiles
MEDIDAS DE POSICIN
Analizar/ Estadsticos descriptivos/ Frecuencias
Estadsticos
edad
52
0
55,00
62,00
66,75
Vli dos
Perdidos
N
25
50
75
Percentiles
edad
1 1,9 1,9 1,9
1 1,9 1,9 3,8
1 1,9 1,9 5,8
1 1,9 1,9 7,7
1 1,9 1,9 9,6
1 1,9 1,9 11,5
3 5,8 5,8 17,3
1 1,9 1,9 19,2
6 11,5 11,5 30,8
3 5,8 5,8 36,5
2 3,8 3,8 40,4
2 3,8 3,8 44,2
1 1,9 1,9 46,2
1 1,9 1,9 48,1
5 9,6 9,6 57,7
2 3,8 3,8 61,5
5 9,6 9,6 71,2
2 3,8 3,8 75,0
1 1,9 1,9 76,9
3 5,8 5,8 82,7
1 1,9 1,9 84,6
4 7,7 7,7 92,3
1 1,9 1,9 94,2
1 1,9 1,9 96,2
2 3,8 3,8 100,0
52 100,0 100,0
45
46
48
49
50
51
52
54
55
56
57
58
60
61
62
64
65
66
67
68
69
70
71
72
76
Total
Vli dos
Frecuencia Porcentaje
Porcentaje
vlido
Porcentaje
acumulado
LA DISTRIBUCIN NORMAL
Abraham de Moivre (1667-1754)
Carl Friedrich Gauss (1777-1855)
PROPIEDADES DE LA DISTRIBUCIN NORMAL
Tiene una nica moda, que coincide con su media y su
mediana.
La curva normal es asinttica al eje de abscisas (rea total
bajo la curva es = 1)
Es simtrica con respecto a su media.
La distancia entre la lnea trazada en la media y el punto de
inflexin de la curva es igual a una desviacin tpica.
El rea bajo la curva comprendido entre los valores situados
aproximadamente a dos desviaciones estndar de la media
es igual a 0,95.
La forma de la campana de Gauss depende de los
parmetros: media y desviacin tpica
DISTRIBUCIN NORMAL ESTNDAR
Corresponde a una distribucin de media 0 y varianza 1.
CONTRASTE DE NORMALIDAD
Determina si se ajusta a una normal o no (paramtrica o no paramtrica).
Esto determina el tipo de pruebas estadsticas a desarrollar, para establecer
correlaciones o contrastar hiptesis que establezcan la existencia de una relacin
causa efecto.
Los coeficientes de asimetra de Fisher y de Pearson indican si una distribucin
se ajusta a una normal ( = 0).
Existen tres pruebas estadsticas que nos permiten determinar si una distribucin
de datos se ajusta a una normal o no:
el test de Kolmogorov-Smirnov para una muestra (en el SPSS Analizar/ Pruebas no
paramtricas/ K-S de 1 muestra) (variables cuantitativas).
El test de Kolmogorov-Smirnov con un nivel de significacin de Lilliefors (en el
SPSS Analizar/ Estadsticos descriptivos/ Explorar se abre un cuadro de dilogo en el
que podemos meternos en la pestaa grficos, una vez que entramos en grficos
marcamos la cuadrcula Grficos con pruebas de normalidad). (variables
cuantitativas).
CONTRASTE DE NORMALIDAD
Coeficiente de asimetra de Fisher

Test de Kolmogorov-Smirnov
Analizar/ Pruebas no paramtricas/ K-S de 1 muestra
Las variables pretest,
postest e ndice de mejora
no se distribuyen de forma
normal.
Tendremos que usar
pruebas no paramtricas
(aunque si el tamao de la
muestra es grande la
violacin de los
supuestos paramtricos es
tolerable.
Sig. mayor de
0,05 se ajusta
a la normal.
Menor a 0,05
no se ajusta a
la normal.
Variables
cuantitativas
CONTRASTE DE NORMALIDAD
Test de Kolmogorov-Smirnov
Analizar/ Pruebas no paramtricas/ K-S de 1 muestra
La variable nmero de sesiones en todos los casos no se
distribuyen de forma normal.
Pero los grado I y grado II si se distribuyen de forma normal
Variables
cuantitativas
CONTRASTE DE NORMALIDAD
Analizar/ Estadsticos descriptivos/ Explorar/ Grficos/
Grficps con prueba de normalidad
Test de Kolmogorov-Smirnov con un nivel de
significacin de Lilliefors
CONTRASTE DE NORMALIDAD
Test de Kolmogorov-Smirnov con un nivel de
significacin de Lilliefors
Valor observado
200 180 160 140 120 100 80
D
e
s
v
.

d
e

n
o
r
m
a
l
0,75
0,50
0,25
0,00
-0,25
Grfico Q-Q normal sin tendencias de rea_de_contacto_pi_izquierdo
Valor observado
200 180 160 140 120 100 80
N
o
r
m
a
l

e
s
p
e
r
a
d
o
4
2
0
-2
-4
Grfico Q-Q normal de rea_de_contacto_pi_izquierdo
Analizar/ Estadsticos descriptivos/ Explorar/ Grficos/
Grficps con prueba de normalidad
REPRESENTACIN GRFICA
DE LA INFORMACIN
CONDICIONES GENERALES QUE
DEBEN CUMPLIR
Deben indicar claramente las escalas y
unidades de medida.

Deben explicarse por s solas.

Deben contribuir a clarificar el material
presentado.
GRFICO DE SECTORES
Y GRFICO DE BARRAS
Analizar/ Estadsticos descriptivos/ Frecuecias/ Grficos
Se pueden emplear en variables cuantitativas,
pero forzosamente en las cualitativas
Grfico de Sectores: Contribucin de las
partes a un todo (frecuencia o %). El
ngulo central es proporcional a la
frecuencia absoluta.
Grfico de Barras: muestra la
frecuencia de cada valor como una
barra diferente permitiendo
comparar las categoras de forma
visual (frecuencia o %).
HISTOGRAMA
Representacin de una variable cuantitativa que muestra la concentracin
relativa de los datos a lo largo de diferentes intervalos o secciones de la
escala en la que estn medidos dichos datos.
Cuentan con barras, pero se representan a lo largo de una escala de
intervalos iguales
La altura de cada barra es el recuento de los valores que estn dentro del
intervalo para una variable cuantitativa.
Los histogramas muestran la forma, el
centro y la dispersin de la distribucin.
El histograma se construye sobre unos ejes de coordenadas.
Se sealan en el eje horizontal los distintos extremos de los
intervalos de clase, y en el eje vertical las frecuencias
relativas partidas por las amplitudes de cada intervalo.
A partir de esto se construyen rectngulos yuxtapuestos,
cuyas bases son los diferentes intervalos de clase y cuya
altura es el cociente de la frecuencia relativa entre la amplitud
del intervalo.
POLGONO DE FRECUENCIAS
El polgono de frecuencias resulta de la unin mediante una lnea quebrada de
los puntos medios de las bases superiores de los rectngulos de un histograma.
No es aplicable a las variables cualitativas
CAJA Y BIGOTES
En el diagrama de cajas y bigotes presentamos los percentiles recogidos, la mediana y
los valores extremos.
La caja central registra los valores comprendidos entre los percentiles del 25 (borde
inferior de la caja) al 75 (borde superior de la caja).
La lnea negra que viene remarcada se corresponde con el percentil 50 o mediana.
Los bigotes representan los casos mximo y mnimo.
(ojo cuando aparezca un * no se corresponden con mnimo y mximo).
DIAGRAMA DE TALLO Y HOJAS
Tallo Hojas
GRFICO DE NORMALIDAD
Valor observado
200 180 160 140 120 100 80
D
e
s
v
.

d
e

n
o
r
m
a
l
0,75
0,50
0,25
0,00
-0,25
Grfico Q-Q normal sin tendencias de rea_de_contacto_pi_izquierdo
DIAGRAMA DE BARRAS AGRUPADAS
Y BARRAS DE ERROR
GRFICO DE LNEAS
Y DIAGRAMA DE DISPERSIN
DOS DIAGRAMAS DE LNEAS SUPERPUESTOS
Y DIAGRAMA DE DISPERSIN (REGRESIN LOGSTICA)
ESTADSTICA DESCRIPTIVA
BIVARIANTE
RELACIN ENTRE
VARIABLES Y REGRESIN
El establecimiento
de la correlacin
supone el primer
paso para predecir
una variable a partir
de la otra.

Fuerte relacin
directa.
30
40
50
60
70
80
90
100
140 150 160 170 180 190 200
Correlacin positiva Correlacin negativa
Incorrelacin
Cierta relacin
inversa
0
10
20
30
40
50
60
70
80
140 150 160 170 180 190 200
Incorrelacin
30
80
130
180
230
280
330
140 150 160 170 180 190 200
COEFICIENTES DE CORRELACIN
Si las dos variables son:
Distribuciones Paramtricas (de intervalo u ordinal):
coeficiente de correlacin de Pearson
Distribuciones No Paramtricas (de intervalo u ordinal):
coeficiente de correlacin Spearman
Variables Nominales: coeficiente de contingencia
Analizar/ Estadsticos descriptivos/ Tablas de contingencia
Analizar/ Correlaciones/
Bivariadas
Analizar/ Correlaciones/
Bivariadas
COEF. CORREL. DE PEARSON
(VARIABLES CUANTITATIVAS PARAMTRICAS)
Medida de la asociacin lineal entre dos variables.
Sus valores se encuentran comprendidos entre -1 y 1.
El signo del coeficiente indica la direccin de la relacin y su valor absoluto
indica la fuerza.
Los valores mayores indican que la relacin es ms estrecha.
Un valor positivo indica que a puntuaciones por encima de la media en una
de las variables le corresponden puntuaciones tambin por encima de la
media en la otra variable, y viceversa.
Un valor negativo seala que a puntuaciones por encima de la media en una
de las variables le corresponden puntuaciones tambin por debajo de la
media en la otra variable, y viceversa.
Un valor igual o cercano a cero indica que no existe relacin lineal entre las
variables, aunque puede existir cualquier otro tipo de relacin no lineal.
Analizar/ Correlaciones/ Bivariadas
Analizar/ Correlaciones/ Bivariadas
COEF. CORREL. DE PEARSON
(VARIABLES CUANTITATIVAS PARAMTRICAS)
COEF. CORREL. RHO DE SPEARMAN
(VARIABLES CUANTITATIVAS NO PARAMTRICAS)
Versin no paramtrica del coeficiente de correlacin de Pearson
Se basa en los rangos de los datos en lugar de hacerlo en los valores reales.
Resulta apropiado para datos ordinales, o los de intervalo que no satisfagan el
supuesto de normalidad.
El signo del coeficiente indica la direccin de la relacin y el valor absoluto del
coeficiente de correlacin indica la fuerza de la relacin entre las variables.
Los valores absolutos mayores indican que la relacin es mayor.
Es el coeficiente de correlacin de Pearson, pero aplicado despus de transformar las
puntuaciones originales en rangos.
Toma valores entre -1y 1, y se interpreta igual que el coeficiente de correlacin de
Pearson.
Se utiliza como alternativa al de Pearson cuando las variables estudiadas son ordinales
y/o se incumple el supuesto de normalidad.
Analizar/ Correlaciones/ Bivariadas
Analizar/ Correlaciones/ Bivariadas
COEF. CORREL. RHO DE SPEARMAN
(VARIABLES CUANTITATIVAS NO PARAMTRICAS)
TABLAS DE CONTIGENCIA
Permiten establecer si existe correlacin entre:
Dos variables cualitativas nominales (dicotmicas etc).
Cualquiera de las 2 puede ir en columnas o filas.
Dos variables cualitativas ordinales. Cualquiera de las 2 puede ir
en columnas o filas.
Una variable cuantitativa y otra nominal. Mejor poner la
cuantitativa en las filas y la cualitativa en las columnas.
Entramos en el SPSS EN Analizar/ Estadsticos descriptivos/ Tablas de
Contingencia. En el cuadro de dilogo que se abre seleccionamos la variable que
queremos que vaya en las columnas y cual en las filas. Despus entramos en la
pestaa estadsticos que nos permite 3 opciones fundamentalmente.
TABLAS DE CONTIGENCIA
Permite obtener el estadstico Chi-cuadrado.
Permite obtener correlaciones (coeficiente de correlacin de Pearson
o Rho de Spearman).
En el caso de comparar DOS VARIABLES NOMINALES pedimos el
coeficiente de contingencia.
Medida de asociacin basada en chi-cuadrado.
El valor siempre est comprendido entre 0 y 1 (tambin puede ser
negativo).
El valor 0 indica que no hay asociacin entre las variables.
Valores cercanos a 1 indican que hay gran relacin entre las variables.
TABLAS DE CONTIGENCIA
(CORRELACIONANDO DOS VARIABLES NOMINALES)
Ejemplo: matriz faltar a clase (si o no) segn sexo (26 hombres frente
a 26 mujeres).
TABLAS DE CONTIGENCIA
(CORRELACIONANDO DOS VARIABLES ORDINALES)

En el caso de comparar dos variables ordinales pedimos en Analizar/
Estadsticos descriptivos/ Tablas de Contingencia/ Estadsticos ordinal el
coeficiente Gamma.
Gamma es una medida de asociacin simtrica entre dos variables
ordinales cuyo valor siempre est comprendido entre -1 y 1.
Los valores prximos a 1, en valor absoluto, indican una fuerte relacin
entre las dos variables.
Los valores prximos a cero indican que hay poca o ninguna relacin
entre las dos variables.

TABLAS DE CONTIGENCIA
(CORRELACIONANDO DOS VARIABLES ORDINALES)

Ejemplo: matriz ingresos
(ninguno, escasos,
moderados o elevados)
segn edad del sujeto
(nio, adolescente, joven,
adulto joven, adulto
mediana edad).
TABLAS DE CONTIGENCIA
(CORRELACIONANDO DOS VARIABLES ORDINALES)
Ejemplo: matriz ingresos (ninguno, escasos, moderados o elevados) segn edad del
sujeto (nio, adolescente, joven, adulto joven, adulto mediana edad).
TABLAS DE CONTIGENCIA
(CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE
DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)

Cuando una variable es categrica y la otra es cuantitativa
empleamos el estadstico Eta.

La variable categrica debe codificarse numricamente.

Eta. Medida de asociacin cuyo valor siempre est comprendido
entre 0 y 1.

El valor 0 indica que no hay asociacin entre la variable de fila (la
cuantitativa) y de columna (la cualitativa nominal).

Los valores cercanos a 1 indican que hay gran relacin entre las
variables.

Se calculan dos valores de eta: uno trata la variable de las columnas
como una variable de intervalo; el otro trata la variable de las filas
como una variable de intervalo.
TABLAS DE CONTIGENCIA
(CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE
DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)

Ejemplo: matriz piernas (relacin entre el ngulo tibio-tarsiano anterior con el suelo
o ngulo Rebollo y la longitud del miembro inferior medida como variable nominal
dicotmica: pierna corta o larga).
TABLAS DE CONTIGENCIA
Las Tablas de Contingencia, adems de todo lo
anterior, nos permiten obtener otros muchos
estadsticos, entre ellos el NDICE KAPPA DE
COHEN que ya hemos comentado y que nos
permite calcular la FIABILIDAD DE LA
MEDICIN DE UNA VARIABLE
CUALITATIVA.
ESTADSTICA INFERENCIAL
HIPTESIS ESTADSTICAS
Cuando investigamos, buscamos generalizar los resultados,
lo cual va a ser posible con la estadstica inferencial.
Partimos de hiptesis cientficas, que son traducidas a
hiptesis estadsticas.
Las hiptesis estadsticas son PROPOSICIONES ACERCA de
parmetros de la poblacin, tales como la media, varianza,
correlacin, etc.
Dos tipos de hiptesis estadsticas:
Hiptesis nula (H
0
): generalmente supone la negacin de la
hiptesis de contraste.
Hiptesis alternativa (H
1
): supone la afirmacin de la hiptesis
que deseamos someter a contraste.
Por ejemplo: Los ingresos del hombre (IH) son > que los de la mujer (IM)
H
0
IH IM H
1
IH > IM
DECISIN ESTADSTICA
Basndonos en la distribucin muestral del estadstico de contraste
podemos conocer cul es el valor esperado para esa distribucin bajo
la hiptesis nula. En consecuencia, compararamos nuestro valor
observado con el esperado para decidir si rechazamos o no la
hiptesis nula.
Regin de rechazo: regin formada por los valores que se alejan del valor
esperado bajo H
0
.
Regin de aceptacin: regin formada por los valores que no se alejan
tanto del valor esperado bajo H
0.
Valores crticos: valores del estadstico de contraste que delimitan la
regin del rechazo
Contraste bilateral: cuando los valores se alejan de lo esperado bajo H
0
,
por ser muy grandes y por ser muy pequeos.
Contraste unilateral: cuando los valores se alejan de lo esperado bajo
H
0
, solo por ser muy grandes o slo por ser muy pequeos.
Nivel de significacin: probabilidad de que una muestra genere un valor
del estadstico de contraste que est dentro de la regin de rechazo.
Nivel de confianza: probabilidad de que una muestra genere un valor del
estadstico de contraste que est fuera de la regin de rechazo, es decir
que est dentro de la regin de aceptacin (1- ).
DECISIN ESTADSTICA
DECISIN ESTADSTICA
Cuatro situaciones posibles al realizar un test de hiptesis:
Realidad
H
0
verdadero
H
1
Falso
H
0
Falso
H
1
verdadero



Decisin que
toma el
investigador
Acepto H
0


Rechazo H
1



Acierto
Error
O
De Tipo II
Rechazo H
0

Acepto H
1


Error
O
De Tipo I
Acierto
(Potencia )
DECISIN ESTADSTICA
Error : Probabilidad de aceptar H
1
siendo falsa.
Error : Probabilidad de aceptar la H
0
siendo falsa.
Ejemplo: realizo un test para saber si los sujetos de la muestra
padecen una patologa determinada.
H
0
: No padecer la enfermedad. H
1
: Padecer la enfermedad.
Error probabilidad de que el test de positivo y el paciente realmente
no tenga la enfermedad. Es lo que denominamos FALSO POSITIVO.
Al valor 1- se le denomina NIVEL DE CONFIANZA.
Error , el test me ha dado negativo y el paciente padece realmente la
enfermedad. Es lo que denominamos FALSO NEGATIVO.
Al valor 1- se le denomina POTENCIA DEL CONTRASTE.

PROCESO DE DECISIN ESTADSTICA
1. Formular hiptesis nula (H
0
) y alternativa (H
1
)
2. Fijar el nivel de significacin (0,05 o 0,01)
3. Elegir el estadstico adecuado de contraste (t-student ...)
4. Determinar el valor del estadstico de contraste
5. Comprobar si el valor observado este dentro de la regin de
aceptacin (es decir que es < o > que o lo que es lo mismo
que este por encima o por debajo del nivel de significacin 1-
).
6. Decidir si se rechaza o se mantiene la H
0
(si me sale 0,02
acepto la H
1
y rechazo la H
0
).

7. Interpretar el resultado de acuerdo con el problema
NIVEL DE SIGNIFICACIN
NIVEL DE SIGNIFICACIN p
El nivel de significacin fija el lmite mximo que puede
tomar esta p, mientras que el grado de significacin es la
probabilidad (el %) exacta de que habiendo aparecido estos
valores sea cierta la H
0

PRUEBA PARAMTRICA O NO PARAMTRICA?
SUPUESTOS PARAMTRICOS
Pruebas paramtricas: referidas a parmetros
poblacionales. SIGUEN LA NORMAL.
Pruebas no paramtricas: no hacen ningn supuesto
acerca de la forma en la que fue extrada la muestra de la
poblacin. NO SIGUEN LA NORMAL.

SUPUESTOS PARAMTRICOS:
1. Las variables han de ser CUANTITATIVAS continuas o discretas,
medidas, al menos, en una escala de intervalo.
2. La muestra procede de una poblacin en la que las variables
SIGUEN una distribucin NORMAL.
3. Se cumple la homocedasticidad de varianzas (es decir IGUALDAD
DE VARIANZAS).
4. La MUESTRA tiene un tamao GRANDE ( 30)
PRUEBA PARAMTRICA O NO PARAMTRICA?
SUPUESTOS PARAMTRICOS
SUPUESTOS PARAMTRICOS:

5. Las observaciones son independientes entre s.
La seleccin de un caso cualquiera de la poblacin con
miras a incluirlo en la muestra no debe afectar a las
posibilidades de incluir a cualquier otro caso, y la
puntuacin que se asigne a un caso cualquiera no debe
influir en la puntuacin que se asigne a cualquier otro
caso.
PRUEBA PARAMTRICA O NO PARAMTRICA?
Las pruebas estadsticas de carcter PARAMTRICO son MS
PODEROSAS para rechazar la cuando H
0
debe ser rechazada.

Las PRUEBAS NO PARAMTRICAS son menos poderosas para
rechazar la cuando H
0
debe ser rechazada, pero ofrecen la
ventaja de que NO TIENEN QUE CUMPLIRSE TODOS LOS
SUPUESTOS PARAMTRICOS.

Las variables cuantitativas pueden ser paramtricas o no
paramtricas.
Las variables cualitativas difcilmente pueden ser paramtricas.
Prueba T de Student
Para una muestra
Para muestras independientes
Para muestras relacionadas
ANOVA de un factor
PRUEBAS PARAMTRICAS
Analizar/ Comparar medias/
El procedimiento Prueba T para una muestra contrasta si la media
de una sola variable difiere de una constante especificada.

Ejemplos. Un investigador desea comprobar si la puntuacin media del
coeficiente intelectual de un grupo de alumnos difiere de 100.

O bien, un fabricante de copos de cereales puede tomar una muestra de
envases de la lnea de produccin y comprobar si el peso medio de las
muestras difiere de 1 Kg con un nivel de confianza al 95%.
Prueba T de Student para una
muestra
Analizar/ Comparar medias/ Prueba T para una muestra
Ejemplo: comparo si el nmero de sesiones que reciben los sujetos difiere
de 9.
Prueba T de Student para una
muestra
Analizar/ Comparar medias/ Prueba T para una muestra
La Prueba T para muestras independientes compara las medias de dos grupos de casos de una
variable.

Los sujetos deben asignarse aleatoriamente a dos grupos, de forma que cualquier diferencia en la
respuesta sea debida al tratamiento (o falta de tratamiento) y no a otros factores.

Este caso no ocurre si se comparan los ingresos medios para hombres y mujeres. El sexo de una
persona no se asigna aleatoriamente.

Debemos asegurarse de que las diferencias en otros factores no enmascaren o resalten una
diferencia significativa entre las medias. Las diferencias de ingresos medios pueden estar
sometidas a la influencia de factores como los estudios (y no solamente el sexo).

La prueba emplea una variable de agrupacin con dos valores para separar los casos en dos
grupos.

La variable de agrupacin puede ser numrica (valores como 1 y 2, o 6,25 y 12,5) o de cadena corta
(como s y no). Tambin puede usar una variable cuantitativa, como la edad, para dividir los casos
en dos grupos especificando un punto de corte (el punto de corte 21 divide la edad en un grupo de
menos de 21 aos y otro de ms de 21)
Prueba T de Student para
muestras independientes
Analizar/ Comparar medias/ Prueba T para muestras independientes
Prueba T de Student para
muestras independientes
Analizar/ Comparar medias/ Prueba T para muestras independientes
Ejemplo: analizo el nmero de sesiones que son necesarias para que
desaparezca el dolor al aplicar TENS continuo frente a TENS pulstil.
Prueba T de Student para
muestras relacionadas
Analizar/ Comparar medias/ Prueba T para muestras relacionadas
El procedimiento Prueba T para muestras relacionadas compara las
medias de dos variables de un solo grupo.

El procedimiento calcula las diferencias entre los valores de las
dos variables de cada caso y contrasta si la media difiere de 0.

Ejemplo. En un estudio sobre la efectividad analgsica de una
corriente TENS, se evala el dolor (escala E.V.A.) a todos los
pacientes al comienzo del estudio (PRETEST), se les aplica un
tratamiento y se evala el dolor otra vez (POSTEST).

LAS DOS VARIABLES deben ser CUANTITATIVAS.
Prueba T de Student para
muestras relacionadas
Analizar/ Comparar medias/ Prueba T para muestras relacionadas
El procedimiento ANOVA de un factor genera un anlisis de varianza de un
factor para una variable dependiente cuantitativa respecto a una nica
variable de factor (la variable independiente).

El anlisis de varianza se utiliza para contrastar la hiptesis de que varias
medias son iguales.

Esta tcnica es una extensin de la prueba t para dos muestras.

Adems de determinar que existen diferencias entre las medias me dice qu
medias difieren y cuanto difieren.

Dos contrastes: a priori y post hoc.

ESTA PRUEBA SE EMPLEA POR EJEMPLO PARA COMPARAR LA
EFECTIVIDAD DE UN TRATAMIENTO CON DOS O MS MODALIDADES
(UNA EN CADA UNO DE LOS GRUPOS 2 O +). En este caso Post Hoc.
Prueba Anova de un factor
Analizar/ Comparar medias/ Anova de un Factor
PRUEBAS NO PARAMTRICAS
Analizar/ Pruebas no paramtricas/
1) Prueba Chi-cuadrado: podra utilizarse para determinar si una bolsa de
caramelos contiene igual proporcin caramelos de color azul, marrn, verde,
naranja, rojo y amarillo o tambin podra utilizarse para ver si una bolsa de
caramelos contiene un 5% de color azul, un 30% de color marrn, un 10% de
color verde, un 20% de color naranja, un 15% de color rojo y un 15% de color
amarillo.

2) Prueba Binomial: compara las frecuencias observadas de las dos categoras de
una variable dicotmica con las frecuencias esperadas en una distribucin
binomial con un parmetro de probabilidad especificado. Ejemplo: lanzo una
moneda al aire 40 veces y anoto los resultados (cara o cruz). Debera haberme
salido 50% cara y 50% cruz, pero me ha salido 25% cara y 75% cruz. Al hacer la
prueba binomial me sale que no hay significacin, es decir que la moneda est
trucada.

3) Prueba de Rachas: contrasta si es aleatorio el orden de aparicin de dos
valores de una variable. Una racha es una secuencia de observaciones similares.
Una muestra con un nmero excesivamente grande o excesivamente pequeo de
rachas sugiere que la muestra no es aleatoria. Ejemplo encuesta en la que todo
los sujetos son mujeres.
PRUEBAS NO PARAMTRICAS
Analizar/ Pruebas no paramtricas/
4) Prueba de Kolmogorov-Smirnov para una muestra: compara si la
distribucin de una variable se ajusta a una distribucin terica determinada, que
puede ser la NORMAL, la uniforme, la de Poisson o la exponencial.

5) Prueba para dos muestras independientes (U de Mann-Whitney): es la
versin no paramtrica de la prueba T Student para muestras independientes
(equivale a esta prueba). Compara dos grupos de casos existentes en una
variable. Por ejemplo: analizo la disminucin del dolor al aplicar TENS continuo
frente a TENS pulstil.

6) Prueba para Varias muestras independientes. H de Kruskal-Wallis: es
el anlogo no paramtrico del anlisis de varianza (ANOVA) de un factor. Nos
permite comparar la efectividad de un tratamiento con dos o ms modalidades
(una en cada uno de los grupos 2 o +).
PRUEBAS NO PARAMTRICAS
Analizar/ Pruebas no paramtricas/
7) Prueba para Dos Muestras Relacionadas o Prueba de los Rangos con
Signos de Wilcoxon, Prueba de McNemar ... etc.: es la anloga no
paramtrica a la prueba T Student para muestras relacionadas. Podemos usar la
prueba de WILCOXON PARA EVALUAR SI EL DOLOR DISMINUYE (PRETEST EN
RELACIN AL POSTEST) AL APLICAR UN TRATAMIENTO.

Tambin podemos emplear la PRUEBA DE MCNEMAR: prueba no paramtrica
para DOS VARIABLES DICOTMICAS RELACIONADAS. Contrasta los cambios en
las respuestas utilizando la distribucin de chi-cuadrado. Es til para detectar
cambios en las respuestas debidas a la intervencin experimental en los diseos
del tipo "antes-despus". Para las tablas cuadradas de mayor orden se informa
de la prueba de simetra de McNemar-Bowker.

LA PRUEBA DE HOMOGENEIDAD MARGINAL es una prueba no paramtrica para
DOS VARIABLES ORDINALES RELACIONADAS. Se trata de una extensin de la
prueba de McNemar a partir de la respuesta binaria a las respuestas
multinominales. Contrasta los cambios de respuesta, utilizando la distribucin de
chi-cuadrado, y es til para detectar cambios de respuesta causados por
intervencin experimental en diseos antes-despus.
PRUEBAS NO PARAMTRICAS
Analizar/ Pruebas no paramtricas/
8) Prueba para Varias o K Muestras Relacionadas. Pruebas de Friedman
y Prueba Q de Cochran.

Prueba de Friedman es el equivalente no paramtrico de un diseo de medidas
repetidas para una muestra o un anlisis de varianza de dos factores con una
observacin por casilla.
Las variables en este caso se medirn en una escala ordinal.
Diferencias entre dos series de puntuaciones.

Prueba Q de Cochran Contraste no paramtrico de la hiptesis de que varias
variables dicotmicas relacionadas tienen la misma media. Las variables medirn
al mismo individuo o a individuos emparejados.
Las variables en este caso se medirn en una escala nominal u ordinal.
Analizamos la existencia de diferencias entre dos series de puntuaciones.

PRUEBAS NO PARAMTRICAS
MUESTRAS
ESCALA DE
MEDIDA
TIPO DE
CONTRASTE
PRUEBA NO
PARAMTRICA
Una muestra
intervalo
La forma de distribucin
una variable (bondad de
ajuste)
Kolmogorov-Smirnov

Dos muestras

Ordinal

Diferencias entre muestras
Wilcoxon (muestras
relacionadas)
Mann-Whitney
(muestras
independientes)
K muestras
independientes
Nominal
Diferencias entre muestras
Chi-cuadrado
Ordinal Kruskal-Wallis

K muestras
relacionadas
Nominal u ordinal Diferencias entre dos
series de puntuaciones
Cochran
Ordinal Diferencias entre muestras Friedman
Analizar/ Pruebas no paramtricas/
PRUEBAS PARA DOS MUESTRAS
INDEPENDIENTES
VI cualitativa
2 muestras
independientes

VD Supuestos Pruebas Objetivos
Cualitativa

2
Chi-cuadrado
La distribucin de casos
en las categoras de la VD
cambia en funcin de los
valores de la VI?
Ordinal
U de Mann-
Whitney
Los rangos de la VD se
distribuyen de forma
similar en los distintos
valores de la VI?
Cuantitativa
VD Normal
Homocedstica
t-Student
F del Anova
t
2
= F
Las medias de la VD son
similares en los distintos
valores de la VI?
VD Normal no
Homocedstica
t o F de Welch
Las medias de la VD son
similares en los distintos
valores de la VI?
VD NO Normal
U de Mann-
Whitney
Los rangos de la VD se
distribuyen de forma
similar en los distintos
valores de la VI?
CALCULANDO EL TAMAO DEL EFECTO
Prueba Medida Frmula Peq Medio Grande
Chi-cuadrado
Coeficiente de
Contingencia
r

2
=
2
=
2
/N
0,10 0,30 0,50
t de Student
Diferencia de
medias
estandarizada
d = 2t/gl 0,20 0,50 0,80
F del Anova
(F de Snedecor)
Eta o R cuadrado R
2
= F/(F+gl) 0,01 0,06 0,14
DATOS QUE DEBEMOS APORTAR EN UN INFORME
Prueba Datos de la prueba Datos descriptivos
Chi-cuadrado
2
(gl,N = ...) = ... , p = ... ,
2
= ...

Frecuencias o porcentajes de las
categoras de una variable en
funcin de las categoras de la otra
t de Student t (gl) = ... , p = ... , d = ...
Medias y desviaciones tpicas de los
distintos grupos
F del Anova
(F de Snedecor)
F (gl1,gl2) = ... , p = ... , R
2
= ...
Medias y desviaciones tpicas de los
distintos grupos
Nota: si el contraste es a una cola hay que sealarlo indicando p (a
una cola) = ... / Recordar que si el contraste es a una cola hay que
dividir la p que me de entre 2 (en SPSS sale p=0,02 pongo p=0,01)
DATOS QUE DEBEMOS APORTAR EN UN INFORME
El contraste general entre los dos tratamientos continuo y pulstil, es decir, el
anlisis de los ndices de mejora, comparando ambos tratamientos, empleando la
prueba t-Student para muestras independientes (implementando realmente la prueba
de Welch al no existir igualdad de varianzas y ser heterocedsticas ambas
distribuciones de datos), as como la prueba U de Mann-Whitney muestra que existe
una diferencia estadsticamente significativa entre ambos tratamientos, siendo mejor
la pulstil (p < 0.05). Comprobamos en primer lugar la ausencia de diferencias
significativas entre las varianzas de error del diseo, F
Levene
(1, 899) = 15,567 (p =
0.000). El grupo tratado con corriente pulstil (media 1,99 DT 0,60) obtuvo una
disminucin del dolor significativamente superior a la del grupo tratado con
corriente continua (media 1,17 DT 0,37) t de Welch (648,831) = -23,674 p (a una
cola) = 0.000. Empleado para determinar el tamao del efecto el programa effect
size calculator (disponible en: http://www.uccs.edu/~faculty/lbecker/) obteniendo d
= 1,8588. Se trata de un valor de tamao del efecto elevado, que refleja la
importante diferencia existente a favor de la corriente pulstil. Este valor tambin lo
hemos obtenido al emplear la frmula: d = 2t/gl
DATOS QUE DEBEMOS APORTAR EN UN INFORME
Comprobacin del supuesto de homocedasticidad ( = 0,05):
Comprobamos en primer lugar la ausencia de diferencias significativas entre
las varianzas de error del diseo, F
Levene
(1, 94) = 0,009 (p = 0,923).

Contrastes bidireccionales ( = 0,05) con F y t:
Se encontraron diferencias estadsticamente significativas en el nmero de
sesiones efectuadas entre el grupo tratado con tens pulstil (M = 8,35 DT =
3,605) y el tratado con tens continuo (M = 10,29 DT = 3,567) F(1,94) = 7,005,
p = 0,010, R
2
= 0,069 [calculado R
2
=F/(F+gl)=7,005/(7,005+94)].

Se encontraron diferencias estadsticamente significativas entre el grupo que
recibi tens pulstil (M = 8,35 DT = 3,605) y el que recibi tens continuo (M =
10,29 DT = 3,567) t(94) = 2,647, p = 0,010, d = 0,55.
DATOS QUE DEBEMOS APORTAR EN UN INFORME
Contrastes unidireccionales ( = 0,05) con F y t:
El grupo que recibi tens pulstil (M = 8,35 DT = 3,605) obtuvo una media
significativamente inferior a la del grupo que recibi tens continuo (M = 10,29 DT =
3,567) F(1,94) = 7,005, p (a una cola) = 0,005, R
2
= 0,069.
El grupo que recibi tens pulstil (M = 8,35 DT = 3,605) obtuvo una media
significativamente inferior a la del grupo que recibi tens continuo (M = 10,29 DT =
3,567) t(94) = 2,647, p (a una cola) = 0,005, d = 0,55.
Contrastes bidireccionales ( = 0,01) con F y t:
Aunque el tamao del efecto encontrado result moderado R
2
= 0,069 las diferencias
entre los sujetos que recibieron tens pulstil (M = 8,35 DT = 3,605) y los que recibieron
tens continuo (M = 10,29 DT = 3,567) no resultaron significativas F(1,94) = 7,005, p =
0,010
Aunque el tamao del efecto encontrado result moderado d = 0,55 las diferencias
entre los sujetos que recibieron tens pulstil (M = 8,35 DT = 3,605) y los que recibieron
tens continuo (M = 10,29 DT = 3,567) no resultaron significativas t(94) = 2,647, p =
0,010.
DATOS QUE DEBEMOS APORTAR EN UN INFORME
Tras un procedimiento de muestreo no probabilstico a conveniencia, nuestra muestra est
conformada por un total de 44 individuos, con una edad media de 39,6818 aos con una
desviacin tpica (DT en adelante) de 5,97581 y los valores mnimos y mximos son 23 y 49
aos.
Las edades se distribuyen de forma normal cuando no consideramos el grupo de tratamiento.
Estadstico de Shapiro-Wilk = 0,955 (p = 0,081). Si consideramos cada grupo por separado
la variable edad tambin se distribuye normalmente. Estadstico de Shapiro-Wilk para el
grupo control = 0,934 (p = 0,147). Estadstico de Shapiro-Wilk para el grupo experimental =
0,967 (p = 0,633). Como el nmero de sujetos incluidos en cada grupo fue de 22 (por tanto
inferior de 30) empleamos tanto pruebas de carcter paramtrico como no paramtrico para
determinar la presencia/ausencia de sesgos en la distribucin de edades de los sujetos en
nuestros dos grupos. Los dos grupos son homogneos en relacin a la edad de los sujetos
(grupo control media 39.8636 aos DT=5.97053, grupo experimental media 39,5 y DT =
6,11594). No existe una diferencia significativa entre la edad de los dos grupos.
Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas
de error del diseo, F
Levene
(1, 42) = 0,138 (p = 0,712). El grupo control presenta una media
de edad no significativamente superior a la del grupo experimental, con una t de Student
(42) = 0,2 p (a una cola) = 0,843. En el grupo control el rango promedio fue de 23,27
mientras que en el experimental fue 21,73 U de Mann-Whitney = 225 (p = 0,689).
DATOS QUE DEBEMOS APORTAR EN UN INFORME
De los 44 pacientes estudiados en nuestro ensayo 14 son varones lo que
representa un 31,8%, mientras que 30 son mujeres (68,2%). Estos datos se
muestran de forma grfica en la figura xx. En el grupo control, al igual que en el
experimental hemos incluido un total de 7 hombres (31,8%) y 15 mujeres
(68,2%). Hemos comprobado, empleando la prueba Chi-cuadrado, que no hay
un sesgo en la distribucin por sexos de nuestros pacientes en los dos grupos
analizados. La proporcin de mujeres y de hombres incluidos en el grupo
control frente al grupo experimental son iguales X
2
(1,44) = 0,000, p = 1,000.
INVESTIGACIONES EN SALUD
Frenk,J.
(Modificado por Toledo, G.)
INVESTIGACION BIOMEDICA
(Nivel subindividual)
EN SISTEMAS DE SALUD
INVESTIGACION EN SALUD PUBLICA
(Nivel poblacional)
INVESTIGACION CLINICA
(Nivel individual)
DESCRIPTIVAS
EPIDEMIOLOGICA
EN POLITICAS
DE SALUD
ORGANIZACION DE S. S.
(Nivel micro
intraorganizacional)
Estudios
ecolgicos
EN SERVICOS
DE SALUD
POLITICAS DE SALUD
(Nivel macro o
interorganizacional)
Estudios de
mortalidad
proporcional
Estudios de
incidencia
Estudios de
prevalencia
ANALITICAS
OBSERVACIONALES

Encuestas
Transversales
EXPERIMENTALES O
DE INTERVENCION
Estudios de
Cohorte
Estudios de
Casos y
controles
ENSAYOS
COMUNITARIOS
ENSAYOS
DE CAMPO
ENSAYOS
CLINICOS
Clasificacin de las investigaciones en Salud
Estudio observacional Estudio experimental
direccin?
Estudio
analtico
Estudio
descriptivo
Estudio de
cohorte
Estudio de
casos y
controles
Estudio de
corte
tranversal
Ensayo
clnico
controlado
aleatorizado
Ensayo
controlado no
aleatorizado
asignacin
aleatoria?
grupo de
comparacin?
el investigador
manipul la exposicin?
Si No
Si No
Si
No
exposicin efecto exposicin efecto
exposicion = efecto
Exposicin Efecto
Exposicin Efecto
Estudio de cohorte
Estudio de caso-control
Exposicin
Efecto
Estudio de caso-control
Tiempo
Temporalidad de los estudios epidemiologicos

Você também pode gostar