Você está na página 1de 4

Resumen 3 reconocimiento

Unidad 9 Pruebas paramtricas


Definicin: Pruebas que su clculo implica una estimacin de
los parmetros de la poblacin con base en muestras
estadsticas
Cmo discernir? p/la utilizacin de las pruebas paramtricas
1) El nivel de medicin debe ser al menos de intervalo
2) Los datos de la muestra se obtienen de una poblacin
normalmente distribuida
3) La varianza de las dos muestras no son
significativamente diferentes, esto se conoce como el
principio de homogeneidad de la varianza
NOTA:
El punto 2 suele mal entenderse como: la muestra debe
distribuirse normalmente
La distribucin t de Student
Es una distribucin que mide la media de 1 poblacin
normalmente distribuida en 1 muestra, cuando es pequea.
Se basa en establecer 1 IC ?, utilizando 1 nivel de confianza y
grados de libertad, obteniendo valores de 1 tabla dada con
respecto a estas variables y aplicarla en la formula
Usos
1) Deterina el intervalo de confianza dentro del cual se puede
estimar la media de una poblacin
Para muestras pequeas (n <30).
2)Pruebahiptesis cuando una investigacin se basa en muest
reo pequeo
3) Para probar si 2 muestras provienen de 1 misma poblacin
Caractersticas
La distribucin t de student es una distribucin continua,
tiene forma de campana & La distribucin t de student es
simtrica respecto a su media
t de student para muestras independientes
Usos
Evala la diferencia significativa entre las medias de 2
grupos o 2 categoras dentro de 1 misma variable
independiente
Da 1 comparacin de 2 medias solo si las 2 muestras se
han sacado independientemente entre si
t de student para muestras apareadas
Anlisis de varianza de un camino
Valor de significancia est determinado al valor p, su relacin
El valor P
Es la probabilidad de obtener, segn la distribucin, (en este
caso la de la t de Student) un dato ms extremo que el que
proporciona el test
NOTA:
Refleja tambin la probabilidad de obtener tambin los
datos observados di fuese cierta la hiptesis nula [Ho]

Si p <0.05 Poco probable que se cumpla la hiptesis nula [Ho]


Si p >0.05 Se acepta la hiptesis nula [Ho]
Unidad 10 Pruebas no paramtricas
Pruebas de chi cuadrada, corregida de Yates y exacta de
Fisher
Las 2 son correcciones que se hacen a la distribucin ji
cuadrada [X2] para determinar si los datos obtenidos de 1
sola muestra presentan variaciones estadsticamente
significativas respecto de la hiptesis nula [Ho]
Usos
Usada para probar la fuerza de asociacin entre 2 variables
cualitativas
Usada para datos categricos
Usada cuando el total de observaciones exceda 20
El grupo de comparacin deber ser aproximadamente
igual
NOTA:
Se usa la correccin de Yates cuando los valores de Chicuadrara son muy bajos
H de Kruskal-Wallis
Nos permite decidir si puede aceptarse la hiptesis de que r
muestras independientes procedan de la misma poblacin o
de poblaciones idnticas con la misma mediana
Usos & Caractersticas
Probar si 1 grupo de datos proviene de 1 misma poblacin
Se emplea cuando se quieren comparar 3 o < poblaciones
Es equivalente a 1 ANOVA de 1 sola va
No requiere supuestos de normalidad
No requiere supuestos de varianza iguales (homogeneidad
de varianza)
Compara esencialmente los grados del promedio
observados para la r muestras, con los esperados bajo la
Hiptesis nula [Ho]
U de Mann-Whitney para muestras independientes
La prueba calcula el llamado estadstico U, cuya distribucin
para muestras con < 20 observaciones se aproxima bastante
bien a la distribucin normal
Pasos
Para efectuar la prueba, se combinan 2 muestras en 1
arreglo ordenado, identificando los valores muestrales, de
acuerdo con el grupo muestral al que pertenecen
Luego se determinar el tamao de las muestras (n1 y n2)
Si n1 y n2 son menores que 20, se consideran muestras
pequeas, pero si son mayores que 20, se consideran
muestras grandes
En caso de muestras grandes, calcular el valor Z, pues en
estas condiciones se distribuye normalmente
Despues se ordenan los valores de menor a mayor,
asignando el rango uno al valor ms pequeo.
Cuando se encuentran valores iguales (ligas o empates), se
le asigna el promedio de sus rangos
Se calculan los valores de U1 y U2, de modo que se elija el
ms pequeo para comparar con los crticos de U MannWhitney de la tabla de probabilidades asociadas con valores
pequeos como los de U en la prueba de Mann-Whitney
Luego se designa mediante U a la estadstica que se calcula
para realizar esta prueba y el cual se basa en el nmero de
veces que un puntaje de un grupo antecede a un puntaje de
otro grupo, si hay dos grupos
Y por ltimo decidir si se acepta o se rechaza la H

Resumen 3 reconocimiento
t de Wilcoxon para muestras apareadas
Bsicamente compara 2 muestras relacionadas
Usos
Al analizar datos obtenidos mediante el diseo antes y
despus (cada sujeto sirve como su propio control) o
pareado (cuando seleccionamos pares de sujetos y uno de
cada par, en forma aleatoria es asignado a uno de los tres
tratamientos)
Cuando la variable cuantitativa medida est nescala ordinal
Cuando la variable cuantitativa medida est en escala de
intervalos o de razn, pero las diferencias (d) de los pares
de datos no se distribuyen normalmente
Prueba de Friedman
En ese mtodo se estudian las pruebas no paramtricas ms
utilizadas para comparar ms de 2 variables relacionadas
Para resolver el contraste de hiptesis anterior, Friedman,
propuso 1 estadstico y se calcula mediante la siguiente
expresin:

Prueba de McNemar
Prueba de comparacin de proporciones para 2 muestras
relacionadas. Comparar el cambio en la distribucin de
proporciones entre 2 mediciones de una variable dicotmica
y determinar que la diferencia no se deba al azar (que las
diferencias sean estadsticamente significativa)
Caractersticas.
Los datos se ajustan a la distribucin de chi cuadrada [X2]
Nivel nominal de la variable dependiente
Unidad 11 Anlisis de riesgo
Qu es Odds? Es el cociente entre la probabilidad de que 1
evento suceda frente a la probabilidad de que no ocurra. Es 1
medida de efecto comnmente utilizada para comunicar los
resultados de una investigacin en salud
Son sinnimos de: Odds ratio = razn de probabilidad, razn
de productos cruzados, razn de momios
Odds ratio
Es una forma alternativa de representar la posibilidad
de ocurrencia de un evento de inters es mediante el uso
de odds, definidos como un cociente entre el nmero de
eventos y el nmero de "no eventos". Tambin, como una
medida epidemiolgica utilizada en los en los estudios de
casos y controles
Usando odds ratio [OR] pueden ser calculados en diseos
prospectivos, retrospectivos y transversales y en ciertas
condiciones pueden remplazar riesgos relativos, tambin
odds ratio [OR] es una forma alternativa de expresar
posibilidades de ocurrencia en un evento
Casos

Controles

Expuestos

No Expuestos

Por qu CALCULAR Odds Ratio & para qu es utilizado?


En primer lugar puede ser calculado en cualquier tabla 2 x 2,
mientras (VS) que el riesgo relativo [RR] NO se puede calcular
en los estudios caso-control
Permite examinar el efecto que otras variables pueden
causar en esa asociacin (como podran ser por ejemplo la
edad, el sexo, etc), ya que exp(coeficiente de la ecuacin de
regresin logstica) pueden ser interpretados como el odds
ratio de la variable correspondiente.
Una de las propiedades del odds ratio [OR] es que no vara
aunque se cambie el orden de las categoras en cualquiera
de las variables, lo que no ocurre con el riesgo relativo [RR]
Cuando los riesgos (odds) en ambos grupos son pequeos
(inferiores al 20 %) el Odds Ratio [OR] se aproxima bastante
al riesgo relativo [RR] pudiendo considerarse como una
buena aproximacin de ste
Riesgo relativo
Es la medicin del efecto derivado de la exposicin a 1
determinado factor en estudio se dispone de 2 tipos de
mediciones:
Mediciones relativas del efecto
Mediciones absolutas del efecto
Usos
1. Reconocer la naturaleza como factor de riesgo o de
proteccin de una exposicin
2. Identificar la magnitud o fuerza de la asociacin, lo que
permite hacer comparaciones
3. No puede utilizarse en los estudios de casos y controles
El riesgo relativo [RR], compara la frecuencia con que ocurre
el dao entre los que tienen el factor de riesgo y los que no lo
tienen. Para su clculo se utilizan los valores de incidencia
acumulada, correspondiendo al cociente entre la incidencia
en expuestos en relacin con la del grupo NO expuesto

Interpretacin
Cuando el RR es menor de 1 significa que aquellos sujetos
expuestos al factor en estudio (variable independiente)
tienen un menor riesgo de presentar el resultado (variable
dependiente)
Un valor mayor de 1 significa que la exposicin confiere 1
riesgo mayor
Un valor de 1 significa que el riesgo es el mismo en ambos
grupos
Riesgo absoluto
Cuando la comparacin se plantea en trminos de
diferencia entre los riegos absolutos de ambas poblaciones
(expuesta y no expuesta) se obtiene la reduccin absoluta
del riesgo, tambin denominada riesgo absoluto.
Esta es una medida de mucha utilidad cuando se pretende
comparar tratamientos o evaluar la eficacia de un
tratamiento. La frmula que se aplica es la siguiente:
RAR = Rne - Re
Riesgo atribuible
Mide la parte de riesgo que puede ser atribuible al factor en
estudio en la poblacin expuesta, restando la incidencia en
expuestos sobre la incidencia en no expuestos
Tambin mide el probable impacto en la salud de la
poblacin expuesta, si este factor se suprimiera

Resumen 3 reconocimiento
NO mide fuerza de asociacin. La frmula que se aplica es:
RA= Ie - Io
Cul es el riesgo estadstico que no mide fuerza de
asociacin? R = El riesgo atribuible
Unidad 12 Asociacin & Prediccin
Qu es una correlacin?
Es la herramienta que permite medir la intensidad de la
relacin que puede existir entre 2 variables. Qu tipo de
correlaciones hay?
Correlacin positiva: Significa que individuos que tienen
puntuaciones ALTAS en una variable tienden a obtener
puntuaciones ALTAS en la otra y viceversa puntuaciones
BAJAS en una variable obtienen puntuaciones BAJAS
Correlacin negativa: Significa que individuos que tienen
puntuaciones ALTAS en una variable tienden a obtener
puntuaciones BAJAS en la otra variable y viceversa
Correlacin nula: No existe dependencia entre las variables
Correlaciones: r de Pearson, rho de Spearman, tau b de
Kendall, coeficiente de contingencia
r de Pearson
Se utiliza en modelos de correlacin linean
Representado por la letra r
Proporciona una medida numrica de la relacin entre dos
variables cuantitativas
Nos indica si dos variables parecen estar correlacionadas o
no
El coeficiente de Pearson indica la fuerza de la aparente
relacin
El coeficiente nos indica si la aparente relacin es positiva o
negativa
Se mide en un a escala 0 al 1 tanto en direccin positiva
como negativa

r = 0, significa que, no hay ningn sentido de covarianza


s [RHO de Spearman] o
Coeficiente de Correlacin de Spearman
Diferencia con Pearson es que en esta utiliza valores medios
a nivel de una escala ordinal, es decir, si alguna variable
esta medida a nivel de escala de intervalo/razn se tendr
que pasar a una escala ORDINAL.
Se emplea cuando una o en ambas escalas de medidas son
ordinales
Es para dos variables por lo menos UNA DE ELLAS ES
ORDINAL. Los individuos u objetos se ordenan en jerarquas

Es una MEDICION lineal entre dos variables


Correlacin NO PARAMETRICA
Los datos se ordenan en rangos
A los puntajes mas altos les asignamos el valor uno al
siguiente el dos y as sucesivamente
La correlacin de Spearman se rige bajo las mismas reglas
de Pearson y las mediciones de este ndice 1 y -1 pasando
por cero. Se calcula mediante la siguiente ecuacin:

Tau b de Kendall
Usada cuando nuestros datos no son normales
Es una medida no paramtrica de asociacin para variables
ordinales o de rangos que tiene en consideracin los
empates
Pasos
1. Alinear las observaciones del rango menor al mayor de la
variable independiente (X), de manera que se deje el rango
que corresponde a la pareja de la variable dependiente (Y)
2. Obtener la puntuacin efectiva (S) en la variable
dependiente, en funcin del orden de ocurrencia de los
rangos de Y con respecto a X
3. Contar el nmero de parejas y aplicar la frmula
4. Calcular el nivel de significancia en funcin del valor Z, de
acuerdo con la ecuacin, presentada anteriormente
5. Una vez calculado el valor Z, se obtiene la probabilidad de
su magnitud en la tabla de coeficientes de correlacin en
niveles de p 0.05 y 0.01
Decidir si se acepta o rechaza la hiptesis
NOTA:
Recordar el, nivel de significacin, para todo valor de
probabilidad igual o menor que 0.05, se acepta Ha y se
rechaza Ho
NOTA:
Recordar la, zona de rechazo, para todo valor de
probabilidad mayor que 0.05, se acepta Ho y se rechaza Ha
Coeficiente de contingencia
Usada para medir asociacin o correlacin
Tipo de escala de medicin: NOMINAL
El coeficiente de contingencias se rige por las mismas reglas
de la correlacin
+ 1 a - 1, correlacin mxima. Cero no correlacin entre las
variables estudiadas
NOTA:
Recordar la, zona de rechazo,Todo valor de ji cuadrada
[X2] cuya probabilidad sea mayor que 0.05, o todo valor de ji
cuadrada [X2] con una probabilidad menor que 0.05, pero con
un coeficiente de contingencia cercano a cero
Anlisis de diagramas de dispersin
NOTA:
las grficas en la estadstica nos llev a la capacidad de
manejar datos y su fcil interpretacin
Qu es una regresin lineal?
Relacionar una variable dependiente y con las variables
independientes xn, es denominado como: modelos de
regresin o modelos estadsticos lineales

Resumen 3 reconocimiento
Regresin lineal simple
Tcnica estadstica para investigar la relacin funcional
entre dos o ms variables.
Utiliza una sola variable, es el modelo sensillo de una liena
recta.
X es la variable o variables independientes
Y es la variable de respuesta para cada valor especifico x de
X
La recta se obtiene mediante mnimos cuadrados
Regresin lineal mltiple
Utiliza ms variables. Por lo menos X, Y & Z
Se utiliza ms de una variable explicativa
Ventaja: podemos construir modlelos ms amplios y por
ende predicciones ms precisas
Las ecuaciones usadas en regresiones lineales mltiples
reciben el nombre de hiperplanos, pues cuando tenemos
dos variables explicativas, en vez de recta de regresin
tenemos un plano
Importante! Al tener ms variables explicativas no se emplea
el trmino independiente
Regresiones no lineales
Modelo: ecuacin o conjunto de ecuaciones que describen
el comportamiento de algn sistema. Ejemplo: el trabajo de
un reactor qumico, el crecimiento de algn animal, etc.
Hay fenmenos que no se explican mediante regresiones
lineales.
Encontramos este tipo de ejemplos en teoras qumicas y
fsicas
En qu regresin estadstica lineal no emplea el trmino
independiente? R = Regresin lineal mltiple
Unidad 13 Aplicaciones de la regresin logstica
Qu es? Un modelo de prediccin de probabilidad de
ocurrencia de una variable dicotmica categrica
Usos
Es una de las herramientas ms importantes en el rea de la
investigacin clnica y epidemiolgica que permite realizar
juicios bien fundamentados para determinar objetivos
Fundamento matemtico Explica una funcin sigmoidea con
variable nica de 0 y 1
Puntos importantes
Podemos introducir variables predictorias de la respuesta
Variables dependientes
Categricas
Cuantitativas
Tomndose en cuenta los coeficientes de regresin
podemos obtener el Odds Ratio [OR]
cierto riesgo
Y variable dependiente (la que se quiere modelar)
Anlisis de riesgo, paso a paso
Paso 1 Significacin de chi-cuadrado del modelo en la prueba
mnibus: Si la significacin es menor de 0,05 indica que el
modelo ayuda a explicar el evento, es decir, las variables
independientes explican la variable dependiente
Paso 2 R-cuadrado de Cox y Snell, y R-cuadrado
de Nagelkerke: Indica la parte de la varianza de la variable
dependiente explicada por el modelo. Hay dos R-cuadrados
en la regresin logstica, y ambas son vlidas. Se acostumbra
a decir que la parte de la variable dependiente explicada por
el modelo oscila entre la R-cuadrado de Cox y Snell y la R-

cuadrado de Nagelkerke. Cuanto ms alto es la R-cuadrado


ms explicativo es el modelo, es decir, las variables
independientes explican la variable dependiente
Paso 3 Porcentaje global correctamente clasificado: Este
porcentaje indica el nmero de casos que el modelo es capaz
de predecir correctamente. Me explico. En base a la ecuacin
de regresin y los datos observados, se realiza una prediccin
del valor de la variable dependiente (valor pronosticado).
Esta prediccin se compara con el valor observado. Si acierta,
el caso es correctamente clasificado. Si no acierta, el caso no
es correctamente clasificado. Cuantos ms casos clasifica
correctamente (es decir coincide el valor pronosticado con el
valor observado) mejor es el modelo, ms explicativo, por
tanto, las variable independientes son buenas predictorias
del evento o variable dependiente.
Si es modelo clasifica correctamente ms del 50% de los
casos, el modelo se acepta. Si no, punto y final y a volver a
empezar,
y seleccionaramos
nuevas
variables
independientes. Los siguientes pasos son para evaluar la
relacin de cada variable independiente con la variable
dependiente
Paso 4 Significacin de b: si es menor de 0,05 esa variable
independiente explica la variable dependiente
Paso 5 Signo de b: indica la direccin de la relacin. Por
ejemplo, a ms nivel educativo mayor probabilidad que
suceda el evento
Paso 6 Exp(b) exponencial de b: indica la fortaleza de la
relacin. Cuanto ms alejada de 1 est ms fuerte es la
relacin. Para comparar los exponenciales de b entre s,
aquellos que son menores a 1 deben transformarse en su
inverso o recproco, es decir, debemos dividir 1 entre el
exponencial de b (pero solo cuando sean menores a 1)
Anlisis binomial
Se usa cuando la variable dependiente es una variable
binaria, es decir, de solo dos categoras, tambin conocidas
como dummy o dicotmica
Anlisis multinomial
Se usa cuando la variable dependiente es una variable
nominal de ms de 2 categoras, de ah su
nombre multinomial

Você também pode gostar