Você está na página 1de 9

BIOESTADÍSTICA

Variables
1. Cualitativas: todas aquellas que resumen cualidades de las personas
(género, trabajo...). Tendremos que recoger el nombre de la cualidad. Se
representan por tablas de frecuencias y gráficos de barras, de sectores. Con
2 variables categóricas → Tablas de contingencia (d. marginales, conjunta y
condicionada → la de la leyenda es la que conocemos)
2. Cuantitativas (numéricas): aquellas que se pueden recoger en una
escala numérica (peso, estatura...)
2.1. Discretas: toman un conjunto finito de valores. Ej.: número de
hermanos de varias personas (0, 1, 2...). Se representan por Diagramas
de Barras y de Sectores.
2.2. Continuas: es aquella variable que puede tomar cualquier valor
dentro de un intervalo real. Ej.: estatura, peso. Se representan por:
 Diagramas de tallo hojas
 Histograma y polígono de frecuencias (el área total del histograma =
área total del polígono = 1)
 Diagrama de cajas (Mínimo, P25, Mediana, P75 y Máximo) con:
R.I. = P75 – P25; Bigotes → P75+(1,5 R.I.) y P25-(1,5 R.I.)
Se suelen hacer tablas de frecuencias:
1. Organizar varias clases o categorías (√𝒏). Amplitud constante.
Límites de las clases con el mismo nº de casas decimales.
(LS) de una clase
2. Fronteras de cada clase (FS = )
(LI) de la siguiente clase
𝐹𝑆−𝐹𝐼
3. Marcas de clase (MCi = )
2

4. Frecuencia absoluta (ni = nº de sujetos en cada clase)


5. Frecuencia relativa (f = ni / total de sujetos)
6. Frecuencia acumulada (F = la suma de los datos de una clase
más los que se encuentran en la anteriores) → Ojiva
Parámetro: cantidad numérica calculada sobre una población. (ej.: la altura
media de los individuos de un país).
Estadístico: cantidad numérica calculada sobre una muestra. (ej.: la altura
media de los alumnos de una clase).
 Central: Media: = ∑ xi / n (muy sensible a valores extremos)
Mediana: divide en 2 partes iguales (no es sens. a val. estr.)
Moda: valor más repetido
 Posición: Cuantiles: se define el cuantil de orden α como un valor
de la variable por debajo del cual se encuentra una frecuencia
acumulada α. (ej.: 0,36)
Percentiles: Pk = cuantil de orden k/100 (P50 = mediana).
Cuartiles: 1er cuartil = P25= cuantil 0,25
2o cuartil = P50 = cuantil 0,5 = Mediana
3o cuartil = P75 = cuantil 0,75
Deciles
 Dispersión: Amplitud: Max – Min (muy sens. a valores extremos)
Rango Intercuartílico: P75 – P25 (no sens. a val. extr.)
∑(𝑥𝑖−𝑥)2
Varianza (S2) = (muy sens. a valores extremos)
n

Desviación estándar (S) = √S 2 ; (±𝑆 = 0,68; ±2𝑆 =


0,95; ±3𝑆 = 0,99)
Coeficiente de Variación o Variabilidad : CF=S/Media
 Forma: Asimetría (Sesgo): Distribución Simétrica: Media = Mediana
Dist. c/ Asimetría Izda: Media < Mediana
Dist. c/ Asimetría Dcha: Media > Median

Apuntamento (Kurtosis):

Leptocúrtica (valores concentr.) g2>3 → kurtosis > 0

Mesocúrtica (como la normal): g2=3 → kurtosis = 0

Platicúrtica (aplanada, valores muy separados): g2<3 → kurtosis < 0


Probabilidad
1. Suceso elemental: cualquier acontecimiento que puede ocurrir como
resultado de un experimento. Se nombran con letras mayúsculas: A, B, C…
2. Relación entre sucesos: Intersección: A ᴖ B (A y B)→ Al mismo tiempo

Unión: A ᴗ B (A o B) → Uno u otro

Complementario o no A: (Ā) → A + Ā = 1

Disjunto (incompatible/mutuamente excluyente):


si hay A, no hay B → No hay intersección

Diferencia: A – B = P(A ᴗ B) – P(B)

Diferencia Simétrica: A ˄ B = P(AᴗB) – P(AᴖB)

Axioma de Probabilidad: P(AᴗB)=P(A)+P(B)-P(AᴖB)

3. Espacios Muestrales (E o Ω): conjunto de sucesos que pueden ser el


resultado de un experimento aleatorio. Tienen que ser exhaustivos y que
sean sucesos mutuamente excluyentes, que no haya intersección entre
ellos. P(Ω)=1
4. Tipos de espacios muestrales: Discretos: variables/sucesos discretos
Continuas: infinitos sucesos posibles
5. Probabilización: Subjetiva: damos el valor que creamos a ese suceso
𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑎 𝑅
Clásica/Laplace: P(R) =
𝑇𝑜𝑡𝑎𝑙 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠

𝑁º 𝑑𝑒 𝑒𝑥𝑝𝑒𝑟𝑖𝑚. 𝑐𝑜𝑛 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝑅


Frecuentista: P(R) =
𝑁º 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑟𝑒𝑝𝑒𝑡𝑖𝑐. 𝑑𝑒𝑙 𝑒𝑥𝑝𝑒𝑟𝑖𝑚.

6. Independencia: P (E, T) = P(E) · P(T) → Si no se cumple, hay asociación


 Independencia: Las d. marg. dan la d. conjunta
 Asociación: Las d. marginales. no dan la d.
𝑃(𝐸,𝑇)
conjunta → estimar Prob. Condicionada: P(E|T) =
𝑃(𝑇)
7. Parámetros Importantes: Test Diagnóstico (Clínica):
 Valor. Pred. Pos.: P(E|T) = P(E,T) / P(T) → prob. de q un individuo
esté enfermo sabiendo que el test fue Positivo.
 Valor. Pred. Neg.: P(Ē|Ṯ) = P(Ē,Ṯ) / P(Ṯ) → prob. de q un individuo
no esté enfermo sabiendo que el test fue Negativo.
Medir efectividad de los test (Laboratorio):
 Sensibilidad P(+|E): P(T|E) = P(T,E) / P(E) → prob. de q un enfermo
de Positivo al realizar el test diagnóstico.
 Especificidad P(-|Ē): P(Ṯ|Ē) = P(Ṯ,Ē) / P(Ē) → prob. de que una
persona no enferma de Negativo, al realizar el test diagnóstico.
 Falso Negativo (1-Sensibil.) P(-|E): P(Ṯ|E) → prob. de que un
enfermo de Negativo, al realizar el test diagnóstico.
 Falso Positivo (1-Especif.) P(+|Ē): P(T|Ē) → prob. de que un sano
de Positivo, al realizar el test diagnóstico.
8. Probabilidades Condicionadas: = 0 (Independentes): P(E,T)=P(E).P(T)
P(E|T) = P(E); P(T|E) = P(T)
= 1 (Asoc. Perfecta) → Patognomónico
entre 0 y 1 → Clínica

9. Teorema de Bayes: Valor Pred. Pos., Sensibilidad, Prevalencia, FPos.

𝑃(𝐸, 𝑇) 𝑃(𝐸, 𝑇) 𝑃(𝑻|𝑬) · P(E)


𝑷(𝑬|𝑻) = = =
𝑃(𝑇) 𝑃(𝐸, 𝑇) + 𝑃(Ē, 𝑇) 𝑃(𝑻|𝑬) · P(E) + 𝑃(𝑇|Ē) · P(Ē)
Distribuciones de Probabilidad
1. Variables Discretas y Continuas → Espacios Muestrales Discretos y
Continuos
2. Frecuencia Relativa → Función de Densidad (Cont.) o Función
Cuantía (Disc.): f(x) = P[X=x] → Repres.: (Disc.: Diagrama de Barras;
Cont.: Histograma y Polígono de Frecuencias P[a≤X≤b] = F[b] - F[a] =
𝒃
∫𝒂 𝒇(𝒙)𝒅𝒙 )
3. Frecuencia Acumulada → Función de Distribución: F(x) = P[X≤x] →
Repres.: Ojiva (Disc.: a saltos; Cont.: contínua)
4. Función de Supervivencia: S(x) = 1 – Función de Distribución = 1 – F(x)
= P[X≥x] → Repres.: Ojiva inversa
5. Media → Esperanza Matemática

Modelos de Probabilidad
1. Bernoulli: 1 experimento → 2 resultados
Ω=[E→X=1(éxito); F→X=0(fracaso)]
Función Cuantía: f(1) = P[X=1] = p (prob. de éxito)
Muestreo con f(0) = P[X=0] = q =(1 – p) (prob. de fracaso)
replazamiento Función Distribución: F(1) = P[X≤1] = p + q = 1
F(0) = P[X≤0] = (1 – p)
μx = E[X] = p | σ2x(varianza)=p.q | σx=√𝑝. 𝑞
2. Binomial: n experimentos de Bernoulli, de forma independiente.
Para cada exper. una variable dicotómica X(1,2,…n) que toma
valores 1(éxito) o 0(fracaso).
X1+X2+…Xn = X = nº de éxitos en n pruebas
X ≈ Bi(n,p) | 0≤X≤n n=nº pruebas indep. | p=prob. éxito en cada prueba n
Función Cuantía: f(x) = P[X=x] = 𝐶𝑛𝑥 . 𝑝 𝑥 . (1 − 𝑝)(𝑛−𝑥) Stata: di
binomialp(n,x,p)
𝑥
Función Distribución: F(x) = P[X≤x] =∑𝑘=0 𝐶𝑛𝑘 . 𝑝𝑘 . (1 − 𝑝)(𝑛−𝑘)
Stata: di binomial(n,k,p)
𝒏 𝒏!
Donde: 𝐶𝑛𝑘 = =
𝒌 𝒌!(𝒏−𝒌)!

μx = E[X] = n.p | σ2x(varianza)=n.p.q | σx=√𝑛. 𝑝. 𝑞

3. Poisson: Dist. discreta más utilizada de la binomial, para p<0.01


Se utiliza para var. discretas, q toman valores entra 0 e infinito.
λ: tasa de nº de éxitos entre unid. de tiempo, superficie, espacio
t: amplitud del intervalo considerado en unid. de tiempo, superf.
μx = σ2x = λ.t | σx= √ μx = √ σ2x = √ λ.t
Función de Densidad: f(x) = P[X=x] = 𝑒 −μ . (μx / x!), x=0,1,2…
Stata: di poissonp(μ,x)
−μ
Función de Distrib.: F(x) = P[X≤x] = ∑𝑥𝑘=0 𝑒 (μk / k!) , x=0,1,2…
Stata: di poisson(μ,k)
Tablas de Distr. de Poisson → F. Cuantía: se calcula la media,
y la utilizamos (columna) juntamente con x (fila).
4. Normal: Principal distribución para var. continuas. Entre -∞ y +∞.
f(x) es siempre positiva. Area bajo f(x) = 1.
X ~ N(μ, σ)
 Normal Estándar: Media=0, Desviación Estándar=1
𝑋− μ
Z= ~ N (0,1) → Muy raro: -3>Z>3
σ
5. Aproximaciones: Binomial a Poisson (Límite I): n → +∞, y p muy peqño
Poisson a Normal (Límite II): μ>10
Binomial a Normal (Límite III): nxp>5
Asociación: Var. Cuantitativas Numericas
Modelo de Regresión: 2 variables: ej. peso y perímetro torácico: 2 metodos
1. Estudio Grafico: Diagramas de Dispersión: Nube (0): asociación nula;
Nube (Alargada): pendiente positiva → asoc. positiva / negativa → negativ.
2. Estudio Analitico: Calcular media y d.est.; las medias de las 2 variables
se cruzan en el centro de gravedad
 Covarianza (Sx,y): medida de dispersión respecto al centro de
gravedad
 Coeficiente de Correlación (Pearson): entre -1 y +1. Cuanto
más se acerquen al cero menos asociación habrá. Hablaremos de una
asociación significativa a partir de +/-0,8
𝑆𝑥,𝑦 𝑆𝑦
3. Modelo de Regresión Lineal: y=ax+b → b = = rx,y .
𝑆𝑥^2 𝑆𝑥

→R 2
x,y =r 2
x,y . 100
Stata:1. Para hacer el análisis mediante stata haremos un diagrama
de dispersión: Gráficos - Twoway graph Scatter.

2.Calcularemos las medias y editaremos el grafico para añadir las


líneas de referencia, así tendremos el punto de gravedad

3.Haremos el análisis de regresión Statistics - Lineal models - Lineal


regressions. Obtendremos la pendiente b y la constante a.

Estadística Inferencial
Muestreo aleatorio simple mediante tablas. Este se puede hacer con o sin
reemplazamiento

Muestreo sistemático, estratificado y por conglomerados

Inferencia: dar un salto de la muestra a la población, tomando los


resultados de la primera. Ese salto va a implicar siempre el error aleatorio.

Sesgo de selección = error sistemático

 Dos tipos de sesgos:

Sesgos o errores sistemáticos  si hay P= 0 de ser incluido. No es


representativa, hay un sesgo de selección
Sesgo de información  si no recogemos la información de forma
idéntica en todos los individuos podemos estar cometiendo un sesgo
de información

Você também pode gostar