Escolar Documentos
Profissional Documentos
Cultura Documentos
∑ (x i − x)
2
s2 = i =1
n −1
La varianza es la suma de los cuadrados de las desviaciones respecto de la media de
cada dato, dividido la cantidad de muestras menos uno. El cuadrado elimina las
cancelaciones por signos opuestos.
La Desviación Estándar es la raíz cuadrada positiva de la varianza.
n
∑ (x
2
− x)
s= i =1
i
n −1
xσ n −1
n
s 2 = i =1
n −1
∑ (x
2
i − µ)
σ2 = i =1
∑ (x
2
− µ)
σ= i =1
i
N
xσ n
Coeficiente de Variación:
s
cv =
x
Medidas de posición:
Cuartiles:
la mediana. El tercer cuartil ( q3 ) tiene aproximadamente las tres cuartas partes de las
observaciones iguales o por debajo de él y la cuarta parte restante iguales o por encima.
Si más de un valor satisface la definición de un cuartil, se utiliza el promedio de ellos
como cuartil.
Rango Intercuartílico:
RIC = q3 − q1
El rango intercuartílico es menos sensible a los valores extremos que el rango
total.
Percentiles:
Procedimiento de cálculo:
1) Encontrar i = n.k . Si nk no es un entero, entonces i es el siguiente entero más
grande. Si nk es entero, i es igual a nk + 0,5 .
2) El percentil p k será el valor de la muestra ubicada en la posición i (si la
posición tiene una parte decimal de 5 décimos, el percentil es el promedio entre
x(nk ) y x(nk +1) )
Correspondencia:
q1 = p 0, 25 , q 2 = p 0,50 = ~
x , q 3 = p 0,75
Deciles:
Correspondencia:
d 1 = p 0,10 , d 2 = p 0, 20 ,…, d 5 = p 0,50 = q 2 = ~
x ,…, d 9 = p 0,90
Representación gráfica:
Diagrama de puntos:
El diagrama de puntos es una gráfica muy útil para visualizar un conjunto pequeño de
datos; por ejemplo, de unas 20 observaciones. La gráfica permite distinguir a simple
vista la tendencia central de los datos y su variabilidad.
El diagrama de tallo y hojas es una buena manera de obtener una presentación visual
informativa del conjunto de datos donde cada número está formado al menos por dos
dígitos. Para construirlo, los números se dividen en dos partes: un tallo, formado por
uno o más de los dígitos principales, y una hoja, la cual contiene el resto de los dígitos.
En general debe escogerse un número relativamente pequeño de tallos en comparación
con la cantidad de observaciones. Lo usual son entre 5 y 20 tallos.
Tallo Hoja Frecuencia
12 103 3
13 413535 6
14 29583169 8
15 471340886808 12
16 3073050879 10
17 8544162106 10
18 0361410 7
19 960934 6
Distribución de frecuencias:
Histograma:
Frecuencia
20
15
10
5
Valor
120 140 160 180 200 de la
Variable
Ojiva:
Frecuencia
70
65
60
55
50
45
40
35
30
25
20
15
10
5 Valor de la
120 140 160 180 200 Variable
Gráfico de caja:
Los límites de la caja son el primer y el tercer cuartil. La línea media de la caja es la
mediana.
b1 q1 q2 q3 b2
UNIDAD 2: Probabilidad
Espacio muestral:
Eventos:
Complemento:
Intersección:
Unión:
Propiedades:
1. A∩Ο / =Ο/
2. A∪Ο / =A
3. A ∩ A′ = Ο /
4. A ∪ A′ = S
5. S′ = Ο /
6. Ο/′=S
′
7. ( A′) = Ο/
′
8. ( A ∩ B ) = A′ ∪ B ′
′
9. ( A ∪ B ) = A′ ∩ B ′
Si una operación se puede llevar a cabo de n1 formas, y si para cada una de éstas se
puede realizar una segunda operación en n 2 formas, entonces las dos operaciones se
pueden ejecutar en n1 .n 2 formas.
Permutaciones:
n Pr =
n!
(n − r )!
nPr
n
n
C r = =
n!
r r !.(n − r )!
nCr
Probabilidad de un evento:
Reglas aditivas:
Probabilidad condicional:
La probabilidad de que un evento B ocurra, cuando se sabe que ya ocurrió algún evento A se
llama probabilidad condicional.
Reglas multiplicativas:
Eventos independientes:
Si los eventos B1 , B2 , L , Bk constituyen una partición del espacio muestral S tal que
P (Bi ) ≠ 0 para i = 1, 2, L , k , entonces para cualquier evento A de S :
k k
P ( A) = ∑ P(Bi ∩ A) = ∑ P (Bi ).P( A | Bi )
i =1 i =1
Bk
Bn
Regla de Bayes:
Una variable aleatoria es una función que asocia un número real con cada elemento del
espacio muestral.
Utilizaremos la letra mayúscula X para denotar una variable aleatoria, y su correspondiente
minúscula x para uno de sus valores. Cada valor posible de X representa un evento que es un
subconjunto del espacio muestral para el experimento dado.
2. ∑ f (x ) = 1
x
3. f ( x ) = P( X = x )
F (x )
f (x )
0 1 2 3 4 5 x
0 1 2 3 4 5 x
Una variable aleatoria continua tiene una probabilidad cero de tomar exactamente cualquiera
de sus valores. Trataremos el cálculo de probabilidades para varios intervalos de variables
aleatorias, no importa si incluimos o no alguno de los extremos.
dF ( x )
P(a < X < b ) = F (b ) − F (a ) ⇒ f ( x ) =
dx
X discreta:
µ = E ( X ) = ∑ x. f (x )
x
X continua:
∞
µ = E ( X ) = ∫ x. f ( x ).dx
−∞
La media o valor esperado es el resultado promedio que podemos esperar del experimento a
largo plazo.
X discreta:
µ g ( X ) = E [g ( X )] = ∑ g ( x ). f ( x )
X continua:
∞
µ g ( X ) = E[g ( X )] = ∫ g ( x ). f ( x ).dx
−∞
Varianza:
X discreta:
[ ]
σ 2 = E ( X − µ ) 2 = ∑ ( x − µ )2 . f ( x )
x
X continua:
[
σ 2 = E ( X − µ )2 = ∫ ] ∞
−∞
(x − µ )2 . f (x ).dx
También se pueden generalizar las fórmulas anteriores para g ( X ) función de variable aleatoria,
reemplazándola por la variable.
1. E (c ) = c c = ctte
2. E (a. X ) = a.E ( X ) a = ctte
3. E [g ( X ) ± h( X )] = E [g ( X )] ± E [h( X )]
1. σ 2 (c ) = 0 c = ctte
2. σ 2
(a. X ) = a 2 .σ 2 ( X ) a = ctte
3. σ 2 [g ( X ) ± h( X )] = σ 2 [g ( X )] + σ 2 [h( X )]
Teorema de Chebyshev:
Un experimento consiste en pruebas repetidas, cada una con dos posibles resultados que se
pueden etiquetar como éxito o fracaso.
El proceso de Bernoulli:
Se habla de un proceso de Bernoulli cuando:
1. El experimento consiste en n pruebas que se repiten.
2. Cada prueba tiene dos resultados posibles: éxito o fracaso.
3. La probabilidad de un éxito ( p ) permanece constante en cada prueba.
4. Las pruebas que se repiten son independientes.
Distribución hipergeométrica:
Experimento hipergeométrico:
1. Se selecciona sin reemplazo una muestra aleatoria de tamaño n de N artículos.
2. k de los N artículos se pueden clasificar como éxitos y N − k se clasifican como
fracasos.
Distribución geométrica:
Si pruebas independientes repetidas pueden tener como resultado un éxito con probabilidad p
y un fracaso con probabilidad q = 1 − p , entonces la distribución de probabilidad de la variable
aleatoria X (el número de la prueba en el que ocurre el primer éxito) es:
g ( x; p ) = p.q x −1 x = 1,2,3,...
La media y la varianza de una variable aleatoria que sigue la distribución geométrica son:
1 1− p
µ= y σ2 =
p p2
Los experimentos que dan valores numéricos de una variable aleatoria X , que es el número de
resultados que ocurren durante un intervalo dado o en una región específica, se llaman
experimentos de Poisson. Un experimento de Poisson se deriva del proceso de Poisson y
posee las siguientes propiedades:
1. El número de resultados que ocurren en un intervalo o región específica es
independiente del número que ocurre en cualquier otro intervalo o región del espacio
disjunto. Esto quiere decir que el proceso de Poisson no tiene memoria.
2. La probabilidad de que ocurra un solo resultado durante un intervalo muy corto o en
una región pequeña es proporcional a la longitud del intervalo o al tamaño de la región
y no depende del número de resultados que ocurren fuera de éste intervalo o región.
3. La probabilidad de que ocurra más de un resultado en tal intervalo corto o que caiga en
tal región pequeña es insignificante.
Distribución normal:
2
1 x−µ
1 −
2 σ
n( x; µ , σ ) = e
2.π .σ 2
para − ∞ < x < ∞
Una vez que se especifican µ y σ , la curva normal queda determinada por completo.
n( x; µ , σ ) = n( z;0,1)
Los valores de la distribución para la variable z están tabulados y son fáciles de encontrar.
Para realizar ésta aproximación, debemos tener en cuenta que el valor de X a usar, va a ser 0,5
unidades más grande o más chico que el valor discreto que estamos buscando, dependiendo de
si es el primer valor o el último del intervalo.
Ésta aproximación será buena siempre que se cumpla alguna de éstas condiciones:
que n sea muy grande
que n sea pequeño o grande, pero que p sea razonablemente cercana a ½
que np y nq sean mayores o iguales a 5
Distribución exponencial:
1 − βx
x>0
f (x ) = β e
0 x≤0
donde β > 0
f (x ) = x≥0
2.π .σ .x
0 x<0
Distribución normal:
Si X 1 , X 2 ,..., X n son variables aleatorias independientes que tienen distribuciones normales
2 2 2
con medias µ1 , µ 2 ,..., µ n y varianzas σ 1 , σ 2 ,..., σ n respectivamente, entonces la variable
aleatoria
Y = a1 . X 1 + a 2 . X 2 + L + a n . X n
µ Y = a1 .µ1 + a 2 .µ 2 + L + a n .µ n
y varianza
σ Y 2 = a1 2 .σ 1 2 + a 2 2 .σ 2 2 + L + a n 2 .σ n 2
Distribución ji cuadrada:
Si X 1 , X 2 ,..., X n son variables aleatorias mutuamente independientes que tienen,
respectivamente, distribuciones ji cuadrada con v1 , v 2 ,..., v n grados de libertad, entonces la
variable aleatoria
Y = X1 + X 2 + L + X n
2
n
X −µ
Y = ∑ i
i =1 σ
Cualquier función de las variables aleatorias que forman una muestra aleatoria se llama
estadística.
Distribuciones muestrales:
Como una estadística es una variable aleatoria que depende sólo de la muestra observada, debe
tener una distribución de probabilidad.
La distribución muestral de una estadística depende del tamaño de la población, del tamaño de
las muestras y del método de elección de las muestras.
X −µ
Z=
σ n
La aproximación normal para X por lo general será buena si v sin importar la forma de
la población. Si n < 30 , la aproximación es buena sólo si la población no es muy
diferente de una distribución normal. Si se sabe que la población es normal, la
distribución de X seguirá una distribución normal exacta, no importa que tan pequeño
sea el tamaño de la muestra.
Z=
(X 1 − X 2 ) − (µ 1 − µ 2 )
σ 1 2 n1 + σ 2 2 n2
2
χ =
(n − 1).S 2 n
=∑
( Xi − X )
2
σ2 σ2 i =1
Distribución t de Student:
Estimador insesgado:
~
Un ejemplo es la comparación entre la media muestral X y la mediana muestral X . Se
~
puede demostrar que X es más eficiente, y por lo tanto mejor estimador de µ , que X .
Existe un intervalo θˆL < θ < θˆU que se calcula a partir de la muestra seleccionada, que
se llama intervalo de confianza, para el cual:
PΘ(
ˆ <θ < Θ
L
ˆ = 1−α
U )
donde 1 − α es el coeficiente de confianza y los extremos θˆL y θˆU se denominan
límites de confianza inferior y superior.
σ σ
x − zα / 2 . < µ < x + zα / 2 .
n n
σ 12 σ 22 σ 12 σ 22
(x1 − x 2 ) − zα / 2 . + < µ1 − µ 2 < ( x1 − x 2 ) + zα / 2 . +
n1 n2 n1 n2
1 1 1 1
(x1 − x 2 ) − tα / 2 .s p . + < µ1 − µ 2 < ( x1 − x 2 ) + tα / 2 .s p . +
n1 n2 n1 n2
2 2
Si x1 y s1 , x 2 y s 2 , son las medias y varianzas de muestras pequeñas independientes
de tamaño n1 y n 2 , respectivamente, de distribuciones aproximadamente normales con
varianzas desconocidas y diferentes, un intervalo de confianza aproximado del
(1 − α ).100% para µ1 − µ 2 es
2 2 2 2
s1 s s s
(x1 − x 2 ) − tα / 2 . + 2 < µ1 − µ 2 < ( x1 − x 2 ) + tα / 2 . 1 + 2
n1 n2 n1 n2
2
(
s n s 2 n 2
1 1 + 2
2
)
2
( )
(n1 − 1) (n2 − 1)
grados de libertad, que deja un área de α / 2 a la derecha.
pˆ .qˆ pˆ .qˆ
pˆ − zα / 2 . < p < pˆ + zα / 2 .
n n
donde χ 2α / 2 y χ 21−α / 2 son valores de χ 2 con v = n − 1 grados de libertad, que dejan áreas de
α / 2 y 1 − α / 2 , respectivamente, a la derecha.
2 2
Si s1 y s2 son varianzas de muestras independientes de tamaño n1 y n2 , respectivamente, de
2
poblaciones normales, entonces un intervalo de confianza del (1 − α ).100% para σ 1 σ 2 2 es
2 2 2
s1 1 σ s
. < 1 2 < 1 2 . f α / 2 (v 2 , v1 )
s2
2
f α / 2 (v1 , v 2 ) σ 2 s2
Una hipótesis estadística es una afirmación o conjetura con respecto a una o más poblaciones.
>> La aceptación de una hipótesis simplemente implica que los datos no dan suficiente
evidencia para rechazarla.
>> El rechazo implica que la evidencia muestral la refuta. El rechazo significa que hay una
pequeña probabilidad de obtener la información muestral observada cuando, de hecho, la
hipótesis es verdadera.
La Hipótesis nula es la que deseamos probar. Se denota con H 0 y siempre se establece con
una igualdad con el parámetro poblacional.
Estadística de prueba:
La estadística de prueba es la variable que utilizaremos para tomar la decisión. Ésta dependerá
mucho de los datos, ya que si queremos calcular la media poblacional y tenemos el valor de la
varianza poblacional, utilizaremos Z , en cambio si no poseemos este último valor, utilizaremos
T.
Regiones:
El proceso de inferencia en una prueba de hipótesis no difiere mucho del concepto de intervalos
de confianza. Nuestra región crítica será la que esté fuera de nuestro intervalo, que ahora se
llamará región de aceptación, y el parámetro α , parte del nivel de confianza, será ahora el
nivel de significancia, también llamado tamaño de la región crítica. El último valor que
observamos al pasar de la región de aceptación a la crítica se llama valor crítico.
Errores:
Existen dos tipos de errores que podemos cometer al aceptar o rechazar la hipótesis nula. Éstos
son:
Error tipo I:
Es rechazar la hipótesis nula cuando es verdadera.
La probabilidad de que ocurra un error tipo I es α .
El valor P es la probabilidad de que el valor del estadístico de prueba calculado con los datos
del problema se encuentre en la región crítica. Esto se usa para darle menor nivel de
significancia a la decisión tomada, que uno que pudiera haberse preestablecido (generalmente
α = 0,05 o α = 0,01 ).
El valor P es el nivel (de significancia) más bajo en el que el valor observado de la estadística
de prueba es significativo.
(z α + z β ) .σ 2
2
n=
δ2
a − µ0 δ
donde zα = y zβ = − zα .
σ n σ n
n≅
δ2
Cuando tenemos la diferencia entre dos medias, el tamaño de las muestras n = n1 = n 2 será:
n=
(z α
2
(
+ zβ ) . σ1 + σ 2
2 2
)
δ2