Escolar Documentos
Profissional Documentos
Cultura Documentos
Introducción
Probabilidad es una disciplina matemática. La teorı́a tiene tres aspectos: (a) con-
tenido lógico formal, (b) antecedentes intuitivos y (c) aplicaciones.
Sobre el contenido lógico formal, debe recordarse que la matemática estudia, desde
el punto de vista axiomático las relaciones entre entes no definidos (e.g. en Geometrı́a,
no se define punto). Ası́, la teorı́a de la probabilidad, como área de matemáticas, se
construye por conceptos, axiomas y teoremas.
Desde el punto de vista intuitivo, todos tiene alguna noción de probabilidad. Las
siguientes preguntas se refieren a esto:
¿ cual es la probabilidad de ganar las elecciones ?
¿ cual es la probabilidad de que hoy llueva ?
¿ cual es la probabilidad de vivir al menos 50 años ?.
La palabra experiencia combina tres términos: experimento, evento y frecuencia.
Del diccionario, experimento significa un proceso controlado, realizado para probar,
demostrar o descubrir algo; en el cual, al final ciertos resultados son observados. Se
asume que dicho proceso, es repetible en condiciones similares.
Si el resultado de un experimento, realizado bajo ciertas condiciones, está com-
pletamente determinado, se dice que es un experimento determinı́stico. Mientras que
1
2
y = f (x), y = f (x1 , . . . xn )
1
s = g t2
2
distancia o recorrido en un tiempo t de un objeto en caı́da libre, que estaba en reposo.
A = π r2
Probabilidad
Ejemplos:
a) Se determina el sexo de un recién nacido
6
CHAPTER 2. PROBABILIDAD 7
Nota. Los eventos E son denotados por las letras mayúsculas A, B, C, D, etc. ∅ es
el evento vacı́o o nulo.
Ejemplos:
a) A = {m}
b) B = {cara}
CHAPTER 2. PROBABILIDAD 8
Nota: El evento que contiene un solo punto muestral es llamado evento elemental.
A B
Propiedades de Conjuntos
A ∪ B = B ∪ A AB = BA, P. Conmutativa
(A ∪ B) ∪ C = A ∪ (B ∪ C), (AB)C = A(BC) P. Asociativa
(A ∪ B)C = AC ∪ BC, (AB) ∪ C = (A ∪ C) ∩ (B ∪ C) P. Distributiva.
(A ∪ B)c = Ac ∩ B c , (A ∩ B)c = Ac ∪ B c P. de De Morgan.
domino C y rango [0, 1], es decir P : C −→ [0, 1], que satisface los axiomas siguientes:
Axioma 1. 0 ≤ P (E) ≤ 1, ∀E ⊂ Ω, E ∈ C
Axioma 2. P (Ω) = 1,
Axioma 3. Para cualquier sucesión de ventos E1 , E2 , E3 , . . . mutuamente excluyentes,
i.e. ∀ i 6= j, Ei ∩ Ej = ∅,
n
! n
[ X
P Ei = P (Ei ), n = 1, 2, 3, . . . ∞
i=1 i=1
TEOREMA. P (∅) = 0.
TEOREMA. P (Ac ) = 1 − P (A), ∀ A ⊂ Ω.
TEOREMA. Si A ⊂ B, entonces P (A) ≤ P (B).
TEOREMA. P (A ∪ B) = P (A) + P (B) − P (AB).
Demostración. Considere A ∪ B = A ∪ Ac B. Dado que A y Ac B son mutuamente
excluyentes, se tiene que
P (A ∪ B) = P (A ∪ Ac B) = P (A) + P (Ac B)
Por otra parte B = AB ∪ Ac B, donde ambos conjuntos AB y Ac B son mutuamente
exclutentes, es decir P (B) = P (AB) + P (Ac B), lo que implica que
P (A ∪ B) = P (A ∪ Ac B) = P (A) + P (B) − P (AB). 2
P (A ∪ B ∪ C) = P [(A ∪ B) ∪ C)]
Ejemplo. En una raza de ratones se tiene que el color del pelaje es negro o café. Los
de color negro son genéticamente hablando de dos tipos, BB y Bb; y los de color café
de un solo tipo, bb. De la teorı́a se sabe que si se cruzan dos ejemplares negros tipo
Bb, se pueden obtener los tres tipos de color de pelaje con las probabilidades,
Descendencia BB Bb bb
Probabilidad 1/4 1/2 1/4
# de puntos en E N (E)
P (E) = =
N (Ω) N
Ejemplos:
a) Se lanza una moneda dos veces y se registra el resultado.
Ω = {cc, ca, ac, aa} = {ω1 , ω2 , ω3 , ω4 }
N (Ω) = 4, P ({ωi }) = 1/4, i = 1, 2, 3, 4
¿ Cual es la probabilidad de obtener al menos una cara ?
A ={ Se obtiene al menos una cara}={ac, ca, cc}
N (A) 3
P (A) = =
N 4
CHAPTER 2. PROBABILIDAD 12
Ejemplos:
a) Un hombre tiene 3 camisas y dos corbatas.
CHAPTER 2. PROBABILIDAD 13
N (E) 60 6
P (E) = = =
N 110 11
Ejemplos:
a) En una reunión de alumnos, hay 3 de Matemáticas, 4 de Estadı́stica, 5 de
CHAPTER 2. PROBABILIDAD 14
(3,4,3)
(3,4,4)
(3,4,5)
Permutaciones.
Defn. Permutación. Se define una permutación como el arreglo ordenado de r
objetos distintos seleccionados de n objetos distintos, r ≤ n. El número de tales
arreglos es,
n!
Prn = n(n − 1)(n − 2) · · · (n − (r − 1)) = n(n − 1)(n − 2) · · · (n − r + 1) =
(n − r)!
Ejemplos:
a) De entre 10 técnicos agrı́colas se van a elegir al azar a 3 para supervisar tres
huertos A, B y C; es decir el orden es importante, el primer seleccionado irá al huerto
A, etc.
El # posible de asignaciones es,
10!
P310 = = (10)(9)(8) = 720
(10 − 3)!
b) Permutaciones de las letras a b c:
P33 = 3! = (3)(2)(1) = 6,
Directamente: abc, acb, bac, bca, cab, cba.
CHAPTER 2. PROBABILIDAD 16
c) El alumno Pedro tiene 10 libros que ordenará en su librero. Tales libros son,
4 de Matemáticas, 3 de Quı́mica, 2 de Historia, y 1 de Literatura. Si los libros de la
misma disciplina estarán juntos, ¿ cuantos arreglos son posibles ?
Suponga el arreglo de los temas: Matemáticas, Quı́mica, Historia y Literatura,
# de arreglos = 4! 3! 2! 1!
Como las 4 áreas a su vez se pueden permutar en 4!, se tiene entonces:
# total de arreglos = 4! 4! 3! 2! 1!
n!
# de permutaciones =
n1 ! n2 ! · · · nr !
Ejemplo. Suponga que se desea formar todas las palabras posibles de cinco letras a
partir de la palabra DADDY .
Si todas las 5 letras fueran distintas, habrı́a 5! = 120 permutaciones de D1 AD2 D3 Y .
Note que
D1 D2 D3 AY , D1 D3 D2 AY , D2 D1 D3 AY , D2 D3 D1 AY , D3 D1 D2 AY ,D3 D2 D1 AY
producen la misma palabra. Las tres letras D tienen una permutación de 3! = 6. Ası́
se tiene,
5! 5!
# de permutaciones = = = 20
3! 1! 1! 3!
CHAPTER 2. PROBABILIDAD 17
Sol.
1) (6)(5)(4) = 120 números.
2) (2)(5)(4) = 40 (2)()() dos posibles con los #’s 2 y 3,
3) (5)(4)(2) = 40 ()()(2) dos posibles con los #’s 2 y 6
4) (5)(4)(4) = 80 ()()(4) cuatro posibles de los #’s 3, 5, 7 y 9
5) (5)(4)(1) = 20 ()()(1) una posibilidad con el # 5.
Combinaciones.
Defn. Combinación. Se define una combinación como un subconjunto no ordenado
de r objetos seleccionados de n objetos distintos, r ≤ n. El número de combinaciones
posibles es,
n n!
Crn = =
r (n − r)! r!
Nota.
Prn n!
Crn = =
r! (n − r)! r!
n n!
Si r = n entonces n
= 0! n!
=1
es decir, solo un resultado posible, no ordenado, de todos los objetos.
20 20! (20)(19)(18)
= = = 1140
3 (20 − 3)! 3! (3)(2)(1)
5 7 (5)(4) (7)(6)(5)
# de comités = = · = 350
2 3 (2)(1) 3(2)1
CHAPTER 2. PROBABILIDAD 19
2
5
b) 0 3
grupos de 3 hombres que excluyen a los dos peleados,
2 5
1 2
grupos de 3 hombres que contiene a uno de los peleados
5 2 5 2 5
# de comités = + = 10[10 + (2)(10)] = 10(30) = 300
2 0 3 1 2
4! 4!
C34 = = 4, P34 = = 24,
(4 − 3)! 3! (4 − 3)!
Combinaciones Permutaciones
abc abc, acb, bac, bca, cab, cba
abd abd, adb, bad, bda, dab, dba
acd acd, adc, cad, cda, dac, dca
bcd bcd, bdc, cbd, cdb, dbc, dcb
Ejemplos de Probabilidad.
a) Una urna contiene 6 bolas blancas y 5 bolas negras. Se extraen 2 bolas al azar
sin reemplazo. ¿ Cual es la probabilidad de que una bola sea blanca y la otra bola
sea negra ? Ω ={ Combinaciones de 2 bolas extraı́das de 11 posibles }. N (Ω) = 11
2
,
E ={una bola es blanca y la otra bola es negra }.
6 5
N (E) 1 1 6(5) 6
P (E) = = 11 = =
N (Ω) 2
55 11
4 26
0 1(325)
P (A) = 30
2 = = 0.747126436
2
435
4 26
2 6(1)
P (B) = 30
0 = = 0.013793103
2
435
4 26 4 26
1 4(26) 1(325)
P (E) = 30
1 + 0
30
2 = + = 0.239080459 + 0.747126436
2 2
435 435
13
2 78 1
52
= =
2
1326 17
13 13
1 1 13(13) 13
52
= =
2
1326 102
cio muestral),
(3,1), (3,2), (3,3), (3,4), (3,5), (3,6)
cada uno con la misma probabilidad. Ası́, si el primer dado es 3, entonces la prob-
abilidad condicional de (3,j), j=1,2,3,4,5,6, es de 1/6. La probabilidad del resultado
(3,5) es de 1/6.
En otro ejemplo suponga que se tiene el experimento de inspeccionar una caja
de 100 frutos, de los cuales se sabe que 5 no reúnen la calidad (defectuosos). Se
seleccionan sin reemplazo 2 frutos al azar; cual es la probabilidad que en la segunda
extracción resulte un fruto defectuoso, dado que en la primera extracción se obtuvo
un fruto defectuoso ?
P (AB) 1/36 1
P (A | B) = = = 6= P (A)
P (B) 6/36 6
Ejemplo. Suponga que se tienen los datos de empleo y desempleo en una comunidad;
P (M E) 23/45 23
P (M | E) = = =
P (E) 2/3 30
Considerando el espacio muestral reducido E,
460 23
P (M | E) = =
600 30
P (AB) 0.72
P (B | A) = = = 0.9
P (A) 0.8
Ejemplo. Una pareja tiene 2 hijos. Cual es la probabilidad condicional de que ambos
sean niños si:
a) se sabe que el menor es niño ?
b) se sabe que al menos uno de los hijos es niño ?
Sea f = femenino, y m = masculino,
Ω = {(f, f ), (f, m), (m, f ), (m, m)}, entonces P (wi ) = 1/4, i = 1, 2, 3, 4,
Soln,
a) Defina los eventos y probabilidades implicadas,
A={ El segundo hijo es niño }, P (A) = 1/2
B={ El primer hijo es niño}
P (AB) 1/4 1
P (B | A) = = =
P (A) 1/2 2
Vı́a reducción del espacio muestral A = {(f, m), (m, m)} se tiene que la probailidad
de que ambos sean masculinos dado (a), es de 1/2.
b) Sean los eventos
A={ Ambos hijos son niños },
B={ Al menos un hijo es niño }={(f,m),(m,f),(m,m)}
P (AB) 1/4 1
P (A | B) = = =
P (B) 3/4 3
CHAPTER 2. PROBABILIDAD 25
Vı́a reducción del espacio muestral B = {(f, m), (m, f ), (m, m)}, la probabilidad de
que ambos hijos sean niños dado (b), es 1/3.
Ejemplo. Una caja contiene 12 frutos de manzana, de los cuales 8 reúnen la calidad.
Se extraen 2 frutos al azar. Cual es la probabilidad de que ambos frutos extraı́dos
reunan la calidad ?
Soln,
Sean los eventos
R1 ={ El primer fruto extraı́do reúne la calidad }
R2 ={ El segundo fruto extraı́do reúne la calidad }
Se desea calcular P (R1 R2 )
Note que condicionando se tiene
8 7
P (R1 ) = , P (R2 | R1 ) =
12 11
8 7 14
P (R1 R2 ) = P (R1 )P (R2 | R1 ) = · =
12 11 33
Por conteo directo se tiene,
8
4 8!
2 8·7 14
P (R1 R2 ) = 12
0 = 6!2!
12!
= =
2 10!2!
12 · 11 33
n
X
P (A) = P (A | Bi )P (Bi )
i=1
P (A | Bk ) P (Bk )
P (Bk | A) = Pn
i=1 P (A | Bi ) P (Bi )
P (A | B) P (B)
P (B | A) =
P (A | B) P (B) + P (A | B c ) P (B c )
P (A) = P (A | B) P (B) + P (A | B c ) P (B c )
Ahora se verá cómo reevaluar una probabilidad inicialmente establecida, con base
a nueva información, es decir actualizar una probabilidad. Suponga que un nuevo
cliente asegurado tiene un accidente durante el año de vigencia de póliza. Cual es la
probabilidad de que dicho cliente es suceptible de accidente ?
Inicialmente cuando el cliente compró su póliza se asumió que habı́a una probabilidad
de 0.3 de que era suceptible de accidente, es decir P (B) = 0.3. Ahora basado en el
hecho de que el cliente ha tenido un accidente durante el año vigente, se reevalúa la
probabilidad de ser suceptible de accidente. Considerando el teorema de Bayes,
P (A | B) P (B) (0.4)(0.3)
P (B | A) = = = 0.46
P (A) 0.26
Ejemplo. En una región agrı́cola se pueden encontrar tres marcas de equipo de fu-
migación, M1, M2 y M3. De acuerdo a los datos de ventas, 50% son de M1 (más
barato), 30% de M2 y 20% de M3. Cada fabricante ofrece un año de garantı́a. Infor-
mación histórica indica que el 25% de M1 requiere trabajo de reparación de garantı́a,
mientras que los correspondientes porcentajes para M2 y M3 son 20% y 10% respec-
tivamente.
a) Cual es la probabilidad que un nuevo cliente elegido al azar, haya comprado un
equipo de fumigación M1 que necesitará reparación bajo la garantı́a ?
b) Cual es la probabilidad de que un cliente elegido al azar, ha comprado un equipo
de fumigación que requerirá reparación bajo la garantı́a ?
c) Si un cliente regresa a la tienda con un equipo que requiere trabajo de reparación
bajo garantı́a, cual es la probabilidad de que el equipo es de la M1 ?, de la M2 ?.
CHAPTER 2. PROBABILIDAD 28
Ejemplos.
a) Se lanza una moneda 2 veces. Ω = {aa, ac, ca, cc}. sean
A = { Se obtiene águila en el lanzamiento 1 }
CHAPTER 2. PROBABILIDAD 29
P (A) P (A)
c
=
P (A ) 1 − P (A)
Funciones de Probabilidad
Defn. Variable Aleatoria. Dado Ω se define una variable aleatoria como una
función X(·) : Ω → R.
Nota: las variables aleatorias v.a.’s se denotan con letras mayúsculas X, Y , Z, etc.,
y el rango de X, se denota con letras minúsculas x, y, z, etc.
Ejemplos.
a) Se lanza una moneda al aire ,
30
CHAPTER 3. FUNCIONES DE PROBABILIDAD 31
X 0 1 2
P(X=x) 1/4 1/2 1/4
El evento A = { se obtiene al menos una cara }, puede ser descrito con la v.a.
como {X ≥ 1}. Por consiguiente
P (A) = P (X ≥ 1) = 3/4.
Ejemplo. Del experimento de lanzar las dos monedas se tiene la v.a. discreta
X = # de caras, y tiene la siguiente función masa de probabilidad;
X 0 1 2
P(X=x) 1/4 1/2 1/4
Ejemplo. Si un esperimento solo tiene dos resultados posibles, éxito con probabilidad
p, donde 0 < p < 1, y fracaso, con probabilidad 1 − p, entonces se define una v.a.
X = # de éxitos. Claramente RX = {0, 1}. La función de densidad o masa de
probabilidad de X es,
p si x = 1
f (x) =
1 − p si x = 0
cadora como,
1 si x ∈ A
IA (x) =
0 si x ∈
/A
y además Z ∞
1 = P {X ∈ (−∞, ∞)} = f (x)dx
−∞
Y si a = b, entonces Z a
P (X = a) = f (x)dx = 0
a
Ejemplos
a) Sea la v.a. X tiempo transcurrido entre sucesos, por ejemplo, entre llegadas
de clientes a un invernadero que vende plántulas de una hortaliza. La función de
densidad de probabilidad de la v.a. es
b) Suponga una v.a. continua con función de densidad de probabilidad dada por
Ejemplo. Suponga el experimento de lanzar 3 veces una moneda al aire. Sea la v.a.
discreta X = # de águilas. Se tiene,
Ω = {aaa, aac, aca, caa, acc, cac, cca, ccc}, P (ωi ) = 1/8, i = 1, 2, . . . , 8. La función
masa de probabilidad de X es,
X 0 1 2 3
P(X=x) 1/8 3/8 3/8 1/8
0 si x < 0
1/8 si 0 ≤ x < 1
F (x) = P (X ≤ x) = 4/8 si 1 ≤ x < 2
si 2 ≤ x < 3
7/8
si x ≥ 3
1
1 4 7
F (x) = P (X ≤ x) = I[0,1) (x) + I[1,2) (x) + I[2,3) (x) + I[3,∞) (x)
8 8 8
Z x
F (x) = P (X ≤ x) = f (u)du
−∞
Z x
= λe−λ u du = −e−λ u |x0 = 1 − e−λ x .
0
4 2
4 2
2 6 1 8 1
f (0, 0) = 9
= , f (0, 1) = 9
1 = , f (0, 2) = 2
9
= ,
2
36 2
36 2
36
3
4 3
2 3
1 1 12 1 1 6 2 3
f (1, 0) = 9
= , f (1, 1) = 9
= , f (2, 0) = 9
= .
2
36 2
36 2
36
X\Y 0 1 2
0 6/36 8/36 1/36
1 12/36 6/36 0
2 3/36 0 0
XX
P [(X, Y ) ∈ A] = f (x, y)IA (x, y)
1 X
X 2
= f (xi , yj )IA (xi , yj )
i=0 j=1
= f (0, 1) + f (0, 2) + f (1, 1) + f (1, 2)
8 1 6 15
= + + +0= .
36 36 36 36
FXY (1, 2) = P (X ≤ 1, Y ≤ 2)
XX
= f (x, y)IA (x, y)
1 X
X 2
= f (xi , yj )IA (xi , yj )
i=0 j=0
= f (0, 0) + f (0, 1) + f (0, 2) + f (1, 0) + f (1, 1) + f (1, 2)
6 8 1 12 6 33
= + + + + +0= .
36 36 36 36 36 36
Ejemplo. Del ejemplo anterior del v.a. discreto (X, Y ) con masa de probabilidad
dado en el cuadro siguiente, se tienen las distribuciones marginales de X en la última
columna; y la de Y en la última hilera;
X\Y 0 1 2 P(X=x)
0 6/36 8/36 1/36 15/36
1 12/36 6/36 0 18/36
2 3/36 0 0 3/36
P(Y=y) 21/36 14/36 1/36 36/36
CHAPTER 3. FUNCIONES DE PROBABILIDAD 39
Z ∞ Z ∞ Z 1 Z 2
3
fXY (x, y)dxdy = (xy + x2 )dydx
−∞ −∞ 0 0 5
Z 1 2 2
3 y 2
= x +x y dx
5 0 2 y=0
1
3 1 x3
Z
2 3 2
= (2x + 2x )dx = x +2 =1
5 0 5 3 0
CHAPTER 3. FUNCIONES DE PROBABILIDAD 40
Ahora suponga la región A = {(x, y) : 0 < x < 1/2, 1 < y < 2}. Entonces,
Z Z
P [(X, Y ) ∈ A] = fXY (x, y)dA
A
= P (0 < X < 1/2, 1 < Y < 2)
Z 1/2 Z 2
3
= (xy + x2 )dydx
0 1 5
Z 1/2 2 2
3 y 2
= x +x y dx
5 0 2 y=1
3 1/2
Z
x
= (2x + 2x2 − − x2 )dx
5 0 2
Z 1/2
3 3
= ( x + x2 )dx
5 0 2
1/2
3 3 2 x3
3 31 1 11
= x + = + = .
5 4 3 0 5 4 4 24 80
Ejemplo. Sea el v.a. (X, Y ) con función de densidad de probabilidad conjunta dada
por,
3
fXY (x, y) = x(y + x)I(0,1) (x)I(0,2) (y)
5
Las distribuciones marginales son,
CHAPTER 3. FUNCIONES DE PROBABILIDAD 41
Z ∞ Z 2
3
fX (x) = fXY (x, y)dy = x(y + x)dy
−∞ 0 5
2
3 y2
2
= x +x y
5 2 0
3
= (2x + 2x2 )I(0,1) (x).
5
Z ∞ Z 1
3
fY (y) = fXY (x, y)dx = x(y + x)dx
−∞ 0 5
2 3
1
3 x x
= y +
5 2 3
0
3 y 1
= + I(0,2) (y).
5 2 3
∞ 2 2
3 y2 y
Z Z
3 y 1 3 2
fY (y)dy = + dy = + = 1+ =1
−∞ 0 5 2 3 5 4 3 0 5 3
P x P (X = x) si X es discreta
x
E(X) =
R ∞ x f (x)dx si X es continua
−∞
X 0 1 2 3
P(X=x) 1/8 3/8 3/8 1/8
X
E(X) = x P (X = x)
x
= 0P (X = 0) + 1P (X = 1) + 2P (X = 2) + 3P (X = 3)
Z ∞ Z ∞
E(X) = xf (x)dx = x λe−λ x dx
−∞ 0
Z ∞ Z ∞
1 −u 1 1 1
= ue du = u2−1 e−u du = Γ(2) = .
λ 0 λ 0 λ λ
P g(x) P (X = x) si X es discreta
x
E[g(X)] =
R ∞ g(x) f (x)dx si X es continua
−∞
Def. Varianza de una Variable Aleatoria. Dada una v.a. X con función de
probabilidad f (x) y E(X) = µ, se define la Varianza de X o segundo momento
respecto a la media como,
P (x − µ)2 P (X = x) si X es discreta
2 x
Var(X) = E[(X − µ) ] = R ∞
−∞
(x − µ)2 f (x)dx si X es continua
= E(X 2 ) − [E(X)]2 . 2
X 0 1 2 3
P(X=x) 1/8 3/8 3/8 1/8
X
E(X 2 ) = x2 P (X = x)
x
= 0P (X = 0) + 12 P (X = 1) + 22 P (X = 2) + 32 P (X = 3)
p p
2
Nota. Se le llama Desviación Estándar de X a V ar(X) = σX = σX .
Note que
Cov(X, Y ) = Cov(Y, X)
Cov(X, X) = V ar(X)
Cov(X, Y ) σXY
ρXY = Corr(X, Y ) = p =
V ar(X) V ar(Y ) σX σY
Ejemplo. Del ejemplo anterior sobre el v.a. discreto (X, Y ) que representa los
números de manzanas y peras respectivamente se tiene;
CHAPTER 3. FUNCIONES DE PROBABILIDAD 47
X\Y 0 1 2 P(X=x)
0 6/36 8/36 1/36 15/36
1 12/36 6/36 0 18/36
2 3/36 0 0 3/36
P(Y=y) 21/36 14/36 1/36 36/36
XX
E(XY ) = xy fXY (x, y)
x y
2 X
X 2
= xy fXY (x, y)
x=0 y=0
6 8 1 12 6
= (0)(0) + (0)(1) + (0)(2) + (1)(0) + (1)(1) + (1)(2)0
36 36 36 36 36
3 6 1
+(2)(0) + (2)(1)0 + (2)(2)0 = = .
36 36 6
2
2
X 15 18 3 30 5
E(X ) = x2 fX (x) = 02 + 12 + 2 2 = =
x=0
36 36 36 36 6
2
2 2 5 2 2 21 7
σX = E(X ) − [E(X)] = − = =
6 3 54 18
2
X 21 14 1 16 4
E(Y ) = yfY (y) = 0 +1 +2 = =
y=0
36 36 36 36 9
2
2
X 21 14 1 18 1
E(Y ) = y 2 fY (y) = 02 + 12 + 2 2 = =
y=0
36 36 36 36 2
CHAPTER 3. FUNCIONES DE PROBABILIDAD 48
2
1 4 49
σY2 2
= E(Y ) − [E(Y )] = − 2
=
2 9 162
Por consiguiente,
1 24 7
Cov(X, Y ) = E(XY ) − E(X)E(Y ) = − =−
6 39 54
La correlación es,
Cov(X, Y ) −7/54
ρXY = p =p = −0.3779645
V ar(X) V ar(Y ) (7/18)(49/162
Valor que indica poca relación lineal entre X y Y .
3
fXY (x, y) = x(y + x)I(0,1) (x)I(0,2) (y)
5
3
fX (x) = (2x + 2x2 )I(0,1) (x).
5
3 y 1
fY (y) = + I(0,2) (y).
5 2 3
Se desea obtener la Corr(X, Y ).
Z ∞ Z ∞ Z 1 Z 2
3
E(XY ) = xy fXY (x, y)dxdy =
xy x(y + x)dydx
−∞ −∞ 0 0 5
Z 1Z 2 Z 1 3 2 2
3 2 2 3 3 2y 3y
= (x y + x y)dydx = x +x dx
5 0 0 5 0 3 2 y=0
1
3 1 8x2 3 8x3 2x4
Z
3 5
= + 2x dx = + = .
5 0 3 5 9 4 0 6
CHAPTER 3. FUNCIONES DE PROBABILIDAD 49
1 1 1
6 x3 x4
Z Z
3 2 7
E(X) = xfX (x)dx = x (2x + 2x )dx = + = .
0 0 5 5 3 4 0 10
2 2 2
3 y3 y2
Z Z
3 y 1 6
E(Y ) = yfY (y)dy = y + dy = + = .
0 0 5 2 3 5 6 6 0 5
1 1 1
6 x4 x 5
Z Z
2 2 23 2 27
E(X ) = x fX (x)dx = x (2x + 2x )dx = + =
0 0 5 5 4 5 0 50
2 2 2
3 y4 y3
Z Z
2 2 23 y 1 26
E(Y ) = y fY (y)dy = y + dy = + = .
0 0 5 2 3 5 8 9 0 15
2
227 2 7 1
V ar(X) = E(X ) − [E(X)] = − =
50 10 20
2
2 26 2 6 110
V ar(Y ) = E(Y ) − [E(Y )] = − =
15 5 375
5 7 6 1
Cov(X, Y ) = E(XY ) − E(X)E(Y ) = − · =−
6 10 5 150
La correlación es,
Cov(X, Y ) −1/150
ρXY = p =p = −0.05504819
V ar(X) V ar(Y ) (1/20)(110/375)
P P g(x, y) f (x, y) si (X, Y ) es discreta
x y XY
E[g(X, Y )] =
∞ ∞ g(x, y) f (x, y)dxdy si (X, Y ) es continua
R R
−∞ −∞ XY
CHAPTER 3. FUNCIONES DE PROBABILIDAD 50
n m
! n X
m
X X X
Cov Xi , Yj = Cov(Xi , Yj )
i=1 j=1 i=1 j=1
3.5 Independencia
Previamente se ha definido que dos eventos A y B son independientes si y solo si
P (A ∩ B) = P (A) P (B)
Sea el v.a. (X, Y ). Se dice que las v.a. X y Y son independientes si para cualquier
par de valores (x, y) se cumple
Ejemplo. Suponga el v.a. (X, Y ) con masa de probabilidad conjunta dada por
X\Y 2 3 4 P(X=x)
1 4/54 8/54 12/54 24/54
2 5/54 10/54 15/54 30/54
P(Y=y) 9/54 18/54 27/54 54/54
Se puede verificar que para cada par (x, y), se cumple p(x, y) = pX (x) · pY (y)
4 4 (9)(6) 24 9
p(1, 2) = = = = pX (1) pY (2)
54 54 54 54 54
8 8 (3)(3)(6) 24 18
p(1, 3) = = = = pX (1) pY (3)
54 54 54 54 54
Similarmente se pueden verificar los pares restantes de (x, y). Por consiguiente,
X y Y son v.a. independientes.
CHAPTER 3. FUNCIONES DE PROBABILIDAD 52
Ejemplo. Del ejemplo anterior sobre el v.a. discreto (X, Y ) que representa los
números de manzanas y peras respectivamente se tiene;
X\Y 0 1 2 P(X=x)
0 6/36 8/36 1/36 15/36
1 12/36 6/36 0 18/36
2 3/36 0 0 3/36
P(Y=y) 21/36 14/36 1/36 36/36
Note que
3 14
p(2, 1) = 0 6= = pX (2) pY (1)
36 36
es suficiente para concluir que las v.a. X y Y no son independientes, es decir son
dependientes.
Z ∞ Z ∞
1 1
fY (y) = fXY (x, y)dx = e−y/2 e−x dx = e−y/2
0 2 0 2
Note que la distribución conjunta satisface,
Modelos de Probabilidad
Def. Variable Aleatoria Bernoulli. Se define una v.a. de Bernoulli con parámetro
p, si su f.d.p. es de la forma,
53
CHAPTER 4. MODELOS DE PROBABILIDAD 54
Def. Variable Aleatoria Binomial. Se define una v.a. Binomial con parámetros
n y p, si su f.d.p. es,
n x
f (x) = p(x) = p (1 − p)n−x I{0,1,2,...,n} (x), 0 < p < 1.
x
0.20
0.15
0.10
0.05
0.00
0 5 10 15 20
0.20
0.15
dbinom(x, size = 20, prob = 0.5)
0.15
0.10
0.10
0.05
0.05
0.00
0.00
0 5 10 15 20 0 5 10 15 20
x x
12
10
P (X = 10) = 10
0.9 (0.1)12−10 = 66(0.34867844)(0.01) = 0.2301278
CHAPTER 4. MODELOS DE PROBABILIDAD 56
P (8 ≤ X ≤ 10) = P (X = 8) + P (X = 9) + P (X = 10)
12 8 4 12 9 3 12
= 0.9 (0.1) + 0.9 (0.1) + 0.910 (0.1)2
8 9 10
= 0.02130813 + 0.08523251 + 0.2301278 = 0.3366684
P (X ≥ 3) = 1 − P (X = 0) − P (X = 1) − P (X = 2)
12 0 12 12 1 11 12
= 1− 0.9 (0.1) − 0.9 (0.1) − 0.92 (0.1)10
0 1 2
= 1 − 1(10 ) − 1.08(10 ) − 5.34(10 ) = 1 − 5.455(10−9 )
−12 −9 −9
= 0.999999994
Uso de Tablas para Calcular Probabilidades. Los textos incluyen tablas para
ciertos valores de n y de p para calcular probabilidades, basados en la función de
distribución acumulada,
k
X n i
FX (k) = P (X ≤ k) = p (1 − p)n−i , k = 0, 1, 2, . . . , n
i=0
i
Cálculo de Probabilidades en R
Si X ∼ Binom(n, p) y se desea P (X = x), se escribe:
dbinom(x,n,p)
Para obtener la probabilidad acumulada FX (k) = P (X ≤ k), se escribe
CHAPTER 4. MODELOS DE PROBABILIDAD 57
pbinom(x,n,p)
Defn. Variable Aleatoria de Poisson. Se define una v.a. de Poisson con parámetro
λ si su f.d.p es de la forma,
e−λ λx
f (x) = p(x) = I{0,1,2,...} (x), λ>0
x!
CHAPTER 4. MODELOS DE PROBABILIDAD 58
0.12
0.20
0.10
0.15
0.08
dpois(x, 10)
dpois(x, 3)
0.06
0.10
0.04
0.05
0.02
0.00
0.00
0 10 20 30 40 50 0 10 20 30 40 50
x x
e−3 34
P (X = 4) = p(4) = = 0.1680314
4!
e−3 30 e−3 31
P (X ≥ 2) = 1 − FX (1) = 1 − − = 1 − 0.1991483 = 0.8008517
0! 1!
Para el intervalo de una hr (dos intervalos de tiempo) se considera λ = 6.
e−6 67
p(7) = P (X = 7) = = 0.1376
7!
Uso de Tablas para Calcular Probabilidades. Los textos incluyen tablas para
ciertos valores de x y de λ para calcular probabilidades, basados en la función de
distribución acumulada,
x
X e−λ λk
FX (x) = P (X ≤ x) = , k = 0, 1, 2, . . . , x
k=0
k!
Ejemplo. Con los datos del ejemplo anterior X ∼ Poisson(λ = 3), y las tablas,
Cálculo de Probabilidades en R
CHAPTER 4. MODELOS DE PROBABILIDAD 60
Suponga que se tienen N objetos cada uno con dos caracterı́sticas posibles mutua-
mente excluyentes, y que de tales objetos K presentan una caracterı́stica (p.e. éxito)
y N − K no la presentan. Se realiza el experimento de extraer una muestra sin
reemplazo de tamaño n y se desea saber cuantos objetos en la muestra provienen de
CHAPTER 4. MODELOS DE PROBABILIDAD 61
K.
Se muestra la gráfica.
Ejemplo. Suponga que se tiene en una caja 34 frutos de manzana, de las cuales 4
no reúnen la calidad. Se toma una muestra aleatoria de n = 6 frutos.
¿ Cual es la probabilidad de que los 6 frutos reúnan la calidad ?
¿ Cual es la probabilidad de que ningún fruto reúnan la calidad ?
¿ Cual es la probabilidad de que al menos 5 frutos reúnan la calidad ?
Se tiene N = 34, K = 30 y n = 6. Note que max{0, 6 − (34 − 30)} = max{0, 2} = 2,
mientras que, min{6, 28} = 6 y con esto X = 2, 3, 4, 5, 6 y la f dp de X es,
30 4
x 6−x
p(x) = 34
x = 2, . . . , 6
6
Con esto las probabilidades deseadas son,
CHAPTER 4. MODELOS DE PROBABILIDAD 62
0.4
0.4
0.3
dhyper(x, 30, 4, 6)
0.3
dhyper(x, 6, 6, 4)
0.2
0.2
0.1
0.1
0.0
0 1 2 3 4 2 3 4 5 6
x x
30 4
6 593775
P (X = 6) = 34
0 = = 0.441499913
6
1344904
P (X = 0) = 0
30 4 30 4
5
P (X ≥ 5) = P (X = 5) + P (X = 6) = 34
1 + 6
34
0
6 6
= 0.4238399 + 0.441499913 = 0.8653398
Cálculo de Probabilidades en R
Si X ∼ Hypergeometrica(N, K, n) y se desea P (X = x), se escribe:
dhyper(x,K,N-K,n)
Para obtener la probabilidad acumulada FX (k) = P (X ≤ k), se escribe
phyper(x,K,N-K,n)
CHAPTER 4. MODELOS DE PROBABILIDAD 63
.
Defn. Función de Probabilidad Gama. Una v.a. continua X tiene una dis-
tribución de probabilidad Gama con parámetros α y β si su f.d.p es,
xα−1 e−x/β
fX (x; α, β) = I[0,∞) (x), α > 0, β > 0
Γ(α) β α
R∞
Donde Γ(α) = 0
tα−1 e−t dt, α > 0.
Se escribe X ∼ Gama(α, β). En tal caso se tiene,
E(X) = α β,
V ar(X) = α β 2 .
A α se le llama parámetro de forma, ya que tiene relación con el pico de la distribución;
mientras que a β se le llama parámetro de escala, ya que tiene relación con la amplitud
CHAPTER 4. MODELOS DE PROBABILIDAD 64
de la distribución.
Algunos autores definen la distribución Gama con β = 1/λ, por lo que la f dp
serı́a,
λα xα−1 e−λx
fX (x; α, λ) = I[0,∞) (x), α > 0, λ > 0
Γ(α)
0.6
1.0
dgamma(x, 3, 5)
dgamma(x, 8, 5)
0.8
0.4
0.6
0.4
0.2
0.2
0.0
0.0
0 1 2 3 4 5 0 1 2 3 4 5
x x
Cálculo de Probabilidades en R
Si X ∼ Gama(α, λ), para evaluar la función en x, f (x; α, λ), solo útil para graficar
la f.d.p, como en las subsiguientes v.a.’s continuas, se representa como
dgamma(x, α, λ)
Para obtener la probabilidad acumulada FX (x) = P (X ≤ x), se escribe
pgamma(x, α, λ)
Mientras que para obtener P (a < X < b) se escribe,
pgamma(b, α, λ)-pgamma(a, α, λ)
CHAPTER 4. MODELOS DE PROBABILIDAD 65
e−x/β
fX (x; β) = I[0,∞) (x), β>0
β
Cálculo de Probabilidades en R
CHAPTER 4. MODELOS DE PROBABILIDAD 66
1.0
0.4
0.8
0.3
0.6
dexp(x, 0.4)
dexp(x, 1)
0.2
0.4
0.1
0.2
0.0
0.0
0 2 4 6 8 10 0 5 10 15
x x
xk/2−1 e−x/2
fX (x; k) = I[0,∞) (x), k∈N
Γ(k/2) 2k/2
Se escribe X ∼ Ji-Cuadrada(k) y se denomina Ji-cuadrada con k grados de liber-
tad. También se denota X ∼ χ2(k) o X 2 ∼ χ2(k) . En tal caso,
E(X) = k,
V ar(X) = 2k.
0.06
0.05
0.10
dchisq(x, 18)
0.04
dchisq(x, 5)
0.03
0.05
0.02
0.01
0.00
0.00
0 5 10 15 20 25 30 0 10 20 30 40 50 60
x x
Uso de Tablas Jicuadrada. Los textos incluyen tablas para ciertos valores de k g.l.
en la primer columna y de probabilidades α en la primer hilera, para obtener valores
c llamados puntos de corte, que satisfacen alguna probabilidad especificada.
En la tabla D del libro de Said y Zarate (2012) con X 2 ∼ Ji-Cuadrada(k), se
proveen valores χ2α (k) (ó χ2α,k como en Ross 2009) tales que,
P X 2 ≥ χ2α (k) = α
Con esto, los valores de α representan áreas del lado derecho de la gráfica.
Cálculo de Probabilidades en R
Si X 2 ∼ Ji-Cuadrada(k), para evaluar la función en x, f (x; k) se representa como
dchisq(x, k)
Para obtener la probabilidad acumulada FX (x) = P (X ≤ x), se escribe
pchisq(x, k)
Mientras que para obtener P (a < X < b) se escribe,
pchisq(b, k)-pchisq(a, k)
Para obtener el valor de c tal que P (X 2 ≤ c) = p, se escribe,
qchisq(p,k)
Mientras que para el valor de c tal que P (X 2 ≥ c) = p, se escribe,
CHAPTER 4. MODELOS DE PROBABILIDAD 69
qchisq(1-p,k)
1 1 2
fX (x) = √ e− 2σ2 (x−µ) , −∞ < µ < ∞, σ > 0
2π σ
Se denota X ∼ N (µ, σ 2 ), y con frecuencia fX (x) = fX (x; µ, σ 2 ).
CHAPTER 4. MODELOS DE PROBABILIDAD 70
En tal caso,
E(X) = µ,
V ar(X) = σ 2 .
X −µ
Z=
σ
1
E(Z) = E(X − µ) = 0
σ
1 1
V ar(Z) = 2
V ar(X − µ) = 2 V ar(X) = 1
σ σ
1 1 2
fZ (z) = √ e− 2 z
2π
La gráfica de dicha función de densidad es simétrica centrada en 0, como se puede
apreciar abajo.
Por el proceso de estandarización, cualquier cálculo de probabilidades en la v.a.
X, se puede realizar con la v.a. Z. Note que si X ∼ N (µ, σ 2 ),
CHAPTER 4. MODELOS DE PROBABILIDAD 71
X −µ b−µ b−µ b−µ
P (X ≤ b) = P ≤ =P Z≤ = FZ
σ σ σ σ
En general, para cualquier a < b,
a−µ X −µ b−µ
P (a ≤ X ≤ b) = P ≤ ≤
σ σ σ
a−µ b−µ
= P ≤Z≤
σ σ
b−µ a−µ
= P Z≤ −P Z ≤
σ σ
b−µ a−µ
= FZ − FZ
σ σ
0.015
dnorm(x, 50, 18)
dnorm(x, 20, 3)
0.08
0.010
0.06
0.04
0.005
0.02
0.00
0.000
5 10 15 20 25 30 35 0 20 40 60 80 100
x x
Uso de Tablas para calcular Probabilidades. Los textos incluyen tablas para
ciertos valores de z, generalmente del intervalo [−3.59, 3.59]. En la primer columna
CHAPTER 4. MODELOS DE PROBABILIDAD 72
0.20
0.4
0.15
0.3
dnorm(x, 0, 2)
dnorm(x, 0, 1)
0.2
0.10
0.1
0.05
0.0
−4 −2 0 2 4 −4 −2 0 2 4
x x
de la tabla están los valores de -3.5 a 3.5 y en la primera hilera de la tabla están
los números del segundo decimal. El resto del contenido de la tabla, son las prob-
abilidades acumuladas. La tabla permite calcular las probabilidades de la v.a. Z.
Para calcular probabilidades de una v.a. X ∼ N (µ, σ) con dicha tabla, se requiere
estandarizar previamente a X.
P (Z ≤ z) = 0.5 + P (0 ≤ Z ≤ z)
P (Z ≤ −z) = 0.5 − P (0 ≤ Z ≤ z)
X − 20 18 − 20
P (X ≥ 18) = P ≥ = P (Z ≥ −0.4) = P (Z ≤ 0.4) = 0.6554
5 5
16.4 − 20 X − 20 23.7 − 20
P (16.4 ≤ X ≤ 23.7) = P ≤ ≤ = P (−0.72 ≤ Z ≤ 0.74)
5 5 5
= P (Z ≤ 0.74) − P (Z ≤ −0.72) = 0.7704 − 0.2358 = 0.5346
7.6 − 20 X − 20 32.4 − 20
P (7.6 ≤ X ≤ 32.4) = P ≤ ≤ = P (−2.48 ≤ Z ≤ 2.48)
5 5 5
= 1 − 2 P (Z ≤ −2.48) = 1 − 2(0.0066) = 0.9868
Cálculo de Probabilidades en R
Si X ∼ Normal(µ, σ), para evaluar la función en x, f (x; k) se representa como
dnorm(x, µ, σ)
Para obtener la probabilidad acumulada FX (x) = P (X ≤ x), se escribe
pnorm(x, µ, σ)
Mientras que para obtener P (a < X < b) se escribe,
CHAPTER 4. MODELOS DE PROBABILIDAD 74
pnorm(b, µ, σ)-pnorm(a, µ, σ)
pnorm(2.64)-pnorm(-1.36)
produciendo el valor; 0.9089397
Suponga que se desea el valor c tal que P (Z ≥ c) = 0.01. Escribe,
qnorm(0.99)
lo que produce 2.326348 como valor de c.
Defn. Distribución t-Student. Una v.a. T tiene tiene una distribución de proba-
bilidad t − Student con n grados de libertad, si su f.d.p es,
Γ( n+1
2
) 1
fT (t) =
n , t∈R
Γ( 2 )(nπ)1/2 (1 + t2 /n) n+1
2
Teorema. Sea una v.a. Z ∼ N (0, 1) y sea la v.a. X 2 ∼ χ2(n) , con Z y X 2 independi-
entes, entonces la v.a. T definida por
Z
T =p
X 2 /n
es tal que T ∼ t(n) .
Uso de Tablas para calcular Probabilidades. Los textos incluyen tablas para
ciertos valores de n gl en la primer columna, y ciertos valores de probabilidad α en
la primera hilera.
Ası́, la tabla proporciona el valor tα (n) (ó tα,n ) tal que,
P (T ≥ tα (n)) = α
CHAPTER 4. MODELOS DE PROBABILIDAD 77
0.4
0.4
0.3
0.3
dt(x, 20)
dt(x, 8)
0.2
0.2
0.1
0.1
0.0
0.0
−4 −2 0 2 4 −4 −2 0 2 4
x x
tiene que, c = t0.025 (20) = 2.086, es decir P (T ≥ 2.086) = 0.025. Con esto,
Cálculo de Probabilidades en R
Si X ∼ t-Student(n), para evaluar la función en x, f (x; n) se representa como
dt(x, n)
Para obtener la probabilidad acumulada FX (x) = P (X ≤ x), se escribe
pt(x, n)
Mientras que para obtener P (a < X < b) se escribe,
pt(b, n)-pt(a, n)
Para obtener el valor de c tal que P (X ≤ c) = p, se escribe,
qt(p, n)
Mientras que para el valor de c tal que P (X ≥ c) = p, se escribe,
qt(1 − p, n)
m2 m
Γ( m+n
2
) x 2 −1 m
n
fX (x; m, n) = m+n I(0,∞) (x)
Γ( m2 )Γ( n2 ) 1 + m
n
x 2
0.5
0.6
0.4
df(x, 14, 20)
df(x, 10, 4)
0.3
0.4
0.2
0.2
0.1
0.0
0.0
0 1 2 3 4 5 0 1 2 3 4 5 6
x x
14
Figure 4.20: F20 Figure 4.21: F410
CHAPTER 4. MODELOS DE PROBABILIDAD 80
Teorema. Sea una v.a. U ∼ χ2(m) y sea la v.a. V ∼ χ2(n) , con U y V independientes,
entonces la v.a. X definida por
U/m
X=
V /n
es tal que X ∼ Fnm .
Uso de Tablas para calcular Probabilidades. Los textos incluyen tablas para
ciertos gl m de la v.a. U del numerador en la primera hilera, y ciertos g.l n de la v.a.
V del denominador, en la primer columna, para algunos valores de probabilidad α.
m
El resto del cuerpo de la tabla presenta valores Fn,α tales que,
m
P (X ≥ Fn,α )=α
Las tablas de los textos solo proporcionan el valor de corte del lado derecho de la
curva de F . Para obtener el lado izquierdo, por un teorema anterior se considera la
relación,
m 1
Fn,1−α = n
Fm,α
5
Tal valor de F6,0.975 no es provisto en la tabla. Para obtener dicho valor se requiere
usar el teorema anterior que establece,
5 1 1
F6,0.975 = 6
= = 0.1433
F5,0.025 6.978
Con lo anterior,
P (X ≥ 0.1433) = 0.975
Note que el valor c = 0.1433 es tal que P (X ≤ 0.1433) = 0.025
Cálculo de Probabilidades en R
Si X ∼ Fnm , para evaluar la función en x, f (x; m, n) se representa como
df(x, m, n)
Para obtener la probabilidad acumulada FX (x) = P (X ≤ x), se escribe
pf(x, m, n)
Mientras que para obtener P (a < X < b) se escribe,
pf(b, m, n)-pf(a, m, n)
Para obtener el valor de c tal que P (X ≤ c) = p, se escribe,
qf(p, m, n)
Mientras que para el valor de c tal que P (X ≥ c) = p, se escribe,
qf(1 − p, n)
Distribuciones Derivadas de
Muestreo
83
CHAPTER 5. DISTRIBUCIONES DERIVADAS DE MUESTREO 84
Defn. Muestra Aleatoria. Una muestra aleatoria de una población descrita por
f (x; θ) es una colección de v.a.0 s independientes X1 , X2 , . . . , Xn cada una con la misma
distribución de probabilidad f (x; θ)
X1 , X2 , . . . , Xn iid f (x; θ)
Nota.
a) Frecuentemente la función de la muestra es g() : Rn → R
b) Dado que la estadı́stica es función de la m.a. X1 , X2 , . . . , Xn , también es una v.a.
cuya f.d.p. dependerá de algún modo de fX (x; θ).
CHAPTER 5. DISTRIBUCIONES DERIVADAS DE MUESTREO 85
Ejemplos. Sea X1 , X2 , . . . , Xn iid f (x; θ), donde θ representa uno o más parámetros
desconocidos. Entonces las siguientes funciones son estadı́sticas;
n
1X
g(X1 , X2 , . . . , Xn ) = Xi = X̄
n i=1
g(X1 , X2 , . . . , Xn ) = Max{X1 , X2 , . . . , Xn }
g(X1 , X2 , . . . , Xn ) = Min{X1 , X2 , . . . , Xn }
n
1 X 2
g(X1 , X2 , . . . , Xn ) = Xi − X̄
n − 1 i=1
n
1X
g(X1 , X2 , . . . , Xn ) = Xi − θ
n i=1
n
! n
1X 1X 1
E(X̄) = E Xi = E(Xi ) = nµ = µ
n i=1 n i=1 n
Para la varianza, se considera la independencia de las v.a.0 s,
n
! n
! n
1X 1 X 1 X
V ar(X̄) = V ar Xi = 2 V ar Xi = 2 V ar(Xi ) = σ 2 /n. 2
n i=1 n i=1
n i=1
n
1 X 2
S2 = Xi − X̄
n − 1 i=1
√
Nota. Se llama desviación estándar muestral a S = S2
Nota. M2 6= S 2 .
Sin embargo la f.d.p. de X̄n dependerá de fX (x). Ası́, no se tiene ningún resultado
general sobre la distribución de X̄n .
Sin embargo si n es suficientemente “grande”, se puede tener una distribución
aproximada para X̄n , sin importar la distribución particula de la población fX (x).
Tal resultado de aproximación está dado por el teorema más importante de la Proba-
bilidad y Estadı́stica, llamado Teorema Central del Lı́mite (central por fundamental).
Teorema Central del Lı́mite. Sea una v.a. X con f.d.p. fX (x), E(X) = µ y
V ar(X) = σ 2 . Considere una m.a. X1 , X2 , . . . , Xn de fX (x) y la media muestral X̄n ,
entonces la v.a.
X̄n − µ
√
σ/ n
tiene una distribución aproximadamente normal estándar si n → ∞. Es decir,
X̄n − µ
√ ∼ ˙ N (0, 1)
σ/ n
Sn − nµ
√ ∼
˙ N (0, 1)
σ n
CHAPTER 5. DISTRIBUCIONES DERIVADAS DE MUESTREO 88
Ejemplo. La altura media de planta de una variedad de maı́z a cierta etapa fenológica
es 172 cm y con una desviación estándar de 24.
a) si se toma una muestra aleatoria de 45 plantas, aproxime la probabilidad de que
la media muestral de altura de planta esté entre 164 y 178 cm,
b) repita (a) con una muestra de 140 plantas.
Soln. Note que E(X) = 172, σ 2 = (24)2 y f (x) es desconocida. Además como
√ √
˙ N (172, 242 /45), se tiene que σ/ n = 24/ 45 = 3.5777. Por consiguiente,
X̄n ∼
164 − 172 X̄n − 172 178 − 172
P (164 ≤ X̄n ≤ 178) = P ≤ ≤
3.5777 3.5777 3.5777
= (−2.23 ≤ Z ≤ 1.68)
= P (Z ≤ 1.68) − P (Z ≤ −2.23)
164 − 172 X̄n − 172 178 − 172
P (164 ≤ X̄n ≤ 178) = P ≤ ≤
2.0283 2.0283 2.0283
= (−3.94 ≤ Z ≤ 2.95)
= P (Z ≤ 2.95) − P (Z ≤ −3.94)
= 0.9984 − 0 = 0.9984
CHAPTER 5. DISTRIBUCIONES DERIVADAS DE MUESTREO 89
Note la diferencia causada por el tamaño de la muestra que modifica las varianzas.
Ejemplo. Sea X ∼ N (40, 36). Suponga que ahora se desea obtener la probabilidad
de que la media muestral difiera de la media poblacional en menos de 3 unidades, con
una muestra de n = 25.
−3 X̄ − µ 3
P (−3 < X̄ − µ < 3) = P √ < √ < √ = P (−2.5 < Z < 2.5)
6/ 25 σ/ n 6/ 25
= 1 − 2 P (Z < −2.5) = 1 − 2(0.0062) = 0.9876
CHAPTER 5. DISTRIBUCIONES DERIVADAS DE MUESTREO 90
Ejemplo. Sea X ∼ N (40, 36). Suponga que ahora se desea obtener dos valores
equidistantes de µ tales que con probabilidad 0.95 las medias muestrales se encuentren
entre tales valores.
soln. De la tabla de la normal estándar se tiene que,
(n − 1) S 2
∼ χ2(n−1)
σ2
X̄n − µ
√
σ/ n
X̄n − µ
√
σ/ n
CHAPTER 5. DISTRIBUCIONES DERIVADAS DE MUESTREO 91
es exactamente N (0, 1). Como tal media muestral estandarizada contiene a dos
parámetros desconocidos, se tiene interés en substituir al parámetro σ por la es-
√
tadı́stica S = S 2 , llamada deviación estándar muestral. ası́, se quiere saber la
distribución de la v.a.
X̄n − µ
√
S/ n
Por el teorema anterior, si la m.a. es de la N (µ, σ 2 ), se tiene que X̄ y S 2 , son
v.a.0 s independientes, entonces las v.a.0 s
X̄n − µ (n − 1) S 2
√ y
σ/ n σ2
son independientes, y con distribución normal estándar y Ji-Cuadrada respectiva-
mente.
Entonces por el teorema anterior referido a la distribución t-Student se tiene que
el cociente
−µ
X̄n√
σ/ n X̄n − µ
q = √ ∼ tn−1
(n−1) S 2 S/ n
σ 2 (n−1)
Por consiguiente, si las dos muestras aleatorias son independientes, por el teorema
sobre el cociente de dos Ji-Cuadradas, se tiene,
2 2
SX /σX m−1
∼ Fn−1
SY2 /σY2
Escenario:
Población descrita por X ∼ fX (x; θ), θ es un parámetro desconocido.
Muestra Aleatoria X1 , X2 , . . . , Xn iid fX (x; θ)
Ejemplos:
a) p = proporción de artı́culos defectuosos
H0 : p ≤ 0.01
93
CHAPTER 6. PRUEBA DE HIPÓTESIS ESTADÍSTICA 94
HA : p > 0.01
b) µ = rendimiento en ton/ha de maiz variedad Torito I
H0 : µ ≥ 14.3
HA : µ < 14.3
c) σ 2 = varianza de las mediciones de pH
H0 : σ 2 ≤ 0.001
HA : σ 2 > 0.001
Decision
Aceptar H0 Rechazar H0
H0 Decision Correcta Error Tipo I
Verdad
HA Error Tipo II Decision Correcta
CHAPTER 6. PRUEBA DE HIPÓTESIS ESTADÍSTICA 95
Abreviaciones.
RH0 = Rechazar H0
AH0 = Aceptar H0
RRH0 = Región de Rechazo de H0
RAH0 = Región de Aceptar H0
Ejemplo. Una nueva variedad de trigo produce los siguientes rendimientos en ton/ha.
3.15, 3.92, 4.26, 3.36, 3.72, 4.19, 3.42, 4.38, 4.50
CHAPTER 6. PRUEBA DE HIPÓTESIS ESTADÍSTICA 97
7.07, 7.00, 7.10, 6.97, 7.00, 7.03, 7.01, 7.01, 6.98, 7.08
Usando α = 0.05 se desea probar,
H0 : µ = 7.0
HA : µ 6= 7.0
n = 10, X̄ = 7.025, S 2 = 0.001938889, S = 0.04403282
X̄ − µ0 7.025 − 7.0
t0 = √ = √ = 1.795409
S/ n 0.04403282/ 10
α = 0.05 ⇒ tα/2 (n − 1) = t0.025 (9) = 2.26
RD: |t0 | = 1.7954 < 2.26 = t0.025 (9) ⇒ AH0 , con α = 0.05
Conclusión: El promedio de mediciones de pH es de 7.0, con α = 0.05.
Prueba en R
x < − c(7.07, 7.00, 7.10, 6.97, 7.00, 7.03, 7.01, 7.01, 6.98, 7.08)
t.test(x,alternative=c(“two.sided”), mu=7.0, conf.level=0.95)
P (T9 > 1.795409) = 0.05307953
p-value= 2 P (T9 > 1.795409) = 0.1061 > 0.05 = α, entonces AH0
La estadı́stica de prueba,
X̄ − µ0 37.29167 − 40
t0 = √ = √ = −3.4352
S/ n 2.73112/ 12
−tα (n − 1) = −t0.05 (11) = −1.79
RD: como t0 = −3.4352 < −1.79 = −t0.05 (11) ⇒ RH0 , con α = 0.05.
Conclusión. El promedio de millaje de la muestra es menor a 40,000 millas, con
α = 0.05. Es decir, el fabricante del compuesto, no tiene razón, con α = 0.05.
Prueba en R,
x < − c(36.1, 40.2, 33.8, 38.5, 42, 35.8, 37.1, 41, 36.8, 37.2, 33, 36)
t.test(x,alternative=c(“less”), mu=40, conf.level=0.95)
Prueba en R
Se requiere cargar el programa TeachingDemos. En seguida usar la instruccion
library(TeachingDemos)
a fin de disponer de la rutina requerida. A continuación use:
ph < − c(7.07, 7.00, 7.10, 6.97, 7.00, 7.03, 7.01, 7.01, 6.98, 7.08)
sigma.test(ph, alternative=c(”greater”), sigma=sqrt(0.0018))
data: trigo
W = 0.93198, p-value = 0.5004
RD p-value = 0.5004 > 0.05 = α, implica que se acepta H0 .
2
X ∼ N (µX , σX ), Y ∼ N (µY , σY2 )
2
c) H0 : σX = σY2 2
vs HA : σX 6= σY2
2
Se obtienen de las muestras SX y SY2 . Para realizar la prueba de hipótesis, se
emplea la estadı́stica de prueba
2
SX
F0 =
SY2
Considerando un nivel de significancia de α, la regla de decisión es,
m−1 m−1
a) Rechaza H0 si F0 > Fn−1,α , no rechaza H0 si F0 ≤ Fn−1,α
m−1 m−1
b) Rechaza H0 si F0 < Fn−1,1−α , no rechaza H0 si F0 ≥ Fn−1,1−α
m−1 m−1
c) Rechaza H0 si F0 < Fn−1,1−α/2 , o rechaza H0 si F0 > Fn−1,α/2 ,y
m−1 m−1
no rechaza H0 si Fn−1,1−α/2 ≤ F0 ≤ Fn−1,α/2 .
Recuerde que para obtener el punto de corte del lado izquierdo de la curva de F ,
m−1
es decir, el punto Fn−1,1−α , no provisto por las tablas en los textos, se usa la relación
m−1 1
Fn−1,1−α = n−1
Fm−1,α
2
H0 : σX = σY2
2
HA : σX 6= σY2
La estadı́stica de prueba es,
2
SX 101678.5
F0 = 2
= = 1.267247
SY 80235.75
m−1 11 1 1
Fn−1,1−α/2 = F8,0.975 = 8
= = 0.2729
F11,0.025 3.664
m−1 11
Fn−1,α/2 = F8,0.025 = 4.243
RD: Como F0 = 1.267247 ∈ (0.2729, 4.243) ⇒ Se acepta H0 , con α = 0.05
Conclusión: Las varianzas del rendimiento en las dos condiciones de humedad, 10%
y 40%, son estadı́sticamente iguales, con α = 0.05.
Prueba en R
x < − c(1735, 2002, 1820, 2082, 1894, 1816, 2008, 1758, 1898, 2223, 2873, 2313)
y < − c(3403, 3294, 2899, 3350, 3212, 2964, 3098, 2984, 2492)
var.test(x,y)
p-value=0.754 > α = 0.05, por lo que se acepta H0 .
p-value = 2 P (F ≥ F0 ) = 2 P (F ≥ 1.2672).
tienen
2
H0 : σX = σY2
2
HA : σX 6= σY2
La estadı́stica de prueba es,
2
SX 0.02569667
F0 = 2
= = 14.05286
SY 0.001828571
m−1 5 1 1
Fn−1,1−α/2 = F6,0.975 = 6
= = 0.1433
F5,0.025 6.978
b) H0 : µX ≥ µY vs HA : µX < µY
c) H0 : µX = µY vs HA : µX 6= µY
2
Caso σX = σY2 = σ 2 desconocida.
Dado que las dos varianzas son estadı́sticamente iguales, entonces se obtiene la
estimación de una sola varianza, llamada ponderada, con la siguiente expresión,
2
(m − 1)SX + (n − 1)SY2
Sp2 =
m+n−2
Con esto, se emplea la estadı́stica de prueba
X̄ − Ȳ
T0 = q
Sp2 m1 + n1
2
Caso σX 6= σY2 , σX σY , desconocidas.
CHAPTER 6. PRUEBA DE HIPÓTESIS ESTADÍSTICA 108
La estadı́stica T 0 ∼
˙ t(ν) g.l. donde ν = dve (máximo entero mayor que) y
2 2
SX SY2
m
+ n
v= 2 2 2
(SX /m) (SY2 /n)
m−1
+ n−1
Ejemplo. Del experimento realizado en soya bajo las dos condiciones de humedad,
descrito anteriormente, se tiene la siguiente información:
2
m = 12, X̄ = 2035.67 SX = 101, 678.5
n = 9, Ȳ = 3077.333 SY2 = 80, 235.75
La hipótesis de interés es,
H0 : µX = µY
HA : µX 6= µY
En virtud de haber aceptado la hipótesis de igualdad de las varianzas en la prueba
2
anterior con dichos datos, se asume el caso σX = σY2 = σ 2 , σ 2 desconocida.
Se calcula la varianza ponderada,
2
(m − 1)SX + (n − 1)SY2 11(101678.5) + 8(80235.75)
Sp2 = = = 92649.98
m+n−2 19
Con esto, se emplea la estadı́stica de prueba
X̄ − Ȳ 2035.167 − 3077.333 −1042.167
T0 = q = q = = −7.764557
Sp2 1 1
+n
1
92649.98 12 + 91
134.221
m
RD: Como |T0 | = 7.764557 > 2.861 = t0.005 (19) ⇒ RH0 con α = 0.01.
Conclusión: Las medias del rendimiento de soya en las dos condiciones de humedad
10% y 40%, no son iguales, con α = 0.01.
Prueba en R
x < − c(1735, 2002, 1820, 2082, 1894, 1816, 2008, 1758, 1898, 2223, 2873, 2313)
y < − c(3403, 3294, 2899, 3350, 3212, 2964, 3098, 2984, 2492)
t.test(x,y,alternative=c(“two.sided”),mu=0,var.equal=TRUE)
p-value=2.604e − 07 = 2.604(10−7 ) = 2 P (t19 < t0 ) < α, entonces RH0 ,
CHAPTER 6. PRUEBA DE HIPÓTESIS ESTADÍSTICA 110
Prueba en R
x < − c(10.62, 10.58, 10.33, 10.72, 10.44, 10.74)
y < − c(10.50, 10.52, 10.58, 10.62, 10.55, 10.51, 10.53)
t.test(x,y,alternative=c(“two.sided”),mu=0,var.equal=FALSE)
p-value= 2 P (t6 > t0 ) = 2(0.349343) = 0.698 > α, se acepta H0 .
CHAPTER 6. PRUEBA DE HIPÓTESIS ESTADÍSTICA 111
Pn
Xi − np0 16 − 500(0.04)
AZ0 = pi=1 =p = −0.91
np0 (1 − p0 ) 500(0.04)(0.96)
Con α = 0.05, el valor de tablas es zα = z0.05 = 1.645.
RD: Como AZ0 = −0.91 < 1.645 = z0.05 , se acepta H0 , con α = 0.05.
Conclusión: La proporción de defecto es menor o igual a 4%, con α = 0.05, es decir,
no hay cambio.
Por consiguiente;
E(Y1 ) = mp1 y V ar(Y1 ) = mp1 (1 − p1 )
E(Y2 ) = np2 y V ar(Y2 ) = np2 (1 − p2 )
Se desea probar la hipótesis
H0 : p1 = p2
HA : p1 6= p2
Los estimadores de los dos parámetros proporciones p1 y p2 son:
pˆ1 = Y1 /m, E(pˆ1 ) = p1 , y V ar(pˆ1 ) = p1 (1 − p1 )/m
CHAPTER 6. PRUEBA DE HIPÓTESIS ESTADÍSTICA 113
Y1 + Y2
p̂ =
m+n
pˆ − pˆ2 − (p1 − p2 )
q1 ∼
˙ n(0, 1)
p̂(1 − p̂) m1 + n1
pˆ1 − pˆ2
AZ0 = q
p̂(1 − p̂) m1 + n1
Y1 250 Y2 178
pˆ1 = = = 0.8333, pˆ2 = = = 0.6846
m 300 n 260
P
Clase 1 2 ··· k
Frecuencia n1 n2 ··· nk n
Se tiene que
Notas
a) Se recomienda tener Ei ≥ 5
b) Si no se ha estimado ningún parámetro, los gl son k − 1.
P
Clase 1 2 3 4
Oi 587 197 168 56 1008
Ei 567 189 189 63
CHAPTER 6. PRUEBA DE HIPÓTESIS ESTADÍSTICA 116
Intervalos de Confianza
117
CHAPTER 7. INTERVALOS DE CONFIANZA 118
Pθ [T1 < θ] ≥ 1 − α
Pθ [θ < T2 ] ≥ 1 − α
X̄ − µ
√ ∼ tn−1
S/ n
Por consiguiente
X̄ − µ
Pµ −tα/2 (n − 1) < √ < tα/2 (n − 1) = 1 − α
S/ n
Despejando µ, se tiene el IC(µ),
S S
X̄ − tα/2 (n − 1) √ , X̄ + tα/2 (n − 1) √
n n
En éste caso, se tienen los lı́mites
S
L = X̄ − tα/2 (n − 1) √
n
CHAPTER 7. INTERVALOS DE CONFIANZA 119
S
L̄ = X̄ + tα/2 (n − 1) √
n
S
L = X̄ − tα/2 (n − 1) √
n
0.4895094
= 3.878 − (2.306) = 3.5017
3
S
L̄ = X̄ + tα/2 (n − 1) √
n
0.4895094
= 3.878 + (2.306) = 4.2542
3
Se escribe el IC con 1 − α = 0.95 de confiabilidad como (3.5017, 4.2542).
Considere ahora probar, H0 : µ = 3.4 vs HA : µ 6= 3.4
Como 3.4 6∈ (3.5017, 4.2542) ⇒ se rechaza H0 con α = 0.05.
Considere ahora probar, H0 : µ = 4.1 vs HA : µ 6= 4.1
Como 4.1 ∈ (3.5017, 4.2542) ⇒ se acepta H0 con α = 0.05.
CHAPTER 7. INTERVALOS DE CONFIANZA 120
Ejemplo. Con los datos de un ejemplo anterior donde se desea calibrar un medidor
de pH se tienen los datos;
7.07, 7.00, 7.10, 6.97, 7.00, 7.03, 7.01, 7.01, 6.98, 7.08
n = 10, X̄ = 7.025, S 2 = 0.001938889, S = 0.04403282
Se construye un IC(σ 2 ) con 1 − α = 0.95,
(n − 1)S 2 9(0.001938889)
L1 = 2
= = 0.00091732032
χn−1,α/2 19.0228
(n − 1)S 2 9(0.001938889)
L2 = 2
= = 0.0064620059
χn−1,1−α/2 2.7004
CHAPTER 7. INTERVALOS DE CONFIANZA 121
Ejemplo. Con los datos de un ejemplo anterior sobre la comparación del rendimiento
de soya bajo dos condiciones de humedad aprovechable se tiene la siguiente infor-
mación.
CHAPTER 7. INTERVALOS DE CONFIANZA 122
2
m = 12, X̄ = 2035.67 SX = 101, 678.5
n = 9, Ȳ = 3077.333 SY2 = 80, 235.75
Sp2 = 92649.98
Para obtener un IC(µX − µY ), con α = 0.05 se tiene t0.025 (19) = 2.093024, y los
lı́mites inferior y superior se calculan mediante,
s
2
1 1
L = X̄ − Ȳ − tα/2 (m + n − 2) Sp +
m n
s
1 1
= 2035.167 − 3077.333 − 2.093024 92649.98 + = −1323.094
12 9
s
1 1
L̄ = X̄ − Ȳ + tα/2 (m + n − 2) Sp2 +
m n
s
1 1
= 2035.167 − 3077.333 + 2.093024 92649.98 + = −761.2389
12 9
Objetivo: Encontrar y describir relación entre una variable dependiente (Y) y una
variable independiente (x).
X −→ Y
Causa Efecto
Ejemplos.
a) Relación entre reactante producido y temperatura, en un proceso quı́mico
b) Relación entre el rendimiento de grano y cantidad de fertilizante usado.
c) Relación entre oferta y demanda de una mercancı́a.
123
CHAPTER 8. REGRESIÓN LINEAL SIMPLE 124
Y = β0 + β1 f (X)
Donde;
β0 y β1 son parámetroa desconocidos,
β0 es la ordenada al origen,
β1 es la pendiente o coeficiente de regresión,
f (X) es cualquier función de X,
Se le llama modelo lineal (lineal en los parámetros β0 y β1 ), sin que necesariamente
implique que la relación entre X y Y pueda representarse por una lı́nea recta,
Si tal relación fuera verdadera, una vez conocidos los parámetros β0 y β1 , entonces
serı́a posible predecir exactamente la respuesta, para cualquier valor de entrada. En la
práctica tal precisión no es posible, en virtud de la variación inherente a la naturaleza.
Por consiguiente, una ecuación como la anterior podrı́a ser válido sujeto a un error
aleatorio, dando una relación llamada Regresión Lineal Simple, representada por,
Yi = β0 + β1 f (Xi ) + i i = 1, 2, . . . , n
Yi = β0 + β1 Xi + i i = 1, 2, . . . , n
Se desea usar la muestra aleatoria para obtener los estimadores de los parámetros
desconocidos β0 y β1 . Denote la ecuaciń de recta estimada por
Se desea determinar las Ŷi , es decir la recta estimada de regresión tal que el cuadrado
de errores sean minimizados, es decir,
X X X
2i = (Yi − Ŷi )2 = (Yi − β̂0 − β̂1 Xi )2
CHAPTER 8. REGRESIÓN LINEAL SIMPLE 126
∂ X 2 ∂ X
i = (Yi − β0 − β1 Xi )2
∂β0 ∂β0
X
= 2(Yi − β0 − β1 Xi )(−1)
X X X
= −2 Yi + 2 β0 + 2β1 Xi
∂ X 2 ∂ X
i = (Yi − β0 − β1 Xi )2
∂β1 ∂β
X0
= 2(Yi − β0 − β1 Xi )(−Xi )
X X X
= −2 Xi Yi + 2β0 Xi + 2β1 Xi2
Igualando a cero cada derivada parcial y escribiendo los parámetros del lado
izquierdo para ser determinados, se obtiene el llamado sistema de ecuaciones nor-
males,
P P
(A) nβ0 + Xi β1 = Yi
Xi β0 + Xi2 β1 = Xi Yi
P P P
(B)
Resolviendo este sistema de 2 ecuaciones se tiene qie los estimadores de los parámetros
que minimizan los cuadrados de los errores son:
β̂0 = ȳ − β̂1 x̄
P P
xi yi − ( xi )( yi )
P
n
β̂1 = P 2 (P xi )2
xi − n
2
P
yi2 − ( nyi )
P
Syy = SP Y Y =
P 2 ( P xi ) 2
Sxx = SP XX = xi − n
Sxy
Con lo anterior, se puede escribir β1 = Sxx
.
x y x y
0.99 90.01 1.19 93.54
1.02 89.05 1.15 92.52
1.15 91.43 0.98 90.56
1.29 93.74 1.01 89.54
1.46 96.73 1.11 89.85
1.36 94.45 1.20 90.39
0.87 87.59 1.26 93.25
1.23 91.77 1.32 93.41
1.55 99.42 1.43 94.98
1.40 93.65 0.95 87.33
20
( xi )2 (23.92)2
X P
Sxx = x2i − = 29.2892 − = 0.68088
i=1
20 20
20
( yi )2 (1843.21)2
X P
Syy = yi2 − = 170, 044.5321 − = 173.3768
i=1
20 20
20 P20
xi )( 20
P
X ( i=1 i=1 yi ) (23.92)(1843.21)
Sxy = xi y i − = 2, 214.6566 − = 10.17744
i=1
20 20
Sxy 10.17744
β̂1 = = = 14.94748
Sxx 0.68088
σ 2 Xi2
P
β̂0 ∼ N β0 ,
nSxx
σ2
β̂1 ∼ N β1 ,
Sxx
CHAPTER 8. REGRESIÓN LINEAL SIMPLE 129
β̂1 − β 0
t0 = q 1
S2
Sxx
Si H0 es cierta, t0 ∼ tn−2 .
RD: Rechaza H0 si |t0 | > tα/2 (n − 2).
92
88
hidrocarb
[4] Lawal, B. 2014. Applied Statistical Methods in Agriculture, Health and Life Sci-
ences. Springer
[5] Le, C. T. and Eberly, L. E. 2016. Introductory Biostatistics 2nd ed. John Wiley
[7] Ross, S. M. 2021. Introduction to Probability and Statistics for Engineers and
Scientists 6th ed. Academic Press Elsevier
[8] Walpole, R. E., Myers, R. H., Myers, S. L. and Ye, K. 2012. Probability and
Statistics for Engineers and Scientists 9th ed. Pearson
131