Escolar Documentos
Profissional Documentos
Cultura Documentos
Programa de Estadı́sticas
UNIVERSIDAD DE CÓRDOBA
MONTERÍA
ii
Índice general
3. Probabilidad 51
3.1. Experimento Aleatorio y Probabilidad . . . . . . . . . . . . . 51
3.1.1. Experimento. . . . . . . . . . . . . . . . . . . . . . . . 51
3.1.2. Objeto de la teorı́a de probabilidades . . . . . . . . . . 52
iii
iv ÍNDICE GENERAL
7
8 CAPÍTULO 1. CONCEPTOS BÁSICOS Y NOTACIONES
Observación 1.2.1.
∞
[
1. Si Γ es infinito enumerable, indicamos en este caso la unión por Ak =
k=1
∞
\
A1 ∪ A2 ∪ A3 ∪ ... ∪ An ∪ ... y la intercepción por Ak = A1 ∩ A2 ∩
k=1
A3 ∩ ... ∩ An ∩ ...
n
[
2. Si Γ es finito, es decir, Γ = {1, 2, . . . , n}, la unión se notará Ak =
k=1
n
\
A1 ∪A2 ∪A3 ∪...∪An y la intercepción por Ak = A1 ∩A2 ∩A3 ∩...∩An .
k=1
1.3. PROPIEDADES DE OPERACIONES ENTRE CONJUNTOS 9
Ac = {ω ∈ Ω : ω ∈
/ A}.
En especial, ∅c = Ω y Ωc = ∅.
A − B = {ω : ω ∈ A ∧ ω ∈
/ B}
2. A − B = A ∩ B c .
4. A ∪ B = B ∪ A, A ∩ B = B ∩ A.
10 CAPÍTULO 1. CONCEPTOS BÁSICOS Y NOTACIONES
5. A ∪ (B ∪ C) = (A ∪ B) ∪ C, A ∩ (B ∩ C) = (A ∩ B) ∩ C.
6. A ∪ (B ∩ C) = (A ∩ B) ∪ (A ∩ C).
S S T T
7. A ∩ i∈Γ Ai = i∈Γ (A ∩ Ai ) y A ∪ i∈Γ Ai = i∈Γ (A ∪ Ai ).
8. A ∪ A = A, A ∪ Ac = Ω, A ∩ A = A, A ∩ Ac = ∅.
9. A ∩ Ω = A, A ∪ ∅ = A, A ∪ Ω = Ω y A ∩ ∅ = ∅.
η (A ∪ B) = η (A) + η (B)
η (A ∪ B) = η (A) + η (B) − η (A ∩ B)
η (A ∪ B) = η (R1 ∪ R2 ∪ R3 )
= η (R1 ) + η (R2 ) + η (R3 )
| {z }
η(A)
= η (A) + η (B) − η (A ∩ B) .
∞ \
[ ∞
lı́m inf An = Ai .
n
n=1 i=n
3. Si para una sucesión {An }n=1,2,... , lı́m sup An = lı́m inf An diremos que
n n
tal sucesión tiene lı́mite y escribimos lı́m An = A, lo cual simbolizare-
n
mos por An → A.
∅
si n = 1, 3
1 2 1
An = ( n , 3 − n ) si n = 5, 7, . . .
1 1
( 3 , n + 1) si n = 2, 4, . . ..
¿Existe lı́m An ?
Solución:
A1 = ∅
A2 = (− 16 , 32 )
A3 = ∅
1 5
A4 = ( 12 , 4)
1 7
A5 = ( 5 , 15 )
A6 = ( 16 , 76 )
∞
Ak , entonces B1 = B2 = A2 , B3 = (0, 45 ), B4 = (0, 45 ),
S
Sea Bn =
k=n
B5 = (0, 76 ), B6 = (0, 76 ), B7 = (0, 89 ), B8 = (0, 89 ), B9 = (0, 10
11
) y en
general para n ≥ 6,
(
(0, 1 + n1 ) si n es par
Bn = 1
(0, 1 + n+1 ) si n es impar.
1 1
Luego, como lı́mn→∞ n
= lı́mn→∞ n+1
= 0, entonces
∞ [
\ ∞ ∞
\
lı́m sup An = Ak = Bn = (0, 1].
n
n=1 k=n n=1
∞
T
Sea Cn = Ak , entonces C1 = C2 = C3 = ∅, entonces como para
k=n
−
n ≥ 6, se tiene que n1 ≤ 13 − n1 y 31 − n1 → 13 cuando n → ∞, se sigue
que C4 = [ 31 , 15
7
), C5 = [ 31 , 15
7
), ... y en general,
(
[1, 2 − 1 ) si n es par
Cn = 31 32 n 1
[ 3 , 3 − n+1 ) si n es impar.
∞ \
∞ ∞
[ [ 1 2
lı́m inf An = Ak = Cn = , .
n
n=1 k=n n=1
3 3
Por tanto,
Propiedades 1.5.1.
∞
[
1. Si An = A y An ↑, entonces An → A y
n=1
∞
\
2. Si An = A y An ↓, entonces An → A.
n=1
Las cuales de acuerdo a las leyes de Morgan pueden ser obtenidas como
1.6. FUNCIONES 15
T∞ c
( n=1 An ) = {0}c = (0, ∞) = {x : x > 0}.
S∞ c
( n=1 An ) = [0, 1)c = [1, ∞) = {x : x ≥ 1}.
1.6. Funciones
1. Sean A y B conjuntos, una función f de A a B, denotada por f : A → B,
es un subconjunto G del producto cartesiano A × B (G ⊆ A × B), tal
que para todo a ∈ A hay un par de la forma (a, b) ∈ G. Si C ⊆ A,
1. f (∅) = ∅ y f −1 (∅) = ∅.
c
2. f −1 (T c ) = [f −1 (T )] .
n
Y
3. IA∪B (w) = IA (w)+IB (w)−IA (w)IB (w), I∪ni=1 Ai (w) = 1− (1−IAi (w))
i=1
1.7. FUNCIÓN INDICADORA 17
Sn
4. T
Sean A1 , A2 , . . . , An subconjuntos de Ω y defina A = j=1 Aj y B =
n
j=1 Aj , entonces
∞
[
Ası́, sucesivamente, para n = m, sı́ x ∈ Ak , entonces ∃nm tal que
k=m
(nm > nm−1 > . . . > n2 > n1 ) tal que x ∈ Anm (IAnm (x) = 1).
1. (h ◦ g) ◦ f = h ◦ (g ◦ f )
2. f ◦ IA = f y IB ◦ f = f.
Capı́tulo 2
Elementos de Análisis
Combinatorio
Solución:
A1 B1 C A2 B1 C A3 B1 C A4 B1 C
A1 B2 C A2 B2 C A3 B2 C A4 B2 C
19
20 CAPÍTULO 2. ELEMENTOS DE ANÁLISIS COMBINATORIO
A1 B3 C A2 B3 C A3 B3 C A4 B3 C
número de rutas diferentes 4 × 3 = 12
2.3. Permutaciones
Una permutación de n objetos (tomados todos a la vez) es una ordenación
de los mismos en un orden dado.
Con dos elementos a, b podemos obtener las siguientes permutaciones ab, ba
y con tres elementos a, b, c las permutaciones siguientes abc, acb, bac, bca,
cab, cba.
Veamos ahora cuántas permutaciones se pueden hacer de n objetos diferentes
(tomados todos a la vez). Agrupar los n objetos es equivalente a colocarlos
en una caja con n casillas en algún orden especı́fico.
2.3. PERMUTACIONES 21
1 2 3 ... n
n Pn = n(n − 1)(n − 2) · · · 1
Puede observarse que resulta tedioso responder a la pregunta ”cuales son las
permutaciones” cuando n es bastante grande. En los problemas en adelante
estaremos interesados en responder la pregunta ”cuantas son las permutaciones”.
No nos interesa saber, ordinariamente cuáles.
2.4. Variaciones
Consideremos n objetos diferentes. Nos interesa ahora las permutaciones de
r objetos elegidos entre los n elementos dados (r ≤ n), llamadas también
”variaciones”. Usaremos la expresión n Pr para indicar las variaciones (o per-
mutaciones ) de r objetos tomados de n.
Resumimos nuevamente el esquema de las cajas o buzones pero ahora nos
detenemos cuando se haya llenado la casilla r-ésima. De este modo, la prime-
ra casilla se puede llenar con uno de n objetos (n posibilidades), la segunda
con uno de los (n − 1) objetos restantes ((n − 1) posibilidades) y la r−ésima
2.4. VARIACIONES 23
casilla con unoo de los n−(r −1) objetos restantes (n−(r −1) posibilidades).
Usando el principio de la multiplicación hay.
n(n − 1) · · · (n − (r − 1)) formas de llenar los r-compartimientos. Por lo tanto
el número de permutaciones de r objetos tomados de n viene dado por.
casillas maneras
1a −→ n
a
2 −→ n − 1
3a −→ n − 2
3a −→ n − 3
.. .. ..
. . .
r −→ n − (r − 1)
.. .. ..
. . .
Ejemplo 2.4.1. Hallar el número de permutaciones de los objetos a, b, c, d, e
tomados de a 3
Solución:
Se trata de llenar 3 casillas , con el objeto de hallar las permutaciones
de 5 elementos tomados de a 3. La primera se puede llenar con cualquiera de
las 5 (5 posibilidades), la segunda puede llenarse de 4 formas diferentes (4
posibilidades) y una vez hecho esto, la tercera se puede llenar de 3 maneras
(3 posibilidades) aplicando el P.M tenemos que hay 5 × 4 × 3 = 60 posibles
permutaciones de 3 elementos tomados de a, b, c, d, e
Solución:
Hay 7 letras distintas que forman la palabra CRISTAL, de ellas hay 5
consonantes y 2 vocales.
ii) En este caso las 4 casillas solo deben llenarse con las consonantes
c, r, s, t, l. Hay 5 maneras de llenar la primera, 4 la segunda, 3 la ter-
cera y 2 la cuarta casilla. Aplicando P.M hay 5 × 4 × 3 × 2 maneras de
llenar las casillas, por lo tanto hay 5 × 4 × 3 × 2 = 120 permutaciones
que solo contienen consonante.
iv) La primera casilla se puede llenar de 2 maneras (a,i). Una vez hecho
esto las restantes casillas se pueden llenar de 6, 5, 4 maneras respecti-
vamente. En total hay 2 × 6 × 5 × 4 = 240 palabras que empiezan por
vocal.
n!
Teorema 2.4.1. n Pr = (n−r)!
.
Demostración.
2.5. Combinaciones
”En una reunión de 4 defensas de un equipo de microfutbol a, b, c, d se quie-
ren hacer grupos de a 3 defensas cada uno. ?‘cuantos de estos grupos se
pueden formar?. El problema es diferente al de las permutaciones. No resulta
26 CAPÍTULO 2. ELEMENTOS DE ANÁLISIS COMBINATORIO
Solución:
Se trata de obtener los subconjuntos de 4 elementos tomados de 10. Por lo
10
tanto, hay 4 formas de escoger las preguntas
2.5. COMBINACIONES 27
Solución:
Cada rectángulo se puede formar con 2 lineas horizontales y 2 verticales.
Las horizontales se pueden combinar de 32 formas y las verticales de 82
Solución:
16 16! 16×15
2
= 2!14! = 2
= 120 rectas y
16 16! 16×15×14
3
= 3!13!
= 2×3
= 560 triángulos.
Teorema 2.5.1. n ∈ Z+ , 0 ≤ k ≤ n, nk = n−k n
.
n n! n! n! n
Demostración. n−k = (n−k)!(n−(n−k))! = (n−k)!k! = k!(n−k)! = k
.
La anterior proposición se interpreta en términos de subconjuntos de un con-
junto de la siguiente manera: Cuando escogemos k objetos de n, es lo mismo
que escoger n − k objetos de n; note que cada subconjunto de k elementos
determina un único
8
8
subconjunto
8
8
de10n − k10elementos (su complemento) y
número, ası́: 3 = 5 ; 1 = 7 ; 6 = 4 .
Teorema 2.5.2. nk + k−1 n
= n+1
k
n ∈ Z+ 0 ≤ k ≤ n.
Demostración.
n n n! n!
+ = +
k k−1 k!(n − k)! (k − 1)!(n − (k − 1))!
n!(n − k + 1) + n!k
=
k!(n − k + 1)!
n!n − n!k + n! + n!k
=
k(n + 1 − k)!
n!(n + 1)
=
k!(n + 1 − k)!
(n + 1)! n+1
= = .
k![(n + 1) − k]! k
28 CAPÍTULO 2. ELEMENTOS DE ANÁLISIS COMBINATORIO
n+1 n n
Luego k
= k
+ k−1
.
La anterior expresión se suele escribir de la siguiente forma:
n n−1 n−1
= + ,
k k k−1
este resultado se interpreta de la siguiente manera: escojamos cualquiera de
los n objetos, digamos que sea a1 . Al elegir k objetos entre n puede ocurrir
que a1 esté incluido o excluido pero no las dos cosas. Luego al contar el
número de maneras de escoger k objetos, se puede aplicar el principio de la
adición anotado antes.
Si a1 está excluido se debe escoger la k objetos de la n − 1 objetos restantes
(ya que no se escogió a1 inicialmente) y hay n−1 k
formas de hacerlo.
Si a1 está incluido, entonces debemos escoger solamente k − 1 objetos mas de
los restantes n − 1 lo cual puede hacerse de n−1
k−1
. De manera que el numero
pedido es la suma de esos dos, lo cual comprueba la identidad.
Ejemplo 2.5.5. Si 99 = a y 100 = b. Expresar 100
5 95 95
en función de a y b.
Solución:
Aplicando el teorema anterior
encontramos que:
100 100 100 99 99
95
= 5 y a su vez 5 = 5 + 4 = a + b
Los números nk se suelen denominar coeficientes binomiales debido a que
En efecto:
1
X 1 1−k k 1 1 0 1 0 1
a) a b = ab + a b = a1 + b1 = (a + b) = (a + b)1
k=0
k 0 1
En efecto:
n
n+1 n
X n
(a + b) = (a + b)(a + b) = (a + b) an−k bk
k=0
k
n n
X n n−k k X n n−k k
=a a b +b a b
k=0
k k=0
k
n n
X n n+1−k k X n n−k k+1
= a b + a b
k=0
k k=0
k
n n+1
n n+1 0 X n n+1−k k X n
= a b + a b + an−(k−1) b(k+1)−1
0 k=1
k k=0+1
k − 1
n n
n n+1 0 X n n+1−k k X n
= a b + a b + an+1−k bk
0 k k − 1
k=1 k=1
n
+ a0 bn+1
n+1−1
n
n n+1 0 X n n n+1−k k n 0 n+1
= a b + + a b + ab
0 k=1
k k−1 n
n
n + 1 n+1 0 X n + 1 n+1−k k n + 1 0 n+1
= a b + a b + ab
0 k=1
k n + 1
n+1
X
= an+1−k bk .
k=0
n
X n
Ejemplo 2.5.6. Aplicar el desarrollo de (a + b) = n
an−k bk para de-
k=0
k
mostrar que el número de subconjuntos de un conjunto con n elementos es 2n .
30 CAPÍTULO 2. ELEMENTOS DE ANÁLISIS COMBINATORIO
Solución:
En la obtención de subconjuntos debemos tener el conjunto vació, los que ten-
gan un elemento, los que tengan dos elementos,... y el mismo conjunto
que
consta de n elementos. Cada uno de ellos se puede escoger de n0 , n1 , n2 , ..., nn
formas. El número total de subconjuntos, aplicando el principio de la adición,
para entonces
n
n
n n n
X n n−k k
0
, 1 , 2 , ..., n pero como a b tenemos que si a = b = 1, en-
k
n k=0
X n n−k k n n n n
tonces a b = + + + ... + = (1 + 1)n = 2n .
k=0
k 0 1 2 n
Luego entonces hay 2n subconjuntos de un conjunto con n elementos.
Observación 2.5.1. 1) El ejemplo anterior se puede demostrar también
utilizando P.M. El razonamiento es, en este caso como sigue:
Supongamos que un conjunto tiene n elementos. El método consistirá en
clasificar cada elemento según vaya o no incluido en el subconjunto. Hay
2 maneras de clasificar cada elemento [1 o 0 según esté o no incluido]
y hay n elementos por lo tanto el P.M nos dice que hay
2 × 2 × 2 × ... × 2 = 2n
Solución:
7
X
7
(a + b) = a7−k bk
k=0
7 7!
7−k
cuando a = a3 , entonces k = 4, luego el coeficiente sera 4
= 4!3!
= 35
Ejemplo 2.5.8. Cuál es el coeficiente de a10 b3 en (a − b)13 ?
Solución:
13 13
X 13 13−k k
X 13 13−k k
(a − b)13
= (a + (−b)) 13
= a (−b) = a b (−1)k
k=0
k k=0
k
cuando a13−k = a10 , entonces k = 3 por lo tanto a10 b3 tiene coeficiente
13
3
(−1)3 = −286
32 CAPÍTULO 2. ELEMENTOS DE ANÁLISIS COMBINATORIO
Solución:
6
X 6
6
(x + y + z) = [(x + y) + z] =6
(x + y)6−k z k
k=0
k
En x2 y 3 z tiene k = 1 para z por lo tanto el coeficiente de z será 61 (x +
5
6−1
X 5 5−k k
y) z = 6 x y z pero x2 y 3 z tiene k = 3 para y luego el coeficiente
k=0
k
de x y z será 6{ 53 x2 y 3 }z = 60x2 y 3 z
2 3
n
k n
X
Usando el mismo razonamiento anterior se puede probar que (−1) =
k=0
k
0 tomando a = −1 y b = 1.
α
Podemos extender la definición de para α ∈ R. Entonces se define ·
k
α
= 0 para k ∈ N.
−k
α
· Extendiendo para k ∈ N y α = −n con n ∈ Z, tenemos
k
−n (−n)(−n − 1)(−n − 2) . . . (−n − k + 1)
=
k k!
(−1)k n(n + 1)(n + 2) . . . (n + k − 1) (n − 1)!
= ·
k! (n − 1)!
n + k − 1
= (−1)k .
k
Teorema 2.5.3. (Serie binomial) Para todo α ∈ R
α
α
X α k
(1 + x) = x ,
k=0
k
Demostración.
α
X α+β n
x = (1 + x)α+β = (1 + x)α (1 + x)β
n=0
n
" α #" α #
X α X β
= xk xk
k=0
k k
α
" n k=0 #
X X α β
= xk ∀x ∈ R
k=0 k=0
k n − k
Solución:
4!
a) 2!
11!
b) 2!2!2!2!
10!
c) 2!3!2!
9!
d) 5!2!
9!
e) 4!2!2!
Solución:
Se trata de obtener el número de permutaciones de 8 banderas de las cuales
8!
hay 4 iguales y 3 también. Aplicando el teorema hay 4!3! señales diferentes.
Que sucede cuando nos interesa el número de permutaciones de k objetos de
n (k ≤ n) de los cuales hay n1 de una clase, n2 de otra clase etc.
En este caso el número de permutaciones de n objetos tomando k a la vez
y si n1 son equivalentes, entre si, n2 de ellos son equivalentes entre si,..., nr
son equivalentes entre si viene dado por:
n!
(n − k)!n1 !n2 ! · · · nr !
Notese que ésta fórmula generaliza todas las anteriores.
2.6. PERMUTACIONES CON REPETICIÓN 35
Solución:
Como hay 3 banderas rojas, 3 azules y 2 blancas tendremos entonces 8 objetos
con las cuales se quieren formar señales diferentes que contengan (cada señal)
8! 8!
6 banderas aplicando el teorema tendremos, entonces (8−6)!3!2!3! = 2!3!2!3! =
280 señales diferentes.
Solución:
Dado un angulo reticular de puntos, como como el que se muestra a conti-
m+k
nuación, hay k maneras de llegar de (0, 0) a (m, k).
Para ver que esto se dá notemos en primer lugar que necesariamente cual-
quier trayectoria tiene longitud m + k lo cual significa que está formado por
m + k segmentos horizontales (H) o verticales (V). De esta forma cada tra-
yectoria puede caracterizarse como una expresión que tiene m + k haches
y ves tales como V HV HHV...H. La cual significa: moverse verticalmente
(una trayectoria), luego horizontalmente, luego horizontalmente, luego hori-
zontalmente, luego horizontalmente,... A cada trayectoria le corresponde una
expresión como la anterior y a cada expresión como esa le corresponde una
trayectoria. El problema se reduce, pues, a calcular
cuántas de éstas expre-
(m+k)! m+k m+k
siones hay! claramente hay m!k! = m = k .
Solución:
Básicamente es una aplicación del ejemplo anterior, la persona puede hacerlo
de (5+6)!
5!6!
= 462 maneras diferentes.
Solución:
2 × 2 × 2 × 2 × 2 = 25 .
2.9. Subpoblaciones
Dos poblaciones se consideran diferentes si una de ellas contiene un elemento
que no contiene la otra. Escoger m elementos diferentes de una población
tamaña n, es seleccionar una subpoblación (muestra ordenada) de tamaño
m (m ≤ n)
38 CAPÍTULO 2. ELEMENTOS DE ANÁLISIS COMBINATORIO
tercera, etc.
Aplicando el principio de la multiplicación hay.
n n − n1 n − n1 − n2 n − n1 − n2 − ... − nk−1 n!
... = .
n1 n2 n3 nk n1 !n2 !...nk !
Solución:
Los 3 que se van a quedar en el campamento se pueden escoger de 83 ma-
neras, los 2 que se van a recoger leña se escogen entre los 5 restantes de 52
explorando lo harán de 33 maneras. En total
maneras y los 3 que siguieron
se pueden decidir de 83 52 33 = 3!2!31
8!
maneras.
Solución:
9!
3!2!2!2!
maneras.
Ejemplo 2.10.3.
7 7!
= = 210
2, 3, 2 2!3!2!
8 8!
= = 420
4, 2, 2, 0 4!2!2!0!
Analizando el cuadro anterior podemos decir que, los elementos que están
en la primera columna son permutaciones de tres elementos idénticos, luego
aplicando la fórmula de permutaciones con repetición tenemos que:
n! 3!
p!q!r!
con n = 3, p = 3, q = r = 0 tenemos 3! = 1 por lo que la formula nos
da los coeficientes de los términos de la primera columna.
los de la segunda, tercera y cuarta columna son grupos de permutaciones
en los cuales hay 2 elementos idénticos, por lo que, nuevamente aplicando la
fórmula, tenemos.
3!
(n = 3, p = 2, q = 1, r = 0) k = 2!1! = 3 que viene siendo los coeficientes de
2 2 2
ab , a b, ac .
Los de la ultima columna son permutaciones de tres elementos diferentes
(entre si). Aplicando la fórmula tenemos que.
40 CAPÍTULO 2. ELEMENTOS DE ANÁLISIS COMBINATORIO
3!
(p = q = r = 1) k = 1!1!1!
= 6 que es coeficiente de abc en el desarrollo.
Como todas las letras aparecen el mismo número de veces y hay 4 letras
distintas, se deduce que la a aparece 5 veces lo cual podemos expresar ası́:
2Cr (4,2)
4
.
Cuántas aes nos quedan en [a b c d]? Tantas como haya en las combinacio-
nes monarias (1). Este número lo representaremos Cr (4,1)
4
.
Siguiendo las ideas anteriores, veamos como obtener una fórmula para Cr (4, 3).
Como todas las letras aparecen el mismo número de veces y hay 4 letras
distintas, entonces se deduce que cada letra aparece 15 veces (en particular
la a aparece 15 veces). Luego 3Cr4(4,3) , es el número de veces que aparece la
letra a, en las combinaciones ternarias.
2.11. COMBINACIÓN CON REPETICIÓN 43
luego.
(n + 1)(n + 2)(n + 3) · · · (n + (m − 1))
Cr (n, m) = Cr (n, 1)
2 × 3 × 4 × ··· × m
44 CAPÍTULO 2. ELEMENTOS DE ANÁLISIS COMBINATORIO
n(n+1)(n+2)···(n+m−1)
Pero Cr (n, 1) = n, entonces Cr = 1×2×3×···×m
multiplicando y divi-
diendo por (n − 1)! se tiene:
(n − 1)!n(n + 1)(n + 2) · · · (n + m − 1)
Cr (n, m) =
(n − 1)!m!
n+m−1
=
m
Solución:
Hay 4 tipos de arandelas y se van a sacar muestras de 3 arandelas, donde se
permite repetición (AAB, BBB, son muestras). se trata de combinaciones
con repetición de4 elementos (A, B, C, D) tomados de a 3 luego.
Cr (4, 3) = 4+3−1 6
3
= 3
= 20 muestras distintas.
Solución:
Hay 12 jugadores para llenar 9 posiciones, de los cuales el pitcher y la primera
base hay que jugar juntos. En consecuencia solo quedan 12 − 2 jugadores para
llenar las restantes 9 − 2 posiciones. Se trata entonces de variaciones de 10
jugadores tomados de a 7 cuyo número viene dado por 10P 7 = 10! 3!
= 604800
2.11. COMBINACIÓN CON REPETICIÓN 45
Solución:
Como hay 8 tomos de la obra y se exige que el 1, 4 y 8 ocupen sus lugares,
entonces los 5 restantes se pueden repartir de 5! maneras.
Este problema uno ilustra la siguiente situación. Si se tienen n objetos y a p
de ellos se le asignan lugares determinados, entonces el número de permuta-
ciones que pueden formarse es igual a Pn−p = (n − p)!.
Si los p objetos especificados pueden permutar entre si, entonces el número
total de permutaciones viene dado por Pn−p × P ! = (n − p)!p!.
Solución:
El problema equivale hallar las combinaciones de m + n cosas tomadas de
m en m por que cada vez que escojamos m cosas de m + n(m+n)!
dejamos ”atrás”
un grupo de n cosas restantes. Por lo tanto hay m+n n
= n!m!
maneras de
seleccionar m y n cosas respectivamente de un total de m + n, por ejemplo.
De cuantas maneras se puede dividir a, b, c en grupos de 1 y 2 respectivamente?
3!
De acuerdo al enunciado tendrı́amos que hay 1!2! maneras de dividir a, b, c
en grupos de 1 y 2 respectivamente, es decir 3 formas.
cuales serian los grupos
a bc −→ un grupo
b ac −→ otro grupo
c ab −→ otro grupo
tendrı́amos un total de 3 grupos.
46 CAPÍTULO 2. ELEMENTOS DE ANÁLISIS COMBINATORIO
puede suceder que m + n sean igual a un número par de cosas en tal caso nos
interesarı́a, por ejemplo, saber de cuantas maneras se puede dividir m + n
cosas en grupos iguales (m = n).
En este caso (si m = n) los grupos son del mismo número de objetos y son
(2m)!
intercambiables por lo que habrá m!m!2! maneras de dividir m + n objetos en
grupos iguales. Expliquemos un ejemplo porque se divide por 2!
Solución:
Supongamos que dividimos m + n + p en grupos de a m y n + p cosas respec-
tivamente, entonces el número en virtud a el ejemplo anterior es:
(m + n + p)!
,
m!(n + p)!
2.11. COMBINACIÓN CON REPETICIÓN 47
Si los grupos son del mismo número y son intercambiables, se tiene la fórmula
(3m)!
m!m!m!3!
.
4!
Por aplicación de la formula, tiene 1!2!1! = 12 formas de dividirlos en grupos
de 1, 2 y 1 elementos respectivamente
Solución:
Como hay 6 elementos para formar combinaciones 4 a 4 pero se quiere que
en cada una de éstas este la a, entonces las 3 restantes se tendrán que escoger
5!
de 5; por lo tanto hay 5C3 = 3!2! = 10 combinaciones las cuales contienen a
Ejemplo 2.11.7. Se tienen 6 lápices: rojo, azul, verde, amarillo, negro, café.
De cuántas maneras diferentes pueden tomarse des de ellos, excluyendo siem-
pre el negro y el azul.
48 CAPÍTULO 2. ELEMENTOS DE ANÁLISIS COMBINATORIO
Solución:
Como hay 6 lapices, para escoger 2 de ellos no incluyendo el negro y el azul,
entonces se han de escoger de 4 lapices (rojo, verde, amarillo, café) luego se
pueden escoger de 4C2 formas.
Solución:
Para el caso basta obtener todos los grupos de 3 elementos que se pueden
obtener de 9 frutos y a ese número quitarle aquellos grupos que no conten-
gan ninguna manzana. Los grupos que se pueden formar de 3en 3 son 93 .
nCm − nCm − p
Solución:
Ejemplo 2.11.10. Encontrar una formula que exprese la suma de todos los
números resultada de permutar el número 1234. Generalizar el resultado.
Solución:
Como hay 4 números se tendrá 4! = 24 permutaciones las cuales podemos
agrupar en grupos de 6 números [pues como cada permutación tiene 4 cifras
al dividir 24 entre 4, se obtiene los grupos antes mencionados]. Tales grupos
son iguales al siguiente.
1234
2341
3412
4123
Note que 10 es la suma de los dı́gitos que forman cada permutación del grupo
y 3! es el número de permutaciones circulares de 1, 2, 3, 4.
50 CAPÍTULO 2. ELEMENTOS DE ANÁLISIS COMBINATORIO
Capı́tulo 3
Probabilidad
51
52 CAPÍTULO 3. PROBABILIDAD
Ejemplo 3.2.2. Al lanzar una moneda dos veces definamos A como sigue; la
mayorı́a son caras. Claramente A = {cc} y A ⊆ Ω donde Ω = {cc, cs, sc, ss}.
Notese que los eventos elementales son {cc}, {cs}, {sc}, {ss}.
54 CAPÍTULO 3. PROBABILIDAD
1. A ocurre :a ∈ A.
2. B ocurre :a ∈ B.
6. No ocurre el evento A :a ∈ Ac .
7. No ocurre el evento B :a ∈ B c .
Consecuencias: 1) Ω, ∅ ∈ Q.
n
S n
T
2) Si Aj ∈ Q, j = 1, 2, . . . , n entonces Aj , Aj ∈ Q para cualquier
j=1 j=1
n finito. ( Esto dice que Q es cerrada bajo uniones e intersecciones
finitas ).
Prueba:
3.4.2. σ-álgebra
Definición 3.4.1. Sea un experimento E y Ω espacio muestral asociado a
E. Sea F una colección de sucesos:
F es una σ-álgebra de eventos si se cumple que:
1. Ω ∈ F.
2. Si A ∈ F, entonces Ac ∈ F.
∞
[
3. Si A1 , A2 . . . , ∈ F, entonces Aj ∈ F.
j=1
Ejemplo 3.4.2. Sea Ω = {1, 2, 3}, entonces para las colecciones de conjuntos
a) F1 = {∅, {1}, {2, 3}, Ω}
2. F2 = {A/A ⊆ Ω}
3. F3 = {∅, Ω, A, Ac }
4. F4 = {A/A ⊆ Ω, A es contable o cuyo complemento es contable }. ( Aquı́ Ω
es un conjunto no contable ).
Observación 3.4.1. Si en 3) de la definición anterior solo se cumple la unión
finita, entonces F es un álgebra. En general toda σ-álgebra es un álgebra,
más el reciproco no es cierto.
Observación 3.4.2. los elementos de F se llaman conjuntos medibles o
eventos. Todo evento de un solo elemento se llama evento elemental.
Definición 3.4.2. La dupla (Ω, F) es denominado espacio medible si Ω 6= φ
y F es una σ-álgebra en Ω.
Observación 3.4.3. 1. A es un evento de Ω, si A ∈ F.
2. F = {φ, Ω} es denominada σ-álgebra trivial (la más pequeña).
3. F = P (Ω) es denominada σ-álgebra total (la más grande).
Ejemplo 3.4.4. Para las colecciones definidas en el ejemplo anterior, se
observa que {2, 3} ∈ F1 , más {1, 3} ∈
/ F1 , ası́, {2, 3} es un evento de F1 más
{1, 3} no lo es; asimismo, {2} no es un evento en F2 , puesto que F2 no es
una σ-álgebra.
Proposición 3.4.1. ∅ ∈ F, A ∩ B ∈ F, A − B ∈ F, A M B ∈ F.
Demostración: Las pruebas de estas propiedades son inmediatas y se dejan
como ejercicios para los lectores.
Proposición 3.4.2. Si F es una σ-álgebra en Ω, entonces para A1 , A2 , . . . ∈
∞
\
F, Aj ∈ F.
j=1
n
\
2. Si Ai ∈ F, i = 1, 2, ..., n, entonces Ai ∈ F.
i=1
G−1 (F 0 ) = {G−1 (B 0 ) : B 0 ∈ F 0 }
es una σ-álgebra en Ω.
Solución:
1. Sean A1 , A2 , . . . ∈ G−1 (F 0 ) entonces para todo k = 1, 2, 3..., Ak =
G−1 (Bk0 ) para Bk0 ∈ F 0 . Ahora usando las propiedades de la función
inversa de la unión infinita se tiene que
∞ ∞ ∞
!
[ [ [
Ak = G−1 (Bk0 ) = G−1 Bk0
k=1 k=1 k=1
1. Ω ∈ F.
2. Si A1 , A2 ∈ F, entonces A1 − A2 ∈ F.
3. Si A1 , A2 , A3 , ..., ∈ F, entonces ∞
T
i=1 Ai ∈ F.
Proposición 3.4.3.
Demostración:
Ω ∈ F1 ∧ Ω ∈ F2 ⇒ Ω ∈ F1 ∩ F2 .
Si A ∈ F1 ∩ F2 ⇒ A ∈ F1 ∧ A ∈ F2 ⇒ Ac ∈ F1 ∧ Ac ∈ F2 ⇒
Ac ∈ F1 ∩ F1 .
Si A1 , A2 , . . . ∈ F1 ∩ F2 entonces A1 , A2 , . . . ∈ F1 ∧ A1 , A2 , . . . ∈
F2
[∞ [∞ [∞
⇒ Aj ∈ F1 ∧ Aj ∈ F2 → Aj ∈ F1 ∩ F2 .
j=1 j=1 j=1
Observación 3.4.4.
2. Si ξ ⊆ F, entonces σ(ξ) ⊆ F.
3. ξ ⊆ σ(ξ).
∞
\ 1
· (−∞, b] = −∞, b + ∈ B(R).
n=1
n
∞
\ 1 1
· {a} = a − ,a + ∈ B(R).
n=1
n n
1 x
2
si x = 1, 2, 3, . . .
f (x) =
0 caso contrario
68 CAPÍTULO 3. PROBABILIDAD
Si A = {x : 0 ≤ x ≤ 3}, entonces
2 3
X X 1 1 1 7
f (A) = f (x) = f (x) = f (1) + f (2) + f (3) = + + =
A 0≤x≤3
2 2 2 8
X
Ejemplo 3.4.13. Sea f (A) = f (x), donde
A
px (1 − p)1−x si x = 0, 1
f (x) =
0 caso contrario
x=0
X
Si A = {x : x = 0}, entonces f (A) = p0 (1 − p)1−0 = 1 − p.
x=0
Si A = {x : 1 ≤ x ≤ 2}, entones f (A) = f (1) = p.
Z
Ejemplo 3.4.14. Sea A ⊂ R y sea f (A) = e−x dx. Luego,
A
Z +∞
Si A = {x : 0 ≤ x < ∞}, entonces f (A) = e−x dx = 1.
Z 20
Si A = {x : 1 ≤ x ≤ 2}, entonces f (A) = e−x dx = e−1 − e−2 .
1
Si A1 = {x : 0 ≤ x ≤ 1} y A2 = {x : 1 < x ≤ 3}, entonces
Z 3 Z 1 Z 3
−x −x
f (A1 ∪ A2 ) = f ([0, 3]) = e dx = e dx + e−x dx = f (A1 ) + f (A2 )
0 0 1
P : F −→ R
definida ası́:
A cada suceso A ∈ F se asigna un real único P (A), llamado la probabilidad
del evento A, el cual debe satisfacer las siguientes axiomas.
P1 : P (A) ≥ 0, para todo A ∈ F
P2 : P (Ω) = 1
P3 : Si Ai ∈ F, i : 1, 2...n.., para Ai ∩ Aj = ∅ (i 6= j), entonces
"∞ # ∞
[ X
P Ai = P (Ai ).
i=1 i=1
Ejemplo 3.4.16. Sea Ω = {1, 2, 3} y F = {∅, Ω, {2}, {1, 3}} una σ-álgebra
de Ω, entonces para
70 CAPÍTULO 3. PROBABILIDAD
(
0 si 2 ∈
/A
P (A) =
1 si 2 ∈ A
se tiene que: P ≥ 0, además p(Ω) = 1, pues 2 ∈ Ω, como los únicos conjuntos
disjuntos de F dos a dos son {2}, {1, 3}, ∅ y dado que 2 ∈ / {1, 3}, ∅ se puede
verificar la propiedad de aditividad de P con respecto a la unión disjunta, por
lo tanto P es una medida de probabilidad.
Ejemplo 3.4.17. Para Ω = {1, 2, 3} y la colección de conjuntos F2 =
{∅, {1}, {2}, {3}, Ω}, se tiene que
0 si A = ∅
1 si A = {1}
P (A) = 32
3 si A = {2}
1 si A={1,2}
no es una medida de probabilidad sobre F2 puesto que F2 no es una σ-álgebra
en Ω.
Definición 3.4.11. La tripla (Ω, F, P ) es denominado un espacio de proba-
bilidades, donde Ω es el espacio muestral, F una σ-álgebra de eventos y P la
probabilidad.
Observación 3.4.5. Si el espacio muestral Ω es finito, el espacio de proba-
bilidad se llamara también finito. Cuando esto suceda el axioma P3 no tiene
razón de ser. En este caso se suplirá por el teorema 2 y éste desaparece de la
lista de teoremas.
Teorema 3.4.1. Sea (Ω, F, P ) un espacio de probabilidad. Entonces,
P (∅) = 0.
Demostración. Sea A1 = Ω y A" i = ∅ para
# i :∞2, 3, .... Claramente Ai ∩ Aj = ∅
[∞ ∞
[ X
(i 6= j) y Ω = Ai , luego P Ai = P (Ai ). Por lo tanto P (Ω) =
i=1 i=1 i=1
∞
X ∞
X ∞
X
P (Ai ) esto implica (por P2 ), 1 = P (Ai ) = P (A1 ) + P (Ai ) =
i=1 i=1 i=2
∞
X ∞
X
P (Ω) + P (Ai ), entonces P (Ai ) = 0 y como (por P1 ), P (Ai ) ≥ 0 para
i=2 i=2
todo A ∈ F, entonces P (Ai ) = 0 para i = 2, 3, ..., entonces P (∅) = 0.
3.4. FUNCIÓN DE PROBABILIDAD 71
Demostración.
"n # Sea
" ∞ An+1 An+2 = ... = ∅, entonces
# =∞
[ [ X Xn ∞
X n
X
P Ai = P Ai = P (Ai ) = P (Ai )+ P (Ai ) = P (Ai )+
i=1 i=1 i=1 i=1 i=n+1 i=1
∞
X n
X
P (∅) = P (Ai ).
i=n+1 i=1
Figura 3.1: Ω = A ∪ Ac .
A = (A ∩ B c ) ∪ (A ∩ B) = (A − B) ∪ (A ∩ B),
72 CAPÍTULO 3. PROBABILIDAD
Figura 3.2: A ∩ B c = A − B.
Figura 3.3: A ⊆ B.
Ahora, como A1 ∩ (A2 ∩ Ac1 ) = ∅, (A2 ∩ Ac1 ) ∩ (A3 ∩ Ac2 ∩ Ac1 ) = ∅,... y además,
A2 ∩ Ac1 ⊆ A2 , A3 ∩ Ac2 ∩ Ac1 ⊆ A3 ,..., An ∩ Ac1 ∩ Ac2 ∩ . . . ∩ Acn−1 ) ⊆ An ,
entonces se tiene que
"∞ #
[
P Aj = P (A1 ) + P (A2 ∩ Ac1 ) + P (A3 ∩ Ac2 ∩ Ac1 ) + . . .
j=1
"∞ # ∞
[ X
de donde se concluye que: P Aj ≤ P (Aj ).
j=1 j=1
En cualquier caso Ac ∈ G.
[ ∞
X
P( An ) ≤ P (An ) = 0
n∈N n=1
S S
entonces, P ( n∈N An ) = 0 y ası́ n∈N An ∈ G
• Si P (Am
S) 6= 0 para algún m ∈ N entonces PS(Am ) = 1, luego
A
Sm ⊂ n∈N An , entoncesS1 = P (Am ) ≤ P (S n∈N An ) y como
n∈N An ∈ F entonces P ( n∈N An ) = 1 y ası́ n∈N An ∈ G
FB = {A : A ∈ F y P (A ∩ B) = 0 ó P (A ∩ B) = P (B) }.
En cualquier caso Ac ∈ FB
. Luego,
[∞
Aj = A1 ∪ (A2 ∩ Ac1 ) ∪ (A3 ∩ Ac2 ∩ Ac1 ) ∪ . . . ∪ (An ∩ Acn−1 . . .)
j=1
Ahora,
" k # k
[ X X
P (Aj ∩ Ak+1 ) = P (Aj ∩ Ak+1 ) − P (Aj1 ∩ Aj2 ∩ Ak+1 )
j=1 j=1 1≤j1 <j2 ≤k
X
+ P (Aj1 ∩ Aj2 ∩ Aj3 ∩ Ak+1 ) − · · · + (−1)k+1
1≤j1 <j2 <j3 ≤k
X
P (Aj1 ∩ Aj2 ∩ . . . ∩ Ajk−1 ∩ Ak+1 )
1≤j1 <j2 <...<jk−1 ≤k
Entonces,
3.4. FUNCIÓN DE PROBABILIDAD 79
"k+1 # k+1
" k
#
[ X X X
P Aj = P (Aj ) − P (Aj1 ∩ Aj2 ) + P (Aj ∩ Ak+1 )
j=1 j=1 1≤j1 <j2 ≤k j=1
" #
X X
+ P (Aj1 ∩ Aj2 ∩ Aj3 ) + P (Aj1 ∩ Aj2 ∩ Ak+1 )
1≤j1 <j2 <j3 ≤k 1≤j1 <j2 ≤k
k+1
− · · · + (−1) P (A1 ∩ A2 ∩ · · · ∩ Ak )
X
+ (−1)k+1 P (Aj1 ∩ Aj2 ∩ . . . ∩ Ajk−1 ∩ Ak+1 )
1≤j1 <j2 <···<jk−1 ≤k
k+2
+ (−1) P (A1 ∩ A2 ∩ · · · ∩ Ak ∩ Ak+1 )
k+1
X X
= P (Aj ) − P (Aj1 ∩ Aj2 )+
j=1 1≤j1 <j2 ≤k+1
X
P (Aj1 ∩ Aj2 ∩ Aj3 ) − · · · + (−1)k+2
1≤j1 <j2 <j3 ≤k+1
P (A1 ∩ A2 ∩ . . . ∩ Ak ∩ Ak+1 ).
En particular:
P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 ).
P (A1 ∪ A2 ∪ A3 ) = P (A1 ) + P (A2 ) + P (A3 ) − P (A1 ∩ A2 ) − P (A1 ∩ A3 ) −
P (A2 ∩ A3 ) + P (A1 ∩ A2 ∩ A3 ).
1. Bn ⊆ An .
2. Bn ∩ Bm = ∅, si n 6= m y
∞
[ ∞
[
3. Bn = An .
n=1 n=1
80 CAPÍTULO 3. PROBABILIDAD
= ∅.
∞
[ ∞
[
3. Como Bn ⊆ An , ∀n ⇒ Bn ⊆ An .
n=1 n=1
∞
[
Ahora, sea x ∈ An , entonces existe un ı́ndice n tal que x ∈ An , sea n0
n=1
el primer ı́ndice tal que x ∈ An0 y x ∈ / Aj para 1 ≤ j ≤ n0 − 1. Entonces
0 −1
n[ [∞
x ∈ An0 − An = Bn0 , por lo tanto, x ∈ Bn . Lo cual completa la
n=1 n=1
prueba.
∞
! ∞
\ X
2. P An ≥1− P (Acn ).
n=1 n=1
3.4. FUNCIÓN DE PROBABILIDAD 81
n−1
[
Demostración. 1. Tomamos B1 = A1 y Bn = An − Ak , entonces como
k=1
∞
[ ∞
[
Bn = An y Bn ⊆ An y Bn ∩ Bm = ∅ ∀n 6= m
n=1 n=1
se sigue que
∞
! ∞
! ∞ ∞
[ [ X X
P An = P Bn = P (Bn ) ≤ P (An ).
n=1 n=1 n=1 n=1
2.
∞
! ∞ ∞
!c ! ∞
[ X \ X
P Acn ≤ P (Acn ) ⇒ P An ≤ P (Acn )
n=1 n=1 n=1 n=1
∞
! ∞
\ X
⇒ 1−P An ≤ P (Acn )
n=1 n=1
∞
! ∞
\ X
⇒ P An ≥1− P (Acn ).
n=1 n=1
∞
! ∞
!c !c !
\ \
P An =P An
n=1 n=1
∞
!c !
\
=1−P An
n=1
∞
!
\
=1−P Acn
n=1
∞
X
≥1− P (Acn ).
n=1
∞
!
[
2. Si P (An ) = 1 para alguna n, entonces P An = 1.
n=1
3.5. EJERCICIOS 83
∞
!
\
3. Si P (An ) = 0 para alguna n, entonces P An = 0.
n=1
∞
!
[
4. Si P (An ) = 0 para toda n, entonces P An = 0.
n=1
∞
! n ∞
!
\ X \
Demostración. 1. P An ≥ 1− P (Acn ) ⇒P An ≥1⇒
n=1 j=1 n=1
| {z }
0
∞
!
\
P An = 1.
n=1
∞ ∞
! ∞
!
[ [ [
2. An ⊆ Ak ⇒ P Ak ≥ P (An ) = 1 ⇒ P An = 1.
k=1 k=1 n=1
∞ ∞
! ∞
!
\ \ \
3. Ak ⊆ An ⇒ P Ak ≤ P (An ) = 0 ⇒ P Ak = 0.
k=1 k=1 k=1
∞
! ∞ ∞
!
[ X [
4. P An ≤ P (An ) ≤ 0 ⇒ P Ak = 0.
n=1 n=1 n=1
| {z }
0
3.5. Ejercicios
1. Con el fin de probar la afirmación de un mago quien asegura que posee
una varita capaz de detectar la presencia de aguas y minerales en el
subsuelo, se entierran 4 recipientes, dos vacı́os y dos llenos de agua. El
mago usara su varita para examinar cada uno de los 4 recipientes y
decidir cuales son los dos que contienen agua.
a) Defina el experimento.
b) Describa el espacio muestral.
84 CAPÍTULO 3. PROBABILIDAD
3. Los pacientes que llegan a una clı́nica pueden seleccionar una de tres
secciones para ser atendidos. Supongamos que los médicos se asignan al
azar a las secciones y que los pacientes no tiene preferencia especial por
ninguna de las secciones. tres pacientes llegan a la clı́nica y se registra
la sección que escogen.
a) Defina el experimento.
b) Describa Ω
a) Describa el experimento.
b) Describa Ω
11. Cuál es el espacio muestral para cada uno de los siguientes experimen-
tos:
P (A) + P (B) − 2P (A ∩ B)
a) Ac c) A ∪ B e) Ac ∪ B
b) B c d) Ac ∪ B c f) A ∩ B c
a) P (A ∪ B) c) P (B c ) e) P (Ac ∪ B c )
b) P (Ac ) d) P (Ac ∩ B c ) f) P (A ∩ B c )
a) P (A) b) P (B) c) P (A ∩ B c )
a) P (A) b) P (B) c) P (A ∩ B c )
1 3 5
20. Sean A, B eventos tales que P (A) = 2
, P (A ∪ B) = 4
, P (B c ) = 8
Hallar:
En efecto:
a) Dado que P (Ai ) ≥ 0 para todo Ai ∈ F, entonces pi ≥ 0.
n n
! n
[ [ X
b) Como Ω = Ai , entonces P (Ω) = P Ai = P (Ai ) ya que
i=1 i=1 i=1
n
X
Ai ∩ Aj = ∅ (i 6= j) por lo tanto, 1 = pi .
i=1
89
90 CAPÍTULO 4. ESPACIOS MUESTRALES FINITOS
Ejemplo 4.1.1. Un dado esta cargado en tal forma que la probabilidad de que
aparezca una cara es proporcional al número de puntos de esa cara. Calcular
la probabilidad de cada cara.
Solución:
Claramente Ω = {1, 2, 3, 4, 5, 6} y P {i} = ki, para i : 1, 2, 3, 4, 5, 6 con k una
X6
constante de proporcionalidad. Como pi = 1, se tiene que
i=1
k + 2k + 3k + 4k + 5k + 6k = 1,
1 i
entonces k = 21
y ası́ P {i} = 21
para i = 1, 2, 3, 4, 5, 6.
Ahora bien, consideremos A ⊆ Ω tal como fue concluido antes con n elemen-
tos claramente tenemos:
r r
X X 1 r
P (A) = pm i = p = p + p + ... + p = pr = r= .
i=1 i=1
| {z } n n
r veces
Luego,
# casos f avorables a A
P (A) = .
# casos posibles
Esta es la definición clásica de probabilidad de Laplace llamada ”probabilidad
clásica”. Es una forma de asignar probabilidades ”a priori”, contraria a la
definición frecuentista a que se hizo referencia en el ejercicio dos del capitulo
1, la cual asigna probabilidades ”a posteriori”.
Solución:
4
Al lanzar 4 dados el número de casos posibles es 6 . Para calcular el número
4
de casos posibles podemos decir que hay 2 formas de presentarse 1 y que
las otras 2 (osea la que no se presenta 1) tienen 5 × 5 maneras de combinarse,
(4)×25
por lo tanto la probabilidad pedida es p = 2 64 = 150 64
.
Solución:
Sea A ser múltiplo de 3; B ser múltiplo, se trata de hallar P (A ∪ B) para
calcular debemos usar el resultado P (A ∪ B) = P (A) + P (B) − P (A ∪ B).
Hay 31 (3000) = 1000 números que son múltiplos de 3, su probabilidad es
1000
p(A) = 3000 = 13 y hay 51 (3000) = 600 números que son múltiplos de 5,
600
su probabilidad asociada es p(B) = 3000 = 51 ahora, hay 15 1
(3000) = 200
200 1
números que son multiplos de 15, la probabilidad de p(A ∩ B) = 3000 = 15 , la
1 1 1 5+3−1 7
probabilidad pedida es P (A ∪ B) = 3 + 5 − 15 = 15 = 15 .
tes se tienen r1 Ps1 ×N −r1 Pn−s1 n-tuplas diferentes. Ası́ Ak tiene tamaño
n
P × N −r1 Pn−s1 ; luego,
s1 r1 s1
n
r1 Ps1 × N −r1 Pn−s1
P [Ak ] = s1 .
N Pn
Esta última fórmula puede ser re-escrita como
r1 N −r1 r1
r2
s1 n−s1 s1 n−s1
P [Ak ] = N
= N
. (4.1)
n n
P (A ∩ B)
P (A|B) =
P (B)
P (A∩B)
a) P (A|B) ≥ 0 ya que P (A|B) = P (B)
≥ 0 puesto que P (A ∩ B) ≥ 0.
P (Ω∩B) P (B)
b) P (Ω|B) = 1. En efecto: P (Ω|B) = P (B)
= P (B)
= 1.
"∞ # "∞ #
[ [
"∞ # P Ai ∩ B P (Ai ∩ B)
[ i=1 i=1
P Ai |B = =
i=1
P (B) P (B)
∞
X
P (Ai ∩ B)
i=1
=
P (B)
96 CAPÍTULO 4. ESPACIOS MUESTRALES FINITOS
∞
X P (Ai ∩ B)
=
i=1
P (B)
X∞
= P (Ai |B).
i=1
Observación 4.3.1.
Solución:
Ω = {(1, 1), (1, 2), , . . . , (6, 6)},
A = {(5, 5), (4, 6), (6, 4)},
B = {(2, 1), (3, 1), (3, 2), ..., (6, 5)}, entonces
3
P (A) = 36 ; P (B) = 15 36
P (A|B) = 151
(porqué el espacio muestral se ha redu-
cido a B), usando definición se tiene: A ∩ B = {(6, 4)}, entonces P (A|B) =
1
P (A∩B) 1
P (B)
= 36
15 = 15 .
36
Según lo anterior, hay 2 formas de hallar P (A|B)
ii) Como P (B|A) > P (B) > 0; ésto nos asegura que P (A) existe y P (A) >
0; luego
P (B ∩ A)
P (B|A) = > P (B) ⇔ P (B ∩ A) > P (A)P (B)
P (A)
↔ −P (B ∩ A) < −P (A)P (B)
↔ P (A) − P (A ∩ B) < P (A)(1 − P (B))
↔ P (A − (A ∩ B)) < P (A)P (B c )
↔ P (A ∩ B c ) < P (A)P (B c )
P (A ∩ B c )
↔ < P (B c )
P (A)
↔ P (B c |A) < P (B c ).
98 CAPÍTULO 4. ESPACIOS MUESTRALES FINITOS
" n
# n−1
!
\ \
P Ai = P (A0 ).P (A1 |A0 ).P (A2 |A1 ∩ A0 )...P An | Ai . (4.2)
i=0 i=0
Demostración. Realmente,
"n # las probabilidades
" n condicionadas
# están bien defi-
\ \
nidas ya que si P Ai ≥ 0 implica P Ai > 0. Este a su vez implica
i=0 i=0
!
n−1
\
que P (A0 ) > 0, P (A0 ∩ A1 ) > 0, ...P Ai > 0.
i=0
El enunciado general se prueba por inducción.
P (A1 ∩A0 )
Para n = 2; P (A0 ∩ A1 ) = P (A0 )P (A1 |A0 ) ya que P (A1 |A0 ) = P (A0 )
implica P (A0 ∩ A1 ) = P (A0 )P (A1 |A0 ).
Ejemplo 4.3.4. En una bolsa hay 5 bolas blancas y 3 bolas negras, calcular
la probabilidad de que al sacar 2, la primera sea blanca y la segunda sea negra.
Solución:
Sea A = {la 1ra es blanca} y B = {la 2da es negra} entonces P (A ∩ B) =
P (A)P (B|A) = 85 37
Solución:
Como hay 5 personas, para que queden intercalados, la primera tiene que ser
hombre.
Sea A = H1 ∩ M2 ∩ H3 ∩ M4 ∩ H5 .
P (A) = P (H1 )P (M2 |H1 )P (H3 |H1 ∩M2 )P (M4 |H1 ∩M2 ∩H3 )P (H5 |H1 ∩M2 ∩
H3 ∩ M4 ) = 35 24 32 12 11 = 10
1
.
a) Bi ∩ Bj = ∅ (i 6= j)
k
[
b) Bi = Ω
i=1
La partición puede ser finita o infinita numerable, según que los eventos sean
finitos o infinitos numerables.
La colección {B1 , B2 , B3 } forman una partición de Ω, mientras que {{1, 2, 3}, {1, 4, 5, 6}}
no forman una partición de Ω.
100 CAPÍTULO 4. ESPACIOS MUESTRALES FINITOS
Ejemplo 4.4.4. Una caja contiene 3 monedas, dos corrientes y una de dos
caras. Se selecciona una moneda al azar y se lanza. Si sale cara se lanza la
moneda de nuevo; si sale sello, entonces se escoge otra moneda entre las dos
que quedan y se lanza. i) Hallar la probabilidad de que salga cara dos veces,
ii) Salga sello dos veces.
Solución:
i) P = 31 · 12 · 21 + 13 · 12 · 12 + 31 · 1 · 1 = 12 .
ii) P = 13 · 12 · 12 · 12 + 13 · 12 · 12 · 12 = 12
1
.
Demostración.
P (Bi ∩ A) P (Bi )P (A|Bi )
P (Bi |A) = =P .
P (A) i P (Bi )P (A|Bi )
clı́nico con dos resultados posibles, positivo o negativo. Se sabe, también por
experiencia, que en los pacientes que tienen la enfermedad A el análisis es
positivo con probabilidad 0,99 y en los que padezcan la enfermedad B lo es
un 0,06. Si al enfermo se le hizo un análisis y el resultado fue positivo, cuál
es la probabilidad de que padezca la enfermedad A?.
luego,
P (A)P (B)
P (A ∩ B) =
P (B|A)P (A)
B = {(1, 2), (2, 1), (2, 3), (3, 2), (3, 4), (4, 3), (4, 5), (5, 4), (5, 6), (6, 5)},
10 5
entonces P (B) = 36
= 18
. Por tanto, los eventos A y B no son independien-
tes.
Ejemplo 4.5.2. La probabilidad de que el individuo A cace un pato es 32 y
la de que el individuo B lo cace es 51 . Si los dos salen de cacerı́a, cual es la
probabilidad de que se cace el pato si los dos disparan al tiempo?
Solución:
El pato se caza si al menos uno de los dos lo consigue. Luego ,
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
= P (A) + P (B) − P (A)P (B)
2 1 21
= + −
3 5 35
11
= .
15
Definición 4.5.2. Tres eventos A, B, C son mutuamente independientes si:
a) Los eventos son independientes dos a dos.
b) P (A ∩ B ∩ C) = P (A)P (B)P (C).
Sin embargo b) no sigue de a). Los eventos puede ser independientes 2 a 2 y
sin embargo no independientes entre si.
4.5. INDEPENDENCIA ESTOCÁSTICA 107
1 11
P (A ∩ B) = 4
= P (A)P (B) = 22
1 11
P (A ∩ C) = 4
= P (A)P (C) = 22
P (B ∩ C) = 14 = P (B)P (C) = 12 12
Sin embargo,
A ∩ B ∩ C = ∅ y P (A ∩ B ∩ C) = P (∅) = 0 6= P (A)P (B)P (C).
Observación 4.5.2. Si se tiene n eventos hay 2n − n − 1 condiciones que
se deben cumplir para los sucesos sean mutuamente independientes.
Note que si n = 3 (A, B, C), hay 23 − 3 − 1 = 4 condiciones que se deben
cumplir, a saber:
P (A ∩ B) = P (A)P (B),
P (A ∩ C) = P (A)P (C),
P (B ∩ C) = P (B)P (C), y
P (A ∩ B ∩ C) = P (A)P (B)P (C)
La prueba de la situación general es como sigue:
maneras, es decir:
n n n n
+ + + ... +
2 3 4 n
pero se sabe que:
n n n n
+ + + ... + = 2n
0 1 2 n
por lo tanto.
n n n n n n
+ + ... + =2 − − = 2n − 1 − n.
2 3 n 0 1
108 CAPÍTULO 4. ESPACIOS MUESTRALES FINITOS
Esta definición expresa que no es necesario hallar todas las condiciones enun-
ciadas antes, por que generalmente se supone la independencia (con base de
lo que se sabe del experimento). Por lo tanto, se usa ésta proposición para
calcular P (A1 ∩ ... ∩ An ) como P (A1 )P (A2 )...P (An ).
Por lo tanto,
Note que los eventos (A1 ∩A2 ), (A3 ∩A2 ), A4 , (A5 ∩A6 ) no son mutuamente
4.5. INDEPENDENCIA ESTOCÁSTICA 109
excluyentes. Luego,
P (E) = P ((A1 ∩ A2 ) ∪ (A3 ∩ A2 ) ∪ A4 ∪ (A5 ∩ A6 ))
= P (A1 ∩ A2 ) + P (A3 ∩ A2 ) + P (A4 ) + P (A5 ∩ A6 )
− P ((A1 ∩ A2 ) ∩ (A3 ∩ A2 )) − P ((A1 ∩ A2 ) ∩ A4 )
− P ((A1 ∩ A2 ) ∩ (A5 ∩ A6 )) − P ((A3 ∩ A2 ) ∩ A4 )
− P ((A3 ∩ A2 ) ∩ (A5 ∩ A6 )) − P (A4 ∩ (A5 ∩ A6 ))
+ P ((A1 ∩ A2 ) ∩ (A5 ∩ A6 ) ∩ A4 ) + P ((A1 ∩ A2 ) ∩ (A3 ∩ A2 ) ∩ (A5 ∩ A6 ))
+ P ((A1 ∩ A2 ) ∩ A4 ∩ (A5 ∩ A6 )) + P ((A3 ∩ A2 ) ∩ A4 ∩ (A5 ∩ A6 ))
− P ((A1 ∩ A2 ) ∩ (A3 ∩ A2 ) ∩ A4 ∩ (A5 ∩ A6 )).
Ahora, como los eventos son mutuamente independientes, con P (Ai ) = p
para i = 1, 2, 3, 4, 5, 6, entonces:
P (E) = P (A1 )P (A2 ) + P (A3 )P (A2 ) + P (A4 ) + P (A5 )P (A6 )
− P (A1 )P (A2 )P (A3 ) − P (A1 )P (A2 )P (A4 )
− P (A1 )P (A2 )P (A5 )P (A6 ) − P (A3 )P (A2 )P (A4 )
− P (A3 )P (A2 )P (A5 )P (A6 ) − P (A4 )P (A5 )P (A6 ))
+ P (A1 )P (A2 )P (A5 )P (A6 )P (A4 ) + P (A1 )P (A2 )P (A3 )P (A5 )P (A6 )
+ P (A1 )P (A2 )P (A4 )P (A5 )P (A6 ) + P (A3 )P (A2 )P (A4 )P (A5 )P (A6 )
− P (A1 )P (A3 )P (A2 )P (A4 )P (A5 )P (A6 )
= p + 3p2 − 4p3 − p4 + 3p5 − p6 .
Teorema 4.5.3. Sean A y B eventos independientes, entonces:
1. Ac y B c también son independientes.
2. A y B c también son independientes.
3. Ac y B también son independientes.
Demostración. 1.
P (Ac ∩ B c ) = P ((A ∪ B)c ) = 1 − P (A ∪ B)
= 1 − P (A) − P (B) + P (A ∩ B)
= 1 − P (A) − P (B) + P (A).P (B)
= (1 − P (A)) − (1 − P (A))P (B)
= (1 − P (A))(1 − P (B))
= P (Ac )P (B c ).
110 CAPÍTULO 4. ESPACIOS MUESTRALES FINITOS
2.
P (A ∩ B c ) = P (A − B)
= P (A) − P (A ∩ B)
= P (A) − P (A)P (B)
= P (A)(1 − P (B))
= P (A)P (B c ).
3. Similar a 2.
1 1 1 1
P (E1 ) = , P (E2 ) = , P (E3 |E1 ∩ E2 ) = , P (E3 |E1 ∩ E2c ) = .
4 2 4 5
P (AB) = p3 + p3 − p4 + p3 + p3 − p4 − (p4 + p4 − p5 )
= P 5 − 4p4 + 4p3
= P 3 (2 − p)2 .
Demostración:
" n # " n #
[ \
P Ak = 1 − P Ack
k=1 k=1
n
Y
=1− P (Ack )
k=1
Yn
=1− (1 − P (Ak ))
k=1
Yn
≥1− e−P (Ak ) usando la desigualdad 1 − x ≤ e−x para x ≥ 0.
k=1
− n
P
=1−e k=1 P (Ak ) .
∞
[ ∞
[
Ak ⊂ Ak
k=n+1 k=n
ahora como ∞
P
n=1 P (An ) < ∞, entonces el lado derecho del resultado
anterior tiende a cero cuando n tiende a infinito.
donde Bn = ∪∞ c
k=n Ak para n = 1, 2, 3, .... Entonces es claro que B1 ⊂
B2 ⊂ B3 ⊂ . . ., de modo que
∞ \
∞
!
[
P Ack = lı́m P (Bn ),
n→∞
n=1 k=n
∞
!
\
P (Bn ) = P Ack = 0.
k=n
−x
Pm1 − x ≤ e para x ≥ 0.
aquı́ nuevamente se usa el hecho que
Ası́, fijando n se tiene que: lı́mm→∞ ( k=n pk ) = ∞ puesto Pque la serie
m
{pk ; k ≥ 1} es divergente por hipótesis. Por tanto, lı́mm→∞ e− k=n pk = 0,
entonces, P (Bn ) = 0. Como esto es valido para todo n, sigue que
"∞ # ∞
[ X
c
P Bk ≤ P (Bnc ) = 0.
k=1 n=1
Entonces,
"∞ #
[
P Bkc = 0, de donde sigue que, P (A) = P lı́m sup An = 1.
n→∞
k=1
4.6. Ejercicios
1. Sea {Aj , j = 1, 2, ..., 5} una partición de Ω y supongamos que P (Aj ) =
j
15
y P (A|Aj ) = 5−j
15
, j = 1, ..., 5. Computar las probabilidades P (Aj |A)
j = 1, 2, ..., 5.
3. Muestre que:
4.6. EJERCICIOS 117
Variables Aleatorias
0 0
Definición 5.0.1. Sean (Ω, F) y (Ω , F ) espacios medibles. Una función
0
f : Ω −→ Ω se dice F − F 0 medible si
0
f −1 (A0 ) = {w ∈ Ω/f (w) ∈ A } ∈ F
0 0
para cada A ∈ F .
0 0
Definición 5.0.2. Si (Ω, F, P ) es un espacio de probabilidad y (Ω , F ) es
0
un espacio medible, entonces una función X : Ω −→ Ω se llama elemento
aleatorio, si X es una función F − F 0 .
0 0
Definición 5.0.3. Sean (Ω, F, P ) un espacio de probabilidad, (Ω , F ) un
0
espacio medible y la función X : Ω −→ Ω un elemento aleatorio, si Ω0 = R
y F 0 = B(R), X se llama una variable aleatoria (v.a.).
La definición anterior implica que X es una v.a. si y solamente si la imagen
inversa de cualquier conjunto boreliano es un elemento de la σ-álgebra del
espacio de probabilidad. Esta condición se conoce como ”medibilidad” en
teorı́a de la medida, y se dice entonces que dicha función es medible respecto
de las σ-álgebras F y B(R).
Observación 5.0.1. X : Ω −→ R debe ser medible, puesto que P es una
medida de probabilidad definida sobre el espacio medible (Ω, F).
Observación 5.0.2. En general, las variables aleatorias se denotan por le-
tras mayúsculas como X, Y, Z, W, etc., mientras que los valores que toman
las v.a. se denotan con letras minúsculas; ası́, para la v.a. X se tienen los
valores x1 , x2 , ...
119
120 CAPÍTULO 5. VARIABLES ALEATORIAS
Observación 5.0.4. Dado que la σ-álgebra de borel puede ser generada por
las clases ζ = {(a, b) : a < b; a, b ∈ R}, ζ = {(a, b] : a ≤ b; a, b ∈ R},
ζ = {(−∞, b) : b ∈ R}, ζ = {(a, +∞) : a ∈ R}, etc, entonces se conclu-
ye que X es una v.a. si y solamente si ocurre alguna de las condiciones:
X −1 [(−∞, x]] = {ω|X(ω) ≤ x} ∈ F o X −1 [(−∞, x)] = {ω|X(ω) < x} ∈ F
o X −1 [(x, +∞]] = {ω|X(ω) ≥ x} ∈ F o X −1 {x} = {ω|X(ω) = x} =
{ω|X(ω) ≤ x} ∩ {ω|X(ω) ≥ x} ∈ F, etc.
5.0.1. Propiedades
A continuación estudiamos las principales propiedades de las variables alea-
torias, asimismo se definen algunas operaciones entre v.a.
1) la función constante X = c es una v.a.
/ B entonces, X −1 (B) = ∅ ∈ F
• Si c ∈
• Si c ∈ B entonces, X −1 (B) = Ω ∈ F,
Y −1 (−∞, x] = {ω ∈ R : Y (ω) ≤ x}
= {ω ∈ R : cX(ω) ≤ x}.
{w ∈ R : x(w) ≤ xc }
−1 si c > 0
Y (−∞, x] =
{w ∈ R : x(w) ≥ xc } si c < 0
por tanto,
X −1 (−∞, xc ] ∈ F
−1 si c > 0
Y (−∞, x] =
X −1 [ xc , ∞) ∈ F si c < 0
1
4) Si X es una v.a. entonces X 2 , |X| y X
{ω : X(ω) 6= 0} también son
variables aleatorias.
Y −1 (−∞, x] = {ω : Y (ω) ≤ x}
= {ω : X 2 (ω) ≤ x}
(
∅ si x < 0
=
{ω : X 2 (ω) ≤ x} si x ≥ 0
(
∅ si x < 0
= √ √
{ω : − x ≤ X(ω) ≤ x} si x ≥ 0
(
∅∈F
= √ √
X −1 [− x, x] ∈ F.
Y −1 (−∞, x] = {ω : Y (ω) ≤ x}
= {ω : |X(ω)| ≤ x}
(
∅ si x < 0
=
{ω : −x ≤ X(ω) ≤ x} si x ≥ 0
(
∅∈F
=
X −1 [−x, x] ∈ F.
1
3. Sea Y (ω) = X(ω)
entonces, para x ∈ R
Y −1 (−∞, x] = {ω : Y (ω) ≤ x}
1
= ω: ≤x
X(ω)
−1 1
X [ x , 0] ∈ F
si x ≥ 0
= X −1 (−∞, 0) ∈ F si x = 0
−1
X (−∞, 0) ∪ X −1 [ x1 , 0] ∈ F si x > 0
126 CAPÍTULO 5. VARIABLES ALEATORIAS
X
6) Si X y Y son variables aleatorias entonces, XY y Y
({ω : Y (ω) 6= 0})
también son variables aleatorias.
1. b + cY b, c ∈ R, es una v.a. y
2. máx{X, Y } es v.a.
Ejemplo 5.0.7. Sea X : Ω → R una v.a. real sobre (Ω, B(R), P ), entonces
se sigue del ejemplo anterior o de las propiedades de las variables aleatorias
que la parte positiva de X, definida por X + (ω) = máx{X(ω), 0}, es una
v.a., de igual forma también se sigue que la parte negativa de X, X − (ω) =
máx{−X(ω), 0}, es una v.a.
Ejemplo 5.0.8. Suponga que Ω = [0, 4] y F = B([0, 4])
(
ω + 3 si 0 ≤ ω < 2
X(ω) =
ω si 2 ≤ ω ≤ 4
y
ω + 1
si 0 ≤ ω ≤ 1
Y (ω) = 1 si 1 < ω < 25
2ω + 3 si 25 ≤ ω ≤ 4
Solución:
(ω + 3) + (ω + 1) si 0 ≤ ω ≤ 1
(ω + 3) + 1 si 1 < ω < 2
X(ω) + Y (ω) =
ω+1 si 2 ≤ ω < 52
si 25 ≤ ω < 4
ω + (2ω + 3)
2ω + 4 si 0 ≤ ω ≤ 1
ω + 4 si 1 < ω < 2
=
ω+1 si 2 ≤ ω < 52
3(ω + 1) si 25 ≤ ω < 4.
PX : B(R) → [0, 1]
(R, B(R), PX ).
1. P (xi ) ≥ 0 ∀i y
∞
X
2. P (xi ) = 1.
i=1
130 CAPÍTULO 5. VARIABLES ALEATORIAS
0.5
0.4
0.3
probabilidad
0.2
0.1
0.0
−1 0 1 2 3
{(1, 1/36), (2, 3/36), (3, 5/36), (4, 7/36), (5, 9/36), (6, 11/36)}.
{(1, 11/36), (2, 9/36), (3, 7/36), (4, 5/36), (5, 3/36), (6, 1/36)}.
Se considera una masa total unitaria distribuida sobre la recta real, con
la masa indicada en los puntos x1 , x2 , x3 , ... etc. Los números P (xi )
representan la cantidad de masa que hay en cada punto xi .
Z m
Note que [m, m] = {m} 6= ∅ , ∧, P (m ≤ X ≤ m) = f (x) dx = 0,
m
es decir, en el caso continuo P (A) = 0 no implica A = ∅.
Z 1
2 1 1
c) P (X ≤ 1
2
) = 2x dx = x2 |02 = .
0 4
kx3 dx = 1 → k4 x4 |10 = 1 → k4 = 1 → k = 4.
0
136 CAPÍTULO 5. VARIABLES ALEATORIAS
2)
1
P (X > a) = 1 − P (X ≤ a) = P (X ≤ a) → 2P (X ≤ a) = 1 → P (X ≤ a) =
2
Z a
r
3 1 1 1 1
x4 |a0 = → a4 =
4
→ 4x dx = → →a= .
0 2 2 2 2
Z 0,8
3) P (0,2 < X < 0,8) = 4x3 dx = x4 |0,8
0,2 = 0,408
0,2
→ f (t) dt = 2 t dt = t2 |t0 = x2
0 0
Z x Z 0 Z 1
c) Si x ≥ 1 → F (x) = f (t) dt = f (t) dt + f (t) dt +
Z ∞ −∞ −∞ 0
f (t) dt = 0 + 1 + 0 = 1.
1
Entonces,
0 si x ≤ 0
F (x) = x2 si 0 < x < 1
1 si x ≥ 1
5.1. FUNCIÓN DE DISTRIBUCIÓN ACUMULADA 139
2) lı́m F (x) = 0.
x→−∞
la función de probabilidad
lı́m F (x) = lı́m P (X ≤ x) = lı́m P (An ) = P lı́m An = P (∅) =
x→−∞ x→−∞ n→∞ n→∞
0
3) Sea x1 ≤ x2 entonces,
[X ≤ x1 ] ⊆ [X ≤ x2 ] → P (X ≤ x1 ) ≤ P (X ≤ x2 )
4) Sea x < ... < xn < ... < x2 < x1 entonces, la sucesión de eventos
An = [X ≤ xn ]n∈N es una sucesión no creciente de eventos, tal que
∞
\
An → [X ≤ x] cuando n → ∞. Por lo tanto, An = [X ≤ x].
n=1
Entonces,
lı́m + F (xn ) = lı́m P (An ) = P lı́m An = P (X ≤ x) = F (x).
xn →x n→∞ n→∞
Teorema 5.1.2. 1. Sea X una v.a.d. con valores x1 , x2 , ..., xn tales que
x1 < x2 < x3 < ... y sea F la fda de X luego:
2. P (x < a) = F (a− ).
3. P (a ≤ x ≤ b) = F (b) − F (a− ).
Definición 5.2.1. Sea X una v.a. con fda F (x). La esperanza matemática
de X, valor esperado de X, media de la v.a. X o simplemente esperanza de
5.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 143
Ejemplo 5.2.1. Suponga que se lanza una moneda corriente dos veces y sea
X la v.a. que cuenta el número de caras obtenidas en los dos lanzamientos.
Entonces, RX = {0, 1, 2} y
2
X
E(X) = xP (X = x)
x=0
= 0 × P (X = 0) + 1 × P (X = 1) + 2 × P (X = 2)
1 1 1
=0× +1× +2×
2 2 4
=1
Entonces,
E(X) = 0 × P (x ∈
/ A) + 1 × P (x ∈ A) = P (x ∈ A) = P (A).
4. Encuentre E[X].
Solución:
D−→ 1
BD−→ 2
BBD−→ 3
BBBD−→ 4
BBBBD−→ 5
BBBBBD−→ 6
..
.
5.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 145
Luego P (X = 1) = 34 ; P (X = 2) = 43 ( 14 ); P (X = 3) = 43 ( 412 ); P (X =
4) = 34 ( 413 ); . . . ; P (X = n) = 34 ( 4n−1
1
); . . . y P (X = x) = 0 si x ∈
/ N.
P (X = n) = P (X = 2k)
∞ 2k−1
X 3 1 3 1 1 1
= = + + + ...
k=1
4 4 4 4 43 45
3 1 1 3 1 1
= 1 + 2 + 4 + ... = 1 = .
16 4 4 16 1 − 16 5
4. n−1
X 3X 1
E[X] = xP (X = x) = ,
x∈R
4 n∈N 4
146 CAPÍTULO 5. VARIABLES ALEATORIAS
3 3
( 14 )n−1 = 1, entonces
P P P
Ahora, 4
an = 4
an = a1 +a2 +a3 +. . . =
n∈N n∈N n∈N
4
an − a1 = 43 − 1, a3 + a4 + a5 + . . . =
P
3
, a2 + a3 + a4 + . . . =
n∈N
an − a1 − a2 = 34 − 1 − 41 , ..., luego
P
n∈N
n k−1 !
X 4 4 4 1 4 X 1
nan = + −1 + −1− + ... + − + ...
n∈N
3 3 3 4 3 k=1 4
entonces
3 4 1 1 1 1
E[X] = + + + + + ...
4 3 3 12 48 192
3 1 1 1 1
= 4 + 1 + + 2 + 3 + ...
4 3 4 4 4
!!
n−1
3 1 X 1
= 4+
4 3 n∈N
4
3 4 4
= +
4 3 9
3 16
=
4 9
4
= .
3
Ejemplo 5.2.4. Sea X una v.a. con valores en Z. Suponga que
k
x2
si x 6= 0
P (X = x) =
0 si x = 0
X k
donde k > 0 es una constante y = 1. Entonces, verificando la conver-
x
x2
gencia de la serie se tiene que
5.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 147
X X
|x|P (X = x) = |x|P (X = x)
x∈Z x∈Z−{0}
∞
X
=2 xP (X = x)
x=1
∞
X k
=2 x
x=1
x2
∞
X 1
= 2k
x=1
x
= ∞.
Ejemplo 5.2.5. Sea X con valores en el conjunto {1, 2, 3, ...} y con función
de probabilidad.
1
f (x) = P (X = x) = ; x = 1, 2, 3, ...
2x
148 CAPÍTULO 5. VARIABLES ALEATORIAS
Entonces,
∞ ∞
X X x
E(X) = xP (X = x) =
x=1 x=1
2x
1 2 3 4 5 6 7
= + + + + + + + ...
2 4 8 16 32 64 128
1 1 1 1 1 1 1 1 1 1 1
= + + + + + + ... + + + + + + ...
2 4 8 16 32 64 4 8 16 32 64
1 1 1 1
+ + + + + ... + · · ·
8 16 32 64
1 1 1 1 1 1 1 1 1 1
= 1+ + + + + ... + 1+ + + + + ...
2 2 4 8 16 4 2 4 8 16
1 1 1 1 1
+ 1+ + + + + ... + · · ·
8 2 4 8 16
1 1 1 1 1 1 1 1
= + + + + ... 1 + + + + + ...
2 4 8 16 2 4 8 16
1 1 1 1 1
= 1 + + + + ... ×
2 2 4 8 1 − 21
1 1 1
=
2 1 − 12 12
= 2.
2x si 0 < x < 1
f (x) =
0 caso contrario.
5.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 149
Entonces,
Z ∞ Z 0 Z 1 Z ∞
E(X) = xf (x) dx = xf (x) dx + xf (x) dx + xf (x) dx
−∞ −∞ 0 1
Z 1
= x(2x) dx
0
Z 1
=2 x2 dx
0
2
= x3 |10
3
2
= .
3
entonces,
Z ∞ Z 0 Z 1 Z ∞
E(X) = xf (x) dx = xf (x) dx + xf (x) dx + xf (x) dx
−∞ −∞ 0 1
Z 1
= x(4x3 ) dx
0
Z 1
=4 x4 dx
0
4
= x5 |10
5
4
= .
5
1
2x2
si 1 < x ó x < −1
f (x) =
0 caso contrario.
150 CAPÍTULO 5. VARIABLES ALEATORIAS
Entonces,
∞ ∞
X e−λ λx X e−λ λx
E(X) = x = x
x=0
x! x=1
x!
∞
−λ
X λx
=e , hacemos j=x-1
x=1
(x − 1)!
∞
X λj+1
= e−λ
j=0
j!
∞
−λ
X λj
= λe
j=0
j!
−λ λ
= λe e
= λ.
Entonces,
Z ∞ Z ∞
−λx
E(X) = λxe dx = λ xe−λx dx
0 0
∞
1 ∞ −λx
Z
1 −λx
= λ − xe + e dx
λ 0 λ 0
Z ∞
= e−λx dx
0
1
= − e−λx |∞
0
λ
1
= .
λ
Ejemplo 5.2.11. Sea X una v.a. entonces, E[X] existe si y sólo si E[|X|]
existe.
Demostración. Note que, si E[X] existe, por la definición de esperanza E[|X|]
existe; y si E[|X|] existe, por el teorema de comparación para integrales
impropias E[X] existe; ası́ E[X] existe si y sólo si E[|X|] existe.
Teorema 5.2.1. Sea X una v.a., acotada, esto es, existe una constante real
a > 0 tal que P (|X| ≤ a) = 1, entonces E(X) existe.
Demostración. a) Si X es una v.a.d. que toma valores x1 , x2 , . . . , entonces,
como X es acotada, existe una constante real positiva, digamos a, tal
que {x1 , x2 , . . .} ⊂ [−a, a] por tanto, P (|X| > a) = 0. Luego,
X X
|xi |P (X = xi ) ≤ a P (X = xi ) = a < ∞.
i i
b) Sea X una v.a.c. con fdp f , como X es acotada, existe una constante
real positiva a, tal que para todo ∀x ∈ RX , x ∈ [−a, a]. Ası́, podemos
suponer f (x) = 0 ∀x ∈ / [−a, a], es decir, P (|X| > a) = 0. Luego,
Z ∞ Z −a Z a Z ∞
|x|f (x)dx = − xf (x)dx + |x|f (x)dx + xf (x)dx
−∞ −∞ −a a
Z a Z a
= |x|f (x)dx < a f (x)dx = a < ∞.
−a −a
152 CAPÍTULO 5. VARIABLES ALEATORIAS
Proposición 5.2.1. Sea X una v.a. con fda F, y tal que E(X) existe, en-
tonces
Z +∞ Z 0
E(X) = [1 − F (x)]dx − F (x)dx
0 −∞
Z +∞ Z 0
= P (X > x)dx − P (X < x)dx. (5.4)
0 −∞
Es decir,
R +∞la esperanza existe
R 0si y solamente si existen y sean finitas las inte-
grales 0 P (X > x)dx y −∞ P (X < x)dx.
Demostración. Dividiendo el intervalo de integración del valor esperado en
dos partes tenemos que
Z +∞ Z 0 Z +∞
E(X) = xdF (x) = xdF (x) + xdF (x).
−∞ −∞ 0
Z +∞ Z b
xdF (x) = lı́m bF (b) − 0F (0) − lı́m F (x)dx
0 b→∞ b→∞ 0
Z b
= lı́m −b[1 − F (b)] + [1 − F (x)]dx .
b→∞ 0
Corolario 5.2.1. Sea X una v.a. no negativa con fda F, y tal que E(X)
existe, entonces
Z +∞ Z +∞
E(X) = [1 − F (x)]dx = P (X > x)dx. (5.5)
0 0
P (X < x) = 0, ∀x < 0.
λe−λx
si x > 0
f (x) =
0 caso contrario
Entonces,
0 si x ≤ 0
F (x) = −λx
1−e si x > 0
Proposición 5.2.2. Sea X una v.a. real y suponga que E(X) existe.
µ0n = E[X n ].
0
Teorema 5.2.2. Sı́ E[|X|r ] < ∞, r ≥ 1, entonces E[|X|r ] < ∞, con 1 ≤
r0 ≤ r.
0
Demostración. ∀x ∈ R, si 1 ≤ r0 ≤ r entonces |x|r < 1 + |x|r y por tanto,
Z ∞ Z ∞
r0
|x| f (x) dx ≤ [1 + |x|r ]f (x) dx
−∞ −∞
Z ∞
≤1+ |x|r f (x) dx < ∞.
−∞
Teorema 5.2.3. Para una v.a. X, cuyo valor esperado existe, si µn existe,
entonces
n
X n 0
µn = µk (−µ01 )n−k .
k=0
k
5.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 157
Demostración.
" n
#
X n
µn = E[(X − µ01 )n ] =E X k (−µ01 )n−k
k=0
k
n
X n
= E(X k )(−µ01 )n−k
k=0
k
n
X n 0
= µk (−µ01 )n−k
k=0
k
Definición 5.2.5. Sea X una v.a. real con función de distribución asociada
F. Sea g : R → R una función medible borel tal que g(X) es una variable
aleatoria. Entonces, el valor esperado de g(X) viene definido por:
P
g(xk )P (X = xk ) si X es una v.a.d.
E(g(X)) = R ∞k
−∞
g(x)f (x) dx si X es una v.a.c.,
P R∞
si k |g(xk )|P (X = xk ) < ∞ para el caso discreto y −∞ |g(x)|f (x) dx < ∞
para el caso continuo.
Observación 5.2.3. Por Teorema anteriormente demostrado, si X es una
v.a. y g es una función real continua, entonces g◦X definida por (g◦X)(ω) =
g(X(ω)) = g(x), para todo ω ∈ Ω, /x = X(ω), también es una variable alea-
toria. Entonces, es suficiente que la función g mencionada en la definición
anterior sea continua para que g(X) sea una variable aleatoria, dndo sentido
al cálculo de la esperanza de g(X).
Teorema 5.2.4. 1. Si g1 (x) ≥ 0, ∀x entonces, entonces E[g1 (X)] ≥ 0.
2. Sea X una v.a. y sean gi para i = 1, 2, ..., n funciones tales que gi (X)
son variables aleatorias, cuyos valores esperados
Pn existen. Entonces, para
constantes reales αi el valor esperado de E ( i=1 αi gi (X)) existe y
n
! n
X X
E αi gi (X) = αi E(gi (X)).
i=1 i=1
2. Sea X una v.a.c. con fdp f tal que gi (X) es unaR ∞v.a. para i = 1, 2, ..., n
con esperanza finita, entonces se sigue que −∞ |gi (x)|f (x)dx < ∞.
Luego,
Z ∞ Xn
Z ∞ "Xn
#
αi gi (X) f (x) dx ≤ |αi gi (x)| f (x) dx
−∞ i=1 −∞ i=1
Xn Z ∞
= |αi ||gi (x)|f (x) dx
i=1 −∞
Xn Z ∞
= |αi | |gi (x)|f (x) dx
i=1 −∞
n
X
= |αi |E[|gi (X)|]
i=1
< ∞.
" n
# " n
#
X Z ∞ X
E αi gi (X) = αi gi (X) f (x) dx
i=1 −∞ i=1
Z n
∞ X
= [αi gi (X)f (x)] dx
−∞ i=1
n
XZ ∞
= [αi gi (x)f (x)] dx
i=1 −∞
Xn Z ∞
= αi gi (x)f (x) dx
i=1 −∞
Xn
= αi E[gi (X)].
i=1
5.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 159
3. Sea X una v.a.c. con fdp f y suponga que ∀x g1 (x) ≤ g2 (x), entonces,
como ∀x, f (x) ≥ 0 se sigue que g1 (x)f (x) ≤ g2 (x)f (x). Por tanto,
Z ∞ Z ∞
E[g1 (X)] = g1 (x)f (x) dx ≤ g2 (x)f (x) dx ≤ E[g2 (X)].
−∞ −∞
Corolario 5.2.2. Sea X una v.a. y g una función tal que g(X) es una
variable real. Suponga que existen constantes reales tal que ∀x, a ≤ g(x) ≤ b,
entonces a ≤ E[g(X)] ≤ b. En general, si para funciones g1 , g2 , g3 tal que ∀x,
g1 (x) ≤ g2 (x) ≤ g3 (x), se sigue que E[g1 (X)] ≤ E[g2 (X)] ≤ E[g3 (X)].
Demostración.
Teorema 5.2.6. Sea X una v.a. cuyo valor esperado existe y a, b ∈ R cons-
tantes. Entonces
5.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 161
1. V (X) ≥ 0.
2. V (a) = 0.
3. V (aX) = a2 V (X).
4. V (X + b) = V (X).
3.
4.
Definición 5.2.7. Sean X una v.a. y g una función real continua, de tal for-
ma que Y = g(X) es una variable aleatoria. Entonces el n-énesimo momento
de la transformación g(X) es
P n
n y P (Y = y) si Y es una v.a.d.
E(Y ) = R ∞y n
−∞
y fY (y) dy si Y es una v.a.c.,
P R∞
si y |y|P (Y = y) < ∞ para el caso discreto y −∞ |y|fY (y) dy < ∞ para el
caso continuo.
162 CAPÍTULO 5. VARIABLES ALEATORIAS
V ar(Y ) = E(Y 2 ) − E 2 (Y ).
Teorema 5.2.7. Sea X una v.a. con media µ y varianza σ 2 . Suponga que
H es una función dos veces diferenciable en X = µ y que Y = H(X) es una
v.a. tal que E(Y ) y E(Y 2 ) existen. Las siguientes son aproximaciones para
E(Y ) y V ar(Y ).
H 00 (µ)
Y = H(X) ≈ H(µ) + H 0 (µ)(X − µ) + (X − µ)2 .
2!
Luego,
H 00 (µ)
E(Y ) ≈ E[H(µ) + H 0 (µ)(X − µ) + (X − µ)2 ]
2!
H 00 (µ)
≈ E[H(µ)] + E[H 0 (µ)(X − µ)] + E[ (X − µ)2 ]
2!
0 H 00 (µ)
≈ H(µ) + H (µ)E(X − µ) + E(X − µ)2 .
2!
Ahora, E(X − µ) = E(X) − µ = 0 ası́,
H 00 (µ)
E(Y ) ≈ H(µ) + H 0 (µ) E(X − µ) + E(X − µ)2
| {z } 2! | {z }
0 σ2
00
H (µ) 2
≈ H(µ) + σ .
2!
5.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 163
Ası́,
Entonces,
E(Y 2 ) ≈ H 2 (µ) + (H 0 (µ))2 σ 2 .
Luego,
V ar(Y ) = E(Y 2 ) − E 2 (Y ) y E(Y ) ≈ E(H(µ)) + H 0 (µ) E(X − µ) ≈ H(µ).
| {z }
0
Por tanto,
Y = 2(1 − 0,005x)1,2 ,
donde X es una variable aleatoria cuya función de densidad está dada por:
Finalmente,
V ar(Y ) ≈ (H 0 (µ))2 σ 2
≈ (−0,0118)2 (75)
≈ 0,010443.
Definición 5.2.8. (Función Generadora de Momentos (fgm))
Sea X una v.a tal que E(etX ) < ∞ para todo t ∈ (−α, α), con α > 0. Se
define la función generadora de momentos de X, (fgm), denotada por MX (·),
como
MX (t) = E[etX ], con t ∈ (−α, α).
Esto es,
X
etxk P (X = xk ) si X es una v.a.d. con valores x1 , x2 , ...
MX (t) = Zk ∞
etx f (x) dx si X es una v.a.c. con fdp f.
−∞
Entonces,
n
X n x tx
MX (t) = e p (1 − p)n−x
x=0
x
n
X n
= (pet )x (1 − p)n−x
x=0
x
= (pet + (1 − p))n
= (pet + q) donde q = 1 − p.
Entonces,
Z ∞ Z ∞
−λx
MX (t) = tx
e λe dx = λ e−(λ−t)x dx
0 0
λ −(λ−t)x ∞
=− e |0 , para t < λ
λ−t
−1
λ 1 t
= = = 1− .
λ−t 1 − λt λ
E[etX ] = MX (t)
E(X 2 ) E(X 3 ) E(X n )
= 1 + tE(X) + t2 + t3 + · · · + tn + ···
2! 3! n!
5.2. ESPERANZA MATEMÁTICA O VALOR ESPERADO 167
entonces,
∂MX (t) t t
= eλ(e −1) λet = λeλ(e −1)+t .
∂t
Ası́,
∂MX (t) 0
→ E(X) = |t=0 = λeλ(e −1)+0 = λe0 = λ.
∂t
Ahora,
∂ 2 MX (t) t
2
| = λeλ(e −1)+t (λet + 1).
∂t
Entonces,
∂ 2 MX (t) 0
E(X 2 ) = 2
|t=0 = λeλ(e −1)+0 (λe0 + 1) = λ(λ + 1) = λ2 + λ
∂t
y ası́,
V ar(X) = E(X 2 ) − E 2 (X) = λ2 + λ − λ2 = λ.
Entonces,
∞
X λx
∅X (t) = E[e itX
]= eitx e−λ
x=0
x!
∞
X (λeit )x
= e−λ
x=0
x!
−λ λeit
=e e
it −1)
= eλ(e .
Entonces,
Z ∞ Z ∞
−λx
∅X (t) = itx
e λe dx = λ e−(λ−it)x dx
0 0
λ λ
=− e−(λ−it)x |∞
0 =
λ − it λ − it
−1
1 it
= it = 1− .
1− λ λ
Teorema 5.2.10. Sea X una v.a. real, entonces ∅X (t) existe para todo t ∈ R.
Demostración. Debemos demostrar que ∅X (t) = E[eitX ] < ∞. Entonces,
Z Z p
itx
||e ||f (x) dx = cos2 (tX) + sen2 (tx)f (x) dx
R ZR
= (1)f (x) dx
R
= 1 < ∞.
1. ∅X (0) = 1.
2. |∅X (t)| ≤ 1 para todo t.
3. para a y b constantes ∅aX+b (t) = eitb ∅X (at).
4. ∅X (t) genera momentos, esto es,
∂ n ∅X (t)
|t=0 = in E(X n ); n = 1, 2, ... si E[|X|n ] < ∞.
∂tn
5. ∅X (t) es uniformemente continua.
6. ∅X (t) es definida positiva.
Demostración. 1. ∅X (0) = E(eitX )|t=0 = E(ei0X ) = E(1) = 1.
2.
|∅X (t)| = |E(cos(tX)) + isen(tX)|
≤ E|cos(tX)) + isen(tX| (∗)
p
=E cos2 (tX) + sen2 (tX)
√
=E 1
= E (1)
= 1.
En el paso (*) se uso la desigualdad de Jensen (g(E(X)) ≤ E(g(X))).
3.
∅aX+b (t) = E(eit(aX+b) ) = E(eiatX+ibt )
= eibt E(ei(at)X )
= eibt ∅X (at).
Distribuciones de Probabilidad
1) E(X) = k.
2) V (X) = 0.
173
174 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
1
P (x) = para x = 1, 2, . . . , 6.
6
0.05
0.00
0 1 2 3 4 5 6 7
Demostración. 1)
N N N
X 1
X 1 X
E(X) = kP (X = k) = k = k
k=1 k=1
N N k=1
1 N (N + 1) N +1
= = .
N 2 2
2)
N
2 1 X 2 1 N (N + 1)(2N + 1) (N + 1)(2N + 1)
E(X ) = k = = .
N k=1 N 6 6
Entonces,
2 (N + 1)(2N + 1) (N + 1)2
2
V (X) = E(X ) − E (X) = −
6 4
N + 1 2N + 1 N + 1 N + 1 4N + 2 − 3N − 3
= − =
2 3 2 2 6
2
N +1 N −1 N −1
= = .
2 6 12
176 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
3)
N
tk
X 1 tk
MX (t) = E(e ) = e .
k=1
N
Distribución de bernoulli
Un experimento se dice ser un ensayo de bernoulli si solo existen dos resul-
tados posible en el experimento, digamos A y Ac , con probabilidades p y
1 − p, respectivamente. Estos sucesos son complementarios ya que la suma
de sus probabilidades siempre es igual a la unidad, además estos son mutua-
mente excluyentes. El suceso de mayor interés se distingue como el suceso
principal de manera que si ocurre, se dice que se presento un ”éxito”, el cual
ocurre con probabilidad p. El otro suceso será secundario y su ocurrencia
será trivialmente denominada un ”fracaso”, el cual ocurre con probabilidad
1 − p.
6.1. DISTRIBUCIONES PARA VARIABLES DISCRETAS 177
f (x) = P (X = x) = px (1 − p)1−x x = 0, 1.
1) E(X) = p.
Demostración. 1)
1
X
E(X) = xP (X = x) = 0 · P (X = 0) + 1 · P (X = 1) = p.
x=0
2)
1
X
2
E(X ) = x2 P (X = x) = 02 · P (X = 0) + 12 · P (X = 1) = p.
x=0
Entonces,
3)
1
X 1
X
tx x 1−x
MX (t) = e p (1 − p) = (pet )x (1 − p)1−x
x=0 x=0
t 0 1−0
= (pe ) (1 − p) + (pe ) (1 − p)1−1
t 1
= pet + (1 − p).
P (X = k) = nk pk (1 − p)n−k ≥ 0.
Pn Pn n k
n−k
k=0 P [X = k] = k=0 k p (1 − p) = (p + (1 − p))n = 1n = 1.
Definición 6.1.5. Sea X el número total de éxitos obtenidos, en la realiza-
ción de n ensayos de Bernoullis independientes. Diremos que X tiene una
Distribución Binomial con parámetros n y p. Su función de probabilidad es
dada por
n x
f (x) = P (X = x) = p (1 − p)n−x x = 0, 1, 2, 3, ..., n
x
n x n−x
= p q , q = 1 − p.
x
La notación usada para esta distribución es X ∼ Bin(n, p).
Los gráficos siguientes muestran la función de probabilidad de la distribución
binomial bajo dos distintos escenarios.
0.25
0.25
0.20
0.20
0.15
0.15
probabilidad
probabilidad
0.10
0.10
0.05
0.05
0.00
0.00
0 2 4 6 8 10 0 2 4 6 8 10
x x
(a) (b)
Figura 6.2: Distribución Binomial (a) Bin(10, 2/5) y (b) Bin(10, 1/2).
Solución:
n = 50
180 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
k = 25
sea X el número de caras en los 50 lanzamientos de la moneda, entonces,
X = 0, 1, 2, 3, ..., 50
P = P [X = 25] = 50 ( 1 )25 ( 21 )25 = 25!25!
25 2
50!
( 21 )50
Para hallar P utilizamos logaritmos en base 10 ası́.
LogP = log(50!) − 2 log(25!) − 50 log(2)
= 64413 − 50361 − 15062
= log(1,12) − log(10)
= log(0,112),
entonces P = 0,112
Ejemplo 6.1.4. Cuál es la probabilidad de que al lanzar un dado 100 veces
el numero 4 aparezca 40 veces
Solución:
n = 100
k = 40
Sea X el número de veces que sale 4 en los cien lanzamientos, entonces,
X = 0, 1, 2, ..., 100 p = 16
q = 65
P [X = 40] = 100
1 40 5 60
40
(6) (6)
Ejemplo 6.1.5. Se sabe por experiencia, que en condiciones normales, la
probabilidad de nacimiento de niño o niña es igual. Calcular la probabilidad
de que en una familia de 4 hijos hallan a) 2 niños y 2 niñas, b) al menos dos
niños.
Solución:
Sea X la v.a. que cuenta el número de niños en la familia, entonces, X =
0, 1, 2, 3, 4. Entonces, P [niño] = P [niña] = 21 , luego
a) P [2 niños] = P [X = 2] = 42 ( 12 )2 ( 12 )2 = 38
b)
P [al menos 2 niños] = P [X = 2] + P [X = 3] + P [X = 4]
2 2 3 2 4 2
4 1 1 4 1 1 4 1 1
= + +
2 2 4 3 2 4 4 2 4
3 1 1 11
= + + = .
8 4 10 16
6.1. DISTRIBUCIONES PARA VARIABLES DISCRETAS 181
P (X ≥ 5) = P (X = 5) + P (X = 6) + ... + P (X = 15)
= 0,2123 + 0,1500 + ... + 0,000
= 0,6481
P (X < 8) = P (X = 0) + P (X = 1) + ... + P (X = 7)
= 0,0016 + ... + 0,1319
= 0,8868
P (X ≤ 9) = P (X = 0) + ... + P (X = 9)
= 0,016 + ... + 0,0298
= 0,9876
1) E(X) = np.
Demostración. 1.
n n n
X X X n k
E(X) = kP (X = k) = kP (X = k) = k p (1 − p)n−k
k=0 k=1 k=1
k
n
X n!
= k pk (1 − p)n−k
k=1
k!(n − k)!
n
X kn(n − 1)!
= ppk−1 (1 − p)n−k
k=1
k(k − 1)!(n − k)!
n
X n − 1 k−1
= np p (1 − p)n−k , haciendo j = k − 1
k=1
k − 1
n−1
X n−1 j
= np p (1 − p)(n−1)−j = np.
j=0 |
j
{z }
Bin(n−1,p)
Entonces,
3.
n
X n k
tk
MX (t) = e p (1 − p)n−k
k=0
k
n
X n
= (pet )k (1 − p)n−k
k=0
k
= (pet + (1 − p))n .
> 0 (asimétrica a la derecha) si p < 0,5
p 1 − 2p
β1 = p 0 (simétrica) si p = 0,5
np(1 − p) < 0 (asimétrica a la izquierda) si p > 0,5.
entonces:
pn (k+1) n−k p
a) Para 0 ≤ k ≤ n tenemos pn (k)
= k+1 1−p
Demostración.
n k n!
pn (k) = p (1 − p)n−k = pk (1 − p)n−k
k k!(n − k)!
n n!
pn (k+1) = pk+1 (1−p)n−k−1 = pk+1 (1−p)n−k−1
k+1 (k + 1)!(n − k − 1)!
entonces pnp(k+1)
n (k)
= n−k p
k+1 1−p
nota: realmente la anterior es una buena formula de recurrencia ya que
expresa pn (k + 1) en términos de pn (k).
b) Usando a) demuestre
ii) pn (k + 1) = pn (k) si k = np − (1 − p)
Demostración.
6.2. PROPIEDADES DE LA DISTRIBUCIÓN BINOMIAL 185
pn (k + 1) > pn .
En efecto:
Si k = 0, tenemos 0 < np − (1 − p), lo cual implica 1 − p < np y esto a
np
su vez nos lleva a 1 < 1−p . Por otra parte
pn (k + 1) pn (0 + 1) n−0 p np
= = = > 1,
pn (k) pn (0) 0+11−p 1−p
pn (k + 1) pn (n − 1 + 1) pn (n) n−n+1 p p
= = = = >1
pn (k) pn (n − 1) pn (n − 1) n−1+11−p n(1 − p)
pn (k + 1) = pn (k).
en efecto:
Si pnp(k+1)
n (k)
= n−k p
k+1 1−p
, entonces
pn (k + 1)
= 1,
pn (k)
iii) similar a i)
np − (1 − p) = (n + 1)p − 1.
(n + 1)p − 1 = np − (1 − p) y (n + 1)p.
0.15
15
probabilidad
probabilidad
0.10
10
0.05
5
0.00
0
0 1 2 3 4 5 6 7 8 9 0 2 4 6 8 10
x x
(a) (b)
1) E(X) = λ.
2) V (X) = λ.
t
3) MX (t) = eλ(e −1) .
188 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
Demostración. 1)
∞ ∞ k ∞
X X
−λ λ −λ
X λk
E(X) = kP (X = k) = ke =e k
k=0 k=0
k! k=1
k!
∞ k
X λ
= e−λ , haciendo j = k − 1
k=1
(k − 1)!
∞
−λ
X λj+1
=e
j=0
j!
∞
−λ
X λj
= λe
j=0
j!
−λ λ
= λe e = λ.
2)
∞ ∞
X e−λ λk X e−λ λk
E(X(X − 1)) = k(k − 1) =
k=0
k! k=2
(k − 2)!
∞
X λk−2
= λ2 e−λ , haciendo j = k − 2
k=1
(k − 2)!
∞
X λj
= λ2 e−λ
j=0
j!
| {z }
=1
2
=λ .
Entonces,
V (X) = λ2 + λ − λ2 = λ.
La prueba del item 3) está hecha en la sección de Variables Aleatorias.
De aquı́ se sigue que CV = √1λ , ası́ mismo, también se puede concluir que
√
β1 = CV > 0, es decir, el modelo siempre es asimétrico a la derecha,
independientemente del valor de λ; sin embargo, a medida que λ sea mayor
(ó λ → ∞) este tiende a ser simétrico.
Ejemplo 6.2.1. Suponga que el número de falla por milı́metro de cierto tipo
de alambre de cobre se puede describir mediante la distribución de poisson
de media 2.5 fallas/milı́metro. Determine:
6.2. PROPIEDADES DE LA DISTRIBUCIÓN BINOMIAL 189
0
1. P (X = 0) = e−2,5 2,5
0!
= 0,0820.
donde N ∈ Z+ , R ∈ Z+ ∪ {0} (R ≤ N ), n ∈ Z+ (n ≤ N ).
La notación usada para esta distribución es X ∼ Hg(n, R, N ).
0.2
0.1
0.0
0 1 2 3 4 5 6 7
R N −R N −n
2. V (X) = n · N
· N
· N −1
.
Demostración. 1.
n N −R
R n R N −R
X xn−x
X
E(X) = x N
= x x Nn−x
x=0 n x=1 n
R(R−1)! N −R
n
x(x−1)!(R−x)! n−x
X
= x N (N −1)!
x=1 n(n−1)!(N −n)!
n R−1 N −R
R X x−1 n−x
= n N −1
, haciendo j =x−1
N x=1 n−1
R−1 (N −1)−(R−1)
n−1
RX j (n−1)−j R
= n N −1
=n .
N j=0 n−1
N
| {z }
Hg(n−1,R−1,N −1)
2.
n R(R−1)(R−2)! N −R
n
(R−x)! n−x
X X
E(X(X − 1)) = x(x − 1)P (X = x) = N (N −1)(N −2!)
x=0 x=2 n(n−1)(n−2)! (N − n)!
n R−2 N −R
R(R − 1) X x−2 n−x
= n(n − 1) N −2
, con k = x − 2
N (N − 1) x=2 n−2
n−2 R−2 (N −2)−(R−2)
R(R − 1) X k (n−2)−k
= n(n − 1) N −2
N (N − 1) k=0
n−2
| {z }
=1
R(R − 1)
= n(n − 1) .
N (N − 1)
Entonces,
V (X) = E(X(X − 1)) + E(X) − E 2 (X)
R(R − 1) R R2
= n(n − 1) + n − n2 2
N (N − 1) N N
R R−1 R
=n (n − 1) +1−n
N N −1 N
R (N − R)(N − n)
=n · .
N N (N − 1)
6.2. PROPIEDADES DE LA DISTRIBUCIÓN BINOMIAL 193
Solución
Sea X el número de semillas no aceptables en la muestra. Entonces, X ∼
Hg(5, 8, 30). Ası́,
P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2)
8 22 8 22 5 22
0
= 5 +
30
1
4 +
30
2
3
30
5 5 5
= 0,1847 + 0,4106 + 0,3025 = 0,8980.
(83)(222)
P (X = 3) = = 0,0907.
(305)
P (X = 0) = 0,1840.
8
E(X) = 5 × 30
= 1,33.
En efecto:
0.25
0.20
0.15
probabilidad
0.10
0.05
0 2 4 6 8 10
P (X ≥ m + n|X ≥ m) = P (X ≥ n).
P ((X ≥ m + n) ∩ (X ≥ m)) P (X ≥ m + n)
P (X ≥ m + n|X ≥ m) = =
P (X ≥ m) P (X ≥ m)
m+n
(1 − p)
= m
= (1 − p)n = P (X ≥ n).
(1 − p)
1.
∞
X ∞
X
j
E(X) = jp(1 − p) = p(1 − p) j(1 − p)j−1
j=0 j=1
∞
X ∂
= −p(1 − p) (1 − p)j ;
j=1
∂p
2.
6.2. PROPIEDADES DE LA DISTRIBUCIÓN BINOMIAL 197
En efecto, consideremos
∞
! ∞
∂2 X
j+1
X
(1 − p) = (j + 1)j(1 − p)j−1
∂p2 j=1 j=1
∞
X ∞
X
2 j−1
= j (1 − p) + j(1 − p)j−1 .
j=1 j=1
Por tanto,
∞
∂2 (1 − p)2
2
X
2 j−1 1
E(X ) = j p(1 − p) =p 2 −
j=1
∂p p p
| {z }
2
p3
2 1 2 1
=p − = −
p3 p p2 p
Resulta entonces que
2 1 1 1−p q
V (X) = − − = = .
p2 p p2 p2 p2
198 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
3.
∞
X ∞
X ∞
X
tX tx tx x
MX (t) = E(e ) = e P (X = x) = e q p= (qet )x p
x=0 x=0 x=0
P∞ P∞
con q = 1 − p. Ahora, como 0 q x converge, entonces x=0 (qet )x
converge. Luego,
∞
X
MX (t) = p (qet )x = p[1 + qet + (qet )2 + (qet )3 + . . .]
x=0
= p[1 + qet + q 2 e2t + q 3 e3t + . . .]
1
=p t
= p(1 − qet )−1 .
1 − qe
√
1−p
De este resultado se puede obtener que CV = 1−p , ası́ mismo, también se
√
puede concluir que β1 > 0, es decir, el modelo siempre es asimétrico a la
derecha.
Calculamos ahora MX00 (t) sabiendo que MX0 (t) = pqet (1 − qet )−2 . Entonces,
Ası́,
E(X 2 ) = MX00 (0) = pqe0 (1 − qe0 )−2 + 2pq 2 e0 (1 − qe0 )−3
= pq(1 − q)−2 + 2pq 2 (1 − q)−3
= pqp−2 + 2pq 2 p−3
p 2q 2
= + 2,
q p
luego, como V (X) = E(X 2 ) − E 2 (X) se tiene que
q p 2q 2 q q2
V (X) = + + 2 = + 2
p q p p p
2
pq + q q(p + q)
= 2
=
p p2
q
= 2.
p
Ejemplo 6.2.4. El equipo medico de una clı́nica ha decidido interrumpir
la utilización de un determinado equipo y someterlo a revisión a la primera
ocurrencia de un defecto. El equipo tiene probabilidad 0,0005 de presentar un
defecto en un dı́a cualquiera, después de haber sido sometido a una revisión.
Sea X la variable aleatoria que cuenta el número de dı́as que anteceden a
la revisión del equipo. ¿ Cuál es la probabilidad que el equipo falle al décimo
dı́a? ¿ cuántos dı́as se esperan que pasen, después de la revisión, para que el
equipo presente una nueva falla.
Solución:
Suponiendo independencia en los dı́as sucesivos después de la revisión, se
tiene que X ∼ Geo(0, 0005). Entonces,
P (X = 10) = 0,0005 × 0,999510−1 = 0,0005.
1
E(X) = 0,0005
= 2000 dı́as, es decir, 5.48 años.
0.10
0.05
0.00
0 2 4 6 8 10
Solución:
Llamando X la v.a. que cuenta el número de unidades inspeccionadas (en-
sayos) hasta obtener dos unidades defectuosas, entonces
10 − 1
P (X = 10) = 0,0252 (0,75)10−2 = 0,0563.
2−1
1) E(X) = kp .
k(1−p)
2) V (X) = p2
.
h ik
pet
3) MX (t) = 1−(1−p)et
.
donde, Y ∼ BN (k + 1, p).
6.2. PROPIEDADES DE LA DISTRIBUCIÓN BINOMIAL 203
1) Ası́, para r = 1
k k k
E(X) = E((Y − 1)0 ) = E(1) = .
p p p
2) Para r = 2, se tiene
k k
E(X 2 ) = E((Y − 1)) = (E(Y ) − 1)
p p
k 2 + k − kp
k k+1
= −1 = .
p p p2
Entonces,
k(1 − p)
V (X) = E(X 2 ) − E 2 (X) = .
p2
3)
∞
X
tj j−1 k
MX (t) = e p (1 − p)j−k , haciendo l = j − k
j=k
k − 1
∞
lt l + k − 1
X
tk
=e e pk (1 − p)l
l=0
k−1
∞
t k
X l+k−1
= (pe ) (et (1 − p))l .
l=0
k − 1
Ahora,
l+k−1 l+k−1 (l + k − 1)!
= =
k−1 l l!(k − 1)!
(k − 1)!k(k + 1)(k + 2)...(k + l − 1)
=
l!(k − 1)!
k(k + 1)(k + 2)...(k + l − 1)
=
l!
(−k)(−k − 1)(−k − 2)...(−k − l + 11)
= (−1)l
l!
(−k)(−k − 1)(−k − 2)...(−k − l + 11)(−k − l)!
= (−1)l
l!(−k − l)!
−k
= (−1)l ,
l
204 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
entonces
∞
l −k
X
t k
MX (t) = (pe ) (−1) (et (1 − p))l
l=0
l
∞
t k
X −k
= (pe ) (−et (1 − p))l .
l=0
l
∞
−k
X −k
(1 − x) = (−x)l ,
j=k
l
entonces
√
1−p √
Se sigue que CV = k(1−p)
, también, se obtiene que β1 = √ 2−p > 0, es
k(1−p)
decir, el modelo siempre es asimétrico a la derecha.
Ejemplo 6.3.1. Un punto se elige al azar sobre el intervalo [0, 2]. cual es la
probabilidad de que el punto escogido quede entre 1 y 32 ?
206 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
Solución:
Puesto que X toma valores en el intervalo [0, 2], la fdp de X viene dada por
1
1 1 si 0 ≤ x ≤ 2
fX (x) = I[0,2] (x) = I[0,2] (x) 2
2−0 2 0 caso contrario.
Luego,
Z 3
3 2 1 1 3 11 1
P [1 ≤ X ≤ ] = dx = −1 = = .
2 1 2 2 2 22 4
Teorema 6.3.1. Sea X ∼ U (a, b), entonces
a+b
1) E(X) = 2
.
(b−a)2
2) V (X) = 12
.
ebt −eat
3) MX (t) = (b−a)t
.
Demostración. 1)
Z ∞ Z b
1 1 1 a+b
E(X) = xfX (x)dx = xdx = (b2 − a2 ) = .
−∞ b−a a 2b−a 2
Función Gamma
La función Gamma es definida por
Z ∞
Γ(r) = tr−1 e−t dt,
0
donde r ∈ R+ .
Teorema 6.3.2. 1. Γ(1) = 1.
2. Γ(α + 1) = αΓ(α) para α > 1 con α ∈ R+ .
3. Γ(α) = (α − 1)! para α ∈ Z+ .
√
4. Γ( 12 ) = π.
Demostración. 1.
Z ∞
Γ(1) = e−t dt = −e−t |∞
0 = 1.
0
2.
∞ ∞
xα
Z Z
α−1 −x −x
Γ(α) = x
e dx = e d
0 0 α
α Z ∞ α
−x x ∞ x −x
=e |0 + e dx
| {zα } 0 α
Z ∞=0 α
x −x Γ(α + 1)
= e dx = .
0 α α
208 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
Entonces,
4.
Z ∞
1 − 12 −x y2
Γ = x e dx, haciendo x =
2 0 2
√ Z ∞
y2
= 2 e− 2 dy
√ Z0 ∞
2 y2
= e− 2 dy (∗)
2 −∞
Z ∞
1 y2
=√ e− 2 dy.
2 −∞
y2
El resultado en (∗) se da porque e− 2 es una función simétrica, enton-
R ∞ y2 R∞ y2 R y2
ces 0 e− 2 dy, = 21 −∞ e− 2 dy. Ahora, e− 2 dy no tiene una antide-
rivada; sin embargo, se puede usar un argumento auxiliar apoyado en
coordenadas polares para encontrar esta antiderivada. Ası́, tomando
Z ∞
y2
I= e− 2 dy,
−∞
entonces, Z ∞ Z ∞
(x2 +y 2 )
2
I = e− 2 dxdy,
−∞ −∞
= 2π −e− 2 |∞
0 = 2π.
Es decir, Z ∞
y2 √
I= e− 2 dy = 2π.
−∞
Luego,
1 √
Z ∞
√
1 1 y2
Γ =√ e− 2 dy = √ 2π = π.
2 2 −∞ 2
2.5
1.2
β = 4.5 β = 4.5
β=3 β=3
β = 1.5 β = 1.5
2.0
β = 0.75
1.0
β = 0.75
0.8
1.5
densidad
densidad
0.6
1.0
0.4
0.5
0.2
0.0
0.0
0 2 4 6 8 0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5
x x
(a) (b)
0.5
α = 4.5 α = 4.5
α=3 α=3
α = 1.5 α = 1.5
1.0
α = 1.25 α = 1.25
0.4
0.8
0.3
densidad
densidad
0.6
0.2
0.4
0.1
0.2
0.0
0.0
0 2 4 6 8 0 2 4 6 8 10 12 14
x x
(a) (b)
2. E(X) = αβ .
6.3. DISTRIBUCIONES PARA VARIABLES CONTINUAS 211
α
3. V (X) = β2
.
α
β
4. MX (t) = β−t
si t < β.
Demostración. 1.
∞ Z ∞
βα
Z
n
E(X ) = n
x f (x) dx = xn xα−1 e−βx dx
0 Γ(α) 0
β α Γ(α + n) ∞ β α+n
Z
= α+n
x(α+n)−1 e−βx dx
Γ(α) β 0 Γ(α + n)
| {z }
Gamma(α+n,β)
Γ(α + n) 1
= .
Γ(α) β n
Γ(α + 1) 1 αΓ(α) 1 α
E(X) = = = .
Γ(α) β Γ(α) β β
entonces,
α(α + 1) α2 α
V (X) = E(X 2 ) − E 2 (X) = − = .
β2 β2 β2
212 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
√
De este resultado se puede obtener que CV = α−1/2 , también, β1 = 2CV >
0, es decir, el modelo siempre es asimétrico a la derecha.
Ejemplo 6.3.2. El tiempo, en minutos, que transcurre en una central te-
lefónica antes que entren tres llamadas es una v.a. gamma de parámetros
α = 3 y β = 4. ¿ Cuál es la probabilidad de que pase un minuto antes de que
entren tres llamadas,? ¿ cuánto tiempo se espera que pase para que entren
tres llamadas?
solución:
Sea T la v.a. que mide el tiempo que transcurre antes de que entren tres
llamadas, entonces
Z 1 Z 1
βα α−1 −βt 43
P (T ≤ 1) = t e dt = t2 e−4t dt = 0,7618.
Γ(α) 0 Γ(3) 0
3
Ası́ mismo, E(T ) = 4
= 0,75 minutos.
Entonces,
Luego, para t ≥ 0,
1 k
d 1 t t
fk (t) = − P (Tk > t) = k tk−1 e− λ = λ tk−1 e− λ
dt λ (k − 1)! Γ(k)
1 − e−λt si t ≥ 0
FT (t) =
0 si t < 0.
Observación 6.3.3. Se puede verificar que la distribución exponencial, Exp(λ)
es un caso particular de la distribución Gamma(α, β), cuando α = 1 y β = λ.
Algunos autores definen la distribución exponencial a partir de esta relación.
Como λ es positivo y T sólo toma valores no negativos, entonces es claro que
la fdp fT (t) es estrictamente decreciente, con única moda en t = 0, donde
fT (t) toma el valor máximo λ. La mediana de fT (t) ocurre cuando FT (a) =
1 − e−λa = 12 , entonces a = logλ 2 es la mediana de la distribución. En las
siguiente figuras se observa el comportamiento de la distribución exponencial
para valores del parámetro λ por encima y por debajo de uno
Teorema 6.3.4. Sea X ∼ Exp(λ) ≡ Gamma(1, λ). Entonces,
1) E(X) = λ1 .
1
2) V (X) = λ2
.
1
3) MX (b) = λ−b
= 1 − λb , para b < λ.
Demostración. 1) Hallemos primero la fórmula del n-ésimo momento. En
efecto,
∞ ∞
Γ(n + 1) λn+1
Z Z
n −λt
n
E(T ) = λ z e dt = λ · · t(n+1)−1 e−λt dt
0 Γ(n + 1) λn+1 0
Γ(n + 1)
= .
λn
Luego, para n = 1
Γ(1 + 1) 1 · Γ(1) 1
E(T ) = = = .
λ λ λ
6.3. DISTRIBUCIONES PARA VARIABLES CONTINUAS 215
λ = 4.5 λ = 0.75
λ=3 λ = 0.5
λ = 1.5 λ = 0.25
0.6
0.6
densidad
densidad
0.4
0.4
0.2
0.2
0.0
0.0
0 2 4 6 8 10 0 2 4 6 8 10
x x
(a) (b)
3)
Z ∞ −1
−(λ−b)t λ 1 b
MX (b) = λ e dx = = b
= 1− , b < λ.
0 λ−b 1− λ
λ
√
Se sigue que CV = 1 y β1 = 2, entonces el modelo es asimétrico a la
derecha.
Demostración.
P ([T > t + s] ∩ [T > s])
P (T > t + s|T > s) =
P (T > s)
P (T > t + s) e−λ(t+s)
= =
P (T > S) e−λs
= e−λt = P (T > t).
Solución:
Z 150
P (X ≥ 150) = 1 − P (X < 150) = 1 − 0,02 e−0,02x dx
0
= 1 − (1 − e−0,02×150 ) = e−3 = 0,0497.
Ejemplo 6.3.4. Suponga que el tiempo de atendimiento en la ventanilla de
un banco tiene una distribución exponencial de parámetro λ = 0,2 es decir,
un promedio de atendimiento de 5 minutos por persona. La probabilidad de
que el tiempo de atendimiento de un cliente sea por lo menos de 10 minutos
es
P (X ≥ 10) = e−0,2×10 = e−2 = 0,1353.
Entonces, la probabilidad de que el tiempo de atendimiento de un cliente sea
mayor de 15 minutos dado que el tiempo de atendimiento ha sido mayor de
10 minutos es
P (X > 15|X > 10) = P (X > 5+10|X > 10) = P (X > 5) = e−0,2×5 = 0,3679.
Teorema 6.3.5. Sea T una v.a.c. Entonces, T ∼ Exp(λ) con λ > 0, si y
sólo si
P (T > t + h|X > h) = P (T > t), para todo h, t ∈ [0, ∞).
6.3. DISTRIBUCIONES PARA VARIABLES CONTINUAS 217
y la función de densidad de T es
También es muy usada la función Hazard (tasa de falla) λ(t), definida por
f (t) S 0 (t)
h(t) = =− .
S(t) S(t)
n=3
n=4
n=5
0.20
n=6
0.15
densidad
0.10
0.05
0.00
0 5 10 15
Z 1
2
Entonces, es suficiente analizar xα−1 (1 − x)β−1 dx, la cual diverge para
0+
α ≤ 0 o β ≤ 0, converge para 0 < α < 1, y para α ≥ 1 es una integral
propia.
1. B(α, β) = B(β, α)
Γ(α)Γ(β)
2. B(α, β) = Γ(α+β)
2. Tomando x = y 2 , entonces
Z ∞ Z ∞
α−1 −x 2
Γ(α) = x e dx = 2 y 2α−1 e−y dy
0 0
y
Z ∞ Z ∞
β−1 −x 2
Γ(β) = x e dx = 2 y 2β−1 e−y dy
0 0
Luego,
Z ∞ Z ∞
2 +y 2 )
Γ(α)Γ(β) = 4 x2α−1 y 2β−1 e−(x dxdy
0 0
6.3. DISTRIBUCIONES PARA VARIABLES CONTINUAS 221
Z 1
B(α, β) = xα−1 (1 − x)β−1 dx
0
Z π
2
= (senθ)2(α−1) (cosθ)2(β−1) 2senθcosθ dθ
0
Z π
2
=2 (senθ)2α−1 (cosθ)2β−1 dθ
0
Luego,
Γ(α)Γ(β) = Γ(α + β)B(α, β).
Por lo tanto,
Γ(α)Γ(β)
B(α, β) = .
Γ(α + β)
α−1
x= .
α+β−2
α−1
x= .
α+β−2
Γ(α+β)Γ(α+1)
1. E(X n ) = Γ(α)Γ(α+β+n)
.
α
2. E(X) = α+β
.
αβ
3. V (X) = (α+β)2 (α+β+1)
.
6.3. DISTRIBUCIONES PARA VARIABLES CONTINUAS
3.5 223
3.5
β=5 α=3
β = 2.5 α = 1.5
β = 0.75 α = 0.75
3.0
3.0
β = 0.25 α = 0.25
2.5
2.5
2.0
2.0
densidad
densidad
1.5
1.5
1.0
1.0
0.5
0.5
0.0
0.0
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0
x x
(a) (b)
Demostración. 1.
Z 1 Z 1
n 1 n
E(X ) = x f (x)dx = xn xα−1 (1 − x)β−1 dx
0 B(α, β) 0
Z 1
1
= xα+n−1 (1 − x)β−1 dx
B(α, β) 0
Z 1
B(α + n, β) 1
= · xα+n−1 (1 − x)β−1 dx
B(α, β) 0 B(α + n, β)
| {z }
Beta(α+n,β)
| {z }
=1
Γ(α+n)Γ(β)
B(α + n, β) Γ(α+β+n)
= = Γ(α)Γ(β)
B(α, β)
Γ(α+β)
Γ(α + β)Γ(α + n)
= .
Γ(α)Γ(α + β + n)
3. Para n = 2, se tiene
Γ(α + β)Γ(α + 2) Γ(α + β) · (α + 1) · α · Γ(α)
E(X 2 ) = =
Γ(α)Γ(α + β + 2) Γ(α)(α + β + 1)(α + β)Γ(α + β)
α(α + 1)
= .
(α + β)(α + β + 1)
Entonces,
αβ
V (X) = E(X 2 ) − E 2 (X) = .
(α + β)2 (α + β + 1)
q
β
Igualmente se puede obtener que CV = α(α+β+1)
y
> 0 (asimétrica a la derecha) si β > α
s
p 2(β − α) α+β+1
β1 = 0 (simétrica) si β = α
α+β+2 αβ
< 0 (asimétrica a la izquierda) si β < α.
1 1 x−µ 2
fX (x) = √ e− 2 ( σ ) , x ∈ R, µ ∈ R, σ ∈ R+
2πσ
0.4
µ = −2 σ = 0.75
0.5
µ=0 σ=1
µ=2 σ = 1.75
0.3
0.4
0.3
densidad
densidad
0.2
0.2
0.1
0.1
0.0
0.0
−6 −4 −2 0 2 4 6 −4 −2 0 2 4
x x
(a) (b)
1.0
0.8
0.6
Φ(x)
0.4
0.2
0.0
−4 −2 0 2 4
x−µ
x
x−µ
Z Z
1 1 t−µ 2 σ 1 1 2
FX (x) = √ e− 2 ( σ ) dt = √ e− 2 z dz = Φ ,
−∞ 2πσ −∞ 2π σ
es decir,
x−µ x−µ
FX (x) = P (X ≤ x) = P Z ≤ =Φ .
σ σ
228 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
Φ(220) = P (X ≤ 220)
se obtiene en R,
ası́ mismo
• P (X ≥ 224) = 1−P (X ≤ 224) = 1−Φ(224) entonces procedemos
ası́: 1 − pnorm(224, 200, 15) = 0,0547, es decir, 1 − Φ(224) =
1 − pnorm(224, 200, 15) = 0,0547.
• P (191 < X < 209) = Φ(191) − Φ(209) = pnorm(209, 200, 15) −
pnorm(191, 200, 15) = 0,4514.
6.3. DISTRIBUCIONES PARA VARIABLES CONTINUAS 229
−1
µ−σ−µ X −µ µ+σ−µ
P (µ − σ < X < µ + σ) = P < <
σ σ σ
σ σ
=P − <Z<
σ σ
= P (−1 < Z < 1)
= Φ(1) − Φ(−1)
= 0,8413 − 0,1586 = 0,6826
es decir que el 68,26 % de las observaciones se encuentran a una des-
viación estándar de la media.
Asi mismo, también se puede verificar que el 95.44 % de las observacio-
nes se encuentra a dos desviaciones estándar de la media poblacional,
mientras que el 99.74 % se encuentra a tres desviaciones estándar de
la media poblacional. Verificamos la primera parte de este enunciado y
dejamos a los lectores verificar la segunda parte. Entonces,
230 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
−2
2
Figura 6.17: fda de la normal para µ − 2σ < X < µ + 2σ.
µ − 2σ − µ X −µ µ + 2σ − µ
P (µ − 2σ < X < µ + 2σ) = P < <
σ σ σ
2σ 2σ
=P − <Z<
σ σ
= P (−2 < Z < 2)
= Φ(2) − Φ(−2)
= 0,9772 − 0,0227 = 0,9544.
2. V (X) = σ 2 .
√
3. β1 = 0.
4. β2 = 3.
6.3. DISTRIBUCIONES PARA VARIABLES CONTINUAS 231
1 2 t2
5. MX (t) = eµt+ 2 σ .
Demostración. 1.
∞
x−µ
Z
1 1 x−µ 2
E(X) = x√ e− 2 ( σ ) , haciendo z =
−∞ 2πσ σ
Z ∞
1 1 2
=√ (µ + σz)e− 2 z σdz
2πσ
Z ∞ −∞ Z ∞
1 − 1 z2 σ 1 2
=µ √ e 2 dz + √ ze− 2 z dz
−∞ 2π 2π −∞
| {z }
N (0,1)
Z ∞ 2
σ − 12 z 2 z
=µ+ √ e d
2π −∞ 2
σ − 1 z ∞
= µ − √ e 2 −∞ = µ.
2π
| {z }
=0
2.
Z∞
1 1 x−µ 2
V (X) = E(X − µ) = 2
(x − µ)2 √ e− 2 ( σ ) dx
−∞ 2πσ
Z ∞
1 y 2
= σ2 y 2 √ e− 2 dy, haciendo z = y 2
−∞ 2π
2 Z ∞
σ 1 z
=√ z 2 e− 2 dz
2π 0
3
σ 2 Γ( 23 ) ∞ ( 12 ) 2 3 −1 − 1 y
Z
=√ y 2 e 2 dy
2π ( 21 ) 2 0 Γ( 23 )
3
| {z }
Gamma( 32 , 21 )
σ 2 Γ( 21 + 1)
=√ 3
2π ( 12 ) 2
1
σ2 2
Γ( 21 )
= 1√ 3
22 π ( 12 ) 2
√
σ2 π
= 3√ 1 3
22 π (2)2
= σ2.
3.
3
E(X − µ)3
p X −µ
β1 = 3 =E
(V (X)) 2 σ
Z ∞ 3
x−µ 1 1 x−µ 2
= √ e− 2 ( σ ) dx
−∞ σ 2πσ
Z ∞
1 1 2
=√ z 3 e− 2 z dz
2π −∞
Z 0 Z ∞
1 3 − 12 z 2 3 − 12 z 2
=√ z e dz + z e dz
2π −∞ 0
Z ∞ Z ∞
1 3 − 21 y 2 3 − 12 y 2
=√ − y e dy + y e dy
2π 0 0
= 0.
6.3. DISTRIBUCIONES PARA VARIABLES CONTINUAS 233
4.
4
E(X − µ)4
X −µ
β2 = =E
(V (X))2 σ
Z ∞ 4
x−µ 1 1 x−µ 2
= √ e− 2 ( σ ) dx
σ 2πσ
Z−∞∞
1 1 2
= √ z 4 e− 2 z dz
2π
Z−∞∞
= z 4 φZ dz
−∞
= 3Φ(z) − (z 3 + 3z)φ(z) |∞
−∞
= [3(1) − 0] − [3(0) − 0]
= 3.
5.
Z ∞
1 1 x−µ 2
tX
MX (t) = E(e ) = √ etx e− 2 ( σ ) dx
2πσ −∞
Z ∞ 1 x2 −2µx+µ2
1 −
σ2
+tx
=√ e 2 dx
2πσ −∞
Z ∞
1 1 x2 −2µx+µ2 −2σ 2 tx
=√ e− 2 σ2 dx
2πσ −∞
Z ∞
1 2 2 2
1 x −2(µ+σ t)x+µ ±(µ+σ t)
2 2
=√ e− 2 σ2 dx
2πσ −∞
Z ∞
1 2 2 2
1 (x−(µ+σ t)) +µ −(µ+σ t)
2 2
=√ e− 2 σ2 dx
2πσ −∞
Z ∞
1 2
1 (x−(µ+σ t))
2
1 2
=√ e− 2 σ2 eµt+ 2 σ t dx
2πσ −∞
Z ∞
µt+ 21 σ 2 t 1 2
1 (x−(µ+σ t))
2
=e √ e− 2 σ2 dx
−∞ 2πσ
| {z }
N (µ+σ 2 t,σ 2 )
1 2
= eµt+ 2 σ t .
234 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
Solución:
X −µ
PE = P (X > µ + 2σ) = 1 − P (X ≤ µ + 2σ) = 1 − P ≤2
σ
= 1 − P (Z < 2) = 1 − Φ(2) = 1 − 0,9772 = 0,0227.
X −µ
PS = P (µ + σ < X < µ + 2σ) = P 1 < <2
σ
= P (1 < Z < 2) = Φ(2) − Φ(1) = 0,9772 − 0,8413 = 0,1359.
X −µ
PB = P (µ < X < µ + σ) = P 0 < <1
σ
= P (0 < Z < 1) = Φ(1) − Φ(0) = 0,8413 − 0,5 = 0,3413.
X −µ
PA = P (µ − σ < X < µ) = P −1 < <0
σ
= P (−1 < Z < 0) = Φ(0) − Φ(−1) = 0,5 − 0,1587 = 0,3413.
X −µ
PD = P (X < µ−σ) = P < −1 = P (Z < −1) = Φ(−1) = 0,1586.
σ
6.3. DISTRIBUCIONES PARA VARIABLES CONTINUAS 235
µ=1 σ = 0.75
µ=0 σ=1
µ = − 0.5 σ = 1.5
1.5
µ = −1 σ=2
1.0
1.0
densidad
densidad
0.5
0.5
0.0
0.0
0 1 2 3 4 5 6 0 1 2 3 4 5 6
x x
(a) (b)
3. MX (t) no existe.
1.
1 2 (1) 1 2
E(X) = E(eY ) = MY (1) = eµ(1)+ 2 σ = eµ+ 2 σ .
2.
2 2
E(X 2 ) = E(e2Y ) = MY (2) = e2µ+2σ = e2(µ+σ ) .
Entonces,
2 2
V (X) = E(X 2 ) − E 2 (X) = e2(µ+σ ) − e2µ+σ
µ=2
0.30
σ = 0.5
0.6
µ=1
σ = 0.75
µ=0
σ=1
µ = −1
σ=2
0.25
0.5
0.20
0.4
densidad
densidad
0.15
0.3
0.10
0.2
0.05
0.1
0.00
0.0
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6
x x
(a) (b)
β=3
β = 1.5
β = 0.75
1.0
β = 0.25
0.8
densidad
0.6
0.4
0.2
0.0
0 1 2 3 4
Demostración. 1.
Z ∞
β
E(X) = αβ x · xβ−1 e−αx dx
0
Z ∞
1
=α y β e−αy dy, tomando y = xβ
Z0 ∞
1
=α y (1+ β )−1 e−αy dy
0
1
Γ(1 + β1 ) α(1+ β ) Z ∞ (1+ 1 )−1 −αy
=α· y β e dy
(1+ β1 ) 1
α Γ 1+ β 0
Γ 1 + β1 ( β1 )
1 1
=α 1
= Γ 1+ .
α(1+ β ) α β
2.
2
Z ∞
2
Γ 1+ β
E(X 2 ) = αβ y ( β ) e−αy dy = αβ 1
0 α(1+ β )
β2
1 2
= Γ 1+ .
α β
Entonces,
β2
2 1 2 2 2 1
V (X) = E(X ) − E (X) = Γ 1+ −Γ 1+ .
α β β
0.5
2.0
α=3 β=3
α=1 β=1
α=0 β=0
α = −2 β = −2
0.4
1.5
0.3
densidad
densidad
1.0
0.2
0.5
0.1
0.0
0.0
−4 −2 0 2 4 6 −4 −2 0 2 4
x x
(a) (b)
Teorema 6.3.12. Sea X una v.a. con media µ finita y varianza σ 2 . Entonces,
para cualquier valor > 0, se tiene que
1
P (|X − µ| ≥ kσ) ≤ .
k2
242 CAPÍTULO 6. DISTRIBUCIONES DE PROBABILIDAD
Entonces,
σ2
P (A) = P (|X − µ| ≥ ) ≤ ,
2
luego, tomando = kσ se sigue el resultado.
Funciones de Variables
Aleatorias
243
244 CAPÍTULO 7. FUNCIONES DE VARIABLES ALEATORIAS
B = {x ∈ RX | H(x) ∈ C}
Ejemplo 7.0.10. Sea X una variable aleatoria con fdp f (x) = e−x (x > 0).
Sea H(x) = 2x + 1.
245
a) Hallar RX , RY ,
c) Halle P (C).
Solución:
a) Como x > 0, claramente RX = {x|x > 0}. Ahora; puesto que x > 0
entonces 2x + 1 y como y = H(x), entonces y > 1 ası́ se tiene que
RY = {y|y > 1}
incluso, algunos de los valores posibles de Y pueden ser iguales, pero esto no
implica que no se puedan enumerar.
Ejemplo 7.1.1. Suponga que la variable aleatoria X toma los valores 1, 2, 3
con igual probabilidad. Sea Y = 2X + 3; los valores posibles de Y son 5, 7, 9
con igual probabilidad.
Ejemplo 7.1.2. Suponga que X toma valores −1, 0, 1 con probabilidad 31 , 12 ,
1
6
respectivamente. Sea Y = X 2 , entonces los valores posibles de Y son 0, 1
con probabilidad 21 , 12 respectivamente.
En efecto:
1
Y = 0 ↔ X = 0; entonces, P [Y = 0] = P [X = 0] =
2
Y = 0 ↔ X = 1 ó − 1; entonces, P [Y = 1] = P [X = 1] + P [X = −1]
1 1 1
= + = .
6 3 2
Ejemplo 7.1.3. Suponga que X toma valores 1, 2, 3, ..., n, .. y además,
n
1
P [X = n] = .
2
1 si x es par
Sea Y =
−1 si x es impar.
Hallar:
P[Y=1],
P[Y=-1].
Solución:
7.2. FUNCIONES ALEATORIAS CONTINUAS 247
Y = 1 ↔ X = 2 ó 4 ó 6 ó · · · ó 2n ó · · · , luego
P [Y = 1] = P [X = 2n] n = 1, 2, 3, · · ·
= P [X = 2] + P [X = 4] + ...
1 1 1 1
= + + + + ···
4 16 64 256
1 1 1 1
= 1+ + + + ···
4 4 16 64
1 1
=
4 1 − 14
1
= .
3
1
P [Y = −1] = 1 − P [Y = 1] = 1 − 3
= 23 .
2x si 0 < x < 1
f (x) =
0 en otro caso.
Solución:
a)
y−1
G(y) = P [Y ≤ y] = P [3X + 1 ≤ y] = P X ≤
3
Z y−1 2
3 y−1
= 2x dx = .
0 3
0
b) g(y) = G0 (y) = (( y−1
3
)2 ) = 2( y−1
3
)( 13 ) = 92 (y − 1), entonces
2
g(y) = (y − 1).
9
Otro método.
y−1 y−1
G(y) = P [Y ≤ y] = P [X ≤ ] = F( )
3 3
7.2. FUNCIONES ALEATORIAS CONTINUAS 249
0
0 0 y−1 y−1
→ g(y) = G (y) = F
3 3
y−1 1
=f
3 3
y−1 1
=2 .
3 3
2
= (y − 1).
9
Note en este ejemplo que la función y = 3x + 1 es creciente.
Ejemplo 7.2.2. Suponga que X tiene fdp
2x si 0 < x < 1
f (x) =
0 en otro caso.
Solución:
a)
G(y) = P [Y ≤ y] = P [e−X ≤ y]
= P [ln e−X ≤ ln y]
= P [−X ≤ ln y]
= P [X ≥ − ln y]
Z 1
= 2x dx
− ln y
1
= x2 − ln y
= 1 − (− ln y)2 .
b)
g(y) = G0 (y) = (1 − (− ln y)2 )0
= 0 − 2(− ln y)(− ln y)0
2 ln y
=− .
y
250 CAPÍTULO 7. FUNCIONES DE VARIABLES ALEATORIAS
c) Como f (x) > 0 para 0 < x < 1 y dado que y = e−x , entonces g(y) > 0
para 1e < g < 1. En efecto:
0 < x < 1 ↔ e0 < ex < e1
↔ 1 < ex < e
1
↔ 1 > e−x >
e
1
↔ < y < 1.
e
Otro método:
G(y) = P [Y ≤ y] = P [X ≤ − ln y] = 1 − P [X < − ln y] = 1 − F (− ln y)
entonces,
G0 (y) = 0 − F 0 (− ln y)(− ln y)0 = −f (− ln y).(− y1 ) = − 2 lny y .
Ejemplo 7.2.3. Sea
1 si 0 < x < 1
f (x) =
0 caso contrario
y sea Y = g(X) = eX . Encontrar GY .
0 si x ≤ 0
1 si 0 < x < 1
Si f (x) = entonces, FX (x) = x si 0 < x < 1
0 caso contrario
1 si x ≥ 1.
Luego,
G(y) = P (Y ≤ y) = P (eX ≤ y) = P (X ≤ log(y))
= F (ln y)
= ln y, si 1 < y < e
0 si y ≤ 1 1
y
si 1 < y < e
→ G(y) = ln y si 1 < y < e → f (y) =
0 caso contrario.
1 si y ≥ e.
Ejemplo 7.2.4. Sea X una v.a. con fda F (x). Entonces, la distribución de
Y = FX (x) es:
G(y) = P (Y ≤ y) = P (FX (x) ≤ y)
= P (X ≤ FX−1 (y))
= FX (FX−1 (y))
=y
7.2. FUNCIONES ALEATORIAS CONTINUAS 251
además, como FX (x) es una probabilidad, entonces y ∈ (0, 1). Se sigue que
f (y) = 1, para y ∈ (0, 1) es decir, Y ∼ U (0, 1).
Ejemplo 7.2.5. Sea X una v.a. con fda F (x). Entonces, la distribución de
Y = − ln F (x) es:
G(y) = P (Y ≤ y) = P (− ln F (x) ≤ y)
= P (ln F (x) ≥ −y)
= P (F (x) ≥ e−y )
= 1 − P (F (x) ≤ e−y )
= 1 − P (X ≤ F −1 (e−y ))
= 1 − F (F −1 (e−y ))
= 1 − e−y ,
Además, −1 < x < 1 implica que − π2 < π2 x < π2 y como la función sin(x) es
creciente en (− π2 , π2 ), entonces X = π2 arcsin(Y ) y como sin(x) ≤ A si y sólo
252 CAPÍTULO 7. FUNCIONES DE VARIABLES ALEATORIAS
si x ≤ arcsin(A), entonces,
π
2 2
G(y) = P (Y ≤ y) = P sin X ≤ y = P X ≤ arcsin(y) = F arcsin(y) .
2 π π
Luego, la fdp de Y está dada por:
0
0 2
g(y) = G (y) = F arcsin(y)
π
0 2 2 1
=F arcsin(y) · · p
π π 1 − y2
2 2
= p f arcsin(y)
π 1−y 2 π
2 1 2
= p · puesto que − 1 < arcsin(y) < 1
π 1 − y2 2 π
1
= p .
π 1 − y2
Como f (x) > 0 para −1 < x < 1, entonces − π2 < π2 x < π2 y por lo tanto
sin(− π2 ) < sin( π2 x) < sin( π2 ) y esto implica que −1 < sin( π2 x) < 1, esto es,
−1 < y < 1.
Concluimos entonces que
1 1
(1 − y 2 )− 2 si −1 < y < 1
g(y) = P (X = x) = π
0 caso contrario.
Es claro que g(y) ≥ 0 para todo y ∈ (−1, 2), además
Z ∞ Z 1
1 1 1 1 1 1 1
g(y)dy = p dy = arcsin(y)|−1 = + = 1.
−∞ −1 π 1 − y2 π π π π
Demostración. i) Si g es ↑ entonces,
d −1
FY (y) = FX (g −1 (y)) −→ fY (y) = fX (g −1 (y)) · g (y)
dy
ii) Si g es ↓ entonces,
−1 −1 d −1
FY (y) = 1 − FX (g (y)) −→ fY (y) = fX (g (y)) · − g (y)
dy
Entonces, Y ∼ N (µ, σ 2 ).
g(y) = f ( y−1
3
) · | 13 | = 2( y−1
3
) · 13 = 29 (y − 1). y como 0 < x < 1 y y = 3x + 1 es
creciente, entonces H(0) < y < H(1) es decir, 1 < y < 4 esto significa que
g(y) > 0 para 1 < y < 4.
256 CAPÍTULO 7. FUNCIONES DE VARIABLES ALEATORIAS
Solución:
a) Sea Y = |X| entonces FY (y) = P (Y ≤ y), como X es una v.a. con fdp
continua y estrictamente creciente se tiene que:
P (|X| ≤ y) si y > 0
FY (y) =
0 si y ≤ 0
P (−y ≤ X ≤ y) si y > 0
es decir, FY (y) =
0 si y ≤ 0
llegando finalmente a:
FX (y) − FX (−y) si y > 0
FY (y) =
0 si y ≤ 0.
Por lo tanto,
la función de densidad de la v.a. Y está dada por:
fX (y) − fX (−y) si y > 0
fY (y) =
0 si y ≤ 0.
1 √ √
g(y) = √ [f ( y) + f (− y)]
2 y
√ √ √ √
G(y) = P [Y ≤ y] = P [X 2 ≤ y] = P [− y ≤ X y] = F ( y) − F (− y).
Entonces,
√ √ √ √
G0 (y) = F 0 ( y)( y)0 − F 0 (− y)(− y)0
√ 1 √ 1
= f ( y) √ − f (− y) − √
2 y 2 y
1 √ √
entonces, g(y) = √ [f ( y) + f (− y)]; además 0 < y < ∞.
2 y
Ejemplo 7.2.11. Suponga que la fdp f de una v.a.c X viene dada por:
1
2
si −1 < x < 1
f (x) =
0 si en otro caso.
√
Solución: y = x2 no es monótona; x2 = y ↔ x = y entonces,
g(y) = 2√1 y 12 + 12 = 2√1 y y además 0 < y < 1.
258 CAPÍTULO 7. FUNCIONES DE VARIABLES ALEATORIAS
G(y) = P (Y = y) = P (X 2 ≤ y)
√ √
= P (− y ≤ X ≤ y)
Z √y
= √
f (x) dx
− y
Z √y
2 1 2
=√ e− 2 x dx; tomando z = x2
2π Z 0
y
1 1 1
=√ √ e− 2 z dz
2π 0 2z
1
2 −1 y 1 −1 − 1 z
Z
2
= 1 z 2 e 2 dz
Γ( 2 ) 0
1 1
entonces, Y ∼ Gamma ,
2 2
= X12 .
para Y = 2βX
n2 1 n2
2t
X β
MY (t) = E(etY ) = E(e β )= = 1
2
,
β − 2βt 2
−t
n 1
la cual corresponde a la fgm de una v.a. Gamma ,
2 2
, es decir, Y ∼
Gamma n2 , 21 = χ2n .