Você está na página 1de 14

Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L.

Retamal

Unidad 3 VARIABLES ALEATORIAS DISCRETAS


Y DISTRIBUCIONES DE PROBABILIDADES

VARIABLES ALEATORIAS DISCRETAS

En base a los conceptos y cálculo de probabilidades de eventos, ahora nos


detendremos en que cada resultado de un experimento puede ser asociado con un número
que es especificado por una regla de asociación. Por ejemplo, el número de artículos
defectuosos de una partida de 100 en una semana, número de caras al lanzar n veces una
moneda. Una variable aleatoria (v.a.) es una variable cuyo valor es el resultado de un
evento aleatorio. Esta regla de asociación es una variable ya que valores numéricos
diferentes son posibles y aleatoria debido a que el valor observado depende de cuales de
los resultados posibles del experimento ocurre.

La apropiación de los conceptos y propiedades de esta unidad para su correcta


aplicación en situaciones a la ingeniería serán facilitadas por el desarrollo de planteamiento
de ejercicios y problemas. Se recomienda resolver ejercicios del capítulo 3 de los libros de
textos Devore y Montgomery y Runger.

Def. 1: Una variable aleatoria es una función que asocia a cada w ∈ Ω un número real. Son
denotadas por mayúsculas.

Significa que x es el número asociado


X: Ω IR
al resultado w ∈ Ω por la función X
w X(w) = x

R X = {y ∈ IR: y = X (x), x ∈ Ω } es el conjunto de todos los valores que toma la variable


aleatoria X llamada recorrido de la variable aleatoria. Si A ⊂ R X hablaremos también del
suceso A.

Def. 2: Sea A ⊂ R X y sea B = {w ∈ Ω / X (w) ∈ A }⊂ Ω , B consta de todos los resultados


en Ω para los cuales X (w) ∈ A. En este caso, decimos que A y B son sucesos equivalentes
y P(A) = P(B)

Hay dos tipos de variables aleatorias:


Una variable aleatoria es discreta si su recorrido es un conjunto discreto de
números (finito o numerable), es decir, sus elementos pueden ser listados de manera que
hay un primer elemento, un segundo elemento, ..,etc, en la lista. Es decir, puede asumir sólo
ciertos valores, comúnmente número enteros y resulta principalmente del conteo.

1
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

Una variable aleatoria es continua si su recorrido es un conjunto continuo de


números reales (no numerable de elementos), es decir, es un intervalo de IR. Ésta será
tratada en la unidad 4.

Ejemplo 1. Determine si las siguientes expresiones pueden considerarse como variables


aleatorias discretas: a) Número de caras al lanzar una moneda tres veces, b) Los pesos de
envío del agua mineral en contenedores oscilaban aleatoriamente entre 10 y 25 libras, c)
Número de clientes que están en fila para sacar sus libros favoritos, d) El resultado del
lanzamiento de un dado, e) El número de camiones que llegan por hora al puerto de carga,
f) Estatura de los clientes en una tienda de ropa, g) Los ingresos de los empleados en un
centro comercial, h) El tiempo transcurrido entre la llegada de cada cliente a la biblioteca.

Def. 3: Sea X una variable aleatoria discreta (v.a.d.) con recorrido R X . Sea p una función
que asigna a cada x ∈ R X un número p( x ) = P ( X = x ) llamado probabilidad de x.

P : RX IR
x p( x ) = P ( X = x )

La función de probabilidad p de la v.a. X debe satisfacer las siguientes propiedades:

a) p(x) > 0 , ∀ x ∈ R X , ∀ x ∈ IR

b) ∑ p(x) =1
x∈Rx

La función de probabilidades p(x) = P (X=x) = P( {w : X (w) = x}) = P(X (w) = x)


(o función de cuantía) de una v.a.d. X, es expresada usualmente como los pares ( x, p (x) )
∀ x ∈ R X , llamada distribución de probabilidades, que es una lista de todos los resultados
posibles de un experimento y de la probabilidad relacionada con cada resultado.
Si A ⊆ R X entonces: P(x ∈ A ) = P (A) = ∑ p(x)
x∈A

Def. 4: La función de distribución acumulada de una v.a. discreta X, denotada por


FX (x) , es una función definida sobre los números reales, tal que:
FX ( x ) = P ( X ≤ x ) = ∑ pX(t)
t≤x
Observación:
[1] La FX (x) de una v.a. X puede ser usada para evaluar probabilidades de cualquier tipo.
En particular, sea A = {X≤ a}, B = {a< X ≤ b}, con a < b números reales cualesquiera,
tenemos obviamente que A ∩ B = φ y A ∪ B = {X ≤ b } entonces:
P(A ∪ B) = P(A)+ P(B) = P ( X ≤ a) + P (a< X ≤ b)

2
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

Por lo tanto, podemos calcular probabilidades de intervalos de la v.a. X si conocemos su


función de distribución:

P (a< X ≤ b) = FX (b) - FX (a )
P(a ≤ X≤ b) = FX (b) - FX (a ) + P( X = a )
P(a ≤ X< b) = FX (b) - FX (a ) + P( X = a ) - P( X = b )
P(a < X < b) = FX (b) - FX (a ) - P( X = b )

Para determinar la probabilidad en un punto, por ejemplo en X = a ; expresamos el


conjunto formado por aquel sólo valor como la intersección de una familia decreciente de
conjuntos I1 , I 2 ,........( I1 ⊃ I 2 ⊃ L) donde I n = { x: a – 1 < x ≤ a + 1 }, luego
n n

{a} = I I n y se verifica que la probabilidad es la diferencia entre los límites por la
n =1
derecha e izquierda de F(x) en x = a.

P ( X = a) = FX (a + ) - FX (a − )

[2] El dominio de definición para FX (x) es toda la recta real. Además, como por definición
FX (x) es una probabilidad, debemos tener 0 ≤ FX (t ) ≤ 1, ∀ t ∈ R

[3] Se cumple lim FX (t ) = 0 y lim FX (t ) = 1


t →−∞ t →∞

Esperanza matemática de una variable aleatoria


Así como en estadística descriptiva se calculó la media de un conjunto de datos,
también se puede determinar la media de una distribución de probabilidad.
El valor esperado de una variable aleatoria discreta es la media ponderada de todos
los posibles resultados en los cuales los pesos son las probabilidades respectivas de tales
resultados, y se refiere al centro de gravedad de una distribución de masa a través de una
línea. Será usada como la medida de centro de una distribución de probabilidad.

En términos simbólicos el valor esperado de X se define por:

E( X ) = µ = ∑ x ⋅ p( x)
x∈R X

En términos generales, considere la variable aleatoria H(x) que es una función de la v.a. X ,
entonces el valor esperado de H(x) es definida por:

E ( H ( X )) = ∑ H ( x) ⋅ p X ( x)
x∈R X
Además, la varianza de una distribución de probabilidad es conceptualmente la
misma que la varianza que se calculó en estadística descriptiva. Es el promedio de las
desviaciones al cuadrado con respecto de la media, y se escribe como:

3
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

V(x) = σ2 = E[(x-µ)2] = 2
∑ ( x − µ ) ⋅ p( x) = E (X 2 ) − µ 2
x∈R X

Propiedades de la esperanza y varianza:


Consideremos la v.a X y la constante c, entonces se cumple:
a) E( c ) = c
b) E(c X)= c E(X)
c) E(h(x)+g(x)) = E(h(x)) + E(g(x))
d) La raíz cuadrada positiva de la varianza es llamada desviación estándar o desviación
típica σx = V ( X ) . Por lo tanto, la varianza con la desviación estándar dan una
medida de variabilidad de los valores de la v.a. con respecto al valor promedio.
e) Notemos que por definición: V(X) ≥ 0 ; V ( c ) = 0 ; V ( c X ) = C 2 V ( X ) ;
V(c+X)=V(X)

El siguiente teorema, conocida como la Desigualdad de Chebyshev, proporciona


una cota de la probabilidad de la desviación estándar de una variable aleatoria respecto a su
esperanza.

Teorema 1.
Sea H(X) una función no negativa de la v.a. X. Si existe E(H(X) ) entonces,
E (H ( x ) )
P(H ( x ) ≥ c ) ≤ ; ∀c > 0
c
Observación:

1. Si H ( X ) = X 2 y c = ε 2 entonces de la desigualdad de Chebyshev se obtiene:

( ) E(εX2 ) ( )
2
E X2
P X2 ≥ ε2 ≤ ⇒ P( X ≥ ε ) ≤
ε2

2. Si H ( X ) = (X − µ )2 y c = ε 2 ⋅ σ 2 , ε > 0

P ( X − µ ≥ εσ ) ≤ ⇔ 1 − P( X − µ < εσ ) ≤ P( X − µ < εσ ) ≥ 1 −
1 1 1

ε2 ε2 ε2

Ejemplo 2. Sea X una variable aleatoria con media 11 y varianza 9. Utilice el teorema de
la desigualdad de Chebyshev para encontrar:
a) Un límite inferior para P(6 < X < 16)
b) El valor de C tal que P ( X − 11 ≥ C ) ≤ 0.09

Consideremos X una v.a con distribución de probabilidad conocida y una función


Y = H(X) de la v.a X ; el siguiente teorema nos proporciona determinar la distribución de
probabilidad de la nueva v.a. Y = H(X) a partir de la distribución de probabilidades de X.

4
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

Teorema 2.
Supongamos que X es una v.a.d. con función de probabilidad p(x) y recorrido R X . Sea
Y = H(X) una función de X, entonces Y es también una v.a. discreta con recorrido R Y dado
por R Y = {y : y = H( x ), x ∈R X }. Ahora, la función de probabilidad de Y, p Y ( y) se
obtiene simplemente igualando probabilidades de eventos equivalentes, esto es,
pY(y)= P (Y = y) = ∑ p X ( x ) donde, B Y = {x ∈ R X : H( x ) = y}.
x∈By

Observe que si Y = H(x) es una transformación uno a uno, entonces:


−1 −1
PY (y)= P (Y = y) = P (H(x)=y) = P (X = H ( y ) ) =p X (H (y) )
−1
PY (y) = p X (H (y) )

Ejemplo 3. Sea X el número de fallas que proceden al primer éxito y supongamos que X se
puede representar como una variable aleatoria con función de probabilidad dada por:
p X (x )= 0,6 x ⋅ 0,4 x = 1, 2, 3, ….

Determine la función de probabilidad de Y = X + 1 y el valor esperado de Y.

Ejemplo 4. Un contratista es requerido por un departamento de planeación de un municipio


para que remita una, dos, tres, cuatro o cinco formas (dependiendo de la naturaleza del
proyecto) para solicitar permiso de construcción. Sea X el número de formas requeridas del
siguiente solicitante. La probabilidad de que x formas se requieran es proporcional a x, esto
es P( X = x) = k x para x = 1,....,5

¿Cuál es el valor de k, para que f(x) sea una función de probabilidad?


¿Cuál es la probabilidad de que por lo menos se necesiten tres formas?
¿Cuál es la probabilidad de que se necesiten más de dos y menos de cuatro formas?
Sea Y el pago de las formas requeridas en dólares dada por Y = 3X –1. Determine e
interprete E(Y) y V(Y) mediante las propiedades y utilizando el teorema 2.

Def. 5. El k-ésimo momento, alrededor del origen de la v.a. X, se define por:

µ k = E  X k  k =1, 2, 3, …
 

Def. 6. La función generadora de momentos de la v.a. X , se define por:

Mx(t) = E[e tx ] = ∑ et x ⋅ p X ( x)
x

Cuando existe, esta esperanza depende de la elección de t, | t | < h, h ∈ IR y así es


una función de t. Para t = 0, siempre existe Mx(0) = 1, pero para otros valores de t puede o
no existir dependiendo de la distribución de la v.a. X .

5
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

En efecto, Mx(t) genera los momentos al desarrollar e tx en serie de Mc Laurin ( serie de


Taylor en torno a t = 0)
2 2 k k
Mx(t) = E [e tx ] = E [ 1 + xt + x t + ..... + x t .. ] = t2 tk
1 + tE ( x ) + E ( x 2 ) + ..... + E ( X k )..
2! k! 2! k!
t2 tk ∞ tk
= 1 + µ 1t + µ 2 + ..... + µ k + ... = ∑ µk
2! k! k =0 k!

tk
Sabemos que el coeficiente de en el desarrollo de la serie de Mc Laurin es la k-ésima
k!
derivada evaluada en cero, es decir: E [Xk] = µ k = M X (0) =
k d
Mx(t) | t=0
dy
' d d '
Si k = 1, M X ( t )= E (e tx )= E ( e tx )= E(X e tx ) = M X ( 0 )= E(X) = µ 1
dt dt
'' 2 ''
d
Si k = 2, M X ( t )= 2 M X ( t ) = E (X2 e tx ) →M X ( 0 )= E(X2) = µ 2
dt

Si se deriva k veces:
dk dk
k M X ( t ) = E [X k e tx ] → k M X (0)= E(X k ) = µ k
dt dt

Teorema 3. Considere una variable aleatoria X y sean a y b constantes, entonces:


i) M a + X (t ) = e a t ⋅ M X (t)
ii) M b ⋅ X ( t ) = M X (b t )
iii) M a + b ⋅ X ( t ) = e a t ⋅ M X (bt )

Como ejercicio verifique este teorema.

Ejemplo 5. Se sabe que el número de artículos buenos producidos por una máquina es una
8
 1 3et 
variable aleatoria X con función generadora de momentos dada por: M X (t ) =  + 

4 4
 

A través de la función generadora de momentos, determine el número esperado de artículos


buenos producidos por la máquina. Además, si Y = 3X + 1, calcule E(Y) y V(Y).

6
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

DISTRIBUCIONES CLÁSICAS DE PROBABILIDADES DE V.A. DISCRETAS

Def. 7: Un ensayo Bernoulli es un experimento con dos resultados posibles, éxito o fracaso.
Su espacio muestral es Ω = {E , F}

Se analizará que cualquier experimento puede realizarse para definir un ensayo


Bernoulli simplemente denotando un evento de interés A como éxito, y su complemento Ac
como fracaso. La distribución de probabilidades asociada depende sólo de un parámetro
p = P(E) y entonces P (F) = 1- p = q

Def. 8: X es llamada variable aleatoria Bernoulli con parámetro p y escribimos X~B(p)


1 si w ∈ A
si A={E} ⊂ Ω cualquier evento si y sólo si p = P(A) y X ( w ) =  c
0 si W ∈ A
La distribución de probabilidades de una v.a. Bernoulli se sigue directamente de la
distribución de probabilidad para Ω:

Como X=1 ssi A ocurre se tiene P(X = 1) = P(A) = p


X=0 ssi Ac ocurre P(X = 0) = P(Ac) = 1-p = q

Ningún otro valor puede ocurrir para X.

Por lo tanto, si X ~ B(p) entonces su función de probabilidad esta dada por:

P( X = x) = p x (1 − p )1− x ; x = 0,1
La función generadora de momentos de una v. a. X ~ B(p) es:

Mx(t) = q + p et ;∀ t

De la f.g.m. de X se deduce la esperanza y la varianza: E(X)= p y V(X) =pq

[1] Distribución Binomial. X ~ bin (n, p)


El experimento de lanzar la moneda tiene sólo dos resultados, cara y sello. La
probabilidad de cada uno es conocida y constante de un intento (lanzamiento) al siguiente,
y además el experimento puede repetirse muchas veces. Los experimentos de este tipo
siguen una distribución binomial, y presenta cuatro propiedades:

a) Sólo debe haber dos posibles resultados, uno es éxito y el otro fracaso. Un éxito no
implica necesariamente un resultado deseable;
b) La probabilidad de un éxito, p, sigue constante de un ensayo al siguiente, al igual que lo
hace la probabilidad de fracaso, 1 - p;
c) La probabilidad de un éxito en un ensayo es totalmente independiente de cualquier otro
ensayo;
d) El experimento puede repetirse muchas veces.

7
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

La aplicación de la distribución binomial al campo de la ingeniería es muy grande,


por ejemplo:
a) Que las componentes de un sistema funcionen (correcta, incorrectamente), b) árboles
plantados en terreno arenoso (sobrevive, muere), c) chips (defectuoso, sin falla) de
dispositivo semiconductor producido por una máquina que funcionan independientemente
con cierta confiabilidad, d) directores de una empresa con frecuencia desean saber cuántos
trabajadores: están interesados en unirse al sindicato y quienes no están interesados, e)
Banqueros pueden hacer encuestas a los expertos en economía sobre si las tasas de interés:
aumentarán o no aumentarán, f) El personal de mercadeo desea saber si una persona:
prefiere o no prefiere cierto producto.

Cada ensayo en una distribución binomial termina en sólo uno de dos resultados
mutuamente excluyentes, uno de los cuales se identifica como un éxito y el otro como un
fracaso. La probabilidad de cada resultado permanece constante de un ensayo al siguiente.

Se dice que una v.a. discreta X tiene distribución binomial si ella es el resultado de
n repeticiones de un experimento Bernoulli. Si se conoce la probabilidad de que un ensayo
determinado producirá un éxito, es posible estimar cuántos éxitos habrá en un número dado
de ensayos. Por ejemplo, si se conoce la probabilidad de que un solo trabajador esté
interesado en unirse al sindicato, entonces puede estimarse la probabilidad de que un
número determinado de trabajadores de la fuerza laboral estaría interesado en unirse.

La formulación es la siguiente:
La probabilidad de obtener x éxitos en un número determinado de n ensayos es:

 n
P( X = x) =   p x (1 − p) n − x , x = 0,1,2,3,...., n
 x
En efecto:
El espacio muestral natural para un experimento binomial es el es el producto cartesiano de
los espacios muestrales de los ensayos Bernoulli consigo mismo n veces, Ω = Ω1 × Ω2 × Ω3
× .....Ωn ; donde Ωi = {E, F} i =1,n

Cada evento elemental es una n-upla que contiene (0,0,0,1,0....,1,0) con x-éxito y n-x
fracasos y la probabilidad del evento elemental es : E,E,..,E,F,F....,F → p x (1 − p ) n − x
 n
Pero el número de n-uplas que contienen x éxitos es  
x  
 n
Si una n-upla tiene la probabilidad p x (1 − p ) n − x de ocurrir entonces   n – uplas tiene la
 x
 n
probabilidad de   p x (1 − p ) n − x de ocurrir. Luego, p( x ) =   p x (1 − p) n − x ; x = 0,1,2,3,....., n
n
x   x  
Claramente,
n n
 n
a) p( x) > 0 ; b) ∑
x =0
p ( x) = ∑  x  p (1 − p )
x =0
x n−x
= ( p + (1 − p ) ) = 1
n

8
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

Ejemplo 6. El personal de ventas de una empresa, hace una venta al 15% de los clientes a
los que visitan. Si un miembro del personal de ventas llama a 15 clientes hoy ¿Cuál es la
probabilidad de que venda exactamente dos aparatos? Solución: Existe un 28,56% de
oportunidad de que se hagan exactamente dos ventas de las 15 llamadas.

Ejemplo 7. Una revista publica que el 40% de todos los bachilleres trabajan durante el
verano para ganar dinero para la educación universitaria. Si siete bachilleres se seleccionan
de manera aleatoria ¿cuál es la probabilidad de que a) 5 tengan trabajos en el verano, b)
ninguno trabaje, c) todos trabajen? Solución: a) 0,0774, b) 0,0280, c) 0,0016.

Observe que la media de una distribución binomial es E(X) = np y la varianza es


V(X) = npq, obtenidas de la f.g.m. que es Mx(t) = (q + pet )n
En efecto:

∑  x  (e p ) (1 − p ) ( pe )
n
n x n− x n
M X (t ) = E (etx ) = t
= t
+ (1 − p ) ; ∀t ∈ ℜ
x =0

Derivando: M ' X (t ) = n ( pe t
+ (1 − p ) )
n −1
⋅ pet
Así, M ' X (0) = np y M ' ' X (0) = n 2 p 2 − np 2 + np . Por lo tanto, E ( X ) = np y V ( X ) = npq

n
x
La función de distribución de X es: F ( X ) = P ( X ≤ x ) = ∑ t p (1 − p )
t= 0
t n −t

Ejemplo 8. El 10% de los discos de computador producidos por un nuevo proceso salen
defectuosos. Si hay 20 discos en una caja:
a) ¿Cuántos esperaría usted que salieran defectuosos?
b) ¿Cuál es la probabilidad de que el número de discos defectuosos sea igual al número
esperado que usted determinó en su respuesta a la parte a).
c) ¿Cuál variación se encontraría en los discos defectuosos de una caja a otra?

[2] Distribución geométrica. X ~ geom (p)

Supongamos que se realizan ensayos Bernoulli independientes, cada uno con


probabilidad de éxito p y sea X el número de ensayos necesarios para obtener el primer
éxito. Entonces, P(X =1)=p = qo p. Observaremos X = 2 si y sólo si tenemos un fracaso en
el primer ensayo y luego éxito en el segundo, de manera que P(X = 2) =q p. Similarmente,
para cualquier k ≥3 observamos que X = k si y sólo si tenemos fracasos en los k-1 primeros
ensayos seguidos por un éxito en el ensayo k.

Si se realizan ensayos Bernoulli independientes, cada uno con probabilidad de éxito


p, y si X es el número de ensayos necesarios para obtener el primer éxito, entonces
X es variable aleatoria geométrica con parámetro p y su función de probabilidad
es:
PX (x) = P(X = x) = qx-1 p ; x = 1,2,3,…, ; q = 1-p

9
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

p ⋅ et 1 q
Si X ~ geom (p) entonces: M X ( t ) = ; E(X)= ; V(X)= 2
t
1− q ⋅e p p

La distribución geométrica tiene la propiedad de ser “desmemoriada” que señala


que la probabilidad que más de b ensayos adicionales son necesarios para observar el
primer éxito provisto que ningún éxito ha ocurrido en los primeros a ensayos, es lo mismo
que la probabilidad original que más de b ensayos sean necesarios.
Si A = {x > a} y B = {x > a + b} . Entonces, P ( x > a + b / x > a ) = P ( x > b ) .

La función de Distribución de X está dado por : F ( X ) = P ( X ≤ x ) = 1- P ( X > x ) = 1- q x

Ejemplo 9. Se supone que el 40% de los aspirantes para cierto trabajo industrial tiene un
entrenamiento avanzado en programación computacional. Los aspirantes son entrevistados,
uno tras otro, y son seleccionados al azar del conjunto de aspirantes.
a) ¿Cuál es la probabilidad de que se encuentre al primer aspirante con un entrenamiento
avanzado en programación en al menos en la quinta entrevista ?
b) El Costo de entrevistar a los aspirantes para cierto trabajo industrial está dado por
C ( x) = 2 x + 3 (en dólares). Determine la función generadora de momentos de la variable
Costo de entrevista.
c) Encuentre la varianza del costo de entrevista de la parte b).

[3] Distribución binomial negativa. X ~ bineg (r,p)

Suponga que ensayos Bernoulli independientes se realizan, cada uno con


probabilidad de éxito p y sea X el número de ensayos necesarios para observar el r-ésimo
éxito, r = 2,3,4. Claramente, el recorrido de X es R X ={r, r+1 , r+2 ,...}, ya que, al menos
r ensayos deben realizarse para observar r éxitos. Observar que, X = r si y sólo si un éxito
ocurre en cada uno de los r primeros ensayos de manera que P(X = r) = p r
Para observar X = r+1, el r-ésimo éxito debe ocurrir en el ensayo r+1 y debe haber
exactamente r-1 éxitos en los primeros r ensayos.

Si se realizan ensayos Bernoulli independientes cada uno con probabilidad de éxito


p, y si X es el número de ensayos necesarios para encontrar el r-ésimo éxito, r =
2,3,.. , entonces, X es la variable aleatoria binomial negativa (o de Pascal) con
parámetro r y p. Su función de probabilidad de X es:
PX (x) =  x −1 pr qx-r x = r, r+1,r+2,...
r −1
 

(p ⋅ e t ) r r r (1 − p )
Si X ~ bineg (r,p) entonces : M X ( t ) = ; E(X) = ; V(X)=
t r p2
(1 − q ⋅ e ) p

Ejemplo 9. Del ejercicio anterior, determine la probabilidad de que se encuentre el segundo


aspirante con un entrenamiento avanzado en programación en la octava entrevista.

10
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

[4] Distribución Hipergeométrica. X ~ H (N, m, n)


La distribución binomial es apropiada sólo si la probabilidad de un éxito permanece
constante para cada intento. Esto ocurre si el muestreo se realiza con reemplazo o de una
población finita (o muy grande). Sin embargo, si la población es pequeña y ocurre el
muestreo sin reemplazo, la probabilidad de un éxito variará. Si la probabilidad de un éxito
no es constante, la distribución hipergeométrica es de especial utilidad.

Cada evento es elemental, es una n-upla, el número de n-uplas es N  y la


 
n 
probabilidad de una n-upla es : 1 El número de n-uplas que contienen x éxitos y (n-x)
N 
 
n 
fracasos esta dado por: m N − m Luego, la probabilidad de obtener x éxitos en n
  
 x n − x 
mN − m
  
x n − x 
repeticiones es: P(X=x) = ; x = 0,1,2,.., mín {m,n}
N 
 
n 
En resumen,

Si se selecciona una muestra sin reemplazo de una población finita conocida y


contiene una proporción relativamente grande de la población, de manera que la
probabilidad de éxito sea perceptiblemente alterada de una selección a la siguiente,
debe utilizarse la distribución hipergeométrica, cuya función de probabilidad es:

 m  N − m
  ⋅  
 x   n − x 
P( X = x) = , x = 0,1,2,3,...., min{n, m}
N
 
n

En donde N es el tamaño de la población, m es el número de éxitos en la población, n es el


tamaño de la muestra y x es el número de éxitos en la muestra.
La media y la varianza de esta distribución son:
 N −n
µX = E(X) = np y σ 2X = V(X) =   npq donde p = m/N es la proporción de éxitos
 N −1 
 N −n
en la población y el término   es llamado factor de corrección para población finita.
 N −1 

Ejemplo 10. De los 15 altos ejecutivos de un negocio de importaciones y exportaciones, se


seleccionan 12 para ser enviados al Japón a estudiar un nuevo proceso de producción. Ocho
de los ejecutivos ya tienen algo de entrenamiento en el proceso. ¿Cuál es la probabilidad de
que 5 de los enviados tengan algo de conocimiento sobre el proceso antes de partir para el
lejano oriente?

11
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

[5] Distribución de Poisson. X ~ P (µ)


Una variable aleatoria discreta de gran utilidad en la medición de la frecuencia
relativa de un evento sobre alguna unidad de tiempo o espacio es la distribución de Poisson
(originada por el matemático francés Simeón Poisson 1781-1840). Con frecuencia se utiliza
para describir el número de llegadas de clientes por hora, el número de accidentes
industriales cada mes, el número de conexiones eléctricas defectuosas por milla de
cableado en un sistema eléctrico de una unidad, el número de máquinas que se dañan y
esperan ser reparadas.

Son necesarios dos supuestos para la aplicación de la distribución de Poisson:


a) La probabilidad de ocurrencia del evento es constante para dos intervalos cualesquiera
de tiempo o espacio.
b) La ocurrencia del evento en un intervalo es independiente de la ocurrencia de otro
intervalo cualquiera.

La distribución de Poisson mide la probabilidad de un evento aleatorio sobre algún


intervalo de tiempo o espacio. Su función de probabilidad puede expresarse como:

µ x ⋅ e −µ
P( X = x) = , x = 0,1,2,3,...
x!

En donde x es el número de veces que ocurre el evento, µ es el número promedio de


ocurrencias por unidad de tiempo o de espacio, y e = 2,71828 es la base del logaritmo
natural.

En efecto:
Bajo los supuestos en la forma que ocurren los eventos:
a) En intervalos de longitud suficientemente cortos ∆t, sólo 0 ó 1 evento puede ocurrir
(2 o más ocurrencias simultáneas son imposibles).
b) La probabilidad que exactamente 1 evento ocurra en este intervalo de longitud pequeño
∆t es proporcional a la longitud del intervalo λ ∆t, λ>0.
c) Intervalos de tiempos disjuntos cualquiera de longitud ∆t son ensayos Bernoulli
independientes.
Con estos supuestos se puede subdividir nuestro intervalo de longitud n = t
∆t
subintervalos disjuntos de igual longitud. Estos intervalos de tiempos pequeños son ensayos
Bernoulli independientes cada uno con probabilidad de éxito igual a λ ∆t = p.

La probabilidad que ningún evento ocurra en cada ensayo es q = 1- λ ∆t Entonces:


X: número de eventos en el intervalo de longitud t es binomial de parámetros n y p = λ∆t
n− x
n
P X ( x ) =   (λ ∆ t )x (1 − λ ∆ t )
x
n− x
y luego la probabilidad es :  n  t  x  t  ; x = 0, 1, 2, …
   λ   1 − λ 
 x  n   n

12
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

Se llega a la distribución de Poisson mediante el límite cuando ∆ t → 0


(λ t )x e − λ t
P(X=x) = x = 0, 1, 2, 3, …
x!

La v .a. X es llamada de Poisson de parámetro λ t > 0 . Usualmente, se denota λt = µ ,


donde t: tiempo o región específico de interés y λ : tasa de ocurrencias de resultados.

∞ µ xe −µ ∞ µx
Notar que: ∑ = e−µ ∑ = e − µ e µ = 1, representa una función de probabilidad.
x =0 x! x =0 x!

Ejemplo 11. Verifique que la M X (t ) = e µ (e −1)


t
; t ∈ ℜ y que la media y varianza de esta
distribución son: E(X) = µ y V(X) = µ

Ejemplo 12. A un artefacto de la oficina principal de la compañía llegan llamadas a un


promedio de dos por minuto y se sabe que tienen distribución Poisson. Si el operador está
distraído por un minuto, cuál es la probabilidad de que el número de llamadas no
respondidas sea: ¿Cero?, ¿Por lo menos una?, ¿Entre 3 y 5 inclusive?

Ejemplo 13. Parece que la llegada de los estudiantes a la oficina del tutor se ajusta a una
distribución de Poisson, con un promedio de 5,2 estudiantes cada 20 minutos. El profesor
está preocupado porque si muchos estudiantes necesitan los servicios del tutor, puede
resultar un problema de congestión.
a) El tutor debe determinar la probabilidad de que cuatro estudiantes lleguen durante
cualquier intervalo de 20 minutos, lo cual podría causar el problema de congestión que
teme el profesor. Si la probabilidad excede el 20%, se contratará un segundo tutor.
b) El tutor debe calcular la probabilidad de uqe más de cuatro estudiantes lleguen durante
algún periodo de 20 minutos. Si es mayor que el 50%, las horas de oficina del tutor se
aumentarán, permitiendo a los estudiantes extender el horario en las que vienen a ver al
tutor.
c) Si la probabilidad de que más de siete estudiantes lleguen durante un período cualquiera
de 30 minutos excede 50%, el mismo profesor ofrecerá tutoría adicional.

Ejemplo 14. Hasta el momento, han llegado camiones a un muelle de carga y descarga en
forma aleatoria a una tasa de uno por hora. ¿Cuál es la probabilidad de que no lleguen
camiones en la hora próxima hora?

Observaciones
[1] Aproximación binomial de la distribución hipergeométrica. Si el tamaño muestral n es
muy pequeño en relación al número total de elementos, N-m y m, las probabilidades
hipergeométricas son muy parecidas a las binomiales, y puede usarse la distribución
binomial en lugar de la hipergeométrica. En este caso (N – n) / (N – 1) está muy próximo a
1, por lo que la varianza de la distribución hipergeométrica está próxima a np(1-p), la
varianza de la distribución binomial. Es buena la aproximación si n ≤ min {0.2m , 0.2(N-m}

13
Variables Aleatorias Discretas y Distribuciones de Probabilidades H. Alvarado y L. Retamal

[2] Aproximación Poisson de la distribución binomial. Sea X el número de éxitos resultante


de n ensayos independientes, cada uno con probabilidad de éxito p. La distribución del
número de éxitos X es binomial con media np. Sin embargo, si el número de ensayos n es
grande y p es pequeño (preferiblemente n ≥ 20 y p ≤ 0,05), esta distribución puede
aproximarse bien por la distribución Poisson de media µ = np. Además, será muy buena la
aproximación cuando n ≥ 100 y n ⋅ p ≤ 10 .

La función de probabilidad aproximada es entonces:

(np ) x ⋅ e −np
P( X = x) = , para x = 0,1,2,3,...
x!

Ejercicios Propuestos:

1. Supongamos que la variable X representa el número de neumáticos estropeados por cada


automóvil particular de la ciudad. La función de distribución de X es:

a) Determinar el número esperado de neumáticos estropeados por automóvil.


b) Calcular la probabilidad que un automóvil elegido al azar tenga a lo más dos neumáticos
rotos.
c) Si se eligen al azar cinco automóviles, ¿cuál es la probabilidad que al menos uno tenga a
lo más dos neumáticos rotos?
d) Determinar la función generadora de momentos de la variable X.

2. Se sabe que el número de artículos buenos producidos por una máquina es una variable
aleatoria con distribución binomial con una media de 12 artículos buenos y una desviación
estándar de 2 artículos buenos.
a) Determine la probabilidad que un día la máquina produzca por lo menos dos artículos
buenos.
b) ¿Cuántos artículos habría que inspeccionar en promedio, hasta detectar el tercero
defectuoso.
c) Si de una caja que contiene 20 artículos se eligen cinco al azar, ¿cuál es la probabilidad
de que se detecten cuatro artículos buenos.
d) Si se inspeccionan 40 artículos producidos por esta máquina, ¿cuál es la probabilidad
aproximada de detectar a lo sumo seis artículos defectuosos?

3. La probabilidad de un alineamiento óptico exitoso en el ensamblado de un producto de


almacenamiento óptico de datos es 0.8. Suponga que los ensayos son independientes.
a) ¿Cuál es la probabilidad de que el primer alineamiento exitoso requiera exactamente
cuatro ensayos?
b) ¿Cuál es la probabilidad de que el primer alineamiento exitoso requiera como máximo
cuatro ensayos?
c) ¿Cuál es la probabilidad de que el primer alineamiento exitoso requiera al menos cuatro
ensayos? ç

14

Você também pode gostar