Escolar Documentos
Profissional Documentos
Cultura Documentos
Probabilidad
Luis Alejandro Másmela Caita.
Correo. lmasmela@udistrital.edu.co-lamasmelac@gmail.com
Universidad Distrital Francisco José de Caldas
Resumen
Se presentan a continuación algunas funciones de densidad de probabilidad de variables
aleatorias discretas, las demostraciones de que efectivamente estas funciones cumplen con las
condiciones para ser una funcion de densidad de probabilidad, se obtienen sus valores esperados,
su varianzas y sus funciones generadoras de momentos.
1. Introducción.
En cursos básicos de teoría de la probabilidad, un capítulo importante se re…ere a distribuciones
de probabilidad. Este capítulo hace mención básicamente a dos tipos de distribuciones de variables
aleatorias, estas son, variables aleatorias discretas y variables aleatorias continuas.
Una de las condiciones que requiere una función para que se denomine función de distribución
de probabilidad es, para el caso discreto, que la suma
P de esta función sobre todos los valores que
toma la variable aleatoria sea la unidad, esto es, x f (x) = 1: Para el caso de variables aleatorias
continuas se necesita que la función integre a uno.
Estas distribuciones son caracterizadas a partir de su media y varianza1 , así como también por
su función generadora de momentos2 . Dependiendo de la variable aleatoria de interés, la funcion
f (x) toma formas matemáticas distintas y la caracterización de la misma a partir de la media, la
varianza y la función generadora de momentos al depender de la función f (x) cambia.
En el presente documento se hace una recopilación de algunos ejemplos de distribuciones de
probabilidad discretas, de las deducciones de las expresiones para valor esperado y varianza, la
veri…cación de la condición que se menciona para que la función de…nida sea función de distribu-
ción de probabilidad y se obtiene, además, su función generadora de momentos. Se han tomado
como ejemplos las distribuciones discretas uniforme, binomial, hipergeométrica, binomial negativa,
geométrica y Poisson ya que son las distribuciones más comunes en un curso de probabilidad básica.
1 Si la variable aleatoria discreta X tiene por función de distribución la función f (x); su media o valor esperado
P P
se de…ne como = E(X) = x xf (x) y su varianza por 2 = V (X) = x (x )2 f (x):
2 De igual forma la función generadora de momentos se de…ne como M (t) = E(ext ); donde la notación E denota
X
valor esperado y e es el número de euler.
1
2. Distribución Uniforme.
Si la variable aleatoria X toma los valores x1 ; x2 ; :::; xk ; con idénticas probabilidades, entonces
a X se le denomina variable aleatoria uniforme discreta y su función de densidad de probabilidad
(f.d.p.) está dada por
1
u(x; k) = ; si x = x1 ; x2 ; :::; xk :
k
Se debe probar que
Xk
u(xi ; k) = 1;
i=1
así,
k
X Xk
1
u(xi ; k) =
i=1 i=1
k
1
= k
k
= 1:
2
2.2. Función Generadora de Momentos.
Partiendo de la de…nición de la función generadora de momentos y de la función de densidad de
probabilidad para una variable aleatoria con distribución uniforme se tiene,
k
X 1
MX (t) = E(ext ) = ejt
j=1
k
k
X
1 j 1
= et et
k j=1
t
e 1 ekt
= :
k 1 et
3. Distribución Binomial.
Para de…nir una variable aleatoria binomial, en primera instancia se describe lo que es un proceso
de Bernoulli.
Proceso de Bernoulli.
El proceso de Bernoulli tiene las siguientes propiedades:
1. El experimento consiste en n pruebas que se repiten.
2. Cada prueba produce un resultado que se puede clasi…car como éxito o fracaso.
3. La probabilidad de un éxito, que se denota con p, permanece constante en cada prueba.
4. Las pruebas que se repiten son independientes.
El número de éxitos en n experimentos de Bernoulli se denomina variable aleatoria binomial.
La distribución de probabilidad de esta variable aleatoria discreta se llama distribución binomial y
su f.d.p. esta dada por
n x
b(x; n; p) = p (1 p)n x
; si x = 0; 1; :::; n:
x
P
Para probar que b(x; n; p) = 1; se parte del teorema del binomio, si n es un entero positivo
entonces para todos los números a y b,
Xn
n i n i
(a + b)n = ab ;
i=0
i
de esta forma
n
X Xn
n x
b(x; n; p) = p (1 p)n x
x=0 x=0
x
n
= [p + (1 p)]
= 1:
3
3.1. Valor Esperado y Varianza.
Para obtener una expresión para la media de la variable aleatoria binomial, se parte de la
de…nición de media, esto es,
n
X
E(X) = xb(x; n; p)
x=0
Xn
n x
= x p (1 p)n x
x=1
x
Xn
n!
= x px (1 p)n x
x=1
x!(n x)!
n
X (n 1)!
= np px 1
(1 p)n x
x=1
(x 1)!(n x)!
Xn
n 1 x 1
= np p (1 p)n x
x=1
x 1
y=0
y
n
X1
= np b(y; n 1; p)
y=0
= np
En cuanto a la varianza,
2
V (X) = E(X 2 ) [E(X)]
donde
E(X 2 ) = E [X(X 1)] + E(X)
así,
2
V (X) = E [X(X 1)] + E(X) [E(X)]
por tanto basta con calcular E [X(X 1)], así
n
X n!
E [X(X 1)] = x(x 1) px (1 p)n x
x=0
x!(n x)!
Xn
(n 2)!(n 1)n 2 x 2
= p p (1 p)n x
x=2
(x 2)!(n x)!
n
X (n 2)!
= (n 1)np2 px 2
(1 p)n x
x=2
(x 2)!(n x)!
Xn
n 2 x
= (n 1)np2 p 2
(1 p)n x
x=2
x 2
4
haiendo y = x 2 se tiene
n
X2 n 2
E [X(X 1)] = (n 1)np2 py (1 p)n 2 y
y=0
y
n
X2
= (n 1)np2 b(y; n 2; p)
y=0
= (n 1)np2 :
x=0
x
Xn
n x
= et p (1 p)n x
x=0
x
n
= et p + 1 p :
4. Distribución de Hipergeométrica.
La variable aleatoria discreta hipergeométrica X, mide el número de exitos en una muestra
aleatoria de tamaño n tomada de una población de N elementos de los que k se denominan éxito
y N K fracaso. Su f.d.p. esta dada por
k N k
x n x
h(x; N; n; k) = si x = 0; 1:::; m n fk; ng :
N
n
5
partiendo de la serie binomial3
X1
k k i
(1 + x) = x
i=0
i
se tiene
X1 X1 X1
a i b i a+b i
(1 + x)a = x; (1 + x)b = x; (1 + x)a+b = x
i=0
i i=0
i i=0
i
con base en estas expresiones
X1
a+b i
x = (1 + x)a+b
i=0
i
= (1 + x)a (1 + x)b
"1 #" 1 #
X a X b
= xi xi
i=0
i i=0
i
a a a 2 b b b 2
= + x+ x + + x+ x +
0 1 2 0 1 2
a b a b a b a b a b a b
= + + x+ + + x2 +
0 0 0 1 1 0 0 2 1 1 2 0
2 3
1
X Xi
4 a b 5 xi
=
i=0 j=0
j i j
luego
Xi
a+b a b
= :
i j=0
j i j
Con base en la anterior deducción se tiene que
k N k
n
X n
X x n x
h(x; N; n; k) =
N
x=0 x=0
n
Xn
1 k N k
=
N x n x
x=0
n
1 k+N k
=
N n
n
1 N
= =1
N n
n
3 En la sección correspondiente a la Distribución Binomial Negativa se presenta la obtención de esta expresión a
6
4.1. Valor Esperado y Varianza.
Para el valor esperado de X se tiene
k N k
n
X x n x
E(X) = x
N
x=0
n
N k
n
X k! n x
= x
x! (k x)! N
x=1
n
N k
n
k X (k 1)! n x
= N
n x=1
(x 1)! (k x)! N 1
n 1
k 1 N k
n
nk X x 1 n x
=
N x=1 N 1
n 1
haciendo y = x 1 se tiene
k 1 N k
n
X1
nk y n 1 y
E(X) =
N N 1
y=0
n 1
n 1
nk X
= h(y; N 1; n 1; k 1)
N y=0
nk
=
N
Para la varianza
2
V (X) = E(X 2 ) [E(X)]
además
E(X 2 ) = E [X(X 1)] + E(X)
7
así,
k N k
n
X x n x
E [X(X 1)] = x(x 1)
N
x=0
n
k N k
n
X x n x
= x(x 1)
N
x=2
n
N k
n
k(k 1) X (k 2)! n x
= N (N 1) (x 2)! (k x)! N 2
n(n 1) x=2
n 2
k 2 N k
n
k(k 1)n(n 1) X x 2 n x
=
N (N 1) N 2
x=2
n 2
haciendo y = x 2 se tiene
k 2 N k
n
X2
k(k 1)n(n 1) y n 2 y
E [X(X 1)] =
N (N 1) N 2
y=0
n 2
n 2
k(k 1)n(n 1) X
= h(y; N 2; n 2; k 2)
N (N 1) y=0
k(k 1)n(n 1)
= :
N (N 1)
N n k k
V (X) = n 1 :
N 1 N N
8
4.2. Función Generadora de Momentos.
Partiendo de la de…nición de la f.g.m. y de la densidad de una variable aleatoria hipergeométrica
se de…ne
k N k
Xn
x n x xt
Mx;n (t) = E(ext ) = e :
N
x=0
n
Utilizando nuevamente la expansión binomial, pero esta vez para exponentes enteros positivos se
tiene
Xk
k it i
(1 + yet )k = e y; (1)
i=0
i
y
N
Xk
N k N k
(1 + y) = yj : (2)
j=0
j
k N k k N k k N k t
(1 + yet )k (1 + y)N k
= e0t y 0 + e0t + e y+
0 0 0 1 1 0
"n
# "N #
X k N k xt n X k N k xt N
+ + e y + + e y ;
x=0
x n x x=0
x N x
o equivalentemente
N
X N
(1 + yet )k (1 + y)N k
= Mx;n (t)y n : (3)
n=0
n
Derivando la ecuación en (3) n veces con respecto a y y haciendo y = 0 se obtiene una secuencia
de funciones generadoras de momentos para sucesivos valores de n;
@n N
(1 + yet )k (1 + y)N k
= n! Mx;n (t);
@y n y=0 n
reescribiendo la ecuación anterior se obtiene una expresión para la función generadora de momentos
de la distribución hipergeométrica,
(N n)! @ n
Mx;n (t) = (1 + yet )k (1 + y)N k
:
N! @y n y=0
9
esta dada por
x 1
k 1 pk (1 p)x k
si x = k; k + 1; :::
b (x; k; p) =
0 e.o.c.
P1
Se debe probar que x=k b (x; k; p) = 1: Para ello, expandiendo (1 + x)k en serie de Taylor
alrededor de x0 = 0; llamando f (x) = (1 + x)k se tiene que
ya que
k k( k 1) ( k i + 1)
=
i i!
k(k + 1) (k + i 1)
= ( 1)i
i!
k+i 1
= ( 1)i :
i
5 ( 5)( 6)( 7)
=
3 3!
(5)(6)(7)
= ( 1)3
3!
7!
= ( 1)3
3!4!
7
= ( 1)3 :
3
10
Luego se puede establecer la siguiente propiedad como
k k+i 1
= ( 1)i : (6)
i i
k+i 1 k+i 1
= : (7)
i k 1
Con base en la serie de (5) haciendo en ella x = q y utilizando las propiedades en (6) y (2)
1
X
k k
(1 q) = ( q)i
i=0
i
1
X k+i 1
= ( 1)i ( 1)i q i
i=0
i
X1
k+i 1 i
= q;
i=0
k 1
haciendo i = x k
1
X
k x 1 x k
(1 q) = q :
k 1
x=k
de donde
1
X x 1
(1 p)x k
=p k
: (8)
k 1
x=k
11
5.1. Valor Esperado y Varianza.
Para el cálculo del valor esperado y la varianza se calcula E(X t ):
1
X x 1 k
E(X t ) = xt p (1 p)x k
k 1
x=k
X1
(x 1)!
= xt pk (1 p)x k
(k 1)!(x k)!
x=k
X1
k x!
= xt 1
pk+1 (1 p)x k
p k!(x k)!
x=k
X1
k x k+1
= xt 1
p (1 p)x k
:
p k
x=k
k
E(X 2 ) = E(y 1)
p
k
= [E(y) 1]
p
k k+1
= [ 1]
p p
k 2 + k kp
=
p2
12
así,
2
V (X) = E(X 2 ) [E(X)]
2
k 2 + k kp k
=
p2 p
k(1 p)
= :
p2
de donde,
k
pet
MX (t) = t
1 e (1 p)
6. Distribución Geométrica.
Un caso particular de la distribución binomial negativa es la denominada distribución geométri-
ca, su variable mide el número de ensayos requeridos para obtener el primer éxito, su f.d.p. se
establece de la siguiente forma.
Si pruebas independientes repetidas pueden tener como resultado un éxito con probabilidad p
y un fracaso con probabilidad q = 1 p; entonces la distribución de probabilidad de la variable
aleatoria X, el número de la prueba en la que ocurre el primer éxito, es
g(x; p) = pq x 1
si x = 1; 2; :::
P
Para probar que g(x; p) = 1 se requiere de la denominada serie geométrica que se describe
como
1
X a
ari = si jrj < 1;
i=0
1 r
13
de esta forma partiendo de
1
X 1
X
g(x; p) = pq x 1
x=1 x=1
1
X
= pq y
y=0
p
=
1 q
= 1:
x=1
X1
= p xq x 1
x=0
X1
d x
= p q
x=0
dq
1
d X x
= p q
dq x=0
d 1
= p
dq 1 q
luego
p p 1
E(X) = = = :
(1 q)2 p 2 p
Para la varianza se parte de
1
X
E [X(X 1)] = x(x 1)pq x 1
x=1
1
d2 X x
= pq q
dq 2 x=0
d2 1
= pq
dq 2 1 q
2pq
=
(1 q)3
2q
=
p2
14
entonces
2
V (X) = E [X(X 1)] + E(X) [E(X)]
2q 1 1
= 2
+
p p p2
2 2p + p 1
=
p2
1 p
= :
p2
Cabe notar que estos resultados se puede obtener partiendo de los resultados de la binomial
negativa haciendo k = 1.
x=1
1
X et p
= et p(et q)x 1
= :
x=1
1 et q
7. Distribución de Poisson.
A continuación se de…ne el proceso de Poisson el cual permite de…nir lo que es una variable
aleatoria de Poisson que al mismo tiempo permite encontrar su función de densidad de probabilidad.
Proceso de Poisson.
15
especí…ca de interés y la tasa de ocurrencia de los resultados. La obtención de la f.d.p. de la
variable X se basa en las propiedades del proceso de Poisson, y esta dada por
t
( t)x
e
p(x; t) = si x = 0; 1; :::
x!
P
Para probar que p(x; t) = 1; basado en (4) se puede mostrar que
1
X
k ki
e =
i=0
i!
que es la serie de Maclaurin para la función f (x) = ex , con base en esta expresión se tiene que
1
X 1
X t
e ( t)x
p(x; t) =
x=0 x=0
x!
X1
t ( t)x
= e
x=0
x!
t t
= e e
= 1:
16
haciendo y = x 2
1
X t
e ( t)y
E [X(X 1)] = ( t)2
y=0
y!
X1
= ( t)2 p(y; t)
x=2
= ( t)2 ;
así,
2
V (X) = E [X(X 1)] + E(X) [E(X)]
= ( t)2 + t ( t)2
= t:
Referencias
[1] BLANCO L., MUÑOZ M. Introducción a la teoría avanzada de la probabilidad. Universidad
Nacional de Colombia. Bogotá. Colombia. 2002.
[2] LESSING R. An Alternative Expression for the Hypergeometric Moment Generating Function.
The American Statician, Vol. 27, No. 3, p. 115. 1973.
[3] FELLER W. An Introduction to Probability Theory and Its Applications. Volume 1. Hardcover.
1971
[4] MARTÍN F., RUIZ-MAYA L. Fundamentos de Probabilidad. Editorial Thomson. 2002.
[5] MOOD A., GRAYBILL F., BOES D. Introduction to the theory of statistics. McGraw-Hill
International Editions. Third Edition. Singapore. 1963.
[6] ROSS S. A First Course in Probability. Prentice Hall. United States of America. 2002.
[7] WALPOLE R., MYERS, R., MYERS, S. YE, K. Probabilidad y Estadística para Ingeniería y
Ciencias. Pearson Education. Octava Edición. 2007.
17