Você está na página 1de 16

UNIVERSIDAD DE CONCEPCION

FACULTAD DE CIENCIAS FISICAS Y MATEMATICAS


DEPARTAMENTO DE ESTADISTICA

DISTRIBUCIONES DE PROBABILIDADES DISCRETAS Y CONTINUAS

Prof. Francisco Pradenas P.

En este tema estudiaremos las distribuciones de probabilidades más importantes de la Estadística,


tanto para variables aleatorias discretas como continuas. Corresponden a aquellas de uso
frecuente en aplicaciones teórico-prácticas de distintas áreas del conocimiento y que están
asociadas con experimentos aleatorios con características muy precisas. Como veremos, estas
distribuciones se pueden definir por medio de una expresión matemática que involucra ciertas
constantes, las cuales son llamadas parámetros de la distribución.

1. DISTRIBUCIONES DE PROBABILIDADES DISCRETAS

1.1 Distribución Bernoulli:

Uno de los experimentos aleatorios más simple que podemos realizar es aquel donde
existen sólo dos resultados posibles. Por ejemplo, el lanzamiento de una moneda equilibrada
(cara o sello), situación académica de un alumno en una asignatura al final del semestre
(aprobado o reprobado), la clasificación de un artículo que se está inspeccionando (defectuoso o
no defectuoso), etc. Este tipo de experimentos con sólo dos resultados posibles se denomina
experimento Bernoulli o ensayo Bernoulli y los elementos del espacio muestral se llaman
comúnmente éxito (E) y fracaso (F).

Para cualquier número p, 0 p 1, asignaremos las probabilidades P({E}) œ p y


P({F}) œ 1 p = q.

Sea H el espacio muestral asociado a un experimento aleatorio y sea A © H un evento tal que
p œ P(A), 0 p 1. LLamamos a \ variable aleatoria Bernoulli con parámetro p a la
función:

\ (=) = œ
1, si = − A
0, si = Â A

Notación: \ µ U Ð:Ñ

Ya que el recorrido de la variable aleatoria \ es V\ œ Ö0,1×, ella es discreta y su


función de probabilidades se obtiene de la siguiente manera aplicando el concepto de eventos
equivalentes: como el evento ÖX œ 1× ocurre si y sólo si A ocurre, entonces P(\ œ 1) = P(A) =
p, y como el evento ÖX œ 0× ocurre si y sólo si A- ocurre, entonces P(\ œ !) = P(A- ) =
1 P(A) œ " p œ q. Por lo tanto, si \ es una variable aleatoria Bernoulli de parámetro p, su
distribución de probabilidades está dada por:

p(B) = œ
p , si B = 1
1 p , si B = 0

Podemos escribirla en la forma:

p(B) = pB (1 p)" B
; B = 0,1

1
A partir de este modelo tenemos que la esperanza, varianza y función generadora de
momentos de \ tienen los siguientes valores:

E(\ ) = p , V(\ ) œ p(1 p) , M\ Ð>Ñ œ (1 p) pe>

1.2 Distribución Binomial:

Un experimento aleatorio que consiste de n ensayos Bernoulli independientes, cada uno con
probabilidad de éxito p, se llama experimento binomial de parámetros n y p.

Se entiende por "ensayos independientes" aquellos en donde la ocurrencia de un evento


no tiene efecto en la ocurrencia o no ocurrencia de cualquier otro evento.

Sea \ una variable aleatoria que denota el número de éxitos observados en un experimento
binomial de parámetros n y p. Entonces, se llama a \ variable aleatoria binomial.

Notación: \ µ ,Ðn,pÑ

La distribución de probabilidades de \ está dada por la expresión:

P(\ œ B) = p(B) = ˆ B ‰ pB (1
n
p)n B
; B œ 0, ", 2, ..., n

La esperanza, varianza y función generadora de momentos de \ tienen los siguientes


valores:

E(\ ) = n p , V(\ ) œ n p (1 p) , M\ Ð>Ñ œ (q p e> Ñ8

Nota: Como la probabilidad de éxito p es constante de un ensayo a otro, se dice que la selección
de las unidades es con sustitución o con reemplazo.

Ejemplo 1: En un proceso productivo, se eligen al final de la línea de producción 20 artículos al


azar, se inspeccionan uno a uno, y se clasifican como bueno o defectuoso. De acuerdo a estudios
previos, se sabe que por cada 200 artículos producidos, 10 presentan fallas y son clasificados
como defectuosos. Si \ es el número de artículos defectuosos encontrados en la muestra,
determinar la distribución de probabilidades de \ .

En efecto, cada inspección constituye un ensayo Bernoulli donde el evento éxito es, en este caso:
10
E À "artículo defectuoso", y su probabilidad está dada por p œ P({E}) œ 200 œ 0.05. Si \ es el
número total de defectuosos en las 20 inspecciones, entonces \ µ b(20,0.05). Luego, la función
de probabilidades de \ es:

p(B) œ P(\ œ BÑ œ ˆ 20 ‰
B 0.05 0.95
B 20 B
; B œ 0,1,...,20

Utilizando esta función podemos calcular, por ejemplo, las siguientes probabilidades:

a) ¿Cuál es la probabilidad de elegir exactamente 5 artículos defectuosos?

p(5) = P(\ œ 5Ñ œ ˆ 20 ‰ 5 15
5 0.05 0.95 = 0.00225

2
b) ¿Cuál es la probabilidad de elegir 1 ó 2 artículos defectuosos?

P(\ œ {1,2}Ñ œ p(1) p(2) = ˆ 20 ‰ 1


1 0.05 0.95
19 ˆ 20 ‰ 2 18
2 0.05 0.95 œ 0.566

c) ¿Cuál es la probabilidad de elegir al menos 3 artículos defectuosos?

P(\ œ {3,4,...,20}Ñ œ P(\   3Ñ œ 1 P(\ Ÿ 2Ñ œ 1 [p(0) p(1) œ p(2)] œ 0.075

Además, el número promedio de artículos defectuosos obtenido en sucesivas muestras de tamaño


20 está dado por E(\ ) œ n p œ 20 † 0.05 œ 1.

1.3 Distribución Geométrica:

Supongamos que un experimento Bernoulli se repite sucesivamente hasta que un evento


E ocurra por primera vez. En este caso estamos en presencia de una nueva distribución de
probabilidades.

Sea E un experimento Bernoulli con probabilidad de éxito p y sea \ una variable aleatoria que
denota el número de repeticiones necesarias hasta que ocurra el primer éxito. Entonces, se
llama a \ variable aleatoria geométrica de parámetro p.

Notación: \ µ GÐpÑ

La distribución de probabilidades de \ está dada por la expresión:

P(\ œ B) = p(B) = p (1 p)B "


; B œ ", 2, 3...

La esperanza, varianza y función generadora de momentos de \ son las siguientes:

1 1 p p e>
E(\ ) = p , V(\ ) œ p# , M\ Ð>Ñ œ 1 qe>

Ejemplo 2: Del ejemplo anterior, supongamos que se eligen artículos al azar hasta encontrar el
primero defectuoso. Si \ es una variable aleatoria que denota el número de inspecciones
necesarias hasta encontrar el primero defectuoso, entonces:

\ µ GÐ0.05Ñ Í P(\ œ B) = p(B) = 0.05 † 0.95 B "


; B œ ", 2, 3...

a) ¿Cuál es la probabilidad de que el cuarto artículo seleccionado sea defectuoso?

p(4) = P(\ œ 4Ñ œ 0.05 † 0.953 = 0.0429

b) ¿Cuál es la probabilidad de que al menos el segundo artículo inspeccionado sea defectuoso?

P(\   2Ñ œ 1 P(\ œ 1) œ 1 p(1) œ 1 0.05 = 0.95

3
1.4 Distribución Binomial Negativa:

La distribución geométrica puede generalizarse al caso en que el experimento aleatorio se


repite hasta obtener éxito por <-ésima vez.

Sea E un experimento Bernoulli con probabilidad de éxito p y sea \ una variable aleatoria que
denota el número de repeticiones necesarias hasta que el éxito ocurra por r-ésima vez .
Entonces, se llama a \ variable aleatoria binomial negativa o variable aleatoria Pascal de
parámetros r y p.

Notación: \ µ b Ð<ß pÑ

La distribución de probabilidades de \ está dada por la expresión:

P(\ œ B) = p(B) = ˆ < " ‰ p< (1


B "
p)B <
; B œ <ß < "ß < #ß ÞÞÞ

La esperanza, varianza y función generadora de momentos de \ son las siguientes:

’ 1 qe> “
<
< <Ð1 pÑ p e>
E(\ ) = p , V(\ ) œ p# , M\ Ð>Ñ œ

Ejemplo 3: Del ejemplo 1, supongamos que se eligen artículos al azar hasta encontrar < unidades
defectuosas. Si \ es una variable aleatoria que denota el número de inspecciones necesarias hasta
encontrar las < defectuosas, entonces:

\ µ b Ð<ß 0.05Ñ Í P(\ œ B) = p(B) = ˆ < " ‰ !Þ!&< † !Þ*&B


B " <
; B œ <ß < "ß < #ß ÞÞÞ

¿Cuál es la probabilidad que sean necesarias 60 inspecciones para encontrar 4 unidades


defectuosas? Entonces, \ µ b Ð%ß 0.05Ñ. Se pide

p(60) = P(\ œ 60Ñ œ ˆ 3 ‰ !Þ!&4 † !Þ*&56 œ 0.012


59

1.5 Distribución Hipergeométrica:

Consideremos una muestra de n elementos seleccionados al azar, sin reemplazo, desde un lote
que contiene N elementos, de los cuales M (M Ÿ N) son de clase V y los restantes N M son de
clase V- . Si \ es el número de elementos en la muestra que pertenecen a la clase V, entonces \
se llama variable aleatoria hipergeométrica con parámetros n, M y N.

Notación: \ µ [Ðn,M,NÑ

muestras diferentes que pueden ser seleccionadas del lote es ˆ Nn ‰, que es el número de
Suponiendo que M   n y N M   n, entonces V\ = {0,1,2,...,n}. El número total de

subconjuntos de tamaño n que pueden ser formados de un conjunto de N elementos. Ya que la


muestra es seleccionada al azar, cada uno de estos subconjuntos tiene la misma probabilidad de
ocurrencia y es igual a ˆ R" ‰ . El número de estos subconjuntos que contienen exactamente B
elementos de la clase V (y, por lo tanto, 8 B elementos de la clase V- ) es ˆ QB ‰ † ˆ R8 Q‰
8

B por
principio multiplicativo. Por lo tanto, la función de probabilidades de \ es:

4
ˆQ ‰ ˆ R8 Q‰

ˆ R8 ‰
B B
p(B) = P(\ œ BÑ œ ; B = 0,1,2,...,minÖ8ß Q ×

El valor esperado y varianza de una variable aleatoria hipergeométrica están dados por:

E(\ ) = n M N Š N ‹ ŠN 1‹
V(\ ) = n M N M N n
N ,

La f.g.m. de esta variable no es útil.

Si N es suficientemente grande, la distribución de \ puede ser aproximada por la


distribución binomial y:

P(\ œ BÑ ¶ ˆ B ‰ pB (1
n M
p)n B
; pœ N (probabilidad de éxito)

8
En general, la aproximación es buena si R Ÿ 0.1.

Ejemplo 4: Una empresa cuenta con 60 personas en el departamento de producción, de las cuales
38 son hombres y 22 son mujeres. Se seleccionarán al azar (sin reposición) 10 personas para
participar en un curso de capacitación.

a) ¿Cuál es la probabilidad de elegir 6 hombres?

Para responder a esta pregunta, definamos la v.a. \ como el número de hombres


seleccionados en la muestra, entonces \ µ [Ðn œ 10 , M œ 38 , N œ 60Ñ. Luego:

ˆ 38 ‰ ˆ 22 ‰
P(\ œ 6) = p(6) œ ˆ 60 ‰ = 0.268
6 † 4

10

El número esperado de hombres seleccionados está dado por E(\ ) = 10 † 38


60 œ 6.3.

b) ¿Cuál es la probabilidad de elegir 8 mujeres?

En este caso debemos definir una nueva v.a. \ como el número de mujeres seleccionados en
la muestra, entonces \ µ [Ðn œ 10 , M œ 22 , N œ 60Ñ. Luego:

ˆ 22 ‰ ˆ 38 ‰
P(\ œ 8) = p(6) œ ˆ 60 ‰ = 0.003
8 † 2

10

22
El número esperado de mujeres seleccionadas es: E(\ ) = 10 † 60 œ 3.7.

Ejemplo 5: Supongamos que un lote es de tamaño N œ 1000, en donde M œ 400 son de una
clase V. Se seleccionan al azar y sin reposición n œ 5 unidades. Entonces, si \ representa el
número de elementos en la muestra que pertenecen a la clase V, se tiene que \ µ [Ð5, 400,1000)
y la probabilidad de que la muestra contenga 5 elementos de la clase V es:

ˆ 400 ‰ ˆ 600 ‰
ˆ 1000 ‰
5 † 0
P(\ œ 5) = = 0.01008
5

8 &
Como R œ "!!! œ 0.005 0.1ß entonces podemos aproximar la hipergeométrica por la
distribución binomial con p œ M 400
N œ 1000 = 0.4. Entonces:

P(\ œ 5) ¶ ˆ && ‰ (0.4)& (0,6)0 = 0.01024

5
Nota: La distribución hipergeométrica tiene una aplicación directa en lo que en estadística se
conoce como "muestreo de aceptación". Estos procedimientos de muestreo son usados
frecuentemente por instituciones o empresas que compran materiales en lotes grandes. En tales
situaciones, el comprador y el proveedor convienen en algun nivel aceptable de calidad, lo que
generalmente se traduce en algun plan de inspección. Si el lote es grande, puede ser muy
demoroso o muy caro inspeccionar cada artículo del lote, de manera que sólo serán
inspeccionados una muestra aleatoria de artículos. El lote completo es aceptado como bueno o
defectuoso, de acuerdo a los resultados obtenidos en la inspección de la muestra. Consideremos
como ilustración el ejemplo siguiente:

Ejemplo 6: Supongamos que se seleccionan para inspección 2 artículos al azar, sin reemplazo,
desde un lote que contiene 100 artículos producidos por una máquina en un período determinado,
de los cuales 5 son defectuosos. Si los 2 artículos de la muestra son buenos, el lote es aceptado.
Si por lo menos 1 de los artículos es defectuoso el lote es rechazado. Sea ] el número de
artículos defectuosos encontrados en la muestra, entonces ] es una variable aleatoria
hipergeométrica.

Luego, el lote es aceptado si ] œ 0, entonces:

ˆ 50 ‰†ˆ 95 ‰
ˆ 100 ‰
2
P(aceptar el lote) = P(] = 0) = = 0.902
2

Análogamente, si el lote contiene 10 artículos defectuosos, esto es M œ 10ß entonces P(] œ 0) =


0.809 y si M = 20, P(] œ 0) = 0.638. De esta manera, observamos que mientras más grande sea
el número de defectuosos en el lote, disminuye la probabilidad de aceptarlo y es menos factible
que el lote sea aceptado.

1.6 Distribución Poisson:

Existen muchas aplicaciones donde interesa asignar probabilidades a eventos que ocurren
en forma de tasas cuya variación se produce en el tiempo, en una superficie, en un volumen, etc.
Ejemplos de tales casos son los siguientes: el número de llamadas telefónicas que llegan a una
central durante 5 minutos, el número de fallas por m# en una pieza de algodón, el número de
bacterias por mm$ reproducidas en un compuesto químico, etc. La forma como ocurren estos
eventos está caracterizada por los siguientes supuestos que definen a un proceso de Poisson de
parámetro -:

1.- En intervalos de longitud suficientemente pequeños, por ejemplo de longitud ?t, el evento
ocurre sólo una vez o ninguna (dos o más ocurrencias del evento son imposibles).

2.- La probabilidad que el evento ocurra exactamente una vez en el intervalo ?t es proporcional
a la longitud del intervalo (es aproximadamente igual a - † ?t con - 0).

3.- La ocurrencia del evento en un intervalo de longitud ?t no tiene efecto en la ocurrencia o no


ocurrencia de éste en cualquier otro intervalo de igual longitud. (independencia de eventos).
Aún cuando hablamos siempre del tiempo en los supuestos anteriores, debe entenderse
que no necesariamente nos estamos refiriendo al tiempo cronológico.

En un proceso de Poisson de parámetro -, si \ es el número de ocurrencias de un evento en un


intervalo de longitud t, entonces \ se llama variable aleatoria Poisson de parámetro - † t.

Notación: \ µ c Ð-tÑ

Es claro que \ es una variable aleatoria discreta, ya que su recorrido es


V\ œ Ö!ß "ß #ß ÞÞÞ× que es un conjunto infinito numerable y para determinar la función de
probabilidades de \ , se consideran los supuestos de un proceso de Poisson. Se obtiene entonces
la siguiente función:

6
e--t Ð-tÑB
p(B) = B! ; B œ 0, 1, 2, ....

Usualmente se acostumbra a denotar el parámetro -t por ., es decir, -t œ . y así la


función de probabilidad de \ la podemos escribir como:

e-. .B
p(B) = B! ; B œ 0, 1, 2, ....

Si \ es una variable aleatoria con distribución Poisson de parámetro ., entonces:


>
E(\ ) = . , V(\ ) = . , M\ (>) œ /.Ð/ "Ñ

Ejemplo 7: Supongamos que el número de clientes que llegan a un banco comercial es una
variable aleatoria. Se sabe que, en promedio, llegan 180 clientes por hora y estas llegadas ocurren
de acuerdo a un proceso de Poisson. Calcular la probabilidad que lleguen 6 clientes en 1 minuto.

Sea \ el número de clientes que llegan al banco en 1 hora. Si tomamos 1 minuto como unidad de
"
tiempo tenemos que -t œ 180 † 60 œ 3. Luego, el número medio de llegadas por minuto es . œ 3
clientes. Por lo tanto, \ se distribuye Poisson con parámetro . œ 3 y su función de
probabilidades es:

e 3 †3 B
p(B) = P(\ œ B) œ B! ; B œ 0,1,2,....

Entonces, la probabilidad que lleguen 6 clientes en 1 minuto es:


3 6
P(\ œ 6) = p(6) œ e 6!†3 = 0.0504

Ejemplo 8: Del caso anterior, ¿cuál es la probabilidad que lleguen al banco por lo menos 2
clientes en 15 segundos?

-t œ 3 [ clientes clientes clientes


min ] Ê -t œ 3 [ 60 seg ] œ 0.05 [ seg ].

Luego, . œ 15 † 0.05 œ 0.75Þ Entonces, la probabilidad pedida es:

0.75
e †0.750 e 0.75
†0.751
P(\   2) œ 1 p(0) p(1) œ " 0! 1! œ 0.173

Observación. Si una variable aleatoria \ es tal que \ µ ,Ðn,pÑ, entonces para 8 Ä _, la


distribución binomial se puede aproximar por la Poisson tal que si p Ä 0 y . œ np, se tiene lo
siguiente:

ˆ Bn ‰ pB (1 p)n
e-. .B
B! ; B œ 0,1,2,...
B

La aproximación es buena si n   100 y p Ÿ 0.1.

Ejemplo 9: En una carretera de alto tráfico, la probabilidad de que ocurra un accidente grave es
p œ 0.0001. Sin embargo, en ciertos períodos de un día cualquiera, el tráfico aumenta
considerablemente. Si el número de vehículos circulando en un período determinado es de 1000,
¿cuál es la probabilidad que ocurran 2 accidentes graves en este período?

Si \ denota el número de accidentes graves que ocurren en 1000 vehículos circulando, entonces
\ µ ,Ð1000,0.0001Ñ. Luego:

P(\ œ 2) œ ˆ 2 ‰ 0.00012 † 0.9999998 œ 0.00452054


1000

7
Como n es grande y p pequeña, entonces podemos aproximar la probabilidad anterior por una
Poisson tal que . œ np œ 1000 † 0.0001 œ 0.1. Por lo tanto:

-0.1 2
P(\ œ 2) œ e 2!0.1 œ 0.00452419

2. DISTRIBUCIONES DE PROBABILIDADES CONTINUAS

2.1 Distribución Uniforme:

Esta corresponde a una de las distribuciones de probabilidades más simple para una
variable aleatoria continua.

Sea X una variable aleatoria continua con V\ œ Òa,bÓ, donde _ a b _. Diremos


que \ tiene distribución uniforme en el intervalo Òa,bÓ si la función de densidad de
probabilidades de \ es constante a B − Òa,bÓ; esto es:

f (B) =œ
k ,a Ÿ B Ÿ b
0 , e.o.l.

Notación: \ µ h Òa,bÓ

Obviamente, k debe ser mayor que cero y utilizando el hecho que f es una función de
densidad tenemos que k œ , " + . Por lo tanto, la función de densidad de probabilidades de \ es:

"
,a Ÿ B Ÿ b
f (B) = , +
0 , e.o.l.

Figura 1
Distribución Uniforme

0.6
0.5
0.4
0.3
0.2
0.1
0
1 2 3 4 5

La función de distribución de \ es la siguiente:

Ú
Ý0 ,> a
F(>) = Û > +
Ý, +
,aŸ> b
Ü1 ,> b
Se puede demostrar que:

a b (b a)2 />, />+


E(\ ) = 2 , V(\ ) = 12 , M\ Ð>Ñ œ >Ð, +Ñ

8
Ejemplo 10: La demanda semanal de un producto es una v.a. \ con distribución uniforme en el
intervalo Ò50,70Ó. Entonces, la probabilidad de vender entre 55 y 65 unidades es igual a:

P(55 Ÿ \ Ÿ 65) = (
65
1 10
dx = œ 0.5
55 20 20

Además, E(\ ) œ 50 # 70 œ 60.

2.2 Distribución Gamma:

A partir de esta distribución se pueden lograr otras que son de mucha utilidad para el
análisis estadístico inferencial de datos.

Sea X una variable aleatoria continua con recorrido V\ œ ]0,_[. Diremos que \ tiene
distribución gamma de parámetros ! y " si la función de densidad de probabilidades de \
tiene la forma:

Ú
f(B) = Û
B
B! " / "
, !ß " !à! B _
Ü0
" ! >Ð!Ñ
, e.o.l.

donde >(!) œ '! B! " / B .B


_

Notación: \ µ 1Ð!ß " Ñ

>(8) œ Ð8 "Ñ!; 8 entero, >(!) œ Ð! "Ñ>(! ") para cualquier !   1 y >( "# ) œ È1.
La expresión >(!) se conoce como función gamma. Se puede probar que >(1) œ ",

Una de las aplicaciones de la distribución gamma ocurre en aquellas variables aleatorias


no negativas que presentan distribuciones sesgadas (o asimétricas) a la derecha, es decir, la
mayor parte del área bajo la gráfica de la 0 ÐBÑ se encuentra cerca del origen y ésta disminuye
gradualmente a medida que B aumenta. Por ejemplo, los intervalos de tiempo entre dos fallas de
un motor o los intervalos de tiempo entre dos llegadas a la cola de un cajero de banco siguen una
distribución gamma.

2.3 Distribución Exponencial:

Si \ µ 1Ð!ß " Ñ tal que ! œ 1, entonces \ tiene distribución exponencial de parámetro


- œ "" y su función de densidad de probabilidades tiene la forma:

f(B) = œ
-B
-/ ,- 0à0 B _
! , e.o.l.

Notación: \ µ expÐ-Ñ

9
Figura 2
Distribución Exponencial

Por ejemplo, la duración de componentes electrónicas o el decaimiento de poblaciones


pueden modelarse por una distribución exponencial.

Se puede probar que:

"
E(\ ) = - , V(\ ) = -"# , M\ Ð>Ñ œ -- t

Ejemplo 11: La vida útil de un equipo computacional es una variable aleatoria \ , en años, con
f.d.p.:

f(B) = œ
B
"
5/
5 ,0 B _
! , e.o.l.

¿Cuál es la probabilidad de que el equipo computacional dure por lo menos 4 años?

Se tiene que: P(\   4) = (


_
" B
/ 5 dx = 0.368
4 5

La distribución exponencial está relacionada con la distribución Poisson de la siguiente


manera: Sea X una variable aleatoria definida como el tiempo hasta la ocurrencia del primer
éxito en un proceso de Poisson de parámetro -, y sea \ una variable aleatoria que denota el
número de ocurrencias de un evento en un intervalo de longitud >, entonces \ µ c Ð. œ -tÑ.

La probabilidad de que no ocurra el evento en este intervalo es:


. !
/ .
P(\ œ !Ñ œ !! œ /
-t

Luego, la probabilidad que el evento ocurra después de >, que es equivalente a la


probabilidad que no ocurra antes de >, es igual a:

P(X >Ñ œ P(\ œ !Ñ œ / -t

De aqui: JX Ð>Ñ œ P(X Ÿ >Ñ œ " / -t


à > !. Entonces, la función de densidad de
probabilidades de la variable aleatoria X es:

.JX Ð>Ñ -t
0X Ð>Ñ œ .> œ -/ à> !

Esta f.d.p. corresponde a la distribución exponencial de parámetro -.

2.4 Distribución Erlang:

Corresponde a una generalización del caso anterior, hasta que se presenten "r" éxitos en
un proceso de Poisson.

10
Consideremos un proceso de Poisson de parámetro -, que se observa desde el tiempo 0. Sea X
una variable aleatoria que representa el tiempo hasta que ocurran r éxitos (r − ), entonces T
tiene distribución Erlang de parámetros r y - con función de densidad de probabilidades:

-< >< " / ->


Ð< "Ñ! ;> 0
f(>) =
! , e.o.l.

Notación: X µ I<Ð<ß -Ñ

Se puede probar que:

E(X ) = -< , V(X ) = -<# , M\ Ð>Ñ œ Š -- t ‹


<

Ejemplo 12: En una industria de alto riesgo, ocurren, en promedio, 4 accidentes mensuales. Sea
\ una variable aleatoria definida como el número de accidentes que ocurren mensualmente,
entonces \ µ c Ð%Ñ. Sea X una variable aleatoria definida como el tiempo (en meses) que
transcurre hasta que se produzca el primer accidente. Entonces:
%>
X µ /B:Ð%Ñ Í 0X Ð>Ñ œ %/ à > !

%>
JX Ð>Ñ œ " / à> !

a) ¿Cuál es la probabilidad que durante el primer mes no ocurran accidentes?

") = (
_
%> Ð%ÑÐ"Ñ %
P(X %/ d> = / œ/ œ 0.!")$
"

b) ¿Cuál es la probabilidad que el primer accidente se produzca entre el segundo y tercer mes?

$) = (
$
%>
P(# X %/ d> = JX Ð$Ñ JX Ð#Ñ œ !.!!!$#*
#

c) ¿Cuál es la probabilidad de que se produzca el quinto accidente después de 2 meses de


iniciado el proceso de Poisson?

Sea X , el tiempo (en meses) hasta que ocurra el quinto accidente, entonces
X µ I<Ð< œ &ß - œ %ÑÞ Por lo tanto:
"#) % %>
0 Ð>Ñ œ $ > /

2) = (
_
"#) % %>
Luego: P(X >/ d> = 0.!97
2 $

2.5 Distribución Chi-cuadrado:

Esta distribución es una consecuencia inmediata de la distribución gamma cuando los


parámetros ! y " asumen valores específicos. Su mayor aplicación se da en el análisis de
muestras a través de los métodos de la inferencia estadística.

11
Sea X una variable aleatoria continua con distribución gamma de parámetros ! y " . Si ! œ /#
y " œ 2, entonces \ se llama variable aleatoria chi-cuadrado de parámetro / y su función de
densidad de probabilidades está dada por:

Ú B /2 " / B2
f(B) = Û 2 2 >Ð /# Ñ
/ ,B !
Ü0 , e.o.l.

Notación: \ µ ;#/

El parámetro / recibe el nombre de grados de libertad. La forma de la gráfica de 0 ÐBÑ


varía de acuerdo a los valores que asume / y el área bajo la curva de esta función se encuentra
tabulada.

Se tiene que:

E(\ ) = / , V(\ ) = 2/

La figura 3 exhibe tres funciones chi-cuadrado con / œ 4, 8 y 10 grados de libertad,


respectivamente:

Figura 3
Distribuciones Chi-cuadrado

2.6 Distribución t de Student:

Esta es otra de las distribuciones especiales de uso frecuente en el análisis de muestras


por métodos estadísticos inferenciales y se aplica en casos similares a aquellos en donde se puede
modelar por una distribución normal, pero restringida a situaciones en donde se desconoce la
varianza poblacional o los tamaños muestrales son pequeños.

Sea X una variable aleatoria continua con recorrido V\ œ ] _,_[. Diremos que \ tiene
distribución > de Student de parámetros / si la función de densidad de probabilidades de \
tiene la forma:

>Ð / # " Ñ
f(BÑ œ È
"
† , _ B _
1 / >Ð /# Ñ Ð" ># / 2 "
/ Ñ

Notación: \ µ >/

12
El parámetro / es el número de grados de libertad. El gráfico de 0 ÐBÑ tiene forma de
campana y es simétrico con respecto a cero.
/
Para / 1, E(\ ) œ 0 y para / 2, V(\ ) œ / #Þ

Los valores del área bajo la curva de 0 ÐBÑ se encuentran tabulados.

La siguiente figura muestra la gráfica de una distribución t de student para / œ 2:

Figura 4
Distribución t de student (/ œ 2 grados de libertadÑ

f(x) 0,45
0,4
0,35
0,3
0,25
0,2
0,15
0,1
0,05
0 x
-4 -2 0 2 4

2.7 Distribución F de Snedecor:

La distribución F de Snedecor también forma parte de aquellas distribuciones importantes


para el análisis de muestras.

Sea X una variable aleatoria continua con recorrido V\ œ ]0,_[. Diremos que \ tiene
distribución F de Snedecor de parámetros /" y /2 si la función de densidad de probabilidades
de \ tiene la forma:
/ / /"
>Ð " # # Ñ /" 2"
/
B# "
f(BÑ œ /" /# † Ð
/# Ñ † /" /# ,! B _
>Ð # Ñ>Ð # Ñ Ð"
/"
BÑ 2
/#

Notación: \ µ F/" ß/#

Al parámetro /" se le llama grados de libertad del numerador y al parámetro /# se le


llama grados de libertad del denominador.

Una propiedad importante de la distribución F es la siguiente: Si \ µ F/" ß/# , entonces


"
K œ µ F/# ß/" , o sea, el recíproco de una variable aleatoria con distribución F también tiene
\
distribución F de Snedecor con /# grados de libertad en el numerador y /" grados de libertad en
el denominador. De aqui, si 0!à/"ß /# es un punto de la distribución de la v.a. \ µ FÐ/" ß /# Ñ tal que
P(\ Ÿ 0!à/"ß /# ) œ ! y si 0" !à/#ß /" es un punto de la distribución de la v.a. K µ FÐ/# ß /" Ñ tal que
P(K Ÿ 0" !à/#ß /" ) œ " !, entonces:

"
0!à/"ß /# œ 0
" !à/#ß /"

El área bajo la curva de 0 ÐBÑ se encuentra tabulada. La siguiente figura nos muestra la
gráfica de una distribución F de Snedecor para /" œ 4 y /# œ 6:

13
Figura 5
Distribución F de Snedecor (/" œ 4ß /# œ 6Ñ

f(x) 0,7

0,6
0,5
0,4
0,3
0,2
0,1
0 x
0 5 10 15

2.8 Distribución Normal:

Esta distribución de probabilidades es una de las más importantes en aplicaciones de la


estadística, tanto de tipo prácticas como teóricas. Esto se debe a que muchos fenómenos
observados en la vida real tienen un comportamiento que puede ser modelado mediante esta
distribución. También, muchas variables aleatorias que son transformaciones de otras,. tanto
discretas como continuas, pueden ser analizadas a través de ésta.

Sea X una variable aleatoria continua con V\ œ ]-_,+_[. Diremos que \ tiene distribución
normal de parámetros . y 5 # si la función de densidad de probabilidades de \ tiene la forma:

expš 25 # › ,
5È21
1 (B .)#
f(B) = -_ . +_ y 5 0

Notación: \ µ a Ð.ß 5# Ñ

El gráfico de 0 ÐBÑ tiene forma de campana, simétrico respecto de la recta B œ . y en este


punto alcanza su máximo. Los puntos . 5 y . 5 son puntos de inflexión del gráfico. Si 5 es
relativamente grande, el gráfico tiende a ser achatado, mientras que si 5 es pequeño, el gráfico
de 0 ÐBÑ tiende a ser aguzado.

Se puede verificar que À


" # #
E(\ ) œ . , V(\ ) œ 5# , M\ Ð>Ñ œ /.> #5 >

Si Z es una variable aleatoria normal con media 0 y varianza 1, entonces Z se llama variable
aleatoria normal estándar y su función de densidad de probabilidades tiene la forma:

:(D ) = È1 expš 2›
D#
, -_ D +_Þ
21

Notación: ^ µ a Ð!ß "Ñ

14
La función de distribución de la variable aleatoria ^ está dada por:

F(D ) = (
D
1
È21
>#
e # .>
-_

Los valores de F(D ) se encuentran tabulados.

Teorema 1: Sea \ una variable aleatoria normal con media . y varianza 5# . Si ] œ a\ b;


a 0, entonces ] es una variable aleatoria normal con media a. b y varianza a# 5# .

Teorema 2: Si \ es una variable aleatoria normal con media . y varianza 5# , entonces la función
de distribución de \ está dada por:

> .
F(>) = P(\ Ÿ >) = F ( 5 )

donde F es la función de distribución de la variable aleatoria ^ µ a Ð!ß "Ñ.

La importancia del teorema 2 es que nos permite calcular probabilidades de una variable
aleatoria a (.,5# ) cualquiera, a partir de una variable aleatoria normal estándar para la que su
función de distribución, F, se encuentra tabulada.

Ejemplo 13: Si \ µ a (200,400) entonces:

P(180 Ÿ \ Ÿ 210) = P( 180#!200 Ÿ Z Ÿ 210 200


#! )

= F (0,5) F( 1)

= 0.6915 0.1587 = 0.5328

Ejemplo 14: Una institución comercial estimó que la cuota mensual pagada por sus clientes se
realiza a través de alguna tarjeta de crédito bancaria. El monto pagado es una variable aleatoria
con media igual a 180 [miles de pesos] y desviación estándar igual a 15 [miles de pesos].

a) Si se elige un cliente al azar, calcular la probabilidad de que su monto total adeudado sea a lo
más de $190.000.
b) Si se elige un cliente al azar, calcular la probabilidad de que su monto total adeudado se
encuentre entre $175.000 y $213.000.
c) ¿Cuál es la deuda mínima que se espera obtener de un cliente con probabilidad de 0.9525?

Sea \ la variable aleatoria que representa el monto total adeudado por los clientes (en miles de
pesos) tal que \ µ a (180,15# ). Entonces:

a) P(\ Ÿ 190) = P(Z 0.67) = 0.7486

b) P(175 Ÿ \ Ÿ 213) = P(-0.33 Ÿ Z Ÿ 2.20) œ 0.9861 0.3707 œ 0.6154

5 -180 5 -180
c) P(\   k) = 0.9525 Ê P(Z   15 ) œ 0.9525 Ê P(Z Ÿ 15 ) œ 0.0475

5-180
Ê 15 œ 1.67 Ê k œ 154.95

Ejemplo 15: En una empresa siderúrgica, las placas de acero producidas por una máquina deben
tener cierto espesor. Dichas placas diferirán unas de otras debido a los materiales, al
comportamiento de las máquinas y las herramientas utilizadas, lo que originará ligeras
variaciones aleatorias provocadas por pequeñas perturbaciones. Por lo tanto, el espesor \ (en
mm) de las placas se puede considerar como una variable aleatoria continua. Si suponemos
además que para cierto ajuste de la máquina, \ tiene distribución a (10;0.0004), nos interesa

15
determinar el porcentaje de placas defectuosas que se espera obtener, suponiendo que las placas
defectuosas son aquellas:

a) más delgadas que 9.97 mm.


b) más gruesas que 10.05 mm.
c) cuyo espesor se desvía en más de 0.03 mm de la media.

Sea \ la variable aleatoria que indica el espesor de las placas. Dado que \ se distribuye normal,
para a) tenemos que:

9.97 10
P(\ 9.97) = P(Z 0.02 ) = F (-1.5) = 0.0668

Por lo tanto, podemos concluir que, aproximadamente, el 6,7% de las placas son defectuosas por
ser más delgadas que 9.97 mm.

Para b) hacemos el siguiente cálculo:

10.05 10
P(X 10.05) = P(Z 0.02 ) =1 F (2.5)

=1 0.9938 = 0.0062 œ 0.62%

Para c) tenemos lo siguiente:

0.03
P(|X 10| 0.03) = P(|Z| 0.02 ) œ P(Z 1.5) + P(Z 1.5)

=1 F (1.5) F (-1.5) = 1 0.9332 0.0668

= 0.1336

Entonces, aproximadamente, el 13.4% de las placas son defectuosas en este caso.

Teorema 3: Sean [" ß [# ß ÞÞÞß [5 un conjunto de 5 variables aleatorias normales independientes


entre sí cada una con distribución a Ð.3 ß 53# Ñ, 3 œ 1,5à entonces la variable aleatoria:
] œ ! [3
5

3œ"

tiene distribución normal a Ð! .3 , ! 53# Ñ.


5 5

3œ" 3œ"

Ejemplo 16: Con respecto al problema de la empresa siderúrgica, supongamos que el costo total,
] , de producción de las placas depende de 2 variables aleatorias: [" À costo de materia prima y
[# À costo de transporte, tal que:

] œ [" [#

donde [" µ a Ð50ß 4Ñ y [# µ a Ð20ß 10Ñ. Entonces ] µ a Ð70ß 14Ñ.

Calcular la probabilidad de que el costo total de producción de las placas fluctúe entre 67 y 71
[u.m.]. Luego:

P(67 Ÿ ] Ÿ 71) œ P( 67È1470 Ÿ ^ Ÿ È14 ) œ


71 70
P( 0.80 Ÿ ^ Ÿ 0.27) œ 0.6064 0.2119 œ 0.3945

16

Você também pode gostar