Você está na página 1de 4

Distribuciones de Probabilidad Clásicas

Distribuciones Discretas

Distribución Hipergeométrica
Consideremos una población finita de tamaño N, dentro de la cual existen M
elementos con una cierta característica de interés. Si se define la variable
aleatoria X que indica el número total de elementos que presentan la
característica de interés dentro de una muestra aleatoria simple (sin orden y
sin reemplazo) de tamaño n, entonces

 M  N − M 
  
 x  n − x  nM M (N − M )  N − n 
X ≈ H ( N , M , n), f ( x) = , x = 0,1,2,..., n; E [X ] = , V (X ) = n  
N N N N  N −1 
 
n

Distribución Bernoulli
Diremos que un experimento aleatorio constituye un Ensayo Bernoulli si en
tal experimento sólo interesa la ocurrencia de un evento A que llamaremos
“éxito”. El evento contrario Ac lo llamaremos “fracaso”.
Si en un ensayo Bernoulli con probabilidad de éxito p se define la variable
aleatoria X indicadora de la ocurrencia del evento éxito, es decir, X = 1 si
ocurre A y X = 0 si no ocurre A, entonces

X ≈ B ( p), f ( x) = p x q1− x , x = 0, 1; E [ X ] = p, V ( X ) = pq, q = 1 − p

Distribución binomial
Si se consideran n repeticiones independientes de un ensayo Bernoulli con
probabilidad de éxito p y se define la variable aleatoria X que indica el número
total de éxitos en las n repeticiones independientes, entonces

n
X ≈ b(n, p), f (x) =   pxqn−x , x = 0, 1, 2, ...,n; E[ X] = np, V( X) = npq
x

1
Distribución geométrica
Si se define la variable aleatoria X que indica el número total de repeticiones
independientes de un ensayo Bernoulli con probabilidad de éxito p hasta que
ocurra el primer éxito, entonces

1 q
X ≈ G( p), f ( x ) = q x −1 p, x ∈ Ν; E [ X ] = , V(X) = 2
p p

Distribución Pascal
Si se define la variable aleatoria X que indica el número total de repeticiones
independientes de un ensayo Bernoulli con probabilidad de éxito p hasta que
ocurran r éxitos, entonces

 x − 1 x − r r r rq
X ≈ Pascal(r , p), f ( x ) =   q p , x = r , r + 1, r + 2, ...; E [ X ] = , V ( X ) = 2
 x − r p p

Teorema: Si X~Pascal(r, p) y W~b(n, p), entonces P(X > n) = P(W < r).

Distribución de Poisson
Consideremos un evento A que ocurre aleatoriamente en el tiempo o en un eje
real positivo obedeciendo los siguientes postulados:
Independencia. La probabilidad de ocurrencias del evento A en un intervalo
de tiempo es independiente del número de ocurrencias en cualquier otro
intervalo de tiempo disjunto.
Falta de agrupamiento. La probabilidad de más de una ocurrencia del
evento A en un intervalo de tiempo de longitud pequeña es prácticamente
nula.
Tasa constante. El número promedio de ocurrencias del evento A por
unidad de tiempo es igual a λ y permanece constante en el tiempo.
Si se define la variable aleatoria Xt que indica el número de ocurrencias del
evento A en un intervalo de longitud t, se puede deducir que:

2
X ≈ P ( λt ), f ( x) =
( λt ) e − λt
x

, x ∈Ν ; E [ X ] = λt , V ( X ) = λt
0
x!

La distribución de Poisson también puede ser deducida como una distribución


límite de una sucesión de variables aleatorias binomiales. En efecto, si Xn ~
b(n, p = µ/n), tal que E[Xn] = µ (constante), entonces

n− x
µ xe−µ
x
 n  µ   µ 
lim   1 −  =
  n   n 
n →∞ x x!

Este resultado permite aproximar una distribución binomial con n grande (n


> 100) y p pequeño (p < 0.05) mediante una distribución de Poisson con µ =
np.

Distribuciones Continuas

Distribución Uniforme
Diremos que la variable aleatoria continua X tiene distribución Uniforme en
el intervalo ]a, b[ si su función de densidad de probabilidades (f.d.p.) está dada
por:

1
f (t ) = ,a<t <b
b−a
Es fácil deducir que:

E [X ] =
a+b
, V(X ) =
(b − a ) , F ( x) = x − a
2

2 12 b−a

3
Distribución Exponencial
Si en un proceso de Poisson con tasa de ocurrencias del evento A igual a λ
veces por unidad de tiempo, se define la variable aleatoria T que indica el
tiempo transcurrido hasta la próxima ocurrencia del evento A, entonces

FT (x ) = 1 − e − λ x , x > 0 f (t ) = λ e − λ t , t > 0

1 1
E [T ] = , V (T ) =
λ λ 2

Distribución Normal
Diremos que una variable aleatoria continua tiene distribución normal con
parámetros µ y σ2, si su función de densidad de probabilidades (f.d.p.) está
dada por:

( t −µ )2
1
f(t) = e 2 σ2
, - ∞ < t < +∞
2π σ

E[X ] = µ, V(X ) = σ 2

 x− µ 
FX (x) = φ  , φ (− z) = 1 − φ (z)
 σ 

x α = µ + z α σ , z α = − z1−α

Você também pode gostar