Você está na página 1de 9

UNIVERSIDAD SIMN BOLVAR

CO3121 PROBABILIDADES PARA INGENIEROS


FORMULARIO
Formulario 1: Teora de Conjuntos
Leyes Distributivas:
( A U B) I C = ( A I C ) U ( B I C )

( A I B) U C = ( A U C ) I ( B U C )

(1.1)

Ley de Complementos:
( Ac ) c = A

(1.2)

Leyes de Morgan:
( A U B) c = A c I B c

( A I B) c = A c U B c

(1.3)

Formulario 2: Propiedades de las Probabilidades y Mtodos de Conteo


Axiomas de probabilidad:

1)

0 P ( A) 1

2)

P( S ) = 1

3)

Si A1 , A2 , A3 L, es una secuencia de eventos mutuamente excluyentes de S , entonces :

(2.1)

P ( A1 U A2 U A3 U L) = P ( A1 ) + P ( A2 ) + P ( A3 ) + L
Probabilidad del complemento:
P ( Ac ) = 1 P ( A)

(2.2)

Probabilidad de la unin de dos eventos cualesquiera:


P ( A U B ) = P ( A) + P ( B ) P ( A I B )

(2.3)

Probabilidad de la unin de tres eventos cualesquiera:


P ( A U B U C ) = P ( A) + P ( B ) + P (C ) P ( A I B ) P ( A I C ) P ( B I C ) + P ( A I B I C )

(2.4)

Probabilidad de la interseccin de un evento y un complemento cualesquiera:


P ( B I Ac ) = P ( B ) P ( A I B )

(2.5)

Formas (o maneras) de obtener r elementos tomados de un total de n:


Sin restitucin
Ordenados

Pr =

Con restitucin

n!
(n r )!

nr
(2.6)

n n
n!
=
=
r n r r!(n r )!

No importa el
orden

n + r 1 (n + r 1)!
=

r!(n 1)!
r

Resultados igualmente probables:


P ( A) =

nmero de formas en que el evento A puede ocurrir


nmero total de formas posibles

(2.7)

Formulario 3: Probabilidad Condicional, Teorema de Bayes e independencia


Probabilidad Condicional:
P( A | B) =

P( A I B)
P( B)

(3.1)

Teorema de multiplicacin de probabilidad:


P ( A1 I A2 I L I An ) = P( A1 ) P ( A2 | A1 ) P ( A3 | A1 , A2 ) L P ( An | A1 , K , An1 )

(3.2)

Probabilidad Total. Sea B1 , B2 , K , Bk una particin del espacio muestral S, entonces:


k

P( A) = P( A | B j ) P( B j )

(3.3)

j =1

Teorema de Bayes. Sea B1 , B2 , K , Bk una particin del espacio muestral S, entonces:


P ( Bi | A) =

P ( A | Bi ) P ( Bi )

j =1 P( A | B j ) P( B j )
k

(3.4)

Independencia. Dos eventos son independientes si y solo si:


P ( A I B ) = P ( A) P ( B ), lo cual es equivalente a : P ( A | B ) = P ( A)

(3.5)

Formulario 4: Distribucin de una Variable Aleatoria Discreta


La funcin de distribucin (acumulada) de probabilidad de la variable aleatoria X se define como:
F ( x ) = P( X x ) ,

para toda x.

(4.1)

La funcin de (masa de) probabilidad de la variable aleatoria discreta X se define como:


f ( x) = P( X = x) ,

para toda x.

(4.2)

k = 1, 2, , n.

(4.3)

Distribucin discreta Uniforme (n):


P( X = k ) =

1
,
n

Distribucin Bernoulli (p):


P ( X = k ) = p k (1 p )1 k ,

k = 0, 1;

0p1

(4.4)

Distribucin Binomial (n, p):


n
P ( X = k ) = p k (1 p ) n k ,
k

k = 0, 1, 2, , n;

0p1

(4.5)

Distribucin Binomial Negativa (r, p):


k 1 r
p (1 p )k r ,
P ( X = k ) =
r

k = r, r + 1, ;

0p1

(4.6)

Distribucin Geomtrica (p):


P ( X = k ) = p (1 p ) k 1 ,

k = 1, 2, ;

0p1

(4.7)

Distribucin Hipergeomtrica (N, r, n):


r N r


k n k

P( X = k ) =
,
N

n

k = 0, 1, , n;

kr.

(4.8)

0<

(4.9)

Distribucin Poisson ():


e k
P( X = k ) =
,
k!

k = 0, 1, 2, ;

Formulario 5: Distribucin de Variables Aleatorias Continuas

Funcin de densidad de probabilidad de la variable aleatoria continua X:


f ( x) =

d
F ( x)
dx

(5.1)

Funcin de distribucin (acumulada) de probabilidad de la variable aleatoria continua X:

F ( x ) = P ( X x) =

f (t )dt

(5.2)

Probabilidad de un intervalo de la variable aleatoria continua X:


b

P(a < X < b) = F (b) F (a ) = f ( x)dx.

(5.3)

Densidad de la distribucin Uniforme(a, b):


f ( x) =

1
,
ba

a x b.

(5.4)

Densidad de la distribucin Exponencial():


f ( x ) = e x ,

0 x < ;

0<<

(5.5)

Densidad de la distribucin Normal(, ):


f ( x) =

2
1
e ( x )
2

( 2 2 )

< x < ;

< < ;

>0

(5.6)

0 < x < ;

, > 0

(5.7)

Densidad de la distribucin Gamma(, ):


f ( x) =

1
x 1e x / ,
( )

( ) = e y y 1dy ,
0

Densidad de la distribucin Beta(, ):


f ( x) =

( + ) 1
x (1 x) 1 ,
( ) ( )

0 < x < 1;

, > 0

(5.8)

Formulario 6: Distribuciones Multivariadas. Distribuciones Marginales y Condicionales. Independencia

Funcin de probabilidad conjunta del vector aleatorio discreto (X, Y):


f ( x, y ) = P ( X = x , Y = y )

(6.1)

Funcin de distribucin (acumulada) conjunta de probabilidad del vector aleatorio discreto (X, Y):
F ( x, y ) = P ( X x, Y y ) = f ( s, t )

(6.2)

s x t y

Probabilidad de un evento A, del vector aleatorio discreto (X, Y):


P[( X , Y ) A] =

f ( x, y )

(6.3)

( x , y ) A

Funcin de distribucin (acumulada) conjunta del vector aleatorio continuo (X, Y):

F ( x , y ) = P ( X x, Y y ) =

f ( s, t )dsdt

(6.4)

Funcin de densidad de probabilidad conjunta de los vectores aleatorios continuos (X, Y) y (X1, X2, ,Xn):

f ( x, y ) =

2
F ( x, y ) ,
xy

f ( x1 , x2 ,K, xn ) =

n
F ( x1 , x2 ,K, xn )
x1x2 L xn

(6.5)

Probabilidad de una regin A en el plano xy, del vector aleatorio continuo (X, Y):

P[( X , Y ) A] = f ( x, y )dxdy

(6.6)

Funciones de Probabilidad Marginal de los vectores aleatorios discretos (X, Y) y (X1, X2, ,Xn):

g ( x1 , x2 , x3 ) = L f ( x1 , x2 ,K xn )

g x ( x ) = f ( x, y ) ,
y

x4

(6.7)

xn

Densidades de Probabilidad Marginal de los vectores aleatorios continuos (X, Y) y (X1, X2, ,Xn):

g x ( x) = f ( x, y )dy ,

g ( x1 , xn ) = L f ( x1 , x2 ,K, xn )dx2 dx3 L dxn1

(6.8)

Probabilidades Condicionales de los vectores aleatorios (X, Y) y (X1, X2, ,Xn):

f ( x | y) =

f ( x, y )
,
g y ( y)

f ( x1 , x2 ,K, xk | xk +1 , xk + 2 ,K, xn ) =

f ( x1 , x2 ,K, xn )
g ( xk +1 , xk + 2 ,K, xn )

(6.9)

Las variables X y Y son independientes si:


f ( x, y ) = f ( x ) f ( y )

, de forma equivalente, si:

f ( x | y ) = g x ( x)

(6.10)
5

Formulario 7: Valor Esperado. Media. Varianza. Covarianza. Correlacin. Esperanza Condicional.

Funcin Generadora de Momentos.

Valor Esperado de una funcin h(x) de la variable aleatoria X:

h( x ) f ( x ) = h ( x ) P ( X = x )

x
E [h( X )] = x
h( x) f ( x)dx

Si X es discreta
(7.1)
Si X es continua

Media Valor Esperado de la variable aleatoria X:


xf ( x) = xP( X = x)

x
E ( X ) = X = x
xf ( x)dx

Si X es discreta
(7.2)
Si X es continua

Varianza de la variable aleatoria X:

} ( )

( )

var( X ) = X2 = E ( X E ( X ) ) = E X 2 [E ( X )] = E X 2 X2
2

(7.3)

Desviacin Estndar de la variable aleatoria X:

desv.est.( X ) = X = var( X )

(7.4)

Algunos resultados tiles para la media y la varianza. Si a y b son constantes entonces:


E (aX + b) = E (aX ) + E (b) = aE ( X ) + b

(7.5)

var(aX + b) = a 2 var( X ) = a 2 X2

(7.6)

Funcin Generadora de Momentos de la variable aleatoria X:


M X (t ) = E (etX )

(7.7)

Obtencin del Momento de orden r-simo E ( X r ) a partir de la Funcin Generadora de Momentos:

dr
M X (t ) = M X( r ) (0) = E ( X r )
r
dt
t =0

(7.8)

Valor Esperado de una funcin h(x, y) del vector aleatorio (X, Y):
h( x, y ) f ( x, y )

E [h( X , Y )] = x y
h( x, y ) f ( x, y )d xdy

Si ( X , Y ) es discreta
(7.9)
Si ( X , Y ) es continua

Covarianza del vector aleatorio (X, Y):

cov( X , Y ) = XY = E[( X E ( X ) )(Y E (Y ) )] = E ( XY ) E ( X ) E (Y ) = E ( XY ) X Y

(7.10)

Coeficiente de Correlacin del vector aleatorio (X, Y):

cov( X , Y )

= XY ,
var( X ) var(Y ) X Y

XY =

1 XY 1

(7.11)

Algunos resultados tiles para la suma de variables aleatorias. Si a y b son constantes entonces:
E (aX + bY ) = aE ( X ) + bE (Y )

(7.12)

var(aX + bY ) = a 2 var( X ) + b 2 var(Y ) + 2ab cov( X , Y )

(7.13)

Esperanza Condicional de una funcin h(x) dado que la variable aleatoria Y = y:


h( x ) f ( x | y )

E [h( X ) | y ] = x
h( x) f ( x | y )dx

Si ( X , Y ) es discreta
(7.14)
Si ( X , Y ) es continua

Media Condicional de la variable aleatoria X dado Y = y:


xf ( x | y )

E ( X | y ) = X | y = x
xf ( x | y )dx

Si ( X , Y ) es discreta
(7.15)
Si ( X , Y ) es continua

Varianza Condicional de la variable aleatoria X dado Y = y:

var( X | y ) = X2 | y = E { X E ( X | y )}2 | y = E ( X 2 | y ) [E ( X | y )] = E ( X 2 | y ) X2 | y
2

(7.16)

Algunos resultados tiles con esperanzas condicionales:

E ( X ) = E[E ( X | Y )]
var( X ) = E[ var( X | Y )] + var[ E ( X | Y )]

(7.17)
(7.18)

Si las variables X y Y son independientes entonces:

E ( XY ) = E ( X ) E (Y ) , Por lo tanto: cov( X , Y ) = 0

(7.19)

var(aX + bY ) = a 2 var( X ) + b 2 var(Y )

(7.20)

E( X | Y ) = E( X )

(7.21)

E (Y | X ) = E (Y )

Formulario 8: Funciones de Variables Aleatorias. Desigualdad de Chebyshev. Ley general de los

grandes nmeros. Teorema del Lmite Central. Aproximacin Normal a la Binomial.

Densidad de probabilidad de una variable aleatoria Y = g(X) definida como funcin de otra variable
aleatoria continua X. Donde adems, g 1 (Y ) = X es la funcin inversa de Y.

d
d
d
P (Y y ) =
P(g ( X ) y ) =
P X g 1 ( y )
dy
dy
dy

Mtodo de la funcin de distribucin: f ( y ) =

f ( y ) = f ( x)

Mtodo de transformacin:

dx
d 1
= f g 1 ( y )
g ( y)
dy
dy

(8.1)

(8.2)

Desigualdad de Chebyshev:
P ( X k )

P( X k )

1
k2

2
k2

(8.3)

Media muestral de n variables aleatorias X1, X2, , Xn independientes e igualmente distribuidas:


X =

1 n
Xi
n i =1

(8.4)

Varianza muestral de n variables aleatorias X1, X2, , Xn independientes e igualmente distribuidas:


S2 =

1 n
1 n 2

2
(
)
X
X
X i nX 2

n 1 i =1
n 1 i =1

(8.5)

Valor esperado de la media muestral:


E (X ) = E ( X i ) =

(8.6)

var( X i ) 2
=
var( X ) =
n
n

(8.7)

Varianza de la media muestral:

Valor esperado de la varianza muestral:

( )

E S 2 = var( X i ) = 2

(8.8)

Ley (dbil) General de los Grandes Nmeros:


Para todo > 0,

lim P X < = 1

(8.9)

Teorema del Lmite Central:


Sea X la media muestral de n variables aleatorias independientes, igualmente distribuidas, con
media E(Xi) = y con var(Xi) = < . Sea Z una variable aleatoria definida como:
Z=

n (X )

0 < < ,

(8.10)

con funcin de distribucin acumulada F(z), entonces:


lim F ( z ) =

1 y2 / 2
e
dy ,
2

(8.11)

lo cual significa que la variable Z tiende a distribuirse como N(0, 1) a medida que n tiende a .
Nota: En la obtencin de Z (8.10) podramos reemplazar por S y el resultado (8.11) se mantiene,
siempre y cuando 0 < < . En la prctica, cuando n 30, S suele ser una buena aproximacin de .

Aproximacin Normal a la Distribucin Binomial.


Sea X una variable aleatoria con distribucin Binomial con parmetros n y p. Sea Y la variable
aleatoria definida como:

X np
np (1 p )

Y=

(8.12)

con funcin de distribucin acumulada F(y) = P(Y y), entonces:


lim F ( y ) =

1 z2 / 2
e
dz .
2

(8.13)

Esto significa que la variable Y se aproxima a una distribucin N(0, 1) a medida que n tiende a .
Nota 1: En la practica, una buena aproximacin normal de la variable Y se obtiene cuando np y
n(1 p) son ambos mayores que 5.
Nota 2: La aproximacin se mejora considerablemente cuando se usa la Correccin por
Continuidad, la cual consiste en que cada valor entero no negativo de X es representado
por el intervalo que va de X a X + .

Você também pode gostar