Escolar Documentos
Profissional Documentos
Cultura Documentos
( A I B) U C = ( A U C ) I ( B U C )
(1.1)
Ley de Complementos:
( Ac ) c = A
(1.2)
Leyes de Morgan:
( A U B) c = A c I B c
( A I B) c = A c U B c
(1.3)
1)
0 P ( A) 1
2)
P( S ) = 1
3)
(2.1)
P ( A1 U A2 U A3 U L) = P ( A1 ) + P ( A2 ) + P ( A3 ) + L
Probabilidad del complemento:
P ( Ac ) = 1 P ( A)
(2.2)
(2.3)
(2.4)
(2.5)
Pr =
Con restitucin
n!
(n r )!
nr
(2.6)
n n
n!
=
=
r n r r!(n r )!
No importa el
orden
n + r 1 (n + r 1)!
=
r!(n 1)!
r
(2.7)
P( A I B)
P( B)
(3.1)
(3.2)
P( A) = P( A | B j ) P( B j )
(3.3)
j =1
P ( A | Bi ) P ( Bi )
j =1 P( A | B j ) P( B j )
k
(3.4)
(3.5)
para toda x.
(4.1)
para toda x.
(4.2)
k = 1, 2, , n.
(4.3)
1
,
n
k = 0, 1;
0p1
(4.4)
k = 0, 1, 2, , n;
0p1
(4.5)
k = r, r + 1, ;
0p1
(4.6)
k = 1, 2, ;
0p1
(4.7)
k n k
P( X = k ) =
,
N
n
k = 0, 1, , n;
kr.
(4.8)
0<
(4.9)
k = 0, 1, 2, ;
d
F ( x)
dx
(5.1)
F ( x ) = P ( X x) =
f (t )dt
(5.2)
(5.3)
1
,
ba
a x b.
(5.4)
0 x < ;
0<<
(5.5)
2
1
e ( x )
2
( 2 2 )
< x < ;
< < ;
>0
(5.6)
0 < x < ;
, > 0
(5.7)
1
x 1e x / ,
( )
( ) = e y y 1dy ,
0
( + ) 1
x (1 x) 1 ,
( ) ( )
0 < x < 1;
, > 0
(5.8)
(6.1)
Funcin de distribucin (acumulada) conjunta de probabilidad del vector aleatorio discreto (X, Y):
F ( x, y ) = P ( X x, Y y ) = f ( s, t )
(6.2)
s x t y
f ( x, y )
(6.3)
( x , y ) A
Funcin de distribucin (acumulada) conjunta del vector aleatorio continuo (X, Y):
F ( x , y ) = P ( X x, Y y ) =
f ( s, t )dsdt
(6.4)
Funcin de densidad de probabilidad conjunta de los vectores aleatorios continuos (X, Y) y (X1, X2, ,Xn):
f ( x, y ) =
2
F ( x, y ) ,
xy
f ( x1 , x2 ,K, xn ) =
n
F ( x1 , x2 ,K, xn )
x1x2 L xn
(6.5)
Probabilidad de una regin A en el plano xy, del vector aleatorio continuo (X, Y):
P[( X , Y ) A] = f ( x, y )dxdy
(6.6)
Funciones de Probabilidad Marginal de los vectores aleatorios discretos (X, Y) y (X1, X2, ,Xn):
g ( x1 , x2 , x3 ) = L f ( x1 , x2 ,K xn )
g x ( x ) = f ( x, y ) ,
y
x4
(6.7)
xn
Densidades de Probabilidad Marginal de los vectores aleatorios continuos (X, Y) y (X1, X2, ,Xn):
g x ( x) = f ( x, y )dy ,
(6.8)
f ( x | y) =
f ( x, y )
,
g y ( y)
f ( x1 , x2 ,K, xk | xk +1 , xk + 2 ,K, xn ) =
f ( x1 , x2 ,K, xn )
g ( xk +1 , xk + 2 ,K, xn )
(6.9)
f ( x | y ) = g x ( x)
(6.10)
5
h( x ) f ( x ) = h ( x ) P ( X = x )
x
E [h( X )] = x
h( x) f ( x)dx
Si X es discreta
(7.1)
Si X es continua
x
E ( X ) = X = x
xf ( x)dx
Si X es discreta
(7.2)
Si X es continua
} ( )
( )
var( X ) = X2 = E ( X E ( X ) ) = E X 2 [E ( X )] = E X 2 X2
2
(7.3)
desv.est.( X ) = X = var( X )
(7.4)
(7.5)
var(aX + b) = a 2 var( X ) = a 2 X2
(7.6)
(7.7)
dr
M X (t ) = M X( r ) (0) = E ( X r )
r
dt
t =0
(7.8)
Valor Esperado de una funcin h(x, y) del vector aleatorio (X, Y):
h( x, y ) f ( x, y )
E [h( X , Y )] = x y
h( x, y ) f ( x, y )d xdy
Si ( X , Y ) es discreta
(7.9)
Si ( X , Y ) es continua
(7.10)
cov( X , Y )
= XY ,
var( X ) var(Y ) X Y
XY =
1 XY 1
(7.11)
Algunos resultados tiles para la suma de variables aleatorias. Si a y b son constantes entonces:
E (aX + bY ) = aE ( X ) + bE (Y )
(7.12)
(7.13)
E [h( X ) | y ] = x
h( x) f ( x | y )dx
Si ( X , Y ) es discreta
(7.14)
Si ( X , Y ) es continua
E ( X | y ) = X | y = x
xf ( x | y )dx
Si ( X , Y ) es discreta
(7.15)
Si ( X , Y ) es continua
var( X | y ) = X2 | y = E { X E ( X | y )}2 | y = E ( X 2 | y ) [E ( X | y )] = E ( X 2 | y ) X2 | y
2
(7.16)
E ( X ) = E[E ( X | Y )]
var( X ) = E[ var( X | Y )] + var[ E ( X | Y )]
(7.17)
(7.18)
(7.19)
(7.20)
E( X | Y ) = E( X )
(7.21)
E (Y | X ) = E (Y )
Densidad de probabilidad de una variable aleatoria Y = g(X) definida como funcin de otra variable
aleatoria continua X. Donde adems, g 1 (Y ) = X es la funcin inversa de Y.
d
d
d
P (Y y ) =
P(g ( X ) y ) =
P X g 1 ( y )
dy
dy
dy
f ( y ) = f ( x)
Mtodo de transformacin:
dx
d 1
= f g 1 ( y )
g ( y)
dy
dy
(8.1)
(8.2)
Desigualdad de Chebyshev:
P ( X k )
P( X k )
1
k2
2
k2
(8.3)
1 n
Xi
n i =1
(8.4)
1 n
1 n 2
2
(
)
X
X
X i nX 2
n 1 i =1
n 1 i =1
(8.5)
(8.6)
var( X i ) 2
=
var( X ) =
n
n
(8.7)
( )
E S 2 = var( X i ) = 2
(8.8)
lim P X < = 1
(8.9)
n (X )
0 < < ,
(8.10)
1 y2 / 2
e
dy ,
2
(8.11)
lo cual significa que la variable Z tiende a distribuirse como N(0, 1) a medida que n tiende a .
Nota: En la obtencin de Z (8.10) podramos reemplazar por S y el resultado (8.11) se mantiene,
siempre y cuando 0 < < . En la prctica, cuando n 30, S suele ser una buena aproximacin de .
X np
np (1 p )
Y=
(8.12)
1 z2 / 2
e
dz .
2
(8.13)
Esto significa que la variable Y se aproxima a una distribucin N(0, 1) a medida que n tiende a .
Nota 1: En la practica, una buena aproximacin normal de la variable Y se obtiene cuando np y
n(1 p) son ambos mayores que 5.
Nota 2: La aproximacin se mejora considerablemente cuando se usa la Correccin por
Continuidad, la cual consiste en que cada valor entero no negativo de X es representado
por el intervalo que va de X a X + .