Você está na página 1de 3

Pontificia Universidad Católica de Chile

Escuela de Ingenierı́a
Departamento de Ingenierı́a Industrial y Sistemas
Segundo semestre del 2012
ICS2123-3 Modelos Estocásticos

Resumen de Probabilidades
Profesores: Pedro Halçartégaray Moncayo
Pablo Senosiain Cabello
Ayudante: Matı́as López Abukalil

1. Conceptos básicos 1.3 Definición. Sea P una probabilidad. Supongamos que A y B dos eventos
tales que P (B) 6= 0. Definimos la probabilidad condicional de ocurrencia
1.1 Definición. Se define el espacio muestral Ω como el conjunto de todos para A dado que ocurre B como
los resultados posibles de un experimento. Dada una familia F 1 de subconjuntos
de Ω, definimos una medida de probabilidad como una función P : F → R P (A ∩ B)
P (A | B) = .
tal que P (B)

(a) 0 ≤ P (A) ≤ 1, ∀A ∈ F. Diremos que A es independiente de B si

(b) P (Ω) = 1. P (A | B) = P (A) ,

(c) Si (An )n∈N ⊆ F es una colección de eventos disjuntos, i.e. An ∩ Am = ∅ o equivalentemente, si


si n 6= m, entonces P (A ∩ B) = P (A) P (B) .
∞ ∞ 1.4 Definición. Una colección de eventos (Hn )n∈N es una partición de Ω si
!
[ X
P An = P (An ) .
n=1 n=1
(a) Hn ∩ Hm = ∅ si n 6= m.
S∞
(b) Ω = n=1 Hn .
Se dice que los elementos de F son eventos y ası́, la probabilidad ocurrencia
de un evento A ∈ F está dada por P (A). 1.5 Teorema (Probabilidades Totales). Sea (Hn )n∈N una partición de Ω. En-
tonces, para cada evento A, se tiene que
1.2 Proposición. Dada una probabilidad P y dos eventos A y B, se cumple

que X
P (A) = P (A | Hn ) P (Hn ) .
(a) P (A) + P (Ac ) = 1. n=1

(b) P (∅) = 0. 1.6 Teorema (Bayes). Sea (Hn )n∈N una partición de Ω. Entonces, para cada
evento A, se tiene que
(c) P (A ∪ B) + P (A ∩ B) = P (A) + P (B).
P (A | Hn ) P (Hn )
P (Hn | A) = P∞ .
(d) P (A) ≤ P (B), si A ⊆ B. m=1 P (A | Hm ) P (Hm )
1 Esta familia no es cualquiera, debe ser una σ-álgebra. Esto significa que F debe cumplir ciertas propiedades cuyo estudio no viene al caso y no son parte de este curso. Sin embargo, el

alumno interesado puede revisar capı́tulos referentes a la teorı́a de probabilidades de [1].

1
2. Variables aleatorias 2.4 Proposición. Sean X una variable aleatoria y a, b ∈ R, entonces
(a) E (aX + b) = aE (X) + b.
2.1 Definición. Una variable aleatoria es una función X : Ω → R. Denota-
remos su recorrido por ΘX . (b) V (aX + b) = a2 V (X).
2.5 Definición. Sean X e Y dos variables aleatorias. Se define la función de
Dada una variable aleatoria X, definimos su función de distribución acu-
densidad condicional de X dado que Y = y como
mulada como ( f (x,y)
FX (x) = P (X ≤ x) , x ∈ R. X,Y
fX (x) si fX (x) 6= 0
fX|Y =y (x) = , x, y ∈ R.
De esta forma, si FX es continua, diremos que X es una variable aleatoria 0 si fX (x) = 0
continua. En caso, contrario, será una variable aleatoria discontinua. En De esta forma, X se dice independiente de Y si
particular, si X sólo toma valores en algún conjunto numerable, como N ó Z,
diremos que X es discreta. fX|Y =y (x) = fX (x), x, y ∈ R,
o equivalentemente, si
Si X es una variable aleatoria discreta, definimos su función de densidad de
probabilidad como fX,Y (x, y) = fX (x)fY (y), x, y ∈ R.
2.6 Proposición. Sean X e Y dos variables aleatorias. Entonces, para x ∈ R,
fX (x) = P (X = x) , x ∈ R. se tiene que X
Análogamente, si X es una variable aleatoria continua, su densidad queda dada fX (x) = P (X = x | Y = y) P (Y = y) .
y∈Θy
por una función fX (x) : R → R+ tal que
ˆ x si Y es discreta; o
ˆ ∞
FX (x) = fX (s)ds, x ∈ R. fX (x) = fX|Y =y (x)fY (y)dy.
−∞
−∞
2.2 Observación. Notar que, si X es una variable aleatoria continua tal que si Y es continua.
fX es una función continua, podemos usar el Teorema Fundamental del Cálculo 2.7 Definición. Sean X e Y dos variables aleatorias. Definimos la esperanza
para concluir que condicional de X dado que Y = y como
dFX
(x) = fX (x). X
dx E (X | Y = y) = xP (X = x | Y = y) ,
x∈ΘX
2.3 Definición. Sea X una variable aleatoria y g : R → R continua. Definimos
la esperanza de g(X) como si X es discreta; o como
ˆ ∞
X
E (g(X)) = g(x)P (X = x) , E (X | Y = y) = xfX|Y =y (x)dx,
−∞
x∈ΘX
si X es continua.
si X es discreta; o como
2.8 Proposición. Sean X e Y dos variables aleatorias. Entonces se cumple
ˆ ∞ que
E (g(X)) = g(x)fX (x)dx, X
−∞
E (X) = E (X | Y = y) P (Y = y) ,
y∈ΘY
si X es continua. si Y es discreta; o
ˆ ∞
Además, en cualquiera de los dos casos, se define la varianza de X como E (X) = E (X | Y = y) fY (y)dy,
−∞
2
V (X) = E (X − E (X))2 = E X 2 − E (X) .
 
si Y es continua.

2
3. Algunas distribuciones útiles 3.4 Definición. Diremos que X sigue una distribución normal de media µ y
varianza σ 2 , denotado por X ∼ N µ, σ 2 , si
3.1 Definición. Diremos que X sigue una distribución binomial de paráme-
tros n y p, denotado por X ∼ Binomial (n, p), si 1 (x−µ)2
fX (x) = √ e− 2σ 2 , x ∈ R.
2πσ 2
 
n k
P (X = k) = p (1 − p)n−k , k ∈ N0 .
k
En este caso, la esperanza y varianza de X vienen dadas por
En este caso, la esperanza y varianza de X vienen dadas por
E (X) = np, V (X) = np(1 − p). E (X) = µ, V (X) = σ 2 .

3.2 Definición. Diremos que X sigue una distribución geométrica de


3.5 Definición. Diremos que X sigue una distribución exponencial de
parámetro p, denotado por X ∼ Geo (p), si
parámetro λ, denotado por X ∼ Exp (λ), si
P (X = k) = (1 − p)k−1 p, k ∈ N.
fX (x) = λe−λx , x ≥ 0.
En este caso, la esperanza y varianza de X vienen dadas por
1 1−p En este caso, la esperanza y varianza de X vienen dadas por
E (X) = , V (X) = .
p p2
3.3 Definición. Diremos que X sigue una distribución de Poisson de paráme- 1 1
E (X) = , V (X) = .
tro λ, denotado por X ∼ Poisson (λ), si λ λ2

λk e−λ
P (X = k) = , k ∈ N0 .
k! Referencias
En este caso, la esperanza y varianza de X vienen dadas por
[1] Casella G., Berger R., Statistical Inference. Duxbury advanced series in sta-
E (X) = λ, V (X) = λ. tistics and decision sciences, Segunda Edición, 2001.

Você também pode gostar