Você está na página 1de 261

Introduccion a la

Probabilidad

Nivel Terciario

Federico De Olivera Lamas


Indice general

1. Espacios de Probabilidad 1

1.1. Espacio muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2. Necesidad de una -algebra . . . . . . . . . . . . . . . . . . . . . 3

1.3. Axiomas de la Probabilidad . . . . . . . . . . . . . . . . . . . . . 13

1.4. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . 29

1.5. Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

1.7. Anexo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

2. Variables Aleatorias 55

2.1. Conceptos iniciales . . . . . . . . . . . . . . . . . . . . . . . . . . 56

2.2. Funcion de distribucion . . . . . . . . . . . . . . . . . . . . . . . . 62

2.3. Tipos de Variables Aleatorias . . . . . . . . . . . . . . . . . . . . 68

2.3.1. Algunos modelos de variables aleatorias discretas . . . . . 81

Federico De Olivera Lamas


ii INDICE GENERAL

2.3.2. Algunos modelos de variables aleatorias


absolutamente continuas. . . . . . . . . . . . . . . . . . . . 93

2.4. Transformaciones de variables aleatorias . . . . . . . . . . . . . . 105

2.4.1. Simulacion Montecarlo . . . . . . . . . . . . . . . . . . . . 112

2.5. Anexo: Proceso de Poisson . . . . . . . . . . . . . . . . . . . . . . 119

2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

3. Esperanza Matematica 135

3.1. Esperanza de una variable aleatoria . . . . . . . . . . . . . . . . . 136

3.2. Esperanza de una transformacion de v.a. . . . . . . . . . . . . . . 148

3.3. Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

3.4. Funcion Generatriz de Momentos . . . . . . . . . . . . . . . . . . 161

3.5. Funcion caracterstica . . . . . . . . . . . . . . . . . . . . . . . . . 169

3.6. Otras medidas de una variable aleatoria . . . . . . . . . . . . . . . 172

3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176

3.8. Anexo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180

4. Vectores Aleatorios 183

4.1. Conceptos iniciales . . . . . . . . . . . . . . . . . . . . . . . . . . 184

4.2. Tipos de vectores aleatorios . . . . . . . . . . . . . . . . . . . . . 192

4.3. Independencia de variables aleatorias . . . . . . . . . . . . . . . . 200

4.4. Transformaciones de vectores aleatorios . . . . . . . . . . . . . . . 207

Federico De Olivera Lamas


INDICE GENERAL iii

4.5. Esperanza de funciones de vectores aleatorios . . . . . . . . . . . 213

4.5.1. Esperanza de la suma y el producto de v.a. . . . . . . . . . 214

4.5.2. Varianza de la suma de v.a. . . . . . . . . . . . . . . . . . 221

4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224

5. Convergencias 231

5.1. Convergencia en Probabilidad . . . . . . . . . . . . . . . . . . . . 233

5.2. Convergencia casi segura . . . . . . . . . . . . . . . . . . . . . . . 236

5.3. Ley de los grandes numeros . . . . . . . . . . . . . . . . . . . . . 240

5.4. Convergencia en Ley . . . . . . . . . . . . . . . . . . . . . . . . . 244

5.5. Teorema del Lmite Central . . . . . . . . . . . . . . . . . . . . . 248

5.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254

Federico De Olivera Lamas


Captulo 1

Espacios de Probabilidad

Ya desde algunos cursos en la educacion secundaria se ha introducido la idea de


Probabilidad. En general, en esos cursos se estudia lo que se denomina definicion
de Laplace o clasica.

En la definicion clasica, las probabilidades se calculan con aquello de casos


favorables sobre casos posibles, si bien en aquel momento bastaba con esa idea de
probabilidad, es una version muy simplificada de lo que significa Probabilidad.

En nuestro curso estudiaremos la probabilidad como una medida para nues-


tro grado de incertidumbre, asignandole el valor mnimo cero (total incertidum-
bre) y valor maximo uno.

Es claro que nos enfrentaremos con algunos problemas, el primero es: a que le
calcularemos la probabilidad, en que condiciones?. estas y otras tantas preguntas
iremos estudiando a lo largo del curso, donde ademas intentaremos desarrollar
algunos modelos matematicos que nos faciliten el abordaje del calculo de proba-
bilidades.
2 1. Espacios de Probabilidad

1.1. Espacio muestral

Supongamos que un experimento sea realizado sobre ciertas condiciones fijas.


El conjunto de los resultados elementales e indivisibles sera llamado espa-
cio muestral o espacio de resultados posibles. A los subconjuntos unitarios del
espacio muestral los llamaremos sucesos elementales y los notaremos .

Ejemplo 1
Se tira un dado y se observa la cantidad de puntos de la cara superior al caer.
Aqu = {1, 2, 3, 4, 5, 6} y sus subconjuntos unitarios son sucesos elementales.
Observemos que el conjunto {1, 2} no es un resultado indivisible, por ende no es
un suceso elemental.

S son sucesos elementales 1 = {1}, . . . , 6 = {6}. /

En ocasiones no es tan sencillo determinar el espacio muestral, veamos el


siguiente ejemplo.

Ejemplo 2
Se selecciona un individuo de Montevideo y se mide su altura en metros.

Cual es el espacio muestral?.

Es claro que medir su altura con dos decimales, es una mera aproximacion
de la verdadera altura del individuo. Un individuo podra eventualmente medir
1, 70 metros, pero tambien podra medir /2 metros, aunque nuestros utiles de
medicion no nos permitan saber con exactitud dicha medida.

De aqu que la altura es un numero real, claramente positivo y a priori no


acotado superiormente. En efecto, si suponemos que el individuo mas alto mide
2, 10 metros, no hay nada que nos asegure que podamos encontrar en algun

Federico De Olivera Lamas


1.2 Necesidad de una -algebra 3

momento alguno que mida 2, 20 metros. Es claro que poner, por ejemplo mil
metros, es una cota mas que razonable a los efectos practicos. En este ejemplo
nuestro espacio muestral es = (0, +). /

En el ejemplo anterior se observa que muchos elementos del espacio mues-


tral son imposibles, es mas, podramos haber seleccionado a todos los numeros
reales como espacio muestral y no cambiara sustancialmente nuestro concepto de
espacio muestral, solo que encontraramos muchos sucesos que seran imposibles.

1.2. Necesidad de una -algebra

Manejando el concepto de probabilidad de los cursos de secundaria, si el ex-


perimento consiste en tirar un dado y observar la cantidad de puntos en la cara
superior, podramos calcular la probabilidad de obtener un 2, de hecho, si dicho
suceso elemental lo anotamos con A, tenemos que:

casos favorables 1
P (A) = =
casos posibles 6

Ademas podemos calcular la probabilidad de B=obtener un numero par,


aunque este no sea un suceso elemental, P (B) = 36 . Sin mayor dificultad el lec-
tor podra observar que en este ejemplo, podemos calcular la probabilidad de
cualquier subconjunto del espacio muestral, es decir, podemos calcular la proba-
bilidad de cualquier elemento de partes de (partes de , el conjunto de todos
los subconjuntos de , lo anotaremos 2 o P()).

Lamentablemente no siempre es posible calcular la probabilidad de cualquier


subconjunto del espacio muestral. La justificacion es basada en la medida de
Lebesgue de la que daremos una breve introduccion. Comencemos introduciendo
el problema con un ejemplo.

Federico De Olivera Lamas


4 1. Espacios de Probabilidad

Ejemplo 3
Tiramos un dardo sobre una pared, la base de la pared la medimos en una cierta
unidad tal que represente al intervalo [0, 1] y observamos la coordenada (horizon-
tal) en la que quedo el dardo. Es claro que = [0, 1].

a)
Haciendo una extension de la nocion de probabilidad anterior , podramos
tratar de calcular la probabilidad de que el dardo quede en el intervalo [1/3, 1/2].
Es razonable que dicha probabilidad sea calculada como la medida del intervalo
[1/3, 1/2] sobre la medida del intervalo [0, 1], es decir:
m([1/3, 1/2]) 1/2 1/3
P (dardo quede en [1/3, 1/2]) = = = 1/6
m([0, 1]) 10
De aqu deducimos que, en este ejemplo, el calculo de probabilidades se reduce
a medir conjuntos, por ejemplo, cual es la probabilidad de que el dardo quede
en una coordenada racional?, como hemos estudiado en Analisis I, la medida de
cualquier conjunto numerable es cero y por ende, tal probabilidad es cero.

Para cualquier subconjunto E del intervalo [0, 1], podemos hallar la pro-
babilidad que el dardo quede en E?. Tal pregunta es equivalente a a cualquier
subconjunto E del intervalo [0, 1] lo podemos medir con las nociones basicas de
medida?.

Como ya se menciono, para responder tendremos que hacer una breve intro-
duccion a los conceptos de medida. /

La medida que extiende el concepto de longitud es la llamada medida de


Lebesgue, algunas propiedades que esta debe cumplir son:

1. La medida del intervalo cerrado [0, 1] es uno, es decir, m([0, 1]) = 1.

2. Si trasladamos un conjunto, su medida no cambia, es decir, si E es un


conjunto de reales y x es un numero real cualquiera, m(x + E) = m(E),
a)
Aun no hemos definido a la probabilidad, pero nos manejamos con conceptos intuitivos.

Federico De Olivera Lamas


1.2 Necesidad de una -algebra 5

donde x + E = {x + y : y E}.
Por ejemplo: m(2 + [0, 1]) = m([2, 3]) = 3 2 = 1 = m([0, 1]).
| {z }
=[2,3]

3. Si deseamos medir una coleccion numerable de conjuntos disjuntos (incom-


patibles) E1 , E2 , . . . , En , . . . ,donde Ei Ej = para i 6= j, es razonable
pedir que m( +
S P+
n=1 En ) = n=1 En .

Por ejemplo: m([0, 1] [2, 3] [5, 8]) = m([0, 1]) + m([2, 3]) + m([5, 8]).

Veamos a continuacion un ejemplo en el cual se muestra un conjunto no


medible:

Ejemplo 4 (Un conjunto no medible)


Consideremos el intervalo [0, 1] y sobre este definamos la relacion:
xRy x y Q, es decir, dos reales del intervalo [0, 1] se relacionan, si y solo
si, distan un racional.

El lector podra verificar que se trata de una relacion de equivalencia.

Formemos ahora un conjunto E, tomando uno y solo un elemento de cada clase


b)
de equivalencia (axioma de eleccion ). Por ejemplo: 0, 1/e y 1/ pertenecen a
clases distintas pues no distan un racional, de aqu que 0, 1/e, 1/ E, entre
otros.

Tomemos ahora un racional q del intervalo [0, 1], que representa la distancia
a la que estan los elementos en las clases, y formemos el conjunto Eq como sigue:

Eq = {(x + q)mod(1) : x E}

En otras palabras, sin usar modulo, a cada elemento del conjunto E lo tras-
b)
Aca estamos usando el axioma de eleccion que dice, resumidamente, que si uno tiene una
familia de conjuntos y toma un elemento de cada uno, entonces obtiene tambien un conjunto.

Federico De Olivera Lamas


6 1. Espacios de Probabilidad

ladamos el racional q y los que sobrepasen al 1 lo trasladamos al comienzo para


aseguramos que queden en [0, 1] , es decir:

Eq = {x + q : x E si x + q 1} {x + q 1 : x E si x + q > 1}

Observemos que si 0 E entonces 1 6 E pues son de la misma clase, por lo


tanto la union que determina a los Eq es disjunta.

Al hacer variar q sobre todos los racionales de [0, 1] obtenemos todos los
elementos de cada clase. Por ejemplo, como 1/e E, al sumarle q obtenemos el
elemento que dista el racional q de 1/e, al hacerlo para todos los racionales del
intervalo [0, 1] obtenemos todos los elementos de la clase de 1/e y esto vale para
todos los elementos de E en donde hay un representante de cada clase.
[ (1)
De lo anterior deducimos que Eq =[0, 1].
qQ[0,1]

Ademas, los conjuntos Eq son disjuntos. En efecto, observemos que si


a Eq Er , entonces a es representado por un elemento x en E tal que
x + q = a y tambien es representado por un elemento x en E tal que x + r = a
c)
. Pero x dista de x el racional r q 6= 0 y por lo tanto llegamos a que en
E hay dos elementos de una misma clase, en absurdo con la definicion de E.

En resumen, los conjuntos Eq son una sucesion numerable de conjuntos dis-


juntos, donde de ser medibles tendramos que

c)
estamos suponiendo que x + q 1 y x + q 1, es analogo si no fuera as.

Federico De Olivera Lamas


1.2 Necesidad de una -algebra 7

m(Eq ) = m({x + q : x E si x + q 1} {x + q 1 : x E si x + q > 1})


disj
= m({x + q : x E si x + q 1}) + m({x + q 1 : x E si x + q > 1})
| {z } | {z }
(q+E)[0,1] (q1+E)[0,1]

= m(E [q, 1]) + m(E [0, q))


disj 
= m (E [0, q]) (E (q, 1]) = m(E) = c
| {z }
E

Concluimos que, de ser medible cada Eq , entonces miden todos una constante c.

A los racionales en [0, 1], por ser infinitos y numerables, renombremoslos con
qn , es decir, Q [0, 1] = +
n=1 {qn }.

Utilizando las propiedades deseadas de medida tenemos que:


+ +
por (1) [ disjuntos
X X
1 = m([0, 1]) = m( Eq ) = = m(Eqn ) = c
qQ[0,1] n=1 n=1
| {z }
+
m(n=1 Eqn )

Donde obtenemos un absurdo, pues si c = 0 llegamos a que 1 = 0 y si c > 0


llegamos a que 1 = +. El absurdo se genera al pensar que los conjuntos Eq son
medibles.

En resumen, como cada Eq resultaba de una traslacion de E, concluimos que


E no es medible y esto responde negativamente la pregunta todo subconjunto
de R es medible ?. /

Como resultado concluimos que no todo subconjunto de R es medible y por


tanto no podemos calcular la probabilidad de que el dardo quede en E para
cualquier subconjunto de [0, 1].

Es importante resaltar que, con lo mostrado arriba, el dominio de la proba-


bilidad no siempre podra ser P(). Necesitaremos introducir un nuevo concepto,
el de - algebra, esta sera una subfamilia de subconjuntos del espacio muestral

Federico De Olivera Lamas


8 1. Espacios de Probabilidad

en donde siempre podemos calcular probabilidades. En el caso de la recta real,


utilizaremos la - algebra de Borel que sera introducida mas adelante.

Indagando los requisitos de una Probabilidad

Tratemos de indagar sobre los requisitos mnimos que deseamos que cum-
pla una probabilidad, retomemos el ejemplo de la tirada de un dado, aqu =
{1, 2, 3, 4, 5, 6}.

Es claro que podemos calcular la probabilidad de A2 =sale 2 y de A3 =sale


3, de donde A2 y A3 deben estar en el dominio de la probabilidad. Pero tambien
nos interesara calcular la probabilidad de A2 A3 =sale 2 o 3, de donde, si A2
y A3 estan en el dominio de la probabilidad, entonces A2 A3 tambien lo esta.
Es evidente que podemos extender este requerimiento para una union finita, por
ejemplo, sale 1, o 2, o 3, o 4, o 5, o 6=A1 A2 A3 A4 A5 A6 debe estar en el
dominio de la probabilidad, es mas, segun los conceptos previos de probabilidad,
dado que los conjuntos son disjuntos, P (6i=1 Ai ) = 6i=1 P (Ai ) = 1.
P
| {z }
1/6

Trabajar con uniones finitas no siempre es suficiente, supongamos que ob-


servamos la cantidad de autos que llegan a un peaje en un lapso de tiempo.
Aqu = {0, 1, 2, . . . , n, . . .} = N y por tanto, si podemos calcular la probabili-
dad de que hayan llegado n autos, deberamos poder calcular la probabilidad de
que llagaron 0, o 1, o 2,..., o n, ... autos (a saber, tal probabilidad debe ser 1) y
por tanto, si A0 , A1 , . . . , An , . . . estan en el dominio de la probabilidad, tambien
debe estar +
n=0 An

Volviendo al ejemplo de la tirada del dado, si A =sale 1, o 2 esta en el


dominio de la probabilidad, entonces debe estar Ac =sale 3, o 4, o 5, o 6.

Hemos introducido el concepto de - algebra, el que nos servira como dominio


de la probabilidad.

Federico De Olivera Lamas


1.2 Necesidad de una -algebra 9

Definicion 1 (-algebra)
Dado un conjunto , llamamos - algebra de , o simplemente -algebra, a una
familia A, de subconjuntos de , tal que:

i) A =
6

ii) Si A A entonces Ac A
+
[
iii) Si A1 , A2 , . . . , An , . . . A entonces An A
n=1

El lector podra verificar que la definicion de - algebra, coincide con lo


deseabamos que cumpliera el dominio de la probabilidad.

Ejemplo 5
Dado un conjunto , P() es una - algebra, ya que P() y por tanto P()
es no vaca. Si A P() entonces Ac tambien es un subconjunto de , de donde
Ac P() y lo mismo ocurre para la union. /

Si bien P() es una - algebra, como vimos en el ejemplo 3, no siempre nos


servira como dominio de la probabilidad, en donde debemos trabajar con otra -
algebra.

Ejercicio 1
Dado un conjunto . Probar queA = {, } es una - algebra. La - algebra
A = {, } es llamada - algebra trivial. 

Ejemplo 6
Sea un conjunto no numerable de numeros reales, probemos que

A = {A : Aes numerable o Ac es numerable}

es una - algebra.

Federico De Olivera Lamas


10 1. Espacios de Probabilidad

i) Es claro que es numerable y por tanto A y de aqu que A no es vaca.

ii) Si A A entonces,
o bien A es numerable y Ac no lo es, pero (Ac )c = A es numerable y por
tanto Ac A
o bien A no es numerable pero por pertenecer a A, Ac es numerable y de
aqu que Ac A.

iii) Si A1 , A2 , . . . , An , . . . A puede ocurrir que:

* todos los An son numerables y por tanto, como la union numerable de


conjuntos numerables es numerable, tenemos que +
S
n=1 An A.

* si alguno de los An es no numerable, supongamos que el Aj no lo es, en-


tonces +
S S+ c
n=1 An no es numerable, pero su complemento ( n=1 An ) =
T+ c c
n=1 (An ) (Aj ) y como Aj A y Aj no es numerable, enton-

ces (Aj )c es numerable. De lo anterior concluimos que +


S
n=1 An tiene

complemento numerable y por tanto +


S
n=1 An A.

Tratemos de introducir ahora una - algebra que nos sea util para calcular
probabilidades sobre intervalos de numeros reales.

Proposicion 1
Sea A una - algebra de subconjuntos de , entonces , A.

Demostracion: En efecto, como A es no vaca, tenemos que existe algun A tal


que A A, por la definicion de - algebra, Ac A y por tanto = A Ac A.
Dado que A, tenemos que = c A. 

Federico De Olivera Lamas


1.2 Necesidad de una -algebra 11

Proposicion 2
Sea A una - algebra de subconjuntos de , si A1 , A2 , . . . , An , . . . A entonces
T+
n=1 An A

Demostracion: Como A1 , A2 , . . . , An , . . . A tenemos que Ac1 , Ac2 , . . . , Acn , . . .


A y por lo tanto + c
S
n=1 An A. Nuevamente,

+ + +
!c
DeM organ
\ \ [
An = (Acn )c = Acn A
| {z }
n=1 n=1 n=1
An

Proposicion 3
Consideremos un conjunto y las - algebras A de subconjuntos de ( L,
\
con L algun conjunto de ndices). Entonces A = A es tambien una - algebra
L
de subconjuntos de .

Demostracion: i) Por ser A - algebra, A L, por lo tanto,


T
L A y de aqu que A es no vaca.

ii) Si A A, entonces A A L, siendo A - algebra, Ac A L


y por lo tanto Ac L A
T

iii) Si A1 , A2 , . . . , An , . . . A entonces A1 , A2 , . . . , An , . . . A L, siendo


A - algebra, +
S S+ T
n=1 An A L y por lo tanto n=1 An L
A

Dada una familia F cualquiera de subconjuntos de , siempre tenemos que


F P() y por lo tanto siempre hay al menos una - algebra que contiene a F.
Este resultado es vital para la siguiente definicion.

Federico De Olivera Lamas


12 1. Espacios de Probabilidad

Definicion 2 (-algebra generada)


Dada una familia F de subconjuntos de , llamamos - algebra generada por F,
T
a la - algebra M(F) = A donde la interseccion es realizada sobre todas las
- algebras que contienen a F.

Ejemplo 7
Sea = {1, 2, 3} y F = {{1, 2}}. Veamos que -algebras contienen a F:

P() = {, , {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}}

tambien {, , {3}, {1, 2}}

hay alguna otra?, el lector podra verificar que no.


Por lo tanto, M(F) = P() {, , {3}, {1, 2}} = {, , {3}, {1, 2}}. /

Veamos ahora una - algebra muy importante a la hora de avanzar en temas


de probabilidad.

Definicion 3 (La - algebra de Borel en R)


Sea R nuestro espacio muestral y consideremos a la familia de intervalos abiertos
de R:
F = {(a, b) : a, b R, a < b}

llamamos - algebra de Borel a la - algebra generada por F, que anotamos B.

Para aclarar ideas, la - algebra de Borel en R, es la menor - algebra que


contiene a los abiertos de R. Es erroneo pensar que B solo contiene abiertos ya que
si (a, b) B entonces (a, b)c B y por ser el complemento de un abierto, (a, b)c es
cerrado. Ademas, como ya vimos, las uniones, las intersecciones y complementos
de elementos de B estan en B.

Federico De Olivera Lamas


1.3 Axiomas de la Probabilidad 13

Ejemplo 8
Los intervalos cerrados estan en B. En efecto, dado un intervalo cerrado [a, b],
sabemos que [a, b] = +
T
n=1 (a 1/n, b + 1/n) B. /
| {z }
B

La - algebra de Borel goza de la propiedad que todos sus elementos son


medibles segun la medida de Lebesgue, es por este motivo que la utilizaremos
como dominio de la probabilidad en casos como el introducido en el ejemplo
del dardo ( ejemplo 3). Sin lugar a duda, mostrar que los elementos de B son
medibles excede nuestros objetivos y podra ser estudiado en un curso de Analisis
Real (medida).

Por ultimo, veamos una extension de la - algebra de Borel a Rn .

Definicion 4 (La - algebra de Borel en Rn )


Sea Rn nuestro espacio muestral, la - algebra de Borel en Rn , a la cual anotamos
Bn es la generada por los abiertos de Rn .

A continuacion definimos un espacio donde podremos definir una probabili-


dad:

Definicion 5 (Espacio probabilizable)


A la pareja (, A), donde representa el espacio muestral y A es una - algebra
de subconjuntos de , la llamaremos espacio probabilizable. A los elementos
de A los llamaremos sucesos.

1.3. Axiomas de la Probabilidad

La probabilidad tal como la hemos venido introduciendo, es una medida para


nuestro grado de incertidumbre. En 1933, Kolmogorov publico el libro Los fun-

Federico De Olivera Lamas


14 1. Espacios de Probabilidad

damentos de la Teora de la Probabilidad, estableciendo las bases modernas de


la teora axiomatica de la probabilidad.

Definicion 6 (Axiomas de Kolmogorov)


Dado un espacio probabilizable (, A), una probabilidad es una funcion
P : A R tal que:

P (A) 0 para todo suceso A (A A)

P () = 1

Si A1 , A2 , . . . , An , . . . son sucesos disjuntos dos a dos (Ai Aj = con i 6= j)


entonces !
+
[ +
X
P An = P (An )
n=1 n=1

Algunas cosas que son importantes resaltar son las siguientes, solo podemos
calcularle la probabilidad a los elementos de la - algebra, la probabilidad de
cualquier suceso es siempre mayor o igual a cero (mas adelante veremos que
tambien es menor o igual a uno), la probabilidad de la union disjunta es la suma
de las probabilidades, veremos en la proposicion 4 que esto es cierto tambien para
uniones finitas.

Definicion 7 (Espacio de probabilidad)


A la terna (, A, P ) la llamamos espacio de probabilidades

Solo cuando este dado un espacio de probabilidades, es cuando se procede a


calcular probabilidades. A continuacion veremos algunos ejemplos que nos per-
mitiran aclarar ideas.

Ejemplo 9
Se tira una moneda al aire y se observa la cara superior al caer.

Federico De Olivera Lamas


1.3 Axiomas de la Probabilidad 15

Aqu = {cara,numero}, consideremos la - algebra A =


P() = {, , cara, numero} y supongamos que no tenemos indi-
cios para suponer que la moneda este cargada, es decir, suponemos que
P (cara) = P (numero) = 1/2.

Tenemos ademas que P () = 1 y como veremos mas adelante, P () = 0, de


donde tenemos definida la probabilidad para cualquier elemento de la - algebra.
Hemos construido as, el espacio de probabilidades (, A, P ).

Pero supongamos ahora que s tenemos sospechas que la moneda este cargada,
pues al tirarla 100 veces, se obtuvieron 20 caras y 80 numeros.

Podramos suponer aqu que P (cara) = 20/100 = 1/5 y


P (numero) = 80/100 = 4/5.

Sin duda que este cambio altera sustancialmente nuestro concepto previo de
probabilidad, aqu se refleja en la obtencion de un espacio de probabilidades
distinto al anterior.

Por ahora no estudiaremos como estimar dichas probabilidades, es un tema


que se estudiara en estadstica, en este ejemplo se trato de hacer notar que siempre
tenemos que trabajar sobre un espacio de probabilidades dado. /

Ejemplo 10 (El espacio de probabilidades clasico o de Laplace)


Supongamos que nuestro espacio muestral es finito, = {1 , 2 , . . . , n } y que
la - algebra es A = P(). Definamos las probabilidades como sigue:
1
P (1 ) = P (2 ) = = P (n ) =
n
Siendo P una probabilidad, si A es un suceso cualquiera, compuesto por k sucesos
elementales, A = {i1 , . . . , ik } = kj=1 {ij }, entonces
k k
[ (1) X k
P (A) = P ( {ij }) = P (ij ) =
j=1 j=1
| {z } n
1/n

Federico De Olivera Lamas


16 1. Espacios de Probabilidad

En (1) se uso que la union es disjunta. El cociente k/n es lo que se conoce


habitualmente como casos favorables (k), sobre casos posibles (n). /

El espacio de probabilidades clasico es utilizado cuando el espacio muestral


es finito y no hay indicios de que los sucesos elementales tengan probabilidades
distintas, por ejemplo, cuando tiramos un dado y observamos la cantidad de
puntos en la cara superior. Trabajando sobre el espacio de probabilidades clasico,
calculemos la probabilidad de obtener un numero par. Nuestro suceso es A =
{sale 2, o 4, o 6}, por lo tanto P (A) = 3/6 = 1/2.

Antes de dar mas ejemplos de calculo de probabilidades pasemos a estudiar


las propiedades que esta posee.

Proposicion 4 (Propiedades de la probabilidad)


Dado un espacio de probabilidades (, A, P )

1. P () = 0

2. Si A1 , . . . , An A son disjuntos dos a dos, entonces


n
! n
[ X
P Ai = P (Ai )
i=1 i=1

3. P (A) = 1 P (Ac ) para todo suceso A

4. Si A y B son sucesos tales que A B, entonces P (A) P (B)

5. P (A) [0, 1] para todo suceso A

6. Sean A y B dos sucesos cualesquiera, entonces

P (A B) = P (A) + P (B) P (A B)

7. Sean A1 , A2 , . . . , An , . . . sucesos cualesquiera, entonces


+
! +
[ X
P An P (An )
n=1 n=1

Federico De Olivera Lamas


1.3 Axiomas de la Probabilidad 17

8. Sean A1 , A2 , . . . , An sucesos cualesquiera, entonces


n
! n
[ X X
P Ai = (1)k+1 P (Ai1 Ai2 Aik )
i=1 k=1 1i1 <i2 <<ik n

Demostracion:

1. Sean A1 = , . . . , An = , . . .. Estos sucesos estan en la -algebra y son


disjuntos (Ai Aj = para todo i, j N ), ademas tenemos que +
S
n=1 An =

, luego, por la tercera propiedad de los axiomas de Kolmogorov tenemos


que: !
+
[ +
X
P () = P = P ()
n=1 n=1
P+
De aqu que, si P () > 0 entonces P () = n=1 P () = + en absurdo
| {z }
cte >0
con la hipotesis pues la probabilidad tiene codominio R.

Por ser P (A) 0 para todo A A y P () 6>

0, entoncesP() = 0.

2. Primero aclaremos que esta propiedad puede resultar inmediata a partir del tercer
axioma de Kolmogorov, esta bien que el estudiante la piense as, pero la idea es
la siguiente:

consideremos A1 , . . . , An A y An+1 = , An+2 = , . . ., luego,

n
! +
! +
[ [ ax.iii) X
P Ai = P Ai = P (Ai )
i=1 i=1 i=1
n
X +
X
= P (Ai ) + P ()
| {z }
i=1 i=n+1 =0
n
X
= P (Ai )
i=1

disjuntos
3. Siendo P (A)+P (Ac ) = P (AAc ) = P () = 1, entonces P (A) = 1 P (Ac ).

Federico De Olivera Lamas


18 1. Espacios de Probabilidad

4. Observemos que el suceso B, se puede escribir como union disjunta B = A (B


A), ya que A B. Luego

disjuntos
P (B) = P (A (B A)) = P (A) + P (B A)
| {z }
0

entonces P (B) P (A).

5. Dado un suceso A, A , aplicando la propiedad 4,


0 = P () P (A) P () = 1.

6. Notemos que el suceso AB puede ser escrito como union disjunta de la siguiente
forma, A B = A (B Ac )

Luego,
disjuntos
P (A B) = P (A (B Ac )) = P (A) + P (B Ac ) (1.1)

Deberamos ahora, probar que P (B Ac ) = P (B)P (AB) o equivalentemente,


P (B) = P (B Ac ) + P (B A).

Observemos que los sucesos (B A) y (B Ac ) son disjuntos y ademas B =


(B A) (B Ac ), entonces
 disjuntos
P (B) = P (B A) (B Ac ) = P (B A) + P (B Ac )

y si sustituimos este resultado en (1.1) obtenemos lo deseado.


S+
7. Tratemos de escribir la union An como una union disjunta. Definamos
n=1
n1

E1 = A1 , E2 = A2 A1 , E3 = A3 (A1 A2 ), . . . , En = An i=1 Ai
y as sucesivamente para todo natural.

El lector podra verificar facilmente que En An y que + +


n=1 An = n=1 En , donde

los En son disjuntos dos a dos por construccion. Luego


+
! +
! + +
disjuntos
[ [ X X
P An = P En = P ( En ) P (An )
|{z}
n=1 n=1 n=1 A n=1
| {z n }
P (An )

Federico De Olivera Lamas


1.3 Axiomas de la Probabilidad 19

8. El estudiante interesado puede ver la demostracion por induccion completa en el


Anexo 1.7.

Las anteriores propiedades seran muy utiles al momento de calcular probabili-


dades, por ejemplo, en muchas oportunidades es mas facil calcular la probabilidad
del complemento que la del propio suceso.

Veamos ahora algunos ejemplos donde aplicamos las propiedades anteriores:

Ejemplo 11
Un estudiante tiene una probabilidad p de responder una pregunta en un examen
oral. Se le ofrecen dos alternativas: a) Hacerle solo una pregunta; b) Hacerle tres
preguntas pero para salvar debe responder correctamente al menos dos.

Cual alternativa es mas favorable?

Segun la opcion a), la probabilidad de salvar es p. Segun la opcion b), la


probabilidad de ganar se calcula como sigue:

El estudiante puede:

A=responder correctamente las dos primeras y mal la ultima, este suceso


tiene probabilidad p2 (1 p)

B=responder correctamente la primera y la tercera y mal la segunda, este


suceso tambien tiene probabilidad p2 (1 p)

C=responder correctamente las dos ultimas y mal la primera, este suceso


tiene probabilidad p2 (1 p)

D=responder correctamente las tres preguntas, este suceso tiene proba-


bilidad p3 .

Federico De Olivera Lamas


20 1. Espacios de Probabilidad

Por ende, que el estudiante salve es el suceso A B C D, la cual es una


union disjunta (por que?) y por lo tanto la probabilidad que el estudiante salve
con la opcion b) es 3p2 (1 p) + p3 .

Ahora analicemos que opcion es mas conveniente, para ello veamos que opcion
tiene mayor probabilidad de salvar. Para que la opcion a) sea mas conveniente que
la b) debemos tener p > 3p2 (1 p) + p3 , resolviendo la desigualdad y teniendo en
cuenta que p es una probabilidad, tenemos que si p (0, 1/2) conviene la opcion
a), si p (1/2, 1) conviene la opcion b).

Si p = 1/2 es indiferente, ademas si p = 0 perdemos con probabilidad uno en


cualquiera de los casos y si p = 1 salvamos con probabilidad uno, por que?. /

Ejercicio 2
Una determinada travesa puede hacerse con aviones bimotores o con cuadrimo-
tores. Los bimotores pueden volar con un solo motor y los cuadrimotores solo con
dos. La probabilidad de que un motor falle en la travesa es p. Cuales aviones
son los mas seguros?. 

Ejemplo 12
Tenemos dos urnas con n bolillas cada una, numeradas de 1 a n. Se extrae al azar
una bolilla de la primer urna y otra de la segunda urna, sin reponer las bolillas se
repite el procedimiento hasta agotar las n bolillas. Se desea hallar la probabilidad
de que en alguna extraccion se tenga al menos una coincidencia.

Observemos que nuestro experimento termina cuando se extrajeron todas las


bolillas, es por tal motivo que los elementos del espacio muestral son del tipo

i i in
1 2
j1 j2 jn
donde i1 , i2 , , in {1, 2, , n} y j1 , j2 , , jn {1, 2, , n} representan
el numero de la bolilla extrada en cada lugar.

Federico De Olivera Lamas


1.3 Axiomas de la Probabilidad 21

Notemos que los casos posibles son (n!)2 , ya que cualquier permutacion de las
n bolillas de la primer urna es posible y por cada una de estas, podemos hacer
una permutacion de las n bolillas de la segunda urna.

Recordemos que queremos calcular la probabilidad de que al menos haya una


coincidencia, lo que puede pensarse como, hay una coincidencia en el primer
lugar o hay una coincidencia en el segundo lugar, ..., o hay una coincidencia en
el n-esimo lugar. Sea Ai el suceso hay una coincidencia en el i-esimo lugar, la
probabilidad deseada es P ( ni=1 Ai ). Uno puede verse tentado a calcularla como
S

la suma de las probabilidades de los sucesos Ai , pero lamentablemente esto no


es posible ya que los sucesos Ai no son incompatibles. Notemos que si hay una
coincidencia en el primer lugar, podra tambien haber una en el segundo.

Para solucionar el problema anterior uno podra definir los sucesos Bi como
hay exactamente una coincidencia y es en el lugar i-esimo, estos sucesos s son
disjuntos pero se torna muy difcil contar los casos favorables a cada suceso. El
lector interesado puede tratar de contarlos.
Sn
En definitiva, tenemos que calcular P ( i=1 Ai ), donde Ai es el suceso hay una
coincidencia en el i-esimo lugar. De las propiedades de la probabilidad tenemos
que !
n
[ n
X X
P Ai = (1)k+1 P (Ai1 Ai2 Aik )
i=1 k=1 1i1 <i2 <<ik n

donde el suceso Ai1 Ai2 Aik es el suceso hay coincidencia en los lugares
i1 , . . . , ik . Contemos los casos favorables a tal suceso:


i1 i2 ik


| {z }
| {z }
k lugares nk lugares

En la figura se opto por elegir los primeros k lugares, pero la probabilidad es


la misma si se hubieran elegido otros k lugares. Supongamos por un instante que

Federico De Olivera Lamas


22 1. Espacios de Probabilidad

queremos que en el lugar i1 quede la bolilla 1, en el lugar i2 quede la bolilla i2 y


as sucesivamente hasta que en el lugar ik quede la bolilla k.
1 2 k

1 2 k

| {z }
| {z }
k lugares nk lugares

Para contar los casos favorables a este suceso, basta con observar que las n k
bolillas para los n k lugares en los que no necesitamos necesariamente coin-
cidencia pueden ser permutados, y esto para cualquiera de las urnas, por tanto
tenemos [(n k)!]2 casos favorables para este suceso. Pero observemos que en el
lugar i1 podra estar cualquiera de las n bolillas, una vez seleccionada una para
este lugar, en el lugar i2 podra estar cualquiera de las n 1 bolillas restantes, y
as sucesivamente, de donde la probabilidad deseada es:
n(n 1)(n 2) (n k + 1)[(n k)!]2 (n k)!
P (Ai1 Aik ) = 2
=
[n!] n!

Observemos que la probabilidad no depende de quienes son los k lugares donde


queremos las coincidencias, es decir, P (Ai1 Aik ) no depende de i1 , i2 , . . . , ik
P
y por tanto la suma 1i1 <i2 <<ik n P (Ai1 Ai2 Aik ) es la cantidad de

sumandos por dicha probabilidad.

La cantidad de sumandos puede ser interpretada como: de cuantas maneras


podemos elegir de los n lugares, k donde haya coincidencia?, la respuesta es Ckn
y por lo tanto:

n
! n
[ X X
P Ai = (1)k+1 P (Ai1 Ai2 Aik )
i=1 k=1 1i1 <i2 <<ik n
| {z }
(nk)! n! (nk)! 1
Ckn n! = (nk)!k! n!
= k!

y por lo tanto la probabilidad de que haya al menos una coincidencia es


n
X 1 1 1 1 1
(1)k+1 = 1 + + + (1)n+1
k=1
k! 2 3! 4! n!

Federico De Olivera Lamas


1.3 Axiomas de la Probabilidad 23

Por ultimo, observemos que si n + entonces P ( ni=1 Ai ) 1 e1 lo


S

xn
que puede deducirse de la igualdad ex = +
P
n=0 n! . /

Ejemplo 13
Una Lotera tiene N numeros y un solo premio. Un jugador a) compra n billetes
de un sorteo (n N ) y otro jugador b) compra un solo billete durante n sorteos
consecutivos, de manera que los dos jugadores apuestan la misma cantidad.

Cual jugador tiene mayor probabilidad de sacar?

Comencemos notando que el espacio muestral esta formado por los N numeros
de la Lotera, la cual se supone bajo el espacio de Laplace, es decir, todos los
numeros tienen probabilidad 1/N .

El jugador a) tiene probabilidad de ganar Pa = n/N .

Para calcular la probabilidad de que gane el premio el jugador b) procedemos


como sigue:

La probabilidad de no ganar en el primer sorteo es 1 1/N = (N 1)/N ;



la probabilidad de no ganar en ni en el primer ni en el segundo sorteo es (N
2
1)/N , y la probabilidad de no sacar ninguna vez el premio en los n sorteos es
 n
(N 1)/N .

Por lo tanto, la probabilidad de que el jugador b) saque el premio por lo menos


una vez es:

 n
(N 1)
Pb = 1
N

Usando la desigualdad de Bernoulli, (1 + a) > 1 + a con a 1 y > 1,


tenemos que

Federico De Olivera Lamas


24 1. Espacios de Probabilidad

 n  n
(N 1) 1 n
= 1 >1
N N N

de donde Pa > Pb .

Es decir, el jugador a) tiene mayor probabilidad de sacar el premio, sin em-


bargo, el jugador b) lo puede sacar mas veces. /

Ejemplo 14 (Opcional)
Tenemos m bolillas y las queremos colocar aleatoriamente en n frascos, suponga-
mos n 1 y m n 1. Puede que mas de una bolilla quede en un frasco.

El problema original consiste en hallar la probabilidad de que exactamente


un frasco quede libre.

Sea Bi , el suceso: el frasco i-esimo es el unico que queda libre, la probabili-


dad deseada es P ( ni=1 Bi ), aqu los sucesos Bi son disjuntos, pues si el frasco 1
S

es el unico que queda libre, no puede ocurrir que el frasco 2 quede libre y as su-
cesivamente. Pero... como calculamos P (Bi ) ?, dejamos al lector indagar sobre
la dificultad de tratar de contar los casos favorables.

Tratemos de trabajar sobre un caso mas sencillo, tratemos de calcular la


probabilidad de que algun frasco quede libre. Sea Ai el suceso el frasco i- esimo
queda libre , la probabilidad deseada es P ( ni=1 Ai ), pero los sucesos Ai no son
S

disjuntos por lo que tenemos que utilizar la vieja formula:

n
! n
[ X X
P Ai = (1)k+1 P (Ai1 Aik )
i=1 k=1 1i1 <<ik n

Aqu el suceso Ai1 Aik es los frascos i1 , . . . , ik quedan libres, por lo


tanto tenemos n k frascos donde repartir las m bolillas:

Federico De Olivera Lamas


1.3 Axiomas de la Probabilidad 25

mbolillas


| {z } | {z }
k frascos nk frascos

Los casos posibles podemos contarlos de la siguiente manera, para la primer


bolilla tenemos n frascos disponibles, como puede haber mas de una bolilla en
cada frasco, para la segunda bolilla tambien tenemos n frascos disponibles y
m n
| n{z n} = n = ARm .
as sucesivamente. Por tanto, los casos posibles son n
m veces

Los casos favorables se cuentan de forma similar, ahora queremos k lugares


libres, por lo tanto para la primer bolilla tenemos n k frascos disponibles, como
puede haber mas de una bolilla en cada frasco, para la segunda bolilla tambien
tenemos n k frascos disponibles y as sucesivamente, los casos favorables son
(nk)m
(n k)m . Por lo tanto P (Ai1 Aik ) = nm

Observemos que la probabilidad anterior no depende los ndices i1 , . . . , ik por


lo que nuevamente en la formula sera la cantidad de sumandos, Ckn , por dicha
probabilidad. Es decir:

n
! n m
k+1 n (n k)
[ X
P Ai = (1) Ck
i=1 k=1
nm

Hasta ahora hemos calculado la probabilidad de que al menos un frasco quede


libre, utilizando el complemento tenemos la probabilidad de que ningun frasco
quede libre, es decir

n
X (n k)m
P (ninguno de los n frasco queda libre) = 1 (1)k+1 Ckn
k=1
nm

Observemos que si queremos hallar la probabilidad de que el frasco i sea el


unico que quede libre, podramos tratar de usar la probabilidad anterior pero

Federico De Olivera Lamas


26 1. Espacios de Probabilidad

evaluada en n 1, es decir el frasco i queda libre y ninguno de los n 1 frascos


restantes queda libre. La idea es buena pero no es tan directo.

Al evaluar en n 1 estaramos tambien cambiando por n 1 los casos posibles


sobre los que se puede colocar cada bolilla y esto no es correcto, por lo tanto
tratemos de extraer los casos favorables al suceso ninguno de los n frasco queda
libre. Por ser P (ninguno de los n frasco queda libre) = casos favorables y los
casos posibles
m
casos posibles son n como ya habamos calculado, los casos favorables al suceso
ninguno de los n frasco queda libre son
n
!
m m
X
k+1 (n k)m
n P (ninguno de los n frasco queda libre) = n 1 (1) Ckn
k=1
nm

 m

Para reducir la escritura, llamemos f av(m, n) = nm 1 nk=1 (1)k+1 Ckn (nk)
P
nm
,
por lo tanto los casos favorables a que ninguno de los n 1 frascos queden libres
es f av(m, n 1) y de aqu que la probabilidad de que el frasco i-esimo sea el
f av(m,n1)
unico que quede libre es P (Bi ) = nm
.

Recordemos que los sucesos Bi con i = 1, . . . , n son disjuntos y su probabilidad


no depende que i, es decir, no depende del frasco que se haya elegido para quedar
libre. Por lo tanto:
n
! n
[ X f av(m, n 1) f av(m, n 1)
P Bi = P (Bi ) = n =
i=1
| {z }
i=1
nm nm1
f av(m,n1)
nm

Hemos obtenido la probabilidad de que exactamente un frasco quede libre. /

Los ejemplos anteriores son una pequena muestra de lo difcil que puede ser
calcular probabilidades, sin duda que en el practico se resolveran problemas mas
sencillos.

Una propiedad muy importante, la cual nos servira en variadas ocasiones, es


la llamada continuidad de la probabilidad.

Federico De Olivera Lamas


1.3 Axiomas de la Probabilidad 27

Teorema 5 (Continuidad de la probabilidad)


1. Sean A1 , A2 , . . . , An , . . . sucesos crecientes, es decir
A1 A2 An . . ..

Entonces, la sucesion (P (An ))nN es convergente y


+
[
P( An ) = lm P (An )
n+
n=1

2. Sean A1 , A2 , . . . , An , . . . sucesos decrecientes, es decir


A1 A2 An . . .

Entonces, la sucesion (P (An ))nN es convergente y


+
\
P( An ) = lm P (An )
n+
n=1

Demostracion: 1. Al ser los sucesos An crecientes, tenemos que P (An )


P (An+1 ) y de aqu que la sucesion (P (An ))nN es monotona creciente y
acotada superiormente por 1 por ser probabilidades, por ende es conver-
gente.

Consideremos los conjuntos E1 = A1 , E2 = A2 A1 , E3 = A3 A2 ,


. . . , En = An An1 y as sucesivamente para todo natural.

El lector podra verificar facilmente que ni=1 Ai = An = ni=1 Ei y que


+
n=1 An = +
n=1 En , donde los En son disjuntos dos a dos por construccion.

Luego

+
! +
! + k
disjuntos disjuntos
[ [ X X
P An = P En = P (En ) = lm P (En ) =
k+
n=1 n=1 n=1 n=1
k
[
lm P ( En ) = lm P (Ak )
k+ k+
n=1

Por ultimo, observemos que tomamos el lmite sobre k, tras un cambio de


variable, evidentemente obtenemos lo deseado.

Federico De Olivera Lamas


28 1. Espacios de Probabilidad

2. Al ser los sucesos An decrecientes, tenemos que P (An ) P (An+1 ) y de


aqu que la sucesion (P (An ))nN es monotona decreciente y acotada infe-
riormente por 0 por ser probabilidades, por ende es convergente.

Observemos que por ser A1 , A2 , . . . , An , . . . sucesos decrecientes, sus com-


plementos Ac1 , Ac2 , . . . , Acn , . . . son sucesos crecientes.

Luego:
+ +
!c +
por 1
\ \ [
P( An ) = 1 P ( An ) = 1 P( Acn ) = 1 lm P (Acn )
n+ | {z }
n=1 n=1 n=1
1P (An )

= lm P (An )
n+

Observacion: Cuando la sucesion de sucesos es creciente, es comun anotar


+
[
An = lm An , de aqu que P (lmn+ An ) = lmn+ P (An ) y por eso el
n+
n=1
nombre de continuidad de la probabilidad. De forma analoga, cuando la suce-
+
\
sion de sucesos es decreciente, es comun anotar An = lm An , de aqu que
n+
n=1
P (lmn+ An ) = lmn+ P (An ).

Observacion: Sobre una sucesion de sucesos no siempre esta bien definido


el lmite, en terminos generales es un error hablar de lmite de una sucesion de
conjuntos pues puede no existir tal lmite.

Al igual que lo estudiado en sucesiones numericas, el tema de la existencia de


lmite es tratado mediante lmite superior e inferior de la sucesion, en este caso
sucesion de conjuntos.

Si bien la continuidad de la probabilidad para cualquier sucesion de sucesos


excede los alcances de este curso y puede ser estudiado en un curso de medida,
a los efectos informativos, el lmite superior e inferior de una sucesion de sucesos
lo definimos:

Federico De Olivera Lamas


1.4 Probabilidad condicional 29

+
\ +
[
lm sup An = Am
n+
n=1 m=n

+
[ +
\
lm inf An = Am
n+
n=1 m=n

En caso de que ambos coincidan, decimos que el lmite existe. En el caso que la
sucesion sea monotona, efectivamente coinciden, cosa que se vera en el practico.

1.4. Probabilidad condicional

Supongamos que tiramos un dado y queremos hallar la probabilidad de que


la cantidad de puntos que queden para arriba sea menor o igual a tres. No
tendramos mayor dificultad para calcular tal probabilidad, pero, que tal si nos
pasan la informacion de que el uno no fue el que salio?, como altera esto el
resultado de nuestra probabilidad?. Problemas como este son los que motivan a
introducir la probabilidad condicional.

Definicion 8 (Probabilidad condicional)


Dado un espacio de probabilidad (, A, P ) y un suceso B con probabilidad posi-
tiva, definimos la probabilidad de un suceso A condicionado a B, como

P (A B)
P (A|B) =
P (B)

La nocion intuitiva de la probabilidad condicional puede verse usando diagra-


mas de Venn, en la figura 1.1 se observa que una vez que se conoce la ocurrencia
del suceso B, la probabilidad del suceso A se reduce a la proporcion entre la pro-
babilidad de la parte de A que se encuentra en B, con respecto a la probabilidad
de B.

Federico De Olivera Lamas


30 1. Espacios de Probabilidad

Figura 1.1: Probabilidad condicional

Ejemplo 15
Resolvamos el problema del inicio de la seccion. Se tira un dado y se quiere
calcular la probabilidad de obtener tres o menos puntos, dado que se sabe que
no salio un punto. Sea el suceso A = {1, 2, 3} que representa nuestros casos
favorables a priori y el suceso B = {2, 3, 4, 5, 6} que representa la informacion
P (AB) P ({2,3}) 2/6
que obtuvimos. Luego P (A|B) = P (B)
= P ({2,3,4,5,6})
= 5/6
= 52 .

Aqu puede observarse que la probabilidad condicional respeta la idea intuitiva


de restringir nuestro espacio muestral al conjunto B, es decir, los casos favorables
que hay en B contra los casos posibles que hay en B. /

La nocion intuitiva manejada anteriormente puede formalizarse con la siguien-


te proposicion.

Proposicion 6
Dado un espacio de probabilidades (, A, P ) y un suceso B tal que P (B) > 0,
entonces (B, AB , P ) es un nuevo espacio de probabilidad, donde AB = {A B :
A A} y P : AB R tal que P (A) = P (A|B).

Demostracion: Probemos que AB es una -algebra de subconjuntos de B.

Federico De Olivera Lamas


1.4 Probabilidad condicional 31

i. Es claro que B AB y por tanto AB 6= .

ii. Sea E AB entonces E = A B con A A, luego

E c = B E = B (A B) = B A = B |{z}
Ac
A

y por lo tanto E c es la interseccion entre B y un elemento de A , de donde


E c AB .

iii. Sean E1 , E2 , . . . En , . . . AB , entonces existen A1 , A2 , . . . , An , . . . A tales


que En = An B n N , luego
+ + +
!
[ [ [
En = (An B) = An B AB
n=1 n=1 n=1
| {z }
A

Siendo (B, AB ) un espacio probabilizable, probemos que P es una probabilidad


sobre este espacio.

0
z }| {
P (A B)
i. P (A) = 0 para todo suceso A
P (B)
| {z }
>0

P (BB)
ii. P (B) = P (B|B) = P (B)
=1

iii. Dados los sucesos disjuntos A1 , A2 , . . . An , . . ., entonces


S+
n=1 (An B)
z }|  {
S+  +
S+  P ( n=1 An B) disjuntos
P n=1 An =P n=1 An B = =
P (B)

+ +
P+
P (An B)
X P (An B) X
= n=1
= = P (An )
P (B) P (B)
n=1 | {z } n=1
P (An )

Federico De Olivera Lamas


32 1. Espacios de Probabilidad

El espacio (B, AB , P ) es de gran importancia porque refleja la idea de con-


siderar un nuevo espacio de resultados posibles, una vez que se conoce nueva
informacion a traves de B.

Se deduce de la propia definicion de probabilidad condicional que


P (A B) = P (B)P (A|B). La igualdad anterior puede ser generalizada para mas
de dos suceso, es decir

P (ABC) = P ((AB)C)) = P (A B) P (C|AB) = P (A)P (B|A)P (C|BA))


| {z }
P (A)P (B|A)

Lo cual es valido si P (A B) > 0 (de aqu se deduce que P (A) > 0 ya que
(A B) A)

Generalizando aun mas tenemos el siguiente teorema de multiplicacion o teo-


rema de la probabilidad compuesta.

Teorema 7 (Probabilidad compuesta)


Dado (, A, P ), un espacio de probabilidades, sean A1 , A2 , . . . , An sucesos tales
que P (A1 A2 . . . An1 ) > 0 donde n 2, entonces

P (A1 A2 . . . An ) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) P (An |A1 An1 )

 
Demostracion: Por ser A1 A1 A2 A1 . . . An1 y
P (A1 A2 . . . An1 ) > 0 tenemos que todas las probabilidades condiciona-
les estan bien definidas.

De la propia definicion, la igualdad se cumple si n = 2, es decir P (A1 A2 ) =


P (A1 )P (A2 |A1 ) siendo P (A1 ) > 0.

Supongamos que la igualdad se cumple para h sucesos y verifiquemos que se


cumple para h + 1 sucesos h = 2, . . . , n 1.

Federico De Olivera Lamas


1.4 Probabilidad condicional 33

Por hipotesis P ( hi=1 Ai ) = P (A1 )P (A2 |A1 ) P (Ah |A1 Ah1 ), luego
T

Th+1  
P( i=1 Ai ) = P A1 Ah Ah+1
= P (A1 Ah ) P (Ah+1 |A1 Ah )
| {z }
P (A1 )P (A2 |A1 )P (Ah |A1 Ah1 )

= P (A1 )P (A2 |A1 ) P (Ah+1 |A1 Ah )

Ejemplo 16
Se reparten cuatro cartas de una baraja espanola,cual es la probabilidad que
sean los cuatro reyes?.

Sea el suceso Ai , la i-esima carta obtenida es un rey, entonces queremos


calcular P (A1 A2 A3 A4 ), utilizando la probabilidad compuesta tenemos
que:

1
P (A1 A2 A3 A4 ) = P (A1 ) P (A2 |A1 ) P (A3 |A1 A2 ) P (A4 |A1 A2 A3 ) = 50
| {z } | {z } | {z }| {z } C4
4/50 3/49 2/48 1/47

En el calculo de las probabilidades condicionales se utilizo lo probado en la Propo-


sicion 6, tomando al condicionante como un nuevo espacio de resultados posibles,
por ejemplo, si se conoce A1 A2 es porque ya se han obtenidos dos reyes, por
tanto quedan otros dos reyes entre 48 cartas. /

Consideremos ahora un suceso cualquiera A y su complemento Ac , entonces


A, Ac forman una particion de , es decir A Ac = y A Ac = . Dado
cualquier suceso B, tenemos que B = B = B (A Ac ) = (B A) (B Ac )
donde la union es disjunta, por lo tanto

P (B) = P (B A) + P (B Ac ) = P (A)P (B|A) + P (Ac )P (B|Ac )


| {z } | {z }
P (A)P (B|A) P (Ac )P (B|Ac )

Federico De Olivera Lamas


34 1. Espacios de Probabilidad

Es claro que se esta usando que A y Ac son sucesos con probabilidad positiva.
La generalizacion de este resultado es lo que se conoce como Probabilidades
totales.

Teorema 8 (Probabilidades totales)


Dado (, A, P ), sean A1 , A2 , . . . , An sucesos incompatibles dos a dos, tales que
Sn
i=1 Ai = y P (Ai ) > 0 i = 1, . . . , n (n 2). Entonces, para cualquier suceso

B, tenemos
n
X
P (B) = P (Ai )P (B|Ai )
i=1

Demostracion:
disjuntos Pn
P (B) = P (B ni=1 Ai ) = P (ni=1 (B Ai )) =

i=1 P (B A ) =
| {z } | {z } | {z i}
Ai P (Ai )P (BAi )
Pn
= i=1 P (Ai )P (B|Ai )

El lector podra verificar sin mayor dificultad que este resultado sigue siendo
valido si se considera una particion infinita pero numerable de sucesos An .

Ejemplo 17
Supongamos que en un cierto pas hay varios partidos polticos, entre ellos, el
90 % del electorado lo tienen los partidos A,B y C con un 50 %, 30 % y 10 %
respectivamente. Se esta promulgando una nueva ley y la proporcion de individuos
que estan a favor de dicha ley depende del partido poltico al que pertenecen.
Suponga que el 70 % de los electores del partido A estan a favor de la ley, el 20 %
en contra y al resto le es indiferente. En el partido B hay un 55 % en contra, un
20 % a favor y al resto le es indiferente. Por ultimo, tanto en el partido C como
en el resto de los partidos, el 30 % esta a favor, el 50 % en contra y al resto le es
indiferente.

Federico De Olivera Lamas


1.4 Probabilidad condicional 35

Se selecciona al azar un elector, hallar la probabilidad de que el individuo


seleccionado este a favor de la ley.

Solucion: Sea F el suceso: el individuo seleccionado esta a favor de la ley.


Observemos que el individuo seleccionado es un elector y por tanto pertenece
al partido A (suceso A) o pertenece al partido B (suceso B) o pertenece a otro
partido (suceso Ot). Supondremos que si un individuo pertenece a un partido no
pertenece a otro y por tanto A, B y Ot forman una particion de nuestro espacio
muestral.

Aplicando la formula de las probabilidades totales tenemos

P (F ) = P (A) P (F |A) + P (B) P (F |B) + P (0t) P (F |Ot) = 0, 47


| {z } | {z } | {z } | {z } | {z } | {z }
0,5 0,7 0,3 0,2 0,2 0,3

De donde podemos concluir que menos de la mitad de los electores son los
que estan a favor de la ley. /

Un resultado inmediato a partir de la formula de las probabilidades totales se


conoce con el nombre de formula de Bayes y es el siguiente:

Teorema 9 (Formula de Bayes)


Dado (, A, P ), sean A1 , A2 , . . . , An sucesos incompatibles dos a dos, tales que
Sn
i=1 Ai = y P (Ai ) > 0 i = 1, . . . , n (n 2). Entonces, para cualquier suceso

B con P (B) > 0 tenemos


P (Aj )P (B|Aj )
P (Aj |B) = Pn j = 1, . . . , n
i=1 P (Ai )P (B|Ai )

P (Aj B) (1) P (Aj )P (B|Aj )


Demostracion: P (Aj |B) = = Pn
P (B) i=1 P (Ai )P (B|Ai )
P (Aj B)
En el numerador de (1) se uso P (B|Aj ) = P (Aj )
y en el denominador la
formula de las probabilidades totales, ya que los Ai forman una particion de .

Federico De Olivera Lamas


36 1. Espacios de Probabilidad

Sin mayor dificultad el resultado puede extenderse si se considera una parti-


cion infinita pero numerable de sucesos An . 

La formula de Bayes es util cuando conocemos las probabilidades de los Aj y


las condicionales de B dado Aj , pero no conocemos directamente la probabilidad
de B.

Ejemplo 18
Suponga que una caja tiene tres monedas, dos no cargadas y una de dos caras. Se
deja caer aleatoriamente una moneda al suelo y se observa que salio cara. Cual
es la probabilidad que la moneda tirada sea la de dos caras?.

Solucion: Sean los sucesos A1 , la moneda es de dos caras, A2 la moneda es


no cargada y B, el suceso salio cara. Nos interesa la probabilidad P (A1 |B), el
lector podra verificar las hipotesis de la formula de Bayes, de donde

1/3 1
z }| { z }| {
P (A1 ) P (B|A1 ) 1
P (A1 |B) = =
P (A1 ) P (B|A1 ) + P (A2 ) P (B|A2 ) 2
| {z } | {z } | {z } | {z }
1/3 1 2/3 1/2

Ejemplo 19
La distribucion de los grupos sanguneos en Estados Unidos es: Tipo A, 41 % ;
tipo B, 9 % ; tipo AB, 4 % y tipo O, 46 %. Se estima que, durante la segunda
guerra mundial, el 4 % de las personas pertenecientes al tipo O fueron clasificadas
como del tipo A; el 88 % de los de tipo A fueron correctamente clasificados; el 4 %
de los de tipo B se clasificaron como de tipo A y el 10 % de los de tipo AB fueron,
igualmente, clasificados como de tipo A. Un soldado fue herido y conducido a la
enfermera. Se le clasifico como del tipo A. Cual es la probabilidad de que tal
grupo sea ciertamente el suyo?.

Federico De Olivera Lamas


1.4 Probabilidad condicional 37

Solucion: Consideremos los sucesos A1 : es de tipo A; A2 : es de tipo B; A3 : es


de tipo AB; A4 : es de tipo O; B: Es clasificado como de tipo A.

Luego, A1 , A2 , A3 , A4 forman una particion de nuestro espacio muestral y to-


dos tienen probabilidad positiva. Usando probabilidades totales, veremos que B
tambien tiene probabilidad positiva (denominador de Bayes). Aplicando la formu-
la de Bayes tenemos que

0,41 0,88
z }| { z }| {
P (A1 ) P (B|A1 )
P (A1 |B) =
P (A1 ) P (B|A1 ) + P (A2 ) P (B|A2 ) + P (A3 ) P (B|A3 ) + P (A4 ) P (B|A4 )
| {z } | {z } | {z } | {z } | {z } | {z } | {z } | {z }
0,41 0,88 0,09 0,04 0,04 0,10 0,46 0,04

= 0, 93
/

Como sugerencia para el estudiante, la formula de Bayes es util cuando cono-


cemos el resultado final y queremos hallar la probabilidad de que se haya pasado
por una determinada etapa intermedia. Las etapas intermedias deben formar una
particion que hay que detectar.

Ejercicio 3
Estamos interesados en saber cual de dos analisis A y B es mejor para el diagnosti-
co de una determinada enfermedad, de la cual sabemos que la presentan un 10 %
de individuos de la poblacion. El porcentaje de resultados falsos positivosd) del
analisis A es del 15 % y el de B es del 22 %. El porcentaje de falsos negativose)
de A es del 7 % y de B es del 3 %.

Cual es la probabilidad de acertar en el diagnostico con cada metodo? 


d)
Un resultado es falso positivo cuando el analisis da positivo siendo que el paciente no tiene
la enfermedad.
e)
Un resultado es falso negativo cuando el analisis da negativo siendo que el paciente tiene
la enfermedad.

Federico De Olivera Lamas


38 1. Espacios de Probabilidad

1.5. Independencia

Un concepto que hemos venido manejando informalmente es el de independen-


cia. Por ejemplo, cuando decimos que tiramos dos monedas, el resultado que ob-
tengamos en una, es independiente del que obtengamos en la otra. Otro ejemplo
es cuando tenemos n bolillas para ocupar n lugares sin repetirlos, aqu decamos
que una vez elegida una bolilla para el primer lugar, la cantidad de bolillas para
el segundo lugar disminuye a n 1, por lo que la eleccion no se hace en iguales
condiciones que la primer eleccion y por lo tanto no tenemos independencia.
esta idea de independencia sera formalizada desde el punto de vista probabilista
en esta seccion.

Definicion 9 (Independencia)
Dado un espacio de probabilidad (, A, P ), decimos que los sucesos A y B son
independientes si

P (A B) = P (A) P (B)

Observacion: La independencia depende del espacio de probabilidad sobre


el que se trabaja. Veamos el siguiente ejemplo.

Ejemplo 20
Se lanzan dos monedas al aire y se observan sus caras superiores al caer.
En este caso = {(cara,cara), (cara, numero), (numero,cara), (numero,numero)},

sea A = P () y las probabilidades clasicas, es decir P (cara,cara) =
  
P (cara, numero) = P (numero,cara) = P (numero,numero) = 1/4

Consideremos los sucesos A: en la primer moneda sale cara y B: en la


segundo moneda sale cara, luego

Federico De Olivera Lamas


1.5 Independencia 39

P (A B) = P (cara,cara) = 1/4

P (A) = P (cara,cara) (cara,numero) = 1/4 + 1/4 .

P (B) = P (cara,cara) (numero,cara) = 1/4 + 1/4

Por lo tanto P (A B) = 1/4 = P (A)P (B) y los sucesos A y B son indepen-


dientes.

Pero, sobre el mismo espacio probabilizable definamos


 
P (cara,cara) = P (numero, numero) = 1/3
 
P (numero,cara) = P (cara,numero) = 1/6

El lector podra verificar que se trata de una probabilidad ya que



P () = P (cara,cara) (cara, numero) (numero,cara) (numero,numero) =
= 1/3 + 1/6 + 1/6 + 1/3 = 1

Aqu

P (A B) = P (cara,cara) = 1/3

P (A) = P (cara,cara) (cara,numero) = 1/3 + 1/6 = 1/2

P (B) = P (cara,cara) (numero,cara) = 1/3 + 1/6 = 1/2

Por lo tanto P (A B) = 1/3 6= 1/2 1/2 = P (A)P (B) y los sucesos A y B


no son independientes. /

Sin duda que, bajo el espacio clasico de probabilidades, la nocion intuitiva


de independencia se verifica. Pero siempre tenemos que recordar que la indepen-
dencia es definida sobre un espacio de probabilidades y por tanto depende de
este.

Observacion: Si alguno de los sucesos A o B tiene probabilidad no nula,


la independencia puede ser definida por medio de la probabilidad condicional,
P (AB)
es decir, supongamos que P (B) > 0, entonces P (A|B) = P (B)
, de donde A
y B son independientes si y solo si P (A|B) = P (A). En efecto, si A y B son

Federico De Olivera Lamas


40 1. Espacios de Probabilidad

P (AB) indep P (A)P (B)


independientes, entonces P (A|B) = P (B)
= P (B)
= P (A). Por otro lado,
si P (A|B) = P (A) entonces, de la definicion de probabilidad condicional tenemos
que P (B) P (A|B) = P (A B) y por tanto A y B son independientes.
| {z }
P (A)

Proposicion 10
Dado un espacio de probabilidad (, A, P ),

1. Si P (A) = 0 o P (A) = 1 entonces A es independiente de B, B A.

2. Si A es independiente de A, entonces P (A) = 1 o P (A) = 0.

3. Si A es independiente de B entonces:

a) A es independiente de B c .

b) Ac es independiente de B.

c) Ac es independiente de B c .

Demostracion: 1. Si P (A) = 0, entonces, por ser (A B) A tenemos


0 P (A B) P (A) = 0 y de aqu que P (A B) = 0 = P (A) P (B) .
| {z } | {z }
=0 R
c
Si P (A) = 1, recordemos que B = (B A) (B A ) donde la union es
(1)
disjunta, por lo tanto P (B) = P (A B) + P (B Ac ). Siendo P (A) = 1,
(2)
P (Ac ) = 0 y como (B Ac ) Ac tenemos que P (B Ac ) = 0. De (1) y (2)
tenemos que P (A B) = P (B) = P (A) P (B).
| {z }
=1

2. Por ser A independiente de A tenemos que


indep
P (A) = P (A A) = P (A)P (A), y por lo tanto. P (A) = 1 o P (A) = 0

3. a) P (A) = P (AB)+P (AB c ), entonces P (AB c ) = P (A)P (AB)


indep 
= P (A) P (A)P (B) = P (A) 1 P (B) = P (A)P (B c )
| {z }
P (B c )

Federico De Olivera Lamas


1.5 Independencia 41

b) Basta con intercambiar A y B de nombres y aplicar la parte anterior.

c) Por ser los sucesos A y B independientes, por la parte a) los son A y


B c , apliquemos la parte b) y obtenemos que los son Ac y B c .

Observacion: Si A y B son sucesos incompatibles, es decir (A B) = ,


entonces no pueden ser independientes a menos que alguno de ellos tenga proba-
bilidad cero, ya que P (A B}) = 0 = P (A)P (B) P (A) = 0 o P (B) = 0.
| {z

indaguemos ahora como definiremos la independencia de mas de dos sucesos.


Dados tres sucesos A, B y C, podramos querer que el suceso A sea independiente
de B y que A sea independiente de C, pero tambien que B sea independiente
de C y as tenemos la independencia dos a dos entre estos sucesos. Pero tambien
nos interesa que A sea independiente de B C y de B C c , en otros terminos,
queremos que la ocurrencia de B y/o de C no afecten a la probabilidad de A.
Analogamente para B y C, por lo tanto la independencia de mas de dos conjuntos
debe ser un poco mas general que la independencia dos a dos.

Definicion 10 (Independencia dos a dos)


Dado (, A, P ), diremos que los sucesos A1 , . . . , An son independientes dos a dos,
si Ai es independiente de Aj para todo i 6= j (i, j {1, . . . , n}), es decir

P (Ai Aj ) = P (Ai )P (Aj ) i 6= j

Definicion 11 (Independencia colectiva)


Dado (, A, P ), diremos que los sucesos A1 , . . . , An son colectivamente indepen-
dientes, o simplemente independiente, si

P (Ai1 Aik ) = P (Ai1 ) P (Aik ) donde 1 i1 < < ik n

Mas en general, dada un conjunto de ndices L diremos que los sucesos A

Federico De Olivera Lamas


42 1. Espacios de Probabilidad

con L son independientes, si toda subfamilia finita de {A : L} es de


sucesos colectivamente independiente.

En algunos textos se le suele llamar independencia estocastica o indepen-


dencia mutua a los sucesos colectivamente independientes. En nuestro curso le
llamaremos simplemente independientes.

Es inmediato verificar que la independencia colectiva implica la independencia


dos a dos, el siguiente ejemplo muestra que la independencia dos a dos no implica
la independencia colectiva.

Ejemplo 21 (La independencia dos a dos no implica la independencia)


Consideremos un espacio de resultados posibles = {1, 2, 3, 4} el cual puede
ser pensado como los cuatro resultados posibles al tirar dos monedas. En efec-
to, Si el 1 representa (cara,cara); el 2, (numero, cara); el 3, (cara,numero) y el
4, (numero,numero).

Trabajemos sobre el espacio clasico de probabilidades, es decir P ({i}) = 1/4,


i = 1, 2, 3, 4 y definamos los sucesos A = {1, 4}, B = {2, 4} y C = {3, 4}. El
lector podra interpretar al suceso A como: en las dos monedas sale igual figura,
analogamente hay una interpretacion para los sucesos B y C. Observemos primero
que P (A) = P (B) = P (C) = 1/2 ya que estan formados por dos de los cuatro
sucesos elementales.

Verifiquemos que los sucesos A, B y C son independientes dos a dos, en efecto

P (A B) = P ({4}) = 1/4 = P (A) P (B)


| {z } | {z }
1/2 1/2

P (A C) = P ({4}) = 1/4 = P (A) P (C)


| {z } | {z }
1/2 1/2

P (B C) = P ({4}) = 1/4 = P (B) P (C)


| {z } | {z }
1/2 1/2

Federico De Olivera Lamas


1.5 Independencia 43

Pero P (A B C) = P ({4}) = 1/4 6= 1/8 = P (A) P (B) P (C), de aqu que


| {z } | {z } | {z }
1/2 1/2 1/2
los sucesos A, B y C no son independientes (colectivamente). /

Federico De Olivera Lamas


44 1. Espacios de Probabilidad

1.6. Ejercicios

1. Probar las leyes de Morgan:

a) (
S c
T c
n=1 An ) = n=1 (An )

b) (
T c
S c
n=1 An ) = n=1 (An ) .

2. Probar que {, } es una -algebra.

3. Verificar que la familia 2 de todos los subconjuntos de es una -algebra.

4. Sea = {a, b, c, d, e, f }. Construir la mnima -algebra generada por


{{a, b}, {c, d}, {e}}.

5. i) Si 1 esta incluido en la -algebra generada por 2 , probar que la -


algebra generada por 1 esta contenida en la -algebra generada por
2 .

ii) Probar que coinciden las -algebras de subconjuntos de R generadas


por:

Los intervalos abiertos 1 = {(a, b) : a < b}.

Los intervalos cerrados 2 = {[a, b] : a < b}.

Los int. semi-abiertos 3 = {[a, b) : a < b} o 4 = {(a, b] : a < b}.

Los rayos abiertos 5 = {(a, ) : a R}. o


6 = {(, b) : b R}.

Los rayos cerrados 7 = {[a, ) : a R}. o


8 = {(, b] : b R}.

Observar que B, la -algebra de Borel en R, tambien es generada por cual-


quiera de las familias i .

Federico De Olivera Lamas


1.6 Ejercicios 45

6. Sea A1 , A2 , ... una sucesion de conjuntos. Definimos el lmite superior y el


lmite inferior de la sucesion como sigue:

\
[
lm inf An = Ar
n=1 r=n
[
\
lm sup An = Ar
n=1 r=n

Probar que lm inf An lm sup An .


En caso de igualdad, se define lm An = lm inf An = lm sup An .

7. Sea A1 , A2 , ... una sucesion monotona de conjuntos. Probar que existe el


lmite de An .

8. Dada una sucesion creciente de sucesos: = E0 E1 E2 ..., probar


que
S
n=1 En se puede escribir como una union disjunta en la forma


[
[
En = (En En1 )
n=1 n=1

9. Un dado esta cargado de modo que la probabilidad de cada cara es pro-


porcional al numero indicado en la cara. Cual es la probabilidad de que al
arrojarlo, se obtenga un resultado par?.

10. Si P y Q son dos probabilidades definidas sobre un mismo espacio (, A),


mostrar que aP + bQ tambien es una probabilidad sobre el mismo espacio,
para cualquier par de numeros no negativos a y b que satisfagan a + b = 1.

11. Se tiran dos dados al azar y se quiere hallar la probabilidad de que la suma
de los puntos obtenidos sea igual a 10.

12. Una urna contiene a bolillas blancas y b bolillas negras. Al sacar al azar
r bolillas de una vez (suponiendo r a), cual es la probabilidad de que
todas ellas sean blancas?.

Federico De Olivera Lamas


46 1. Espacios de Probabilidad

13. Se tiene una baraja de 40 cartas, donde hay 4 ases. Se reparten estas entre 4
personas, de manera que le toquen 10 cartas a cada una. que probabilidad
hay de que a cada una le toque un as?.

14. En una urna hay 20 bolillas numeradas de 1 a 20. Si se van sacando al azar
una a una sin reposicion, cual es la probabilidad de que la bolilla numero
8 salga precisamente en la octava extraccion?.

15. Se distribuyen al azar N bolas numeradas de 1 a N , en N cajas igualmente


numeradas, de modo que se coloca una bola en cada caja.
Cual es la probabilidad de que en las cajas numeros 1 y 2 se coloquen las
bolas con numeros 1 y 2 respectivamente?, ? y cual es la probabilidad de
que en la caja numero 4 no este la bola numero 4? (N 4).

16. Se lanzan dos dados no cargados, uno verde y otro rojo. Calcular las pro-
babilidades de los siguientes eventos:

a) en el dado rojo sale 4.

b) en el dado rojo sale 4 y en el verde tambien.

c) al menos en un dado sale 4.

d ) en ningun dado sale 4.

e) la suma de los puntos obtenidos es mayor que 7.

17. Justificar si es correcto la siguiente afirmacion justificando la respuesta:


De una urna que contiene 30 bolillas numeradas del 1 a 30 se extraen si-
multaneamente 7 de ellas. Si un jugador apuesta a 7 numeros la probabilidad
de acertar 5 o mas numeros es :
C77 + C67 + C57
C730

18. De un conjunto de 15 lamparas de las cuales 5 son defectuosas, se escogen


al azar tres. Hallar la probabilidad de que:

Federico De Olivera Lamas


1.6 Ejercicios 47

a) ninguna sea defectuosa.

b) una por lo menos sea defectuosa.

19. En la fabricacion de un cierto aparato se utilizan dos piezas del mismo


tipo. Para que el aparato funcione es necesario que por lo menos una de las
piezas no este defectuosa. La probabilidad de que una pieza este defectuosa
es 0,05. Calcular, bajo el supuesto de independencia, la probabilidad de que
el aparato funcione.

20. Tres urnas contienen bolillas rojas y azules. La primer urna tiene 3 rojas y
9 azules, la segunda urna tiene 8 rojas y 4 azules y la tercer urna tiene 2
rojas y 10 azules. Las trece cartas de trebol de un mazo de cartas francesas
son {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, J, QK}.
Se realiza el siguiente experimento:
Se extraen al azar del mazo dos cartas (conjuntamente).

Si ambas resultan numeros, se extrae al azar una bolilla de la primer


urna.

Si ambas resultan figuras, se extrae al azar una bolilla de la segunda


urna.

En los restantes casos se extrae al azar de la tercer urna.

a) Calcular la probabilidad de extraer una bolilla roja de la primer urna.

b) Calcular la probabilidad de extraer una bolilla azul.

c) Calcular la probabilidad de extraer una bolilla roja.

21. Lanzamos tres monedas regulares claramente diferenciadas.


Calcular la probabilidad de los siguientes eventos:
A=al menos dos son cara.
B=sale un numero par de caras.

Federico De Olivera Lamas


48 1. Espacios de Probabilidad

C=sale numero en la primer moneda.


Son A, B y C independientes?.

22. a) Se lanzan tres dados no cargados simultaneamente. Calcular la proba-


bilidad de obtener un 6, sabiendo que no hay dos resultados iguales.
Se lanza ahora un dado n veces, sucesiva e independientemente. Cal-
cular las probabilidades de los siguientes sucesos:

b) Obtener al menos dos 5, dado que ocurrio al menos un 5 en los n


lanzamientos.

c) obtener al menos dos 5, dado que ocurrio al menos un cinco en los


primeros m lanzamientos.

23. De un estudio clnico se han concluido los siguientes resultados: La proba-


bilidad de que una persona extrada al azar de la poblacion tenga cierta
afeccion cardiaca es 0,002; dado que padece esa afeccion, la probabilidad de
que fume es 0,40, y dado que no la padece, la probabilidad de que fume es
0,10. Cual es la probabilidad de que un fumador padezca la mencionada
afeccion cardiaca?.

24. Repetir el ejercicio anterior con los datos ligeramente modificados: La pro-
babilidad de que una persona extrada al azar de la poblacion tenga cierta
afeccion cardiaca es 0,002; la probabilidad de que fume es 0,10; la probabi-
lidad de que fume dado que padece la enfermedad es 0,40.

25. Una firma de contadores esta llevando a cabo una auditora sobre las practi-
cas contables de una empresa en la cual hay cuentas de clientes mayoristas
y cuentas de minoristas.
Se sabe que el 70 % de todas las cuentas son de mayoristas, y mas aun, se
sabe que el 10 % de las cuentas de mayoristas y el 20 % de las cuentas de
minoristas tienen algun tipo de error contable.

Federico De Olivera Lamas


1.6 Ejercicios 49

Si los auditores observan un error en una cuenta de clientes cual es la


probabilidad de que sea de mayorista?.

26. Para las elecciones de una cierta ciudad se han presentado dos candidatos
a la intendencia A y B. En toda la ciudad se establecieron unicamente tres
circuito de votacion y una vez hecho el escrutinio se obtuvo la siguiente
informacion:

En el circuito 1 voto el 30 % de los electores.

En el circuito 2 voto el 34 % de los electores.

El resto lo hizo en el circuito 3.

No se registraron votos anulados, observados ni en blanco.

En el circuito 1, B obtuvo 165 votos de un total de 300, mientras que en el


circuito 2, obtuvo 136. A obtuvo el 80 % de los votos del circuito 3.
Si entre el total de los electores se elige uno al azar y resulta ser votante de
A, Cual es la probabilidad de que haya votado en el circuito 2?.

27. A una moneda desconocida le atribuimos una probabilidad p1 de tener dos


caras distintas (cara, cruz). Se lanza la moneda n veces consecutivas y en
todas ellas sale cara. Cual es la probabilidad, despues de estos lances, de
que la moneda tenga dos caras distintas?.

28. Suponga que esta participando de un programa televisivo, donde, junto con
otras cuatro personas, deben elegir al azar una llave entre cinco, una de las
llaves abrira el cofre que esconde un premio importante.

Hay dos opciones para seleccionar la llave:

Opcion A, una persona extrae una llave, la prueba, y si no abre la


repone a la bolsa. Luego el siguiente participante procede igual hasta
que pasen los cinco.

Federico De Olivera Lamas


50 1. Espacios de Probabilidad

Opcion B, cada persona extrae una llave y luego que todos tienen una
llave, las prueban.

a) Si usted es la primer persona en elegir la llave, que opcion prefiere?.

b) Si usted es la tercer persona en elegir la llave, que opcion prefiere?.

c) Si usted es la ultima persona en elegir la llave, que opcion prefiere?.

d ) Que conclusion obtiene de la probabilidad de ganar con la reposicion


o sin reposicion?.

Justificar en base al suceso con mayor probabilidad de ganar.

29. a) Demostrar que si dos sucesos A y B son independientes y ambos tienen


probabilidad positiva, entonces no pueden ser incompatibles.

b) Demostrar que si A es un suceso arbitrario y B es un suceso tal que


P (B) = 0, entonces A y B son independientes.

c) Sean A y B dos sucesos independiente y tales que A B. Demostrar


que si P (A) 6= 0, entonces P (B) = 1.

30. Sean A, B y C tres sucesos independientes. Probar que:

a) A es independiente de (B C).

b) A es independiente de (B c C).

c) A es independiente de (B c C c ).

d ) A es independiente de (B C).

e) A es independiente de (B c C).

f ) A es independiente de (B c C c ).

Federico De Olivera Lamas


1.7 Anexo 51

1.7. Anexo

Demostracion de la propiedad 8 de la Proposicion 4

Sean A1 , A2 , . . . , An sucesos cualesquiera, entonces

n
! n
[ X X
P Ai = (1)k+1 P (Ai1 Ai2 Aik )
i=1 k=1 1i1 <i2 <<ik n

Demostracion: Demostremoslo por induccion completa. La igual-


dad es evidentemente valida para n = 1, donde tenemos
P1
(1)k+1 1 i1 1 P (Ai1 ). Tambien es valida pa-
P
P (A1 ) = k=1 | {z } | {z }
=1 i1 =1
prop 5.
ra n = 2 ya que: P (A1 A2 ) = P (A1 ) + P (A2 ) P (A1 A2 ) =
P2 k+1
P
k=1 (1) 1i1 <<ik 2 P (Ai1 Aik )

Supongamos que la igualdad es valida para n uniones y probemos que tambien


es valida para n + 1 uniones.

Nuestra hipotesis es P ( ni=1 Ai ) =


S Pn k+1
P
k=1 (1) 1i1 <i2 <<ik n P (Ai1

Ai2 Aik ). Luego

n+1
!
[ prop(5)
= P (( ni=1 Ai ) An+1 ) =
S
P Ai
i=1
hip
= P ( ni=1 Ai ) + P (An+1 ) P (( ni=1 Ai ) An+1 ) =
S S
Xn X
= (1)k+1 P (Ai1 Ai2 Aik )+
k=1 1i1 <i2 <<ik n

+ P (An+1 ) P (( ni=1 Ai ) An+1 )


S

Estudiemos ahora que sucede con los ultimos dos terminos:

Federico De Olivera Lamas


52 1. Espacios de Probabilidad

P (An+1 ) P (( ni=1 Ai ) An+1 ) = P (An+1 ) P ( ni=1 (Ai An+1 )) =


S S
Pn k+1
P

P (An+1 ) |{z} k=1 (1) 1i1 <<ik n P ((Ai1 An+1 ) (Aik An+1 )) =
| {z }
(1)1 (Ai1 Aik )An+1
Pn c.v. j=k+1
(1)k+2
P
k=0 1i1 <<ik n P ((Ai1 Aik ) An+1 ) =
| {z }
(1)1 (1)k+1
Pn+1 j+1
P
j=1 (1) 1i1 <<ij1 n P ((Ai1 Aij1 ) An+1 ) =

(1)n+2 P ((A1 An ) An+1 )+


+ nj=1 (1)j+1 1i1 <<ij1 n P ((Ai1 Aij1 ) An+1 )
P P

n
X X
n+2
(1) P (A1 An+1 ) + (1)k+1 P (Ai1 Aik1 Aik )
k=1 1i1 <<ik1 n
ik =n+1

Por lo tanto tenemos que

n+1
! n
[ X X
P Ai = (1)k+1 P (Ai1 Aik )
i=1 k=1 1i1 <<ik n
n
X X
+ (1)k+1 P (Ai1 Aik1 Aik )
k=1 1i1 <<ik1 n
ik =n+1

n+2
+ (1) P (A1 An+1 )

Observemos que en el primer termino, dejamos variar a los Aij entre 1 y n.


En el segundo termino, fijamos el ultimo en An+1 y dejamos variar a los otros
entre 1 y n. Ambos terminos implicaran dejar variar a todos los Aij entre 1 y
n + 1, es claro que varan con la restriccion impuesta por el orden.

Por lo tanto, la suma de los dos primeros terminos es:


Pn k+1
P
k=1 (1) 1i1 <<ik n+1 P (Ai1 Aik )

Al sumarle el tercer termino, obtenemos lo deseado, es decir:

Federico De Olivera Lamas


1.7 Anexo 53

n+1
! n+1
[ X X
P Ai = (1)k+1 P (Ai1 Aik )
i=1 k=1 1i1 <<ik n+1

Federico De Olivera Lamas


Captulo 2

Variables Aleatorias
56 2. Variables Aleatorias

2.1. Conceptos iniciales

Comencemos introduciendo el concepto a traves de un ejemplo. Se tira un dado


no cargado n veces, y se quiere hallar (bajo el espacio clasico de probabilidades) la
probabilidad de obtener exactamente k veces el seis (suceso A), donde 0 k n.

Luego de haber sobrevivido a los ejercicios de conteo, el estudiante puede sin


mayor dificultad calcular esta probabilidad.

Representando los n lugares disponibles, podemos pensar, en principio, que


los k seis, salen en los primeros k lanzamiento, es decir:

6 6 6 6=6 6=6 6=6



| {z
} | {z }
k lanzamientos nk lanzamientos

Para esta situacion, llamemosle suceso B, utilizando que hay independencia


en las tiradas, tenemos
 k  nk
o o o 1
o 1
P (B) = P (1 = 6) P (k = 6) P ((k + 1) 6= 6) P (n =
6 6) = 1
| {z }| {z } 6 6
k exitos nk fracasos

Por ultimo, nos sirve que en los primeros k lanzamientos obtengamos los 6s,
o tambien en los ultimos k o tambien en cualquier ubicacion en la que podamos
ubicar a los k 6s en los n lugares, en total Ckn posibilidades. Cada ubicacion
nos da lugar a un suceso disjunto de otro, pero igualmente tiene probabilidad
(1/6)k (1 1/6)nk , por lo tanto
 k  nk
1 1
P (A) = Ckn 1
6 6

Sobre el mismo esquema, supongamos que ahora queremos la probabilidad de


obtener exactamente k veces el 6 o 4, ahora nuestro exito tiene probabilidad
2/6 = 1/3 y por tanto nuestro fracaso tiene probabilidad 1 1/3. Manteniendo

Federico De Olivera Lamas


2.1 Conceptos iniciales 57

el mismo esquema, y suponiendo que los lanzamientos se hacen de forma inde-


pendiente, obtenemos que

 k  nk
1 1
P (obtener exactamente k veces, 4 o 6) = Ckn 1
3 3

Es mas, si nuestro suceso consta de obtener k exitos y n k fracasos, donde


los experimentos se hacen de forma independiente y la probabilidad de exito, en
cada experimento, es p (por tanto la de fracaso es 1 p = q), tenemos que

P (obtener exactamente k exitos) = Ckn pk (1 p)nk

Supongamos ahora que se tiene un grupo de 40 estudiantes del curso de Pro-


babilidad y Estadstica (que supondremos con comportamientos independientes)
donde se estima que la probabilidad que uno salve el examen en diciembre (pri-
mer perodo) es 0, 3. Supongamos que ha pasado tal perodo y no tenemos mas
informacion, cual es la probabilidad de que de los 10 estudiantes que se presen-
taron, exactamente la mitad hallan salvado el examen?. Aqu podramos intentar
hacer todo un nuevo desarrollo, pero... si observamos con detenimiento, no hay
mayor diferencia con el problema de los dados. Tenemos n = 10 realizaciones
independientes de un mismo experimento, elegir al azar un estudiante, y la pro-
babilidad de exito (salvar el examen) es 0, 3, igual para todos los estudiantes.
Por lo tanto, la probabilidad deseada es:


P (exactamente 5 estudiantes salvaron el examen) = C510 (0, 3)5 (1 0, 3)5 = 0, 154

En el ejemplo anterior se hicieron algunos supuestos:

a. Se repiten n experimentos independiente.

b. La probabilidad de exito en cada experimento es constante e igual a p.

Federico De Olivera Lamas


58 2. Variables Aleatorias

Bajo estas hipotesis, la probabilidad de tener exactamente k exitos


k = 0, . . . , n es Ckn pk (1 p)nk .

Una primera aproximacion al concepto de variable aleatoria puede ser for-


mulado a partir de esta idea, tratamos de construir modelos, de modo que al
verificarse ciertas hipotesis, tengamos el calculo de probabilidades ya resuelto.
Sin lugar a duda, el concepto de variable aleatoria es mucho mas profundo,
pero esta idea sirve al estudiante para ir incorporando el concepto.

Retomemos el ejemplo de la tirada del dado pero ahora en un caso mas sencillo,
el dado se tira 4 veces, de forma independiente y se quiere hallar la probabilidad
de obtener exactamente 2 veces el seis. La probabilidad de tal evento la podemos
calcular como antes, pero ahora nuestro estudio sera dirigido en otro sentido,
veamos primero quien es nuestro espacio muestral:

= {(x1 , x2 , x3 , x4 ) {1, 2, 3, 4, 5, 6}4 }

Es decir, x1 representa lo que sale en la primer tirada del dado, x2 en la segunda y


as sucesivamente. Por lo tanto, algunos elementos de son (1, 4, 5, 2) o (5, 2, 6, 6).

Podemos determinar una funcion que, para cada elemento de , nos de la


cantidad de seis, es decir

X : R tal que X() = cantidad de seis en 00

 
Por ejemplo X (1, 4, 5, 2) = 0, X (5, 2, 6, 6) = 2. De esta forma, nos
interesan todos los tal que X() = 2, es decir X 1 ({2}).

Recordemos que si tenemos una funcion f : A B, y un subconjunto del


codominio Y B, entonces

f 1 (Y ) = {x A : f (x) Y }

Federico De Olivera Lamas


2.1 Conceptos iniciales 59

Es comun que estudiantes principiantes se confundan con la funcion inversa, pero


aqu nada se habla de funcion inversa, de hecho, anotamos f 1 (Y ) para indicar
conjunto contra imagen de Y por la funcion f , de donde el sentido que le damos
aqu a f 1 es como una funcion aplicada a conjuntos

f 1 : P(B) P(A) tal que f 1 (Y ) = {x A : f (x) Y }

Algunas propiedades que el lector puede probar son:

1. f 1 (B) = A.

S+  S+ 1
2. f 1 (Y Z) = f 1 (Y ) f 1 (Z), en general f 1 n=1 Yn = n=1 f (Yn ).

3. f 1 (Y c ) = (f 1 (Y ))c .

4. Si Y Z f 1 (Y ) f 1 (Z).

5. f 1 (Y Z) = f 1 (Y ) f 1 (Z).

Sin duda que, pensando mas en general, debemos exigir que X 1 ({2}) sea
un suceso, para poderle calcular su probabilidad, dicha probabilidad es la pro-
babilidad de obtener exactamente 2 seis. De querer calcular la probabilidad de
obtener al menos un seis , podramos pensarlo como P (X 1 ({1, 2, 3, 4})), de don-
de X 1 ({1, 2, 3, 4}) tambien debera ser un suceso.

Mas en general X 1 (1, 3) debera ser un suceso y tambien X 1 (, 2]


 

el cual es el suceso vaco.

En nuestro ejemplo esto se verifica, pues la -algebra es P(), pero es una


propiedad que deseamos exigirle a la funcion X : R.

Notemos que el codominio de la funcion X es el conjunto de los numeros reales,


de donde X 1 (B) tiene algunos problemas si B es cualquier subconjunto de R
(recordar el Ejemplo 4, de la existencia de un subconjunto de R no medible), por

Federico De Olivera Lamas


60 2. Variables Aleatorias

lo tanto, deseamos exigirle a la funcion X que X 1 (B) sea un suceso, para todo
B Ba) , de donde llegamos a la siguiente definicion:

Definicion 12 (Variable Aleatoria)


Dado un espacio probabilizable (, A), una variable aleatoria es una funcion

X : R tal que X 1 (B) A para todo B B

Observacion: Si la -algebra es A = P(), entonces toda funcion X : R


es una variable aleatoria ya que X 1 (B) P() para todo B.

Ejemplo 22
1. Si tiramos un dado no cargado n veces y definimos la funcion X : R
tal que X() =cantidad de seis obtenidos, trabajando sobre el espacio
clasico, X es una variable aleatoria por ser A = P().

2. Supongamos ahora que = {a, b} y A = {, }, como ya vimos A es una


-algebra, definamos X : R tal que X(a) = 1 yX(b) = 2, luego {1} es
un boreliano, pero sin embargo X 1 ({1}) = {a} 6 A y por lo tanto X no
es una variable aleatoria sobre el espacio (, A).

En el practico se veran funciones X : R que no son variables aleatorias,


donde A no es la -algebra trivial.

Veamos ahora una interesante proposicion, que en algun sentido, a traves de


una variable aleatoria, nos transforma un espacio de probabilidades cualquiera,
en un espacio de probabilidades donde el espacio de resultados posibles es R y la
-algebra es B.
a)
La -algebra de Borel en R

Federico De Olivera Lamas


2.1 Conceptos iniciales 61

Proposicion 11
Dado un espacio de probabilidades (, A, P ) y una variable aleatoria X, entonces

(R, B, PX ) es un espacio de probabilidades

donde PX (B) = P X 1 (B) para todo B B.




Demostracion: Ya hemos probado que B, es una -algebra sobre de subcon-


juntos de R. Por lo tanto, debemos probar que PX es una probabilidad sobre el
espacio probabilizable (R, B).

i. PX (B) = P (X 1 (B)) 0 por ser P una probabilidad sobre (, A).


| {z }
A

ii. P (R) = P (X 1 (R)) = P () = 1.


| {z }

iii. Sean B1 , . . . , Bn , . . . B disjuntos, entonces


+
! +
!! +
!
[ [ (1) [ (2)
Bn = P X 1 X 1 (Bn ) =

PX Bn =P
n=1 n=1 n=1
+
X +
1
 X
= P X (Bn ) = PX (Bn )
n=1 n=1

En (1) se uso que la contra imagen de la union es la union de las contra


imagenes y en (2) se uso que si Bi es disjunto de Bj entonces X 1 (Bi ) es disjunto
de X 1 (Bj ) pues de lo contrario, de existir X 1 (Bi ) X 1 (Bj ) entonces
X() Bi y X() Bj , siendo X funcion X() es unico y por lo tanto tenemos
que X() Bi Bj de donde Bi y Bj no son disjuntos (absurdo). 

Observacion: A partir de esta proposicion, si tenemos una variable aleatoria,


podemos siempre trabajar sobre este nuevo espacio de probabilidades. Observe-
mos que las probabilidades en este nuevo espacio siguen siendo definidas a traves
de las probabilidades originales.

Federico De Olivera Lamas


62 2. Variables Aleatorias

Notacion: Dado un espacio de probabilidad (, A, P ) y una variable aleatoria


X : R, tenemos que P X 1 (B) = P { : X() B} para todo B B,
 

por tanto se suele anotar a tal probabilidad simplemente como P (X B).

nt
Siendo B = {x} P ({ : X() = x}) = P (X = x)
nt
Siendo B = (a, b] P ({ : X() (a, b]}) = P (a < X b)
nt
Siendo B = (, b] P ({ : X() (, b]}) = P (X b)
Analogamente para cualquier intervalo. El estudiante nunca debe olvidar que
P (X = x) es simplemente una notacion, pues formalmente solo podemos calcular
probabilidades a los sucesos y X = x no es un suceso. Es una notacion para
simplificar la escritura pero no tiene nada conceptual nuevo.

2.2. Funcion de distribucion

Dado un espacio de probabilidades (, A, P ) y una variable aleatoria X, te-


nemos que para todo x R los intervalos (, x] son borelianos y por tanto
X 1 (, x] A, de aqu que para todo real x esta definida la probabilidad


P (X x), recordemos que P (X x) = P ({ : X() x}). Lo que nos hace


valida la siguiente definicion.

Definicion 13 (Funcion de distribucion)


Dado un espacio de probabilidades (, A, P ) y una variable aleatoria X, llamamos
Funcion de distribucion de la variable aleatoria X a la funcion:

FX : R R tal que FX (x) = P (X x)

Uno podra preguntarse por que no mejor definir a la funcion de modo que
F (x) = P (X = x), lamentablemente no es propicio ya que puede ocurrir que
P (X = x) = 0 para todo x R, por ejemplo si elegimos al azar un punto del

Federico De Olivera Lamas


2.2 Funcion de distribucion 63

intervalo [0, 1], y nuestra variable aleatoria es X : [0, 1] R tal que X(x) = x
entonces por ser {x} un conjunto numerable P (X = x) = 0 como vimos en el
primer captulo (trabajamos en el espacio ([0, 1], B[0,1] , P ) donde P (A) = m(A)).

A la funcion de distribucion se le suele llamar funcion de distribucion


acumulada en virtud de que va acumulando las probabilidades a medida que x
crece.

Ejemplo 23
Si tiramos un dado no cargado 4 veces y definimos como antes X : R tal que
k 4k
X() =cantidad de seis obtenidos, entonces P (X = k) = Ck4 61 1 61
donde k = 0, . . . , 4

Por lo tanto, la funcion de distribucion de la v.a. es FX : R R tal que




0 si x < 0


P (X = 0) si 0 x < 1






si 1 x < 2

P (X = 0) + P (X = 1)
FX (x) =


P (X = 0) + P (X = 1) + P (X = 2) si 2 x < 3


si 3 x < 4



P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3)


si x 4

1

Como dijimos antes, puede observarse que FX va acumulando probabilidades.

Es interesante observar que FX esta entre cero y uno, es no decreciente,


lmx FX (x) = 0 y lmx+ FX (x) = 1, es continua por derecha, es decir
lmxa+ FX (x) = FX (a) entre otras propiedades. Las propiedades que acabamos
de nombrar son propiedades de cualquier funcion de distribucion.

Federico De Olivera Lamas


64 2. Variables Aleatorias

Figura 2.1: Funcion de distribucion del Ejemplo 23

Proposicion 12 (Propiedades de la Funcion de distribucion)


Dado un espacio de probabilidades (, A, P ) y una variable aleatoria X, la funcion
de distribucion de X, F , posee las siguientes propiedades:

i. F (x) [0, 1] para todo x R.

ii. Si a < b entonces P (a < X b) = F (b) F (a).

iii. F es no decreciente.

iv. lmx F (x) = 0 y lmx+ F (x) = 1.

v. F es continua por derecha.

Demostracion: i. Siendo F (x) una probabilidad, F (x) [0, 1] para todo


x R.

ii. Notemos que (, a](a, b] = (, b] y ademas (, a](a, b] = , luego


X 1 (, a] X 1 (a, b] = y por lo tanto
 

F (b) = P (X b) = P (X 1 (, b] ) = P (X 1 (, a] (a, b] )
 

= P (X 1 (, a] X 1 (a, b] ) = P (X 1 (, a] ) + P (X 1 (a, b] )
   

= P (X a) + P (a < X b) = F (a) + P (a < X b)

Federico De Olivera Lamas


2.2 Funcion de distribucion 65

Despejando obtenemos P (a < X b) = F (b) F (a).

iii. Sea a < b, entonces F (b) F (a) = P (a < X b) 0, luego F (a) < F (b)
y por lo tanto F es no decreciente.

iv. Comencemos tratando de reescribir , sabemos que = X 1 (R) y


R = +
S
n=0 (, n] donde los conjuntos son crecientes. Luego

= X 1 +
S  S+ 1
n=0 (, n] = n=0 X (, n] nuevamente es una sucesion
creciente pero ahora de sucesos, por tanto

=

z }| {
+
[ 1 cont.de
1=P X (, n] = lm P (X 1 (, n]) = lm F (n)
n=0 | {z } la prob. n+ n+
%

Siendo F una funcion monotona, el teorema de pasaje nos afirma que


lm F (x) = 1.
x+

Analogamente probemos que lm F (x) = 0.


x


=
z }| {
+
\ 1 cont.de
0=P X (, n] = lm P (X 1 (, n]) = lm F (n)
la prob. n+ n+
| {z }
n=0
&

Nuevamente, por ser F monotona, el teorema de pasaje nos afirma que


lm F (x) = 0.
x

v. Sea a R, consideremos una sucesion (xn ) decreciente tal que xn a,

=X 1 (,a]
z }| { F (xn )
+ z }| {
\  cont.de
F (a) = P X 1 (, a] = P X 1 (, xn ] = lm P (X 1 (, xn ])

| {z } la prob. n+
n=0
&(,a]

Federico De Olivera Lamas


66 2. Variables Aleatorias

Figura 2.2: Funcion de distribucion Normal estandar y su integrando.

Por lo tanto, lmn+ F (xn ) = F (a) cuando xn & a, siendo F monotona,


por el teorema de pasaje tenemos que lmxa+ F (x) = F (a) y F es continua
por derecha.

Observacion: Es importante mencionar que toda funcion que satisfaga las


propiedades: iii. no decreciente, iv. continua por derecha y v. lmx F (x) = 0
y lmx+ F (x) = 1, es la funcion de distribucion de alguna variable aleatoria.
La prueba de este resultado implica conocimientos del Analisis Real, entre ellos
el Teorema de extension de Caratheodory, sin lugar a duda que omitiremos la
prueba.

Como vimos en los ejemplos al comenzar el captulo, distintas variables aleato-


rias pueden tener la misma distribucion, basta que las probabilidades P (X x)
y P (Y x) sean iguales para todo x R.

Ejemplo 24 Z x
1 t2
Consideremos la funcion F : R R tal que F (x) = e 2 dt
2
2
x2
Luego, F 0 (x) = 1
2
e > 0 x R y por tanto F es no decre-
ciente. Del Teorema fundamental del calculo integral F es continua y ademas

Federico De Olivera Lamas


2.2 Funcion de distribucion 67

lmx F (x) = 0 y lmx+ F (x) = 1, este ultimo resultado podra ser demos-
trado con integrales multiples en Analisis II.

Segun las consideraciones hechas arriba, F es una funcion de distribucion, a


la que llamaremos Normal estandar. /

Observacion: Siendo F una funcion monotona, del curso de Analisis I sabe-


mos que no admite discontinuidades de segunda especie, por lo tanto, de tener
discontinuidades solo pueden ser saltos. Tambien de la monotona, sabemos que
admite a lo suma una cantidad numerable de discontinuidades.

De ahora en mas omitiremos declarar que se trabaja sobre un espacio de


probabilidad dado, el lector nunca debe olvidar que es necesario tener un espacio
de probabilidad al momento de definir una variable aleatoria y su funcion de
distribucion.

Proposicion 13
Sea F la funcion de distribucion de la v.a. X, entonces

F es continua en a P (X = a) = 0

Demostracion: Sabemos que F es continua por derecha, indaguemos lo que


nt
sucede con el lmite por izquierda. Anotaremos lmxa F (x) = F (a ), por ser F
monotona, F (a ) = lmn+ F (a 1/n).
&{:X()=a}

+
\z }| { cont.de
P (X = a) = P ({ : X() = a}) = P { : a 1/n < X() a} =
la prob.
n=1

lm P (a 1/n < X a) = lm F (a) F (a 1/n) = F (a) F (a)


n+ n+

Por lo tanto P (X = a) = 0 F (a) = F (a ) F es continua en a. 

Observacion: La funcion de distribucion de una variable aleatoria es continua


si y solo si, la probabilidad que toma la variable aleatoria en cada punto real es

Federico De Olivera Lamas


68 2. Variables Aleatorias

cero.

Por otro lado, siendo F monotona, el conjunto D de los puntos de disconti-


nuidad de F es numerable, de donde el conjunto RX = {x R : P (X = x) > 0}
es numerable por ser un subconjunto de D, RX es llamado el rango de X.
S
Si el recorrido de X es numerable, digamos X() = n {xn }, entonces

union num
[ X
1 = P () = P ( { : X() = xn }) = P (X = xn )
de disjuntos
n n

por lo tanto existe k tal que P (X = xk ) > 0 (de lo contrario sera


P
n P (X = xn ) = 0) y de aqu que F no es continua.

En el caso particular de que el espacio muestral , sea numerable, sabemos


que el recorrido de X tambien es numerable y de ah que F no es continua.

2.3. Tipos de Variables Aleatorias

En este seccion indagaremos sobre los tipos de variables aleatorias que pode-
mos encontrar. Si bien hay una gran cantidad de variables aleatorias con compor-
tamientos distintos, basicamente podemos extraer tres tipos esenciales, los cuales
dan lugar a cualquier tipo de variable aleatoria. Dichos tipos de variables seran:
las variables aleatorias discretas, las variables aleatorias absolutamente continuas
y las variables aleatorias singulares. En nuestro curso estudiaremos con profun-
didad los dos primeros casos y simplemente daremos un ejemplo del tercero,
mostraremos tambien como cualquier distribucion se puede expresar a traves de
estos tres componentes.

Antes de dar una definicion de variable aleatoria discreta, comencemos hacien-


do algunas observaciones que nos ayuden a entender el por que de la definicion
que tomaremos.

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 69

Que idea intuitiva le da el nombre de variable aleatoria discreta?.

Una primer respuesta seguramente sea que solo tome valores en un conjunto
discreto, es decir, que su recorrido sea un conjunto discreto. Esta idea es valida,
pero la complementaremos un poco para no dejar de lado algunos otros casos
similares. Por ejemplo, si la variable tiene como recorrido al conjunto de los
racionales, entonces el recorrido no es numerable y por ende no entrara dentro
de esta clasificacion, sin embargo, al tomar una cantidad numerable de valores
podemos tratarla de igual forma que si tomara valores solo en los naturales.

A partir de esta idea ya vemos que la definicion de v.a. discreta podra ser.
el recorrido es numerable. Sin embargo hay otro punto a aclarar.

Supongamos por ejemplo que definimos el espacio probabilizable (R, B),


aca = R, y definimos X : R R tal que X() = . Aqu claramente,
segun la segunda idea de v.a. discreta, X no es discreta ya que su recorrido es el
conjunto no numerable de los numeros reales.

Digamos ahora que P (X = 0) = P (X = 1) = 1/2 y P (X = ) = 0 para


R {0, 1}. Si bien dijimos que X no era discreta, tenemos que en realidad
solo toma dos valores los cuales acumulan toda la probabilidad, Si definieramos
Y : R {0, 1} con P (Y = 0) = P (Y = 1) = 1/2, entonces Y s sera discreta
y ademas todas las probabilidades que tratemos de calcular sobre X y sobre Y
coinciden.

El argumento anterior nos muestra que el concepto de v.a. discreta tiene que
tener en cuenta a la probabilidad. Una posibiliad sera, X es discreta si existe
un conjunto numerable B tal que P (X B) = 1. Esta definicion contempla las
dos observaciones anteriores, sin embargo, tal vez sea conveniente expresarlo en
terminos de la funcion de distribucion.

Observemos que, cosa que el lector debera probar, existe un conjunto B nu-

Federico De Olivera Lamas


70 2. Variables Aleatorias

merable tal que P (X B) = 1 si y solo si la funcion de distribucion de X tiene


recorrido numerable. Como detalle, notemos que el conjunto de los saltos de FX
es precisamente un candidato a B.

Definicion 14 (Variable aleatoria Discreta)


Diremos que una variable aleatoria X es discreta si el recorrido de su funcion de
distribucion FX es numerable.

Ejercicio 4
Probar que X es una v.a. discreta segun la definicion 14, si y solo si existe un
conjunto numerable B tal que P (X B) = 1.

Ejercicio 5
Probar que si X tiene recorrido numerable entonces es discreta.

Si recordamos las observaciones a la Proposicion 13, tenemos que siendo X


discreta, el recorrido de FX es numerable y por tanto existen xn R tal que
S P
P (X = xn ) > 0, ademas 1 = P () = P ( n {X = xn }) = n P (X = xn ), lo que
da lugar a la siguiente definicion.

Definicion 15 (funcion de cuanta)


Dada una variable aleatoria discreta, llamamos funcion de cuanta de X a la
funcion pX : R R tal que

P (X = x) si x Rec(X)
pX (x) =
0 si x 6 Rec(X)

Observacion: En muchas ocasiones nos sera conveniente trabajar


con RX = {x R : P (X = x) > 0}, en lugar de Rec(X), observemos que
RX Rec(X) y evitamos considerar puntos del recorrido que tengan probabi-

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 71

lidad nula.

Ejemplo 25
Se repite independientemente un experimento, n veces y con una misma pro-
babilidad de exito p. Entonces la variable aleatoria X : R tal que
X() =cantidad de exitos obtenidos en es una variable aleatoria cuyo reco-
rrido es Rec(X) = {0, 1, 2, . . . , n}, finito y por tanto numerable. De aqu que su
funcion de cuanta es p : R R tal que

C n pk (1 p)nk si k {0, 1, 2, . . . , n}
k
p(k) =
0 en otro caso

como ya probamos al comienzo del captulo.

Podemos ver aqu que su funcion de distribucion F : R R tal que F (x) =


P (X x) puede ser expresada mediante las probabilidades puntuales, en efecto

F (x) = P (X x) = P ({ : X() x}) =



[x] [x] [x]
disjuntos
[ X X
= P { : X() = k} = P (X = k) = pX (k)
k=0 k=0 k=0

donde [x] es la parte entera de x, el menor entero mas cercano a x. /

El resultado mostrado en el ejemplo anterior es generalizado para cualquier


variable aleatoria discreta.

Proposicion 14
Sea X una variable aleatoria discreta, con recorrido Rec(X) = k {xk } y cuanta
pX : R R entonces, su funcion de distribucion F : R R es tal que

X
F (x) = pX (xk )
k:xk x

Federico De Olivera Lamas


72 2. Variables Aleatorias

Demostracion:

F (x) = P (X x) = P ({ : X() x}) =


!
disjuntos
[ X X
= P { : X() = xk } = P (X = xk ) = pX (xk )
k:xk x k:xk x k:xk x

De esta proposicion y recordando que P (X = a) = F (a) F (a ), siendo X


una v.a. discreta, tenemos que a partir de la funcion de distribucion obtenemos
la funcion de cuanta y viceversa.

Observemos tambien, que si X es una v.a. discreta, entonces su funcion de


distribucion F es una funcion en escalera, es decir, admite saltos pero en los
tramos donde es continua, F es constante.

Antes de ver mas ejemplos de variables aleatorias discretas, veamos la defini-


cion de los otros tipos de variables aleatorias.

Teniendo presente lo desarrollado para variables aleatorias discretas, su fun-


cion de distribucion puede expresarse como una suma (o serie), la idea ahora es
ver parte de los que nos falta, por ejemplo cuando la distribucion no se pueda
expresar como serie y necesitemos del pasaje a la integral.

Definicion 16 (Variable aleatoria Absolutamente continua y densidad)


Una variable aleatoria X se dice absolutamente continua si existe una funcion
f : R R no negativa tal que
Z x
F (x) = f (t) dt

A la funcion f en tal caso la llamamos densidad de la v.a. X.

Observacion:

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 73

una variable aleatoria es absolutamente continua si su funcion de distribu-


cion en x es la integral, desde menos infinito a x, de una funcion no negativa.
Recordemos del curso de Analisis I, que f no tiene por que ser continua,
Rx
es mas, de existir f no negativa tal que F (x) = f (t) dt, podemos cam-
biarle a f una cantidad numerable de sus valores funcionales (o mas aun,
con medida de Lebesgue nula), obteniendo as f y seguimos teniendo que
Rx
F (x) = f (t) dt, por lo tanto, de existir una tal funcion f , no es unica.

A los efectos practicos, dada una variable aleatoria absolutamente continua,


consideraremos a su funcion de densidad como aquella que no posee discon-
tinuidades evitables, es decir, si lmxa f (x) = L entonces consideraremos
f (a) = L.

A partir de esta convencion, llamaremos soporteb) de una variable absolu-


tamente continua al clausura del conjunto {x R : f (x) > 0}, es decir:

S(X) = {x R : f (x) > 0}

Ejemplo 26
1. Se elige al azar un punto del intervalo [0, 1], definimos X : [0, 1] R tal
que X() = . Es inmediato verificar que X es una variable aleatoria sobre
el espacio ([0, 1], B[0,1] ). Luego, siendo P (A) = m(A) A B[0,1] , tenemos
que:

i. Si x < 0 entonces P (X x) = P ({ : X() x}) = 0


| {z }

ii. Si 0 x 1 entonces P (X x) = P ({ : X() x}) = m([0, x]) = x


| {z }
[0,x]

iii. Si x > 1 entonces P (X x) = P ({ : X() x}) = 1


| {z }

b)
En realidad esta es una version simplificada de lo que en analisis se llama soporte, sin
embargo, a los efectos de nuestro curso bastara con esta idea.

Federico De Olivera Lamas


74 2. Variables Aleatorias

Figura 2.3: Funcion de distribucion de una variable aleatoria uniforme en [0, 1]

Por lo tanto, la funcion de distribucion de X es tal que





0 si x < 0

F (x) = x si 0 x 1



1 si x > 1

Diremos que una variable aleatoria con esta funcion de distribucion es una
variable aleatoria uniforme en el intervalo [0, 1], su grafico puede observarse
en la Figura 2.3.

Notemos que F es derivable en cadareal salvo en cero y uno, por tanto,


0 si x 0 o x 1
definiendo f : R R tal que f (x) = , tenemos que
1 si x (0, 1)
Rx
f (x) 0 x R y F (x) = f (t) dt, de donde f es una densidad de X.
Aqu el soporte de X es [0, 1].

Rx t 2
2. Como vimos en el Ejemplo 24, F : R R tal que F (x) = 1 e 2 dt es
2
2
1 e t2
una funcion de distribucion. Siendo f : R R tal que 2
no negativa,
entonces X es una variable aleatoria absolutamente continua cuya funcion
de densidad es f y su soporte es {x R : f (x) > 0} = R.

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 75

Observacion: una funcion f : R R, integrable, tal que f (x) 0, es una


R +
funcion de densidad si y solo si f (t) dt = 1 ya que en este caso F : R R
Rx
tal que F (x) = f (t) dt es no decreciente, continua, lmx F (x) = 0 y
lmx+ F (x) = 1 y por tanto es una funcion de distribucion.

Notemos que en los puntos a donde f es continua, por el Teorema fundamen-


tal del calculo integral, F es derivable y F 0 (a) = f (a). Por tanto, F tiene una
densidad f , si F es continua y derivable por tramos, es decir, F es derivable en
el interior de una cantidad numerable de intervalos In donde +
S
n=1 In = R.

A partir de la Funcion de distribucion de una variable aleatoria absolutamente


continua, definiendo f : R R tal que

F 0 (x) si F es derivable en x
f (x) =
0 si F no es derivable en x

tenemos que f es una funcion de densidad de la variable aleatoria.

Pero a no confundirse, si tomamos una funcion de distribucion cualquiera y


definimos f como antes, no necesariamente tendremos que f es una densidad,
por ejemplo podramos obtener que f (x) = 0 para todo x R y por ende no
integrara 1. En el ejemplo 28 mostraremos que F puede ser incluso continua y
derivable en casi todo punto, sin embargo no tiene densidad.

Es comun por parte de los estudiantes cuestionarse el nombre de absoluta-


mente continua y no simplemente continua, la respuesta esta muy ligada a temas
del Analisis Real, pero tratemos de dar una aclaracion.

En el contexto de la derivada de Radon-Nikodym, una funcion F : R R


es absolutamente continua, si dado > 0, existe > 0 tal que para toda
P+
sucesion de intervalos (an , bn ) en el dominio, si n=1 (bn an ) < entonces:
P+
n=1 |F (bn ) F (an )| <

Una funcion de clase C 1 es absolutamente continua (basta con aplicar el Teore-

Federico De Olivera Lamas


76 2. Variables Aleatorias

ma de Lagrange), sin embargo, hay funciones continuas que no son absolutamente


continuas como por ejemplo la funcion de Cantor que mostraremos en el ejemplo
28.

El resultado que le da nombre a las variables absolutamente continuas es el


siguiente:

Una funcion de distribucion F admite derivada de Radon-Nikodym f si y


solo si F es absolutamente continua, la derivada de Radon-Nikodym es nuestra
dF
funcion de densidad (f = dm ), donde la integral es con respecto a la medida
R
de Lebesgue F (x) = (,x] f dm, en el caso que f sea Riemann integrable, la
integral de Riemann coincide con la de Lebesgue y de ah la existencia de nuestra
densidad.

En resumen, se necesita la absoluta continuidad de la Funcion de distribucion


para asegurar la existencia de la densidad y por ello el nombre de este tipo de
variables aleatorias.

Es muy sencillo construir una funcion de distribucion de una variable aleatoria


que no sea discreta ni absolutamente continua. En efecto, basta que tenga algun
tramo creciente continuo y alguna discontinuidad para que no sea ni discreta
ni absolutamente continua. Este tipo de variable aleatoria es al que llamaremos
mixta.


Ejemplo 27 (v.a. mixta)

0 si x < 0

Consideremos la funcion F : R R tal que F (x) = x si 0 x < 1/2


si x 1/2

1

Es inmediato observar que F es una funcion de distribucion ya que es no


decreciente, continua por derecha y lmx F (x) = 0 y lmx+ F (x) = 1.
Es mas, F es la funcion de distribucion de X determinada como sigue. Se elige
aleatoriamente un punto del intervalo [0, 1] y definimos X : [0, 1] R tal que

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 77

Figura 2.4: Funcion de distribucion de una v.a. mixta


si [0, 1/2)
X() = .
1/2 si [1/2, 1]

El lector podra verificar que F es la funcion de distribucion de X, donde


ademas P (X = 1/2) = 1/2 y de aqu que X no puede ser absolutamente continua,
por otro lado, como Rec(X) = [0, 1/2] es no numerable, X no puede ser discreta
ver figura2.4. Observemos que aqu X es una mixtura entre lo que podra ser
una variable absolutamente continua y una discreta, a continuacion veremos que
tambien existen otros tipos de variables aleatorias, las cuales no son una tal
mixtura. /

Ejemplo 28 (Funcion de Cantor)


Definamos F : R R tal que F (x) = 0 si x < 0, F (x) = 1 si x > 1 y en [0, 1]
hagamos la siguiente construccion.

Etapa 1 Dividamos el intervalo [0, 1] en tres partes iguales y definamos F (x) = 1/2
si x (1/3, 2/3). Notemos que 1/2 es el promedio de los valores que toma
F en los intervalos vecinos donde ya esta definida.

Etapa 2 Dividamos el intervalo [0, 1/3] en tres partes iguales y definamos F (x) = 1/4
si x (1/9, 2/9). Notemos que 1/4 nuevamente es el promedio de los valores

Federico De Olivera Lamas


78 2. Variables Aleatorias

Figura 2.5: Funcion de Cantor en la etapa 3

que toma F en los intervalos vecinos donde ya esta definida.

Dividamos el intervalo [2/3, 1] en tres partes iguales y definamos y F (x) =


3/4 si x (7/9, 8/9) nuevamente es el promedio de los valores que toma F
en en los intervalos vecinos donde ya esta definida.

Observemos que tenemos en la etapa 2, 221 intervalos que son tercios


medios donde definimos F . Analogamente en la etapa 3, tenemos 231 in-
tervalos que son tercios medios donde definimos F .

Etapa n + 1 En el tercio medio de cada uno de los 2n intervalos de la etapa n, definimos


F como el promedio de los valores que toma F en los intervalos vecinos
donde ya esta definida.

Inductivamente tenemos definida F en una cantidad numerable de intervalos


abiertos (el conjunto C, donde F no esta definida, se llama conjunto de Cantor el
cual tiene medida de Lebesgue nula, cosa que el lector puede probar). Podemos
definir a F en C de modo que sea continua. En efecto, en la etapa n, la diferencia
entre los valores de F en intervalos vecinos (donde ya este definida F ) es 1/2n (ver
figura 2.5) y por lo tanto tal diferencia tiende a cero, pudiendo definir para cada
x C a F (x) como el lmite de F (xn ), xn definida con puntos en los intervalos
de las distintas etapas tal que xn x.

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 79

Luego, F es no decreciente, continua, lmx F (x) = 0 y lmx+ F (x) = 1


por definicion y por lo tanto se trata de una funcion de distribucion.

Sea ahora X una variable aleatoria con funcion de distribucion F . Luego,


X no es discreta por ser F continua (P (X = x) = 0 x R). Tampoco es X
absolutamente continua. Observemos que F es constante en cada intervalo donde
fue definida en la construccion (C c ) y por tanto F 0 (x) = 0 x C c , siendo C un
conjunto con medida de Lebesgue nula, en la integral de Riemann, lo que suceda
con F 0 en C, no agrega ningun valor y por tanto
Z x
F 0 (x) dx = 0 x R
| {z }
=0

De aqu que F no es la integral de su derivada y por tanto X no es absolutamente


continua. /

Definicion 17 (Variable aleatoria Singular)


Decimos que una variable aleatoria es singular si su funcion de distribucion F
es continua pero F 0 (x) = 0 salvo en un conjunto con medida de Lebesgue nula
(F 0 (x) = 0 en casi todo punto).

Es interesante observar que una variable aleatoria X sera singular si y solo si


existe un conjunto B con medida nula tal que P (X B) = 1 y F es continua. El
hecho de ser el conjunto B con medida nula es lo que asegura que F sea constante
fuera de B y por tanto F 0 (x) = 0 fuera de B.

El estudiante no debe alarmarse, nuestro curso va dirigido a trabajar con va-


riables aleatorias discretas, absolutamente continuas y mixtas. Lo que se pretende
es que el estudiante no ignore los distintos tipos posibles de variables aleatorias.

Para cerrar este introduccion sobre los distintos tipos de variables aleatorias
mostremos que toda variable aleatoria es una mezcla de los tres tipos vistos:
discreta, absolutamente continua y singular.

Federico De Olivera Lamas


80 2. Variables Aleatorias

Descomposicion de cualquier v.a.

Sea X una variable aleatoria cualquiera con funcion de distribucion F . Por ser
F monotona solo admite discontinuidades de primera especie (saltos), los cuales
son numerables como vimos en el curso de Analisis I, sea J = {x1 , x2 , . . . , xn , . . .}
el conjunto de los puntos donde se obtienen tales saltos (si F es continua J = ),
sea pi = P (X = xi ) para todo xi J, recordemos que pi = F (xi ) F (x
i ).
X
Definamos Fd : R R tal que Fd (x) = pi , la parte discreta de F .
i:xi x

Una funcion monotona


acotada posee derivada en casi todo punto, sea f :
F 0 (x) si F es derivable en x
R R tal que f (x) = , f (x) 0 por ser F
0 si F no es derivable en x
no decreciente.
Z x
Definimos Fac : R R tal que Fac (x) = f (t) dt, la parte absolutamente

continua de F .

Notemos aqu que tanto Fd como Fac son no decrecientes.

Definamos ahora Fs : R R tal que Fs (x) = F (x) Fd (x) Fac (x), la parte
singular.

Fs es continua, en efecto, Fac es continua por el teorema fundamental y F Fd


es continua porque Fd le quita todos los saltos a F , de donde Fs es la resta de dos
funciones continuas. Ademas, la derivada de Fs es cero en casi todo punto porque
F y Fac tienen la misma derivada f y Fd tiene derivada nula en todo punto donde
es derivable. Puede probarse, no lo haremos, que Fs es no decreciente.

De lo anterior concluimos que F = Fd + Fac + Fs , es decir, la funcion de


distribucion de cualquier variable aleatoria puede descomponerse en su parte
discreta, su parte absolutamente continua y su parte singular.

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 81

Con esto cerramos nuestra introduccion a los distintos tipos de variables alea-
torias, para asentar las ideas, mostremos ahora algunos ejemplos de variables
aleatorias discretas y absolutamente continuas.

2.3.1. Algunos modelos de variables aleatorias discretas

En muchas oportunidades utilizaremos una notacion que es conveniente re-


cordar, la funcion indicatriz :

1 si x A
IA (x) =
0 si x 6 A

En particular, si X es una v.a. y B un boreliano, anotamos



1 si X() B
IB (X()) =
0 si X() 6 B

por ejemplo I{Xa} es uno si la variable aleatoria X toma un valor menor o igual
que a y cero en otro caso.

Una primera variable aleatoria que tenemos que mostrar es la v.a. degenerada:

Ejemplo 29 (v.a. degenerada)


Dado un espacio de probabilidad (, A, P ) una v.a. degenerada es una v.a. tal
que acumula toda la probabilidad en un unico real, es decir, existe a R tal que
P (X = a) = 1.

Aqu la funcion de distribucion es simplemente F : R R tal que


F (x) = I{xa} (x) es decir,

0 si x < a
F (x) =
1 si x a

Federico De Olivera Lamas


82 2. Variables Aleatorias

Si bien se trata de una variable aleatoria muy simple, nos sera muy util en
variadas oportunidades. Antes de pasarnos al estudio de variables asociadas a
experimentos repetidos veamos una variable aleatoria que refleja nuestra indife-
rencia.

Ejemplo 30 (v.a. uniforme discreta en A)


Sea A un conjunto finito de reales, digamos A = {x1 , x2 , . . . , xn }. Decimos que la
variable aleatoria X tiene distribucion uniforme en A si P (X = xk ) = 1/n donde
k = 1, 2, . . . , n.

En este caso, la uniformidad es interpretada como indiferencia entre los dis-


tintos valores que puede tomar la variable aleatoria.
X 1
La funcion de distribucion de X es F : R R tal que F (x) = y
k:x x
n
k
anotamos X U {x1 , . . . , xn }.

Para el caso A = {1, 2, 3, 4, 5, 6}, el grafico de F es:

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 83

Este caso particular A = {1, 2, 3, 4, 5, 6} es por ejemplo si tiramos un dado no


cargado y observamos la cantidad de puntos en la cara superior, aqu X : R
tal que X() = tiene distribucion uniforme en A = {1, 2, 3, 4, 5, 6}.

Ejemplo 31 (v.a Bernoulli de parametro p)


Dada un espacio de probabilidad (, A, P ) una decimos que una variable aleatoria
X tiene distribucion de Bernoulli con parametro p, lo que anotamos X Ber(p),
si su funcion de distribucion es F : R R tal que



0 si x < 0

F (x) = 1 p si 0 x < 1


1 si 1 x

Notemos que de aqu se extrae que P (X = 0) = F (0) F (0 ) = 1 p, el sal-

Federico De Olivera Lamas


84 2. Variables Aleatorias

to en cero y P (X = 1) = F (1) F (1 ) = p, ademas P (X = x) = 0 para cual-


quier valor de x que no sea cero o uno.

La utilidad de esta variable aleatoria es la siguiente, cuando tenemos un expe-


rimento sobre el cual solo nos interesan dos posibilidades, exito y fracaso, digamos
A es el suceso formado por los exitos y por ende Ac el formado por los fracasos,
podemos definir X() = IA (), siendo p la probabilidad de exito, tenemos que
1 p es la probabilidad de fracaso. El lector podra verificar inmediatamente que
la funcion de distribucion de esta variable aleatoria es precisamente F . /

En los siguientes ejemplos consideraremos v.a. asociadas a experimentos re-


petidos, considerando identicas y no identicas condiciones al repetir los experi-
mentos.

Una primer variable aleatoria es la asociada al problema trabajado al co-


mienzo del captulo, recordemos, se repiten n veces un mismo experimento, de
forma independiente, con una probabilidad de exito constante a lo largo de los
ensayos. Aqu tenamos que la probabilidad de obtener exactamente k exitos es
Ckn pk (1 p)nk . En base a este resultado sera muy sencillo obtener la funcion de
distribucion de nuestra siguiente variable aleatoria.

Ejemplo 32 (v.a Binomial de parametros n, p)


Se realiza un experimento n veces en condiciones independiente, con probabilidad
de exito p. Definimos X : R tal que X() = cantidad de exitos en ,
tenemos por ende que el recorrido de X es {0, 1, 2, . . . , n} y la funcion de cuanta
de X es

C n pk (1 p)nk si k {0, 1, 2, . . . , n}
k
pX (k) = P (X = k) =
0 en otro caso

X
La funcion de distribucion de X es tal que F (x) = pX (k).
kN:kx

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 85

Diremos aqu que X tiene distribucion Binomial de parametros n, p y anota-


mos X Bin(n, p).

Observemos que si A es el suceso formado por los exitos en cada ensayo y


= (1 , . . . , n ), entonces X() = ni=0 IA (i ), siendo IA una variable aleatoria
P

de Bernoulli, al trabajar con la independencia en los distintos experimentos, con-


cluimos que X es la suma de n variables aleatorias de Bernoulli, independientes
y todas con igual probabilidad de exito p.

Este resultado que ahora obtenemos informalmente sera probado con riguro-
sidad mas adelante. /

Ejemplo 33 (v.a. Geometrica de parametro p)


De una urna con n bolillas, n1 rojas y n2 azules (n = n1 + n2 ), se extraen con
reposicion las bolillas hasta encontrar una roja. Definamos X() =cantidad de
bolillas azules antes de obtener la bolilla roja, en , por ejemplo

si = (azul, azul, azul, roja) X() = 3


si = (azul, roja) X() = 1
si = ( roja) X() = 0

El recorrido de X es {0, 1, 2, . . . , n, . . .}. Observemos que la probabilidad


de exito, es decir, de obtener una bolilla roja es n1 /n, constante a lo lar-
go de las extracciones por la reposicion. Bajo la aleatoriedad y con reposi-
cion, tenemos que las distintas extracciones son independientes y de aqu que
P (X = k) = n1 /n (1 n1 /n)k = n1 /n (n2 /n)k para k N y P (X = k) = 0 si
k 6 N .

En este caso, tomando n1 = 3 y n = 5, tenemos aproximadamente que

Federico De Olivera Lamas


86 2. Variables Aleatorias

El resultado sin lugar a duda puede ser generalizado de la siguiente forma.

Un experimento tiene probabilidad de exito p, se repite independientemen-


te y en iguales condiciones hasta obtener el primer exito. Definimos la v.a.
X() =cantidad de fracasos antes de obtener el primer exito en .

X es una v.a. discreta ya que Rec(X) = {0, 1, 2, . . . , n, . . .} = N, ademas la


cuanta de X es p : R R tal que


p (1 p)n si n N
pX (n) =
0 en otro caso

En este caso anotamos X Geom(p). /

Una generalizacion de la variable aleatoria geometrica viene dada por la v.a.


Binomial Negativa, donde se cuentan la cantidad de fracasos antes de obtener k
exitos (k N )

Ejemplo 34 (v.a. Binomial Negativa de parametros k, p)


Al igual que el ejemplo de la v.a. geometrica, supongamos ahora que se siguen
extrayendo bolillas hasta obtener 3 rojas.

Sea X() =cantidad de bolillas azules antes de obtener la tercer roja en ,

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 87

por ejemplo

si = (azul, azul, roja, azul, roja, roja) X() = 3


si = ( azul, roja, azul, roja, azul, azul, roja ) X() = 4
si = ( roja, roja, roja) X() = 0

Observemos que Rec(X) = {0, 1, 2, . . . , n, . . .} = N y que, dado , se necesi-


tan X() + 3 realizaciones para obtener 3 exitos. En efecto X() es la cantidad
de fracasos, mas la cantidad de exitos que es 3, obtenemos la cantidad de reali-
zaciones.

Tratemos de hallar P (X = n). Supongamos inicialmente que los n fracasos


(bolillas azules) salen al comienzo y los 3 exitos se obtienen al final. Aqu tenemos
que:

a a a r r r

| {z }
n azules

En este caso, la probabilidad de esta ocurrencia es (1 n1 /n)n (n1 /n)3 .

Para que sean n fracasos antes del tercer exito, tenemos que la ultima bolilla
solo puede ser roja, lo que nos da lugar a poder ubicar las otras 2 bolillas rojas
en cualquiera de los (n + 3) 1 lugares, quedando as determinado el lugar donde
quedaran las azules.

Cada ubicacion da un suceso disjunto y con igual probabilidad


(1 n1 /n)n (n1 /n)3 , por lo tanto, tenemos que pX : R R es tal que


C n+31 (n /n)3 (1 n /n)n si n N
31 1 1
pX (n) = P (X = n) =
0 en otro caso

Generalizar este problema es inmediato. Supongamos que un experimento tie-


ne probabilidad de exito p, se repite independientemente y en iguales condiciones

Federico De Olivera Lamas


88 2. Variables Aleatorias

hasta obtener el k-esimo exito. Definimos la v.a. X() =cantidad de fracasos


antes de obtener el k-esimo exito en .

X es una v.a. discreta ya que Rec(X) = {0, 1, 2, . . . , n, . . .} = N, ademas la


cuanta de X es pX : R R tal que

C n+k1 pk (1 p)n si n N
k1
pX (n) =
0 en otro caso

En este caso anotamos X BN (k, p).

El lector podra verificar rapidamente, que en el caso k = 1, la v.a. Binomial


Negativa tiene la misma distribucion que la v.a. geometrica con parametro de
exito p. /

Ejemplo 35 (v.a. Hipergeometrica de parametros N, N1 , n)


Supongamos que tenemos una urna con N bolillas, de las cuales son N1 rojas y N2
azules (N = N1 + N2 ). Se extraen n, n N, bolillas sin reposicion y definamos
la v.a. X tal que X() =cantidad de bolillas rojas obtenidas en , por ejemplo,
si n = 4 y las bolillas estan numeradas, digamos r1 , . . . , rN1 , a1 , . . . aN2

si = (a2 , a4 , r2 , a5 ) X() = 1
si = (a2 , r6 , a3 , r1 ) X() = 2
si = (r4 , r1 , r6 , r3 ) X() = 4

Observemos primero que la menor cantidad de bolillas rojas que puede salir
es max{0, n N2 }, pues si la cantidad de bolillas azules (N2 ) es mayor que la
cantidad de bolillas que se extraen(n), entonces podran ser todas azules, pero
en caso contrario, si n > N2 , entonces cuando se terminen las azules, necesa-
riamente tendremos que extraer rojas y en el caso extremo, tendremos n N2
bolillas rojas. Por otro lado, la mayor cantidad de bolillas rojas que podremos
extraer es mn{n, N1 }, pues si n N1 pueden extraerse todas rojas pero si

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 89

n > N1 , a lo sumo podran extraerse N1 bolillas rojas (recordar que se realiza el


experimento sin reposicion). De lo anterior tenemos que el recorrido de X es
{max{0, n N2 }, . . . , mn{n, N1 }}

Tratemos de hallar P (X = k), k Rec(X).

En principio, tenemos que elegir n bolillas entre las N disponibles, lo que da


lugar a CnN casos posibles.

Contemos ahora los casos favorables, pensemos de la siguiente forma, tenemos


que elegir k bolillas rojas de las N1 en total, lo que da lugar a CkN1 posibilidades.
Pero las n k bolillas que nos faltan no pueden ser cualesquiera, en efecto, si
hubiera alguna roja tendramos mas de k rojas en total y no sera la probabilidad
que deseamos. Por lo tanto, tenemos que exigir que las n k bolillas restantes
N2
sean azules y en total podemos elegir Cnk formas distintas.

N2
Por ultimo, cada eleccion de k bolillas rojas da lugar a las Cnk posibles
elecciones de las bolillas azules y por lo tanto tenemos CkN1 Cnk
N2
casos favorables.

En resumen, tenemos que la funcion de cuanta de X es pX : R R tal que

N

N N N1
Ck 1 Cnk z }|2 {
pX (k) = CnN si k {max{0, n (N N1 )}, . . . , mn{n, N1 }}

0 en otro caso

donde n N .

La generalizacion aqu es la siguiente, mas alla de las bolillas ser rojas o azules,
pensemos que los elementos de nuestra poblacion tiene dos caractersticas posibles
y X cuenta la cantidad de elementos extrados con una de esas caractersticas,
las extracciones deben ser sin reposicion.

En este caso anotamos X Hgeom(N, N1 , n). /

Federico De Olivera Lamas


90 2. Variables Aleatorias

Figura 2.6: Una realizacion de las posibles llamadas

Ejemplo 36 (v.a. Poisson de parametro )


Consideremos la cantidad de llamadas telefonicas que llegan a una central te-
lefonica en un perodo de tiempo t 0. Un resultado posible es que se tenga
una llamada al tiempo t1 , la segunda llamada al tiempo t2 y as sucesivamente,
graficamente tenemos que una posible realizacion, es decir, un posible
viene dada por el grafico de la Figura 2.6

Consideremos el evento

Ak(s,s+t] = llegan exactamente k llamadas en el intervalo (s, s + t]

donde s, t 0; k N.

A continuacion hagamos algunas hipotesis:

Hipotesis i. Incrementos estacionarios. La probabilidad de que lleguen exactamente


k llamadas en el intervalo (s, s + t] depende solamente de t y no de s

Hipotesis ii. Incrementos independientes. El numero de llamadas sobre intervalos


disjuntos de tiempos son independientes.

Hipotesis iii. Las llamadas llegan solas y no simultaneas. Para ello pediremos que

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 91

la probabilidad de llegar al menos dos llamadas en (0, t] dado que llego al


menos una llamada en (0, t] tiende a cero cuando t 0.

Observacion: Estas hipotesis son las unicas requeridas y a partir de las


cuales se hace toda la construccion para llegar a la variable aleatoria de Poisson,
no obstante, como el desarrollo de dicha construccion tiene un alto grado de
dificultad, proponemos hacer una hipotesis adicional para simplificar el resultado,
dejando la verdadera construccion para los lectores interesados en el Anexo 2.5.

Hip adicional: Supongamos que la probabilidad de que llegue exactamente una llamada
en el intervalo (s, s + t] es aproximadamente t, donde es una constante
positiva.

Esta hipotesis es interpretada de la siguiente forma: la probabilidad de que


llegue exactamente una llamada en un intervalo es aproximadamente lineal en la
longitud del intervalo. Ademas, por la hipotesis i. no depende de s.

Ahora, estamos interesados en la probabilidad de la cantidad de llamadas que


llegan en el intervalo (s, s + t], pero por la hipotesis i. coincide si consideramos
el intervalo (0, t].

Dividamos el intervalo (0, t] en n sub intervalos de longitud nt , donde n sea lo


suficientemente grande para que la hipotesis adicional se verifique. De aqu tene-
mos:

# # # #
t t 2t (n 1)t
0, t = 0, , ,t
n n n n

Sean ahora los sucesos:

Federico De Olivera Lamas


92 2. Variables Aleatorias

B1 = llega exactamente una llamada en el intervalo (0, t/n].


B2 = llega exactamente una llamada en el intervalo (t/n, 2t/n].
..
.
Bn = llega exactamente una llamada en el intervalo ((n 1)t, t].

Por la hipotesis ii. los sucesos B1 , B2 , . . . , Bn son independientes y por la


hipotesis adicional tenemos que

t
P (Bi ) =
n

Observemos que la cantidad de llamadas recibidas en (0, t] puede descompo-


nerse en una suma de n variables aleatorias de Bernoulli, IBi independientes y
todas con igual probabilidad de exito P (Bi ) = nt .

Claro esta que por los supuestos realizados contamos a lo sumo una llama-
da por cada sub intervalo, de donde tenemos que la cantidad de llamadas se
distribuye aproximadamente igual a una v.a. Xn Bin(n, nt )

Luego, la probabilidad de Pk (t)=llegan exactamente k llamadas en el inter-


valo (0, t] podemos calcularla como lmite cuando subdividimos en cada vez mas
intervalos, es decir:

 k  nk
t t
Pk (t) = lm P (Xn = k) = lm Ckn
1
n+ n+ n n
 k  nk
n! t t
= lm 1
n+ (n k)!k! n n
nk
n(n 1) (n k + 1) (t)k

t
= lm k
1
n+
| n
{z } k! | n
{z }
1
et
k t
(t) e
=
k!

Sea ahora la v.a. X que cuenta la cantidad de llamadas que llegan a la central

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 93

en una unidad de tiempo t = 1, entonces Rec(X) = {0, 1, 2, . . . , n, . . .} y su


funcion de cuanta es p : R R tal que


()k

k!
e si k N
pX (k) =
0 en otro caso
xn
P+
el lector puede verificar inmediatamente de la identidad ex = k=0 n! , que
P+
k=0 pX (k) = 1.

En este caso anotamos X P oiss(). /

Pasemos ahora a ver algunos ejemplos de variables aleatorias absolutamente


continuas.

2.3.2. Algunos modelos de variables aleatorias


absolutamente continuas.

No es tan sencillo de construir intuitivamente modelos de variables aleatorias


absolutamente continuas, sin embargo veremos algunos ejemplos y su posible
aplicacion.

Ejemplo 37 (v.a. uniforme en un intervalo)


Elegimos un punto al azar del intervalo [a, b], para darle un sentido realista,
podemos pensar que se tira un dardo sobre una pared y su base se mide en una
cierta unidad, de modo que represente el intervalo [a, b]. Luego observamos la
abscisa del punto que quedo el dardo. Bajo el supuesto de que podemos tirar el
dardo igualmente sobre cualquier punto, el problema es equivalente a elegir un
punto al azar del intervalo [a, b].

Siendo = [a, b], B[a,b] = {B [a, b] : B B} la -algebra de los borelianos

Federico De Olivera Lamas


94 2. Variables Aleatorias

m(B) m(B)
en [a, b] y P : B[a,b] R tal que P (B) = = tenemos que
m([a, b]) ba
(, B[a,b] , P ) es un espacio de probabilidad sobre el que definimos la variable
aleatoria X : R tal que X() = , luego

i. Si x < a, entonces P (X x) = P ({ : X() x}) = 0


| {z }

m([a, x]) xa
ii. Si a x b P (X x) = P (X < a) +P (a X x) = =
| {z } m[a, b] ba
=0

iii. Si x > b P (X x) = P (X < a}) + P (a X b) + P (b < X x) = 1


| {z | {z } | {z }

y por lo tanto tenemos que su funcion de distribucion es F : R R tal que





0 si x < a
xa
F (x) = si a x b

ba

1 si x > b

Notemos que podemos definir f : R R tal que


1
si a x b
f (x) = ba
0 si x < a o x > b

Rx
y tenemos que F (x) =
f (t)dt, por tanto X es una variable aleatoria absolu-
tamente continua.

En este caso decimos que X se distribuye uniforme en el intervalo [a, b] y


anotamos X U [a, b]. El lector podra verificar inmediatamente que nada cambia

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 95

si el punto se elige del intervalo (a, b), (a, b] o [a, b) pues P (X = a) = P (X = b) =


0 y por tanto tendremos tambien que X U (a, b), X U (a, b] o X U [a, b)
respectivamente, en todos los casos la funcion de distribucion es la misma. /

Ejemplo 38 (v.a. exponencial de parametro )


Recordemos la construccion del proceso de Poisson, ah tenamos que la cantidad
de llamadas que llegaban a una central telefonica en una unidad de tiempo,
bajo ciertas hipotesis, era una variable aleatoria con distribucion de Poisson de
parametro > 0.

Sea T1 el tiempo que demora en llegar la primer llamada, es claro que el


tiempo T1 es continuo y mayor o igual que cero, ademas podra tomar cualquier
valor en [0, +).

Observemos que, siendo t 0, el suceso {T1 t} es el suceso: el tiempo


que demora en llegar la primer llamada es menor o igual que t. Siendo A0(0,t] el
suceso: no llegan llamadas en [0, t], tenemos que
c
{T1 t} = A0(0,t]


y por tanto P (T1 t) = 1 P (A0(0,t] ) = 1 et (ver v.a. de Poisson).

Luego, la funcion de distribucion de T1 es F : R R tal que



0 si t < 0
F (t) = P (T1 t) =
1 et si t 0


0 si t < 0
Definiendo f : R R tal que f (t) =
et si t 0
Z x
tenemos que F (x) = f (t) dt y por tanto f es la densidad de F , de donde

obtenemos que T1 es una variable aleatoria absolutamente continua.

Federico De Olivera Lamas


96 2. Variables Aleatorias

Pensemos ahora que han llegado k llamadas y queremos indagar sobre el


tiempo T que demorara en llegar la siguiente llamada.

Sea T la variable aleatoria: tiempo transcurrido desde que llego la llamada


k-esima hasta que llega la llamada (k + 1)-esima. Tratemos ahora de hallar la
distribucion de T .

Sea tk el momento en el que llega la llamada k-esima. Recordemos que la


hipotesis i. de una v.a. de Poisson era que los incrementos son estacionarios,
lo que quiere decir que P (A0(tk ,tk +t] ) = P (A0(0,t] ) y por lo tanto la funcion de
distribucion de T es la misma que la de T1 .

De lo anterior tenemos que, si X P oiss() entonces T , el tiempo transcu-


rrido entre dos ocurrencias consecutivas de X, es una variable aleatoria absolu-
tamente continua que llamaremos exponencial de parametro , donde su funcion
de distribucion y su densidad son F, f : R R tales que:


0 si t < 0 0 si t < 0
F (t) = P (T t) = ; f (t) =
1 et si t 0 et si t 0

Aqu anotamos T exp(). Para el caso = 1 tenemos los siguientes graficos:

Ejemplo 39 (v.a. Gamma de parametros , )


Una generalizacion de la variable aleatoria exponencial es la variable aleatoria

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 97

gamma.

Siguiendo con el proceso de Poisson construido en el Ejemplo 36 , sea G el


tiempo transcurrido hasta que llegan llamadas a la central telefonica, es claro
que P (G t) = 0 si t < 0.

Siendo t 0 el suceso {G t}, llegan llamadas antes del tiempo t, es


el complemento del suceso A0(0,t] A1(0,t] A2(0,t] A1
(0,t] = no llegan llamadas

en [0, t] o llega exactamente 1 llamada en [0, t] o llegan exactamente 2 llamadas


en [0, t] o . . . o llegan exactamente 1 llamadas en [0, t]

Por lo tanto

1 1
X X (t)i t
P (G t) = 1P A0(0,t] A1(0,t] A2(0,t] A1 i

0,t = 1 P (A(0,t] ) = 1 e
i=0
| {z } i=0
i!
(t)i t
i!
e

Por ende tenemos que la funcion de distribucion de G es F : R R tal que


0 si t < 0


F (t) = 1
X (t)i t
1 e si t 0


i=0
i!

Tratemos de ver si es posible obtener una densidad de G. Derivando F , tene-


mos que si t < 0 entonces F 0 (t) = 0 y si t > 0 entonces

P1
i=0 xi1 xi =x0 x1
z
" }| {
1 t 1  i1 i
#
X e X (t) (t)
F 0 (t) = i(t)i1 (t)i = et 0 1 +
 
=
i=0
i! i=1
(i 1!) i!

(t)1 et (t)1
 
t
= e 0 = = t1 et
( 1)! ( 1)! ( 1)!

Federico De Olivera Lamas


98 2. Variables Aleatorias

0
si t < 0
Por ende f : R R tal que f (t) =
t1 et si t 0
( 1)!

es una densidad de F , de donde G es absolutamente continua. El lector puede
R +
verificar, aplicando integracion por partes, que f (t)dt = 1 y por lo tanto
tenemos que la funcion de distribucion de G es tambien F : R R tal que
Rx
F (x) = f (t) dt, es decir

0
si x < 0
F (x) = Z x
t1 et dt si x 0
( 1)!

0

Si nos permitimos por un instante salirnos de la construccion, notemos que la


R +
integral 0 t1 et dt es convergente para cualquier valor positivo de y .
R +
Anotando () = 0
t1 et dt, la cual es llamada funcion gamma, tenemos
que () = ( 1)! si N (lo que se deduce sencillamente de f = 1), pero
R

mas aun, () es valida para cualquier > 0 y por ende podemos generalizar
aun mas la funcion de distribucion de la v.a. gamma.

Definicion 18
Decimos que la variable aleatoria G tiene distribucion gamma de parametros , ,
donde , > 0, si su densidad es


0
si t < 0
f (t) =
t1 et si t 0
()

Anotamos G Gamma(, )

Observacion: En el caso particular = 1 obtenemos la distribucion expo-


nencial de parametro . Otra caso muy utilizado en estadstica es cuando = 1/2
y = n/2, en este caso la distribucion es llamada 2 con n grados de libertad,

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 99

Figura 2.7: Densidad de un v.a. gamma para algunos parametros f (t, , )

pero nos dedicaremos a su estudio en temas de estadstica.

Ejemplo 40 (v.a. Beta de parametros , )


Supongamos que tiramos un dardo sobre una pared y se observa la abscisa sobre
la cual queda el dardo, digamos el intervalo (0, 1). En el caso de la variable
aleatoria uniforme, decamos que el dardo poda quedar en cualquier parte de
la pared indistintamente, pero puede suceder que tengamos sospechas para creer
que, por ejemplo, hay una mayor probabilidad de quedar en la zona central de
la pared que en los bordes. Tendramos aqu que usar una v.a. absolutamente
continua en (0, 1) donde las probabilidades no sean constantes a lo largo del
intervalo, por ejemplo podramos partir definiendo su densidad como sigue, sean
, > 0 y f : R R tal que

(+)

()()
x1 (1 x)1 si x (0, 1)
f (x) =
0 si x 6 (0, 1)

R1 (+)
El lector podra verificar que 0 ()()
x1 (1 x)1 dx = 1 y por en-

Federico De Olivera Lamas


100 2. Variables Aleatorias

de se trata de una densidad, siendo X la v.a. con tal densidad, anotamos


X Beta(, ).

Aqu tenemos una gran disponibilidad de casos, donde en particular, si


= = 1 obtenemos la densidad uniforme en (0, 1).

La v.a. Beta es muy util al tratar de modelizar proporciones, ya que estas


se encuentran entre cero y uno y al variar los parametros obtenemos una gran
cantidad de posibilidades.

Algunos graficas para los parametros y se ven a continuacion:

Ejemplo 41 (v.a. Normal de parametros , )


La variable aleatoria Normal es de gran importancia tanto en temas de probabili-
dad como de estadstica, sin embargo, es casi imposible construir su distribucion
a partir de algun caso cotidiano con las herramientas que tenemos a estas alturas
del curso. No obstante ello, daremos alguna idea intuitiva que nos permita llegar
informalmente a su densidad.

En 1718 de Moivre propuso que, siendo una v.a. Binomial (n, p), entonces

! 2
b
np et /2
Z
lm P a< p b = dt
n+ np(1 p) a 2

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 101

b 2 b 2 a 2
et /2 et /2 et /2
Z Z Z
Es inmediato observar que dt = dt dt.
a 2 2 2
Ahora podemos concentrarnos en la funcion : R R tal que
x 2
et /2
Z
(x) = dt
2

Como vimos en el Ejemplo 24, se trata de la funcion de distribucion de


una variable aleatoria Z, ya que es continua, creciente, lmx (x) = 0 y
2
et /2
lmx+ (x) = 1, su densidad es : R R tal que (t) =
2
.

En este caso decimos Z se distribuye Normal de parametros 0 y 1, pero de


donde salen los parametros?.
t 2
e( ) /2
Observemos que si tenemos f : R R tal que f (t) = 2
, f sigue siendo
una densidad. En efecto, f es positiva siempre que > 0, continua (integrable),
y la integral

t 2 x 2
x
e( ) /2 eu /2
 
x
Z Z
u= t


dt = du = 1
2 2 x+

Por lo tanto, siendo > 0 y un real cualquiera, f es la densidad de alguna


variable aleatoria X a la cual llamaremos Normal de parametros y y anotamos
X N (, ).

Observemos, de la igualdad de arriba, que si F es la funcion de distribucion


de X y la funcion de distribucion de Z (Z N (0, 1)), entonces
 
x
F (x) = xR

de donde concluimos que es un parametro de localizacion, es decir, al variar-


lo, la grafica de se traslada horizontalmente . Por otro lado, es un parametro
de escala, lo cual puede apreciarse en la Figura 2.8

Federico De Olivera Lamas


102 2. Variables Aleatorias

Figura 2.8: Funcion de densidad de la v.a. Normal (, ) f (t, , )

Figura 2.9: Correspondientes Funciones de distribucion

Federico De Olivera Lamas


2.3 Tipos de Variables Aleatorias 103

Como se sabe de los cursos de analisis, la funcion de densidad f carece de


una primitiva elemental, es por este motivo que se suele dar una tabla para tener
algunos valores de la funcion de distribucion , a partir de esta podemos obtener
los valores de la distribucion para todo y segun la igualdad F (x) = ( x

).

Si bien hoy en da existe software gratuito que nos proporciona multiples apro-
ximaciones, tambien calculadoras de bolsillo que nos calculan integrales, daremos
una tabla con algunos valores de la funcion de distribucion normal estandar.

Federico De Olivera Lamas


104 2. Variables Aleatorias

x 2
et /2
Z
(x) = dt para x 0
2

0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998

Federico De Olivera Lamas


2.4 Transformaciones de variables aleatorias 105

2.4. Transformaciones de variables aleatorias

En las sub secciones anteriores, hemos mostrado algunos ejemplos relevantes


de distribuciones, uno puede mezclar sus funciones de distribucion para obte-
ner otras: discretas, absolutamente continuas o mixtas. En temas de estadstica
seran de gran importancia otras distribuciones como por ejemplo la llamada F
de Fisher y la T de Student, estas provienen de transformar algunos tipos de
variables aleatorias que ya hemos visto, por esta razon, entre otras, es muy im-
portante indagar sobre la distribucion que tendra una transformacion de una
variable aleatoria. En esta primera visita a las transformaciones de v.a. estudia-
remos unicamente funciones de una variable, es decir, que solo involucren una
variable aleatoria (por ejemplo Y = X 2 , donde X U [0, 1]). Sera luego de es-
tudiar los vectores aleatorios que estaremos en condiciones de mezclar mas de
una variable aleatoria (por ejemplo S = Y + X, donde X e Y son v.a.)

Comencemos restringiendo la familia de funciones, f : R R, sobre las que


podremos trabajar.

Definicion 19 (Funcion medible)


Decimos que la funcion f : R R es Borel medible, o simplemente medible, si

f 1 (B) B B B

Observacion: Recordemos que f 1 (B) no es la funcion inversa, sino que es


el conjunto contraimagen de B, es decir f 1 (B) = {x R : f (x) B}.

Siendo B la -algebra de Borel en R, lo que le estamos exigiendo a f para ser


medible es que la contraimagen de cualquier boreliano sea un boreliano.

En particular, siendo X B, tenemos que f : X R es medible si f 1 (B)


BX para todo boreliano B, donde BX = {A X : A B}, el lector podra verificar

Federico De Olivera Lamas


106 2. Variables Aleatorias

que BX es una -algebra sobre X.

No indagaremos aqu si las funciones son medibles, como algunos autores


dicen: todas las funciones que se le puedan ocurrir a un estudiante son medibles,
sin embargo daremos algunos ejemplos de funciones medibles, la prueba de estos
resultados requiere de un estudio del Analisis Real:

1. La composicion de funciones medibles es medible (El lector puede probarlo).

2. Las funciones continuas son medibles.

3. Una funcion con una cantidad numerable de discontinuidades es medible.

4. Siendo f y g medibles y c R entonces cf , |f |, f + , f , f +g, f g son, entre


otras, medibles. Donde f + (x) = max{0, f (x)} y f (x) = mn{0, f (x)}.

5. El lmite puntual de una sucesion de funciones medibles es medible.

Ahora estamos en condiciones de probar que si componemos una variable


aleatoria con una funcion medible obtenemos una nueva variable aleatoria.

Proposicion 15
Sea X una variable aleatoria definida sobre (, A) y sea g : R R medible,
entonces Y = g(X) es una variable aleatoria sobre (, A).

Demostracion: Siendo X una v.a. tenemos que X : R y X 1 (B) A para


todo boreliano B y por ser g medible g 1 (B) B B B . Debemos probar
que la contraimagen por Y de cualquier boreliano esta en A, luego

Y 1 (B) = (g X)1 (B) = X 1 g 1 (B) = X 1 g 1 (B) A


 
| {z }
B

Federico De Olivera Lamas


2.4 Transformaciones de variables aleatorias 107

Ejemplo 42
Sea Y = X 2 , donde X U [0, 1]. Definiendo g : R R tal que g(x) = x2 tenemos
que Y = g(X), siendo g continua es medible y por ende Y es una v.a.

Aprovechemos el ejemplo para tratar de hallar la distribucion de Y . Sabemos


que FX (x) = x si x [0, 1], luego

1. Si x < 0 entonces

FY (x) = P (Y x) = P (X 2 x) = P ({ : (X())2 x}) P () = 0


| {z }
{:(X())2 <0}=

Siendo FY (a) 0 para todo real a, tenemos que FY (x) = 0.

2. Si x > 1 entonces

FY (x) = P (Y x) = P (X 2 x) = P ({ : (X())2 x}) P () = 1


| {z }
{:(X())2 1}=

Siendo FY (a) 1 para todo real a, tenemos que FY (x) = 1.

3. Si x [0, 1] entonces

FY (x) = P (Y x) = P (X 2 x) = P ({ : (X())2 x})


| {z }
{:|X()| x}

= P ( x X x) = FX ( x) FX (( x) ) = x

1
Por tanto tenemos que la densidad de Y es f (x) =
2 x
I(0,1) (x), recordando la
distribucion beta, tenemos que Y Beta(1/2, 1)

Proposicion 16
Sea X una v.a. discreta con cuanta pX y g una funcion medible, entonces Y =

Federico De Olivera Lamas


108 2. Variables Aleatorias

g(X) es una v.a. discreta con cuanta pY : R R tal que


X

pX (xn ) si y Rec(Y )
pY (y) = n:g(xn )=y

0 en otro caso

Demostracion: Y es v.a. por ser X v.a. y g medible. Siendo X discre-


ta, su recorrido es numerable, luego el recorrido de g(X) es numerable, pues
g : Rec(X) Rec(g(X)) tal que g (x) = g(x) es una funcion sobreyectiva, re-
cordando analisis I, esto implica que Rec(g(X)) es numerable.
[
Por ultimo sea Rec(Y ) = {yj }, entonces
j

P (Y = yj ) = P (g(X) = yj ) = P ({ : g(X()) = yj })
[  disjuntos X
= P { : X() = xn } = P (X = xn )
| {z }
n:g(xn )=yj n:g(xn )=yj pX (xn )

Ejemplo 43
Jugamos en una ruleta, en la cual podemos apostar a que sale cualquiera del 0
al 36, apostamos 100 pesos a que sale el 6 y 50 pesos a que sale el 13. La banca
paga 36 veces lo apostado en caso de acierto. Sea G la ganancia neta obtenida.
Hallar la distribucion de G.

Solucion: Dado que en el juego de la ruleta pueden salir cualquiera de los 37


valores y todos con probabilidad 1/37, podemos representarlo mediante una v.a.
uniforme en {0, . . . , 36}, sea X U {0, . . . , 36}.

Luego

36 100 150 si X() = 6



G X() = 36 50 150 si X() = 13


150 si X() 6= 6, X() 6= 13

Federico De Olivera Lamas


2.4 Transformaciones de variables aleatorias 109

Siendo G una funcion de una v.a. discreta, G es una v.a. discreta (omitimos
verificar que g es medible) luego


36
X 35
pG (150) = P (X = n) (P (X = 6) + P (X = 13)) =

n=0
| {z } | {z } | {z } 37
1/37 1/37 1/37
1
pG (36 100 150) = P (G = 36 100 150) = P (X = 6) = 37
1
pG (36 50 150) = P (G = 36 50 150) = P (X = 13) = 37

Mas adelante estudiaremos si este es un juego equilibrado, es decir, si jugara-


mos muchas, muchas veces, terminaramos ganando algo, perdiendo o sin ganan-
cia neta. /

En general no es posible asegurar si una transformacion de una v.a. absolu-


tamente continua dara lugar a una variable aleatoria absolutamente continua o
a una discreta o quiza mixta. Por ejemplo siendo g(x) = x, Y = g(X) = X es
absolutamente continua, por otro lado si g(x) = 1 para todo real x, entonces
Y = g(X) es una v.a. degenerada en 1 (discreta).

Bajo algunas hipotesis adicionales , como vemos a continuacion, s podemos


asegurar que Y es absolutamente continua.

Proposicion 17
Sea X una variable aleatoria absolutamente continua con densidad fX y cuyo
soporte esta incluido en un intervalo I. Sea g : R R tal que g es monotona
estricta y derivable en I.

Entonces Y = g(X) es absolutamente continua y :

Federico De Olivera Lamas


110 2. Variables Aleatorias

1. Si g es creciente,

0
si x nf g(I)
fX (g 1 (t))


FY (x) = FX (g 1 (x)) si x g(I) y fY (t) = Ig(I) (t)

 g 0 (g 1 (t))
si x sup g(I)

1

2. Si g es decreciente,


0 si x nf g(I)
fX (g 1 (t))


FY (x) = 1 FX (g 1 (x)) si x g(I) y fY (t) = Ig(I) (t)

 g 0 (g 1 (t))
si x sup g(I)

1

Demostracion: Recordemos que el soporte es S(X) = {x R : fX (x) > 0} I.


Por ser g continua en el intervalo I, J = g(I) es un intervalo, luego, gI : I J
es sobreyectiva e inyectiva por la monotona estricta y por ende gI es invertible.

1. Sea g creciente en I, entonces gI es creciente y gI1 es creciente, luego

Si x J, entonces

FY (x) = P (Y x) = P (g(X) x) = P ({ : g(X()) x})


| {z }
={:X()gI1 (x)}

= P (X gI1 (x)) = FX (gI1 (x))

Tomemos los extremos de J, es decir:

a) = nf(J) en el caso que J sea acotado inferiormente,

b) = sup(J) en el caso que J sea acotado superiormente.

Podemos convenir que si J no es acotado inferiormente entonces =


y si no es acotado superiormente, entonces = +. No hay ningun real
menor que ni mayor que +.

Notemos que si x J, aplicando la derivada de la funcion compuesta tene-


0 1 (x))
mos que, FX (g 1 (x)) = fgX0 (g(g1 (x)) y de aqu que

Federico De Olivera Lamas


2.4 Transformaciones de variables aleatorias 111

g 1 () sup(I)
fX (g 1 (x))
Z Z Z
c.v
0 1
dx = fX (y) dy = fX (y) dy = 1
g (g (x)) y=g 1 (x) g 1 () nf(I)

fX (g 1 (x))
Por lo tanto IJ (x) es una densidad de Y . Luego, tenemos que
g 0 (g 1 (x))



0 si x nf(J)

FY (x) = FX (gI1 (x)) si x J


si x sup(J)

1

2. Si g es decreciente en I el razonamiento es analogo, solo basta considerar


que gI1 es decreciente y por ende P (gI (X) x) = P (X gI1 (x)) =
1 P (X < gI1 (x)) = 1 P (X gI1 (x)) = 1 FX (x).

Teniendo Y una densidad, Y es absolutamente continua. 

Observacion: La hipotesis g derivable en I puede ser omitida, ya que siendo


g monotona, es derivable en casi todo punto de I, es decir, es derivable en I salvo
en un conjunto con medida nula. A los efectos de hallar la densidad, sabemos que
en esos puntos podemos definirla a gusto y la funcion de distribucion no cambia.

Ejemplo 44
Sea Y = log(X) donde X U (0, 1). Tomando g : R+ R tal que
g(x) = log(x) la cual cumple las hipotesis de la Proposicion 17, siendo ademas
decreciente y g(0, 1) = R+ , tenemos que si x > 0 entonces

FY (x) = 1 FX (g 1 (x)) = 1 ex
| {z }
ex

si x < 0 entonces FY (x) = 0 y para el caso x = 0 tenemos que FY (0) =


P ( log(X) 0) = 0. Por tanto Y exp(1). /

Federico De Olivera Lamas


112 2. Variables Aleatorias

Veamos ahora algun ejemplo donde partiendo de una v.a. absolutamente con-
tinua obtenemos una v.a. discreta.

Ejemplo 45
Sea Y = [37 X], la parte entera de 37 X donde X U (0, 1).

Observemos que Y solo puede tomar los valores 0, 1, 2, . . . , 36. Luego, si k


{0, 1, . . . , 36} entonces
 
k k+1
P (Y = k) = P ([37 X] = k) = P (k 37 X < k + 1) = P X<
    37 37
X abs cont k+1 k k+1 k 1
= FX FX = =
37 37 37 37 37

y por tanto Y U {0, 1, . . . , 36} /

2.4.1. Simulacion Montecarlo

Durante la segunda guerra mundial se trataba de estudiar la distancia a la


que se desplazaran los neutrones a lo largo de distintos materiales. Obtener
aproximaciones repetidas para resolver el problema era muy costoso, fue ah que
se propuso utilizar una ruleta para resolver el problema. Si nos adelantamos,
podemos atrevernos a pensar que nada tendra que ver esto con la solucion, sin
embargo no es as. Mas adelante, en 1944 se formalizo este metodo en lo que se
llama el metodo de simulacion Montecarlo.

Proposicion 18
Sea X una v.a. absolutamente continua donde el soporte es un intervalo I. Sea
FX la funcion de distribucion de X:

1. Y = FX (X) es una v.a. con distribucion uniforme en [0, 1].

2. Sea U una v.a. uniforme en [0, 1] y sea W = FX1 (U ), entonces FW = FX .

Federico De Olivera Lamas


2.4 Transformaciones de variables aleatorias 113

Demostracion: En el caso que I no sea acotado consideramos FX () = 0 y


FX (+) = 1, en virtud de los lmites cuando x y x +.

Siendo I = {x R : fX (x) > 0} entonces, FX es creciente e invertible en I,


donde FX (I) = [0, 1].

1. Luego, si x [0, 1] entonces

FY (x) = P (Y x) = P (FX (X) x) = P (X FX1 (x)) = FX (FX1 (x)) = x

Si x < 0 entonces P (FX (X) x) = 0 y si x > 1 entonces


P (FX (X) x) = 1, de donde Y = FX (X) U [0, 1]

2. Estamos considerando la inversa sobre el soporte, es decir F 1 : [0, 1] I.


Luego, sea x I, entonces

creciente unif
FW (x) = P (W x) = P (FX1 (U ) x) = P (U FX (x)) = FX (x)

evidentemente si x < nf(I) entonces FW (x) = 0 = FX (x) y si x > sup(I)


entonces FW (x) = 1 = FX (x).

El resultado anterior pone en evidencia la importancia de la distribucion uni-


forme en [0, 1]. Es interesante observar que cualquier calculadora nos proporciona
observaciones de una v.a. uniforme en [0, 1] con la tecla random. Por tanto, si
tenemos que x1 y x2 son realizaciones de una v.a. uniforme en [0, 1], entonces, en
las hipotesis de la proposicion anterior FX1 (x1 ) y FX1 (x2 ) pueden ser pensadas
como realizaciones de una v.a. X.

Cuando decimos realizaciones estamos entendiendo, por ejemplo, que se eli-


gio efectivamente un punto del intervalo [0, 1].

Federico De Olivera Lamas


114 2. Variables Aleatorias

Ejemplo 46
Tenemos un lote de 10 lamparas, de las cuales podemos suponer que su tiempo
de duracion, en cientos de horas, es una v.a. T con distribucion exponencial de
parametro = 1. Supongamos que las lamparas se comportan independiente-
mente. Simulemos sus posibles duraciones.

Sea U U [0, 1], por medio de una calculadora obtenemos diez posibles reali-
zaciones, sean estas
x1 = 0, 65604519
x2 = 0, 601382888
x3 = 0, 392669513
x4 = 0, 618611053
x5 = 0, 590480635
x6 = 0, 321641554
x7 = 0, 053028585
x8 = 0, 005054893
x9 = 0, 85543434
x10 = 0, 431976858

Siendo FT (x) = 1 ex para todo x 0, tenemos que FT1 (y) = log(1 y)


y por tanto, aplicando esta funcion a los valores obtenidos arriba, obtenemos
realizaciones de T , es decir:

Federico De Olivera Lamas


2.4 Transformaciones de variables aleatorias 115

X U [0, 1] T exp(1)
ti = log(1 xi )
x1 = 0, 6560451903 t1 = 1, 067244997
x2 = 0, 6013828879 t2 = 0, 919753942
x3 = 0, 3926695127 t3 = 0, 498682176
x4 = 0, 6186110532 t4 = 0, 963935567
x5 = 0, 5904806348 t5 = 0, 892771087
x6 = 0, 3216415540 t6 = 0, 388079449
x7 = 0, 0530285845 t7 = 0, 054486370
x8 = 0, 0050548933 t8 = 0, 005067713
x9 = 0, 8554343397 t9 = 1, 934021478
x10 = 0, 4319768576 t10 = 0, 565593117

Estudiemos ahora como podemos generalizar el resultar para cualquier tipo


de variable aleatoria.

Teorema 19
Sea X una v.a. con funcion de distribucion FX y definamos FX : [0, 1] R tal
que F (y) = nf{x : FX (x) y}.

Sea U una v.a uniforme en [0, 1] y W = FX (U ), entonces FW = FX .

Federico De Olivera Lamas


116 2. Variables Aleatorias

Observacion: la funcion FX introducida es una inversa generalizada para


cuando F no es invertible, ya sea que no es inyectiva, sobreyectiva o ambas.

nt nt
Demostracion: Anotemos FX = F y FX = F . Primero notemos que, si x >
con = nf{x : F (x) y}, entonces, por ser nfimo, existe
x1 nf{x : FX (x) y} tal que x1 < x, de la monotona de F tene-
mos que F (x) F (). Luego, de la continuidad por derecha de F tenemos
que F () = lmx+ F (x) y y de aqu que {x : F (x) y}, es decir
(1)
F (y) = mn{x : F (x) y}. De aqu se deduce que F (F (y)) y.
| {z }
=

Sea y [0, 1], probemos que F (y) t y F (t).

) Si F (y) t, del no decrecimiento de F , tenemos que F (F (y)) F (t), en


(1) probamos que y F (F (y)) y por ende concluimos que y F (t).

) Si y F (t) entonces t {x : F (x) y} y por lo tanto


t nf{x : F (x) y} = F (y), es decir F (y) t.

Siendo FX (y) t y FX (t) para todo y [0, 1] y todo t, tenemos que

FW (t) = P (W t) = P (FX (U ) t) = P (U FX (t)) = FX (t)

Antes de terminar veamos un ejemplo.

Ejemplo 47
Sea X una v.a. con funcion de distribucion ,




0 si x < 1


x1

si 1 x < 3/2
F : R R tal que F (x) =


2/3 si 3/2 x < 2


si x 2

1

Federico De Olivera Lamas


2.4 Transformaciones de variables aleatorias 117

Al obtener realizaciones de una v.a. U U [0, 1], como se muestra en el grafico,


obtenemos realizaciones de X.

Por ejemplo P (X = 2/3) = F (3/2) F ((3/2) ) = 1/6, notemos que


{X = 3/2} {1/2 U 2/3} y como P ({1/2 U 2/3}) = 2/3 1/2 = 1/6
efectivamente obtenemos el suceso {X = 3/2} con la probabilidad deseada.

Ejemplo 48 (Simulacion de la Ruleta)


Como ya vimos en el Ejemplo 45, si X U (0, 1) entonces
Y = [37 X] U {0, 1, . . . , 36}.

Basta tener una calculadora a mano, apretar la tecla random, multiplicar el


resultado por 37 y tomarle la parte entera, para obtener una simulacion del juego
de la ruleta, claro, aqu no perdemos dinero.

Por ejemplo, a continuacion tenemos algunas realizaciones:

Federico De Olivera Lamas


118 2. Variables Aleatorias

X U [0, 1] R U {0, 1, , . . . , 36}


ri = [37 xi ]
x1 = 0, 1742360441 r1 = 6
x2 = 0, 9846659523 r2 = 36
x3 = 0, 6156449769 r3 = 23
x4 = 0, 4606453563 r4 = 17
x5 = 0, 2093714654 r5 = 8
x6 = 0, 4484890505 r6 = 17
x7 = 0, 8222922721 r7 = 30
x8 = 0, 9437316270 r8 = 35
x9 = 0, 5996356834 r9 = 22
x10 = 0, 2333736798 r10 = 9

El lector dispone ahora de un mecanismo para simular cualquier tipo de juego


de azar.

Federico De Olivera Lamas


2.5 Anexo: Proceso de Poisson 119

2.5. Anexo: Proceso de Poisson

Consideremos la cantidad de llamadas telefonicas que llegan a una central


telefonica en un perodo de tiempo t 0.

Consideremos el evento

Ak(s,s+t] = llegan exactamente k llamadas en el intervalo (s, s + t]

donde s, t 0; k N.

A continuacion hagamos algunas hipotesis:

Hipotesis i. Incrementos estacionarios. La probabilidad de que lleguen exactamente


k llamadas en el intervalo (s, s + t] depende solamente de t, es decir, tal
probabilidad depende solo de la longitud del intervalo y no de la ubicacion
del intervalo. Es un supuesto no realista pero puede ser considerado por
ejemplo sobre horarios picos.
   
nt
Con esta hipotesis tenemos que P Ak(s,s+t] = P Ak(0,t] = Pk (t)

Hipotesis ii. Incrementos independientes. El numero de llamadas sobre intervalos


disjuntos de tiempos son independientes, es decir
Ak(s,s+t] es independiente de Aj(u,u+v] si (s, s + t] (u, u + v] = . La in-
dependencia la pediremos tambien para una coleccion de sucesos en estas
condiciones.

Hipotesis iii. Las llamadas llegan solas y no simultaneas. Para ello pediremos que
la probabilidad de llegar al menos dos llamadas en (0, t] (suceso A2(t)),
dado que llego al menos una llamada en (0, t] (suceso A1(t)) tiende a cero
cuando t 0.

Desarrollando la probabilidad condicional tenemos que:

Federico De Olivera Lamas


120 2. Variables Aleatorias

A2(t)A1(t)
z }| {
P (A2(t) A1(t)) P (A2(t))
P (A2(t)|A1(t)) = = 0
P (A1(t)) P (A1(t)) t0

Notemos que P (A2(t)) = 1 P0 (t) + P1 (t) y P (A1(t)) = 1 P0 (t), por
lo tanto
1 P0 (t) P1 (t)
0
1 P0 (t) t0

Tratemos ahora de calcular las probabilidades Pk (t), recordemos que es la


probabilidad del suceso Ak(s,s+t] =llegan exactamente k llamadas en el intervalo
(s, s + t] donde s, t 0; k N.

Comencemos con P0 (t) = P (A00, t ) y mostremos que es una funcion del tipo
et .

A00, t nos dice que no llegan llamadas en el intervalo (0, t] y esto ocurre si y
solo si no llegan llamadas en los intervalos
     
t t 2t (n 1)t
0, , , ,..., ,t
n n n n

por ende A0(0, t] = A0(0, t ] A0( t , 2t ] A0((n1)t ,t] y aplicando la hipotesis ii.,
n n n n

por ser los intervalos disjuntos, tenemos que

 
hip. i.
P0 (t) = n1
i=0 P A0
it (i+1)t
(n, n ]
= (P0 (t/n))n t > 0, n.
| {z }
P (A0(0,t/n] )

Entonces tenemos que, evaluando con nt/m en lugar de t


 n    t n   mn
P0 t = P0 = P0 (t) m, n = 1, 2, . . .
m m

r
En resumen, si r es una racional positivo, entonces P0 (r) = P0 (1)

Notemos ahora que P0 (t) es una funcion no creciente, en efecto,

Federico De Olivera Lamas


2.5 Anexo: Proceso de Poisson 121

si t s A0(0, s] A0(0, t] P A0(0, s] P A0(0, t] P0 (s) P0 (t)


 
| {z } | {z }
P0 (s) P0 (t)

Luego, sea t R+ fijo y sean r y r racionales positivos tales que r t r ,


tenemos que

r r
P0 (1) = P0 (r) P0 (t) P0 (r ) = P0 (1)

Tomando una sucesion (rn ) % t y otra (rn ) & t entonces

t rn r t
P0 (1) = lm P0 (1) P0 (t) lm P0 (1) n = P0 (1)
n+ n+

t
P0 (t) = P0 (1) t > 0.

Supongamos que la probabilidad P0 (1) no es uno, pues de lo contrario, con


probabilidad uno no llegaran llamadas en ningun momento (P0 (1) = 1 = P0 (t)).
Descartamos tambien que P0 (1) = 0 pues en este caso P0 (t) = 0 para todo t > 0 y
esto implicara que con probabilidad uno llegara al menos una llamada en (0, t];
descomponiendo el intervalo (0, t] en (0, t/2] (t/2, t] y aplicando la hipotesis i.
tendramos que habra probabilidad uno de que lleguen al menos dos llamadas
en (0, t] y por ende

=1
z }| {
1 P0 (t) P1 (t)
= 1 6 0
1 P0 (t) t0
| {z }
=1

Lo que invalida la hipotesis iii..

Federico De Olivera Lamas


122 2. Variables Aleatorias

t
En resumen 0 < P0 (t) < 1 y P0 (t) = P0 (1) t > 0, definiendo
= log P0 (1), > 0, tenemos que

P0 (t) = et t > 0

Naturalmente tenemos tambien que P0 (0) = 1, pues el suceso nunca llegan


llamadas en el intervalo vaco es cierto. De aqu que P0 (t) = et t 0

Hasta aqu el razonamiento ha sido duro pero de suma utilidad, ademas de


estar en el contexto de este curso, continuemos:

Recordemos que bajo las tres hipotesis introducidas hemos llegado a que la
probabilidad de que que no lleguen llamadas en el intervalo (0, t] es:

P0 (t) = et t > 0

Una vez que tenemos P0 (t), tratemos de hallar Pk (t) para todo k. Sean k
1, s 0 y t > 0. Entonces llegan k llamadas en (0, s + t] si y solo si o no llega
ninguna llamada en (0, s] y llegan k en (s, s + t], o llega una en (0, s] y k 1 en
(s, s + t], y as sucesivamente, por ende tenemos que

Ak(0,s+t] = (A0(0,s] Ak(s,s+t] ) (A1(0,s] Ak1 k 0


(s,s+t] ) (A(0,s] A(s,s+t] )

Las uniones son disjuntas y por la hipotesis ii. cada suceso Ai(0,s] es indepen-
diente de Aki
(s,s+t] pues se definen sobre intervalos disjuntos, por ende tenemos

que

k k
nt
X X
ki
P (Ak(s,s+t] ) = P (Ak(0,s+t] ) = Pk (s + t) = P (Ai(0,s] ) P (A(s,s+t] )= Pi (s)Pki (t)
i=0 i=0
| {z } | {z }
Pi (s) Pki (t)
" k2 #
ec. (1) X
= et
Pi (s)Pki (t) + Pk1 (s)P1 (t) + Pk (s) |{z}
i=0 P0 (t)

Federico De Olivera Lamas


2.5 Anexo: Proceso de Poisson 123

e t
z }| {
1 P0 (t)
Por otro lado, notemos que lm = y de la hipotesis iii. que
t0 t
es lmt0 1P1P
0 (t)P1 (t)
0 (t)
P1 (t)
= 0, obtenemos lmt0 1P 0 (t)
= lmt0 1P 0 (t)
1P0 (t)
= 1 y de
aqu que

et
z }| {
P1 (t) P1 (t) 1 P0 (t)
lm = lm = y
t0 t t0 1 P0 (t) t }
| {z } | {z
1

1 P0 (t) P1 (t) 1 P0 (t) P1 (t) 1 P0 (t)


lm = lm =0
t0 t t0 1 P0 (t) | t }
{z
| {z }
0

Sea Pk0 (s) la derivada por derecha de Pk , recordemos que t > 0, por tanto

Pk (s + t) Pk (s)
Pk0 (s) = lm
t0 t
Pk2
por (1) i=0 Pi (s)Pki Pk1 (s)P1 (t) Pk (s)(et 1)
= lm + +
t0
| t
{z } | t
{z } | t
{z }

0 ver (2) Pk1 (s) Pk (s)

Pk2 Pk2 Pk
i=0 Pi (s)Pki i=0 Pki (t) j=2 Pj (t) 1 P0 (t) P1 (t)
(2) 0 = 0
t t j=ki t t t0

Y por lo tanto tenemos que Pk0 (s) = Pk1 (s) Pk (s)


k
X
Usando la ecuacion Pi (s t)Pki (t) puede probarse que es tambien la
i=0
derivada por izquierda y por ende tenemos que

Pk0 (t) = Pk1 (t) Pk (t) t 0; k = 1, 2, . . .

Para hallar Pk en el caso k 1 debemos, por tanto, resolver la anterior


ecuacion diferencial, sujeto a Pk (0) = P (Ak0,0 ) = 0.

Federico De Olivera Lamas


124 2. Variables Aleatorias

Obtengamos primero P1 , aqu tenemos que P10 (t) = P0 (t) P1 (t)


| {z }
et

Haciendo P1 (t) = et Q(t), tenemos que Q(0) = 0 y Q0 (t) = de modo que


Q(t) = t y de aqu que

P1 (t) = tet , t 0

Inductivamente se llega a la solucion general:

(t)k t
Pk (t) = e , t 0, k = 0, 1, 2, . . .
k!

Federico De Olivera Lamas


2.6 Ejercicios 125

2.6. Ejercicios

1. Sea = {a, b, c, d, e} y A la mnima -algebra que contiene a:


{{a, b}, {c, d}, {e}}.

a) Sean P ({a, b}) = 1/2 y P ({e}) = 1/6. Calcular la probabilidad de


todos los sucesos.

b) Sea X : R tal que X(a) = X(b) = 0, X(c) = X(d) = 1 y


X(e) = 2.

1) Probar que X es una variable aleatoria.


2) Indicar la particion que induce X sobre .

c) Sea Y : R tal que Y (a) = 0 y Y (b) = Y (c) = Y (d) = Y (e) = 1.

1) Mostrar que Y no es una variable aleatoria en el espacio de pro-


babilidad (, A, P ).
2) Que se debera hacer para que Y sea una variable aleatoria?.

2. Se lanzan tres monedas no cargadas, hallar el recorrido y la funcion de


cuanta de la variable aleatoria X, numero de caras obtenidas.

3. Se lanzan dos dados no cargados y se obtienen los valores i, j. Se definen


las variables aleatorias: X = i + j e Y = m.c.d(i, j). Hallar el recorrido y
la funcion de probabilidad de X e Y.

4. Siendo FX la funcion de distribucion de la variable aleatoria X, probar :

a) P (a X b) = FX (b) FX (a )

b) P (a < X < b) = FX (b ) FX (a)

c) P (a X < b) = FX (b ) FX (a ).

Donde F (a ) = lmxa F (x)

Federico De Olivera Lamas


126 2. Variables Aleatorias

5. Considere la prueba consistente en el lanzamiento de dos monedas regulares.


Se define X como la cantidad de numeros obtenidos:

a) Determine el recorrido de X.

b) Hallar la probabilidad de que X pertenezca a cada uno de los siguientes


intervalos: (0, 1); [0, 1); (0, 1]; [0, 1]

6. Dado un espacio de probabilidad (, A, P ) y la funcion FX : R R tal que




0 si x (, 1)


si x [1, 1/2)

1/4
FX (x) =
3/4

si x [1/2, 2)


si x [2, +)

1

a) Que tipo de variable aleatoria es X?.

b) Hallar la funcion de cuanta de X.

c) Calcular P (1 X 1), P (X < 1/2), P (X 1/2), P (0 X 2).

7. Dado un espacio de probabilidad (, A, P ) y la funcion fX : R R tal que


k si 1 x 3
fX (x) =
0 en otro caso

a) Hallar k para que fX sea un funcion de densidad.

b) Hallar la funcion de distribucion asociada a X (FX ).

8. Cada surtidor de nafta tiene un cierto transistor que lo hace funcionar. La


distribucion hasta la primera falla (en cientos de horas) es una variable
aleatoria X con funcion de distribucion dada por:


0 si x < 0
FX (x) =
1 ex si x 0

Federico De Olivera Lamas


2.6 Ejercicios 127

a) Probar que FX cumple con las propiedades de una funcion de distri-


bucion y que corresponde a una v.a. absolutamente continua.

b) Hallar la densidad de la variable aleatoria X.

c) Calcular la probabilidad de que un transistor trabaje mas de 200 horas


hasta tener la primera falla.

d ) Si el gerente quiere tener al menos el 0,5 de probabilidad de que el


transistor no falle, cada cuantas horas lo debe cambiar?. (Considerar
horas enteras).

9. La variable aleatoria X tiene densidad


c x2 si 0 x 1
fX (x) =
0 en otro caso

a) Hallar el valor de c;

b) Hallar la funcion de distribucion de X;

c) Calcular la probabilidad P (1/10 < X < 4/10).

10. Sea F : R R tal que





0 si x < 0


x2

si 0 x < 1/2
F (x) =


1/2 si 1/2 x < 1


si x 1

1

a) Verificar que F es una funcion de distribucion.

b) Sea X una v.a. con funcion de distribucion F

1) Que tipo de v.a. es X?.

2) Calcular P (X < 1/2), P (1/2 X < 1), P (x 1).

Federico De Olivera Lamas


128 2. Variables Aleatorias

11. Un contratista de obras gana las licitaciones a las que se presenta con una
probabilidad 2/7. Supongamos que el resultado (adjudicarle o no la obra)
es en cada licitacion independiente de las anteriores (el resultado no se ve
afectado si gano o perdio en licitaciones anteriores).

Cual es la probabilidad de que este contratista se presente a tres licitaciones


antes de ganar un contrato?.

12. Una agencia de viajes organiza un sorteo con 5 premios diferentes, en el cual
intervienen 200 sobres que se han depositado en una urna. Dona Pancracia
ha enviado 20 sobres.

Suponiendo que se extraen 5 sobres sucesivamente y con reposicion, y lla-


mando X a la variable aleatoria que indica el numero total de premios que
obtiene dona Pancracia:

a) Hallar el recorrido de X y su funcion de cuanta.

b) Hallar la probabilidad de que do na Pancracia gane por lo menos un


premio.

c) Hallar la probabilidad de que dona Pancracia gane dos o tres premios.

13. Una empresa produce ciertas piezas y se sabe que la probabilidad de que
una pieza sea defectuosa es p = 0, 02. Se toma una muestra de 100 piezas.

a) Hallar la probabilidad de que no hayan piezas defectuosas.

b) Hallar la probabilidad de que a lo sumo haya tres piezas defectuosas.

14. Sean X e Y v.a. tales que X Bin(n, p) e Y P oiss().



Suponga que np = cuando n +, es decir p = n .

a) Utilizando que

1 nk
Ckn = n (n 1) (n k + 1)
k! n+ k !

Federico De Olivera Lamas


2.6 Ejercicios 129

probar que P (X = k) P (Y = k)
n+

b) Se suele decir que si p < 0, 1 y np < 5 la aproximacion es buena. Se


lanzan dos dados 50 veces, hallar la probabilidad de que salgan dos 6
exactamente cinco veces y dar una aproximacion de esta.

15. Un artillero dispara a un blanco y sabe que la probabilidad de acertar es


p = 1/100. Cuantos disparos tendra que hacer para tener una probabilidad
mayor a 0, 9 de dar en el blanco al menos una vez.

16. De un grupo de 180 estudiantes, se estima que 35 % son fumadores. Se elige


una muestra, aleatoriamente, de 20 estudiantes . Cual es la probabilidad
de que la proporcion de fumadores se mantenga en la muestra?.

17. El juego de la tombola: Un jugador elige 7 numeros de los 100 disponible


entre 0 y 99. Se sortean 20 numeros distintos, al azar, entre esos 100. El
jugador gana algo si acierta a 3 o mas. Cual es la probabilidad de que el
jugador gane algo?.

18. Por una cabina de un peaje pasa un promedio de de 5 automoviles por


minuto ( = 5). Suponiendo que se verifican las hipotesis del proceso de
Poisson

a) Cual es la probabilidad de que en un minuto no pase ningun au-


tomovil?

b) Cual es la probabilidad de que en un minuto pasen 2 automoviles?

c) Cual es la probabilidad de que en dos minutos no pase ningun au-


tomovil?

d ) Cual es la probabilidad de que en dos minutos pasen mas de 3 au-


tomoviles?

Federico De Olivera Lamas


130 2. Variables Aleatorias

19. Suponga que los momentos en que tienen lugar los nacimientos se reparten
al azar durante todas las horas del da. Suponga tambien que en una cierta
ciudad tiene lugar por termino medio un nacimiento cada 65 minutos.

a) Se verifican las hipotesis del proceso de Poisson?.

b) Suponiendo que se verifican tales hipotesis y que el parametro es el


promedio de nacimientos por unidad de tiempo, hallar la probabilidad
de que en dos horas no tenga lugar ningun nacimiento.

20. Una cierta empresa tiene camiones tanque que tardan en ir a abastecerse de
nafta, ida y vuelta, un tiempo que puede ser representado por una variable
aleatoria uniforme en el intervalo [50, 70] (medido en minutos).

a) Cual es la probabilidad de que la duracion de un viaje sea mayor que


65 minutos?.

b) Cual es la probabilidad de que en un cierto viaje la duracion sea mayor


que 65 minutos, dado que se sabe que duro mas de 55 minutos?.

21. Llamemos X a la duracion de un componente electronico, y supongamos


que X se puede representar como una variable aleatoria con distribucion
exponencial de parametro . Mostrar que pj = P (j X < j + 1) es de la
forma (1 a) aj y determinar a.

22. La variable aleatoria X tiene densidad f (x) = c e|x| .

a) Hallar c;

b) Calcular las probabilidades P (X 0) y P (0 X 1).

23. Suponga que la humedad (porcentaje) en un determinado momento, pue-


de ser aproximado por una variable aleatoria X con distribucion normal
con parametros (70, 20). Interpretar los siguientes sucesos y calcular sus
probabilidades:

Federico De Olivera Lamas


2.6 Ejercicios 131

i.{X 80} ii.{60 X 90} iii.{|X 70| < 10} iv.{|X 60| 20}

24. Verificar que la funcion


a b a+1


b x
si x > b
fX (x) =
0 en otro caso

donde a y b son constantes positivas, es una densidad de una variable alea-


toria y hallar su funcion de distribucion.

(Esta distribucion se denomina de Pareto).

25. Una lampara se enciende todos los das a las 7 p.m.. Se sabe que su tiempo
de duracion, una vez encendida, es una v.a. X exp(1/10). La lampara
se apaga al otro da a las 7 a.m.. Sea T el tiempo que dura encendida la
lampara un determinado da.

a) Indicar que tipo de variable aleatoria es.

b) Hallar la probabilidad de que la lampara se queme antes de que sea


apagada.

c) Hallar la probabilidad de que la lampara se queme exactamente cuando


se va a apagar.

26. Sea T una v.a. tal que T exp().

a) Probar que P (T > t + s|T > t) = P (T > s), para todo s, t > 0. Esta
propiedad es conocida como falta de memoria.

b) Suponga que la duracion de una lampara tiene distribucion exponen-


cial con una duracion media de tres das, = 1/3, y que es prendida
en una sala en t = 0. Al siguiente da usted entra en la sala y se queda
ah durante 8 horas, saliendo al final de ese perodo.

1) Cual es la probabilidad de que usted entre en la sala cuando ya


esta a oscuras?.

Federico De Olivera Lamas


132 2. Variables Aleatorias

2) Cual es la probabilidad de que usted entre en la sala con la


lampara encendida pero salga a oscuras?.

27. Sea T una v.a. tal que X exp() y sea Y = mn{, X}. Hallar la distri-
bucion de Y .

28. X es una variable aleatoria tal que X U [0, 1]. Hallar la distribucion de
la n-esima cifra decimal de X.

29. Una variable aleatoria X tiene funcion de distribucion FX y densidad fX .


Hallar la funcion de distribucion y la densidad de la variable aleatoria Y =
aX + b, siendo a 6= 0.

30. Sea X una variable aleatoria que tiene distribucion absolutamente continua
FX y se define una nueva variable aleatoria Y por medio de Y = eX .

a) Hallar directamente la funcion de distribucion Y .

b) Probar directamente que Y es v.a. absolutamente continua.

c) Repetir las partes anteriores para el caso en que Y = eX .

31. Sea X una v.a. tal que X U (1, 1)


p
a) Sea Y = |X|. Hallar la funcion de distribucion de Y .

X si X 0
b) Sea Z = . Hallar la funcion de distribucion de Z.
0 si X < 0
c) Que tipo de v.a. son?.

32. Un juego consiste en tirar tres dados no cargados, si su suma es mayor que
12 tira nuevamente los tres dados. Si la suma de lo obtenido en los tres
dados es menor o igual a 12, tira solo dos dados. Suponga que usted, junto
con un amigo, juegan a este juego y gana aquel que obtenga el menor valor
en la segunda tirada.
Simule (a partir de U U [0, 1]), una competencia de este juego.

Federico De Olivera Lamas


2.6 Ejercicios 133

33. a) Suponga que la llegada de clientes a una caja de supermercado puede


ser modelado con una v.a. de Poisson de parametro = 3 (tres clientes
por minuto). De una simulacion de la cantidad de clientes que llegan
en dos minutos.

b) Suponga que ya llegaron cinco clientes, de una simulacion para el tiem-


po que demorara en llegar el siguiente cliente.

Federico De Olivera Lamas


Captulo 3

Esperanza Matematica

En este captulo trataremos de estudiar algunas caractersticas de las variables


aleatorias, en particular, la esperanza y la desviacion estandar (la cual es una
esperanza en particular). Introduciremos tambien la nocion de momentos y sobre
el final del captulo, otras caractersticas como por ejemplo el modo y los cuartiles.
136 3. Esperanza Matematica

3.1. Esperanza de una variable aleatoria

Hagamos una introduccion a partir de un ejemplo. Supongamos que en una


clase hay 5 individuos cuyas edades son 20, 22, 25, 22, 22. Aqu tenemos que el
promedio (aritmetico) de las edades de los estudiantes es

20 + 22 + 25 + 22 + 22 1 3 1
= 20 + 22 + 25
5 5 5 5

A ninguno se nos ocurrira hacer el promedio considerando simplemente las


20+22+25
edades distintas, por ejemplo 3
pues nos conduce a un resultado distinto
al que queremos, es mas, no refleja el promedio de las edades dentro de la clase.

Supongamos ahora que se elige al azar un estudiante de esa clase y defini-


mos X, la edad del estudiante elegido. Tenemos aqu que P (X = 20) = 1/5,
P (X = 22) = 3/5 y P (X = 25) = 1/5, por ende el promedio de las edades es

20 + 22 + 25 + 22 + 22
= P (X = 20)20 + P (X = 22)22 + P (X = 25)25
5

De esta forma podemos dar una primera idea de lo que es esperanza. Intuiti-
vamente, la esperanza es el promedio de los valores del recorrido, ponderado por
sus respectivas probabilidades. Para el caso discreto podemos formalizar un poco
sin ahondar en mayores detalles tecnicos.

Observacion: notemos que en caso de que el recorrido de X sea infinito


numerable, entonces se trata de una serie, la cual puede ser convergente o no, es
mas, podra ser condicionalmente convergente y de esta forma un cambio en el
orden de los sumandos provocara que la suma sea distinta (podra convertirse
en no convergente), es por ello que a la suma anterior le exigiremos que sea
absolutamente convergente para evitar cambio de valores con reordenaciones.

Federico De Olivera Lamas


3.1 Esperanza de una variable aleatoria 137

Definicion 20 (Esperanza de una v.a. discreta)


[
Sea X una variable aleatoria discreta con recorrido Rec(X) = {xn }, definimos
n
entonces la esperanza matematica de X, o simplemente esperanza de X, como

X
E(X) = P (X = xn )xn
n

siempre que la suma sea absolutamente convergente, en caso de que dicha


suma no sea absolutamente convergente diremos que la esperanza no existe.

La esperanza de una v.a. es comunmente llamada valor esperado o media,


esto ultimo es por ser la media aritmetica de los valores del recorrido ponderados
por sus probabilidades. Mas adelante, cuando estudiemos la Ley de los Grandes
Numeros, veremos otra justificacion para llamarla de esta manera.

Es inmediato deducir que si el recorrido de una variable aleatoria es finito,


entonces su esperanza existe y mas aun, si el recorrido es acotado entonces la es-
peranza existe. En efecto, sea k tal que |xn | k para todo xn Rec(X), entonces
P
0 |xn |P (X = xn ) kP (X = xn ), siendo la suma n P (X = xn ) = 1, por el
P
criterio de comparacion tenemos que la suma n |xn |P (X = xn ) es convergente,
es decir, la esperanza existe.

Ejemplo 49
Sea X una v.a. tal que X U {1, 2, . . . , n}. Notemos que el recorrido es finito y
por ende la esperanza existe, ademas
n
X 1 1 n(n + 1) n+1
E(X) = i= =
i=1
n n 2 2

Ejemplo 50
Sea X una v.a. tal que X Bin(n, p), entonces

Federico De Olivera Lamas


138 3. Esperanza Matematica

n n n
X X X n!
E(X) = i P (X = i) = i Cin p i ni
(1 p) = i p i (1 p)ni
i=0 i=1 i=1
(n i)! i!

n n
X n! X (n 1)!
= p i (1 p)ni = np p i1 (1 p)ni
i=1
(n i)! (i 1)! i=1
(n i)! (i 1)!

n1 n1
X (n 1)! X
= np j
p (1 p)n(j+1)
= np Cjn1 p j (1 p)(n1)j
(n (j + 1))! j!
j=0 | j=0
{z }
Cjn1
| {z }
=1()

En () se usa que si Y Bin(n 1, p), entonces la suma de todos los valores de


la cuanta es uno( Binomio de Newton (a + b)n = kj=0 Cjk a j b kj ).
P

Por lo tanto, siendo el recorrido finito, evidentemente la esperanza existe y


tenemos que E(X) = np /

El estudiante podra notar que se necesita de un importante despliegue de


contenidos de calculo. Por ahora estamos dando simplemente la introduccion
matematica de la esperanza, en breve le encontraremos una gran cantidad de
aplicaciones.

Estudiemos ahora la esperanza de una v.a. con recorrido infinito, por ejemplo:

Ejemplo 51
Sea X una v.a. tal que X P oiss().

Notemos que el recorrido es no negativo y por ende, de ser la serie convergente,


es absolutamente convergente y de aqu que la esperanza existe.

Federico De Olivera Lamas


3.1 Esperanza de una variable aleatoria 139

+ + +
X X n X n
E(X) = n P (X = n) = n e = n e
n=0 n=1
n! n=1
n!
+ + m

X n1
X
= e = e =
n=1
(n 1)! m=0
m!
| {z }
e

Por ende, la valor medio en que ocurre un suceso de Poisson es precisamente


su parametro, ahora tenemos un argumento par estimar el parametro de una
v.a. Poisson. /

Veamos un ejemplo donde la esperanza no existe.

Ejemplo 52
Sea X una v.a. con Rec(X) = {2n : n N } y P (X = 2n ) = 1/2n .
P+
Verifiquemos que se trata de una cuanta, en efecto n=1 1/2n = 1, pero

+ + +
X
n n
X
n1 X
2 P (X = 2 ) = 2 n = 1 = +
n=1 n=1
2 n=1

Por no ser convergente tenemos que la esperanza no existe. /

Veamos ahora un ejemplo donde se pone en evidencia que hay que verificar
siempre la existencia de la esperanza por mas que la suma sea convergente.

Ejemplo 53
Sea X una v.a. discreta con recorrido {1, 2, 3, 4, . . .} = {n(1)n : n N } y
tal que P (X = n(1)n ) = 26n2 . Recordemos que + 2 2
P
n=1 1/n = /6 y por tanto
P+ n
P+ 6
n=1 P (X = n(1) ) = n=1 2 n2 = 1. Ahora,
+ + +
X 6 X n 1 6 X (1)n 6
xn P (X = xn ) = 2 n(1) 2 = 2 = 2 ln(1/2)
n=1
n=1 n n=1 n

Federico De Olivera Lamas


140 3. Esperanza Matematica

Si nos detenemos aqu podramos concluir que la esperanza de X es ln(1/2),


sin embargo, la serie 62 +
P n 2 6
P+
n=1 |n(1) |1/n = 2 n=1 1/n = + y la serie

no converge absolutamente. Como sabemos del curso de analisis, al ser la serie


condicionalmente convergente, los cambios de orden provocan alteraciones en el
valor de la suma. Formalmente, la esperanza no existe. /

La idea intuitiva de esperanza para las v.a. discretas podemos utilizarla pa-
ra definir la esperanza de las v.a. absolutamente continuas. Recordemos que
decamos que era el promedio ponderado de los valores que toma la v.a. por
sus probabilidades. En v.a. absolutamente continuas, la suma se convierte en la
integral y la probabilidad que pondera se convierte en la densidad, el lector no
debe olvidar que simplemente estamos dando una idea intuitiva.

Definicion 21 (Esperanza de una v.a. absolutamente continua)


Sea X una variable aleatoria absolutamente continua con densidad fX , definimos
la esperanza de X como:

Z +
E(X) = t fX (t) dt

Siempre que la integral sea absolutamente convergente, en caso de no serlo dire-


mos que la esperanza no existe.

Es inmediato probar que si el soporte de X esta acotado, entonces la esperanza


de X existe. En efecto, siendo S(X) = {t R : fX (t) > 0} acotado, digamos
|t| k para todo t S(X), entonces

Federico De Olivera Lamas


3.1 Esperanza de una variable aleatoria 141

Z + Z k Z k Z +
|t|fX (t) dt = |t|fX (t) dt + |t|fX (t) dt + |t|fX (t) dt
k k
| {z } | {z }
=0 =0
Z k Z k
= |t| f (t) dt k fX (t) dt = k
k |{z} X k
k | {z }
=1

Siendo el integrando no negativo y la integral acotada, tenemos que la integral


converge absolutamente, es decir, la esperanza existe.

Ejemplo 54
Sea X una v.a tal que X U (a, b). Siendo S(X) = [a, b], de lo anterior tenemos
que la esperanza existe.

=0 =0
z }| { z }| {
Z + Z a Z b Z +
E(X) = t fX (t) dt = tfX (t) dt + tfX (t) dt + tfX (t) dt
a b

b
t2 b b 2 a2
Z  
1 1 b+a
= t dt = = =
a ba ba 2 a 2(b a) 2

Otro de los modelos absolutamente continuos que estudiamos fue el de la


variable aleatoria exponencial.

Ejemplo 55
Sea X tal que X exp(). Siendo el soporte no negativo, la esperanza existe si
la integral es convergente, es decir:

Federico De Olivera Lamas


142 3. Esperanza Matematica

Z + Z +
partes
E(X) = t fX (t) dt = t et dt =
0

+ +
et + et et + 1
Z Z
= t 0
dt et dt = =
| {z } 0 0 0
=0

Por ende, la esperanza de una v.a. exponencial de parametro es 1/, es decir


E(X) = 1/.

Por ultimo calculemos la esperanza de una v.a Normal.

Ejemplo 56
Sea X una v.a. tal que X N (, ). Es inmediato verificar que la esperanza
existe, por ejemplo usando que |t|fX (t) es un infinitesimo de mayor orden que
e|t| para |t| + y el criterio de comparacion por lmites. Luego,

Z + Z +
t ( t
)
/2
2
c.v. x + x2 /2
E(X) = e dt =t e dx =
2 2 x= 2

Z + Z +
1 x2 /2 x 2
= e dx + ex /2 dx =
2 2
| {z } | {z }
=1(1) =0(2)

en (1) se usa que la densidad de una normal (0, 1) integra uno, en (2) se usa
que la funcion es absolutamente convergente e impar, por ende su integral es cero.
/

Debemos terminar esta muestra de ejemplos mostrando una ejemplo donde la


esperanza no existe.

Federico De Olivera Lamas


3.1 Esperanza de una variable aleatoria 143

Ejemplo 57
1
Sea X una v.a. tal que su densidad es f : R R tal que f (x) = , el
R + 1 (1 + x2 )
lector podra verificar que (1+x2 ) dx = 1 y por ende se trata efectivamente
de una densidad. A saber, esta distribucion recibe el nombre de Distribucion de
Cauchy, estandar. Luego,
+
ln(1 + x2 )
Z
x
dx = lm = +
0 (1 + x2 ) x+ 2

y por lo tanto la esperanza no existe.

Observacion: Para dar una forma resumida de esperanza podemos convenir


en anotar lo siguiente:

En el caso que X sea discreta con funcion de distribucion F y recorrido


S P R +
Rec(X) = n {xn }, anotaremos n xn P (X = xn ) = x dF .

En el caso que X sea absolutamente continua con funcion de distribucion


R + R +
F y densidad f , anotaremos t f (t) dt = t dF

No profundizaremos sobre la formalidad de estas nuevas integrales. A sa-


ber, estamos haciendo referencia a la integral de Riemann-Stieltjes, como idea
Z b Xn
inicial podemos decir que xdF = lm (xi )|F (xi+1 ) F (xi )|, donde
a ||P ||0
i=1
P = {x0 , . . . , xn } es una particion de [a, b]. Algunas de las propiedades de es-
ta integral nos seran de ayuda para calcular la esperanza de una v.a. en general.
R R R
Por ejemplo, sin demostrarlo, xd(F + G) = xdF + xdG (cosa que el lector
puede verificar).

Definicion 22 (Esperanza de una v.a. cualquiera)


Sea X una variable aleatoria con funcion de distribucion F , definimos su espe-

Federico De Olivera Lamas


144 3. Esperanza Matematica

ranza como
Z +
x dF

R +
Siempre que la integral
|x| dF sea finita.

Con un curso de Analisis Real podemos interpretar a esta integral como la


integral de Lebesgue.

Observacion: Una v.a. se dice integrable cuando su esperanza existe.

La anterior definicion nos proporciona una herramienta muy util. Por ejemplo
si X es una v.a. mixta tal que su funcion de distribucion es F , como vimos antes,
podemos descomponer a F en su parte discreta mas su parte absolutamente
continua, es decir, F = Fd + Fac , de donde,

Z + Z + Z + Z +
E(X) = x dF = x d(Fd + Fac ) = x dFd + x dFac =

X Z +
= xn P (X = xn ) + x F 0 (x)dx
n

Sin duda que los puntos xn son aquellos donde F presenta un salto, ya que si F
no presenta un salto sabemos que P (X = xn ) = 0. Por otro lado, F 0 es calculada
en todo punto donde sea F derivable, donde no sea derivable la definimos como
cero. Como dijimos antes, F es derivable en casi todo punto y es integrable.
Veamoslo en un ejemplo particular:

Ejemplo 58
Sea U una v.a tal que U U (0, 1) y sea X = mn{X, 1/2}.

Primero hallemos la funcion de distribucion de X.

Federico De Olivera Lamas


3.1 Esperanza de una variable aleatoria 145




0 si x < 0

F (x) = P (X x) = P (mn{U, 1/2} x) x si 0 x < 1/2


si x 1/2

1

Luego,
Z + Z 1/2
X
0 3
E(X) = xn P (X = xn )+ x F (x)dx = 1/2 P (X = 1/2) + t 1 dt =
8
|0
| {z }
n
1/2 {z }
=1/8

Una propiedad muy interesante que cumple la esperanza es que, en caso de


R + R0
que exista, E(X) = 0 (1 F (x)) dx F (x) dx. Para el caso donde X es
absolutamente continua, la prueba la veremos a continuacion, para el caso de X
con recorrido discreto se propone en el practico. En el Anexo 3.8 se encuentra,
para el estudiante interesado, la demostracion donde X es una variable aleatoria
cualquiera, no obstante tomaremos dicha formula como valida.

Teorema 20
Sea X una v.a. absolutamente continua, entonces
Z + Z 0
E(X) = (1 F (x)) dx F (x) dx
0

Federico De Olivera Lamas


146 3. Esperanza Matematica

Siempre que las integrales converjan. En otro caso la esperanza no existe.

Demostracion: Consideremos el caso X absolutamente continua:

Por un lado tenemos:


Z + Z + Z +  Z + Z t 
F ubini
1 F (x) dx = f (t) dt dx = f (t) dx dt
0 0 x 0
| 0 {z }
tf (t)
Z +
= tf (t) dt (3.1)
0

Ahora, para el termino restante tenemos:

Z 0 Z 0 Z x  Z 0 Z 0 
F ubini
F (x) dx = f (t) dt dx = f (t) dx dt

| t {z }
tf (t)
Z 0
= tf (t) dt (3.2)

Luego, usando (3.1) y (3.2) en la definicion de esperanza tenemos que:

Z + Z 0 Z +
E(X) = xf (x) dx = xf (x) dx + xf (x) dx
0
Z + Z 0
= (1 F (x)) dx F (x) dx
0

Para consolidar este resultado, retomemos algun ejemplo y calculemos la es-


peranza con esta igualdad.

Ejemplo 59
Del ejemplo 55 tenemos que si X exp() entonces E(X) = 1/. Usando el
resultado anterior tenemos que:

Federico De Olivera Lamas


3.1 Esperanza de una variable aleatoria 147

+ 0 +
1 x + 1
Z Z Z
E(X) = (1 F (x) ) dx F (x) dx = ex dx = e 0
=
0 | {z } | {z } 0
1ex =0

El lector podra recordar que en el ejemplo 55, fue bastante mas complicado
pues haba que aplicar integracion por partes.

Pasemos ahora al estudio de algunas propiedades de la esperanza:

Proposicion 21
Sean X e Y dos variables aleatorias sobre (, A, P ), integrables (existe su espe-
ranza) y tales que X() Y () para todo . Entonces E(X) E(Y )

Demostracion: Siendo X() Y () tenemos que


{ : Y () x} { : X() x} x R, luego FY (x) FX (x) x R y
1 FX (x) 1 FY (x) x R , por ende

Z + Z 0
E(X) = (1 FX (x)) dx FX (x) dx
Z + 0 Z 0

(1 FY (x)) dx FY (x) dx = E(Y )


0

Observacion: Notemos que si X es una v.a. no negativa, entonces su espe-


R +
ranza existe siempre que sea finita ya que en tal caso la integral x dF es de
terminos no negativos y por ende no oscila. Por ejemplo, si X es discreta tenemos
P
la serie n xn P (X = xn ) que es de terminos positivos o si X es absolutamente
R + R +
continua tenemos la integral xf (x) dx la cual es igual a 0 xf (x) dx por
ser f (x) = 0 para todo x < 0. De aqu que tenemos el siguiente corolario:

Federico De Olivera Lamas


148 3. Esperanza Matematica

Corolario 21.1
Sea X e Y variables aleatorias tales que |X| Y e Y es integrable, entonces X
es integrable.

Demostracion: Siendo |X| una variable aleatoria no negativa, basta probar


R +
que 0 (1 F|X| (x))dx este acotada para que exista E(|X|) y de aqu que E(X)
existe. Luego 0 |X| Y y de aqu que

F|X| (x) FY (x) x R

Es inmediato deducir que

Z + Z +
0 (1 F|X| (x)) dx (1 FY (x)) dx = E(Y ) < +
0 0

por el Teorema 21 tenemos que 0 E(|X|) E(Y ). 

3.2. Esperanza de una transformacion de v.a.

Siendo X una variable aleatoria integrable, podemos definir Y = aX + b,


donde a, b R, de esta forma Y es una v.a. pues Y = g(X) donde g : R R tal
que g(x) = ax + b es medible. Tratemos de hallar esperanza de Y .

Si a = 0, tenemos que P (Y = b) = 1 y por ende Y es una v.a. degenerada,


su esperanza es E(Y ) = b P (Y = b) = b.

xb
Si a > 0, luego FY (x) = P (aX + b x) = P (X a
) = FX ( xb
a
) y de
aqu que

Federico De Olivera Lamas


3.2 Esperanza de una transformacion de v.a. 149
Z + Z 0
E(Y ) = (1 FY (x)) dx FY (x) dx =
0

+   Z 0  
xb xb
Z
c.v.
(1 FX ) dx FX dx =
0 a a y= xb
a

Z + Z b/a
a (1 FX (y)) dy a FX (y) dy =
b/a

Z + Z 0 Z 0 Z b/a
a (1 FX (y)) dy a FX (y) dy + a (1 FX (y)) dy a FX (y) dy =
0 b/a 0

Z 0
aE(X) + a 1 dx = aE(X) + b
b/a

Si a < 0 trabajando de forma analoga tenemos que E(Y ) = aE(X) + b

En resumen tenemos que si X es una v.a. integrable y a, b R, entonces


E(aX + b) = aE(X) + b. Esta propiedad es la linealidad de la esperanza, enun-
ciemos este resultado:

Proposicion 22 (Linealidad de la esperanza)


Sea X una v.a., a y b reales. Entonces X es integrable si y solo si aX + b es
integrables, en tal caso:

E(aX + b) = aE(X) + b

El anterior desarrollo nos muestra que


Z +
E(aX
| {z+ }b) = ax + }b dFX

| {z
g(X) g(x)

El resultadoesto puede ser generalizado para cualquier funcion medible que


le apliquemos a una v.a., la prueba formal en los casos generales requieren de

Federico De Olivera Lamas


150 3. Esperanza Matematica

contenidos de analisis real y es por este motivo que solo veremos la prueba para
los dos casos mas importantes: discretas y absolutamente continuas. Pero ojo,
 
no confundirse, el resultado E g(X) = g E(X) generalmente no es valido,
salvo que la transformacion g sea afn.

Teorema 23
S
Sea X una v.a. discreta con recorrido Rec(X) = n {xn } y g : R R una funcion
medible, entonces, siendo Y = g(X),
X
E(Y ) = g(xn )P (X = xn )
n

Siempre que la suma sea absolutamente convergente.

S
Demostracion: Recordemos que Y es una v.a. discreta y si Rec(Y ) = j {yj }
X
tenemos que P (Y = yj ) = P (X = xn ), luego
n:g(xn )=yj

X X X
E(Y ) = yj P (Y = yj ) = yj P (X = xn ) =
j j n:g(xn )=yj

n:xn Rec(X)
g(xn ) z }|X {
X X z}|{ X
= yj P (X = xn ) = g(xn )P (X = xn )
j n:g(xn )=yj j n:g(xn )=yj

X
= g(xn )P (X = xn )
n

Ejemplo 60
Se tira un dado no cargado 6 veces, nuestro exito es obtener un 5, sabemos que
la cantidad de exitos en estas condiciones es una v.a. X donde X Bin(6, 1/6),

Federico De Olivera Lamas


3.2 Esperanza de una transformacion de v.a. 151

sabemos que E(X) = np = 1. Ahora nos interesa saber la distancia media de X


a su valor esperado, es decir E(Y ) = E(|X 1|). Que espera el estudiante que
ocurra?.

Recordemos que la esperanza es un promedio ponderado, por ende, la espe-


ranza de Y nos da, en promedio cuanto se aleja X de su valor esperado. El
promedio es al realizarse varios ensayos. Veamos cuanto vale dicha esperanza:
Rec(X) = {0, 1, 2, 3, 4, 6} y siendo pi = P (X = i) = Ci6 1/6i (5/6)6i tenemos

6 6
(1) X X
E(Y ) = E(|X 1|) = |i 1|pi = (1 0)p0 + (i 1)pi
i=0 i=1
6
X X 6 6
X 6
X
= p0 + i pi pi = p 0 + i pi pi =
i=1 i=1 i=1 i=1
| {z } | {z }
E(X)=1 1p0
6
= p0 + 1 + p0 1 = 2p0 = 2(5/6) = 0, 67

Observemos que en (1) se ha usado el Teorema 23, en caso de no usarlo


tendramos que hallar la cuanta de Y , cosa que no fue necesaria.

Este dato puede ser interpretado diciendo que al repetir muchas veces el expe-
rimento, el valor de X obtenido se aleja, en promedio, 0, 67 de su valor esperado.

Teorema 24
Sea X una v.a. absolutamente continua cuyo soporte esta incluido en un intervalo
I. Sea g : R R tal que g es monotona estricta y derivable en I, entonces, siendo
Y = g(X) tenemos que

Z +
E(Y ) = g(x)fX (x) dx

Siempre que la integral converja absolutamente.

Federico De Olivera Lamas


152 3. Esperanza Matematica

Demostracion: Supongamos que g es creciente en I, es analogo si fuese decre-


ciente. Recordemos del Teorema 17 que f : R R es tal que
fX (g 1 (y))
fY (y) = I{yg(I)}
g 0 (g 1 (y))

+ sup g(I) sup g(I)


fX (g 1 (y))
Z Z Z
c.v.
E(Y ) = yfY (y) dy = yfY (y) dy = y dy =
nf g(I) nf g(I) g 0 (g 1 (y)) x=g 1 (y)

Z sup(I) Z +
= g(x)fX (x) dx = g(x)fX (x) dx
nf(I)

Ejemplo 61
Sea X tal que X exp(), ya sabemos que E(X) = 1/, tratemos de calcular
E(X 2 ).

Siendo S(X) = {x R : fX (x) > 0} = (0, +), tenemos que g : R R tal


que g(x) = x2 esta en las hipotesis del Teorema anterior, por ende

Z + Z +
(1) 2
2
E(X ) = E(g(X)) = 2
x fX (x) dx = x2 ex dx =
0 2

En (1) se utiliza integracion por partes, el lector puede operar para llegar al
resultado. /

Como dijimos, no demostraremos el resultado general, pero s enunciemoslo

Teorema 25
Sea X una v.a. con distribucion FX , g : R R una funcion medible e Y = g(X),
entonces Z +
E(Y ) = g(x)dFX

Federico De Olivera Lamas


3.2 Esperanza de una transformacion de v.a. 153

Siempre que la esperanza exista.

Como vimos en los ejemplos 55 y 61 , tenemos que si X exp(), entonces


E(X) = 1/ y E(X 2 ) = 2/2 , de donde E 2 (X) = 1/2 < 2/2 = E(X 2 ), esta
propiedad es generalizada en la desigualdad de Jensen que veremos a continua-
cion.

Teorema 26 (Desigualdad de Jensen)


Sea X una v.a. integrable y sea : R R una funcion convexa y medible.
Entonces
E((X)) (E(X))

Demostracion: Recordemos que una funcion : R R es convexa si existe


una recta que pasa por (x0 , (x0 )) que deja por encima el grafico de . Dado
x0 R, sea r : R R tal que r(x) = (x0 ) + (x x0 ) dicha recta.

Siendo (x) r(x) para todo x R, tenemos que


(X) r(X) = (x0 ) + (X x0 ), aplicando el Teorema 21, tenemos que

  linealidad
E (X) E (x0 ) + (X x0 ) = (x0 ) + E(X) x0

 
Eligiendo en particular x0 = E(X), tenemos que E (X) E(X) . 

El lector podra verificar que si es concava, es decir, para cada x0 R existe


 
una recta r tal que (x) r(x) para todo x R, entonces E (X) E(X) .

Observacion: Si bien (X) puede no ser


integrable, por ser

(X) (x0 ) + (X x0 ), solo puede ocurrir que E (X) = + y la
desigualdad se cumple en R = R {+, }.

Federico De Olivera Lamas


154 3. Esperanza Matematica

3.3. Momentos

Definicion 23 (Momentos)
Dada una v.a. X y un natural k,

llamamos momento de orden k, a la esperanza de X k , es decir E(X k ).

llamamos momento absoluto de orden k,a la esperanza de |X|k .


k
llamamos momento centrado de orden k, a la esperanza de X E(X) ,
k
es decir E X E(X)

Siempre que las esperanzas involucradas existan.

Observacion:

1. Es inmediato observar que el momento (no centrado) de orden uno es la


propia esperanza de X.

2. Si una variable aleatoria es no negativa, entonces el momento absoluto de


orden k, coincide con el momento de orden k.

3. Para que el momento de orden k exista, es necesario y suficiente que sea


finito el momento absoluto de orden k. En efecto, E(X k ) existe si y solo si
R k R
x dFX converge absolutamente, si y solo si |x|k dFX converge, si y solo
si E(|X|k ) es finita.

4. Tomando Y = X E(X), es inmediato probar que el momento centrado


de orden k existe si y solo si el momento centrado absoluto es finito.

5. El momento centrado de orden uno es nulo, en efecto

linealidad
E(X E(X)) = E(X) E(X) = 0

Federico De Olivera Lamas


3.3 Momentos 155

Teorema 27
Sea X una v.a. tal que existe su momento de orden k, entonces existe su momento
de orden s, para s = 0, . . . , k.

Demostracion: Sea s un natural tal que s k, aqu tenemos que |X|s 1+|X|k
y como |X|s 0 tenemos que 0 |X|s 1 + |X|k . Aplicando la Proposicion 21 y
(1)
el corolario 21.1 tenemos que 0 E(|X|s ) 1 + E(|X|k ) < y por ende existe
el momento de orden s. En (1) se utiliza la observacion anterior. 

Observacion: Analogamente si E(X E(X))k existe entonces existe


E(X E(X))s para s = 0, . . . , k.

Definicion 24 (Varianza)
Dada una variable aleatoria X, llamamos varianza de X, al momento centrado
de segundo orden.
nt
V (X) = E(X E(X))2

siempre que la esperanza exista.

Teorema 28
Sea X una v.a., entonces, en condiciones de existencia:

1. V (X) 0.

2. V (X) = 0 si y solo si X es una v.a. degenerada.

3. V (aX + b) = a2 V (X), para todo a, b R.

nt
4. V (X) = E(X 2 ) E 2 (X), (E 2 (X) =(E(X))2 ).

5. V (X) = E(X(X 1)) + E(X) E 2 (X).

Federico De Olivera Lamas


156 3. Esperanza Matematica

Demostracion: 1. Siendo (X E(X))2 0 del Teorema 21, tenemos que


E(X E(X))2 E(0) = 0, es decir V (X) 0.

2. Directo: Sean = E(X) e Y = (X )2 . Supongamos que existe y > 0


tal que FY (y) < 1, luego, siendo Y 0
Z + Z y

E(Y ) = (1 FY (x)) dx (1 FY (x)) dx y 1 FY (y) > 0
0 | {z } 0 | {z }
0 1FY (y)

Pero por ser E(Y ) = V (X), por hipotesis E(Y ) = 0. El absurdo


se genera al suponer que existe y > 0 tal que FY (y) < 1 , en-
tonces FY (y) = 1 para todo y > 0 y por la continuidad por de-
recha de FY tenemos que FY (0) = 1. Siendo Y 0, tenemos que
P (Y < 0) = 0 y de aqu que P (Y = 0) = FY (0) FY (0 ) = 1 , es decir
1 = P ((X )2 = 0) = P (X = ), es decir X es una v.a aleatoria degene-
rada en .

Recproco: Si X es una v.a. degenerada, existe R tal que


P (X = ) = 1, entonces E(X) = , luego

V (X) = E(X )2 = ( )2 P (X = ) = 0
| {z }
=1

3. V (aX + b) = E(aX + b E(aX + b))2 = E(aX + b aE(X) b)2 =


E(a(X E(X)))2 = a2 E(X E(X))2 = a2 V (X).

4. Sea E(X) =
Z
V (X) = E(X ) = E(X 2X ) = (X 2 2X 2 )dFX
2 2 2
Z Z
= X dFX 2 XdFX + 2 = E(X 2 ) 2 + 2 = E(X 2 ) 2
2

= E(X 2 ) E 2 (X)

5. E(X(X 1)) = E(X 2 ) E(X), resta aplicar V (X) = E(X 2 ) E 2 (X) para
obtener la tesis.

Federico De Olivera Lamas


3.3 Momentos 157

Observacion: Siendo V (X) 0, su raz cuadrada esta bien definida.

Definicion 25 (Desvo estandar)


Sea X una v.a., llamamos desvo estandar de X a la raz cuadrada de la varianza.

nt
p
X = V (X)

Siempre que la varianza exista.

Observacion: En virtud de la anterior definicion es comun anotar a la va-


2
rianza de una variable aleatoria X como X .

Supongamos que queremosmedir en promedio, cuanto se alejan los posibles


valores de la v.a. X de su valor esperado. Una primer idea sera trabajar con una
v.a. discreta, en particular supongamos que X U {1, 2, . . . n}.
Pn 1 n+1
Aqu tenemos que E(X) = i=1 i n
= 2
, por ende la distancia de cada
n+1
valor del recorrido a dicha esperanza es |i 2
| i = 1, 2, . . . , n. Para calcular
el valor promedio de estas distancias simplemente tenemos que hacer:
n
X
i n + 1 1

i=1
2 n

Notemos que en este caso, donde X U {1, 2, . . . , n} tenemos que dicho


promedio es simplemente E(|X E(X)|). Si bien esta sera la forma de me-
dir la distancia media entre los valores de X y su valor esperado, notemos que
p
E(|X E(X)|) = E( (X E(X))2 ).

Si bien no es igual, una medida similar se obtiene al hacer


p
E(X E(X))2 , es decir X . Aplicando la desigualdad de Jensen, por ser

: [0, +) R tal que (x) = x una funcion concava, tenemos que
p p
E(|X E(X)|) = E( (X E(X))2 ) E(X E(X))2 .

Federico De Olivera Lamas


158 3. Esperanza Matematica

Sin embargo, el desvo estandar de una v.a. puede ser interpretado como la
distancia media entre los valores del recorrido de X y su valor esperado.

Ejemplo 62
Sea X una v.a. tal que X U {1, 2, . . . , n}.

n
2
X 1 n(n + 1)(2n + 1) (n + 1)(2n + 1)
E(X ) = i2 P (X = i) = =
| {z } n 6 6
i=1
1/n

(n + 1)(2n + 1) (n + 1)2 n2 1
y por ende V (X) = E(X 2 ) E 2 (X) = =
6 4 12


n2 1
de donde tenemos que el desvo de X es X = /
2 3

Ejemplo 63
Sea X una v.a. tal que X Bin(n, p). Notemos que en este caso, al intervenir
el factorial en P (X = k) = Ckn p k (1 pnk ), es conveniente hallar la varianza
|{z}
n!
(nk)!k!

por medio de la formula V (X) = E(X(X 1)) + E(X) E 2 (X). Recordemos


que E(X) = np.

Federico De Olivera Lamas


3.3 Momentos 159

n
X n
X
E(X(X 1)) = k(k 1)Ckn p k (1 nk
p) = k(k 1)Ckn p k (1 p)nk
k=0 k=2
n n
X n! X n!
= k(k 1) p k (1 p)nk = p k (1 p)nk
k=2
(n k)!k! k=2
(n k)!(k 2)!
n
X (n 2)! c.v.
= n(n 1)p 2 p k2 (1 p)nk =
k=2
(n k)!(k 2)! j=k2
n2
X (n 2)!
= n(n 1)p 2 p j (1 p)n2j = n(n 1)p 2
j=0
(n 2 k)!j!
| {z }
n2
X
Cjn2 p j (1 p)n2j = (p + 1 p)n2
j=0

Por ende

V (X) = n(n 1)p 2 + np n2 p2 = n2 p2 np2 + np n2 p2

= np(1 p)

Ejemplo 64
Sea X un v.a. tal que X P oiss(), recordemos que E(X) = . Nuevamente
aqu es conveniente primero hallar E(X(X 1)).

+ +
X k X k
E(X(X 1)) = k(k 1) e = k(k 1) e
k=0
k! k=2
k!
+
X k2
= 2 e = 2
(k 2)!
|k=2 {z }
=1

Por ende V (X) = E(X(X 1)) + E(X) E 2 (X) = 2 + 2 = .

Es interesante observar que en la distribucion de Poisson, coinciden la espe-


ranza y la varianza. /

Federico De Olivera Lamas


160 3. Esperanza Matematica

Pasemos a ver ahora algunos ejemplos de variables absolutamente continuas.

Ejemplo 65
Sea X tal que X U (0, 1). Recordemos que E(X) = 1/2

+ 1
x3 1 1
Z Z
2 2
E(X ) = x fX (x) dx = x2 dx = =
0 3 0 3

Por ende V (X) = E(X 2 ) E 2 (X) = 1/3 1/4 = 1/12 /

Observacion: Si Y es una v.a. tal que Y U (a, b), podemos pensar que
Y = (b a)X + a. Por las propiedades de la varianza tenemos que

(b a)2
V (Y ) = V ((b a)X + a) = (b a)2 V (X) =
12

Ejemplo 66
Sea X una v.a. tal que X exp(). Recordemos que E(X) = 1/.

Z + Z +
partes
2
E(X ) = 2
x fX (x) dx = x2 ex dx = 2/2
0

Por ende V (X) = 2/2 1/2 = 1/2 . Observemos aqu que el desvo es
X = 1/ = E(X).

Por ultimo, calculemos la varianza de una v.a. normal.

Ejemplo 67
Sea X una v.a. tal que X N (, ). Recordemos que E(X) = .

Federico De Olivera Lamas


3.4 Funcion Generatriz de Momentos 161

+ +
(x )2 ( x 2 t2
Z 2
Z
e ) /2 dx =
c.v. 2
V (X) = et /2 dt
Z + 22 2
t= x

t 2
= 2 et /2 dt
2

Notemos ahora que


Z + Z +
1 t2 /2 partes 1 t2 /2 + 1 2
et /2 dt = 1

t te dt = (t e
)+
2 2 | {z } 2
=0
| {z }
=1

Por lo tanto V (X) = 2 . Es bueno observar que en una variable aleatoria nor-
mal, los parametros y son respectivamente su esperanza y su desvo estandar.
/

3.4. Funcion Generatriz de Momentos

Pasemos ahora a estudiar algunas funciones que guardan un estrecho vnculo


con la distribucion de una variable aleatoria, ellas son la funcion generatriz de
momentos y la funcion caracterstica.

En este captulo solo podremos ver la definicion y algunas pocas propiedades,


una de las mayores riquezas de trabajar con estas funciones se podra ver al
estudiar vectores aleatorios y convergencias.

Consideremos una v.a. X y una transformacion continua dada por g : R R


tal que g(x) = et x donde t es un real arbitrario. Entonces, definiendo
Y = g(X) = e tX , tenemos que Y es una variable aleatoria cuya esperanza pue-
de existir o no. Tratemos de indagar los valores de t, para los cuales podemos
asegurar la existencia de la esperanza de Y = e tX .

Si t = 0, entonces e tX() = 1 para todo , por ende E(e tX ) = E(1) = 1


y la esperanza existe.

Federico De Olivera Lamas


162 3. Esperanza Matematica

Puede ocurrir que E(e tX ) exista solo para t = 0, por ejemplo si X se distribuye
1
Cauchy, esto es, con densidad fX : R R tal quefX (x) = (x2 +1)
. Es inmediato
verificar que fX es una densidad, aqu tenemos que

+
e tx
Z
tX
E(e )= dx converge t = 0
(x2 + 1)

Notemos que puede ocurrir tambien que E(e tX ) exista para algun otro valor
de t, eso dependera de la distribucion de X.

Con la introduccion anterior estamos en condiciones de definir la funcion


generatriz de momentos:

Definicion 26 (Funcion generatriz de momentos)


Sea X una v.a. y t0 (0, +] tal que para todo t (t0 , t0 ) la esperanza E(e tX )
existe. Llamamos funcion generatriz de momentos de X a la funcion

MX : (t0 , t0 ) R tal que MX (t) = E(e tX )

Observacion: por lo comentado mas arriba tenemos que no siempre existe


la funcion generatriz de momentos. En efecto, si X tiene distribucion de Cauchy,
no existe t0 > 0 tal que E(e tX ) sea finita para todo t (t0 , t0 ), por ende no
podemos definir la funcion generatriz de momentos de esta variable.

Antes de ver algunos ejemplos veamos dos resultados que nos seran muy utiles.

Teorema 29
Sea X una variable aleatoria acotada, es decir, existe k R tal que |X()| k
para todo . Entonces E(e tX ) existe para todo t R.

Demostracion: Por ser |X| k, tenemos que tX |t|k y por ende 0 e tX

Federico De Olivera Lamas


3.4 Funcion Generatriz de Momentos 163

e |tX| e |t|k y aplicando la Proposicion 21

0 E(e tX ) E(e |t|k ) = e |t|k < + t R

Teorema 30
Sea X una v.a. con funcion generatriz de momentos MX : (t0 , t0 ) R. Sea
a > 0 y b R y consideremos la v.a. Y = aX + b, entonces la generatriz de
momentos de Y es

MY : (t0 /a, t0 /a) R tal que MY (t) = e tb MX (at)

Demostracion:

E(e tY ) = E(e t(aX+b) ) = E(e tb e taX ) = e tb E(e ta X ) = e tb MX (at)

donde MX (at) esta definida siempre que at (t0 , t0 ), es decir t


(t0 /a, t0 /a) 

Observacion: analogamente si a < 0 entonces MaX+b (t) = e tb MX (at) donde


t (t0 /a, t0 /a).

Pasemos ahora s, a ver algunos ejemplos:

Ejemplo 68
Sea X tal que X U {1, 2, . . . , n}. Por ser X acotada, MX es definida sobre R.


t t(n+1)
n
1 1
n 1 e e

si t 6= 0
k
X X
MX (t) = E(e tX ) = e tk = et =

n 1 et
n n
1 si t = 0

k=1 k=1


et 1 e tn
si t 6= 0


En resumen MX (t) = 1 et n
1 si t = 0

Federico De Olivera Lamas


164 3. Esperanza Matematica

El lector podra verificar la continuidad de MX , mas aun, MX es de clase C .


/

Ejemplo 69
Sea X una v.a. tal que X Bin(n, p). Por ser X acotada, MX es definida sobre
R, llamemos q = 1 p. Entonces
n n
binomio
X X
MX (t) = E(e tX ) = e tk Ckn p k q nk = Ckn (pet )k q nk = (pet + q)n
de N ewton
k=0 k=0

Nuevamente MX es de clase C . /

Ejemplo 70
Sea X tal que X geom(p). Aqu X no es acotada, sea q = 1 p 6= 0, entonces

+ +
tX
X
tk k
X serie p
MX (t) = E(e )= e pq = p(et q)k =
k=0 k=0
geom. 1 et q
t
para todo t tal que |e q| < 1, es decir t (ln(q), ln(q)).
p
Por lo tanto tenemos que MX : (ln(q), ln(q)) R y MX (t) = . /
1 et q

Ejemplo 71
Sea X una v.a. tal que X P oiss(). Entonces

+ k + k
X
tk
X (et ) t t
MX (t) = E(e tX
)= e e = e = ee e = e(e 1)
k=0
k! k=0
k!

xk
P+
Aqu la esperanza existe para todo t R, recordemos que ex = k=0 k! x R.
/

Veamos algunos ejemplos para variables aleatorias absolutamente continuas:

Federico De Olivera Lamas


3.4 Funcion Generatriz de Momentos 165

Ejemplo 72
Sea X una v.a. tal que X U (0, 1). Por ser X acotada tenemos que MX es
definida sobre R. Entonces

tx t
Z 1 e 1 = e 1 si t 6= 0
MX (t) = E(e tX ) = e tx 1 dx = t 0 t
0
1 si t = 0

Ejemplo 73
Sea X tal que X exp(). Recordemos que > 0, entonces

Z + Z +
tX tx x
MX (t) = E(e )= e e dx = e(t)x dx
0 0

t< e(t)x +
= 0
=
t t


Por lo tanto MX : (, ) R y MX (t) = .
t
/

Por ultimo, veamos la funcion generatriz de probabilidades de una variable


aleatoria normal:

Ejemplo 74
Comencemos por hallar la funcion generatriz de momentos de una normal
estandar, es decir Z donde Z N (0, 1).

+ +
e tx
Z Z
2 1 2
MZ (t) = E(e ) = tZ
ex /2 dx = extx /2 dx
2 2

Federico De Olivera Lamas


166 3. Esperanza Matematica

notemos aqu que completando cuadrados tenemos que


(x t)2 + t2
xt x2 /2 =
2

aplicando este resultado en el integrando anterior tenemos que:

Z + Z +
1 (xt)2 +t2 2 1 (xt)2 2
MZ (t) = e 2 dx = et /2 e 2 dx = et /2
2 2
| {z }
=1()

()
R +
En se usa que si Y N (t, 1) entonces
fY (x) dx = 1.

En conclusion, la funcion generatriz de momentos de una v.a. normal estandar


2 /2
es MZ : R R tal que MZ (t) = et .

Sea ahora X una v.a. tal que X N (, ), entonces podemos pensar que
X = Z + , donde Z N (0, 1).

Ahora, del Teorema 30, tenemos que MX : R R es tal que

2 t2 /2 2 t2 /2+t
MX (t) = e t MZ (t) = e t e = e

Todo el trabajo de hallar la funcion generatriz de momentos no se justifica si


no le encontramos alguna virtud. Precisamente, pasemos ahora a estudiar algunas
de las aplicaciones de esta funcion.

Teorema 31
La funcion generatriz de momentos determina, de forma unica, la distribucion de
una variable aleatoria.

La demostracion de este teorema necesita de un despliegue de resultados de

Federico De Olivera Lamas


3.4 Funcion Generatriz de Momentos 167

Analisis Real, como por ejemplo las condiciones para intercambiar derivada con
integral (de Lebesgue o de Riemann-Stieltjes) de una funcion parametrica.

Observacion: del teorema se deduce por ejemplo que, si transformamos una


variable aleatoria y desconocemos la distribucion resultante, pero logramos iden-
tificar a su funcion generatriz de momentos con alguna de las asociadas a variables
ya estudiadas, entonces la transformacion tendra la misma distribucion que esa
variable.

Ejemplo 75
Sea X una v.a. tal que X exp(), sea a > 0 e Y = aX. Recordemos que

MX : (, ) R es tal que MX (t) = t
. Luego

/a
MY (t) = E(e tY ) = E(e taX ) = MX (ta) = = =
ta ta /a t

Por lo tanto Y exp(/a) /

Otro de los resultados importantes es que, a traves de la funcion generatriz


de momentos se pueden obtener los momentos, de ah el nombre.

Teorema 32
Sea X una v.a. con funcion generatriz de momentos MX : (t0 , t0 ) R donde
t0 (0, +], entonces
dk
MX (t)|t=0 = E(X k )
dtk

Demostracion: Nuevamente aqu la demostracion no esta al alcance de nuestros


conocimientos de matematica, pero veremos una version intuitiva:

Federico De Olivera Lamas


168 3. Esperanza Matematica

+
! +
!
+
(tX)n ) (tx)n
Z
T aylor
X X
MX (t) = E(e tX ) = E = dFX
n=0
n! n=0
n!


+ Z + + n Z + +
(tx)n tn

t
X X X
= dFX = (x)n dFX = E(X n )

n! n! n!

n=0 n=0
n=0
| {z }
E(X n )

Por ser una serie de Taylor definida en un intervalo no degenerado (t0 , t0 ),


sabemos de analisis II, que su derivada en un entorno de cero es:

+  +  k 
dk dk X n n
 X 
n t d n t
MX (t) = E(X ) = E(X ) =
dtk dtk n=0 n! n=0
dtk n!

+ +
n(n 1) (n k + 1) tnk tnk
X   X
n
= E(X ) = E(X n )
n=k
n! n=k
(n k)!

Recordemos que convenimos que 00 = 1, luego, evaluando la derivada anterior


en t = 0 obtenemos que todos los terminos se anulan, salvo para n = k, donde
dk
obtenemos E(X k ), es decir: dtk
MX (t)|t=0 = E(X k ). 

Sin lugar a duda que este resultado nos simplificara mucho el trabajo a
la hora de calcular esperanzas y varianzas. Por ejemplo, recordemos que en
una v.a. X U (0, 1), tenamos que E(X) = 1/2 y MX : R R tal que
t
e 1 si t 6= 0
MX (t) = t . Luego,
1 si t = 0

MX (t) 1 et 1 t L0 Hopital et 1
MX0 (0) = lm = lm = lm = 1/2
t0 t t0 t2 t0 2t

Pero mas aun, recordemos el trabajo para calcular la esperanza y varianza

Federico De Olivera Lamas


3.5 Funcion caracterstica 169

de una v.a. X N (, ). Sabiendo ahora que su generatriz de momentos es


2 t2 /2+t
MX : R R tal MX (t) = e , entonces

d  2 t2 /2+t  
2 2 t2 /2+t

E(X) = e |t=0 = ( t + )e |t=0 =
dt

d2 2
   
2 2 t2 /2+t 2 2 2 2 t2 /2+t
E(X ) = ( t + )e |t=0 = (( t + ) + )e |t=0 = 2 + 2
dt2

por lo tanto, V (X) = E(X 2 ) E 2 (X) = 2 + 2 2 = 2 y volvemos a


encontrar la varianza de X.

Claro esta que si uno ya conoce la esperanza y varianza de una v.a. no tiene
que hacer todo este proceso, el resultado es util cuando se puede obtener la funcion
generatriz de momentos de una cierta v.a. en un intervalo (t0 , t0 ). Para obtener
los distintos momentos tenemos que hallar las derivadas en cero.

Como vimos con la distribucion de Cauchy, la funcion generatriz de momentos


no siempre existe, es mas, por el Teorema31 tenemos que si alguno de los mo-
mentos no existe, entonces no puede existir la funcion generatriz de momentos.
Para levantar este problema y tener una funcion similar que exista para toda
distribucion es que introducimos la funcion caracterstica.

3.5. Funcion caracterstica

Recordemos un poco el trabajo sobre el cuerpo complejo. Tenamos que


i C es tal que i2 = 1. Definamos la exponencial compleja como
df
e it = cos(t) + isen(t) y tenamos la interesante propiedad |e it | = 1 para todo
t real, por ende la exponencial compleja siempre es acotada.

Federico De Olivera Lamas


170 3. Esperanza Matematica

Siendo X una v.a. tenemos que eitX = cos(tX) + isen(tX), la cual tambien
es una variable aleatoria pero ahora en C. Luego |e itX() | = 1 para todo t R y
todo , por ende, siendo una v.a. acotada tenemos que su esperanza existe
para todo t real, aqu definimos E(eitX ) = E(cos(tX)) + iE(sen(tX)).

Definicion 27 (Funcion caracterstica)


Sea X una variable aleatoria, llamamos funcion caracterstica de X a la funcion:

: R C tal que (t) = E(e itX )

Tomando a i como una constante, podemos ver que (t) = E(e (it)X ), luego, para
obtener una forma explcita de la funcion caracterstica de una variable aleatoria
no hay mayores diferencias que para obtener la generatriz de momentos, sin duda
que hablamos intuitivamente.

A continuacion mostremos la funcion caracterstica para los casos que estudia-


mos la generatriz de momentos. El lector podra notar que basicamente se trata
de sustituir it donde apareca t.

Una de las mas importantes propiedades de la funcion caracterstica es que


determina de forma unica a la distribucion de una variable aleatoria, puede verse
una demostracion de esta propiedad en el libro de Petrov-Mordecki, Teora de
Probabilidades [3]. En este curso simplemente hacemos una introduccion para
que el lector conozca a esta funcion.

Vale tener en cuenta que la funcion generatriz de momentos tambien determi-


naba de forma unica a la distribucion, pero recordemos que no siempre exista.
Ahora, la funcion caracterstica, tambien determina la distribucion y ademas
siempre existe, es esta una virtud que nos obliga a tenerla en cuenta. Si bien este
curso es introductorio y no tenemos conocimientos suficientes para profundizar
sobre la funcion caracterstica,sera deseable poder trabajar con esta.

Federico De Olivera Lamas


3.5 Funcion caracterstica 171

Distribucion Generatriz de momentos Funcion caracterstica


X Bin(n, p) M : R R tal que : R C tal que
M (t) = (pe t + q)n (t) = (pe it + q)n
X Geom(p) M : (ln(q), ln(q)) R tal que : R C tal que
p p
M (t) = (t) =
1 e tq 1 e it q
X P oiss() M : R R tal que : R C tal que
t 1) it 1)
M (t) = e (e (t) = e (e
X exp() M : (, ) R tal que : R C tal que

M (t) = (t) =
t it
X N (0, 1) M : R R tal que : R C tal que
2 /2 2 /2
M (t) = e t (t) = et
X N (, ) M : R R tal que : R C tal que
2 t2 /2+t 2 t2 /2+it
M (t) = e (t) = e

Cuadro 3.1: Tabla de Funcion Generatriz de Momentos y Funcion Caracterstica


para algunas distribuciones.

Federico De Olivera Lamas


172 3. Esperanza Matematica

3.6. Otras medidas de una variable aleatoria

Como vimos, no siempre existe la esperanza de una variable aleatoria, por


tal motivo no siempre podemos obtener esa idea de promedio, lo que representa
en algun sentido el centro de la distribucion. Esto, entre otras cosas, motiva a
definir algunas medidas que den informacion resumida de una variable aleatoria
sin utilizar los momentos.

Definicion 28 (Mediana)
Sea X una variable aleatoria con funcion de distribucion F . Llamamos mediana
de X a:

xme = inf {x R : F (x) 1/2}

Recordemos de la simulacion montecarlo, en particular del Teorema19, que


dicho nfimo es alcanzado en el conjunto y por ende es mnimo, por lo tanto
xme = F (1/2) = mn{x R : F (x) 1/2}.

Si existe un unico x tal que F (x) = 1/2, entonces xme = x.

La mediana de una v.a. siempre existe y sabemos que xme es el primer


valor que acumula al menos la mitad de la probabilidad, en algun sentido nos
proporciona informacion sobre el centro de la distribucion.

Antes de ver algunos ejemplos es importante observar que en la gran mayora


de los textos aparece otra definicion de mediana, a saber, se suele definir mediana
como aquel real xme tal que F (xme ) 1/2 y F (xme ) 1/2 . Aqu es inmediato
verificar que la mediana no es unica y toma valores que podran no estar en el
recorrido de la v.a., es por ello que nosotros en este curso tomamos el nfimo.

Veamos ahora algunos ejemplos

Federico De Olivera Lamas


3.6 Otras medidas de una variable aleatoria 173

Ejemplo 76
Sea X una v.a. tal que X U {1, 2, . . . , n}. La funcion de distribucion de X es
F : R R tal que



0 si x < 1

[x]
X
F (x) = 1/n = [x]/n si 1 x n



i=1

1 si x > n

donde [x] es la parte entera de x.

Si n es par, entonces F (n/2) = (n/2)/n = 1/2 y por ende xme = n/2, notemos
que es el menor valor del recorrido que es mayor o igual a 1/2.

Si n es impar, entonces n + 1 y n 1 son pa-


res, luego F ((n + 1)/2) = (n + 1)/(2n) = 1/2 + 1/n > 1/2 y
F ((n 1)/2) = (n 1)/(2n) = 1/2 1/n < 1/2, notemos que si x esta en-
tre (n 1)/2 y (n + 1)/2 entonces F (x) < 1/2. Por ende xme = (n + 1)/2.

Es muy sencillo ver la mediana si graficamos la funcion de distribucion, por


ejemplo si n = 5, tenemos

Federico De Olivera Lamas


174 3. Esperanza Matematica

Ejemplo 77
Sea X una v.a. tal que X N (, ). Aqu tenemos que F es continua y por ende
F (xme ) = 1/2, el problema es hallarlo. Notemos que por ser la densidad de X
simetrica con respecto a , esto es: f ( x) = f ( + x), entonces
Z Z +
f (t) dt = f (t) dt = 1/2

por lo tanto xme = .

Graficamente tenemos, por ejemplo si X N (1, 1):

No nos detendremos a mostrar como hallar la mediana en cada uno de los


modelos que estudiamos. Pasemos a ver una generalizacion.

Definicion 29 (Cuantiles)
Dada una variable aleatoria X y un real k en [0, 1], llamamos cuantil k-esimo a:

xk = nf{x R : F (xk ) k}

Al igual que para la mediana, del Teorema19, tenemos que


xk = F (k) = mn{x R : F (x) k}.

Iguales comentarios que para la mediana valen para los cuantiles. En particu-
lar, los cuantiles de orden 1/4 y 3/4 son llamados respectivamente primer cuartil

Federico De Olivera Lamas


3.6 Otras medidas de una variable aleatoria 175

y tercer cuartil, el segundo cuartil es la mediana. Si la division es entre cinco


tenemos los quintiles y as sucesivamente.

Tambien se le suele llamar Rango Intercuartlico a RI = x0,75 x0,25 , este


nos indica una medida de que tan dispersos se encuentra el 50 % central de los
valores del recorrido de X.

Es comun definir tambien el modo o moda de una v.a., este es un extremo


relativo, pensando en sentido amplio, de la cuanta o densidad o su respectiva
mezcla. En este curso no le daremos mayor trascendencia.

Federico De Olivera Lamas


176 3. Esperanza Matematica

3.7. Ejercicios

1. a) Considere una variable aleatoria discreta X tal que


1
P (X = 2k ) = 2k+1
, k N. Pruebe que su esperanza no existe.

b) Sea ahora X tal que P (X = k) = 1


2k
, k N . Probar que la esperanza
existe y E(X) = 2

2. Se lanzan tres monedas no cargadas hasta obtener por primera vez tres
caras. Cual es el numero medio de lanzamientos requeridos?.

3. Un juego se dice equilibrado cuando la esperanza de la ganancia neta es


nula. Investigue si los siguientes juegos son equilibrados:

a) Se apuesta aleatoriamente a un numero de tres cifras (se incluye el 0),


si se aciertan se gana 500 veces lo apostado.

b) Se apuesta aleatoriamente a las ultimas dos cifras de un numero de


tres cifras, si se aciertan se gana 70 veces lo apostado.

c) Se apuesta aleatoriamente, en una ruleta, a un numero entre 0 y 36,


si se acierta se gana 36 veces lo apostado.

4. En el 5 de oro, supongamos que solo se paga el pozo de oro. Si el costo de


la apuesta es de $ 20, hallar el valor del pozo a partir del cual la esperanza
de la ganancia es positiva.

5. Una v.a. X solo toma los valores 1 y 3 con probabilidad no nula. Si su


esperanza es 8/3, hallar P (X = 1) y P (X = 3).

6. En una urna, con bolas numeradas del 1 al 5, se extraen 3 bolas al azar.


Hallar el valor esperado del numero mas peque no de estas bolas.

7. Sean X e Y v.a. tales que 0 X Y . Si Y es integrable, probar que X es


integrable.

Federico De Olivera Lamas


3.7 Ejercicios 177

8. Sea X una v.a. discreta con P (X = 2) = P (X = 0) = 1/5; P (X = 1) =


1/6; P (X = 1) = 1/15; P (X = 2) = 11/30. Hallar la esperanza y varianza
de las variables:

a) Y = 2X + 1

b) Y = X 2

c) Y = X 3

9. Una persona quiere abrir una puerta y tiene n llaves, de las cuales solo
una corresponde a la cerradura. La persona va eligiendo las llaves al azar y
probando abrir la puerta segun las siguientes opciones:

i. separa las llaves con las que probo abrir las puertas,

ii. elige cada vez entre las n llaves.

Identificar, en cada caso, la variable aleatoria X, cantidad de pruebas hasta


encontrar la llave correcta. Calcular, en cada caso cuantas pruebas es de
esperar que tenga que realizar para abrir la puerta. En promedio, cuanto
espera que se aleje la cantidad de pruebas realizadas del valor esperado?.

10. Se escriben 3 cartas y sus respectivos sobres y se ensobran las cartas al azar
de modo que la probabilidad de cualquiera de las ubicaciones de las cartas
en los sobres es la misma. Cuantas cartas espera que queden correctamente
ensobradas.

11. Un jugador va lanzando una moneda no cargada hasta obtener dos caras
sucesivas o dos numeros sucesivos. Cual es el valor esperado de lanzamien-
tos.

12. Sea X una v.a. con esperanza . Probar que E(X c)2 se minimiza con
c = . S ugerencia: desarrollar E[(X ) + ( c)]2 .

Federico De Olivera Lamas


178 3. Esperanza Matematica

13. Decimos que una v.a. discreta X es simetrica, si existe R tal que
P (X = + x) = P (X = x), x R. Decimos que una v.a. absoluta-
mente continua X es simetrica, si existe R tal que fX ( + x) =
fX ( x), x R.
Pruebe en los casos anteriores que E(X) = .

14. Sea X una v.a. con distribucion logstica, es decir, con densidad f : R R
tal que
et
f (t) =
(1 + et )2

a) Probar efectivamente que f es una densidad.

b) Probar que X es simetrica respecto de cero.

c) Existe la esperanza de X?, en caso afirmativo hallarla.

15. Por medio de experimentos estadsticos se determina que la duracion de


cierto tipo de llamada telefonica satisface la relacion P (T > t) = aet +
(1 a)et , donde t 0; a [0, 1]; > 0 y > 0. Hallar la media y la
varianza de T .

16. Hallar la esperanza y varianza de la v.a. X a partir de la funcion generatriz


de momentos:

a) X Ber(p).

b) X Bin(n, p).

c) X Geom(p).

d ) X P oiss().

e) X U {1, . . . , n}.

f ) X U (a, b).

g) X exp().

Federico De Olivera Lamas


3.7 Ejercicios 179

h) X (, ) (Probar que la generatriz de momentos es



M : (, ) R / M (t) = ( t ) ).

17. Sea X una v.a. discreta con Rec(X) {0, 1, . . . , n, . . .}. Probar directa-
mente que
+
X
E(X) = P (X n)
n=1

18. a) Sea X una v.a. integrable y positiva, probar que E(1/X) 1/E(X).

b) Sea X una v.a. integrable y positiva, probar que E(ln X) E(ln X).

19. La variable aleatoria X tiene distribucion de Laplace si su densidad es

e|xa|/b
fX (x) =
2b

donde a R y b R+ son constantes. Hallar E(X) y V (X).

20. Sea X una


v.a. conb distribucion de Weibull, es decir, funcion de distribucion
1 e xc si x > 0
F (x) = , donde b y c son constantes positivas. Hallar
0 si x 0
la esperanza y la mediana de X. Comparar la mediana con la esperanza,
la densidad presenta asimetra ?.

Federico De Olivera Lamas


3.8. Anexo

Teorema 33
Sea X una v.a. con funcion de distribucion F , entonces
Z + Z 0
E(X) = (1 F (x)) dx F (x) dx
0

Siempre que las integrales converjan. En otro caso la esperanza no existe.

Demostracion: Sea F la funcion de distribucion de la variable aleatoria


R + R +
X. Probemos que 0 x dF = 0 (1 F (x)) dx.

d xF (x)
Notemos que dx
= F (x) + x dFdx(x) c.t.p., de donde obtenemos la si-

guiente relacion para los diferenciales d xF (x) = F (x)dx + xdF (x), es
Rt Rt
decir xdF = d(xF ) F dx y por ende 0 xdF = tF (t) 0 F (x)dx, donde
t > 0.

Es bueno aclarar que estamos trabajando intuitivamente con propiedades


de la integral de Riemann-Stieltjes, para mayor formalidad, por ejemplo
leer el libro de Rudn.

Ahora, para todo t > 0 tenemos que


Z t Z t Z t
xdF = tF (t) F (x)dx = [F (t) F (x)] dx
0 0 0 |{z}
1
Z t Z +
[1 F (x)] dx [1 F (x)] dx
0 | {z } 0
0

Por otro lado, sea 0 < u < t, entonces

Z t Z t Z u
xdF = [F (t) F (x)] dx [F (t) F (x)] dx =
0 0 | {z } 0
0
Z u Z u Z u
[F (t) 1] dx + [1 F (x)] dx = u [F (t) 1] + [1 F (x)] dx
0 0 0
3.8 Anexo 181
Z u Z t Z +
Por tanto: u [F (t) 1] + [1 F (x)] dx xdF [1 F (x)] dx
0 0 0
Pasando al limite con t +, tenemos que u[F (t)1] 0 y de aqu que
t+
Z u Z + Z +
[1 F (x)] dx xdF [1 F (x)] dx, tomando ahora lmite
0 0 0
con u + obtenemos que:

Z + Z +
xdF = [1 F (x)] dx
0 0
Z 0 Z 0
Es analogo probar que xdF = F (x) dx. 

Federico De Olivera Lamas


Captulo 4

Vectores Aleatorios

El objetivo de este captulo es ver una introduccion imprescindible para avan-


zar en el curso, no solo en temas de probabilidad sino tambien en temas de
estadstica. Como ya se menciono en otras oportunidades, muchos de los resulta-
dos estan sujetos al estudio de temas de Analisis II, para avanzar en este captulo
el lector necesitara nociones basicas de funciones de varias variables as como
series e integrales multiples. De todos modos se dara un enfoque que puede ser
comodamente seguido hasta que en Analisis II se fundamenten los resultados
utilizados.
184 4. Vectores Aleatorios

4.1. Conceptos iniciales

Para introducirnos en el tema veamos un ejemplo. Supongamos que en un


grupo de veinte personas hay dos con ojos de color claro y el resto de color
oscuro, hay cinco personas con color de cabello rubio, seis negro y nueve castano.

Elegimos una persona al azar entre las veinte y observamos su color de ojos
y cabello. Definamos X igual a uno si la persona elegida tiene ojos de color claro
y cero si tiene ojos de color oscuro. Definimos Y igual a cero si la persona tiene
cabello castano, uno si tiene cabello negro y dos si tiene cabello rubio.

Evidentemente, sobre un espacio adecuado, X e Y son variables aleatorias,


de esta forma el lector puede sin mayor dificultad obtener P (X = 1) que es la
probabilidad de que la persona seleccionada tenga ojos de color claro, tambien
podemos obtener P (Y = 0) que es la probabilidad de que la persona seleccionada
tenga cabello castano, pero... el lector podra obtener la probabilidad de que
la persona seleccionada tenga ojos claros y color de cabello castano?, con solo
algunos intentos el lector se dara cuenta que no se tiene informacion suficiente
para responder a tal pregunta... por que?.

El anterior ejemplo muestra que en general no es posible calcular probabilida-


des conjuntas de dos variables aleatorias teniendo la distribucion de cada una por
separado. Son aspectos como este los que nos motiva a extender nuestra teora
de variables aleatorias.

Definicion 30 (Vector aleatorio)


*
Sea (, A) un espacio probabilizable, decimos que X es un vector aleatorio si
*
X : Rn con n N es tal que

*
1
X (B) A para todo boreliano B Bn

Federico De Olivera Lamas


4.1 Conceptos iniciales 185

Observacion:

1. Recordemos que Bn es la -algebra de Borel en Rn .


*
2. Anotamos X para indicar que eventualmente la funcion puede ser vectorial,
pero con la definicion antes dada tambien puede ocurrir (en el caso n = 1)
*
que X sea una variable aleatoria.
*
3. Siendo n > 1 tenemos que X () = (X1 (), . . . , Xn ()) para cada , el
lector pensara inmediatamente que las funciones X1 , . . . , Xn : R deben
ser variables aleatorias. Efectivamente esto es as y es lo que probaremos a
continuacion.

Proposicion 34
*
Sea (, A) un espacio probabilizable y X : Rn una funcion vectorial tal que
*
X = (X1 , . . . , Xn ), entonces:
*
X es un vector aleatorio cada una de las Xi son variables aleatorias

Siempre sobre un mismo espacio (, A).

Demostracion: Sea B Bn tal que B = B1 Bn , donde los Bi son


elementos de la -algebra de Borel en R. Luego

* *
1
X (B) = { : X () B}
= { : (X1 (), . . . , Xn ()) B1 Bn }
= { : X1 () B1 , . . . , Xn () Bn }
n
\
= { : X1 () B1 } . . . { : Xn () Bn } = Xi1 (Bi )
i=1

*
Ahora, podemos en particular tomar B = B1 R R, de donde, si X
es un vector aleatorio, tenemos que

Federico De Olivera Lamas


186 4. Vectores Aleatorios

*
1
X (B) = X11 (B1 ) X21 (R) Xn1 (R) = X11 (B1 ) A
| {z } | {z }

siendo B1 un boreliano cualquiera de R tenemos que X1 es una variable aleato-


ria. Analoga es la prueba para probar que Xi es variable aleatoria (i = 1, . . . , n).

Recprocamente, si las Xi son variables aleatorias entonces Xi1 (Bi ) A para


*
i = 1, . . . , n y por ser A -algebra tenemos que X 1 (B) = ni=1 Xi1 (Bi ) A.
T

El recproco culmina observando que cualquier boreliano de Rn lo podemos


expresar como union de elementos del tipo B = B1 Bn donde los Bi son
borelianos de R.
* S* *
1 1
S
Concluimos que X ( B) = X (B) A, por ende X es un vector
aleatorio. 

A partir de ahora, en virtud del teorema anterior, cada vez que nos referimos
a un vector aleatorio pensaremos en una n-upla de variables aleatorias sobre un
mismo espacio (, A).
*
Notacion: Al igual que para variables aleatorias, si X es un vector aleatorio
sobre un espacio de probabilidad (, A, P ), estaremos interesados en calcular la
*
probabilidad de que X pertenezca a un determinado boreliano B, esto lo anota-
remos:
* *  nt *
1
  
P X (B) = P : X () B = P X B

*
Siendo X = (X1 , . . . , Xn ) y B = B1 Bn , como ya vimos antes tenemos
*
que: X 1 (B) = ni=1 Xi1 (Bi ) es decir:
T

n
* \
{ : X () B} = { : Xi () Bi }
i=1

de donde anotaremos

Federico De Olivera Lamas


4.1 Conceptos iniciales 187

n
* \  nt 
P (X B) = P {Xi Bi } = P X1 B1 , . . . , Xn Bn
i=1

Si en particular tenemos que B = (, b1 ] (, bn ] anotaremos:

* nt * nt
1
P (X (B)) = P (X B) = P (X1 b1 , . . . , X1 bn )

*
Definicion 31 (Funcion de distribucion de X )
*
Dado un espacio de probabilidad (, A, P ) y un vector aleatorio X =
*
(X1 , . . . , Xn ) llamamos funcion de distribucion de X a la funcion

F * : Rn R tal que F *(x1 , . . . , xn ) = P (X1 x1 , . . . , Xn xn )


X X

F * la anotaremos tambien como FX1 ,...,Xn y la llamaremos tambien funcion de


X
distribucion conjunta de las variables aleatorias X1 , . . . , Xn . Pasemos a estudiar
algunas de sus propiedades.

Teorema 35 (Propiedades de FX1 ,...,Xn )


*
Sea X = (X1 , . . . , Xn ) un vector aleatorio sobre (, A, P ), entonces:

1. FX1 ,...,Xn (x1 , . . . , xn ) [0, 1] para todo (x1 , . . . , xn ) Rn .

2. FX1 ,...,Xn es no decreciente en cada componente.

3. FX1 ,...,Xn es continua por derecha en cada una de sus componentes.

4. a) lm FX1 ,...,Xn (x1 , . . . , xn ) = 0 para todo i = 1, . . . , n


xi

b) lm FX1 ,...,Xn (x1 , . . . , xj1 , xj , xj+1 , . . . , xn ) =


xj +

= P (X1 x1 , . . . , Xj1 xj1 , Xj+1 xj+1 , . . . , Xn xn )

c) lm F *(x1 , . . . , xj1 , xj , xj+1 , . . . , xn ) = FXj (xj )


xi + X
i6=j

Federico De Olivera Lamas


188 4. Vectores Aleatorios

d) lm F *(x1 , . . . , xn ) = 1
xi + X
i=1,...,n

Demostracion: 1. Inmediato por ser una probabilidad.

2. Tomemos dos reales x e y tal que x < y, probemos por ejemplo que
FX1 ,...,Xn (x, . . . , xn ) FX1 ,...,Xn (y, . . . , xn ).
Si X1 () x X1 () y, luego

{ : X1 () x, . . . , Xn () xn } { : X1 () y, . . . , Xn () xn }

Tomando probabilidad, utilizando la monotona de esta y la defini-


cion de funcion de distribucion de un vector aleatorio obtenemos:
FX1 ,...,Xn (x, . . . , xn ) FX1 ,...,Xn (y, . . . , xn ). Es completamente analogo pa-
ra el resto de los componentes.

3. Probemoslo nuevamente para la primer componente. Sea x R e (yk )kN


una sucesion decreciente que tiende a x (yk & x).

Luego, sea Ak = : X1 () yk , X2 () x2 , . . . , Xn () xn ,
siendo Ak Ak+1 k N, utilizando la continuidad de la probabilidad
tenemos que:

Fx1 ,...,Xn (x, x2 , . . . , xn ) = P (X1 x, X2 x2 , . . . , Xn xn ) =

!
\ 
P X1 yk , X2 x2 , . . . , Xn xn =
kN

!
cont. de
\
P X1 yk , X2 x2 , . . . , Xn xn =
la prob.
kN

lm P (X1 yk , X2 x2 , . . . , Xn xn ) = lm FX1 ,...,Xn (yk , x2 , . . . , xn )


k+ k+

Federico De Olivera Lamas


4.1 Conceptos iniciales 189

Por ende FX1 ,...,Xn es continua por derecha en su primer componente, analo-
gamente se prueba para el resto de las componentes.

4. a) Sea Ak = {X1 k, X2 x2 , . . . , Xn xn } con k N. Es claro


que Ak es un suceso y que Ak Ak+1 para todo k N, ademas
T
kN Ak = pues de existir Ak para todo k N tendramos que

X1 () k para todo k N y N sera acotado (absurdo). Luego

T eo de
lm Fx,...,Xn (x, x2 , . . . , xn ) = lm FX1 ,...,Xn (k, x2 , . . . , xn ) =
x pasaje x
cont. de
lm P (X1 k, X2 x2 , . . . , Xn xn ) =
k+ la prob.
\  \ 
P {X1 k, X2 x2 , . . . , Xn xn =P Ak = 0
kN
| {z } kN
Ak | {z }

Observacion: Para usar el teorema de pasaje se uso tambien la mo-


notona de FX1 ,...,Xn en cada componente. De esta forma probamos el
resultado para la primer componente, es analogo para el resto.

b) SeaAk = {X1 x1 , . . . , Xj1 xj1 , Xj k, Xj+1 xj+1 , . . . Xn xn }


Aqu tenemos que Ak Ak+1 para todo k N, luego si unimos los Ak

[
{X1 x1 , . . . , Xj1 xj1 , Xj k, Xj+1 xj+1 , . . . Xn xn } =
kN
[
{X1 x1 , . . . , Xj1 xj1 , Xj k , Xj+1 xj+1 , . . . Xn xn } =
kN
| {z }

{X1 x1 , . . . , Xj1 xj1 , Xj+1 xj+1 , . . . Xn xn }

A partir de este resultado tenemos que:

Federico De Olivera Lamas


190 4. Vectores Aleatorios

teo de
lm FX1 ,...,Xn (x1 , . . . , xj1 , xj , xj+1 , . . . , xn ) =
xj + pasaje

lm FX1 ,...,Xn (x1 , . . . , xj1 , k, xj+1 , . . . , xn ) =


k+
cont. de
[ 
lm P (Ak ) = P Ak =
k+ la prob.
kN

P ({X1 x1 , . . . , Xj1 xj1 , Xj+1 xj+1 , . . . Xn xn })


c) A partir del resultado anterior, tomando lmite tendiendo a mas infi-
nito en cada componente menos en la j-esima tenemos que:

lm lm lm lm P (X1 x1 , . . . , Xj xj , . . . , Xn xn )
xn + xj+1 + xj1 + x1 +

= P (Xj xj ) = FXj (xj )

d ) Basta tomar lmite cuando xj + en el resultado anterior. Siendo


FXj una funcion de distribucion tenemos que lmxj + FXj (xj ) = 1 y
obtenemos la tesis.

Observacion: A partir del Teorema 35 en su parte 4c, tenemos que se puede


obtener la funcion de distribucion de cada componente de un vector aleatorio,
sin embargo, como vimos en el ejemplo introductorio, el recproco no siempre es
cierto.

Definicion 32 (Distribucion marginal)


*
Sea X = (X1 , . . . , Xn ) un vector aleatorio con funcion de distribucion F *,
X
llamamos distribucion marginal j-esima a la funcion de distribucion de Xj
(j = 1, . . . , n).

Observacion: Por lo visto en el Teorema 35 parte 4c, tomando lmite a mas


infinito sobre todas las componentes salvo la j-esima, obtenemos la distribucion
marginal correspondiente.

Federico De Olivera Lamas


4.1 Conceptos iniciales 191

Si recordamos la observacion al Teorema 12, tenamos que una funcion F :


R R monotona no decreciente, continua por derecha, con lmx F (x) = 0 y
lmx+ F (x) = 1 era una funcion de distribucion. Lamentablemente la extension
para vectores aleatorios no es valida con esas tres propiedades, pero agregando
una cuarta propiedad si lo es.

Sea I1 = (a1 , b1 ] con a1 < b1 R, entonces anotamos

1 F (x1 , x2 , . . . , xn ) = F (b1 , x2 , . . . , xn ) F (a1 , x2 , . . . , xn )

Sea ahora I2 = (a2 , b2 ] con a2 < b2 R, entonces anotamos


 
2 1 F (x1 , x2 , . . . , xn ) = 2 F (b1 , x2 , . . . , xn ) F (a1 , x2 , . . . , xn ) =
   
F (b1 , b2 , . . . , xn ) F (a1 , b2 , . . . , xn ) F (b1 , a2 , . . . , xn ) F (a1 , a2 , . . . , xn )
y as sucesivamente para todas las componentes. La cuarta propiedad que debe-
mos agregar es la siguiente:

1 2 . . . n F (x1 , x2 , . . . , xn ) 0

para cualquier intervalo Ik = (ak , bk ] con k = 1, . . . , n.

En resumen, si una funcion F : Rn R cumple las siguientes cuatro propie-


dades, es una funcion de distribucion:

1. F es no decreciente en cada componente.

2. F es continua por derecha en cada componente.

3. a) lm FX1 ,...,Xn (x1 , . . . , xn ) = 0 para todo i = 1, . . . , n


xi

b) lm F *(x1 , . . . , xn ) = 1
xi + X
i=1,...,n

4. 1 2 . . . n F (x1 , x2 , . . . , xn ) 0

El lector no debe preocuparse por profundizar estos comentarios, nuestro curso


es introductorio y la finalidad de estos aspectos es simplemente hacer una breve
mencion para que el estudiante no los ignore por completo.

Federico De Olivera Lamas


192 4. Vectores Aleatorios

4.2. Tipos de vectores aleatorios

Nuevamente aqu aparece una clasificacion amplia. Como ya estudiamos en


variables aleatorias, podramos decir que los tipos mas importantes (todo es
relativo) son los discretos y los absolutamente continuos, teniendo en cuenta que
el grado de dificultad crece razonablemente de variables aleatorias a vectores
aleatorios, veremos solamente los tipos discretos y absolutamente continuos. Sin
embargo, el lector puede dejar librada la imaginacion para formar otros tipos de
variables aleatorias.

Definicion 33 (Vectores aleatorios discretos)


*
Decimos que un vector aleatorio X es discreto si su recorrido es numerable.

Al igual que para variables aleatorias, adoptamos esta definicion por ser la mas
usada en la bibliografa en general, sin embargo, puede ocurrir que el recorrido
no sea discreto.

Teorema 36
*
Sea X un vector aleatorio discreto, sea F * : Rn R su funcion de distribucion
X
* S
y Rec{X } = k {(x1,k , . . . , xn,k )}, entonces:

X
F *(x1 , . . . , xn ) = P (X1 = x1,k , . . . , Xn = xn,k )
X
k tal que
x1,k x1 , . . . , xn,k xn

La demostracion es completamente analoga a la hecha para variables aleato-


rias con la dificultad de trabajar en n dimensiones.

Veamos ahora algunos ejemplos:

Federico De Olivera Lamas


4.2 Tipos de vectores aleatorios 193

Ejemplo 78
Sean X e Y dos variables aleatorias tal que su cuanta conjunta viene dada por:

P (X = i, Y = j) i = 1 i = 2 i = 3
j=0 1/6 1/4 1/4
j=1 1/6 1/12 1/12

P1 P2
Notemos que j=0 i=1 P (X = i, Y = j) = 1 por lo tanto la distribucion
del vector (X, Y ) queda determinada por la tabla anterior, en efecto, hallemos la
funcion de distribucion, aqu F : R2 R es tal que:




0 si x < 1 o y < 0


1/6 si (x, y) [1, 2) [0, 1)






2/6 si (x, y) [1, 2) [1, +)





F (x, y) = 5/12 si (x, y) [2, 3) [0, 1)


si (x, y) [2, 3) [1, +)



2/3


si (x, y) [3, +) [0, 1)



8/12


si (x, y) [3, +) [1, +)

1

El lector podra notar que resulta mas practico y sencillo tener la tabla de
cuanta conjunta. Esto tambien queda en evidencia si tratamos de hallar la dis-
tribucion marginal de X y de Y .

Recordemos que la distribucion marginal de X la obtenemos tomando el lmite


de la funcion de distribucion cuando y +, es decir lmy+ F (x, y) = FX (x).
P P
En particular, siendo F (x, y) = i:ix j:jy P (X = i, Y = j), tenemos que

X X X X
lm F (x, y) = lm P (X = i, Y = j) = P (X = i, Y = j) = FX (x)
y+ y+
i:ix j:jy i:ix j=0,1

Federico De Olivera Lamas


194 4. Vectores Aleatorios

P
Por lo tanto j=0,1 P (X = i, Y = j) = P (X = i), es decir, sumando los
valores de la cuanta conjunta para todos los valores del recorrido de Y obtenemos
la cuanta de X. Es analogo para obtener la cuanta de Y , de donde tenemos:

P (X = i, Y = j) i = 1 i = 2 i = 3 P (Y = j)
j=0 1/6 1/4 1/4 2/3
j=1 1/6 1/12 1/12 1/3
P (X = i) 1/3 1/3 1/3
/

El resultado que aqu obtuvimos para obtener las cuantas marginales es ge-
neralizado para cualquier vector aleatorio discreto con recorrido finito, ello se
deduce de las propiedades estudiadas de la funcion de distribucion, Teorema 35.

Por lo comentado anteriormente y segun nuestra experiencia para variables


aleatorias, siempre determinaremos a la distribucion de un vector aleatorio por
medio de la cuanta conjunta. De esta obtendremos las cuantas marginales y
estudiaremos el comportamiento en general.

Veamos ahora un modelo de vector aleatorio discreto que es comunmente


usado.

Ejemplo 79 (Distribucion multinomial)


Supongamos que en una urna hay tres bolillas rojas, dos azules, cinco verdes y
cinco negras. Se extraen con reposicion seis bolillas.
*
Sea X = (X1 , X2 , X3 , X4 ) tal que

X1 = cantidad de bolillas rojas extradas,


X2 = cantidad de bolillas azules extradas,

Federico De Olivera Lamas


4.2 Tipos de vectores aleatorios 195

X3 = cantidad de bolillas verdes extraidas y


X4 = cantidad de bolillas negras extraidas.

Calculemos la probabilidad: P (X1 = 2, X2 = 1, X3 = 3, X4 = 0). Notemos que la


probabilidad, en cada extraccion, de sacar una bolilla roja es p1 = 1/5, una azul
p2 = 2/15, una verde p3 = 1/3 y una negra p4 = 1/3.

Luego, supongamos que queremos que primero salgan las dos rojas, luego una
azul y por ultimo tres verdes:

roja roja azul verde verde verde

La probabilidad de obtenerlas en ese orden es p21 p12 p33 p04 ya que las extraccio-
nes se hacen con reposicion. Pero... de cuantas formas posibles podemos elegir
dos rojas una azul y tres verdes al extraer seis bolillas?, cualquiera de los ordenes
nos da un suceso disjunto pero con igual probabilidad, por ende la probabilidad
deseada es el producto C p21 p12 p33 p04 , donde C es la cantidad de ubicaciones
posibles.

Notemos que C es la cantidad de particiones que podemos formar de un


conjunto de seis elementos donde hay dos verdes uno azul, tres verdes y cero
negro, es decir
6!
C=
2! 1! 3! 0!

6!
Por ultimo, P (X1 = 2, X2 = 1, X3 = 3, X4 = 0) = p2 p1 p3 p0
2! 1! 3! 0! 1 2 3 4
La generalizacion de este caso es inmediato.

Definicion 34
*
Decimos que un vector aleatorio X = (X1 , . . . , Xn ) tiene distribucion multinomial

Federico De Olivera Lamas


196 4. Vectores Aleatorios

de parametros N, p1 , . . . , pn si
N!
P (X1 = m1 , . . . , Xn = mn ) = pm mn
1 pn
1

m1 ! . . . mn !
donde m1 , . . . , mn N cumplen m1 + + mn = N y p1 + + pn = 1.

Ejercicio 6
Se tira un dardo sobre un blanco, el blanco tiene un crculo negro de radio 1 cm,
seguido de un anillo verde donde el radio del crculo negro-verde es 3 cm. Por
ultimo, un anillo de color rojo donde el radio del crculo negro-verde-rojo es 6
cm.

1. Hallar la probabilidad de darle a cada una de las zonas en una tirada, sa-
biendo que la probabilidad de darle a cada una de las zonas es proporcional
al area de la zona.

2. Se tira el dardo diez veces, hallar la probabilidad de darle tres veces al


negro, dos veces al verde y cinco veces al rojo.

3. Se tira el dardo diez veces, hallar la probabilidad de darle al menos una vez
al negro y al menos dos veces al verde.

Definicion 35 (Vectores aleatorios absolutamente continuos)


*
Decimos que un vector aleatorio X con funcion de distribucion F * : Rn R es
X
absolutamente continuo, si existe una funcion f : Rn R no negativa tal que:

Z xn Z x1
F *(x1 , . . . , xn ) = f (t1 , . . . , tn ) dt1 . . . dtn (x1 , . . . , xn ) Rn
X

*
Aqu la funcion f es llamada densidad del vector aleatorio X o densidad
conjunta de las variables aleatorias (X1 , . . . , Xn ).

Federico De Olivera Lamas


4.2 Tipos de vectores aleatorios 197

*
Observacion: Es importante notar que si X es un vector aleatorio abs. con-
tinuo y B es un boreliano de Rn , entonces:

Z
*
P (X B) = F *(x1 , . . . , xn ) dx1 . . . dxn
X
B

*
Por ejemplo, si X = (X, Y ) tiene funcion de densidad conjunta f * : R2 R
X
tal que


exy si (x, y) (0, +) (0, +)
f *(x, y) =
X 0 en otro caso

Verificar que se trata de una densidad conjunta. Luego

*  Z Z 3 Z 1 
P X (1, 1) (2, 3) = f *(x, y) dx dy = f *(x, y) dx dy
X X
(1,1)(2,3) 2 1

Z 3 Z 1 
xy
= e dx dy = (1 e2 )(e2 e3 )
2 0
| {z }
(1e1 )ey

Ejemplo 80 (Vector uniforme en la region B)


R
Sea B una region acotada de Rn tal que B 1 dt1 . . . dtn > 0, decimos que el vector
* *
aleatorio X tiene distribucion uniforme en B y lo anotamos X U nif B, si su
densidad es: f : Rn R tal que

Z 1
1 dt1 . . . dtn si (x1 , . . . , xn ) B


f *(x1 , . . . , xn ) = B
X
0 si (x1 , . . . , xn ) 6 B

*
En particular, si B = [0, 1] [0, 1], tenemos que X U nif [0, 1] [0, 1], si su

Federico De Olivera Lamas


198 4. Vectores Aleatorios

*
Figura 4.1: Densidad X U nif [0, 1] [0, 1]

*
Figura 4.2: Funcion de distribucion de X U nif [0, 1] [0, 1]

densidad es: f : R2 R tal que



1 si (x, y) [0, 1] [0, 1]
f (x, y) =
0 si (x, y) 6 [0, 1] [0, 1]

Aqu el grafico de la densidad y de la funcion de distribucion son dados en las


figuras 4.1 y 4.2.

Pasaremos a ver un ultimo ejemplo, el del vector aleatorio Normal.

Federico De Olivera Lamas


4.2 Tipos de vectores aleatorios 199

*
Ejemplo 81 (Vector aleatorio Normal de parametros y )
*
Sea Rn un vector fila y una matriz n n definida positivaa) , no singular
y simetrica.
*
Decimos que el vector aleatorio X tiene distribucion Normal de parametros
* * *
y y lo anotamos X N ( , ), si su densidad es: f : Rn R tal que

* * * *
( x )1 ( x )t
* 1
f ( x) = p e 2
(2)n/2 det()


* 1 0
Para el caso particular: = (0, 0) y = , aqu verifica lo pedido
0 1
*
y decimos que X tiene distribucion normal bivariada (dos dimensiones) estandar,
su densidad es: f : R2 R tal que

x2 + y 2
1
f (x, y) = e 2
2

El grafico de la densidad en este caso puede verse en la figura 4.3.

El lector ya se debe haber percatado que el trabajo con vectores aleatorios es


un tanto mas pesado que con variables aleatorias y se requiere un dominio de
los contenidos de Analisis II, por estos motivos no ahondaremos en estos temas.

a) * * * t
es definida positiva si para todo vector no nulo x Rn tenemos que x x >0

Federico De Olivera Lamas


200 4. Vectores Aleatorios

*
Figura 4.3: Densidad de X Normal bivariado estandar

4.3. Independencia de variables aleatorias

Uno de los principales objetivos de introducirnos en los vectores aleatorios es


llegar a la independencia de las variables aleatorias. Como se ha dicho antes, no
tenemos los conocimientos suficientes para estudiar a gusto otras utilidades de los
vectores aleatorios y por ello, en nuestro curso, lo que en esta seccion estudiemos
sera tal vez lo que mas usemos de vectores aleatorios.

Sean X e Y variables aleatorias sobre un mismo espacio de probabilidad


(, A, P ). Para referirnos a independencia entre X e Y es razonable pedirle a
estas que los sucesos { : X() B1 } y { : Y () B2 } sean
independientes para cualquier boreliano B1 y B2 .

Para generalizar la independencia a mas variables aleatorias deberamos pe-


dir la independencia colectiva de los sucesos de este tipo recordemos que esta
independencia no era implicada por la independencia dos a dos.

Federico De Olivera Lamas


4.3 Independencia de variables aleatorias 201

Definicion 36 (Independencia de variables aleatorias)


Sean X1 , . . . , Xn variables aleatorias sobre un mismo espacio de probabilidad
(, A, P ), decimos que X1 , . . . , Xn son independientesb) si

P (X1 B1 , . . . , Xn Bn ) = P (X1 B1 ) P (Xn Bn ) B1 , . . . , Bn B

Observacion: Siendo X1 , . . . , Xn variables aleatorias independientes enton-


ces cualquier subfamilias que tomemos de estas sera tambien de variables aleato-
rias independientes. En efecto, supongamos que nuestra subfamilia esta formada
por las variables Xl , Xm , Xn , tomando Bi = R para todo i 6= l, m, n, entonces
tenemos que

P (X1 B1 , . . . , Xn Bn ) = P (X1 B1 ) P (Xn Bn ) =


| {z } | {z }
P (Xl Bl ,Xm Bm ,Xn Bn ,Xi R i6=l,m,n) P (Xl Bl )P (Xm Bm )P (Xn Bn )i=1,...,n P (Xi R)
i6=l,m,n

= P (Xl Bl )P (Xm Bm )P (Xn Bn ) Bl , Bm , Bn B

Es decir, Xl , Xm , Xn son independientes. De forma analoga se prueba la fac-


torizacion para cualquier subfamilia de sucesos, as tenemos la independencia
descripta intuitivamente mas arriba.

Un importante resultado nos traslada la independencia de variables aleato-


rias a la factorizacion de la funcion de distribucion conjunta. Lamentablemente
no estamos en condiciones de hacer la demostracion pero sin embargo nos es
imprescindible para avanzar en los temas que nos interesan.

Teorema 37 (Criterio para la independencia)


Sean X1 , . . . , Xn variables aleatorias sobre (, A, P ) con funciones de distribucion
FX1 , . . . FXn , sea FX1 ,...,Xn la funcion de distribucion conjunta de ellas, entonces:
b)
Se definen colectivamente independientes pero las llamaremos simplemente, independien-
tes.

Federico De Olivera Lamas


202 4. Vectores Aleatorios

X1 , . . . , Xn son independientes FX1 ,...,Xn (x1 , . . . , xn ) = FX1 (x1 ) FXn (xn )


(x1 , . . . , xn ) Rn

Demostracion: (Parcial)
Directo: Siendo X1 , . . . , Xn independiente, basta tomar los borelianos
Bi = (, xi ] para i = 1, . . . , n y aplicar la definicion de independencia de va-
riables aleatorias para obtener la tesis.
Recproco: Esta fuera de nuestro alcance, sin embargo recordemos que la -alge-
bra de Borel era generada por la familia {(, x] : x R}, de ah que trabajando
con la factorizacion para este tipo de borelianos podemos extendernos a la facto-
rizacion para cualquier boreliano. 

Para los casos discreto y absolutamente continuo puede, ademas, traducirse la


independencia en la factorizacion de la cuanta conjunta o la densidad conjunta.

Teorema 38 (Criterio de independencia para v.a. discretas)


Sean X1 , . . . , Xn variables aleatorias con recorrido conjunto Rec{(X1 , . . . , Xn )} =
c)
S
k {(x1,k , . . . , xn,k )} , entonces:

X1 , . . . , Xn son independientes
P (X1 = x1,k , . . . , Xn = xn,k ) = P (X1 = x1,k ) P (Xn = xn,k ) x1,k , . . . , xn,k

Demostracion: Directo: Basta tomar los borelianos B1 = {x1,k }, . . . , Bn =


{xn,k } en la definicion de independencia de variables aleatorias para obtener el
resultado directo.
Recproco: Probemos que la funcion de distribucion factoriza. Recordemos que
la funcion de distribucion conjunta es:
c)
notemos que por ser producto cartesiano finito de conjuntos numerables, es numerable.

Federico De Olivera Lamas


4.3 Independencia de variables aleatorias 203

X
FX1 ,...,Xn (x1 , . . . , xn ) = P (X1 = x1,k , . . . , Xn = xn,k ) =
| {z }
k tal que P (X1 =x1,k )P (Xn =xn,k )
x1,k x1 , . . . , xn,k xn

X X
P (X1 = x1,k ) P (Xn = xn,k ) = FX1 (x1 ) FXn (xn )
k:x1,k x1 k:xn,k xn

para todo (x1 , . . . , xn ) Rn , por el Teorema 37 tenemos que X1 , . . . , Xn son


independientes.

Ejemplo 82
Retomemos el ejemplo 78, aqu tenamos X e Y tal que su cuanta conjunta viene
dada por:

P (X = i, Y = j) i = 1 i = 2 i = 3 P (Y = j)
j=0 1/6 1/4 1/4 2/3
j=1 1/6 1/12 1/12 1/3
P (X = i) 1/3 1/3 1/3

Es inmediato notar que X e Y no son independientes ya que

P (X = 1, Y = 0) = 1/6 6= 2/3 1/3 = P (X = 1)P (Y = 0)

Ejemplo 83
Sean ahora X e Y tal que su cuanta conjunta viene dada por:

Federico De Olivera Lamas


204 4. Vectores Aleatorios

P (X = i, Y = j) i = 1 i = 2 i = 3 P (Y = j)
j=0 2/9 2/9 2/9 2/3
j=1 1/9 1/9 1/9 1/3
P (X = i) 1/3 1/3 1/3

Aqu X e Y son independientes ya que P (X = i, Y = j) = P (X = i)P (Y = j)


para todos los valores del recorrido, cosa que el lector puede verificar inmediata-
mente, la independencia se obtiene por el Teorema 38.

Teorema 39 (Criterio de independencia para v.a. absolutamente continuas)


Sean X1 , . . . , Xn variables aleatorias con densidades fX1 , . . . , fXn y densidad con-
junta fX1 ,...,Xn .

X1 , . . . , Xn son independientes fX1 ,...,Xn (x1 , . . . , xn ) = fX1 (x1 ) fXn (xn )


(x1 , . . . , xn ) Rn

Demostracion: Recordemos del Teorema 37 que X1 , . . . , Xn son independientes


si y solo si la funcion de distribucion conjunta se factoriza en las respectivas
funciones de distribucion.
Directo: Siendo X1 , . . . , Xn independientes, entonces (x1 , . . . , xn ) Rn

Z x1 Z xn
FX1 ,...,Xn (x1 , . . . , xn ) = FX1 (x1 ) FXn (xn ) = fX1 (t1 ) dt1 fXn (tn ) dtn =

| {z } | {z }
FX1 (x1 ) FXn (xn )

Z x1 Z xn
fX1 (t1 ) fXn (tn ) dt1 . . . dtn

Por ende fX1 fXn es la densidad conjunta de X1 , . . . , Xn y obtenemos lo


deseado.

Federico De Olivera Lamas


4.3 Independencia de variables aleatorias 205

Recproco: Ahora la hipotesis es fX1 ,...,Xn (x1 , . . . , xn ) = fX1 (x1 ) fXn (xn )
para todo (x1 , . . . , xn ) Rn . Luego, para todo (x1 , . . . , xn ) Rn tenemos que

Z x1 Z xn
hip.
FX1 ,...,Xn (x1 , . . . , xn ) = fX1 ,...,Xn (t1 , . . . , tn ) dt1 . . . dtn =

Z x1 Z xn Z x1 Z xn
fX1 (t1 ) fXn (tn ) dt1 . . . dtn = fX1 (t1 ) dt1 fXn (tn ) dtn =

FX1 (x1 ) FXn (xn )

Lo que implica que X1 , . . . , Xn sean independientes. 

Pasemos a ver algunos ejemplos.

Ejemplo 84
Sea (X, Y ) un vector aleatorio con distribucion uniforme en [0, 1] [0, 1], recor-
demos que su densidad es: f : R2 R tal que

1 si (x, y) [0, 1] [0, 1]
f (x, y) =
0 si (x, y) 6 [0, 1] [0, 1]

El lector podra inmediatamente hallar la densidad de marginal X y de Y , ver


el Ejercicio 5, fX : R R es tal que
Z + Z 1
fX (x) = f (x, y) dy = I,[0,1] (x) dy = I [0,1] (x)
0

y por ende X U [0, 1], de forma analoga obtenemos que Y U [0, 1] y


ademas:

f (x, y) = fX (x) fY (y) (x, y) R2

Federico De Olivera Lamas


206 4. Vectores Aleatorios

El Teorema 39 nos afirma que X e Y son v.a. independientes.

Teorema 40 (Independencia de funciones de v.a. independientes)


Sean X1 , . . . , Xn variables aleatorias independientes y sean g1 , . . . , gn : R R
funciones medibles, entonces las variables aleatorias g(X1 ), . . . , g(Xn ) son inde-
pendientes.

Demostracion: Recordemos que por ser las gi medibles, entonces efectivamente


las gi (Xi ) son variables aleatorias. Luego para cualquier boreliano B1 , . . . , Bn
tenemos que

T 
 n  1
P g1 (X1 ) B1 , . . . , gn (Xn ) Bn = P i=1 (gi Xi ) (Bi ) =

T   T  indep
n n
Xi1 gi1 (Bi )
 
P i=1 =P i=1 Xi C i =
| {z }
Ci B

ni=1 P ( Xi Ci ) = ni=1 P (gi (Xi ) Bi ) =


| {z } 
Xi1 gi1 (Bi )

 
P g1 (X1 ) B1 P gn (Xn ) Bn

y por ende g1 (X1 ), . . . , gn (Xn ) son independientes. 

Este resultado sera muy importante para algunos resultados que estudiaremos
en breve, a modo de ejemplo si X1 , . . . , Xn son variables aleatorias independientes,
entonces etX1 , . . . , etXn tambien lo son donde t es un real arbitrario.

X1 ++Xn
Definamos X = n
, entonces
X1 ++Xn t t
etX = et n = e n X1 e n Xn

Federico De Olivera Lamas


4.4 Transformaciones de vectores aleatorios 207

El lector recordara que la esperanza de estas transformaciones era la generatriz


de momentos de las variables X1 , . . . , Xn , y por ende la generatriz de X puede
ser obtenida por medio de las generatrices de las X1 , . . . , Xn , es decir:

t t indep t t
MX (t) = E(etX ) = E(e n X1 e n Xn ) = E(e n X1 ) E(e n X1 )

= MX1 (t/n) MXn (t/n)

Estos comentarios aun no pueden ser justificados, simplemente los damos para
mostrar una aplicacion del Teorema 40 e introducirnos en las siguientes secciones:
Transformaciones de vectores aleatorios y Esperanza de vectores aleatorios.

4.4. Transformaciones de vectores aleatorios

Recordemos que siendo m, n N podemos definir una funcion vectorial de


varias variables g : Rn Rm .

Por ejemplo podemos tener g : R2 R3 tal que

x y , ex , 1/(x2 + y 2 + 1)

g(x, y) =
|{z} |{z} | {z }
g1 (x,y) g2 (x,y) g3 (x,y)

donde g1 , g2 , g3 son funciones con el mismo dominio que g y codominio R.

Siendo g : Rn Rm y X1 , . . . , Xn variables aleatorias sobre un mismo espacio


(, A), estamos interesados en Y = g(X1 , . . . , Xn ). Como el lector recordara de
variables aleatorias, deberamos pedirle a g que sea una funcion Borel medible,
definamos esto.

Definicion 37 (Funcion medible en varias dimensiones)


Sea la funcion g : Rn Rm con n, m N , decimos que g es medible si

g 1 (B) = {(x1 , . . . , xn ) Rn : g(x1 , . . . , xn ) B} Bn para todo boreliano B Bm

Federico De Olivera Lamas


208 4. Vectores Aleatorios

Al igual que para variables aleatorias, probemos que si aplicamos una funcion
medible a un vector aleatorio obtenemos tambien un vector aleatorio.

Proposicion 41
*
Sea X = (X1 , . . . , Xn ) un vector aleatorio sobre (, A) y sea g : Rn Rm una
funcion medible, entonces Y = g(X1 , . . . , Xn ) es un vector aleatorio en Rm sobre
el espacio (, A).

Demostracion: Notemos que Y : Rm . Dado un boreliano B Bm tenemos


que
 * 1 *
1
g 1 (B) Bm

g(X ) (B) = X
| {z }
Bn

*
Por lo tanto Y = g(X ) es un vector aleatorio. 

Como ya hemos dicho en otras oportunidades este curso es introductorio y


por ende nosotros nos concentraremos en trabajar en el caso m = 1, es decir,
cuando la transformacion de un vector aleatorio nos de una variable aleatoria.

Ejemplo 85
Sea (X, Y ) U (0, 1) (0, 1), aqu tenemos que X e Y son independientes ambas
con distribucion uniforme en (0, 1). Definamos Z = X/Y y tratemos de hallar la
distribucion de Z.

Si z 0 entonces FZ (z) = P (Z z) = 0.

Si z > 0, FZ (z) = P (X/Y z) = P (X, Y ) Bz donde Bz es la region
determinada como sigue.

Notemos que el soporte es [0, 1] [0, 1] por ende podemos restringirnos al


cuadrado [0, 1] [0, 1], donde
Z Z

P (X, Y ) Bz = 1 dx dy = area(Bz )
Bz

Federico De Olivera Lamas


4.4 Transformaciones de vectores aleatorios 209

discutamos segun 0 < z < 1 o z 1:

Si 0 < z < 1.

Segun se muestra en el grafico, aqu tenemos que el area de Bz es z/2, por


ende FZ (z) = z/2 si 0 < z < 1.

Si z 1 Nuevamente aqu vemos en el grafico que el area de Bz es 11/(2z),


por ende FZ (z) = 1 1/(2z) si z 1.

Federico De Olivera Lamas


210 4. Vectores Aleatorios

En resumen tenemos que FZ : R R es tal que




0 si z 0

F (x) = z/2 si 0 < z < 1


1 1/(2z)

si z 1

En general no siempre es facil obtener la distribucion del cociente de variables


aleatorias. Una funcion de variables aleatorias que es muy usada y de la que pode-
mos obtener su distribucion, es la suma cuando las variables son independientes.

Teorema 42 (Distribucion de la suma de v.a. independientes)


Sean X e Y variables aleatorias independientes , y definamos S = X +Y , entonces

i. Si X e Y son discretas, S es discreta y tiene cuanta

X
P (S = s) = P (X = xi )P (Y = s xi )
i

ii. Si X e Y son absolutamente continuas, S es absolutamente continua y tiene


densidad: fS : R R tal que

Z +
fS (s) = fX (t) fY (s t) dt

S S
Demostracion: i. Sean Rec(X) = i {x i } y Rec(Y ) = j {yi }, luego
S S
Rec(S) = i j {xi + yj } y por ende S es discreta.

Federico De Olivera Lamas


4.4 Transformaciones de vectores aleatorios 211

S S disj.
P (S = s) = P (, S = s) = P ( i {X = xi }, S = s) = P ( i {X = xi , S = s}) =

P P
i P (X = xi , S = s) = i P (X = xi )P (S = s|X = xi ) =

P P indep.
i P (X = xi )P (X + Y = s|X = xi ) = i P (X = xi )P (Y = s xi |X = xi ) =
| {z }
xi +Y =s|X=xi

P
i P (X = xi )P (Y = s xi )

ii. Sea fX,Y la densidad conjunta de X, Y , luego:

Z Z
FS (s) = P (X + Y s) = P ((X, Y ) Bs ) = fX,Y (u, v) dv du
| {z }
Bs fX (u)fY (v)

donde Bs = {(u, v) R2 : u + v s} por lo tanto podemos permitirle a u


variar sobre todo R siempre que v vare sobre (, s u), de este modo
nos aseguramos de cubrir Bs , en terminos analticos tenemos:

Z + Z su Z + Z su
FS (s) = fX (u)fY (v) dv du = fX (u) fY (v) dv du =

| {z }
c.v. v=tu

Z + Z s Z + Z s
fX (u) fY (t u) dt du = fX (u) fY (t u) dt du =

Z s Z + Z s
fX (u) fY (t u) du dt = f (t) dt

| {z }
f (t)

Siendo f (t) 0 tenemos que f es una densidad de FS , es decir, S es


absolutamente continua y su densidad es f .

Federico De Olivera Lamas


212 4. Vectores Aleatorios

Observacion:

Es inmediato notar que S = X + Y = Y + X por ende se pueden obte-


ner formulas analogas intercambiando las cuantas o densidades de X e Y .
Tambien es posible generalizar este resultado a mas variables aleatorias,
por ejemplo si tenemos X1 , . . . , Xn entonces
  
S = X1 + + Xn = (X1 + X2 ) + X3 + + Xn

basta ir aplicando las formulas anteriores inductivamente.

Notemos que si las variables aleatorias no son independientes, entonces el


resultado no es valido, incluso, la suma de variables aleatorias absoluta-
mente continuas puede ser una v.a. discreta (en caso de no independencia).
Por ejemplo, siendo X absolutamente continua, Y = X tambien lo es,
sin embargo X + Y = 0 para todo , es decir, se trata de una v.a.
degenerada que se encuentra dentro de las discretas.

Ejemplo 86
Sean X e Y variables aleatorias independientes ambas con distribucion uniforme
en (0, 1). Hallemos la distribucion de S = X + Y .

Segun lo obtenido en el Teorema anterior tenemos que


R +
fS (s) = fX (u)fY (s u) du.

donde fX (u) = I{u(0,1)} y fY (s u) = I{su(0,1)} , indaguemos los valores de


u donde se cumple que s u (0, 1), es decir:

su (0, 1) 0 < su < 1 s < u < 1s s1 < u < s u (s1, s)


Z s Z s
de aqu que fS (s) = fX (u) 1 du = fX (u) du, basta discutir ahora
s1 s1
los valores de s para los que fX (u) toma el valor 1 o 0.

Federico De Olivera Lamas


4.5 Esperanza de funciones de vectores aleatorios 213




0 si s 0

Rs

s

1 du = s si 0 < s < 1
Z
0
fS (s) = fX (u) du = R 1
s1

s1
1 du = 2 s si 1 s < 2


si s 2

0

Basta con hacer el grafico de fS para notar que esta distribucion recibe en
nombre de triangular, en este caso en el intervalo (0, 2). /

4.5. Esperanza de funciones de vectores aleato-


rios

Pasemos ahora al estudio de la esperanza con vectores aleatorios, sin embargo,


lo que en este curso utilizaremos mas es la esperanza de funciones reales de un
vector aleatorio (g : Rn R) y es por ello que nos concentraremos en este tipo
de funciones.
*
Sea X = (X1 , . . . , Xn ) un vector aleatorio con funcion de distribucion F * y
X
sea g : Rn R una funcion medible, como ya probamos en la seccion anterior
g(X1 , . . . , Xn ) es una variable aleatoria y por ende tenemos que

Z +
E(g(X1 , . . . , Xn )) = y dFg(X1 ,...,Xn )

Sin embargo este resultado implica conocer la distribucion de g(X1 , . . . , Xn ),


es de esperar que similares resultados vistos para la transformacion de una
variable aleatoria puedan aplicarse aqu.

Teorema 43
*
Sea X = (X1 , . . . , Xn ) un vector aleatorio con funcion de distribucion F * y sea
X

Federico De Olivera Lamas


214 4. Vectores Aleatorios

g : Rn R una funcion medible, entonces:

Z
E(g(X1 , . . . , Xn )) = g(x1 , . . . , xn ) dFX1 ,...,Xn
Rn

Donde la integral puede ser pensada como lo hicimos para variables aleatorias
con la diferencia de ser en Rn .

Demostracion: La prueba de este resultado requiere de amplios conocimientos


de Teora de la medida. 

Para los casos particulares en que el vector (X1 , . . . , Xn ) sea discreto o abso-
lutamente continuo tenemos que:

caso discreto
S
Siendo Rec(X1 , . . . , Xn ) = k {(x1,k , . . . , xn,k )}

 X
E g(X1 , . . . , Xn ) = g(x1,k , . . . , xn,k ) P (X1 = x1,k , . . . , Xn = xn,k )
k

caso abs continuo


Siendo fX1 ,...,Xn la densidad de (X1 , . . . , Xn )
Z + Z +

E g(X1 , . . . , Xn ) = g(x1 , . . . , xn )fX1 ,...,Xn (x1 , . . . , xn ) dx1 . . . dxn

Antes de pasar a ver algunos ejemplos veamos algunas propiedades que sim-
plifican mucho el trabajo al momento de calcular esperanzas.

4.5.1. Esperanza de la suma y el producto de v.a.

Teorema 44
Sean X e Y variables aleatorias integrables, entonces E(X + Y ) = E(X) + E(Y ).

Federico De Olivera Lamas


4.5 Esperanza de funciones de vectores aleatorios 215

Demostracion: Veamos la prueba para los dos casos mas trabajados y tambien
en general.
S S
caso discreto: sea Rec(X, Y ) = i j {xi , yj }

XX
E(X + Y ) = (xi + yj ) P (X = xi , Y = yj )
j i
XX XX
= xi P (X = xi , Y = yj ) + yj P (X = xi , Y = yj )
j i j i
F ubini
XX XX
= xi P (X = xi , Y = yj ) + yj P (X = xi , Y = yj )
i j j i
X X X X
= xi P (X = xi , Y = yj ) + yj P (X = xi , Y = yj )
i j j
| {z } |i {z }
P (X=xi ) P (Y =yj )

= E(X) + E(Y )

caso abs continuo

Z + Z +
E(X + Y ) = (x + y)fX,Y (x, y) dx dy

Z + Z + Z + Z +
= x fX,Y (x, y) dx dy + y fX,Y (x, y) dx dy

Z + Z + Z + Z +
F ubini
= x fX,Y (x, y) dy dx + y fX,Y (x, y) dx dy

Z + Z + Z + Z +
= x fX,Y (x, y) dy dx + y fX,Y (x, y) dx dy

| {z } | {z }
fX (x) fY (y)

= E(X) + E(Y )

Caso general:
Z + Z + Z + Z + Z + Z +
(1)
E(X + Y ) = (x + y)dFX,Y = x dFX,Y + y dFX,Y

sean ahora g1 , g2 : R2 R tal que g1 (x, y) = x y g2 (x, y) = y, entonces:

Federico De Olivera Lamas


216 4. Vectores Aleatorios

Z + Z +
T eo.43
E(g1 (X, Y )) = E(X) = g1 (x, y) dFX,Y y
| {z }
x
Z + Z +
T eo.43
E(g2 (X, Y )) = E(Y ) = g2 (x, y) dFX,Y
| {z }
y

Al sustituir estos resultados en (1) obtenemos E(X + Y ) = E(X) + E(Y ). 

Observacion: El resultado anterior es inmediatamente generalizado para una


cantidad finita de variables aleatorias, es decir:

E(X1 + + Xn ) = E(X1 ) + + E(Xn )

Teorema 45
Sean X e Y variables aleatorias integrables e independientes, entonces

E(X Y ) = E(X) E(Y )

Demostracion: Veamos la demostracion para los casos discreto y absolutamente


continuo.

caso discreto

indep.
XX
E(X Y ) = xi yj P (X = xi , Y = yj ) =
| {z }
i j
P (X=xi )P (Y =yj )
X X
xi P (X = xi ) yj P (Y = yj ) = E(X)E(Y )
i j

caso abs continuo

Z + Z +
indep.
E(X Y ) = x y fX,Y (x, y) dx dy =
| {z }
fX (x)fY (y)
Z + Z +
yfY (y) xfX (x) dx dy = E(X)E(Y )

Federico De Olivera Lamas


4.5 Esperanza de funciones de vectores aleatorios 217

caso general

Z + Z + Z + Z +
indep.
E(X Y ) = x y dFX,y = x y dFX FY =

Z + Z + Z + Z +
x y dFX dFY = x dFX ydFY = E(X)E(Y )

Observacion:

1. El resultado anterior es generalizado para una cantidad finita de variables


aleatorias por simple induccion, es decir:

E(X1 Xn ) = E(X1 ) E(Xn )

siempre que X1 , . . . , Xn sean independientes.

2. En caso de ser E(X Y ) = E(X)E(Y ), no necesariamente X e Y son inde-


pendientes. Esto puede observarse en el siguiente ejemplo, el cual muestra
que la esperanza de dos variables puede factorizarse aun sin las variables
ser independientes.

Ejemplo 87
Sean X e Y v.a. tales que

P (X = i, Y = j) i = 1 i = 0 i = 1 P (Y = j)
j = 1 1/5 0 1/5 2/5
j=0 0 1/5 0 1/5
j=1 1/5 0 1/5 2/5
P (X = i) 2/5 1/5 2/5

Federico De Olivera Lamas


218 4. Vectores Aleatorios

El lector podra verificar que E(X) = E(Y ) = 0 y tambien E(XY ) = 0, sin


embargo P (X = 1, Y = 0) = 0 6= P (X = 1)P (Y = 0) por lo que X e Y no
son independientes. /

A los resultados de los Teoremas 44 y 45 le podemos sacar un gran provecho


para hallar la distribucion de sumas de v.a. independientes. Por ejemplo:

Ejemplo 88
Sean X1 , . . . , Xn iid con distribucion Bernoulli de parametro p.

Como aun no hemos mencionado lo de iid, vale aclarar que significa indepen-
dientes e identicamente distribuidas, es decir, que las X1 , . . . , Xn son indepen-
dientes y todas con igual distribucion, en este caso Ber(p).

Recordemos que la generatriz de momentos de Xi es M : R R tal que

M (t) = E(et X) = q + pet

Ahora, siendo X1 , . . . , Xn independientes, entonces etX1 , . . . , etXn tambien lo


son (Teorema 40), definamos X = X1 + + Xn y por ende:

indep
E(etX ) = E(et(X1 +...+Xn ) ) = E(etX1 etXn ) = E(etX1 ) E(etXn )
 n
M (t) M (t) = M (t) = (pet + q)n

Si recordamos, esta es la generatriz de una v.a. Binomial de parametros n, p


y como la generatriz de momentos determina de forma unica a la distribucion
tenemos que X Bin(n, p). Sin duda que esto simplifica mucho las cosas. Cada
vez que tengamos una v.a. X Bin(n, p) podemos pensarla como la suma de n
v.a. Bernoulli de parametro p e independientes, en particular:

Federico De Olivera Lamas


4.5 Esperanza de funciones de vectores aleatorios 219

E(X) = E(X1 + + Xn ) = E(X1 ) + + E(Xn ) = p + + p = np


| {z }
n veces

Este resultado coincide evidentemente con el que obtuvimos antes pero ahora
evitamos el despliegue de calculos. /

Ejemplo 89 (Distribucion 2 con n grados de libertad)


Una de los modelos mas usados en estadstica, entre otros, es la distribucion 2
con n grados de libertad.

Definicion 38
Sean X1 , . . . , Xn iid con distribucion N (0, 1), sea Y una v.a. aleatoria tal que:

Y = X12 + + Xn2

Llamamos a la distribucion de Y , 2 con n grados de libertad y lo anotamos


Y 2n .

Probemos que Y (1/2, n/2), y por lo tanto la distribucion 2n es una caso


particular de la familia de distribuciones gamma.

Comencemos por probar que Probar que X12 (1/2, 1/2). Para ello hallemos
la funcion de distribucion de X12 . Es claro que si t < 0 entonces FX12 (t) = 0 por
ser X12 0. Si t 0

X1 N (0,1)
FX12 (t) = P (X12 t) = P (|X1 | t) = P ( t X1 t) =


Z t
1 2
=
ex /2 dx
t 2

Ahora, derivando FX12 obtenemos su densidad, es decir fX12 : R R tal que

Federico De Olivera Lamas


220 4. Vectores Aleatorios


0 si t < 0
fX12 (t) = 
e t/2 e t/2

F 0 2 (t) = 1 = 1 t1/2 et/2 si t 0
X 1 2 2 t 2 t 2

Basta recordar que la densidad de una v.a. gamma de parametros (, ) es


0
si t < 0
f (t) =
t1 et si t 0
()

Donde obtenemos que X12 (1/2, 1/2). Observemos que no se ha verificado


si las constantes son iguales, pero ello es evidente pues ambas son densidades y

deben integrar uno, de aqu obtenemos que (1/2) =

Pasemos ahora a hallar la distribucion de Y = X12 + . . . + Xn2 .

Recordemos que la generatriz de momentos de una v.a. gamma de parametros


(, ) es M : (, ) R tal que
 

M (t) =
t

Luego
 n
t(X12 ++Xn2 ) tX12 tXn2 indep. tX12 tXn2 id
E(e ) = E(e e ) = E(e ) E(e ) = M (t)

 1/2
1/2
Basta sustituir M (t) = 1/2t
, recordemos que Xi2 (1/2, 1/2),
para obtener que la generatriz de momentos de X12 + + Xn2 es
MX12 ++Xn2 : (1/2, 1/2) R tal que

 n/2
1/2
MX12 ++Xn2 (t) =
1/2 t

Como la funcion generatriz determina de forma unica la distribucion, tenemos

Federico De Olivera Lamas


4.5 Esperanza de funciones de vectores aleatorios 221

X12 + + Xn2 (1/2, n/2)

4.5.2. Varianza de la suma de v.a.

Pasemos ahora a estudiar la varianza de la suma de variables aleatorias. Co-


mencemos con dos variables:

Sean X e Y v.a. con varianza finita, tratemos de estudiar V (X + Y ).

 2  2
df
V (X + Y ) = E (X + Y ) E(X + Y ) = E (X E(X)) + (Y E(Y ))

 
2 2 linealidad
E (X E(X)) + 2(X E(X))(Y E(Y )) + (Y E(Y )) =

 2     2
E X E(X) + 2E X E(X) Y E(Y ) + E Y E(Y ) =

  
V (X) + V (Y ) + 2E X E(X) Y E(Y )

Notemos que la varianza de la suma no es necesariamente la suma de las


varianzas, es conveniente nombrar al termino excedente, lo que da lugar a la
siguiente definicion:

Definicion 39 (Covarianza)
Sean X e Y v.a. llamamos covarianza entre X e Y a
  
Cov(X, Y ) = E X E(X) Y E(Y )

siempre que la anterior esperanza exista.

Federico De Olivera Lamas


222 4. Vectores Aleatorios

Observacion: Notemos entonces que

V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y )

Indaguemos ahora algunas propiedades de la covarianza.

Proposicion 46
1. Cov(X, Y ) = E(XY ) E(X)E(Y )

2. Si X e Y son independientes entonces Cov(X, Y ) = 0

Demostracion:

1.
  
Cov(X, Y ) = E X E(X) Y E(Y )
 
= E XY XE(Y ) E(X)Y + E(X)E(Y )
linealidad
= E(XY ) E(X)E(Y ) E(X)E(Y ) + E(X)E(Y )

= E(XY ) E(X)E(Y )

2. Siendo X e Y independientes, segun el Teorema 45, tenemos que E(XY ) =


E(X)E(Y ), resta aplicar que Cov(X, Y ) = E(XY ) E(X)E(Y ) para ob-
tener que Cov(X, Y ) = 0.

Observacion: Como vimos en el Ejemplo 87, siendo E(XY ) = E(X)E(Y )


no necesariamente X e Y son independiente. Por ende, Cov(X, Y ) = 0 no implica
que las variables aleatorias sean independientes.

Federico De Olivera Lamas


4.5 Esperanza de funciones de vectores aleatorios 223

Ejercicio 7
Sean X e Y variables aleatorias normales. Mostrar que en este caso
Cov(X, Y ) = 0 si y solo si X e Y son independientes.

Sugerencia: hacerlo para normales standar. 

Retomando el trabajo con la varianza de variables aleatorias tenemos el si-


guiente resultado:

Proposicion 47
Sean X1 , . . . , Xn variables aleatorias independientes con varianzas finitas, enton-
ces
V (X1 + + Xn ) = V (X1 ) + + V (Xn )

Demostracion:
 2
V (X1 + + Xn ) = E X1 + + Xn E(X1 + + Xn )
  2
= E X1 E(X1 ) + + Xn E(Xn )
n 
X 2 X  
= E Xi E(Xi ) + E Xi E(Xi ) Xj E(Xj )
i=1 i,j:i<j | {z }
Cov(Xi ,Xj )=0
n
indep.
X
= V (Xi )
i=1

Federico De Olivera Lamas


224 4. Vectores Aleatorios

4.6. Ejercicios

* S S
1. Sea X = (X, Y ) un vector discreto con recorrido n {xn } m {ym }

P
a) Probar que P (X = xn ) = m P (X = xn , Y = ym ) xn Rec(X).
P
b) Probar que P (Y = ym ) = n P (X = xn , Y = ym ) ym Rec(Y ).

2. Sean X e Y dos variables aleatorias discretas con cuanta dada por:

P (X = x, Y = y) x = 1 x = 0 x = 1
y = 1 1/16 3/16 1/16
y=0 3/16 0 3/16
y=1 1/16 3/16 1/16

a) Obtener las cuantas marginales de X y de Y .

b) Son X e Y independientes?. Justificar.

~ = (X, Y ).
c) Hallar la funcion de distribucion de X

d ) Hallar P (X < 1, Y 0) y P (X = Y )

3. Considere el experimento aleatorio consistente en lanzar una moneda tres


veces. Sea X la variable aleatoria que cuenta la cantidad de caras obtenidas
en los tres lanzamientos y sea Y la variable aleatoria que cuenta la cantidad
~ = (X, Y ).
de caras obtenidas en los dos primeros lanzamientos. Sea X

~
a) Hallar la cuanta del vector X.

b) Son X e Y independientes?. Justificar.

4. Una urna contiene 3 bolas blancas, 7 negras y 2 rojas. Se extraen dos bolas
de la urna. Sea X el numero de bolas blancas extradas y sea Y el de bolas
negras.

Federico De Olivera Lamas


4.6 Ejercicios 225

~ = (X, Y ).
a) Hallar la cuanta de X

b) Calcular P (X < Y ).
*
5. Sea X = (X, Y ) un vector absolutamente continuo con densidad fX,Y .

a) Probar que X tiene densidad fX : R R tal que


Z +
fX (x) = fX,Y (x, y) dy

b) Probar que Y tiene densidad fY : R R tal que


Z +
fY (y) = fX,Y (x, y) dx


cx si (x, y) [0, 1] [0, 1]
6. Sea f : R2 R tal que f (x, y) = .

0 si (x, y) 6 [0, 1] [0, 1]

a) Determinar la constante c, c R, para que f sea la funcion de densidad


~ = (X, Y ).
de un vector aleatorio X
~
b) Hallar la funcion de distribucion de X.
~ [0, 1/2] [1/2, 1]).
c) Calcular P (X

d ) Hallar las densidades de X y de Y .

e) Son X e Y independientes. Justificar.

7. La duracion hasta la rotura (medida en meses), de cierto componente


electronico que fabrica una empresa, se distribuye exponencial de parametro
= 1/10. Para componentes distintos se suponen duraciones independien-
tes.

~ = (X1 , X2 ), donde X1 , X2 es la duracion de


a) Hallar la densidad de X
dos componentes respectivamente.
~ y calcular la probabilidad de
b) Hallar la funcion de distribucion de X
que los dos componentes duren mas de 10 meses.

Federico De Olivera Lamas


226 4. Vectores Aleatorios

c) Considere un electrodomestico que tiene 5 de estos componentes. El


electrodomestico funciona mientras tenga al menos 2 componentes en
marcha. Hallar la probabilidad de que el electrodomestico funcione
mas de un a no.

8. Sea X~ = (X, Y ) un vector aleatorio con densidad:



cx2 si (x, y) [0, 2] [0, 1]
2
f : R R tal que f (x, y) =
0 si (x, y) 6 [0, 2] [0, 1]

a) Determinar c.

b) Calcular: P (X + Y > 2); P (Y < 1/2); P (X 1/2); P (X = 2Y ).

9. Hallar la funcion de distribucion ~


del vector X = (X, Y ), cuya densidad
6 (x + y 2 ) si (x, y) [0, 1]2
2 5
es f : R R/ f (x, y) = . Hallar las
0 si (x, y) 6 [0, 1]2
densidades marginales de X e Y y hallar la esperanza de X + Y .

10. La funcion de densidad de un ~ = (X, Y ) es


vector X
2xey si 0 x 1, 0 < y
2
f : R R tal que f (x, y) = .
0 en otro caso

a) Son X e Y independientes?.

b) Hallar E(X + Y ).

11. Sean X e Y dos variables aleatorias


independientes con densidad comun
ex si x > 0
f : R R, dada por: f (x) = .
0 si x 0

a) Hallar la densidad de las variables S = X + Y , T = X Y , R = X/Y .

b) Calcular la probabilidad de que S + T sea menor que 1.

c) Hallar la esperanza y varianza de X, Y, S, T .



x+y si x = 1, 2, 3; y = 1, 2
2 21
12. Sea p : R R tal que p(x, y) = .
0 en otro caso

Federico De Olivera Lamas


4.6 Ejercicios 227

~ = (X, Y ).
a) Probar que es una cuanta de un vector aleatorio X

b) Hallar las cuantas marginales, E(X), E(Y ), V (X), V (Y ).

13. Sean X e Y dos variables aleatorias absolutamente


continuas con funcion
xex(y+1) si x > 0, y > 0
de densidad conjunta dada por: f (x, y) =
0 en otro caso

a) Probar que f es una densidad (verificar las propiedades).

b) Cual es la probabilidad de que X < 2 e Y < 1?.

c) Obtener las densidades marginales. Son X e Y independientes?.

14. Se tiran dos dados. Sea X1 el resultado del primer dado y sea X2 el resul-
tado del segundo.
Sean Y1 = mn{X1 , X2 } e Y2 = max{X1 , X2 }. Hallar la distribucion con-
junta de (Y1 , Y2 ).

15. Sean X1 , . . . , Xn variables aleatorias iid con distribucion U (0, 1).

a) Sea Yn = max X1 , . . . , Xn . Hallar la distribucion de Yn .

b) Hallar el menor valor de n para el cual P (Yn 0, 9) 0, 95.

16. Se escriben n cartas y sus respectivos sobres y se ensobran las cartas al azar
de modo que la probabilidad de cualquiera de las ubicaciones de las cartas
en los sobres es la misma. Cuantas cartas espera que queden correctamente
ensobradas.

17. Sean X1 , . . . , Xn variables aleatorias iid. Supongamos que la funcion gene-


ratriz de momentos de una de ellas es MX1 (t).
n
a) Sea Sn = X1 + + Xn . Probar que MSn (t) = MX1 (t) .

b) Sean Xi N (i , i ) con i = 1, . . . , n, v.a. independientes. Probar que


toda combinacion lineal a1 X1 + a2 X2 + + an Xn es una variable
aleatoria normal con esperanza y varianza a determinar.

Federico De Olivera Lamas


228 4. Vectores Aleatorios

c) Sean Xi P oiss(i ) con i = 1, . . . , n, v.a. independientes. Probar que


P
Sn = X1 + + Xn P ois( i ).

18. Sea (X, Y ) un vector aleatorio Normal de parametros



* 1 0
= (0, 0) y = .
0 1

a) Probar que X e Y son independientes.

b) Hallar P (0 X 1, Y > 2).

c) Cual es la covarianza entre X e Y ?.

19. En una panadera las ventas diarias de pan flauta(X) y de pan


chico(Y ), medidas en kilogramos, siguen una distribucion
normal
dada
 625 0
por: (X, Y ) N , , donde = (100, ) y = .
0 100

a) Probar que X e Y son independientes y X N (100, 625) e

Y N (, 100) .

b) Sabiendo que la probabilidad de que en un da se venda mas de 150


Kg. de pan es 0, 10; deducir el valor de .

c) Calcular la probabilidad de que en un da la diferencia entre los Kg.


vendidos de pan flauta y los Kg. vendidos de pan chico sea mayor que
100.

d ) La panadera tiene la estrategia de producir todos los das 125 Kg. de


pan flauta y 25 Kg. de pan chico. Se dice que hay demanda insatisfecha
si un da la demanda supera lo 125 kg. de pan flauta y/o los 25 kg.
de pan chico. Hallar la probabilidad de que un da haya demanda
insatisfecha.

20. (La aguja de Buffon). Se arroja al azar una aguja de longitud 2b sobre
un plano en el que se han trazado lineas paralelas que distan 2a (a > b).

Federico De Olivera Lamas


4.6 Ejercicios 229

Supondremos que la distancia X del centro de la aguja a la linea mas


proxima y el angulo Y que forma la direccion de la aguja con la de las
lineas son variables independientes, respectivamente uniforme en (0, a) y
uniforme en (0, /2). Calcular la probabilidad de que la aguja corte alguna
linea.

21. Sean X e Y variables aleatorias discretas e integrables. Probar directamente


que E(X + Y ) = E(X) + E(Y ).

22. Sean X e Y variables aleatorias absolutamente continuas e integrables. Pro-


bar directamente que E(X + Y ) = E(X) + E(Y ).

23. Definimos el coeficiente de correlacion entre dos variables aleatorias no de-


generadas como
Cov(X, Y )
(X, Y ) =
X Y
XE(X) Y E(Y )
a) Utilizando Z = x
+ Y
y que 0 E(Z 2 ), probar que
(X, Y ) 1.
XE(X) Y E(Y )
b) Utilizando Z = x
Y
y que 0 E(Z 2 ), probar que
(X, Y ) 1.

c) Sea a R+ y b R, probar que Y = aX + b (X, Y ) = 1.

d ) Sea a R y b R, probar que Y = aX + b (X, Y ) = 1.

24. Sean X1 , . . . , Xn v.a. iid con distribucion N (, );


X1 + + Xn
a) Probar que X = N (, / n)
n
n
1 X
b) Siendo S 2 = (Xi X)2 , probar para el caso n = 2 que
n 1 i=1

n1 2
2
S 2n1

Federico De Olivera Lamas


Captulo 5

Convergencias

En este captulo introduciremos la idea de convergencias de variables aleato-


rias, estudiaremos tres tipos de convergencias, la convergencia en probabilidad, la
convergencia casi segura y la convergencia en ley (tambien llamada convergencia
en distribucion).

A partir de estas convergencias llegaremos a resultados muy importantes como


la Ley de los Grandes Numeros y el Teorema del Lmite Central los cuales
son ampliamente usados en la practica con asuntos de inferencia estadstica.

Nuevamente debemos reconocer que este curso es introductorio y por ende


una basta cantidad de resultados seran dejados de lado para focalizarnos en los
principales resultados.

Comencemos introduciendo la idea con un simple ejemplo:

Supongamos que tiene una moneda no cargada y la tira al aire 100 veces,
cuantas veces saldra cara?.

Evidentemente uno supondra que debe obtener 50 caras y 50 numeros, es


decir que la frecuencia de caras obtenidas

cantidad de caras obtenidas 1


f = frecuencia = = = P (salga cara)
cantidad de lanzamientos 2
232 5. Convergencias

Ahora bien, es claro que dentro de nuestro espacio de resultados posibles exis-
te la posibilidad de que en todas las tiradas se obtenga numero, mas aun, dicho
suceso tiene probabilidad no nula, por lo que la igualdad f = 1/2 no tiene por
que ser valida. Pero pensemos ahora que la moneda se tira mil veces o mejor aun,
un millon de veces, sin lugar a duda apostaramos a que la frecuencia debe pare-
cerse mucho a 1/2, de lo contrario sospecharamos que la moneda esta cargada.

Formalicemos brevemente este ejemplo, el resultado obtenido al tirar una


moneda lo podemos representar por una variable aleatoria X con distribucion
Bernoulli, es decir
1 si sale cara
X=
0 si sale numero

Aqu tenemos que la i-esima tirada de la moneda es representada por una v.a.
Xi Ber(p) con p = 1/2 y que ademas todas las tiradas son independientes, por
lo que tenemos X1 , X2 , . . . , Xn , . . . iid con distribucion Ber(p).

Nuestra frecuencia, que depende de la cantidad de tiradas n es

X 1 + + Xn
fn =
n

y lo que en algun sentido estamos diciendo es que fn p.

Aqu surgen algunas preguntas de las cuales la primera sera: en que sentido
es tal convergencia?

La respuesta la podramos formular en terminos de probabilidad diciendo que


la sucesion formada por las probabilidades de los sucesos { : |fn ()p| < }
converge a uno, para cualquier > 0, es decir:

lm P ({ : |fn () p| < }) = 1 >0


n+

la cual la podemos interpretar como que la distancia entre fn y p es nula con

Federico De Olivera Lamas


5.1 Convergencia en Probabilidad 233

probabilidad que se acerca a uno cuando n +. Esta es una primera idea de


convergencia, la cual llamaremos convergencia en probabilidad.

Por otro lado, tambien podramos formular la respuesta en otra posible di-
reccion. Tomemos los tal que lmn+ fn () = p, es deseable aqu que el
suceso formado por estos sucesos elementales tenga probabilidad uno, es decir:
 
P { : lm fn () = p} = 1
n+

Este resultado sera llamado convergencia casi segura.

Un tercer tipo de convergencia es la convergencia en Ley pero la introducire-


mos mas adelante.

5.1. Convergencia en Probabilidad

Notemos que en el ejemplo anterior tenamos que fn p, donde p es una


constante, esta puede ser pensada claramente como una variable aleatoria, en
particular degenerada. Por lo que definiremos la convergencia en probabilidad de
una sucesion de variables aleatorias a otra variable aleatoria.

Definicion 40 (Convergencia en probabilidad)


Sean X y X1 , . . . , Xn , . . . variables aleatorias sobre un mismo espacio (, A, P ),
decimos que la sucesion (Xn )nN converge en probabilidad a X, si

lm P |Xn X| < = 1 para todo > 0
n+

P
En tal caso anotamos Xn X.

Observacion: Notemos que


  
lm P |Xn X| < = 1 lm 1 P |Xn X| = 1
n+ n+
 
1 lm P |Xn X| = 1 lm P |Xn X| = 0
n+ n+

Federico De Olivera Lamas


234 5. Convergencias

por tanto podemos estudiar la convergencia en probabilidad con cualquiera


de los dos lmites.

Antes de ver ejemplos veamos algunos resultados que nos ayudaran a probar
la convergencia en probabilidad.

Teorema 48 (Desigualdad de Markov)


Sea X : R una v.a. y g : R [0, +) una funcion medible tal que
0 < g(a) g(x) para todo x > a, donde a es un real arbitrario, entonces
E(g(X))
P (X a)
g(a)

Demostracion: Notemos que g(x) = g(x)I[a,+) (x) + g(x)I(,a) (x) para



todo x del dominio de g, ademas E I[a,+) (X) = P (X a) por ser
I[a,+) (X) Ber(P (X a))

   
E g(X) = E g(X)I[a,+) (X) + g(X)I(,a) (X)
   
= E g(X)I[a,+) (X) + E g(X)I(,a) (X)
| {z }
0
   
E g(X)I[a,+) (X) E g(a)I[a,+) (X)
| {z }
g(a)I[a,+) (X)
 
= g(a)E I[a,+) (X) = g(a)P (X a)

Basta despejar para obtener la tesis. 

Observacion: En el teorema anterior estamos asumiendo que la esperanza


de g(X) existe, en caso contrario, por ser g no negativa, solo puede ocurrir que
E(g(X)) = + y la desigualdad se cumple en R

Corolario 48.1 (Desigualdad de Chebishev)


Sea X una v.a. integrable, entonces, para todo > 0 se cumple

Federico De Olivera Lamas


5.1 Convergencia en Probabilidad 235

  V ar(X)
P |X E(X)|
2

Demostracion: Tomemos g : [0, +) [0, +) tal que g(x) = x2 , por el


Teorema anterior tenemos que:

2
 g(|X E(X)|)
 E X E(X) V ar(X)
P |X E(X)| = 2
=
g() 2

Corolario 48.2 (Criterio de conv. en prob. por media cuadratica)


Sean X y X1 , . . . , Xn , . . . v.a. sobre (, A, P ) tal que lm E (Xn X)2 = 0,

n+
P
entonces Xn X.

Demostracion: Tomando g : [0, +) [0, +) tal que g(x) = x2 en el Teo-


rema 48, tenemos
  E(X X)2
n
P |Xn X| 0
2 n+

P
y por ende Xn X. 

Ejemplo 90
Sea X1 , . . . , Xn , . . . una sucesion de variables aleatorias independientes con dis-
tribucion Ber(p), probemos, como lo visto en el ejemplo introductorio, que
P
X n = (X1 + + Xn )/n p.

En efecto, sabemos que E(Xi ) = p y por ende

 
X 1 + + Xn 1 
E(X) = E = E(X1 ) + + E(Xn ) = p
n n
Luego, siendo V (X) = p q

Federico De Olivera Lamas


236 5. Convergencias

 
2
 X1 + + Xn indep. 1  pq
E (X n p) = V (X n ) = V = V (X 1 )+ +V (X n ) =
n n2 n

pq

Ahora, como E (X n p)2 = 0,
n n+
el criterio de convergencia en pro-
P
babilidad por la convergencia en media cuadratica afirma que X n p. /

Observacion: Es inmediato notar que si X1 , . . . , Xn , . . . son v.a. tal que


P
E(Xn ) = y V (Xn ) 0, entonces Xn . En efecto, basta verificar que
n+

Chebishev V (Xn )
P (|Xn | ) 0
2 n+

Pasemos ahora al estudio de la convergencia casi segura.

5.2. Convergencia casi segura

Recordemos en que el ejemplo introductorio tenamos dos posibles tipos de


convergencia, una era la ya vista convergencia en probabilidad, otra es cuando el
suceso formado por los tal que lmn+ Xn () = X() tiene probabilidad uno.
Este tipo de convergencia es mas fuerte que la convergencia en probabilidad,
cosa que pasaremos a ver.

Definicion 41 (Convergencia casi segura)


Sean X y X1 , . . . , Xn , . . . variables aleatorias sobre un mismo espacio (, A, P ),
decimos que la sucesion (Xn )nN converge casi seguramente a X, si


P : lm Xn () = X() = 1
n+

c.s.
En tal caso anotamos Xn X.

Federico De Olivera Lamas


5.2 Convergencia casi segura 237

Observacion: Recordemos la definicion de lmite de sucesiones reales aplica-


da a este caso:

lm Xn () = X() si y solo si
n+

> 0 m tal que si n m entonces |Xn () X()| <

ahora podemos leer esta definicion en terminos conjuntistas al interpretar para


todo > 0 como la interseccion con > 0, existe un m N es la union en m tal
que para todo n m es interseccion en todos los n tal que n m , es decir:

\ [ \
{ : |Xn () X()| < }
>0 mN nm

Por ende, la convergencia casi segura equivale a decir:

\ [ \ 
P {|Xn X| < } = 1
>0 mN nm

o tambien, tomando complementos:

[ \ [ 
P {|Xn X| } = 0
>0 mN nm

Por ultimo, es tambien equivalente que para todo > 0 se cumpla |Xn X| <
a que para todo l N se cumpla |Xn X| < 1/l. Evidentemente la primer
condicion implica a la segunda, supongamos que se cumple la segunda pero no
la primera, es decir, existe > 0 tal que |Xn X| , tomando l > 1/ el
cual existe por la propiedad de Arqumedes, llegaramos a que no se cumple la
segunda condicion en absurdo con nuestra hipotesis.

Es importante notar que el pasaje a l N lo hacemos para trabajar con


numerabilidad.

Federico De Olivera Lamas


238 5. Convergencias

En resumen:
c.s.
Xn X
\ [ \ 
P {|Xn X| < 1/l} = 1

mN nm
 lN
[ \ [ 
P {|Xn X| 1/l} = 0
lN mN nm

Ejemplo 91
Sea (Xn ) una sucesion de v.a. iid con distribucion uniforme en el intervalo (0, 1).
c.s.
Definamos n = mn{X1 , . . . , Xn }, y probemos que n 0.

En efecto, dado l N arbitrario probemos primero que


 \ [ 
P {n 1/l} = 0
mN nm
| {z }
Em

Notemos que los conjuntos Em forman una sucesion decreciente de sucesos,


por la continuidad de la probabilidad tenemos que

 \  X
P Em = lm P (Em ) lm P (n 1/l)
m+ m+
mN nm

Ahora calculemos esta ultima probabilidad:

P (n 1/l) = P (mn{X1 , . . . , Xn } 1/l) =


 n  n  n
iid
P (X1 1/l, . . . , Xn 1/l) = P (X1 1/l) = 1 1/l = l1
l

P
De donde tenemos que la serie nm P (n 1/l) es geometrica con razon en
(0, 1) y por ende es convergente, del criterio de Cauchy para series tenemos que
P
que la cola de la serie tiende a cero, es decir lmm+ nm P (n 1/l) = 0

Por ultimo:

Federico De Olivera Lamas


5.2 Convergencia casi segura 239

[ \ [  X X
0P {n 1/l} lm P (n 1/l) = 0
m+
lN mN nm lN nm
| {z }
=0
c.s.
y por ende n 0. /

Veamos ahora que la convergencia casi segura es mas fuerte que la conver-
gencia en probabilidad.

Teorema 49 (conv. c.s. implica conv. en prob.)


c.s. P
Sea (Xn ) una sucesion de v.a. tales que Xn X entonces Xn X.

Demostracion: Probemos que lmm+ P (|Xm X| ) = 0 para todo > 0.


S
Dado > 0, llamemos Em = nm {|Xn X| }, aqu la sucesion formada
por los Em es decreciente (E1 E2 )
c.s.
Como Xn X, tenemos que
   \  [ \ 
cont. de conv. c.s.
lm P Em = P Em P Em = 0
m+ la prob.
mN >0 mN

Resumiendo tenemos que


 [ 
0 P (|Xm X| ) P {|Xn X| } = P (Em ) 0
m+
nm

P P
y por ende Xm X, es decir Xn X. 

Veamos ahora mediante un ejemplo, que la convergencia en probabilidad no


implica la convergencia casi segura.

Ejemplo 92 (La conv. en prob. no implica la conv. c.s.)


Trabajemos sobre el espacio ((0, 1), B(0,1) , P ) donde P (B) = medida de B 00 .
Consideremos la sucesion de v.a. definidas como sigue:

Federico De Olivera Lamas


240 5. Convergencias

X1 () = I(0,1) ()
X2 () = I(0,1/2) () X3 () = I(1/2,1) ()
X4 () = I(0,1/4) () X5 () = I(1/4,1/2) () X6 () = I(1/2,3/4) () X7 () = I(3/4,1) ()
..
.

Es inmediato observar que P (Xi = 1) = 1/2n si 2n i < 2n+1 . Es inmediato


verificar que si i + entonces n +, de aqu que dado > 0 existe un
natural i tal que 1/i < , por ende

Rec(Xi )={0,1}
0 P (Xi ) P (Xi 1/i) = P (Xi = 1) = 1/2n 0
i+

P
y tenemos que Xn 0.

Sin embargo, para cualquier (0, 1), la sucesion Xn () nN no es conver-
gente por construccion y por ende
 
P { (0, 1) : lm Xn () = 0} =0
n+
| {z }

en consecuencia tenemos que Xn no converge a cero casi seguramente.

Observacion: Evidentemente tampoco ocurre que Xn converja casi segura-


mente a alguna otra variable aleatoria, pues de ser as tendramos un absurdo
con el contra recproco del Teorema 49. /

5.3. Ley de los grandes numeros

Antes de comenzar con esta seccion es conveniente tener presente que cuando
hablamos de Ley debil entendemos una convergencia en probabilidad y cuando
hablamos de Ley fuerte entendemos convergencia casi segura, estos nombres son
debidos al Teorema 49 y al Ejemplo 92.

Federico De Olivera Lamas


5.3 Ley de los grandes numeros 241

Teorema 50 (Ley debil de los Grandes Numeros)


Sean X1 , . . . , Xn , . . . v.a. no correlacionadas todas con esperanza y varianza 2
P
, entonces X n .

Demostracion: Recordemos que X n = (X1 + + Xn )/n, aqu tenamos


E(X n ) = y V (X n ) = 2 /n, cosa que el lector puede verificar.

  Chebishev 2
P |X n | 0
n2 n+


En similares condiciones, se prueba que tal convergencia es tambien casi se-


gura. Sin embargo el grado de dificultad implicado en tal demostracion nos hace
ver una Ley fuerte con algunas hipotesis extra que de todos modos en nuestros
problemas de aplicacion siempre se verificaran.

Teorema 51 (Ley fuerte de los Grandes Numeros)


Sean X1 , . . . , Xn , . . . v.a. iid con E(X1 ) = y momento de cuarto orden finito,
c.s.
es decir E(X14 ) < +, entonces X n .

Demostracion: Como vimos antes, basta probar que para todo l N


S 
lmm+ P nm |X n | 1/l = 0, pues
[ \ [ 
0P {|X n | 1/l}
lN mN nm
X  \ [ 
cont. de
P {|X n | 1/l} =
la prob.
lN mN nm
X  [ 
lm P {|X n | 1/l} = 0
m+
lN nm
| {z }
=0

S 
Probemos entonces que lmm+ P nm |X n | 1/l = 0.

Federico De Olivera Lamas


242 5. Convergencias

Tomando g : [0, +) [0, +) tal que g(x) = x4 en el Teorema48 tenemos:

P 4
n
 [  T.48 X E(|X |4 ) (1) X E i=1 (Xi )
n
P {|X n | 1/l} 4
=
nm nm
1/l nm
n4 1/l4

P 4
n
Calculemos ahora E i=1 (Xi ) ,

n
X 4 n
 X 
E (Xi ) =E (Xi )(Xj )(Xk )(Xl ) =
i=1 i,j,k,l=1
n  
indep.
X
E (Xi )(Xj )(Xk )(Xl ) =
i,j,k,l=1
n
X   X    
E (Xi )4 + 3 E (Xi )2 E (Xj )2
i=1 i,j:1,...,n
i6=j

la ultima igualdad se verifica por la independencia y ademas porque en caso de


quedar una potencia 1 tenemos E(Xi ) = 0 lo que anula a todo el termino.

Siendo todas las variables equidistribuidas y contando la cantidad de terminos


tenemos que

n
X 4    
E (Xi ) = nE (X1 )4 + 3n(n 1)E 2 (X1 )2
i=1

Por ultimo recordando (1)

P 4
n
 [  XE i=1 (Xi )
P {|X n | 1/l} =
nm nm
n4 1/l4

   
X nE (X1 )4 n(n 1)E 2 (X1 )2 (2)
+3 0
nm
n4 1/l4 4
n 1/l 4 m+

Federico De Olivera Lamas


5.3 Ley de los grandes numeros 243

donde el lmite en (2) es valido por ser la cola de una serie convergente 

Observacion: Notemos que en la hipotesis anterior no es necesario pedir


que las variables sean identicamente distribuidas,en efecto, solo hemos usado que
tienen igual esperanza, igual varianza e igual momento de cuarto orden.

Ejemplo 93
En una fabrica se produce un determinado componente electronico, cuya duracion
puede pensarse exponencial. El fabricante esta tratando de estimar el tiempo
medio de duracion de cada componente, como le proporcionara tal estimacion?.

Una primera solucion (en inferencia se estudian metodos especficos de es-


timacion) es observar la duracion de algunos de estos componentes y tomar el
promedio de dichas duraciones.

En efecto, si la duracion entre distintos componentes son independientes, en-


tonces podemos modelar la duracion de n de estos componentes por medio de
una muestra aleatoria simple, es decir, T1 , . . . , Tn independientes y todas con dis-
tribucion exponencial de parametro (E(Ti ) = 1/). Luego, por la Ley de los
Grandes Numeros tenemos que:

T1 + + Tn P 1 T1 + + Tn c.s. 1
y tambien aqu
n n

Por ende, si observamos la duracion de una cantidad suficientemente grande


de estos componentes y tomamos el promedio de dichas duraciones, invirtiendo,
tenemos una buena estimacion de . /

Observacion: El lector recordara que cuando introducimos la idea de espe-


ranza de una variable aleatoria, decamos intuitivamente que poda pensarse como
un promedio al repetir muchas veces un mismo experimento en iguales condicio-

Federico De Olivera Lamas


244 5. Convergencias

nes. La Ley de los Grandes Numeros es la justificacion para esa idea intuitiva, ya
que si X1 , . . . , Xn son iid con esperanza y varianza finita, entonces

X1 + + Xn P
E(X1 )
n

5.4. Convergencia en Ley

En esta seccion trabajaremos con otro tipo de convergencia, es la convergencia


mas debil que trabajaremos pero sin lugar a duda que es la que nos proporcio-
nara mayor utilidad al momento de las aplicaciones.

Definicion 42
Sean X1 , . . . , Xn , . . . variables aleatorias con funciones de distribucion
FX1 , . . . , FXn , . . . y sea X una variable aleatoria con funcion de distribucion FX .

Decimos que la sucesion X1 , . . . converge en Ley (o en distribucion) a X si

FXn (x) FX (x)


n+

en cada punto x donde FX sea continua.


L
En tal caso anotamos Xn X.

Observacion:

1. Notemos que en la convergencia en probabilidad o casi segura, pedamos que


las variables aleatorias esten definidas sobre un mismo espacio de probabi-
lidad, aqu esa condicion no es necesaria ya que la convergencia es definida
por las funciones de distribucion.

Federico De Olivera Lamas


5.4 Convergencia en Ley 245

2. Mostremos mediante un ejemplo por que solo pedimos la convergencia de


FXn a FX en los puntos de continuidad de FX .

Dado un cierto espacio de probabilidad (, A, P ), definamos las variables


aleatorias tal que Xn () = 1/n para todo n N . Es inmediato observar
c.s.
que Xn 0 pues
 
P { : lm Xn () = X()} = 1
n+
| {z }
1
{:lmn+ n
=0}=

P
y por el Teorema 49 tenemos tambien que Xn 0.

Ahora bien,
cada Xn es una v.a. degenerada en 1/n y por ende
0 si x < 1/n
FXn (x) = .
1 si x 1/n

La v.a. lmite X tambien es degenerada, ahora en cero, es decir


0 si x < 0
FX (x) =
1 si x 0

Por ultimo,
si x < 0 FXn (x) = 0 = FX (x)
si x > 0 FXn (x) 1 = FX (x)
n+

L
Segun nuestra definicion tenemos que Xn X pero
FXn (0) = 0 6 FX (0) = 1.
n+

Aqu vemos que FXn (x) 6 FX (x) para todo x R, sin embargo la con-
n+
vergencia es valida en casi todo punto.

Como primer resultado mostremos que si tenemos una sucesion de variables


aleatorias que convergen en probabilidad a una cierta v.a. X, entonces tambien
convergen en distribucion a X. A partir de este resultado se deduce que la con-
vergencia en distribucion es en algun sentido la mas debil de las convergencias.

Federico De Olivera Lamas


246 5. Convergencias

P L
Teorema 52 (Si Xn X Xn X)
P L
Sean X, X1 , . . . , Xn , . . . variables aleatorias tal que Xn X, entonces Xn X.

Demostracion: Sea x un punto de continuidad de FX , probemos que


FXn (x) FX (x). Dado k N , notemos que

X () < X() 1/k
n


Xn () x

X () X() 1/k xX n ()

x X() 1/k X() x + 1/k

n

de donde { : Xn () x} { : X() x + 1/k} { : X() Xn () > 1/k}


(1)
Luego FXn (x) = P (Xn x) P (X x + 1/k) + P (X Xn > 1/k).

Trabajando de forma analoga tenemos que

{ : X() x 1/k} { : Xn () x} { : Xn () X() > 1/k}


(2)
lo que da lugar a FX (x 1/k) FXn (x) + P (Xn X > 1/k), despejando Fn (x)
de (2) y juntando el resultado con (1) tenemos:

FX (x 1/k) P (Xn X > 1/k) FXn (x) FX (x + 1/k) + P (X Xn > 1/k)


| {z } | {z }
0 0
n+ n+

P
Tomando lmite con n + y usando que Xn X tenemos
FX (x 1/k) lm inf FXn (x) lm sup FXn (x) FX (x + 1/k). Tomando ahora
n+ n+
lmite con k +, por ser x un punto de continuidad de FX tenemos

FX (x) lm inf n+ FXn (x) lm supn+ FXn (x) FX (x) de donde con-
cluimos que lmn+ FXn (x) = FX (x).
L
En resumen Xn X. 

El recproco de este Teorema no siempre es cierto, veamoslo en el siguiente


ejemplo:

Federico De Olivera Lamas


5.4 Convergencia en Ley 247

Ejemplo 94

Sean X, X1 , . . . , Xn , . . . iid con distribucion normal (0, 1/ 2). Evidentemente
L
Xn X pues la funcion de distribucion de Xn no vara con n.

Por otro lado Xn X N (0, 1) por ser una combinacion lineal de normales
independientes (segun el Ejercicio 17b del captulo anterior) y

P (|Xn X| < ) = P ( < Xn X < ) = () () 6 1


n+

por ser la funcion de distribucion de una v.a. normal estandar.

A partir de los Teoremas 49 y 52 y los ejemplos 92 y 94 podemos formular el


siguiente resumen:

c.s. P L
Xn X Xn X Xn X
6 6

Ahora pasaremos a estudiar algun criterio para la convergencia en Ley por


medio de la generatriz de momentos.

Recordemos que la distribucion de una variable aleatoria queda determinada


por su generatriz de momentos, siempre que esta exista. Es intuitivo pensar que
si tenemos una sucesion de variables aleatorias X1 , . . . , Xn , . . . con funciones ge-
neratriz de momentos MX1 , . . . , MXn , . . . y una variable aleatoria X con funcion
generatriz de momentos MX tales que MXn (t) M (t) para todo t en algun
n+
intervalo (t0 , t0 ), entonces la distribucion de las Xn converge a la de X.

Para llegar a este resultado se necesita un largo trabajo pasando por los
Teoremas de Helly y Levy, en el Libro Teora de Probabilidades de Petrov -
Mordecki puede leerse una demostracion de estos resultados en un caso aun mejor,

Federico De Olivera Lamas


248 5. Convergencias

con la funcion caracterstica, la cual como vimos existe para cualquier variable
aleatoria.

Enunciemos este resultado:

Teorema 53 (Criterio de convergencia en Ley)


Sean X1 , . . . , Xn , . . . v.a. con funciones generatriz de momentos MX1 , . . . , MXn , . . .
y X una variable aleatoria X con funcion generatriz de momentos MX entonces:

L
Xn X MXn (t) M (t) t (t0 , t0 )
n+

Ejemplo 95
Sean X1 , . . . , Xn , . . . tales que Xn Bin(n, 1/n), recordemos que la funcion
generatriz de momentos es MXn : R R tal que MXn (t) = (pet + q)n donde
p = 1/n y q = 1 1/n. Por lo tanto, para todo t R

1 1 n  1  n t
MXn (t) = et + 1 = 1 + et 1 ee 1
n n n n+

Si recordamos, el lmite es la funcion generatriz de momentos de una v.a.


X con distribucion de Poisson de parametro = 1, por ende tenemos las v.a.
con distribucion Binomial (n, 1/n) convergen en Ley a la variable aleatoria con
distribucion Poisson ( = 1).

5.5. Teorema del Lmite Central

En esta seccion veremos un resultado de suma importancia, el Teorema del


Lmite Central. Comencemos con un ejemplo intuitivo que nos ilustra este resul-
tado.

Federico De Olivera Lamas


5.5 Teorema del Lmite Central 249

Pensemos que tomamos la altura de los estudiantes de un cierto grupo y


la vamos registrando; x1 la altura del primer estudiante, x2 la del segundo y
as sucesivamente. Luego hacemos el promedio paso por paso es decir, definimos

x1 ++xn
xn = n
para cada n. Que comportamiento esperamos que lleve xn al
variar n?.

Resulta razonable pensar que uno se encontrara con estudiantes altos, los que
haran aumentar mucho a xn y con estudiantes bajos, lo que hara disminuir a
xn , pero en general tendremos pocos estudiantes con alturas extremas y muchos
estudiantes con altura media lo que dara lugar a pensar en un grafico del estilo
de la campana de Gauss.

En terminos de probabilidad, el resultado es el siguiente:

Teorema 54 (Teorema del Lmite Central)


Sean X1 , . . . , Xn , . . . iid con E(Xn ) = y V (Xn ) = 2 , supongamos ademas que
las v.a. tienen funcion generatriz de momentos M : (t0 , t0 ) R, entonces

Xn L
Z donde Z N (0, 1)
/ n

Demostracion: Supongamos primero que = 0, ahora


 Xn   X1 ++Xn   t t
  t   t 
t t X X indep X X
E e / n =E e n = E e n 1 e n n = E e n 1 E e n n

      n
t t igual t
= MX1
n
MXn
n
= M
n
dist.

Por ende, la funcion generatriz de momentos de /Xnn es


  n
M Xn : (t0 n, t0 n) tal que M Xn (t) = M t n
/ n / n
  n
t 2
Basta con probar que M n
et /2 que es la expresion de la gene-
n+
ratriz de momentos de una v.a. normal estandar.

Federico De Olivera Lamas


250 5. Convergencias

Hagamos un desarrollo de Taylor de orden uno de M en cero, con resto de


Lagrange , de donde

t2 t2
M (t) = M (0) + M 0 (0) t + M 00 (t ) = 1 + M 00 (t )
| {z } | {z } 2 2
1 =0

donde 0 < |t | < |t| (recordemos que las derivadas de M son continuas en
cero).
=0
z}|{
Luego, siendo M 00 (0) = V (X) + 2 = 2 tenemos
2
2tt2 h 00 2
i
M (t) = 1 + + M (t )
2 2| {z }
e(t) 0
t0

y por lo tanto tenemos que


h  t  in h t2 t2 t2 n
 i  oi
t n h 1 t n
M = 1+ + 2 e = 1+ 1+ 2 e
n 2n 2 n n 2n 2 n
| {z }
1
n+

de aqu que, para cada t fijo, tenemos que

t2
lm M X
n (t) = e 2
n+ / n

Xn L
Por el criterio de convergencia en Ley tenemos que N (0, 1).
/ n
Por ultimo, si 6= 0 basta considerar Yn = Xn . Es inmediato mostrar que

Xn Yn L
= N (0, 1)
/ n / n

Observacion:

Federico De Olivera Lamas


5.5 Teorema del Lmite Central 251

X1 ++Xn
1. Notemos que Xn = n
y por la linealidad de la esperanza tenemos
2
que E(Xn ) = , utilizando la independencia, tenemos que V (Xn ) = n
, por
n E(Xn ) L
lo tanto el resultado anterior nos muestra que: X Z.
V (Xn )

2. La hipotesis agregada sobre la existencia de la generatriz de momentos es


a los efectos de nuestro curso, el teorema puede demostrarse sin mayor
dificultad usando la funcion caracterstica, pero claro, deberamos manejar
integracion y Taylor en complejos.

3. En este curso veremos solo esta version del Teorema Central del Lmite,
sin embargo las hipotesis pueden debilitarse mucho y seguir manteniendo
la tesis (por ejemplo el Teorema de Lindeberg).

Ejemplo 96 (Aplicacion al tamano de una muestra)


Suponga que la poblacion de personas de Montevideo es N , N lo suficientemente
grande. Usted quiere realizar una encuesta para indagar sobre la opinion de las
personas con respecto a la gestion del actual gobierno. Para simplificar ideas le
preguntamos si esta de acuerdo o no y consideramos la variable aleatoria Xi tal
que Xi = I{la persona i-esima esta de acuerdo} . Supongamos que la proporcion
de personas que esta de acuerdo con la gestion es p = N1 /N , para nosotros
desconocida.

Queremos tomar una muestra (pues es muy costoso encuestar a todos los Mon-
tevideanos), de modo que con una confianza del 95 %, la proporcion de personas
que estan de acuerdo en la muestra, diste menos de de la verdadera proporcion
p.

Planteemos nuestro problema en terminos de probabilidad.

Sea n el tamano de la muestra y Xn = (X1 + + Xn )/n la proporcion


de personas que estan de acuerdo en la muestra. Suponiendo que la opinion de
las personas es independiente entre ellas, tenemos que X1 , . . . , Xn son iid con

Federico De Olivera Lamas


252 5. Convergencias

distribucion Bernoulli de parametro p, este supuesto es realista si las personas


son elegidas al azar, ademas, siendo el tamano de la poblacion suficientemente
grande, la eleccion sin reposicion es practicamente equivalente a la eleccion con
reposicion.
 
Luego, queremos hallar n de modo que P Xn p < = 0,95, para esto
usaremos el Teorema del Lmite Central. Observemos que E(Xi ) = p y ademas
V (Xi ) = p(1 p) de donde

   
P X n p < = P < Xn p < =



n n Xn p 

= P < p < n =
p(1p) p(1 p) p(1p)
| {z }
L
ZN (0,1)

     

= n n = 2 n 1 = 0,95
p(1p) p(1p) p(1p)

donde es la funcion de distribucion normal estandar, la cual se encuentra ta-


bulada.
1 + 0,95
Ahora tenemos que encontrar z tal que (z) = = 0,975, luego,
2

buscando en la tabla normal estandar tenemos que z = 1,96.

n
Por ultimo, sustituyendo z, tenemos que p = 1,96, es decir
p(1 p)
1,962 p(1 p)
n= .
2
Como desconocemos p, podramos tratar de acotar p(1p), el lector podra ve-
rificar que p(1 p) 1/4 y por ende nos cubrimos un poco con el tamano de la
muestra, en este caso tenemos

1,962 0,9604
n= =
42 2

Federico De Olivera Lamas


5.5 Teorema del Lmite Central 253

Evidentemente tenemos que si la precision aumenta ( disminuye), el tamano


de la muestra tambien aumenta y razonablemente. Por ejemplo, para una preci-
sion = 0,01 debemos tener un tamano de muestra n 9604. /

Federico De Olivera Lamas


254 5. Convergencias

5.6. Ejercicios

En todos los enunciados que hablemos de convergencias asumiremos que te-


nemos una sucesion de variables aleatorias correspondiente.

P
1. Probar que si E(Xn ) y V (Xn ) 0 entonces Xn .

P P P
2. a) Probar que si Xn 0 e Yn 0 entonces Xn + Yn 0.
P
b) Probar que si Xn X y (an ) es una sucesion reales tales que an a
entonces:
c.s.
1) (an a)X 0.
P
2) an (Xn X) 0.
Sugerencia: si a 6= 0 usar que |an | > |a|/2 > 0 para n > n0 ; si
a = 0 usar que |an (Xn X)| |an | |Xn X| para
(0, 1) y n > n0 .
P
3) an Xn aX.
P P P
c) Probar que si Xn X e Yn Y entonces Xn + Yn X + Y .

P
3. a) Probar que si Xn a y g es una funcion continua en a entonces
P
g(Xn ) g(a).
P
b) Probar que si Xn X y g es una funcion continua entonces
P
g(Xn ) g(X).

4. Sean X1 , X2 , . . . v.a. independientes tal que Xn Ber(1/n). Probar que


P
Xn 0, Xn converge casi seguramente?.

5. Sean X1 , X2 , . . . v.a. iid con distribucion P oiss(). Sea Yn tal que


X12 + + Xn2
Yn =
n
Cual es el lmite en probabilidad de Yn ?.

Federico De Olivera Lamas


5.6 Ejercicios 255

P
6. Sean X1 , X2 , . . . v.a. iid con distribucion U [0, 1]. Pruebe que nXn 0.

7. Sean X1 , X2 , . . . v.a. iid con distribucion U (0, 1) y sea Yn = n
X1 Xn la
media geometrica de las X1 , . . . , Xn .

a) Sospecha de algun valor al que converge Yn ?.


P
b) Probar que ln(Yn ) 1. La convergencia es casi segura?.
P
c) Probar que Yn e1 .

8. Una masa radioactiva emite partculas segun un proceso de Poisson de


parametro . Sean T1 , T2 , . . . los tiempos ocurridos entre emisiones sucesi-
T 2 + + Tn2
vas. Hallar lm 1 .
n+ n
El lmite es casi cierto o en probabilidad?.

9. 48 numeros reales se aproximan por el entero mas proximo. Si los errores


de redondeo individuales son independientes y uniformemente distribuidos
en (1/2, 1/2), calcular aproximadamente la probabilidad de que la suma
de los 48 numeros redondeados difiera de la de los numeros originales en
menos de 4.

10. Se lanza un dado no cargado m veces. Hallar m de modo que la probabilidad


de que la frecuencia relativa de ocurrencias del numero 2 difiera de 1/6
en mas de 1/10, sea menor a 0,01. Utilizar dos posibles metodos:

a) La desigualdad de Chebishev.

b) El Teorema del Lmite Central.

11. Al disparar a un blanco se obtienen 10 puntos con una probabilidad 0, 3; 9


puntos con una probabilidad 0, 3; 8 puntos con probabilidad 0, 2; 7 puntos
con probabilidad 0, 1 y 6 puntos con probabilidad 0, 1.

Aproximar la probabilidad de que al realizar 100 disparos se obtengan mas


de 90 puntos.

Federico De Olivera Lamas


256 5. Convergencias

12. Se lanza un dado no cargado 500 veces. Hallar un valor aproximado para
la probabilidad de que la suma de puntos obtenidos sea mayor que 1800.

L L
13. Suponga que Xn N (0, 1), Yn N (0, 1) y para todo n natural Xn es
L
independiente de Yn . Pruebe que Xn + Yn N (0, 2) (suponga que Xn e
Yn tienen generatriz de momentos).

L
14. Usando la funcion generatriz de momentos probar que si Xn N (0, 1)
y (an ) es una sucesion de numeros reales tal que an a, entonces
L
Xn + an N (a, 1).

L
15. Sean X1 , X2 , . . . v.a. definidas sobre (, A, P ), probar que si Xn c en-
P
tonces Xn c donde c es un real arbitrario.

16. Sean X1 , X2 , . . . v.a. iid con distribucion U [0, 1]. Sean


mn = mn{X1 , . . . , Xn }, Mn = max{X1 , . . . , Xn }, Un = n mn y
Vn = n(1 Mn ), probar que:

P P
a) mn 0 y Mn 1.
L L
b) Un W y Vn W donde W exp(1).

17. Sean X1 , X2 , . . . v.a. iid, tales que P (Xn = 1) = 1/2 = P (Xn = 1).
n
X 1 L
Probar que Yn = k
Xk U [1, 1].
i=1
2

L P
18. Sean X1 , X2 , . . . e Y1 , Y2 , . . . v.a. tales que Xn X e Yn c. Probar que

L
a) Xn + Yn X + c.
L
b) Yn Xn c X.

Federico De Olivera Lamas


Bibliografa

[1] William Feller.Introduccion a la Teora de Probabilidades y sus Aplicaciones.

[2] Barry R. James. Probabilidade: um curso em nvel intermediario.

[3] V. Petrov, E. Mordecki. Teora de Probabbilidades.

[4] Enrique Cabana. Probabilidad y Estadstica.

[5] Gonzalo Perera. Probabilidad y Estadstica Matematica.

[6] Jorge Blanco. Probabilidad: Fundamentos de teora.

[7] Luis Santalo. Probabilidad e Inferencia Estadstica.

[8] J. Dura y J Lopez. Fundamentos de Estadstica.

[9] Alfonso Novales. Estadstica y Econometra.

[10] Pior Lavrentievich, Mijail Ivanovich. Analisis Real, Medida e Integracion.

[11] Gerald B. Folland. Real Analysis.