Você está na página 1de 43

UNIVERSIDAD CENTROCCIDENTAL

LISANDRO ALVARADO
Decanato de Ciencias y Tecnologa
Licenciatura en Ciencias Matemticas

El proceso de Wiener y el teorema del lmite


central
Trabajo Especial de Grado presentado por

Br. Wendis Gmez

como requisito final


para obtener el ttulo de Licenciada
en Ciencias Matemticas
rea de Conocimiento: Estadstica.
Tutor: MSc. Vctor Bernal

Barquisimeto, Venezuela.

Junio de 2011

Universidad Centroccidental
Lisandro Alvarado
Decanato de Ciencias y Tecnologa
Licenciatura en Ciencias Matemticas
ACTA
TRABAJO ESPECIAL DE GRADO
Los suscritos miembros del Jurado designado por el Jefe del Departamento de
Matemticas del Decanato de Ciencias y Tecnologa de la Universidad Centroccidental Lisandro Alvarado, para examinar y dictar el veredicto sobre el Trabajo
Especial de Grado titulado:

El proceso de Wiener y el teorema del lmite central


Presentado por el ciudadano Br. Wendis Gmez titular de la Cdula de Identidad No 14.404.985. Con el propsito de cumplir con el requisito acadmico final para
el otorgamiento del ttulo de Licenciada en Ciencias Matemticas.
Luego de realizada la Defensa y en los trminos que imponen los Lineamientos
para el Trabajo Especial de Grado de la Licenciatura en Ciencias Matemticas, se
procedi a discutirlo con el interesado habindose emitido el veredicto que a continuacin se expresa:
1

Con una calificacin de


puntos.
En fe de lo expuesto firmamos la presente Acta en la Ciudad de Barquisimeto a
das del mes de
de
.
los

TUTOR

FIRMA

PRINCIPAL

FIRMA

PRINCIPAL

FIRMA

OBSERVACIONES:

Aprobado Reprobado

A mi hija Cindy Michelle.

AGRADECIMIENTOS
A Dios, porque a pesar de los obstculos pude lograr una de mis mas grandes
metas.
A mi madre Glenis Garca, por tu apoyo incondicional, por tus sabios consejos,
por ser una madre excepcional y porque gracias a ti hoy soy lo que soy. Te quiero
mucho.
A mi hija Cindy, eres lo mas bello que me han dado Dios y la vida. Tu dulzura y
ternura son el motor que impulsa mi vida. Dios te bendiga.
A mi novio Francisco, por tu valioso apoyo, tu cario, y por tener fe en m. Eres
un gran hombre y una gran persona, gracias por estar all cuando mas te necesito.
Te Amo.
A mi familia por su apoyo y estmulo.
A mis compaeros y amigos: Nelson, Anuar, Eliecer, Darwin, Ernesto, Irrael,
Williams, por el apoyo brindado y los momentos compartidos.
A los esposos Miriam y Rafael Robertis, por su apoyo y su ayuda en los momentos
mas difciles.
A la seora Coromoto Torres, por sus constantes oraciones, "fueron de gran ayuda",
por sus atenciones y por recibirme en su casa como un miembro mas de su familia.
A los profesores Eibar Hernndez, Mario Rodrguez, Rmulo Castillo, Luz Rodrguez, Omar Rodrguez y Jhonny Escalona por los conocimientos brindados y por
ser fuente de inspiracin y motivacin en algn momento de mi carrera para seguir
adelante. De todos y cada uno me llevo un bonito aprendizaje.
A mi Tutor MSc. Vctor Bernal, Por ser mi gua, por su apoyo y sus sabios consejos.
A todos los que hicieron posible la realizacin de este sueo muchas gracias!.

El proceso de Wiener y el teorema del lmite


central

R ESUMEN
El movimiento Browniano, tambin conocido como proceso de Wiener es un modelo matemtico que sirve para describir la trayectoria realizada por una partcula
a travs del tiempo.
El modelo ha tenido aplicacin en problemas de la vida real. Originalmente tuvo
gran aplicacin en el rea de la economa y fue introducida en 1900 por L. Bachelier
para modelar las fluctuaciones de la bolsa de valores en Pars. En la Fsica el modelo
ha servido para modelar el camino seguido por una molcula a travs de un lquido
o gas.
El Proceso de Wiener permite dar una demostracin del teorema del lmite central
usando argumentos mucho ms probabilsticos que las demostraciones habituales que
se basan fuertemente en la utilizacin de la transformada de Fourier o en otros argumentos de carcter analtico.
En el siguiente trabajo se desarrolla en detalle parte del artculo de Cabaa [2], donde
se establece una relacin entre el proceso de Wiener y el teorema del lmite central
arrojando como resultado un teorema del lmite central funcional.

ii

NDICE
Agradecimientos

1. Preliminares

1.1. Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2. Funcin de Distribucin Acumulativa . . . . . . . . . . . . . . . . . .

1.3. Distribucin Uniforme en un Intervalo . . . . . . . . . . . . . . . . .

1.4. Variables Aleatorias Normales . . . . . . . . . . . . . . . . . . . . . .

1.4.1. Funcin de Densidad de Probabilidad Normal . . . . . . . . .

1.5. Convergencia de Variables Aleatorias Estocsticas . . . . . . . . . . .

1.6. Esperanza Matemtica . . . . . . . . . . . . . . . . . . . . . . . . . .

1.7. Varianza y Desviacin Estndar . . . . . . . . . . . . . . . . . . . . .

1.8. Algunos Teoremas Lmites . . . . . . . . . . . . . . . . . . . . . . . .

2. Procesos Estocsticos, Cadenas de Markov

2.1. Procesos Estocsticos . . . . . . . . . . . . . . . . . . . . . . . . . . .

2.2. Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2.3. Paseo al Azar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

3. Movimiento Browniano o Proceso de Wiener

12

3.1. Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12

3.2. Interpretacin Intuitiva del Movimiento Browniano . . . . . . . . . .

13

3.3. La Funcin Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . .

14

3.4. Puente Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . .

14

3.5. Inmersin de un paseo al azar en un proceso de Wiener . . . . . . . .

17

4. Un teorema del Lmite Central Funcional


Referencias Bibliogrficas

25
37

iii

Introduccin
En los albores del anlisis matemtico, caus sensacin un ejemplo de funcin
continua pero no diferenciable en ningn punto, ideado por Weierstrass.
A comienzos del siglo pasado fue propuesto un modelo matemtico para el movimiento errtico de partculas suspendidas en un ambiente de agitacin trmica,
descubierto por el botnico Robert Brown en 1828. Este movimiento despus adopt
el nombre de proceso de Wiener.
Las trayectorias del proceso de Wiener no son diferenciables en ningn punto, casi
seguramente al igual que el ejemplo presentado por Weierstrass.
El siguiente trabajo tiene por objetivo vincular a los procesos de Wiener con el teorema del lmite central, un teorema clsico en la teora de probabilidad y estadstica,
el cual es la base para el desarrollo de este trabajo.
En el captulo 1 se presentan algunas definiciones conceptos y teoremas correspondientes a la teora de Probabilidad que sern de gran ayuda para el desarrollo de los
captulos siguientes. El captulo 2 esta compuesto por algunas definiciones y teoremas previos a la teora del Movimiento Browniano. El captulo 3 esta conformado
por definiciones, teoremas y propiedades como una introduccin a la teora del movimiento Browniano. Desarrollaremos en detalle una inmersin de un paseo al azar
simtrico simple en un proceso de Wiener lo cual, con la ayuda de la ley fuerte de
los grandes nmeros y el teorema de caracterizacin de continuidad por sucesiones
conducir a un resultado similar a la del teorema del lmite central. Un resultado un
poco mas general se presenta en el captulo 4 y se obtiene de la inmersin descrita
anteriormente, el cual es conocido como teorema del lmite central funcional en este
captulo tambin se presenta un teorema que relaciona al proceso de Wiener con el
teorema del lmite central funcional y un ejemplo ilustrativo de dicho teorema.

Captulo 1
P RELIMINARES
En este captulo se presentan algunas definiciones y conceptos bsicos correspondientes a la teora de probabilidad as como tambin algunos teoremas lmites que
sern de gran utilidad para el desarrollo de este trabajo.

1.1.

Variables Aleatorias

Definicin 1. Dado un espacio de probabilidad (, F, P ) diremos que una variable


aleatoria, abreviado como (v.a) es una funcin que asigna un valor numrico a cada
suceso elemental del espacio muestral.
Es decir, una variable aleatoria es una variable cuyo valor numrico esta determinado
por el resultado del experimento aleatorio. La variable aleatoria la denotaremos con
letras maysculas X, Y, . . . y con letras minsculas sus valores.
La variable aleatoria puede tomar una cantidad numerable o no numerable de
valores dando lugar a dos tipos de variables aleatorias: discretas y continuas.
Definicin 2 (Variable Aleatoria Discreta). Se dice que una variable aleatoria
X es discreta si puede tomar un nmero finito o infinito, pero numerable, de posibles
valores.
Definicin 3 (Variable Aleatoria Continua). Se dice que una variable aleatoria
X es continua si puede tomar un nmero infinito (no numerable) de valores, o bien,
si puede tomar un nmero infinito de valores correspondientes a los puntos de uno o
ms intervalos de la recta numrica.

Wendis Gmez

1.2.

Funcin de Distribucin Acumulativa

Definicin 4. Sea X una variable aleatoria (discreta o continua). La funcin de


distribucin acumulativa F es la funcin F : R R definida por:
F (x) = P {X x}.
Suponga que X es una variable aleatoria discreta con funcin de densidad f . Entonces
F es la funcin escalonada definida por:
F (x) =

f (xi ).

xi x

Por otra parte, si X es una variable aleatoria continua con funcin de densidad f .
Entonces:
F (x) =

f (t) dt.

1.3.

Distribucin Uniforme en un Intervalo

Definicin 5. Una variable aleatoria X esta distribuida uniformemente en el intervalo (a, b), con a < b, si su funcin de densidad de probabilidad esta dada por:

f (x) =

1/(b a) x (a, b)
0

en otro caso.

En otras palabras, X esta distribuida uniformemente en el intervalo (a, b) si su


funcin de densidad es constante en ese intervalo y es igualmente probable que este
cerca de cualquier punto en ese intervalo.

1.4.

Variables Aleatorias Normales

1.4.1.

Funcin de Densidad de Probabilidad Normal

Definicin 6. Diremos que una variable aleatoria continua X tiene una distribucin
normal con media y varianza 2 si su funcin de densidad esta dada por:
2
1
1
f (x) = e 2 [(x)/]
2

donde es cualquier nmero real y es cualquier entero positivo.


Si X tiene distribucin normal, escribiremos X N(, 2 ).

Wendis Gmez

Un hecho importante en relacin con las variables normales es que si X es normal


con media y varianza 2 , entonces para cualesquiera constantes a y b,
1. aX + b esta distribuida con media a + b y varianza 2 .
2. Z = (X )/ es normal con media 0 y varianza 1.
La variable aleatoria Z tiene distribucin normal estndar y se denota por
Z N(0, 1).
Sea la funcin de distribucin de una variable aleatoria normal estndar; es decir,
Z x
1 2
1
(x) =
e 2 x dx.
2
El resultado de que Z = (X )/ tiene distribucin normal estndar cuando X es

normal con media y varianza 2 es bastante til, ya que nos permite evaluar todas
las probabilidades relativas a X en trminos de .
Por ejemplo la funcin de distribucin de X se puede expresar como:
F (x) = P (X x)


X
x
=P



x
=P Z



x
=
.

1.5.

Convergencia de Variables Aleatorias Estocsticas

Definicin 7 (Convergencia en distribucin). Sea (, F, P ) un espacio de probabilidad y sean X1 , X2 . . . : R una sucesin de variables aleatorias. Diremos

que una sucesin de variables estocsticas converge en distribucin a la variable X


si:
lm FXn (x) = FX (x),

en todos los puntos x en R en los cuales FX es continua.

Wendis Gmez

Definicin 8 (Convergencia en Probabilidad). Una sucesin de variables estocsticas X1 , X2 . . . converge en distribucin a X si para cada > 0
lm P (| Xn X |> ) = 0

o de manera equivalente, si para todo > 0


lm P ({w : | Xn (w) X(w) |> }) = 0.

Teorema 1. Si una sucesin de variables X1 , X2 . . . converge en probabilidad a X


entonces converge en distribucin a X.
Para ver la demostracin cite [11]

1.6.

Esperanza Matemtica

Un concepto muy importante en la teora de probabilidad y estadstica es el


de esperanza matemtica, valor esperado o simplemente, esperanza de una variable
aleatoria, ya que sta nos da un valor representativo o promedio de los posibles
valores que tomar la variable aleatoria.
Definicin 9. Para una variable aleatoria discreta X que puede tomar los valores
x1 , x2 , . . . , xn la esperanza se define como:
E(X) = x1 P (X = x1 ) + . . . + xn P (X = xn ) =

n
X

xi P (X = xi ),

i=1

o de manera equivalente, si P (X = xi ) = f (xi ),


E(X) = x1 f (x1 ) + . . . + xn f (xn ) =

xi f (xi ).

f (xi )6=0

Definicin 10. El valor esperado de una variable aleatoria continua X es:


Z +
= E(X) =
xf (x)dx

siempre que exista la integral. Es decir, E(X) existe si


Z +
|x|f (x)dx <

Wendis Gmez

Proposicin 1. (Ley del Valor Esperado Iterado)


Si X, Y son variables aleatorias con densidad conjunta f (x, y), entonces
E[g(X, Y )] = Ey {E[g(X, Y )|Y ]}.
Demostracin:
Por definicin, si X, Y son continuas,
Z Z
E[g(X, Y )] =
g(x, y)f (x, y) dy dx
Z Z
=
g(x, y)fX|Y fY (y) dy dx

Z Z
=
g(x, y)fX|Y (x|y) dx fY (y) dy
Z
= E[g(X, Y )|y]fY (y) dy
= E{E[g(X, Y )|Y ]}.


Como caso particular importante se tiene g(X, Y ) = X

1.7.

Varianza y Desviacin Estndar

Definicin 11. La varianza de una variable aleatoria continua X esta dada por:
Z +
2
V ar(X) = E(X ) =
(X )2 f (x) dx.

y se denota por 2 .
Tambin podemos escribir
2

V ar(X) = E(X ) [E(X)] =

x2 f (x) dx 2 .

De acuerdo a lo anterior tenemos que la varianza de una v.a es un nmero positivo.


luego, podemos calcular la raz cuadrada de la varianza la cual llamaremos desviacin
estndar y se define por:
=

p
p
V ar(X) = E(X )2 .

Wendis Gmez

1.8.

Algunos Teoremas Lmites

A continuacin se presentan algunos teoremas clsicos en la teora de probabilidad


y estadstica cuya demostracin puede verse en alguna de las bibliografas sealadas.
Veamos un enunciado sencillo la ley fuerte de los grandes nmeros y el teorema del
lmite central.
Teorema 2. (Ley Fuerte de Los Grandes Nmeros)
Si X1 , X2 , . . . son variables aleatorias independientes e idnticamente distribuidas
con esperanza , | |< , entonces
n

1X
lm
Xi = c.s
n n
i=1
Adems,



[nt]

X
1


p lm sup
Xi t = 0
n 0t1 n

i=1

La segunda consecuencia del teorema es conocida tambin como teorema de Donsker, la demostracin puede verse en [1]

Teorema 3. (Teorema del Lmite Central)


Si X1 , X2 , . . . , Xn son variables aleatorias independientes e idnticamente distribuidas con esperanza , y varianza 2 entonces, la sucesin:
n

1 X

(Xi )/
n i=1
converge en distribucin a una normal estndar.
Teorema 4. Sea f : X R R con X = dom(f) y a X. f es continua en a si
y solo si f (Xn ) f (a), para toda sucesin (Xn ) en X tal que Xn a.
Para ver la demostracin cite [8].

Captulo 2
P ROCESOS E STOCSTICOS ,
C ADENAS DE M ARKOV
2.1.

Procesos Estocsticos

Definicin 12. Llamaremos proceso estocstico a la familia de variables aleatorias


{Xt : t T } donde, Xt es una aplicacin definida en un espacio de probabilidad
(, F, P ), tal que para todo t perteneciente a T R fijo , Xt asigna a cada elemento
del espacio muestral un nico elemento en R y esta definida por:
Xt :(, F, P ) R
w Xt (w) R
Esto es, Xt es una variable y para todo w fijo, Xt es una funcin que depende

del tiempo.

Definicin 13. Al conjunto T R de subndices se le denomina conjunto de parmetros y puede ser discreto o continuo.

Si el conjunto de parmetros T es un intervalo finito o infinito subconjunto de los


numeros reales, el proceso {Xt : t T } es llamado proceso de parmetros continuo.
Definicin 14. Se denomina conjunto de estados E, al conjunto de posibles valores
que pueden tomar las variables {Xt }tR .
Observacin 1. En general, se piensa en el subndice T como el indicativo del
tiempo y en Xt como el estado o posicin del proceso estocstico en el instante T.
Ejemplo 1. Xt se puede ver como el nmero de personas que esperan un autobs
en un instante T , donde T [9, 10].
Un proceso estocstico se puede ver como un proceso que evoluciona en forma
aleatoria en el tiempo.
8

Wendis Gmez

2.2.

Cadenas de Markov

En la teora de la probabilidad, se conoce como cadena de Markov a un tipo


especial de proceso estocstico en el que la probabilidad de que ocurra un evento
depende del evento inmediatamente anterior.
Definicin 15. Un proceso o cadena de Markov consiste en una secuencia de ensayos
repetidos de un experimento, cuyos resultados tienen las siguientes propiedades:
Cada resultado pertenece a un conjunto numerable {X1 , X2 , . . .} llamado espacio de estados del sistema; si el resultado en el ensimo ensayo es Xi se dice
que el sistema est en el estado Xi en el momento n o en el paso ensimo.
El resultado de cualquier ensayo depende a lo sumo del resultado anterior inmediato y no de cualquier otro resultado previo; Con cada par de estados (xi , xj )
se establece la probabilidad pij de que xj ocurra inmediatamente despus de
que ocurra xi .
Cuando la cadena es finita, las probabilidades pij forman la siguiente matriz
cuadrada:

a11 a12

a1n

a
2n
21 21
A=

. . . . . . . . . . . . . . . . . .

an1 an2 ann

La segunda propiedad de la definicin se conoce como propiedad Markov.


Formalmente esto se expresa como:
Para todo n perteneciente a N y para todo, T1 < T2 < . . . < Tn
P (XTn xn |XT1 x1 , . . . , XTn1 xn1 ) = P (XTn xn |XTn1 xn1 )
Cuando el espacio de estados es discreto, entonces se puede escribir:
P (XTn = xn |XT1 = x1 , . . . , XTn1 = xn1 ) = P (XTn = xn |XTn1 = xn1 ).
Ejemplo 2. Tres nios A, B, C, se lanzan una bola entre ellos. Supongamos que
A siempre lanza la bola a B y B siempre lanza la bola a C. Sin embargo, existe la
misma probabilidad de que C lance la bola a B que a A.

Wendis Gmez

10

Observemos que este es un ejemplo de proceso de Markov ya que el nio que


lanza la bola no esta influenciado por aquellos que lanzaron la bola anteriormente.
El conjunto de estados es el conjunto finito: {A, B, C}. Luego su matriz de Transicin

esta dada por:

0
1

1/2 1/2 0

2.3.

Paseo al Azar

Definicin 16. Un paseo al azar es una formalizacin matemtica de la trayectoria


que resulta de hacer sucesivos pasos aleatorios.
En su forma ms general, los paseos al azar son cualquier proceso donde la posicin de una partcula en cierto instante depende slo de su posicin en algn instante
previo y alguna variable aleatoria que determina su subsecuente direccin y la longitud de paso.
Digamos que X(t) define una trayectoria que empieza en la posicin X(0) = x.
Un paseo aleatorio se modela mediante la siguiente expresin:
X(t + ) = Xt + (t), donde es la variable aleatoria que describe la ley de probabilidad para tomar el siguiente paso y es el intervalo de tiempo entre pasos sucesivos.

Observacin 2. Los paseos al azar pueden ocurrir en cualquier nmero de dimensiones, pueden ser discretos o continuos en el tiempo o en el espacio.
Para el caso unidimensional un paseo aleatorio simple son variables aleatorias
independientes con una distribucin Bernoulli que toma valor 1 con probabilidad p y
1 con probabilidad 1 p en cada paso. Es decir, un paseo discreto unidimensional

tiene la misma probabilidad de ir hacia la derecha que a la izquierda.

Por otro lado, si denotamos como W (t) la posicin de la partcula en un tiempo


t tendremos un paseo al azar en dos dimensiones, donde t representa el eje de las
abscisas (eje horizontal) y W (t) representa el eje de las ordenadas (eje vertical) donde
las variables aleatorias al igual que en el caso unidimensional tienen distribucin

Wendis Gmez

11

Bernoulli con tamao de paso T = 1 y adems se cumple que el paseo tiene la misma
probabilidad de ir hacia arriba que hacia abajo.
Ejemplo 3. Un ejemplo sencillo de un paseo al azar discreto en dos dimensiones
es el lanzamiento de una moneda, ya que si denotamos con 1 que el resultado del
experimento sea cara y con 0 que el resultado sea sello grficamente obtenemos algo
como lo siguiente:

Figura 2.1: Paseo al azar: El lanzamiento de una moneda

Captulo 3
M OVIMIENTO B ROWNIANO
P ROCESO DE W IENER

En este captulo se presentan algunos conceptos y teoremas como una introduccin a la teora del movimiento Browniano. Haremos una simulacin de dicho
movimiento. Tambin se presenta una inmersin de un paseo al azar simple en un
proceso de Wiener.
Veamos un poco de historia.

3.1.

Historia

Histricamente el movimiento Browniano debe su nombre al investigador botnico Robert Brown (1773 1858) quien en 1828 realiz la primera investigacin

detallada acerca de las aleatorizaciones en la naturaleza, al observar en su microscopio que una cierta hierba sumergida en agua realizaba un movimiento continuo
aleatorio muy accidentado.
Este mismo fenmeno lo podemos observar en partculas que flotan en el aire, o si
agregamos algn tipo de polvo de color en un vaso con agua, ya que se puede observar que las partculas, al cabo de un perodo de tiempo considerablemente grande
terminarn en el fondo del vaso. Tambin podemos observar que dichas partculas
tienen un movimiento completamente irregular y aleatorio con movimientos hacia
abajo pero tambin hacia arriba.
En el ao 1905 el famoso fsico Albert Einstein (1879 1955) public su clebre
trabajo que propuso la explicacin del movimiento Browniano.

La contribucin de Einstein fue muy importante ya que hasta ese momento todos los
argumentos propuestos para el movimiento Browniano haban sido solo cualitativos;
Es decir, que no se haba formulado ninguna teora que fuera susceptible de medirse
experimentalmente.
12

Wendis Gmez

13

Sin embargo una formulacin matemtica rigurosa del movimiento Browniano fue
dada por Norbert Wiener (1894 1964) quien en sus trabajos entre 1920 y 1923

logra dar un modelo preciso y riguroso para las trayectorias de las partculas por
esta razn el movimiento Browniano es tambin conocido como Proceso de Wiener.
Definicin 17. El proceso estocstico {Bt : t 0} es un movimiento Browniano o
proceso de Wiener si cumple las siguientes propiedades:

1. Cada incremento B(s + t) B(t) esta normalmente distribuido con media 0 y


varianza 2 t siendo 2 > 0 un parmetro fijo.

2. Para cada par de intervalos de tiempo disjuntos (t1 , t2 ] y (t3 , t4 ] con 0 t1 <

t2 t3 < t4 , se tiene que los incrementos Bt4 Bt3 , Bt2 Bt1 son variables
independientes. Y en general se cumple para n intervalos de tiempos disjuntos,

donde n es un entero positivo.


3. B(0) = 0 y B(t) es una funcin continua de t.
La opcin B(0) = 0 es arbitraria y frecuentemente consideramos que el movimiento Browniano empieza en x, esto es, B(0) = x para algn punto fijo x. Para el
movimiento Browniano que comienza en x, la varianza de B(t) es 2 t.
Cuando = 1 diremos que el movimiento Browniano es estndar.
En trminos generales se puede decir que este modelo, es un ejemplo de procesos
de Markov para tiempo continuo, ya que la probabilidad de los valores futuros no
depende de los valores anteriores sino de la informacin actual.
Observacin 3. Por la parte (1) de la definicin, para un movimiento Browniano
estndar ( = 1) se tiene que:
P (B(s + t) y|B(s) = x) = P (B(s + t) B(s) y x)


yx

=
t

3.2.

Interpretacin Intuitiva del Movimiento Browniano

La variable aleatoria Bt se puede expresar como el vector posicin de una partcula


respecto a un eje en cada instante t 0.

Wendis Gmez

3.3.

14

La Funcin Covarianza

De la definicin de Covarianza para una variable aleatoria y la definicin de Movimiento Browniano tenemos que los incrementos son independientes, la E(B(t)) = 0
y la varianza es 2 t.
Hallemos la funcin Covarianza.
Caso 1: 0 s < t.
Cov(B(t), B(s)) = E(B(t)B(s)) E(B(t))E(B(s))
= E(B(t)B(s))
= E(B(t)B(s) + B(s)B(s) B(s)B(s))
= E((B(s))2 + B(s)(B(t) + B(s))

= E((B(s))2 + E(B(s)(B(t) + B(s))


= E((B(s))2
= 2 s.
Caso 2: 0 t < s

Para este caso la demostracin es anloga y lo que se obtiene es


Cov(B(t), B(s)) = 2 t
Por lo tanto, Cov(B(t), B(s)) = 2 mn{s, t}.

3.4.

Puente Browniano

1. {Bt0 }t0 es un proceso estocstico con trayectorias continuas, es decir, para


cada w fijo, la funcin continua tal que:

Bt0 = Bt tBt donde Bt denota el movimiento Browniano


Ejemplo: Para t = 0 tenemos que:

B00 = B0 0B1
= B0 0
= B0
Pero B0 = 0 (Por definicin de movimiento Browniano)
por lo tanto B00 = 0 en t = 0

Wendis Gmez

15

Para el tiempo t = 1 tenemos:


B10 = B1 1B1
= B1 B1
=0
Por lo tanto B10 = 0 en t = 1.
2. Las distribuciones finito - dimensionales de {Bt }t0 satisfacen:
(Bt01 , Bt02 , ..., Bt0k ) = (Bt1 , Bt1 , ..., Btk /Bt1 ).

3. {Bt0 }t0 es un proceso Gaussiano con trayectorias en C[0,1] tal que:


E[Bt0 ] = 0 y cov(Bs0 , Bt0 ) = S(1 t).

En adelante denotaremos a la variable estocstica como W (t).


Teorema 5. Cuando T es el primer instante en que W alcanza alguno de los niveles
a, b, donde a, b son dos nmeros positivos cualesquiera los incrementos

V (t) = W (T + t) W (t) a partir de T tienen la distribucin de un nuevo proceso

de Wiener, independiente de la trayectoria {W (s) : s T }. La probabilidad de que

alguno de los niveles se alcance es 1, y la esperanza de T es ab. La probabilidad de


que alguno de que el primer nivel alcanzado sea a es b/(a + b) y la de que el primer
nivel alcanzado sea b es su complemento.
Idea grfica

1.4

1.2

0.8

W(t)

0.6

0.4

0.2

a
0.2

0.1

T
0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

Wendis Gmez
Teorema 6. Si W es un proceso de Wiener,

16
nW

Wiener.

t
n

es un nuevo proceso de

Demostracin:
Consideremos la siguiente funcin Vn : [0, +) R definida por:


Vn = nW nt , donde, n es cualquier entero positivo.

Debemos probar que Vn satisface las propiedades del proceso de Wiener.


1. Probemos que Vn es una funcin continua de t y que comienza en el origen.
Veamos que Vn (0) = 0
Por hiptesis tenemos que W es un proceso de Wiener, luego satisface las 3
propiedades de proceso de Wiener, en particular, que W (0) = 0.


As, Vn (0) = nW n0 = n(0) = 0.


Por lo tanto, Vn (0) = 0

Ahora veamos que Vn es una funcin continua:


Por ser W un proceso de Wiener, se tiene que W es una funcin continua de t
para todo t 0.

Por otro lado, de la definicin de Vn tenemos que t 0 y n es cualquier entero

positivo arbitrario pero fijo.

As, tenemos que: si t 0 y n > 0 entonces t/n 0.



Luego, W nt es continua para todo t = t/n 0 y por teorema se tiene que


nW nt tambin es continua para todo t = t/n 0.

2. Probemos que los incrementos son independientes de la trayectoria.

De la definicin de proceso de Wiener tenemos que las trayectorias de los W son


independientes, Esto es, cada variable de la forma X(t) = W (t + s) W (t) con

0 t < s es independiente de la trayectoria. Luego para cualquier particin

de los intervalos tendremos que las variables aleatorias heredan la propiedad

de independencia, es decir que los incrementos, Y (t) = nW ((t + s)/n)

nW (t/n) son independientes.


3. Ahora mostremos que los incrementos tienen distribucin normal.
De la hiptesis y de la definicin del proceso de Wiener tenemos que los incrementos: W (s + t) W (t) tienen distribucin normal con media cero y varianza

2 t. Luego por propiedades de varianza, esperanza y de variables aleatorias

Wendis Gmez

17

normales se tiene que, W ((s + t)/n) W (t/n)) tambin tiene distribucin nor-

mal con media cero y varianza 2 t/n2 .

Multiplicando la diferencia anterior por n donde, n > 0 tendremos:

nW ((s + t)/n2 ) nW (t/n) = n[W (s + t)/n) W (t/n)] la cual tiene

distribucin normal con media cero y varianza 2 nt/n2 .

Entonces, Vn (t) = nW ((s+t)/n) nW (t/n)) tiene distribucin N(0, ( 2 t/n))


Por lo tanto, de 1, 2 y 3 se tiene que Vn (t) es un proceso de Wiener.

3.5.

Inmersin de un paseo al azar en un proceso de Wie-

ner
Recordemos que en un paseo al azar simtrico simple en dos dimensiones las
variables aleatorias son independientes con distribucin Bernoulli que toma los
valores 1 o 1 cada uno con igual probabilidad. Esto se debe a que el paseo tiene la

misma probabilidad de ir hacia arriba que hacia abajo.


Ahora bien, si definimos la trayectoria del paseo como:

Wn (t) = Wn1 (Tn1 + t) Wn1 (Tn1 )

(3.1)

y suponemos que W (0) = 0.


Si adems suponemos que T1 es el primer instante en el cual W1 alcanza alguno de
los valores 1 o 1, T2 es el primer instante en el cual W2 alcanza el valor 1 o 1 y

as sucesivamente, de la definicin de las trayectorias tenemos que:


W2 (T2 ) = W1 (T1 + T2 ) W1 (T1 )
continuando con el proceso, obtenemos:
Wn (Tn ) = Wn1 (Tn1 + Tn ) Wn1 (Tn1 )
Por otro lado, si hacemos:
X1 = W1 (T1 ), X2 = W2 (T2 ), . . . , Xn = Wn (Tn )

(3.2)

y de la definicin de las trayectorias ecuacin (3.1) obtenemos la siguiente relacin:


X1 = W1 (T1 )

(3.3)

Wendis Gmez

18

X2 = W2 (T2 ) = W1 (T1 + T2 ) W1 (T1 )


entonces
X2 = W1 (T1 + T2 ) X1
Despejando X1 + X2 obtenemos:
X1 + X2 = W1 (T1 + T2 )

(3.4)

Para W3 tenemos:
W3 (T3 ) = W2 (T2 + T3 ) W2 (T2 )
entonces,
X3 = W2 (T2 + T3 ) X2
y
X2 + X3 = W2 (T2 + T3 )
Pero de la definicin de las trayectorias tenemos,
W2 (T2 + T3 ) = W1 (T1 + (T2 + T3 )) W1 (T1 )
As,
X2 + X3 = W1 (T1 + (T2 + T3 )) X1
y
X1 + X2 + X3 = W1 (T1 + T2 + T3 )
Luego de las ecuaciones (3.3), (3.4) y (3.5) se tiene la siguiente relacin:
X1 = W (T1 )
X1 + X2 = W1 (T1 + T2 )

(3.5)

Wendis Gmez

19

X1 + X2 + X3 = W1 (T1 + T2 + T3 )
..
.
X1 + X2 + . . . + Xn = W1 (T1 + T2 + . . . + Tn )
En general,
n
X

Xi = W1

i=1

n
X
i=1

Ti

(3.6)
0t1

Observemos de la definicin de las trayectorias que cada una de las variables Xi son
independientes ya que los intervalos de tiempos son disjuntos.
De esta manera hemos obtenido una sucesin de variables aleatorias independientes
a partir de un proceso de Wiener con distribucin de los sumandos de un paseo al
azar simtrico simple.
Veamos dos formas de hacer la construccin de una funcin continua pero no
diferenciable en ningn punto, a partir de esta sucesin de variables aleatorias.
Primero veamos como hacer la construccin de dicha funcin mediante funciones
escalonadas.
En efecto,
Si dividimos el intervalo [0, 1] en n partes iguales con n 1 obtendremos n subin-

tervalos cada uno con longitud 1/n. As, para un cierto k arbitrario fijo 0 k n

se tiene que: t = k/n entonces k = nt.

Por convencin como k pudiera no ser un entero lo reemplazamos por k = [nt] el


cual representa el mayor entero menor o igual que nt y se define por: k nt < k + 1.
As, la igualdad en (3.6) se convierte en:

[nt]
X
X
Xi = W1
Ti
[nt]

i=1

i=1

(3.7)

0t1

En otras palabras esto nos dice que para un n grande el paseo tomar muchos pasos
pero con una longitud muy pequea en cualquier intervalo de tiempo dado y lo que
se espera es que en el lmite cuando n tienda a infinito estos pasos se conviertan en
un proceso continuo.
Por otro lado, como la probabilidad de que alguno de los niveles se alcance es 1

Wendis Gmez

20

ambos con igual probabilidad se tiene que:


1
P (Xi = 1) = P (Xi = 1) = .
2
Luego, por definicin de esperanza para una variable discreta se tiene que:
E(Xi ) = 1( 21 ) + (1)( 12 ) =

1
2

1
2

=0

Por lo tanto, E(Xi ) = 0 para todo i = 1, . . . , n.


Adems de la propiedad de varianza para una variable discreta y de lo anterior
tenemos:
V ar(Xi ) = E(X 2 ) 2

= E(X 2 )
 
 
1
1
2
2
+ (1)
= (1)
2
2
=1

Por lo tanto, la V ar(Xi ) = 1 para todo i = 1, . . . , n.


Ahora, para cada n si en lugar de tomar W1 tomamos el proceso Vn (t) =
el cual ya se prob que tambin es un proceso de Wiener tenemos:

[nt]
[nt]
X
X

1
S[nt] =
Xi = nW
Ti
n
i=1
i=1

nW

t
n

(0t1)

entonces,

[nt]
X
S[nt]
1
=W
Ti
n
n i=1

(0t1)

S[nt]
Si hacemos Sn = entonces tendremos que
n

[nt]
1X
W
Ti
n i=1

Sn .

(0t1)

Es decir, W

1
n

[nt]
P

i=1

Ti

converge en distribucin a Sn .

Si suponemos que t > 1/n tendremos que [nt] > 0.

(3.8)

Wendis Gmez

21

Luego, la expresin anterior la podemos reescribir como:


p
S[nt]
S[nt] [nt]
= p
.
n
n [nt]
Estudiemos la convergencia de Sn :
p
Haciendo B[nt] = S[nt] / [nt], como tenemos una sucesin de variables X1 , X2 , . . . , Xn

independientes e idnticamente distribuidas con E(Xi ) = 0 y V ar(Xi )=1 para todo


S[nt]
tiene disi = 1, . . . , n, por el teorema del lmite central tenemos que B[nt] = p
[nt]
tribucin N(0, 1).
Por otro parte, como consecuencia de suponer que t > 1/n tenemos que [nt] > 0
y [nt]/n > 0. Luego por propiedades de esperanza y varianza se tiene que:
p
p


[nt] S[nt]
[nt]
[nt]
p
= B[nt] N 0,
.
n
n
n
[nt]

Pero [nt]/n converge a t cuando n tiende a infinito.


En efecto,

Partiendo del hecho de que 0 t 1 tenemos que 0 nt n y de la definicin de


parte entera se tiene que [nt] = k si y solo si k nt < k + 1. As,
k nt < k + 1 si y solo si

Restando

k
n

k
n

t<

k+1
n



y tomando valor absoluto tenemos: nk t n1 .

Luego, tomando lmite en ambos lados de la desigualdad obtenemos:




k

1

lm t lm = 0
n n
n n
k
= t.
n n

Por lo tanto, lm

Esto nos dice que [nt]/n converge a t cuando n tiende a infinito. Luego,
p
S[nt]
[nt]
Sn = = B[nt] N(0, t).
n
n
!
[nt]
P
Ti
Por lo tanto, de las ecuaciones (3.8) y (3.9) tenemos que W n1
i=1

distribucin N(0, t).

0t1

(3.9)
tiene

Wendis Gmez

22

Por otra parte, por el teorema (5) se tiene que la esperanza comn de los tiempos
Ti es 1 luego la ley fuerte de los grandes nmeros establece que:


[nt]

X
1


p lm sup
Ti t = 0.
n 0t1 n

i=1
Por lo tanto, p lm sup n1
Evaluando

1
n

n
[nt]
P

[nt]
P

Ti = t.

i=1

Ti y t en W y debido a la continuidad de las trayectorias, el

i=1

teorema (4) nos permite concluir que:





[nt]
X


1
Ti W (t) = 0.
p lm sup W
n i=1
n 0t1

Pero de la ecuacin (3.8) tenemos que W

Por lo tanto,

P
1 [nt]
Ti
n i=1

Sn (t) .
(3.10)

p lm sup |W (t) Sn (t)| = 0.


n 0t1

Con esto concluimos que Sn (t) converge a W (t) cuando n tiende a infinito.
Observemos que este ltimo resultado muestra una consecuencia similar a la del
teorema del lmite central, salvo que en lugar de tomar una sucesin de variables
aleatorias tomamos una sucesin de funciones la cual converge en distribucin a una
N(0, t).
Veamos otra forma de obtener este resultado, mediante interpolacin lineal:
Anlogamente al caso anterior si dividimos el intervalo [0, 1] en n partes iguales
obtendremos n intervalos de longitud 1/n. As, para un cierto j arbitrario fijo 0

j n se tiene que: t = j/n.

Por otra parte, dada la sucesin de variables aleatorias {Xi }i1 obtenidas en (3.6)
como la E(Xi ) = 0 y V ar(Xi ) = 1, el teorema del lmite central establece que
n
P
1 Sn = 1
Xi converge en distribucin a una N(0, 1).
n
n
i=1

Sn
Es decir, Wn = N(0, 1).
n
j
Ahora, sea W ( n ) = 1n Sj con j = 0, 1, 2, . . . n y para cualquier

j
n

t <

j+1
,
n

Wendis Gmez

23

j = 0, 1, 2, . . . n, definamos:

  
j Wn ((j + 1)/n) W (j/n)
j
+ t
Wn (t) = Wn
n
n
1/n
La cual es la funcin obtenida por interpolacin lineal de los elementos del conjunto

{Wn nj : 0 j n} en [0, 1]. Entonces Wn () es una variable aleatoria del espacio

mtrico S = C[0, 1] (Conjunto de todas las funciones continuas en [0, 1]) con la mtrica del supremo dada por: (f, p) = sup{|f (t) g(t)| : 0 t 1}.

Con esto hemos construido una funcin continua a partir de una sucesin de puntos.
Luego usando el resultado obtenido en el caso anterior se concluye que Wn (t) converge en distribucin a W (t).
El siguiente cdigo del programa Matlab efecta la simulacin del Movimiento
Browniano.
%Wiener

Simulacin de movimiento browniano

randn(100,100);

% genera el arreglo de numeros aleatorios

T = 1; N = 500; dt = T/N;
dW = zeros(1,N);

% se predefinen los arreglos

W = zeros(1,N);

% para mayor rapidez en el programa

dW(1) = sqrt(dt)*randn;

% primer valor ...

W(1) = dW(1);

% W(0) = 0 no esta permitido en MATLAB

for j = 2:N
dW(j) = sqrt(dt)*randn;

% incremento general

W(j) = W(j-1) + dW(j);


end
plot([0:dt:T],[0,W],r-,LineWidth,2)
xlabel(t,FontSize,12)
ylabel(W(t),FontSize,12,Rotation,0)
grid on

%grfica de W contra t

Wendis Gmez

24

El resultado grfico es similar a la siguiente figura:


Simulacin del Movimiento Browniano
1.5

W(t)

0.5

-0.5

-1

-1.5

0.1

0.2

0.3

0.4

0.5
t

0.6

0.7

0.8

0.9

Captulo 4
UN

TEOREMA DEL

L MITE C ENTRAL

F UNCIONAL
La inmersin de las sumas parciales de variables aleatorias X1 , X2 , . . . independientes e idnticamente distribuidas con E(Xi ) = 0 y V ar(Xi ) = 1 en un proceso
de Wiener permite deducir que el resultado obtenido en la ecuacin (3.10) tambin
[nt]
P
Xi . Con esto, hemos llegado al teorema del lmite central
es vlida para Sn =
funcional.

i=1

Teorema 7. (Teorema del Lmite Central Funcional)


Dada una sucesin de variables aleatorias X1 , X2 , . . . independientes e idnticamente
n
P
distribuidas con E(Xi ) = 0 y V ar(Xi ) = 1. Sea S0 = 0, Sn =
Xi , n 1 y para
i=1

todo n 1 sea Wn () una sucesin de funciones definidas en C[0, 1] entonces:


Existe W () en C[0, 1] tal que
Wn () W ().

W () tiene distribucin normal, con media 0 y funcin covarianza mn{s, t}.


Veamos un teorema que relaciona el teorema anterior con los procesos de Wiener.
Teorema 8. Existen funciones estrictamente crecientes no-negativas
a, b : [0, 1] [0, +) tales que cuando U es uniforme en (0, 1) y T es el tiempo de

llegada del proceso de Wiener a los niveles a(u), b(u) entonces W (T ) converge en

distribucin a X1 y E(T ) = 1.
Demostracin:

Para demostrar la proposicin anterior, basta imponer las condiciones requeridas


para que valga el resultado y lo que se obtiene es un sistema de ecuaciones diferenciales que admite solucin. En general esta solucin no puede obtenerse mediante
25

Wendis Gmez

26

una frmula cerrada.


Debemos encontrar funciones a y b tales que: a, b : [0, 1] [0, +), con a y b
estrictamente crecientes y no-negativas es decir, a, b 0.

Antes de hacer una construccin de las funciones a y b, en primer lugar mostre-

mos que la distribucin condicional de W (t) dada U es a(u) con probabilidad

b(u)/(a(u) + b(u)) y la distribucin condicional de W (t) dada U es b(u) con probabilidad b(u)/(a(u) + b(u)).

En efecto,
Dado U = U0 perteneciente al intervalo [0, 1], fijo arbitrario. Si suponemos que a y
b son funciones montonas estrictamente crecientes no-negativas se tiene que:
a(u0 ) 0 y b(u0 ) 0

(4.1)

Si adems suponemos que a(0) = b(0) = 0 entonces:


a(u0 ) , b(u0 ) 6= 0

(4.2)

As, de las ecuaciones (4.1) y (4.2) se tiene que:


a(u0 ) > 0

b(u0 ) > 0.

(4.3)

Adems, como a y b son funciones definidas en el intervalo [0, 1] a valores reales se


tiene que a(u0 ) y b(u0 ) pertenecen a R, y como a(u0 ) > 0 entonces su opuesto es
menor que cero, esto es,
a(u0 ) < 0.

(4.4)

Es decir, si a(u0 ) es cualquier nmero real positivo entonces su opuesto es negativo.


Por otro lado, dado que U es uniforme en (0, 1) se tiene que la probabilidad de que
W (t) alcance uno de los niveles a(u0 ), b(u0 ) es 1, ambos con igual probabilidad.

Por lo tanto, si suponemos que el primer nivel alcanzado es a(u0 ) con probabilidad

p entonces la probabilidad de que el primer nivel alcanzado sea b(u0 ) es su complemento, es decir, 1 p.

En efecto,

De las expresiones en (4.3) y (4.4) tenemos que a(u0 ) < 0 y b(u0 ) > 0. Luego, se
tiene la siguiente relacin: a(u0 ) < 0 < b(u0 ).

Determinemos la probabilidad de que el primer alcanzado sea a. Para ello consideremos que T(a) es el primer instante en que W (t) alcanza el nivel a(u0 ) y T(b)

Wendis Gmez

27

es el primer instante en que W (t) alcanza el nivel b(u0 ). De la hiptesis tenemos que
T es el primer instante en que el proceso W alcanza alguno de los niveles a(u), b(u)
entonces,
T = mn{t(a) , tb }

(4.5)

Queremos calcular la probabilidad de que W (t) alcance a antes que b.


En otras palabras, queremos ver cul es la probabilidad de que T(a) < Tb ? o lo que
es equivalente Cul es P (Wt a(u0 ))?.

Para calcular esta probabilidad, observemos primero de la definicin del proceso de


Wiener que
E(Wt ) = W0 = 0.

(4.6)

Ahora bien, si hacemos h = P (Wt a0 ) entonces Wt a0 con probabilidad h y


Wt b0 con probabilidad 1 h, con a0 = a(u0 ) y b0 = b(u0 ).

Luego, por definicin de esperanza para una variable discreta y por la ecuacin (4.6)
tenemos:
0 = E(Wt ) = a0 h + (1 h)b0
As,
a0 h + (1 h)b0 = 0.
Despejando h en la ltima igualdad y por propiedades asociativa y distributiva obtenemos:

b0
a0 + b0
b0
Por lo tanto, la P (Wt a0 |U = U0 ) =
a0 + b0
h=

En otras palabras, la distribucin condicional de Wt dada U = U0 es a0 con

probabilidad b0 /(a0 + b0 ). Luego como U es arbitrario se tiene que para todo U

perteneciente al intervalo [0, 1] la probabilidad de que el primer nivel alcanzado


sea a es b/(a + b) y la probabilidad de que el primer nivel alcanzado sea b es su
complemento, es decir:

a
b
=
a+b
a+b

Wendis Gmez

28

donde a = a(u) y b = b(u).


O lo que es equivalente, la P (Wt a|U) =

b
a+b

la P (Wt b|U) =

a
.
a+b

Ahora mostremos que W (T ) converge en distribucin a X1 .


Como estamos interesados en estudiar el primer instante en que W toca la grfica
de las funciones a o b, por un razonamiento similar al de la inmersin de un paseo al
azar simtrico simple en un proceso de Wiener, pero en lugar de considerar cada uno
de los tiempos de llegada del proceso a los niveles 1 o 1 consideremos solamente el

menor tiempo de llegada del proceso a alguno de los niveles a(u) o b(u). Luego la

relacin obtenida en (3.2) se reduce a:

W (T ) = X1

(4.7)

Por otra parte, como la sucesin de variables aleatorias X1 , . . . , Xn obtenida en la


inmersin anterior son independientes y estn distribuidas idnticamente, adems
cumplen que: E(Xi ) = 0 y la V ar(Xi ) = 1, para todo i = 1, . . . , n, entonces por el
teorema del lmite central funcional tenemos:
Wn () W ()
n
P

donde, Wn = Sn / n, n 1 y Sn =
Xi . Luego,
i=1

Sn
W (t) con 0 t 1.
n

(4.8)

De la ecuacin (4.7) tenemos que W (T ) = X1 .


Pero,
1

X
S1
X1 = =
Xi
1
i=1

(4.9)

Luego, de (4.8) y (4.9) tenemos que:

S1
W (T ) = X1
1
Por lo tanto, W (T ) X1 .

Con esto concluimos que W (T ) converge en distribucin a X1 con media cero y varianza 1.

Wendis Gmez

29

Por otra parte, como consecuencia de suponer que a y b son funciones montonas
estrictamente crecientes entonces son integrables, luego la funcin de distribucin
para W (t) viene dada por:
1 F (b0 ) = P (Wt > b0 )
Z
a(u)
=
du
A a(u) + b(u)
donde, A = {u : b(u) > b0 } y
F (a0 ) = P (Wt a0 ) =

b(u)
a(u) + b(u)

donde, B = {u : a(u) a0 }
Haciendo el cambio
(u) = F (a(u)) y

(u) = F (b(u))

(4.10)

En particular para u0 tenemos:


1 (u0) = 1 F (b(u0 ))
Z
a(u)
du
=
{u:u>u0 } a(u) + b(u)
y
(u0) =

{u:u>u0 }

b(u)
du
a(u) + b(u)

Derivando respecto a u las funciones y y evaluando en u0 nos queda:


d(u0)
dF (b(u0))
a(u)
=
=
du
du
a(u) + b(u)

(4.11)

Por otro lado, de la hiptesis de que a es montona estrictamente creciente se tiene


que a es montona estrictamente decreciente luego, por criterio de la primera derivada tenemos que d(a) < 0. Adems, como las integrales anteriores estn definidas

para todo u > u0 entonces a(u) > a(u0 ) > 0 y b(u) > b(u0 ) > 0. Luego se tiene que
b(u)
> 0.
a(u) + b(u) > 0 y por tanto
a(u) + b(u)

Wendis Gmez

30

As, derivando con respecto a u y evaluando en u0 tenemos:


d((u0))
dF (a(u0 ))
dF (a(u0 ))d(a(u0 ))
b(u)
=
=
=
du
du
du
a(u) + b(u)

(4.12)

Observemos que las ecuaciones (4.10), (4.11) y (4.12) nos permiten encontrar las
cuatro funciones a, b, y aunque no de una forma explcita.
Con esto queda demostrada la existencia de las funciones a y b.
Hallemos la esperanza de la distribucin obtenida:
Recordemos que la derivada de la funcin distribucin nos da la funcin de densidad.
Luego de las ecuaciones (4.11) y (4.12) y de la definicin de esperanza para una
variable continua tenemos:
Z +
Z 1
Z 1
tf (t)dt =
b(u)dF (b(u)) du +
a(u)dF (a(u)) du

0
0
Z 1
=
[b(u)dF (b(u)) + a(u)dF (a(u))] du
0

Z 1
b(u)
a(u)
du
a(u)
=
b(u)
a(u) + b(u)
a(u) + b(u)
0
= 0.
Por lo tanto la esperanza de la distribucin es cero.
Con esto se verifica que la suposicin de que la esperanza es nula era necesaria para
posibilitar la construccin de las funciones a y b.
Mientras que la hiptesis de que la varianza es 1 implica que:
Z +
Z 1
2
1=
t dF (t) dt =
[b2 (u)d(u) + a2 d(u)] du

0

Z 1
a(u)
b(u)
2
2
=
b
du
a
a(u) + b(u)
a(u) + b(u)
0

Z 1 2
b a(u) a2 b(u)
=
du.
a(u) + b(u)
0

Por lo tanto,

1=

t dF (t) dt =

1
0

b2 a(u) a2 b(u)
a(u) + b(u)

du.

(4.13)

Notemos que al efectuar la divisin de polinomios, la fraccin dada en la ltima


integral la podemos reescribir de la siguiente forma:
a(u)b(u)

2a2 (u)b(u)
a(u) + b(u)

Wendis Gmez
Luego,
Z

b2 a(u) a2 b(u)
a(u) + b(u)

du =

1
0

a(u)b(u) du 2

31

a2 (u)b(u)
du.
a(u) + b(u)

(4.14)

Por otro lado, como a es una funcin continua definida en el intervalo [0, 1] a valores
reales, por teorema se tiene que es acotada. Luego, existe M > 0 tal que |a(u)| M

para todo u perteneciente al intervalo [0, 1]. Adems como a y b son funciones no-

negativas tenemos que:


0 a(u) M
Entonces:
0 a2 (u) Ma(u)
Multiplicando por b(u)/(a(u) + b(u)) e integrando se tiene que:
Z 1
Z 1
b(u)
b(u)
2
0
a (u)
du M
du
a(u)
a(u) + b(u)
a(u) + b(u)
0
0

(4.15)

donde, a(u) + b(u) 6= 0.

Observemos que la ltima integral no es mas que la esperanza de la funcin a. Es

decir,

Por lo tanto,

b(u)
=
a(u)
a(u) + b(u)

a(u)d(F (a(u))) du

a(u)d(F (a(u)) du = 0
0

Combinando este resultado con la ecuacin (4.15) tenemos que:


Z
Z 1
Z
b(u)
b(u)
2
du M a(u)
du = M
a(u)d(F (a)) du = 0
0 a (u)
a(u) + b(u)
a(u) + b(u)
0
Sustituyendo este resultado en la ecuacin (4.14) tenemos:

Z 1
Z 1 2
b a(u) a2 b(u)
du =
a(u)b(u) du
a(u) + b(u)
0
0
Luego, del resultado anterior y la ecuacin (4.13) tenemos:
Z +
Z 1
2
1=
t dF (t) dt =
a(u)b(u) du

Por lo tanto,
Z

a(u)b(u) du = 1

(4.16)

Wendis Gmez

32

Por otro lado, utilizando teora de Martingalas y con ayuda del teorema de la convergencia montona y el teorema de la convergencia acotada, se puede probar que
E(T |U) = E(W 2 |U). Para ver la demostracin cite [3] pg 510.

Usando este resultado tenemos que la esperanza condicional de T dado U es:


E(T |U) = E(W 2 |U)

b(u)
a(u)
+ a2 (u)
a(u) + b(u)
a(u) + b(u)
a(u)b(u)[a(u) + b(u)]
=
a(u) + b(u)

= b2 (u)

= a(u)b(u)
Luego, podemos concluir que:
E(T |U) = a(u)b(u).
Por otra parte, de la ecuacin (4.16), por definicin y propiedad de esperanza tenemos que:
E(T |U) = E(E(T |U)) = E(a(u)b(u)) =
Por lo tanto E(T ) = 1.

a(u)b(u)du = 1

Veamos un ejemplo donde se satisfacen las hiptesis del teorema anterior y se obtienen grficamente las funciones a y b.
Ejemplo 4. Dada F (x) = ex1 con < x 1 , encontrar las funciones a,b, y
Solucin:
Haciendo el cambio (u) = F (a(u)) y (u) = F (b(u)) y de la definicin de F
tenemos:
(u) = ea(u)1

(4.17)

(u) = eb(u)1

(4.18)

Derivando las funciones y respecto a u obtenemos:


(u) = a (u)ea(u)1

y (u) = b (u)eb(u)1

(4.19)

Wendis Gmez

33

Combinando los resultados obtenidos en la ecuacin (4.19) con las ecuaciones (4.11)
y (4.12) tenemos:
b(u)
= a (u)ea(u)1
a(u) + b(u)

(4.20)

a(u)
= b (u)eb(u)1 .
a(u) + b(u)

(4.21)

Observemos que las ecuaciones (4.17) y (4.18) nos permiten encontrar las funciones
y .
Despejando a(u) + b(u) en las ecuaciones anteriores tenemos:
a(u) + b(u) =

b(u) a(u)+1
e
a (u)

y a(u) + b(u) =

a(u) b(u)+1
e
b (u)

Igualando estas ecuaciones y por propiedades de exponencial obtenemos:


b(u)

1 a(u)
1 b(u)
e
e
=
a(u)
e
e
a (u)
b (u)

entonces:
b (u) a(u)+b(u) a(u)
e
=
.
a (u)
b(u)
En ocasiones, a modo de simplificar la notacin denotaremos como a y b las
funciones a(u) y b(u) respectivamente. As, la ecuacin anterior se transforma en:
db a+b a
e
=
da
b

o bien,

db a b a
e e =
da
b

(4.22)

Finalmente lo que se obtiene es la siguiente ecuacin de variables separables


beb db = aea da.
Integrando en ambos lados de la igualdad nos queda:
Z
Z
b
be db = aea da
Observemos que ambas integrales las podemos resolver mediante integracin por
partes. Para resolver la integral del primer miembro hacemos el cambio u = b y
dv = eb db

Wendis Gmez
As,

be db = be

34

eb db = beb eb = eb (b 1)

Para la integral del segundo miembro, hacemos u = a y dv = ea da


Luego,
Z

e da = ae

ea da

aea ea = ea (a + 1)
Igualando los resultados obtenidos en las integrales y por propiedades conmutativa
y distributiva tenemos:
eb (b 1) = ea (a + 1)

eb (b 1) = ea (a + 1)

eb (1 b) = (1 + a)ea .

(4.23)

Observemos que el primer miembro decrece montonamente de 1 a 0 cuando b


recorre el intervalo [0, 1] y el segundo miembro tambin decrece montonamente de
1 a 0 cuando a recorre la semirrecta [0, +). Luego, como a y b son funciones continuas, definidas en el intervalo [0,1] y estrictamente crecientes, por teorema tenemos
que ambas correspondencias se pueden invertir.
Denotaremos como a(y) y b(y) a las funciones inversas de a y b respectivamente.
De las ecuaciones (4.20) y (4.21) tenemos lo siguiente:
a (u)ea(u)1 =

b(u)
a(u) + b(u)

y b (u)eb(u)1 =

a (u)ea(u) e1 =

b(u)
a(u) + b(u)

y b (u)eb(u) e1 =

a(u)
a(u) + b(u)

Luego,

En consecuencia,
b
da a 1 a
e
e =
du
e
a+b
y
a
db b 1 a
e e =
du e
a+b

a(u)
a(u) + b(u)

Wendis Gmez

35

Despejando ea da y eb db obtenemos:
ea da =

bedu
a+b

y eb db =

aedu
a+b

Sumando miembro a miembro ambas ecuaciones obtenemos:


bedu + aedu
a+b
(a + b)edu
=
a+b

ea da + eb db =

= edu
Por lo tanto, ea da + eb db = edu.
Integrando en ambos lados de la igualdad respecto a la variable u nos queda:
Z
Z
a
b
[e da + e db] = e du
Z
Z
Z
a
b
e da + e db = e du
ea + eb = eu

despejando u tenemos:

1
u = (eb ea )
e
Para obtener las funciones a(u) y b(u) calculamos

(4.24)

1
u = [eb(y) ea(y) ]
e
Si invertimos la correspondencias y u(y) y llamamos y(u) a la correspondencia
inversa, al hacer la composicin de funciones obtenemos:

a
(
y (u)) = a(u) y b(
y (u)) = b(u)
Por otro lado, tenemos que las ecuaciones (4.23) y (4.24) vinculan a y b con u pero no
nos proporcionan una frmula cerrada que describan las funciones u a o u b.

Sin embargo si hacemos la evaluacin numrica en las ecuaciones inversas obtenidas


anteriormente, podremos obtener un clculo aproximado de ambas funciones.
Mediante el siguiente cdigo del programa Mathematica se obtienen los resultados
numricos que permiten observar las grficas de las funciones a(u), b(u).

Wendis Gmez

36

eq1 = y [t] == (x[t]/(x[t] + y[t]))Exp[1 y[t]]

eq2 = x [t] == (y[t]/(x[t] + y[t]))Exp[1 + x[t]]


s = NDSolve[{eq1, eq2, x[0] == 0.001, y[0] == 0.001}, {x, y}, {t, 0, 0.9}]
Plot[Evaluate[{x[t], y[t]}/.s], {t, 0, 1}, PlotRange All]
1
bHuL

u
0.2

0.4

0.6

0.8

-1

-2
-aHuL
-3

-4
Funciones
-5

-aHuL, bHuL

en el mismo diagrama.

1.0

R EFERENCIAS B IBLIOGRFICAS
[1] Billingsley, Patrick, (1968). Convergence of Probability Measures, New York,
Willey.
[2] Cabaa, A. (1996). Transformations of the empirical process and KolmogorovSmirnov tests. Ann Statist.2402020-2035.
[3] Donsker, M. D. (1952)Justification and extension of Doob"s heuristic approach
to the Kolmogorov-Smirnov theorems., Ann. Math. Statist.23277.
[4] Dudley, Richard M. (1989), Real Analysis and Probability. Pacific Grove, California, USA, Wadsworth & Brooks/Cole.
[5] Feller, William, Introduccin a la Teora de Probabilidades y sus aplicaciones,
vol. II. 2da. ed. (1989), Ciudad de Mexico, Limusa.
[6] Kartazas, I. and Shreve, S. (1991), Brownian Motion and Stochastic Calculus.
(2nd Edition), Springer-Verlag, New York.
[7] Krishna B. Athreya, Soumendra N. Lahiri.(2006). Measure Theory and Probability Theory. Springer, New York, USA.
[8] Ross, Kenneth A (1980). Elementary Analysis.Springer-Verlag, New York.
[9] Seymour Lipschutz (2001). Teora y Problemas de probabilidad. 2da edicin.
[10] Taylor Howard (1998). An Introduction to Stochastic Modeling. Third Edition.
[11] Weibe R. Pestman University of Nijmegen. Mathematical Statistics An Introduction. Berlin-New York (1998).

37

Você também pode gostar