Você está na página 1de 166

Universidade Federal de Alagoas

Instituto de Físi a

O Teorema das Seções de Lévy apli ado a

Séries temporais orrela ionadas não

esta ionárias: Uma analise da onvergên ia

gaussiana em sistemas dinâmi os

Frederi o Salgueiro Passos

Ma eió, Alagoas  Brasil

Novembro  2014
i

FREDERICO SALGUEIRO PASSOS

O Teorema das Seções de Lévy apli ado a

Séries temporais orrela ionadas não

esta ionárias: Uma analise da onvergên ia

gaussiana em sistemas dinâmi os

Tese apresentada ao

Instituto de Físi a da Universidade

Federal de Alagoas omo

pré-requisito para obtenção

do título de Doutor em Ciên ias

Orientador: Prof. Dr. Iram Mar elo Gléria

Co-orientador: Prof. Dr. César Moura Nas imento

Ma eió, Alagoas  Brasil

Novembro  2014
FICHA CATALOGRÁFICA DA BIBLIOTECA
ii

Ban a examinadora

0
1 Examinador

0
2 Examinador

0
3 Examinador

0
4 Examinador

0
5 Examinador

0
6 Examinador

0
7 Examinador

Ma eió, Alagoas  Brasil

Novembro  2014
iii

Dedi atória

Dedi o à minha esposa, meus pais e meu irmão que tornaram esse sonho possível
iv

Agrade imentos
Muitos nomes devem ser itados e muitos outros podem ser esque idos nessa

lista de agrade imentos, agradeço então in ialmente a todos que de alguma forma

parti iparam na onstrução dessa tese, mesmo que seus nomes não estejam aqui,

saibam fazem parte do todo.

O omeço de tudo se deve a minha família, agradeço aos meus pais, Newton

e Denise e ao meu irmão Rodolfo, por toda ajuda e apoio.

Com erteza devo agrade er aos meus grandes amigos que me a ompanharam

durante toda essa jornada do onhe imento, Alex Costa, Anderson, Henrique, Neto

e espe ialmente Tiago Lobo, que travou omigo batalhas nun a antes vistas, apenas

para ver que eu estava erto.

Embora tenhamos pou o ontato agora, gostaria de agrade er a todos os

professores e fun ionários do IF-UFAL por me ensinarem as bases que hoje eu monto

a minha tese, sem o apoio e tro a de experiên ias, essa tese não teria a robustez que

hoje apresenta.

Meus eternos agrade imentos ao Professor Madras Viswanathan Gandhi-

mohan, que foi o meu primeiro orientador e hoje tenho o puro orgulho de poder

dizer que além de um olaborador para os meus projetos pessoais é meu amigo.

Sem suas palavras de in entivo e de fome pelo onhe imento, não teria vislum-

brado tanto.

Xadrez é um jogo que exige pa iên ia e on entração, assim omo o kend.

Agradeço aos meus amigos de treino que me ajudaram a riar estratégias e manter

rmes as bases quando tempos difí eis hegam. Agradeço a Renato Simões, Luiz

Gustavo Vasques, Tadeu Patêlo, Ranilson Paiva, Rodrigo Moraes e Felipe Dória,
v

que não treina mais onos o mas foi um dos meus prin ipais in entivadores.

Quero também agrade er aos meus olegas de trabalho no IFAL ampus

Mare hal Deodoro, que me deram todo o apoio para on luir do doutorado e me

in entivaram ao máximo para riar novas linhas de pesquisa e me abraçaram omo

uma família. Agradeço a José Ginaldo Júnior, Renato Romero, Pedro Guilherme e

Eder de Souza por toda a força.

Também quero agrade er em espe ial aos meus avs que foram pilares sólidos

e todas as hipóteses sempre apoiaram qualquer sonho lou o que eu poderia ter, desde

te ladista até mesmo querer ser o homem-aranha. Seus ensinamentos e palavras

trans endem as barreiras da vida e se mantem omo velas a esas na es uridão me

guiando. Agradeço imensuravelmente a eles todos, Álvaro, Zilah, Newton e Célia,

obrigado pelos sonhos.

De todo o oração gostaria de agrade er a toda a família Amorim e seus

agregados que me re eberam omo parte de sua família, Bruno, Vanessa, Rafael,

Lu as, Lázaro, Rebe ka, André, Zoraide, Lenia, Amauri e Valmira.

Eu gostaria também de agrade er a todos os meus grandes amigos que estão

omigo desde os primórdios da minha riação, Eli Júnior, Guilherme, Pedro Ivo, José

Neto, Tia Lú ia, Tio Eli, Tio Fernando, Tia Vivian, Tia Alessandra, Tio Toninho e

Diogo Braga.

Venho também agrade er a todos os membros da minha família, que mesmo

distantes sempre se demonstraram interessados nas maluqui es que eu falava e ten-

tava expli ar. São muitos nomes para serem olo ados mas quero agrade er uns

em espe ial, aos meus tios maternos, Alexandre Sérgio, Mar o Aurélio e Guilherme

Salgueiro, que são exemplos omo tios e omo família, pessoas om as quais eu posso
vi

ontar a qualquer dia e qualquer hora independente do que haja. Minha tia paterna

Nil élia e sua família, e a minha tia/prima Már ia que é um exemplo de prossional

na qual me espelho.

Espe ialmente, gostaria de agrade er a minha esposa Evelyn Amorim Dias

Passos, minha ompanheira, amiga, namorada, amante, ajudante, sonhadora, in-

quieta, deslumbrante e a ima de tudo tolinha. Uma das prin ipais pessoas a me

apoiar(e ordenar) na on lusão deste trabalho e um porto seguro para nossos planos

tão amplos para o futuro. Agrade er é pou o para alguém que está tão ao meu lado,

e estará sempre e até depois. Mo emxqtdeveS2.

Sem esque er, gostaria de agrade er as agen ias de nan iamento que pro-

por ionaram o apoio ne essário para produzir a tese. Agradeço ao CNPq, a CAPES,

a FAPITEC e ao IFAL que nan ia parte desse trabalho através de uma bolsa de

produtividade em pesquisa.

2. ((:
vii

EPPUR SI MOUVE!

-Galileu Galilei, 1633


viii

Resumo
Pro essos não-esta ionários om interações fra as apare em omo problemas desa-

adores em sistemas omplexos em físi a. Uma questão interessante é omo quan-

ti ar a taxa de onvergên ia para o omportamento gaussiano em séries temporais

heteros edásti as, provenientes de sistemas nan eiros re-es aladas om os primei-

ros momentos esta ionários mas uma multifra talidade não esta ionária e segundos

momentos longamente orrela ionados e séries temporais geradas apartir de um mo-

vimento Browniano Fra ionado aonde a orrelação da série depente de um parâmetro

ajustável. Aqui é usada uma extensão do teorema das seções de Lévy. Analisando

as propriedades estatísti as e multifra tais de uma série temporal heteros edásti a e

en ontrando que as seções de Lévy forne e uma onvergên ia mais rápida para o om-

portamento gaussiano relativo a onvergên ia das tradi ionais somas de variáveis.

Para entender essa transição foram utilizados vários testes estatísti os que forne e-

ram dados su ientes sobre o omportamento de onvergên ia. Também observou-se

que os sinais re-es alados mantem suas propriedades multifra tais mesmo depois de

atingirem um regime que pare e ser um regime gaussiano.

Palavras-Chave:Teorema das Seções de Lévy, Teorema do Limite Central,


Séries temporais heteros edásti as, Testes de Convergên ia, Físi a Estatísti a .
ix

Abstra t
Weakly nonstationary pro esses appear in many hallenging problems related to

the physi s of omplex systems. An interesting question is how to quantify the

rate of onvergen e to Gaussian behavior of res aled heteros edasti omming from

e onomi s time series with stationary rst moments but nonstationary multifra tal

long-range orrelated se ond moments and also time series generated from fra ti-

onated brownian motion where the seires orrelation is dependent of a parameter.

Here it is used the approa h whi h uses a re ently proposed extension of the Lévy

se tions theorem. It was analyzed the statisti al and multifra tal properties of hete-

ros edasti time series and found that the Lévy se tions approa h provides a faster

onvergen e to Gaussian behavior relative to the onvergen e of traditional partial

sums of variables. To understand this transition it is used a several statisti al tests

to provide enough data on onvergen e behavior. It was also observed that the res-

aled signals retain multifra tal properties even after rea hing what appears to be

the stable Gaussian regime.

Keywords:Lévy Se tions Theorem, Central Limit Theorem, Heteros edasti


Time Series, Convergen e Tests, Statisti al Physi s.
Lista de Figuras

2.1 Função Densidade de Probabilidade de um dado vi iado segundo a tabela 2.2 . . 12

2.2 Função Densidade de Probabilidade do os ilador harmni o quânti o, om parâ-

metros livres. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.3 Função Densidade de Probabilidade da função des rita na equação 2.11 aonde são

indi ados os valores da média, mediana e moda. . . . . . . . . . . . . . . . . 16

2.4 Indi ativo visual do desvio padrão da distribuição segundo a equação 2.11 . . . . 18

2.5 Diferentes distribuições om variados valores de skewness. (a)Skewness positiva,

segundo a equação 2.11. (b)Skewness negativa, do espelho da função dada pela

equação 2.11 om x = −x. ( )Skewness nula, da distribuição normal. . . . . . . 22

2.6 Diferentes distribuições om variados valores de kurtosis. (a)Kurtosis positiva,

segundo a distribuição de Lapla e, om kurtosis igual a 3. (b)Kurtosis negativa,

segundo a distribuição de Wigner, om kurtosis igual a -1 . ( )Kurtosis nula, da

distribuição normal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.7 Posição x de aminhantes aleatórios om passos de tamanho l = 1 e om proba-

bilidades: (a) 0.5, (b) 0.45 e ( ) 0.55, versus o número de passos dados. . . . . . 29

2.8 Probabilidade PX (x) de aminhantes aleatórios om passos de tamanho l = 1 e

om probabilidades p: (a) 0.5, (b) 0.45 e ( ) 0.55, versus a posição x . . . . . . 31

x
LISTA DE FIGURAS xi

2.9 Alguns exemplos de urvas da distribuição gaussiana om alguns parâmetros di-

versos. É possível notar que a distribuição é simétri a, possuindo portanto skew-

ness nula e tem um formato bastante ara terísti o, em forma de sino. . . . . . 34

2.10 Algumas distribuições provenientes da equação 2.93 para diferentes α e om β =

µ = 0 e om c = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2.11 Algumas distribuições provenientes da equação 2.93 om µ = 0, c = 1, (a) α = 0.5,

(b) α = 1.0, ( )α = 1.5, (d)α = 1.75 e variados valores de β . . . . . . . . . . . 42

2.12 Eixo em semi-log da gura 2.10, mostrando omo o de aimento sugere uma lei de

potên ia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

2.13 Figura voltada à auda, aonde o omportamento em lei de potên ia para α < 2

se torna mais evidente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

2.14 A distribuição de Lévy-Smirnov para algns parâmetros . . . . . . . . . . . . . 48

2.15 A distribuição de Cau hy para alguns parâmetros . . . . . . . . . . . . . . . 49

2.16 Representação ilustrativa da auto-similaridade presente em guras geométri as e

séries temporais. Adaptada de [24℄ . . . . . . . . . . . . . . . . . . . . . . 51

2.17 Exemplo do omportamento de f (α) em relação a α. Adaptada de[19℄ 56

3.1 Probabilidades para 1 Dado . . . . . . . . . . . . . . . . . . . . . . . 65

3.2 Várias jogadas de dados . . . . . . . . . . . . . . . . . . . . . . . . . 66

3.3 Distribuição gaussiana e sua FDA . . . . . . . . . . . . . . . . . . . . 78

3.4 Diversas Distribuições e suas FDA . . . . . . . . . . . . . . . . . . . . 78

3.5 A Função de Distribuição A umulada Empíri a para um onjunto de

dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

3.6 Comparação entre F (x) e Fn (x) . . . . . . . . . . . . . . . . . . . . . 80

3.7 Comparação entre F1,n (x) e F2,n′ (x) . . . . . . . . . . . . . . . . . . . 81


LISTA DE FIGURAS xii

4.1 Indi ador S&P500 om dados diários desde 1998, o retorno al ulado

via equação 4.2 e a volatilidade. . . . . . . . . . . . . . . . . . . . . . 86

4.2 Auto- orrelação de retornos do S&P500. Adaptada de [49℄ . . . . . . 88

4.3 Auto- orrelação de volatilidade do S&P500. Adaptada de [49℄ . . . . 88

4.4 Distribuição de probabilidade para os retornos denidos omo Z do

S&P500, aonde pode-se notar a presença de audas grossas. [49℄ . . . 89

4.5 (a)Dependên ia do expoente de Hurst om o q-ésimo momento. (b)

Espe tro multifra tal em função do expoente de α, que no aso é

onhe ido omo expoente de Hölder.[36℄ . . . . . . . . . . . . . . . . 89

5.1 Série de retornos do âmbio do DEM/USD . . . . . . . . . . . . . . . 93

5.2 Densidade dos dados da série . . . . . . . . . . . . . . . . . . . . . . 94

5.3 Densidade dos dados da série reduzida para 104 dados . . . . . . . . . 94

5.4 Auto- orrelação das séries de retorno . . . . . . . . . . . . . . . . . . 95

5.5 Auto- orrelação das séries de volatilidade . . . . . . . . . . . . . . . . 95

5.6 Dependên ia do expoente de Hürst om o q-ésimo momento . . . . . 96

5.7 Comportamento do espe tro multifra tal . . . . . . . . . . . . . . . . 97

5.8 Condição de Lindeberg para a série empíri a do DEM/USD . . . . . 98

5.9 As urvas de onvergên ia da Kurtose para os dados analisados . . . . 100

5.10 As urvas de onvergên ia da Skewness para os dados analisados . . . 101

5.11 Séries seguindo TLC antes e depois do regime de onvergên ia . . . . 103

5.12 Zoom na gura 5.10 para desta ar o Dn . . . . . . . . . . . . . . . . 103

5.13 Séries seguindo TSL antes e depois do regime de onvergên ia . . . . 104

5.14 Zoom na gura 5.12 para desta ar o Dn . . . . . . . . . . . . . . . . 104

5.15 Curvas de Dn versus τ para os dois teoremas . . . . . . . . . . . . . 105


LISTA DE FIGURAS xiii

5.16 Curvas de DKL versus τ para os dois teoremas . . . . . . . . . . . . 107

5.17 Teste KS omparando a série original om a apli ação dos Teoremas. 108

5.18 Teste KL omparando a série original om a apli ação dos Teoremas. 108

5.19 Expoente de Hürst médio em função do momento q. (a)Média para

τ ≤ 150; (b)Média para τ > 150 . . . . . . . . . . . . . . . . . . . . . 110

5.20 Espe tro multifra tal, f (α), em função de α. (a)Média para τ ≤ 150;

(b)Média para τ > 150 . . . . . . . . . . . . . . . . . . . . . . . . . . 111

6.1 Diagrama de fase no plano (E/t,a), mostrando os estados estendidos

e lo alizados[58℄. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

6.2 Energias gerados por sítios, om N=4096; onde a=0 é uma sequên-

ia não orrela ionada;a = 2.0 traço de um movimento browniano

fra ionado; a = 2.5 traço de um movimento browniano fra ionado

om in rementos de persistên ia[58℄. . . . . . . . . . . . . . . . . . . . 117

7.1 Várias séries geradas arti ialmente om parâmetros diferen iados,

om 4096 dados. (a)a = 0, 00, (b)a = 1, 00,( )a = 1, 50, (d)a =

2, 00,(e)a = 2, 50, (f )a = 3, 00 . . . . . . . . . . . . . . . . . . . . . . 120

7.2 Retornos para as séries investigadas. (a)a = 0, 00, (b)a = 1, 00,( )a =

1, 50, (d)a = 2, 00,(e)a = 2, 50, (f )a = 3, 00 . . . . . . . . . . . . . . . 121

7.3 Densidades de probabilidade (a)a = 0, 00, (b)a = 1, 00,( )a = 1, 50,

(d)a = 2, 00,(e)a = 2, 50, (f )a = 3, 00 . . . . . . . . . . . . . . . . . . 121

7.4 Teste da ondição de Lindeberg para as séries orrela ionadas. . . . . 124

7.5 Convergên ia da Skewness para a apli ação do TLC. . . . . . . . . . 125


LISTA DE FIGURAS xiv

7.6 Convergên ia da Skewness para a apli ação do TSL om baixa or-

relação. (a) a = 0.00, (b) a = 0.25,( ) a = 0.50, (d) a = 0.75,(e)

a = 1.00, (f ) a = 1.25, . . . . . . . . . . . . . . . . . . . . . . . . . . 126

7.7 Convergên ia da Skewness para a apli ação do TSL om fortes orre-

lações. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

7.8 Convergên ia da Kurtose para a apli ação do TLC. . . . . . . . . . . 127

7.9 Convergên ia da Kurtose para a apli ação do TSL om baixa orrela-

ção. (a) a = 0.00, (b) a = 0.25,( ) a = 0.50, (d) a = 0.75,(e) a = 1.00,

(f ) a = 1.25, . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

7.10 Convergên ia da Kurtose para a apli ação do TSL om fortes orre-

lações. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

7.11 Teste KS para séries apli adas ao TLC e om a < 1. . . . . . . . . . . 129

7.12 Teste KS para séries apli adas ao TLC e om 1 ≤ a < 2. . . . . . . . 130

7.13 Teste KS para séries apli adas ao TLC e om 2 ≤ a ≤ 3. . . . . . . . 131

7.14 Teste KS para as séries apli adas ao TSL om baixa orrelação . . . . 131

7.15 Teste KS para as séries apli adas ao TSL om fortes orrelações. . . . 132

7.16 Teste KL para séries apli adas ao TLC e om a < 1. . . . . . . . . . . 132

7.17 Teste KL para séries apli adas ao TLC e om 1 ≤ a < 2. . . . . . . . 133

7.18 Teste KL para séries apli adas ao TLC e om 2 ≤ a ≤ 3. . . . . . . . 133

7.19 Teste KL para as séries apli adas ao TSL om baixa orrelação . . . . 134

7.20 Teste KL para as séries apli adas ao TSL om fortes orrelações. . . . 134
Lista de Tabelas

5.1 Tabela dos valores médios de Dn . . . . . . . . . . . . . . . . . . . . 105

5.2 Tabela dos valores médios de DKL . . . . . . . . . . . . . . . . . . . . 106

7.1 Valores ini iais da Skewness para as séries geradas do movimento

browniano fra ionado . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

7.2 Valores ini iais da Kurtose para as séries geradas do movimento brow-

niano fra ionado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

xv
Sumário

1 INTRODUÇ O 1

2 Variáveis Aleatórias e a Estatísti a de dados 8


2.1 Variáveis Aleatórias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.2 Funções de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . 11

2.3 Valor médio, desvio padrão e os momentos estatísti os . . . . . . . . 14

2.3.1 A média . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.3.2 A variân ia e desvio padrão . . . . . . . . . . . . . . . . . . . 16

2.3.3 Momentos de mais alta ordem . . . . . . . . . . . . . . . . . . 18

2.3.4 A função ara terísti a . . . . . . . . . . . . . . . . . . . . . . 23

2.4 Distribuições onjuntas de probabilidade . . . . . . . . . . . . . . . . 26

2.5 Algumas Distribuições de Probabilidades . . . . . . . . . . . . . . . . 28

2.5.1 Distribuição Binomial . . . . . . . . . . . . . . . . . . . . . . 29

2.5.2 Distribuição Gaussiana(Normal) . . . . . . . . . . . . . . . . . 31

2.5.3 Distribuições α-estáveis de Lévy . . . . . . . . . . . . . . . . . 41

2.6 Fra talidade em Séries temporais . . . . . . . . . . . . . . . . . . . . 51

3 O Teorema do Limite Central e as Seções de Lévy 57

xvi
SUMÁRIO xvii

3.1 Teorema do Limite Central(TLC) . . . . . . . . . . . . . . . . . . . . 57

3.1.1 Alguns exemplos de onvergên ias via TLC . . . . . . . . . . . 61

3.2 As seções de Lévy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

3.2.1 O Teorema das Seções de Lévy(TSL) . . . . . . . . . . . . . . 67

3.2.2 TSL apli ado à séries temporais . . . . . . . . . . . . . . . . . 71

3.3 O Teorema do Limite Central Clássi o vs Teorema das Seções de Lévy 72

3.4 Testes de Convergên ia . . . . . . . . . . . . . . . . . . . . . . . . . . 74

3.4.1 Momentos estatísti os . . . . . . . . . . . . . . . . . . . . . . 74

3.4.2 Expoente de Hürst e a Fra talidade . . . . . . . . . . . . . . . 75

3.4.3 Teste KS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

3.4.4 Teste KL de divergên ia . . . . . . . . . . . . . . . . . . . . . 82

4 A E onofísi a omo exemplo de séries orrela ionadas 84

5 O TLC e o TSL apli adas a séries nan eiras 91


5.0.5 O ban o de dados . . . . . . . . . . . . . . . . . . . . . . . . . 92

5.0.6 A onvergên ia . . . . . . . . . . . . . . . . . . . . . . . . . . 97

6 Traço do movimento Browniano fra ionado 113


6.1 Denição do movimento browniano fra ionado . . . . . . . . . . . . . 114

7 O TLC e o TSL apli ados à séries de sítios de energia orrela iona-


dos 119
7.1 Análise da Convergên ia . . . . . . . . . . . . . . . . . . . . . . . . . 124

8 Con lusões e perspe tivas 136


SUMÁRIO xviii

A A ondição de Lindeberg 139

REFERÊNCIAS 141
Capítulo 1

INTRODUÇ O

Desde os primórdios da ivilização humana, relatos históri os mostram que jogos

de azar estão presentes na so iedade tanto omo forma de entretenimento, quanto

forma de ludibriar alguns tolos para ganhar lu ros.

Por volta do sé ulo XVII, Girolamo Cardano publi ou o que se tratava do

primeiro livro em que podia-se observar alguma formalidade matemáti a, que pu-

desse expli ar as han es por trás dos jogos de azar. Esse livro, intitulado O Livro

dos Jogos de Azar, apresenta, entre outras oisas as probabilidades existentes no

lançar de um dado não vi iado, ou mesmo no sa ar de uma arta em um baralho

normal om 52 artas[1, 2℄.

Os trabalhos de Pas al e Fermat, que se orrespondiam por artas[3℄, anos

mais tarde da publi ação do livro de Cardano, trouxeram as bases matemáti as que

Jakob Bernoulli pre isava para es rever seu famoso livro A arte de Conje turar

em 1713[4℄. Em seu tratado, Bernoulli além de outras oisas, explora o lançar de

uma moeda justa, om uma probabilidade p de após o lançamento estar om a fa e

voltada para apenas uma das opções, ara ou oroa.

1
2

Nesse estudo, Bernoulli foi apaz de mostrar o teorema dos grandes números,

que por sua vez, arma que depois de muitos testes, se tem em média p-vezes a fa e

ara, ou oroa, dependendo da es olha prévia.

Essa análise pode ser extrapolada para o estudo de situações onde se tem

duas es olhas, omo ara ou oroa, esquerda ou direita, o que é denido omo

distribuições binomiais. Por exemplo ao lançar uma moeda quatro vezes é fá il

notar que são 16 resultados possíveis, dentre eles, todos os lançamentos serem ara

ou todos os lançamentos serem oroa. Utilizando o triângulo de Pas al[5℄, nota-se

que apenas um dos resultados tem apenas ara, 4 resultados tem 3 aras e uma

oroa, 6 resultados tem duas aras e duas oroas, 4 resultados tem 3 aras e uma

oroa e um resultado tem todas oroas.

Para pou os lançamentos, é simples determinar as probabilidades, mas alguns

eventos a abam se tornando inviáveis de al ular diretamente, omo por exemplo,

ao lançar uma moeda 60 vezes, quantas vezes observar-se 29 vezes a fa e ara vol-

tada para ima? Usando uma al uladora a resposta surge omo 1, 145 · 1017 , algo

improvável de ser al ulado na épo a de Bernoulli.

Em meados do sé ulo XVIII, Abrahan de Moivre publi ou o livro hamado,

A doutrina da probabilidade [6℄, no qual ele deduzia uma equação aproximada para

as probabilidades do lançamento de uma moeda vi iada. Esse trabalho, mais tarde,

se tornou a base da função onhe ida omo Função Erro, que futuramente se tornaria

onhe ida omo urva normal.

A urva normal, ganhou fama e status, quando sua forma, bem ara terísti a,

de sino, omeçou a surgir em dados empíri os de trabalhos ligados às iên ias so iais

e humanas, não apenas em estudos matemáti os e jogos de azar, om os trabalhos do


3

so iólogo Adolphe Quetelet[7℄, pioneiro em métodos quantitativos em so iologia. Em

1835, ele publi ou um livro intitulado, Sobre o homem e o desenvolvimento de suas

fa uldades, no qual foi introduzido o on eito de homem médio. Seu trabalho

mostrava a existên ia de muitas pessoas inseridas dentro de um valor médio e os

valores fora da média, tinham suas probabilidades de aídas exponen ialmente para

diversas ara terísti as quantitativas, omo altura, peso e et . Quetelet tornou o

homem médio omo uma meta so ial, am de que, se a so iedade fosse baseada

nessa média, a riqueza também deveria o ser. Riqueza essa que era distribuída por

uma lei de potên ia, omo mostrado por Pareto[8℄, e não uma urva normal.

A distribuição normal tornou-se matemati amente formalizada omo um

omportamento evidente na natureza. Em meados do iní io do sé ulo XVII, os

trabalhos de Legendre e Gauss trouxeram essa poderosa armação. Ambos estavam

interessados em estudar os erros omumente re orrentes em análises astronmi as.

Ao tentar observar e predizer a órbita de ometas, era sempre visto que os dados

empíri os não se ajustavam às análises teóri as[9℄.

O triúnfo de suas análises se deu pelo estudo dos mínimos quadrados, que

onsiste em determinar a melhor urva que se ajusta aos dados empíri os abordados.

Gauss se tornou bastante famoso, ao predizer om bastante exatidão, o retorno do

asteroide Ceres, feito que era dito omo impossível de ser determinado por falta

de dados. Ele justi ou que os ajustes que ele utilizava no método dos mínimos

quadrados, onsiderava que os dados seguiam uma distribuição normal, que mais a

frente, re ebeu em homenagem a Gauss, a al unha de Curva Gaussiana.

Mas porque tantas oisas na natureza seguem a distribuição normal? A

resposta a essa pergunta omeçou a ser respondida ainda no sé ulo XVII por Pierre-
4

Simon de Lapla e que publi ou Teoria analíti a de probabilidades, no qual ele

mostrava modelos esto ásti os e métodos analíti os para suas soluções. Lapla e

mostrou que uma distribuição binomial, om variáveis independentes, quando o

número de variáves agredadas tende ao innito, a distribuição de probabilidades

seguia a urva normal.

Seu tratado matemáti o omplexo, envolvia o uso de transformadas de Fou-

rier para determinar a função ara terísti a. Em sua publi ação, Lapla e extrapola

o on eito apresentado pela distribuição binomal e in lusive arma que: ... a série

onverge mais rapidamente, quanto mais ompli ado sua fórmula é, de tal forma que

o pro edimento se torna mais pre iso, quanto mais ele se torna ne essário. Com

esse estudo, Lapla e traz as bases para o que hoje onhe emos omo Teorema do

Limite Central [10℄.

A al unha de Teorema do Limite Central foi provavelmente atribuído por

Georg Pólya em um artigo de 1920[11℄, quando o mesmo es reve: É observado que

a distribuição gaussiana surge em diversas situações, e isso se deve a um teorema

limitante, que exer e um papel entral na teoria de probabilidade.

O Teorema do Limite Central é amplamente apli ado nos mais inusitados

sistemas, desde velo idades de movimento de partí ulas em um gás[12℄ até a altura

das pessoas[7℄. Mas essas variáveis aqui itadas, são ditas independentes, omo

será que se omporta uma série fortemente orrela ionada frente a apli ação desse

poderoso teorema?

Sistemas omplexos[13℄, de forma geral, tem atraído ada vez mais trabalhos

ientí os em revistas periódi as, omo pode ser observado no portal de periódi os

da CAPES, onde os resultados mostram mais de 2 milhões de artigos rela ionados


5

om a bus a. Tal linha de pesquisa tem sido tão frequentemente abordada por ser

ri a em propriedades tais omo riti alidade auto-organizada, fra talidade e multi-

fra talidade, invariân ia por es ala e algumas outras presentes em vários sistemas

biológi os, físi os e até e onmi os.

Com todas essas propriedades, os sistemas omplexos se tornam ideiais para

ompreender melhor, qual a dinâmi a por trás do Teorema do Limite Central e até

aonde vão as suas armações.

Esse aso então é novamente analisado sob uma outra perspe tiva, o Teorema

das Seções de Lévy. O Teorema das Seções de Lévy, proposto por Paul Lévy[14℄,

trata de uma generalização do on eito trazido no Teorema do Limite Central, onde

pode-se mostrar que até mesmo variáveis aleatórias orrela ionadas, também seguem

um regime de distribuição de probablidades gaussiano.

Através das ferramentas de Me âni a Estatísti a, que serão melhor abor-

dadas no apítulo 2, pretende-se identi ar diversas propriedades que surgem em

sistemas e onmi os, tais omo: multifra talidade, audas grossas, orrelações de

longo al an e e hetero edasti idade, e veri ar omo as mesmas formam um aráter

úni o nas séries e tornam bastante atrativo o estudo de onvergên ia para o Te-

orema do Limite Central. Além de séries e onmi as, algumas séries geradas sob

um movimento browniano fra ionado, também possuem propriedades interessantes,

além de uma orrelação bem denida, que auxilia na ompreensão do me anismo de

onvergên ia.

No apítulo 3 serão abordadas as bases fundamentais que formam o Teorema

do Limite entral em sua forma lássi a e a formação proposta por P. Lévy[14℄, que

torna o TLC(Teorema do Limite Central) muito mais geral, podendo ser apli ado em
6

séries fortemente orrela ionadas. O teorema generalizado proposto por Lévy separa

a série em diversas seções, hamadas de seções t, onde o parâmetro regulador da


série é a variân ia da seção t, por isso re ebe o nome de TSL(Teorema das Seções

de Lévy).

As prin ipais propriedades que emergem da interação dinâmi a dos sistemas

e onmi os serão laramente dis utidas no apítulo 4, onde tentaremos expli ar as

tendên ias a adêmi as para a expli ação de tais propriedades. Pre isamos entender

profundamente essas origens que são apresentadas no sistema e onmi o, para então

assim, dis utirmos o que a onte e quando os teoremas são apli ados.

Utilizando séries empíri as da taxa de ambio do Mar o Alemão, frente ao

dólar ameri ano, no apítulo 5 serão apresentadas todas as propriedades que essa

série temporal apresenta e depois seguir om uma analise de omo essas proprie-

dades vão sendo modi adas à medida que os teoremas são apli ados, e omo a

onvergên ia para a gaussiana se fortale e enquanto que algumas propriedades são

destruídas, ou mesmo suprimidas.

Am de ompreender a dinâmi a de onvergên ia, também são analisados

alguns sistemas om motivação físi a, que são baseados em um movimento browniano

fra ionado, onde a orrelação dos termos da série é fa ilmente ajustada e depende de

um parâmetro espe í o. Essas séries serão expostas no apítulo 6 e os resultados

sobre a onvergên ia no apítulo 7.

Todos os resultados apresentados nos apítulos 5 e 7, são resultados inédi-

tos na literatura, e parte deles, provenientes das análises ini iais do apítulo 5, o

que on erne o estudo da onvergên ia om os parâmetros indi adores de momentos

estatísti os, skewness e kurtosis , da evolução do expoente de Hürst e o espe tro mul-
7

tifra tal, já foram publi ados em uma revista interna ional om Qualis A2, segundo

o WebQualis da CAPES[15℄. Os resultados que ompetem a análise de onvergên ia

através dos testes estatísti os, KS e KL, e os resultados apresentados no apítulo 7,

sobre o movimento browniano fra ionado, ainda não foram publi ados, ou mesmo

expostos em eventos ou ongressos.


Capítulo 2

Variáveis Aleatórias e a Estatísti a


de dados

Como armado no apítulo anterior, essa tese está fundamentada no estudo estatís-

ti o da onvergên ia de distribuições de probabilidade através da apli ação de dois

teoremas fundamentais, o Teorema do Limite Central(TLC) e o Teorema das Se ções

de Lévy(TSL). Antes desse onteúdo ser devidamente abordado, se faz ne essário

uma breve visita aos onteúdos bási os de me âni a estatísti a, am de que o leitor

possa a ompanhar a investida sem quaisquer problemas de revisão bibliográ a.

Nesse apítulo serão abordados os prin ípios que denem variáveis aleatórias,

séries temporais, distribuições de probabilidade, assim omo, momentos estatísti os,

umulantes e algumas outras propriedades pertinentes a esse estudo.

8
2 Variáveis Aleatórias 9

2.1 Variáveis Aleatórias


No que se on erne ao âmbito da des rição fundamental de variável aleatória, pode-

se dizer om onança que um evento é dito aleatório se é prati amente impossível

prevê-lo a partir do seu estado ini ial, ou seja, uma variável aleatória tem um valor

que está sujeito a han e. É importante ompreender que o que é apresentado aqui

mostra um aráter bem realista ao on eito de variável aleatória.

Diversos sistemas são ara terísti os de variáveis aleatórias, omo por exem-

plo, o lançar de um dado justo ou uma moeda justa, assim omo um sorteio de

bingo. Apesar de ditas aleatórias, todas essas variáveis poderiam, em prin ípio

ser determinadas, onhe endo todos os fenmenos ao seu redor, omo velo idade

do vento, força ao ser lançado, massa do dado, a eleração da gravidade lo al, até

mesmo ampos magnéti os lo ais, seria possível determinar qual fa e iria ser sor-

teada. Segundo o físi o e matemáti o Lapla e, se fosse possível onhe er toda a

informação do universo, não existiria o futuro, tudo seria previsto. Como o a esso a

todas essas informações por vezes é inviável, essas variáveis são ditas aleatórias, su-

jeitas ao a aso. Na natureza, é possível en ontrar aleatoriedade verdadeira, ou seja,

fenmenos que realmente são determinados pelo a aso, são os sistemas quânti os,

que fundamentalmente violam o pensamento de Lapla e, pois variáveis quânti as

não podem ser determinadas previamente, apenas através de medidas.

Uma variável aleatória pode tomar diversos valores possíveis, um dado de 6

lados pode tomar seis valores, uma moeda, dois valores, uma dezena da mega-sena

pode assumir 60 valores diferentes. A denição matemati amente rigorosa de uma

variável aleatória pode ser des rita omo o seguinte on eito, seja X uma variável

aleatória, logo X é uma função que leva um elemento do onjunto espaço amostral
2 Variáveis Aleatórias 10

para um onjunto imagem aonde se en ontra a sua frequên ia de o orrên ia, sendo

assim:

X : E 7−→ I (2.1)

aonde I usualmente é o onjunto dos números reais e de forma normalizada assume

valores entre 0 e 1, forne endo a probabilidade de o orrên ia da variável.

É possível lassi ar variáveis aleatórias dis retas e ontínuas. As variáveis

dis retas em sua maioria, são denidas sobre um onjunto nito de ações, ou de

valores possíveis a serem sorteados, omo novamente por exemplo, o lançar de um

dado, ou mesmo o valor de um ativo nan eiro, seu preço é atualizado de forma

dis reta om relação a um tempo determinado, gerando uma hamada série temporal

dis reta. Pode-se inferir então que, se a menor diferença não nula entre dois possíveis

valores dessa variável for sempre nita, logo ela é uma variável dis reta, não está

denida em um onjunto ontínuo e sim em um arranjo quanti ado e nito.

Variáveis aleatórias ontínuas, podem assumir valores dentro do onjunto

dos reais(R), não existindo uma sub-divisão nita entre valores onse utivos, ou

seja, as variáveis ontínuas são aquelas que a diferença não nula entre dois possíveis

valores da variável aleatória nem sempre toma um valor nito. Como exemplos, é

possível itar uma partí ula quânti a livre, que viaja om uma função de onda omo

onda-plana por todo o espaço, e sua função é estendida em todo R, ou um grão de

pólen suspenso em água, que move-se onforme o movimento Browniano des rito

por Einsten[55℄ aonde sua posição é uma variável aleatória ontínua.


2 Funções de Probabilidade 11

2.2 Funções de Probabilidade


A ada um dos eventos asso iados om uma variável aleatória, é possível determinar

uma probabilidade asso iada ao mesmo. Para ada valor de X, a variável aleatória,

ou seja, os xi , existe uma probabilidade pi de o orrer. É possível es rever pi = f (xi ),

omo a probabilidade que x = xi , e hamar a função f (x), ou mesmo pi , de função

de probabilidade para a variável x.

No aso de variáveis dis retas, pode-se dizer que o onjunto de valores, pi , a

distribuição de probabilidade, deve satisfazer as ondições pi ≥ 0 e de tal forma que

seja normalizada:
n
X
pi = 1,
i=1

aonde n é o número de realizações possíveis da variável, podendo in lusive ser um nú-

mero muito grande, até mesmo ∞. É possível denir também uma outra quantidade

útil, a função densidade de probabilidade PX (x), denida omo

n
X
PX (x) = pi δ(x − xi ) (2.2)
i=1

em que δ(x − xi ) é a função delta de Krone ker. Um exemplo simples de visualizar

a ondição é no lançar de um dado não justo, de tal forma que, das 6 fa es, as

probabilidades sejam:
2 Funções de Probabilidade 12

Fa e pi

1 1/12

2 1/6

3 1/8

4 1/4

5 1/4

6 1/8

dessa forma, a sua densidade de probabilidade seria des rita onforme mostra a

gura 2.1

0,25

0,2
Px(x)

0,15

0,1

1 2 3 4 5 6
x

Figura 2.1: Função Densidade de Probabilidade de um dado vi iado segundo a tabela 2.2

Se ao invés disso, X for uma variável aleatória que pode tomar valores em um

onjunto ontínuo, assim omo um onjunto real, é onhe ido que em um intervalo

de dois possíveis valores de X , denotados de forma exempli ada, x1 e x2 , é possível

assumir que existe uma função ontínua, PX (x), de tal forma que a probabilidade

de X ter um valor determinado entre x1 e x2 é dada pela área sob a urva de PX (x)
2 Funções de Probabilidade 13

versus x, entre x = x1 e x = x2 , assumindo, x1 < x2 , ou seja:

Z b
P rob(x) = dxPx (x) (2.3)
a

aonde Px (x)dx é a probabilidade de en ontrar X no intervalo entre x e x + dx. A

densidade de probabilidade ontínua, também está sujeita a algumas ondições, tais

omo PX (x) ≥ 0 e que


Z
PX (x)dx = 1,
{E}

om E sendo o espaço amostral em que a variável se en ontra, o que pode de maneira

geral signi ar o intervalo (−∞, ∞). Um exemplo de distribuição de probabilidade

ontínua, é o módulo quadrado da solução do os ilador harmni o quânti o. Par-

tindo da equação de S hrödinger om um poten ial dado por

1
V (x) = mω 2 x2 ,
2

temos na base de posições a equação:

−~2 d2 ψ(x) 1
+ mω 2 x2 ψ(x) = Eψ(x) (2.4)
2m dx2 2
mω √
e tomando α= ~
e y= αx, a função de onda normalizada é es rita omo:

 α 1/4 1 2
ψn (y) = √ Hn (y)e−y /2 (2.5)
π 2n n!

aonde Hn (y) são os polinmios de Hermite. Através dessa solução e usando o fato

de que a densidade de probabilidade em me âni a quânti a é o módulo quadrado

da função de onda, ou seja:

p(x) = |ψn (y)|2 (2.6)

é possível ter uma visão geral dos níveis de energia e da probabilidade de en ontrar

uma partí ula onnada nesse poten ial, visualizando a gura 2.2.
2 Valor médio, desvio padrão e os momentos estatísti os 14

E0 E1

2
|ψ(x)|

|ψ(x)|
x x

E2 E3
2

2
|ψ(x)|

|ψ(x)|
x x

Figura 2.2: Função Densidade de Probabilidade do os ilador harmni o quânti o, om parâme-


tros livres.

2.3 Valor médio, desvio padrão e os momentos es-


tatísti os
A função de probabilidade de uma variável aleatória forne e de forma detalhada, di-

versas informações sobre o omportamento da variável em questão, mas nem sempre

essa função é fa ilmente a essível, ou mesmo, não é pre iso a quantidade informa-

ções que ela arrega onsigo. Para esses asos, é possível tomar um outro tipo de

aminho de análise, estudando as propriedades espe í as de ada espaço amostral.

2.3.1 A média

A média, omumente onfundida om mediana e moda, é a medida da tendên ia

entral de uma distribuição, o valor em que a distribuição tende a seguir. É impor-

tante frisar novamente que nem sempre a média é o valor mais provável, esse valor

é hamado de moda. A Mediana, por sua vez, é o valor que divide a distribuição
2 Valor médio, desvio padrão e os momentos estatísti os 15

em duas partes iguais. Em algumas distribuições simétri as, esses valores são os

mesmos, mas essa é uma ex eção, não a regra.

De forma pi tóri a e didáti a é possível armar que a média indi a a posição

do entro de massa de densidade de probabilidade, PX (X). A média pode ser

representada de várias maneiras, podendo ser µ, h x i,x̄ ou mesmo E(x), hamado

de valor esperado.

Por denição a média de uma distribuição dis reta de valores é a soma de

todas as suas realizações, dividida pela quantidade de realizações feitas, ou seja:

n
X xi
µ= (2.7)
i=1
n

sendo assim, pode-se es rever também omo:

n
X
µ= pi xi (2.8)
i=1

Por exemplo, onsiderando o dado vi iado abordado na tabela 2.2, a média

seria:

1 1 1 1 1 1
µdado viciado = ∗ 1 + ∗ 2 + ∗ 3 + ∗ 4 + ∗ 5 + ∗ 6 = 3, 79 (2.9)
12 6 8 4 4 8

Enquanto laramente a moda seria 4 ou 5, os dois valores mais prováveis e a media

seria um valor próximo a 4,17, que divide a distribuição em duas partes iguais.

Para distribuições ontínuas, o somatório se torna uma integral e portanto,

a média pode ser denida omo sendo:

Z
µ= PX (x)xdx (2.10)
{E}

aonde {E} é todo o espaço, usualmente onsiderando o intervalo (−∞, ∞).

Pode-se tomar omo exemplo uma distribuição qualquer, omo a função:

1 ln(x)2
PX (x) = √ e− 2 (2.11)
x 2π
2 Valor médio, desvio padrão e os momentos estatísti os 16

que tem omo média, resolvendo a integral da equação 2.10, e1/2 , mediana sendo 1

e a moda é e−1 . É possível ver a identi ação de ada um desses pontos na gura

2.3.

0,6 Moda
Média
Mediana
0,5

0,4
PX(x)

0,3

0,2

0,1

0
0 0,5 1 1,5 2
x

Figura 2.3: Função Densidade de Probabilidade da função des rita na equação 2.11 aonde são
indi ados os valores da média, mediana e moda.

2.3.2 A variân ia e desvio padrão

O desvio padrão por sua vez, é denido a partir de outra quantidade a variân ia. Ele

dene a dispersão que existe nos dados, de forma grosseira, a largura da distribuição,

ou então, o quão distantes os valores podem ser tomados fora da média, ou seja, fora

da tendên ia. Esses desvios tanto podem ser positivos quanto negativos, ao invés

de al ular apenas a diferença entre eles, a denição de variân ia é al ulada om

o quadrado das diferenças, am de evitar uma variân ia nula sempre, sendo assim,
2 Valor médio, desvio padrão e os momentos estatísti os 17

variân ia por denição será:

n
X
Var(x) = (xi − µ)2 pi (2.12)
i=1

Denida a variân ia é possível agora determinar o desvio padrão, que indi a o quanto

as medidas estão dispersas. Essa grandeza estatísti a é denida omo sendo a raiz

quadrada da variân ia, ou seja:

v
u n
p uX
σx = Var(x) = t (xi − µ)2 pi (2.13)
i=1

Usando mais uma vez o exemplo do dado tenden ioso, é possível determinar

qual valor da variân ia e do desvio padrão:

1 1 1
Vardado viciado = (1 − 3, 79)2 ∗ + (2 − 3, 79)2 ∗ + (3 − 3, 79)2 ∗
12 6 8
1 1 1
+ (4 − 3, 79)2 ∗ + (5 − 3, 79)2 ∗ + (6 − 3, 79)2 ∗
4 4 8
= 2, 25 (2.14)

p
σdado viciado = 2, 25 = 1, 5 (2.15)

É possível observar que os valores possíveis estão bem dispersos em relação

a média, om um desvio padrão de 1,5, ou seja, a tendên ia do sistema é a média

de 3,79, om um desvio de 1,5.

No aso ontínuo, novamente o somatório é agora dado por uma integral em

todo o espaço, de tal forma que a variân ia e o desvio padrão são denidos omo:

Z
Var(x) = PX (x)(x − µ)2 dx (2.16)
{E}
sZ
p
σx = Var(x) = PX (x)(x − µ)2 dx (2.17)
{E}
2 Valor médio, desvio padrão e os momentos estatísti os 18

Resolvendo a integral para a equação 2.11, apresentada omo exemplo anterior, o

resultado forne e uma variân ia e desvio padrão de:

Var(x) = e(e − 1) (2.18)

p
σx = e(e − 1) (2.19)

Que podem ser pi tori amente observados na gura 2.4.

Média
0,6

0,5

0,4
PX(x)

0,3

0,2
σx

0,1

0
0 2 4 6 8
x

Figura 2.4: Indi ativo visual do desvio padrão da distribuição segundo a equação 2.11

2.3.3 Momentos de mais alta ordem

Além das ara terísti as abordadas na média, as distribuições de probabilidade pos-

suem diversas outras pe uliaridades que dependem de outras grandezas. De forma

generalizada, as quantidades que espe i am as nuanças de ada distribuição, são

hamados momentos estatísti os e de forma generalizada são des ritos da seguinte


2 Valor médio, desvio padrão e os momentos estatísti os 19

forma:
n
X
µm = xm
i pi (2.20)
i=1
Z
µm = PX (x)xm dx (2.21)
{E}

aonde a equação 2.20 se refere a distribuições dis retas e a equação 2.21 às distribui-

ções ontínuas. Como informado, ada momento, ou seja, ada expoente indi ados

nas equações, indi a um parâmetro da urva, desde sua largura, à diversos graus

de assimetria e mesmo o formato que a distribuição tem. Os momentos pares, es-

tão rela ionados om a forma que a distribuição tem e os momentos ímpares são

rela ionados om as assimetrias que a distribuição tem a er a da média.

Momentos entrados na média

Uma outra denição para os momentos, são os momentos entrados na média. Esses

momentos são úteis para al ular a variân ia, skewness e kurtosis, que são quanti-

dades relevantes na análise quantitativa do formato espe í o de ada distribuição.

Os momentos entrados na média são denidos omo:

µ′m = h (x − h x i)m i (2.22)

Aonde por denição h f (x) i é o valor esperado da função, ou seja, para funções

ontínuas(e fa ilmente extrapolado para funções dis retas), dado pela equação:

Z
h f (x) i = PX (x)f (x)dx (2.23)
{E}

O primeiro momento entrado na média, obviamente é zero, pois se trataria da

subtração entre a média e ela mesma. Para o segundo momento entrado na média

o resultado é a variân ia, pois, omo já era de se esperar, é a dispersão em primeira


2 Valor médio, desvio padrão e os momentos estatísti os 20

ordem dos dados, e por si só, ao fazer m=2 a equação 2.22 se torna exatamente

igual a equação 2.12, para o aso dis reto e a equação 2.13. E é possível mostrar

a partir da denição forne ida na equação 2.22 que a própria variân ia depende do

segundo momento al ulado pelas equações 2.20 ou 2.21.

µ′2 = h (x − h x i)2 i = h x2 − 2xh x i + h x i2 i

= h x2 i − 2h x ih x i + h x i2

= h x2 i − 2h x i2 + h x i2

= h x2 i − h x i2 (2.24)

Tomando o fato de que h h x i i = h x i, ou seja, o valor esperado do valor esperado

da variável x, é o seu próprio valor esperado.

Como dito, se faz interessante mostrar as relações existentes para alguns

outros momentos de ordem mais altas, omo o ter eiro e o quarto momentos. Usando

a denição forne ida na equação 2.22, é possível veri ar que:

µ′3 = h (x − h x i)3 i = h x3 − 3x2 h x i + 3xh x i2 − h x3 i i

= h x3 i − 3h x2 ih x i + 3h x ih x i2 − h x i3

= h x3 i − 3h x2 ih x i + 2h x i3 (2.25)

µ′4 = h (x − h x i)4 i

= h x4 − 4x3 h x i + 6x2 h x i2 − 4xh x i3 + h x i4 i

= h x4 i − 4h x3 ih x i + 6h x2 ih x i2 − 4h x ih x i3 + h x i4

= h x4 i − 4h x3 ih x i + 6h x2 ih x i2 − 3h x i4 (2.26)

E esses são alguns dos momentos entrados na média. Com esses resultados, são

denidas as grandezas skewness e kurtosis que são momentos padrões, denidos


2 Valor médio, desvio padrão e os momentos estatísti os 21

segundo:

µ′m
γm = (2.27)
σxm

ou seja, o momento entrado na média, dividido pelo desvio padrão elevado ao grau

do momento.

Skewness

A skewness é a medida da assimetria de uma distribuição de probabilidade sobre

a sua média. Seu valor usualmente é positivo, indi ando uma auda a direita da

média, ou seja a densidade de probabilidade é mais alongada ou até mesmo mais

gorda nesse sentido, o valor pode ser negativo, indi ando o ontrário, ou zero, om

um grau de assimetria nulo. Algumas distribuições não possuem uma skewness bem

denida, por sua própria natureza, por não apresentar assimetria fa ilmente medida.

Pela equação 2.27 a skewness é denida omo:

µ′3
s= (2.28)
σx3
2 Valor médio, desvio padrão e os momentos estatísti os 22

0,6 (a) (b) 0,6


0,5 0,5
0,4 0,4

PX(x)

PX(x)
0,3 0,3
0,2 0,2
0,1 0,1
0 0
0 1 2 3 4 5 5 6 7 8 9 10
x
0,4

(c)
0,3
PX(x)

0,2

0,1

0
-4 -2 0 2 4
x

Figura 2.5: Diferentes distribuições om variados valores de skewness. (a)Skewness positiva,


segundo a equação 2.11. (b)Skewness negativa, do espelho da função dada pela equação 2.11 om
x = −x. ( )Skewness nula, da distribuição normal.

Kurtosis

A kurtosis tem origem na palavra grega κνρτ ς ou, kyrtos, que signi a urvada,

ou arqueada. A kurtosis tem omo objetivo medir um parâmetro da forma da

distribuição, de forma grosseira, ela representa o grau de anamento da distribuição,

se é uma distribuição mais urvada em seu pi o, ou se é mais alada.

Assim omo no aso anterior, existem distribuições om kurtosis positivas,

as hamadas lepto úrti as, mais afuniladas no pi o, as que possuem kurtosis nega-

tiva, hamadas plati úrti as, om o pi o mais abaloado, e as distribuições hamadas

meso úrti as, om a kurtosis nula.

Denida pela equação 2.27, a kurtosis pode ser es rita omo:

µ′4
κ= 4 (2.29)
σx

A distribuição normal, ou distribuição gaussiana, possui um valor bem denido de


2 Valor médio, desvio padrão e os momentos estatísti os 23

kurtosis, por isso é omum, e útil, denir uma outra quantidade, a kurtosis ex essiva.

µ′4
κ′excessiva = − κgaussiana
σx4
µ′4
= −3 (2.30)
σx4

É possível observar na gura 2.6 alguns exemplos de distribuições om vários valores

1 2
de kurtosis , para as distribuições de Lapla e , Wigner e Gauss.

0,5 0,2
(a) (b)
0,4
0,15
0,3
PX(x)

PX(x)
0,1
0,2
0,05
0,1

0 0
-4 -2 0 2 4 -4 -2 0 2 4
x
0,4

(c)
0,3
PX(x)

0,2

0,1

0
-4 -2 0 2 4
x

Figura 2.6: Diferentes distribuições om variados valores de kurtosis. (a)Kurtosis positiva,


segundo a distribuição de Lapla e, om kurtosis igual a 3. (b)Kurtosis negativa, segundo a distri-
buição de Wigner, om kurtosis igual a -1 . ( )Kurtosis nula, da distribuição normal.

2.3.4 A função ara terísti a

A função ara terísti a é uma outra maneira de a essar as propriedades da distribui-

ção de probabilidades. A função ara terísti a é denida a partir da transformada

de Fourier da própria densidade de probabilidade em questão. Sendo assim, por sua

1 Com o aso espe í o da equação PX (x) = 12 e−|x|


2 Com o aso espe í o da equação P (x) = 2

2
X 25π 25 − x
2 Valor médio, desvio padrão e os momentos estatísti os 24

própria denição, a função ara terísti a é dada por:

Z
fX (k) = PX (x)eikx dx (2.31)
{E}

Uma das prin ipais vantagens de estar no espaço de momentos é a expansão

em série de Taylor, no aso espe ial entrada em zero(a hamada série de Ma laurin),

para a exponen ial. A série de Taylor, tem por denição a forma:

df (a) (x − a) d2 f (a) (x − a)2 d3 f (a) x3


f (x) = f (a) + + + +··· (2.32)
dx 1! dx2 2! d(x − a)3 3!

e para a exponen ial, tipo ey , é fá il notar que o resultado será:


y y2 y3 X yα
e =1+y+ + +··· = (2.33)
2! 3! α=0
α!

sendo assim, para o aso da equação 2.31, a expansão se dá por:

(ikx)2 (ikx)3
Z  
fX (k) = PX (x) 1 + ikx + + + · · · dx (2.34)
{E} 2! 3!

e apli ando a propriedade distributiva, é fá il ver que:

(ik)2
Z Z Z
fX (k) = PX (x)dx + ik PX (x)xdx + PX (x)x2 dx + · · · (2.35)
{E} {E} 2! {E}

e por denição,

(ik)2 2 (ik)3 3
fX (k) = 1 + ikh x i + hx i+ hx i+···
2! 3!

X (ik)m h xm i
= (2.36)
m=0
m!

e portanto, a função ara terísti a pode ser obtida utilizando os momentos e por

sua vez, usando uma transformada de Fourier, é possível obter a distribuição ori-

ginal. Além dos momentos estatísti os, a função ara terísti a é apaz de forne er

diretamente os momentos entrados na média, através da expansão em umulantes.


2 Valor médio, desvio padrão e os momentos estatísti os 25

Para tal, se faz a expansão em série de Ma laurin da função: ln fX (k), de tal forma

que, as derivadas são dadas por:

fX′ (k) fX′ (0)



dln fX (k) hxi
= = = = ih x i (2.37)
dk
k=0 fX (k) k=0 fX (0)
−i

d2 ln fX (k) fX′′ (k)fX (k) − (fX′ (k))2



= = −h x2 i + h x i2
dk 2
k=0 fX2 (k)
k=0
2 2
= i h x2 i − h x i

(2.38)

d3 ln fX (k) fX′′′ (k)fX3 (k) − 3fX′′ (k)fX′ (k)fX (k) − 2(fX′ (k))3 fX (k)

=
dk 3
k=0 fX4 (k)
k=0

= −ih x3 i + 3ih x2 ih x i − 2ih x i3

= i3 h x3 i − 3h x2 ih x i + 2h x i3

(2.39)

d4 ln fX (k) fXIV (k)fX (k) − fX′′′ (k)fX′ (k)



= −
dk 4
k=0 fX2 (k)
 ′′′
fX (k)fX′ (k)fX2 (k) + (fX′′ (k))2 fX2 (k) − 2fX′′ (k)(fX′ (k))2 fX (k)

− 3 +
fX4 (k)
 ′′
fX (k)(fX′ (k))2 fX3 (k) − fX2 (k)(fX′ (k))4

+ 6
fX6 (k)
2
= h x4 i − 4h x3 ih x i − 3h x2 i + 12h x i2 h x2 i − 6h x i4 (2.40)

e dessa forma, é possível es rever que:

X (ik)m
ln fX (k) = Cm (x) (2.41)
m=0
m!

aonde Cm (x) são os umulantes, que podem ser trivialmente rela ionados om os
2 Distribuições onjuntas de probabilidade 26

momentos entrados na média:

C1 (X) = h x i (2.42)

C2 (X) = h x2 i − h x i2 = h (x − h x i)2 i = µ′2 (2.43)

C3 (X) = h x3 i − 3h x ih x2 i + 2h x i3 = h (x − h x i)3 i = µ′3 (2.44)

2
C4 (X) = h x4 i − 3h x2 i − 4h x ih x3 i + 12h x2 ih x i2 − 6h x i4 (2.45)

= h (x − h x i)4 i − 3 h x2 i − h x i2 = µ′4 − 3µ′2



(2.46)

..
.

(2.47)

Utilizando essa forma é possível ter a esso a diversas informações a er a da

distribuição, mesmo que a função PX (x) seja muito difí il de ser a essada, omo é o

aso omum em séries temporais, onjuntos de variáveis aleatórias que são sorteadas

om o passar do tempo.

2.4 Distribuições onjuntas de probabilidade


Quando duas ou mais variáveis aleatórias estão denidas no mesmo espaço de pro-

babilidade, no mesmo espaço amostral, essas variáveis podem ser des ritas através

de uma úni a distribuição que é função de todas as variáveis aleatórias.

Sem perda de generalidade é trivial entender que se duas variáveis aleatórias,

X e Y são distribuídas onjuntamente, ou seja, sobre o mesmo espaço de probabili-

dade, a distribuição onjunta de probabilidade deverá satisfazer:

0 ≤ PXY (x, y) ≤ 1 (2.48)


Z Z
PXY (x, y)dxdy = 1 (2.49)
{E} {E}
2 Distribuições onjuntas de probabilidade 27

e também é possível reduzir a distribuição, para apenas PX (x) apli ando:

Z
PX (x) = PXY (x, y)dy (2.50)
{E}

possibilitando também de maneira similar, determinar PY (y). Com essa mesma

metodologia, é possível também en ontrar os momentos estatísti os asso iados a

variável X:
Z Z
m
hx i = PXY (x, y)xm dxdy (2.51)
{E} {E}

assim omo é possível en ontrar o momento onjunto, denido omo:

Z Z
m β
hx y i = PXY (x, y)xm y β dxdy (2.52)
{E} {E}

Através dessa denição, dois momentos onjuntos podem ser des ritos, a

ovariân ia e a orrelação. A ovariân ia, é uma medida de omo as duas variáveis

se afastam do primeiro momento onjunto, e por isso, se mostra muito pare ida om

a variân ia, denida pela equação 2.12, de tal forma que:

Cov(X, Y ) = h (x − h x i)(y − h y i) i = h xy i − h x ih y i (2.53)

A orrelação, é a medida do gru de relação que essas variáveis tem, o quanto

uma depende do resultado da outra, omo elas se inuen iam. A função orrelação

está limitada no intervalo [−1, 1], indi ando que o valor máximo é a dependên ia

total e uma hamada persistên ia em repetir eventos e o valor mínimo uma anti-

persistên ia, e se aso as duas variáveis são ditas independentes, logo Cor(X, Y ) = 0.

Ela é denida a partir da seguinte equação:

h (x − h x i)(y − h y i) i
Cor(X, Y ) = . (2.54)
σx σy

aonde σx e σy são os desvios padrões das variáveis aleatórias X e Y.


2 Algumas Distribuições de Probabilidades 28

Para variáveis distribuídas onjuntamente, também é possível determinar

uma função ara terísti a, uja denição surge omo uma generalização da equação

2.31:
Z Z
fZ (k) = PXY (x, y)eikG(x,y)dxdy (2.55)
{E} {E}

aonde a nova variável aleatória Z, depende de X e Y, segundo: z = G(x, y).

2.5 Algumas Distribuições de Probabilidades


Para diversos sistemas, omo lançar de dados não vi iados, olisões de nú leos atmi-

os, velo idade de partí ulas em um gás, ou mesmo o simples lançar de uma moeda

por diversas vezes, a distribuição de probabilidade PX (x) é bem onhe ida e faz

parte de um onjunto de distribuições bem onhe idas e formalmente representadas

om diversas propriedades bem denidas. Na presente seção, serão apresentadas

apenas algumas distribuições, àquelas que didati amente são mais ompatíveis om

o ensaio apresentado na tese.

Ini ialmente será abordada a distribuição binominal, de unho edu a ional

formidável, por apresentar um formalismo matemáti o de ompreensão mais simpli-

 ada, mas, de ontra partida, om apli ações limitadas à sistemas de dois níveis

não- orrela ionados. Em seguida omo uma extrapolação do modelo binomial, será

apresentada a distribuição gaussiana, ou urva normal que é um dos prin ipais en-

foques do trabalho omo muito dis utido no apítulo anterior. No m da seção

é formalizada uma generalização das distribuições gaussianas, propostas por Paul

Lévy, as distribuições estáveis de Lévy.


2 Algumas Distribuições de Probabilidades 29

2.5.1 Distribuição Binomial

Em um espaço amostral omposto apenas dois possíveis eventos, omo o lançar de

uma moeda, um om probabilidade p e o outro om probabilidade q, ou seja, 1 − p,

surge uma distribuição binomial para um nito número de realizações. Como dito

por exemplo o lançar de uma moeda justa, onde p = q = 0.5, de forma normalizada.

Um outro exemplo bastante omum, aso esse onjunto amostral seja om-

posto por um móvel que é permitido dar passos de tamanho xo l , tanto para o eixo

positivo, quanto para o eixo negativo, ou seja, restrito a aminhar unidimensional-

mente, om probabilidades des ritas omo no parágrafo a ima , dene-se n+ omo

o número de passos para o sentido positivo do eixo e n− o número de passos que ele

dá para a direção negativa do eixo, de tal forma que p é a probabilidade dele dar

um passo na direção positiva do eixo. A gura 2.7 mostra uma série de aminhantes

omo esse, om diversos valores de p.

40
(a)
20
x

0
-20
-40
0 500 1000 1500 2000 2500 3000
0
-100 (b)

-200
x

-300
-400
0 500 1000 1500 2000 2500 3000
300
250 (c)
200
150
x

100
50
0
0 500 1000 1500 2000 2500 3000
passos

Figura 2.7: Posição x de aminhantes aleatórios om passos de tamanho l = 1 e om probabili-


dades: (a) 0.5, (b) 0.45 e ( ) 0.55, versus o número de passos dados.
2 Algumas Distribuições de Probabilidades 30

Dessa forma, a probabilidade que ele  aminhe n+ passos para a direção

positiva do eixo após N passos dados é a ombinação de todas as possibilidades

juntamente om a probabilidade de ada evento o orrer:

N! n+ n−
WN (n+ ) = p q . (2.56)
n+ !n− !

Onde o primeiro termo é omposto por todas as ombinações possíveis om

n+ e n− , através de ombinações simples.

Como N = n+ + n− , a equação pode ser re-es rita de forma a reduzir a

quantidade de variáveis:

N!
WN (n+ ) = pn+ q N −n+ . (2.57)
n+ !(N − n+ )!

Que nada mais é que o (n+ +1)-ésimo termo da expansão do binmio (q+p)N .

Denindo n, uma posição qualquer no espaço, omo sendo:

N +n N −n
n+ = n− = , (2.58)
2 2

pela equação 2.56, a probabilidade de en ontrar o aminhante em uma posi-

ção n qualquer do espaço é dada por:

N!
P (n) = p(N +n)/2 q (N −n)/2 . (2.59)
[(N + n)/2]![(N − n)/2]!

que é uma das formas mais en ontradas da distribuição binomial na literatura,

aonde é possível denir om pre isão a probabilidade de en ontrar o aminhante

na posição n. Na gura 2.8 são mostradas as distribuições de probabilidades do

exemplo forne ido na gura 2.7.


2 Algumas Distribuições de Probabilidades 31

0,02
(a)
0,015

PX(x)
0,01
0,005
0
-300 -250 -200 -150 -100 -50 0 50 100 150 200 250 300
0,02
(b)
0,015
PX(x)

0,01
0,005
0
-500 -450 -400 -350 -300 -250 -200 -150 -100 -50 0 50 100
0,02
(c)
0,015
PX(x)

0,01
0,005
0
-100 -50 0 50 100 150 200 250 300 350 400 450 500
x

Figura 2.8: Probabilidade PX (x) de aminhantes aleatórios om passos de tamanho l = 1 e om


probabilidades p: (a) 0.5, (b) 0.45 e ( ) 0.55, versus a posição x

Para um número de passos N, muito grande, pode-se fazer uma expansão do

termo fatorial usando a aproximação de Stirling. Essa expansão é melhor tratada

na próxima seção, onde é apresentada a distribuição gaussiana.

2.5.2 Distribuição Gaussiana(Normal)

A distribuição normal pode ser demonstrada omo um aso da distribuição binomial

quando existe um grande número de realizações. Para tal demonstração é importante

investigar melhor a probabilidade W (n+ ), que é des rita pela equação 2.57. Nesse

limite, om N → ∞, determina-se a expansão em série da função em torno de um

valor máximo, om n+ = ñ+ . Para isso, pode-se fazer uma expansão em série de

Taylor, equação 2.32, em torno desse ponto, para ln WN (n+ ).

Tomando o logarítmo natural da probabilidade,

ln WN (n+ ) = ln N! − ln n+ ! − ln(N − n+ )! + n+ ln p + (N − n+ ) ln q
2 Algumas Distribuições de Probabilidades 32

e utilizando a fórmula de Stirling, ln K! ≃ K ln K − K , a equação  ará:

ln WN (n+ ) = N ln N − N − n+ ln n+ + n+ − (N − n+ ) ln(N − n+ ) +

+(N − n+ ) + n+ ln p + (N − n+ ) ln q (2.60)

Cuja primeira derivada é dada por:


ln WN (n+ ) = − ln n+ + ln(N − n+ ) + ln p − ln q. (2.61)
∂n+

Considerando que em ñ+ exista um máximo lo al da função,logo pela ondi-





ção de máximo da função: ln WN (n+ ) = 0, e portanto

∂n+
n+ =ñ+

ñ+ p Np ñ+ p Np
ln = ln ⇒ ñ+ = − ⇒ ñ+ = = Np (2.62)
N − ñ+ q q q p+q

Cal ulando a segunda derivada para a expansão, para n+ = ñ+ :

 
2
∂ ∂  ∂
ln WN (n+ ) = ln WN (n+ )

2
∂n+ ∂n+ ∂n+
n+ =ñ+ n+ =ñ+
1 1 1
= − − =− (2.63)
Np N − Np Npq

Desprezando os termos de mais altas derivadas, pois Nm estará presente

na (m − 1)-ésima derivada, fazendo om que seu valor seja próximo a nulidade, a

expansão toma a forma:


2 Algumas Distribuições de Probabilidades 33


∂ ln WN (n+ )
ln WN (n+ ) = ln WN (ñ+ ) + (n+ − ñ+ ) +
∂n+


n+ =ñ+

(n+ − ñ+ )2 ∂ 2 ln WN (n+ )
2! ∂n2+


n+ =ñ+
2
(n+ − Np) WN (n+ ) (n+ − Np)2
= ln WN (ñ+ ) − ⇒ ln =− ⇒
2Npq WN (ñ+ ) 2Npq
(n+ −Np)2

⇒ WN (n+ ) = WN (ñ+ )e 2Npq

(2.64)

Ainda WN (ñ+ ) é des onhe ido. Utilizando da ondição de normalização que

arma que a integral da densidade probabilidade em todo espaço deve ser igual a

unidade, logo

∞ (n+ −Np)2 1 1
Z
WN (ñ+ )e− 2Npq dn+ = 1 ⇒ WN (ñ+ ) = R (n −Np)2
=√ .
−∞ ∞ − +2Npq 2πNpq
−∞
e dn+
(2.65)

Sendo assim, a probabilidade para N tendendo ao innito, será a hamada

distribuição gaussiana, dada por:

1 (n+ −Np)2
WN →∞ (n+ ) = PG (n+ ) = √ e− 2Npq . (2.66)
2πNpq
De forma mais geral, para uma variável aleatória X , a distribuição de probabilidades

é dada por:
( )
2
1 (x − h x i)
P (x) = √ exp − , (2.67)
2πσ 2σ 2

onde hxi é a média de x e σ seu desvio padrão.

A distribuição Gaussiana se torna tão importante e estudada, por sua rela-

ção íntima om o teorema do limite entral. Nessa seção, na qual a distribuição foi
2 Algumas Distribuições de Probabilidades 34

apresentada, já se mostra um exemplo laro de apli ação do teorema, aonde uma dis-

tribuição, no aso a binomial, onverge para a distribuição normal quando o número

de realizações é grande. Como em diversos sistemas temos distribuições om variá-

veis des orrela ionadas e que obede em a outros ritérios estabele idos no teorema,

a distribuição gaussiana está presente em inúmeros âmbitos do onhe imento.

A urva da distribuição de probabilidade é bem ara terísti a, o formato

informalmente é hamado de sino, por lembrar a geometria do objeto. Na gura

2.9 são apresentadas algumas urvas seguindo a equação 2.67 om alguns parâmetros

que as diferen iam, mas nun a perdendo a ara terísti a de ter uma auda que

de res e omo uma função exponen ial, fato relevante nas análises da urva normal.

0,8

<x>=0;σ=1
<x>=0;σ=2
<x>=-4;σ=0.5
0,6 <x>=3;σ=4
PX(x)

0,4

0,2

0
-6 -4 -2 0 2 4 6
x

Figura 2.9: Alguns exemplos de urvas da distribuição gaussiana om alguns parâmetros diversos.
É possível notar que a distribuição é simétri a, possuindo portanto skewness nula e tem um formato
bastante ara terísti o, em forma de sino.
2 Algumas Distribuições de Probabilidades 35

Os momentos Gaussianos

1. Média

A média é o primeiro parâmetro que pode ser en arado quando se observa uma

distribuição qualquer de probabilidade. No aso da distribuição gaussiana, sua mé-

dia já está denida dentro da própria fundamentação da equação 2.67. É possível

observar isso fazendo uso da equação 2.10:

−(x−µ)2

e
Z
2σ 2
hxi = x√ dx (2.68)
−∞ 2πσ 2

é possível resolver essa equação usando um artifí io bem simples, amplamente utili-

−(x−µ)2
zado em me âni a estatísti a. Cal ulando a derivada da função e 2σ 2 em relação

a µ, o resultado será:

 
d −(x−µ)2 (x − µ) −(x−µ) 2

e 2σ 2
= e 2σ2 (2.69)
dµ σ

apenas usando a regra da aideia. Sendo assim, é fá il notar que:

 
−(x−µ)2 d 2
−(x−µ)2 −(x−µ)2
xe 2σ 2 =σ e 2σ 2 + µe 2σ 2 (2.70)

logo, a equação 2.68 será então

−(x−µ)2 −(x−µ)2
∞ ∞
d e e
Z Z
2σ 2 2σ 2
h x i = σ2 √ dx + µ √ dx (2.71)
dµ −∞ 2πσ 2 −∞ 2πσ 2
−(x−µ)2
R∞ e √ 2σ 2
pela ondição de normalização,
−∞ 2πσ2
dx = 1, portanto,

d
h x i = σ2 (1) + µ(1)

= µ (2.72)

pois a derivada de uma onstante é nula. Dessa forma a média em uma distribuição

gaussiana é o parâmetro que está subtraindo x dentro da exponen ial.


2 Algumas Distribuições de Probabilidades 36

2. O segundo momento e o desvio padrão

Para o segundo momento, utilizando a equação 2.21 é possível al ular o segundo

momento.
−(x−µ)2

e
Z
2σ 2
h x2 i = x2 √ dx (2.73)
−∞ 2πσ 2
apli ando a mesma metodologia anterior e tomando a derivada em segunda ordem

−(x−µ)2
do termo e 2σ 2 ,

d2
   
−(x−µ)2 d (x − µ) −(x−µ) 2
e 2σ 2 = e 2σ 2
dµ2 dµ σ2
−(x−µ)2
e 2σ 2 (x − µ)2 −(x−µ) 2

= − + e 2σ 2
σ2 σ4
−(x−µ)2
e 2σ 2 (x2 − 2xµ + µ2 ) −(x−µ) 2
= − + e 2σ 2 (2.74)
σ2 σ4

sendo assim, é trivial notar que:

d2
 
−(x−µ)2 −(x−µ)2 −(x−µ)2  −(x−µ)2
2 4
xe 2σ 2 =σ e 2σ2 + σ 2 e 2σ2 + 2xµ − µ2 e 2σ2 (2.75)
dµ2

e portanto a equação 2.73 toma a forma:

−(x−µ)2 Z ∞ −(x−µ) 2
2 Z ∞
d e 2σ 2 e 2σ 2
h x2 i = σ 4 2 √ dx + σ 2 √ dx +
dµ −∞ 2πσ 2 −∞ 2πσ 2
Z ∞ −(x−µ)2 Z ∞ −(x−µ) 2

e 2σ2 e 2σ 2
+ 2µ x√ dx − µ2 √ dx
2πσ 2 2πσ 2
−∞ −∞
d2
= σ 4 2 (1) + σ 2 (1) + 2µh x i − µ2 (1)

= σ 2 + µ2 (2.76)

sendo esse então o segundo momento estatísti o para qualquer urva gaussiana, om

parâmetros σ e µ.

É possível também al ular o segundo momento entrado na média, o des-

vio padrão ao quadrado. As equações 2.22 e 2.24 forne em a visão geral para o
2 Algumas Distribuições de Probabilidades 37

ál ulo do momento entrado na média e o espe í o para o segundo momento,

respe tivamente. Apli ando então a equação 2.24:

µ′2 = h x2 i − h x i2 = σ 2 + µ2 − (µ)2 = σ 2 (2.77)

Revisitando as equações da seção 2.3.2, em espe ial a equações 2.16 e 2.17, é possível

observar que o resultado mostrado na equação 2.77 representa exatamente o desvio

padrão da distribuição gaussiana ao quadrado.

Dessa forma, utilizando esses dois resultados, é possível armar que a distri-

buição gaussiana possui dos parâmetros relevantes, µ e σ , que através das denições

propostas pelas as equações 2.72 e 2.77 são identi ados omo a média e o desvio

padrão, respe tivamente, da distribuição em questão.

3. O ter eiro momento e a skewness

A metodologia mais uma vez é repetida, apli ando a equação 2.21 é obtido:

−(x−µ)2

3e
Z
2σ 2
h x3 i = x √ dx (2.78)
−∞ 2πσ 2

e portanto, para resolver a integral é al ulada a derivada de ter eira ordem

−(x−µ)2
em µ do termo e 2σ 2 :

d3 d2
    
−(x−µ)2 d −(x−µ)2
e 2σ 2 = e 2σ 2
dµ3 dµ dµ2
 
−(x−µ)2
2
d  e 2σ 2
(x − µ) −(x−µ) 2
= − 2
+ e 2σ2 
dµ σ σ4
(x − µ)3 −(x−µ) 2
3(x − µ) −(x−µ) 2
= e 2σ 2 − e 2σ 2
σ6 σ4
(x − 3x µ + 3xµ − µ3 ) −(x−µ)
3 2 2 2
3(x − µ) −(x−µ) 2

= e 2σ 2 − e 2σ 2 (2.79)
σ6 σ4
2 Algumas Distribuições de Probabilidades 38

−(x−µ)2
logo, resolvendo a equação para x3 e 2σ 2 ,

d3
 
−(x−µ)2 −(x−µ)2 −(x−µ)2  −(x−µ)2
3 6
xe 2σ 2 =σ e 2σ2 + 3σ 2 (x − µ)e 2σ2 + 3x2 µ − 3xµ2 + µ3 e 2σ2
dµ3
(2.80)

Dessa forma a equação 2.78 poderá ser es rita omo:

−(x−µ)2 −(x−µ)2
∞ ∞
d3 e e
Z Z
2σ 2 2σ 2
h x3 i = σ 6 3 √ dx + 3σ 2 x√ dx −
dµ −∞ 2πσ 2 −∞ 2πσ 2
−(x−µ)2 −(x−µ)2
∞ ∞
e e
Z Z
2σ 2 2σ 2
2
− 3µσ √ dx + 3µ x2 √ dx −
−∞ 2πσ 2 −∞ 2πσ 2
−(x−µ)2 −(x−µ)2
∞ ∞
e e
Z Z
2σ 2 2σ 2
− 3µ2 x√ dx + µ3 √ dx (2.81)
−∞ 2πσ 2 −∞ 2πσ 2

ou seja, resolvendo as integrais om as denições da equação 2.21

d3
h x3 i = σ 6 (1) + 3σ 2 h x i − 3µσ 2 (1) + 3µh x2 i − 3µ2 h x i + µ3 (1)
dµ3
= 3µσ 2 + µ3 (2.82)

O ter eiro momento da distribuição gaussiana, depende da média e do seu desvio

padrão, omo era de se esperar, os dois parâmetros relevantes ao sistema. Cal ulando

agora o ter eiro momento entrado na média, am de obter o valor da skewness , é

possível, através da equação 2.25, veri ar que:

µ′3 = h x3 i − 3h x2 ih x i + 2h x i3

= 3µσ 2 + µ3 − 3(σ 2 + µ2 )µ + 2µ3

= 0 (2.83)

e por onsequên ia, a skewness , que é dada pela equação 2.28, será também nula,

µ′3 0
Sgauss = 3
= 3 =0 (2.84)
σ σ
2 Algumas Distribuições de Probabilidades 39

orroborando o fato de que a distribuição gaussiana é uma distribuição simétri a,

pois exatamente o seu grau de assimetria é nulo.

4. O quarto momento e a kurtosis

Para o quarto e último momento a ser abordado nessa tese, se faz ne essário

o uso da equação 2.21 para obter a integração referente ao quarto momento:

−(x−µ)2

e
Z
2σ 2
h x4 i = x4 √ dx (2.85)
−∞ 2πσ 2
−(x−µ)2
Am de resolver a integral a ima, al ula-se a derivada da função e 2σ 2

em quarta ordem em µ:

d4
   3  
−(x−µ)2 d d −(x−µ)2
e 2σ 2 = e 2σ2
dµ4 dµ dµ3
d (x − µ)3 −(x−µ)
 
2
3(x − µ)
= e 2σ2 −
dµ σ6 σ4
(x − µ)4 −(x−µ) 2
3 −(x−µ) 2
6(x − µ)2 −(x−µ) 2
= e 2σ 2 + e 2σ 2 − e 2σ 2
σ8 σ4 σ6
4 3 2 2 3 4 −(x−µ)2
x − 4x µ + 6x µ − 4xµ + µ
= e 2σ2 +
σ8
3 −(x−µ) 2
6(x − µ)2 −(x−µ) 2
+ e 2σ 2 − e 2σ 2 (2.86)
σ4 σ6
−(x−µ)2
resolvendo para x4 e 2σ 2 am de resolver a equação 2.85,

d4
 
−(x−µ)2 −(x−µ)2  −(x−µ)2
4 8
xe 2σ 2 = σ e 2σ 2
+ 4x3 µ − 6x2 µ2 + 4xµ3 − µ4 e 2σ2 −
dµ4
−(x−µ)2 −(x−µ)2
− 3σ 4 e 2σ 2 + 6σ 2 (x − µ)2 e 2σ 2 (2.87)
2 Algumas Distribuições de Probabilidades 40

por onsequên ia a equação 2.85 será dada por:

2 −(x−µ)2 −(x−µ)2
Z ∞ −(x−µ) Z ∞ Z ∞
4 d4 8 e 2σ2 3e
2σ 2
2 2e
2σ 2
hx i = σ √ dx + 4µ x √ dx − 6µ x √ dx +
dµ4 −∞ 2πσ 2 −∞ 2πσ 2 −∞ 2πσ 2
Z ∞ −(x−µ)2 Z ∞ −(x−µ) 2
Z ∞ −(x−µ) 2

e 2σ 2 e 2σ 2 e 2σ 2
+ 4µ3 x√ dx − µ4 √ dx − 3σ 4 √ dx +
2πσ 2 2πσ 2 2πσ 2
−∞ −∞ −∞
Z ∞ −(x−µ)2 Z ∞ −(x−µ)2 Z ∞ −(x−µ) 2

e 2σ 2 e 2σ 2 e 2σ 2
+ 6σ 2 x2 √ dx − 12σ 2 µ x√ dx + 6σ 2 µ2 √ dx
2πσ 2 2πσ 2 2πσ 2
−∞ −∞ −∞

(2.88)

logo,

d4
h x4 i = σ 8 (1) + 4µh x3 i − 6µ2h x2 i + 4µ3 h x i − µ4 (1) − 3σ 4 (1) +
dµ4
+ 6σ 2 h x2 i − 12σ 2 µh x i + 6σ 2 µ2 (1)

= 3σ 4 + 6σ 2 µ2 + µ4 (2.89)

Com essa ondição, o quarto momento entrado na média, fundamentl para

o ál ulo da kurtosis , dado pela equação 2.26, será:

µ′4 = h x4 i − 4h x3 ih x i + 6h x2 ih x i2 − 3h x i4

= 3σ 4 + 6σ 2 µ2 + µ4 − 4(3µσ 2 + µ3 )µ + 6(σ 2 + µ2 )µ2 − 3µ4

= 3σ 4 (2.90)

por sua vez, a kurtosis , por sua própria denição(equação 2.29) será para a gaussi-

ana:

µ′4 3σ 4
κ= = =3 (2.91)
σ4 σ4

ou seja, tomando a kurtosis ex essiva, subtraindo 3, a gaussiana passa a ter uma

kurtosis :

κ′gaussiana = 3 − 3 = 0 (2.92)
2 Algumas Distribuições de Probabilidades 41

Esses dois resultados, para a skewness e kurtosis da urva gaussiana são

muito importantes pelo fato de que eles são representados por uma quantidade que

não depende dos parâmetros µ ou σ , e por isso, representam um dos testes onáveis

de onvergên ia. É fato que esses testes, valores gaussianos para skewness e kurtosis

omparados, por si só não garantem que uma distribuição qualquer seja gaussiana,

mas são parâmetros que se tornam relevantes por a res entarem mais informações

pre iosas à essas análises.

2.5.3 Distribuições α-estáveis de Lévy

Em 1925, o matemáti o fran ês Paul Lévy es reveu uma distribuição de probabili-

dades mais geral[14℄. As distribuições de Lévy formam um onjunto dependente do

parâmetro α que ajustado forne e diversas distribuições.

As distribuições α-estáveis de Lévy são denidas a partir da função ara te-

rísti a que é dada por[16℄:



exp {ikµ − |ck|α [1 − iβsgn(k)tg(πα/2)]}

 se α 6= 1
fx (k) = (2.93)

exp {ikµ − |ck|α [1 + iβsgn(k)(2 log(k)/π)]} α=1

 se

Aonde α está no intervalo (0, 2] e é o parâmetro ara terísti o das distribuições,

sendo relevante em sua onguração geométri a e em sua auda, β está entre [−1, 1]

e é rela ionado om a assimetria da distribuição, µ em algumas distribuições é re-

la ionado om a média e o parâmetro c>0 é a sua es ala. É possível observar nas

guras 2.10 e 2.11 apenas um apanhado mínimo de possibilidades que as distribui-

ções α-estáveis de Lévy possuem, mostrando a relação que α e β tem om urva

geométri a apresentada por ada distribuição parti ular.


2 Algumas Distribuições de Probabilidades 42

α=0.5
0,6 α=0.75
α=1.0
α=1.25
α=1.5
0,5 α=1.75
α=2.0

0,4
PX(x)

0,3

0,2

0,1

0
-3,0 -1,5 0 1,5 3
x

Figura 2.10: Algumas distribuições provenientes da equação 2.93 para diferentes α e om β =


µ = 0 e om c = 1.
0,4
β=−1.0
0,6 (a) (b) β=−0.5
β=0
0,5 0,3 β=0.5
β=1.0
0,4
Px(x)

0,2
0,3
0,2 0,1
0,1
0 0
-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3

0,25 (c) 0,25 (d)

0,2 0,2
Px(x)

0,15 0,15
0,1 0,1
0,05 0,05
0 0
-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3
x x

Figura 2.11: Algumas distribuições provenientes da equação 2.93 om µ = 0, c = 1, (a) α = 0.5,


(b) α = 1.0, ( )α = 1.5, (d)α = 1.75 e variados valores de β .
2 Algumas Distribuições de Probabilidades 43

É possível observar que as distribuições para α < 2 a sua auda, ou seja,

o seu omportamento assintóti o, não aparenta uma urva expoen ial e sim uma

auda omo lei de potên ia. Essa probabilidade não nula para eventos extremos,

pode ser melhor observado em um eixo semi-log, omo mostram as guras 2.12 e

2.13. É possível também ver que para α = 2 a queda é muito mais a entuada e

possivelmente possa ser um de aimento expoen ial.

1 α=0.5
α=0.75
α=1.0
α=1.25
α=1.5
α=1.75
α=2.0

0,01
log[PX(x)]

0,0001

-10 -5 0 5 10
x

Figura 2.12: Eixo em semi-log da gura 2.10, mostrando omo o de aimento sugere uma lei de
potên ia.

Para α<2 no regime assintóti o, quando x é muito maior, ou menor, que a

média ou seja, na auda da distribuição, o seu omportamento é tipo lei de potên ia,

e dado omo[16℄:

αcα (1 + β)sen(πα/2)Γ(α)/π
PX (x) ∼ . (2.94)
|x|1+α

ou seja, a auda é propor ional a


2 Algumas Distribuições de Probabilidades 44

1 α=0.5
α=0.75
α=1.0
α=1.25
α=1.5
α=1.75
α=2.0

0,01
log[PX(x)]

0,0001

0 5 10 15 20
x

Figura 2.13: Figura voltada à auda, aonde o omportamento em lei de potên ia para α < 2 se
torna mais evidente.

1
PX (x) ∼ . (2.95)
|x|1+α

Esse omportamento em forma de lei de potên ia na auda, permite que

essas distribuições possam mapear problemas ujos quais são formados por eventos

extremos, ou seja, eventos aonde a variável aleatória x toma valores muito fora da

média.

As distribuições α-estáveis de Lévy tentam generalizar um onjunto de dis-

tribuições estáveis, àquelas que possuem a propriedade de que a ombinação linear

de duas variáveis da mesma distribuição resultam nessa mesma distribuição, alte-

rando apenas alguns parâmetros. Apesar de uma lasse bem geral de distribuições,

a equação 2.93 possui apenas 3 soluções analíti as. Para α = 0.5 e β = 1, a solução

é hamada de distribuição de Lévy-Smirnov. Com α = 1 e β = 0, a solução é a


2 Algumas Distribuições de Probabilidades 45

distribuição de Cau hy, ou por vezes hamada de Lorentziana. Por m, e não menos

importante, para α = 2, a distribuição resultante da transformada de Fourier é a

distribuição Gaussiana.

É possível demonstrar ada uma dessas soluções.

A função ara terísti a para a distribuição de Lévy-Smirnov parte da função

ara terísti a das distribuições α-estáveis de Lévy, om α = 0.5 e β = 1, omo

armado. Dessa forma a função no espaço de momentos será:


fx (k) = eikµ− −2ick
(2.96)

Sendo assim, por denição, a função densidade de probabilidade é dada pela

transformada inversa de Fourier, e portanto toma a forma:

Z ∞ √
1
P (x) = eikµ− −2ick e−ikx dk (2.97)
2π −∞
Z ∞ √
1
= eikµ− −2ick−ikx dk
2π −∞
Z ∞ √
1
= e−ik(x−µ)− −2ick dk
2π −∞
Z ∞ √
1
= e−[ik(x−µ)+ −2ick] dk
2π −∞

denindo:

y = i(x − µ) (2.98)

z = −2ic (2.99)

a integral se torna visualmente mais simpli ada:

∞ √
1
Z
P (x) = e−(ky+ kz)
dk (2.100)
2π −∞

am de simpli ar a integral mais uma vez, é possível fazer o seguinte rearranjo
2 Algumas Distribuições de Probabilidades 46

matemáti o:

√ p 2 p  r z  r z 2 r z 2
ky + kz = ky +2 ky + − (2.101)
4y 4y 4y
 2
z z
p r
= ky + − (2.102)
4y 4y
Com esse rearranjo a equação 2.100 será dada por:
( " r 2 #)

1 z z
Z p
P (x) = exp − ky + − dk (2.103)
2π −∞ 4y 4y
z Z ∞ √ √ 2
e 4y − z
ky+ 4y
P (x) = e dk (2.104)
2π −∞

Para resolver essa integral, é possível fazer uma mudança de variável que onsidere

a solução positiva, ou seja:

p u2 2u
−u = ky ⇒ k = −→ dk = du (2.105)
y y
z
r
θ = (2.106)
4y
e om isso a equação 2.104 será dada por:

2 ∞

Z
2
P (x) = ue−(−u+θ) du (2.107)
yπ −∞

que pode ser reorganizada de uma forma mais familiar:


(−u+θ)2
− √
θ2 ∞
e ue 2( 1/2)2
Z q p
P (x) = 2
2π( 1/2) q p du (2.108)
yπ −∞ 2π( 1/2)2
2
√ Z ∞θ2
(−u+θ)
− √
2( 1/2)2
e π ue
= q p du (2.109)
yπ −∞ 2π( 1/2)2
2

= √ hui (2.110)
y π
observando as equações gaussianas, é possível notar que h u i = θ, logo

2

P (x) = √ (θ) (2.111)
y π
2
θeθ
= √ (2.112)
y π
2 Algumas Distribuições de Probabilidades 47

Pela equação 2.106, a função será:

z
e 4y z
r
P (x) = √ (2.113)
y π 4y

e usando as equações 2.98 e 2.99, é possível retornar as variáveis originais:

−2ic
s
e 4i(x−µ) −2ic
P (x) = − √
[i(x − µ)] π 4i(x − µ)
−c r
e 2(x−µ) −c
= √
[i(x − µ)] π 2(x − µ)
−c
e 2(x−µ) c
r
= √ i
[i(x − µ)] π 2(x − µ)
−c
e 2(x−µ) c
r
= √
(x − µ) π 2(x − µ)
r −c
c e 2(x−µ)
= (2.114)
2π (x − µ)3/2

Formalizando a distribuição de Lévy-Smirnov.

Na gura 2.14 pode-se veri ar algumas urvas que seguem a função dada

pela equação 2.114, mostrando a ara terísti a de auda omo lei de potên ia e

também a sua lara assimetria, provo ada pelo fator β.

Avançando os valores de α uja solução da função ara terísti a é analíti a,

surge a distribuição de Cau hy, ou algumas vezes onhe ida omo distribuição de Lo-

rentz, ou Lorentziana. Para essa distribuição α = 1 e β = 0. A função ara terísti a

então será dada por:




eikµ−ck

 se k>0
fx (k) = eikµ−|ck| = (2.115)

eikµ+ck k<0

 se

Tomando então a transformada de Fourier am de determinar a função den-


2 Algumas Distribuições de Probabilidades 48

c=0.5 e µ=0
c=1 e µ=0
0,8 c=0.5 e µ=1
c=1.5 e µ=−2

0,6
PX(x)

0,4

0,2

0
-4 -2 0 2 4
x

Figura 2.14: A distribuição de Lévy-Smirnov para algns parâmetros

sidade de probabilidade:

Z ∞
1
P (x) = eikµ−|ck| e−ikx dk
2π −∞
Z ∞ Z 0
1 ikµ−ck −ikx 1
= e e dk + eikµ+ck e−ikx dk
2π 0 2π −∞
Z ∞ Z 0
1 −k[i(x−µ)+c] 1
= e dk + ek[−i(µ−x)+c] dk
2π 0 2π −∞
∞  k[−i(x−µ)+c] 0
1 −e−k[i(x−µ)+c]

1 e
= +
2π [i(x − µ) + c] 0 2π [−i(x − µ) + c] −∞
1 1
= +
2π[i(x − µ) + c] 2π[−i(x − µ) + c]
i(x − µ) + c − i(x − µ) + c
=
2π[i(x − µ) + c][−i(x − µ) + c]
2c
= (2.116)
2π{−[i(x − µ)]2 + c2 }

Portanto, a distribuição de Cau hy tem omo função densidade de probabilidade a

sequinte equação:

c
P (x) = (2.117)
π[(x − µ)2 + c2 ]
2 Algumas Distribuições de Probabilidades 49

Na gura 2.15 é possível observar algumas das várias fa es que a distribuição

de Cau hy apresenta. É interessante observar que em todas elas a auda da distri-

buição é laramente uma auda grossa, ou seja, om uma queda que não se es reve

omo exponen ial e sim omo lei de potên ia.

0,8

c=0.5 e µ=0
0,7
c=1.0 e µ=0
c=0.5 e µ=1
0,6 c=1.5 e µ=−2

0,5
PX(x)

0,4

0,3

0,2

0,1

0
-4 -2 0 2 4
x

Figura 2.15: A distribuição de Cau hy para alguns parâmetros

Por m, entre as soluções analíti as da função ara terísti a, para α = 2

surge a urva gaussiana. Partindo da função ara terísti a om esse parâmetro:

2 2 k2
fx (k) = eikµ−(|ck|) = eikµ−c (2.118)

Dessa forma a função densidade de probabilidade gaussiana, que é dada pela

transformada de Fourier da equação será portanto:

Z ∞
1 2 2
P (x) = eikµ−c k e−ikx dk
2π −∞
Z ∞
1 2 2
= e−ik(x−µ)−c k dk
2π −∞
Z ∞
1 2 2
= e−[ik(x−µ)+c k ] dk (2.119)
2π −∞
2 Algumas Distribuições de Probabilidades 50

Logo, é possível ompletar o quadrado dentro da exponen ial am de resolver a

intergral, omo foi feito anteriormente om a distribuição de Lévy-Smirnov. Sendo

assim, om y = i(x − µ):

 y 2  y 2
ky + c2 k 2 = ky + c2 k 2 + −
2c 2c
 y  2  y  2
= ck + − (2.120)
2c 2c

Então, a equação 2.119 om a reformulação proposta na equação 2.120, será:

Z ∞ h
1 y 2 y 2
i
− (ck+ 2c ) −( 2c )
P (x) = e dk
2π −∞
y 2 Z
e( 2c ) ∞
y 2
= e−(ck+ 2c ) dk
2π −∞
y 2 √
e( 2c ) π
= (2.121)
2π c

Como y = i(x − µ), logo:

i(x−µ) 2 √
e( 2c ) π
P (x) =
2π c
−(x−µ)2 √
e 4c2 π
= (2.122)
2π c

reorganizando os fatores, am de mostrar uma equação similar à 2.67:

−(x−µ)2

e 2( 2c)2
P (x) = q √ (2.123)
2π( 2c)2

aonde é trivial notar que σ= 2c. Algumas das diferentes formas que a distribuição

gaussiana pode ter, são observadas na gura 2.9, apresentada anteriormente nessa

mesma tese.
2 Fra talidade em Séries temporais 51

2.6 Fra talidade em Séries temporais


Uma propriedade muito interessante, presente em diversos sistemas matemáti os, bi-

ológi os, e onmi os e algumas séries temporais[20, 21, 22, 23℄, a auto-similaridade.

Tais sistemas, quando tem sua es ala alterada apresentam o mesmo padrão, ou seja,

a auto-similaridade impli a em uma invariân ia por es ala, podendo ser dis reta ou

ontínua.

Auto-similaridade é uma propriedade típi a de sistemas hamados fra tais.

Além da auto-similaridade, fra tais também apresentam dimensão topológi a pre-

sente no onjunto dos reais, diferente de outros padrões geométri os que possuem

sua dimensão em um dado número natural.

Estrutura Auto-similar Dinâmica Auto-similar


Frequência cardíaca(bpm)
Frequência cardíaca(bpm)
Frequência cardíaca(bpm)

Figura 2.16: Representação ilustrativa da auto-similaridade presente em guras geométri as e


séries temporais. Adaptada de [24℄
2 Fra talidade em Séries temporais 52

A auto-similaridade apresenta algumas limitações em asos reais, pois estru-

turas reais, não são innitas, e portanto não podem se omportar omo innitas.

Além disso é possível que o sistema tome uma ara terísti a muito distinta quando

a es ala é arbitrariamente alterada, de tal forma que os padrões antes existentes,

não possam mais ser observados. Um exemplo são os galhos de algumas árvores e

suas rami ações, a auto-similaridade é apresentada nesse ontexto, mas ao atingir

o nível mole ular, esse padrão usualmente se perde, tomando um outro formado

espe í o.

Para uma série temporal, o prin ipal objeto de estudo dessa tese, dene-se

omo uma série auto-similar aso a mesma satiszer a propriedade de invariân ia

por es ala. Esse ontexto pode ser es rito omo:

 
d κt
X(t) ≡ a X (2.124)
a

onde, X(t) é uma série de variáveis aleatórias x, que são organizadas em uma
d
sequên ia ronológi a, ≡ impli a que as propriedades estatísti as de ambos os lados

da igualdade são estatisti amente similares ou idênti as, a é um parâmetro qualquer

utilizado arbitrariamente para alterar a es ala da série e o expoente κ é denominado

parâmetro de auto-similaridade da série temporal.

A denição formalizada impli a que uma série temporal será auto-similar se

e somente se, os dados da série, as variáveis aleatórias x for rees alado na forma:

x → aκ x, e o eixo temporal, que dene a amostragem, for rees alado por um fator

t
a (t → a
), e a série resultante possuir as mesmas propriedades estatísti as que a

original.

Em 1951, Hürst, um hidrólogo inglês, estudo a série temporal da apa idade

armazenamento de água vinda do Rio Nilo no Egito e observou que existia uma lara
2 Fra talidade em Séries temporais 53

dependên ia temporal segundo uma lei de potên ia. Hürst, om dados empíri os,

que dado uma quantidade Q(t) de volume de água, um re ipiente deverá ter uma

amplitude R(t). Se o desvio padrão da série temporal for S(t), Hürst observou que

a razão R/S era propor ional a tH , aonde H, ele mediu omo sendo 0,7[25℄.

Leis de potên ia são funções que estão diretamente rela ionadas om algumas

propriedades fra tais, é fá il notar que uma função f (x) = xη possui ara terísti as

auto-similares, pois se x for rees alado por um fator a, é trivial que: f (ax) = (ax)η =

aη xη = aη f (x).

Nesse ontexto o expoente de Hürst, H, foi utilizado em análises de outras

séries temporais[26℄ e um outro método foi desenvolvido, am de eliminar algumas

tendên ias que provo avam erros no método R/S , o método DFA[27℄. O método

DFA(Detrend Flu tuation Analysis ) onsiste em forne er o expoente de Hürst rela-

ionado a uma dada série temporal.

Dada uma série temporal, o primeiro passo para a análise DFA é integrar a

série temporal, x(t) om N pontos, ou seja, o tempo total será N, obtendo a função:

t
X
y(t) = (xt′ − h x i); (2.125)
t′

onde temos t = 1, . . . , N .

Com a nova série, y(t), basta dividi-la em Nτ intervalos temporais não su-

perpostos de tamanho τ. Através de uma regressão do n-ésimo segmento(n =

1, . . . , Nτ ), é determinado o melhor ajuste para a tendên ia lo al da série yn (i),

i = 1, . . . , τ . Por denição o segundo momento para o n-ésimo segmento é dado por:

τ
1X
F2 (n, τ ) ≡ |y((n − 1)τ + i) − yn (i)|2 . (2.126)
τ i=1
2 Fra talidade em Séries temporais 54

Portanto a utuação para a série ompleta se es reve:


1 X
F2 (τ ) = F2 (n, τ ). (2.127)
Nτ n=1

E dessa forma,  a laro o apare imento de uma lei de potên ia envolvendo o parâ-

metro τ, que possui dimensão de tempo, e o expoente de Hürst, na forma:

F2 (τ ) ∼ τ 2H (2.128)

Essa é uma analise mais sensível e sem tendên ias, restrita apenas pela quan-

tidade de dados, que pode indi ar uma estatísti a pobre e resultados aquém da re-

alidade. O expoente de Hürst também é rela ionado om a dimensão fra tal do

sistema, de tal forma que:

d= 2−H (2.129)

Para alguns sistemas, no entanto, se faz ne essária uma análise de um espe -

tro ontínuo de expoentes de es ala, generalizando assim o expoente de Hürst. Tais

sistemas usualmente estão próximos a transições de fase, ou são rela ionados a or-

relações de longo al an e inerentes ao sistema[28℄. Esses sistemas são hamados de

multifra tais e para essa análise é denido o expoente de Hürst generalizado, H(q),

depende do q -ésimo momento, aonde a notação de q omo momento, é orriqueira

na literatura desse sistema. O método DFA agora é generalizado ao método MF-

DFA(Multifra tal Detrended Flu tuation Analysis ), de tal forma que a utuação é

denida para o q -ésimo momento omo sendo:


1 X
Fq (τ ) = [F2 (n, τ )]q/2 , (2.130)
Nτ n=1

e a utuação es ala om:

Fq (τ ) ∼ τ qh(q) , (2.131)
2 Fra talidade em Séries temporais 55

Essa análise explora os valores de q dentro do espaço real e faz om que grandes u-

tuações se sobressaiam para q positivo, e as pequenas utuações sejam ontribuídas

para momentos negativos.

Outra té ni a utilizada para determinar as propriedades multifra tais do sis-

tema é o ál ulo do espe tro de singularidades, f (α), aonde α é o índi e de sin-

gularidade, ou também hamado de expoente de Hölder [29, 19, 30℄. A dimensão

multifra tal generalizada é dada por:

1
Dq = [qα(q) − f (α(q))]. (2.132)
q−1

de tal forma que é possível al ular que:

d
[(1 − q)Dq ] = α, (2.133)
dq

usando o postulado que f ′ (α) = q . Seja portanto

β(q) = (1 − q)Dq (2.134)

logo é possível es rever que:

f (α) = qα − β(q). (2.135)

é possível rela ionar β om o expoente de Hürst segundo[31℄:

β(q) = qh(q) − 1. (2.136)

Dessa maneira, é possível determinar via MF-DFA o expoente de Hürst e em seguida

a função do espe tro de singularidade, f (α). A gura 2.17 mostra o padrão presente

nas análises multifra tais do espe tro multifra tal. Quando mais largo se mostra

a urva, maior o intervalo de expoentes ríti os presentes no sistema, aso a urva

tenda a uma largura nula, o sistema tem apenas um expoente de Hölder, e portanto
2 Fra talidade em Séries temporais 56

um expoente de Hürst apenas e por isso é um sistema monofra tal, ao invés de

multifra tal.

D0
f(α)

αmin= D+ α0 αmax= D-
α(q)

Figura 2.17: Exemplo do omportamento de f (α) em relação a α. Adaptada de[19℄


Capítulo 3

O Teorema do Limite Central e as


Seções de Lévy

No presente apítulo será apresentada as bases pertinentes ao fo o prin ipal da tese,

o Teorema do Limite Central em sua forma lássi a e uma versão generalizada do

mesmo, o Teorema das Seções de Lévy. Os teoremas serão anun iados e seguidos

por suas respe tivas provas formalizadas.

3.1 Teorema do Limite Central(TLC)


O teorema do limite entral em sua forma lássi a foi amplamente dis utido por

Lapla e no sé ulo XVII e outros diversos pensadores da área de estatísti a e mate-

máti a. O teorema do limite entral arma que:

Teorema 1 Seja um onjunto Cn = X1 ; X2 ; . . . ; Xn om n variáveis aleatórias inde-

pendentes e igualmente distribuídas(i.i.d.), om média e variân ias nitas, o desvio

da média aritméti a tem uma distribuição que se aproxima da urva normal, ou

57
3 Teorema do Limite Central(TLC) 58

Gaussiana, a medida que n tende ao innito.

Pode-se fazer uma releitura do teorema denindo Sn omo o desvio da média

na forma:

n n
X1 + X2 + . . . + Xn X (Xi − nh X i) X
Sn = − hX i = = si , (3.1)
n i
n i

e o teorema 1 diz que:

nSn 2
n − 2σ
r
2
lim PX (Sn ) = 2
e X (3.2)
n→∞ 2πσX
Com o teorema apresentado, segue uma das provas elegantes do mesmo, via

transformada inversa de Fourier, que muito se pare e om a prova da lei fra a dos

grandes números[32℄, outro importante resultado em estatísti a, mas que não será

tratado aqui imediatamente.

Prova do Teorema Considere a transformada inversa de Fourier

Z ∞
−1
F [PX (Sn )] = e2iπSn X P (X)dX
−∞

∞ X
(2iπSn X)l
Z
= P (X)dX
−∞ l=0 l!

(2iπSn )i ∞ l
X Z
= X P (X)dX
l=0
i! −∞

X (2iπSn )l
= h Xl i (3.3)
l=0
l!

denindo que:
* l +
(X1 + X2 + . . . + Xn )
h Xl i =
n
= h n−l (X1 + X2 + . . . + Xn )l i
Z ∞
= n−l (X1 + X2 + . . . + Xn )l P (X1 ) . . . P (Xn )dX1 . . . dXn (3.4)
−∞
3 Teorema do Limite Central(TLC) 59

Logo da equação 3.3 temos:


X (2iπSn )
F −1 [PX (Sn )] = h Xl i
l=0
l!
∞ ∞
(2iπSn )
X Z
= n−l (X1 + X2 + . . . + Xn )l P (X1 ) . . . P (Xn )dX1 . . . dXn
l=0
l! −∞
h il
∞ (2iπSn (X1 +X2 +...+Xn )
Z ∞ X n
= P (X1 ) . . . P (Xn )dX1 . . . dXn
−∞ l!
Z ∞ l=0
h
(2iπSn (X
i
1 +X2 +...+Xn )
= e n
P (X1 ) . . . P (Xn )dX1 . . . dXn
−∞
Z ∞  Z ∞ 
2iπSn X1 /n 2iπSn Xn /n
= e P (X1 )dX1 . . . e P (Xn )dXn
−∞ −∞

Z ∞ n
−1 2iπSn X/n
F [PX (Sn )] = e P (X)dX
−∞
"Z ∞
#n
∞ X (2iπSn X/n)l
= P (X)dX
−∞ l=0 l!
(Z " 2 # )n
∞  
1 2iπSn2iπSn 2
= 1+ X+ X + . . . P (X)dX
−∞ 2 n n
"  2 #n
2iπSn 1 2πSn
= 1+ hX i− h X2 i + . . .
n 2 n
( "  2 #)
2iπSn 1 2πSn
= exp n ln 1 + hX i− h X2 i + . . . (3.5)
n 2 n

Sabendo que para z≪1 logo,

1 1
ln(1 + z) = z − z 2 + z 3 + . . . (3.6)
2 3

nesse aso da equação 3.5 obtem-se que

 2
2iπSn 1 2πSn
z= hX i− h X2 i + . . . ,
n 2 n

isso porque n é muito grande e tende ao innito. Desprezando os termos de ter eira

ordem em diante:
3 Teorema do Limite Central(TLC) 60

 2 ! 2 
2iπSn 1 2πSn 2 2πSn
2iπSn 1
ln 1 + hX i− hX i = h X2 i −
hX i−
n 2 n nn 2
 2 !2
1 2iπSn 1 2πSn
− hX i− h X2 i
2 n 2 n
 2  2
2iπSn 1 2πSn 1 2πSn
= hX i− 2
hX i + h X i2
n 2 n 2 n

logo:

 2 !  2
2iπSn 1 2πSn 2iπSn 1 2πSn
2
h X i2 − h X 2 i

ln 1 + hX i− hX i = h X i+
n 2 n n 2 n
(3.7)

Apli ando a equação 3.7 no obtido na equação 3.5:

( "  2 #)
2iπS n 1 2πS n
F −1 [PX (Sn )] = exp n h X i2 − h X 2 i

hX i+
n 2 n
" #
1 (2πSn )2
h X i2 − h X 2 i

= exp 2iπSn h X i +
2 n
" #
1 (2πSn )2 2
= exp 2iπSn h X i − σX (3.8)
2 n

Tomando agora a transformada de Fourier, en ontra-se a função original,

pois a transformada de Fourier da transformada inversa de Fourier é a função em

questão. Logo:

Z ∞
PX (Sn ) = e−2iπSn X F −1 [PX (Sn )]dSn
Z−∞
∞ 2
1 (2πSn ) 2
= e−2iπSn X e2iπSn <X>− 2 n
σX
dSn
Z−∞
∞ 2
1 (2πSn ) 2
= e2iπSn (<X>−X)− 2 n
σX
dSn
−∞
3 Teorema do Limite Central(TLC) 61

que é uma integral gaussiana do tipo:


r
π
Z
iay−by 2 −a2 /4b
e dy = e (3.9)
−∞ b
onde para usualmente é es rito a = 2π(h X i − X) e b = (2πσX )2 /2n, logo,

s
−[2π(h X i − X)]2
 
π
PX (Sn ) = (2πσX )2
exp
4(2πσX )2 /2n
2n

n − n(X−<X>)
r
2σ 2
= 2
e X
2πσX
nSn 2
n − 2σ
r
2
= 2
e X (3.10)
2πσX
Que en erra a prova formalizada do teorema.

3.1.1 Alguns exemplos de onvergên ias via TLC

Na seção 2.5.2 foi mostrado omo a distribuição Gaussiana é dada no limite quando

né muito grande na distribuição binomial, isso em si é um exemplo de apli ação do

TLC. Agora om a prova formalizada, pode-se observar omo o teorema é visto em

várias ombinações de variáveis aleatórias que sejam i.i.d(independentes e igualmente

distribuídas).

O primeiro exemplo é mostrar que o teorema é válido quando são usadas

variáveis aleatórias distribuídas segundo uma gaussiana. Seja Sn = X1 +X2 +. . .+Xn

e Z uma variável que seja a soma de duas variáveis dentro do onjunto X, logo:

Z = Xk + Xl , (3.11)

então, a probabilidade onjunta de Xk e Xl é:

1 2 /2σ 2 1 2 /2σ 2
P (Xl , Xk ) = P (Xl )P (Xk ) = p 2
e−[Xl −<X>] X p
2
e−[Xk −<X>] X ,
2πσX 2πσX
(3.12)
3 Teorema do Limite Central(TLC) 62

ou seja,

1 −([Xl −<X>]2 +[Xk −<X>]2 )/2σX2


P (Xl , Xk ) = 2
e (3.13)
2πσX

A distribuição para Z será:


1 1
Z
2 2 2 2
P (Z) = p
2
e−[Xl −<X>] /2σX p 2
e−[Z−Xl −<X>] /2σX dXl , (3.14)
−∞ 2πσX 2πσX

portanto:


[Xl − h X i]2 + [Z − Xl − h X i]2
 
1
Z
P (Z) = 2
exp − 2
dXl (3.15)
−∞ 2πσX 2σX

expandindo os produtos notáveis:

[Xl − h X i]2 + [Z − Xl − h X i]2 = Xl2 − 2Xl h X i + h X i2 + (Z − Xl )2

− 2(Z − Xl )h X i + h X i2

= Xl2 − 2Xl h X i + h X i2 + Z 2 − 2ZXl + Xl2 − 2Zh X i

+ 2Xl h X i + h X i2

= 2Xl + 2h X i2 + Z 2 − 2ZXl − 2Zh X i


Z2 Z2
= 2Xl + 2h X i2 + Z 2 − 2ZXl − 2Zh X i + −
2 2
Z2 Z 2
= 2Xl − 2ZXl 2 + + h X i2 − 2Zh X i +
2 2
2  2
√ √

Z Z
= 2Xl − √ + √ − 2h X i
2 2
 2
Z 1
= 2 Xl − − (Z − 2h X i)2 (3.16)
2 2

Para a probabilidade então:

2
∞ (Xl − Z2 ) − (Z−2<X>)
2
1 −
Z
σ2 2
P (Z) = 2
e X e 4σ
X dXl (3.17)
−∞ 2πσX
3 Teorema do Limite Central(TLC) 63

Isolando a integral gaussiana:

2
− (Z−2<X>)
2 ∞ (Xl − Z2 )
2

e 4σ
Z
X −
σ2
P (Z) = 2
e X dXl (3.18)
2πσX −∞

Resolvendo a integral gaussiana, o resultado será:

2
− (Z−2<X>)
2
e 4σ
X
q
2
P (Z) = 2
σX π
2πσX
2
1 − (Z−2<X>)
2
= p 2
e 4σ
X (3.19)
4πσX

Ou seja, a soma de duas variáveis aleatórias independentes e distribuídas

pela mesma distribuição gaussiana, é uma outra distribuição gaussiana, então aso

sejam somadas N variáveis, omo arma o TLC, obtêm-se também uma distribuição

gaussiana.

Essa ara terísti a de distribuições Gaussianas em estatísti a é um on eito

muito importante, o da estabilidade de uma distribuição. Uma distribuição é dita

estável se:

S2 = X 1 + X 2 , (3.20)

e S2 , X 1 e X2 seguem a mesma distribuição estatísti a. Como mostrado nesta seção,

a distribuição gaussiana segue exatamente esses parâmetros.

Um outro exemplo anni o de uma distribuição bem onhe ida que também

onverge para a gaussiana om n grande, é a distribuição de Poisson.

Considere a seguinte distribuição de Poisson denida por:

µn −µ
P (n) = e (3.21)
n!

Tomando o logaritmo natural em ambos os termos da equação observa-se:


3 Teorema do Limite Central(TLC) 64

ln P (n) = −µ + n ln µ − ln n! (3.22)

Onde pela fórmula de Stirling om n → ∞,

n 

 
n
ln n! = n ln n − n = ln 2nπ
exp

= n ln n − n + ln( 2nπ) (3.23)

Logo:


ln P (n) = −µ + n ln µ − n ln n + n − ln( 2nπ) (3.24)

Pode-se denir o desvio da média omo sendo

z = n − µ,

deixando o valor médio tender a innito e tratando z/µ omo muito pequeno, mas

z 2 /µ nito. Com essas denições:

p
ln P (n) = −µ + (µ + z) ln µ − (µ + z) ln(µ + z) + µ + z − ln 2π(µ + z)
p
= (µ + z) ln µ − (µ + z) ln(µ + z) + µ + z − ln 2π(µ + z)
 
z p
= (µ + z) ln 1 − + z − ln 2πµ
µ+z
z2
 
z p
= (µ + z) − +− + z − ln 2πµ
µ+z 2(µ + z)2
z2 p
∼ − − ln 2πµ, (3.25)

usando a expansão do logaritmo natural e o fato de que z ≪ µ, e isolando P (n):


3 Teorema do Limite Central(TLC) 65

1 −z 2 /2µ
P (n) = e , (3.26)
2πµ

exatamente uma distribuição gaussiana, omo armado anteriormente.

Por m pode-se observar o TLC de uma maneira bem didáti a e pou o abor-

dada por livros texto, o simples lançar de dados não vi iados. Considere um dado

de 6 fa es mar adas om números de 1 até 6. Ao rolar esse dado uma úni a vez são

per ebidas 6 possibilidades iguais de ter alguma das fa es, por ele não ser vi iado.

Por tanto os pontos mostram a distribuição uniforme de probabilidade na gura 3.1.

Probabilidades para 1 Dado

0,3

0,25

0,2
Probabilidade

0,15

0,1

0,05

1 2 3 4 5 6
Sorteido do Dado

Figura 3.1: Probabilidades para 1 Dado

A medida que são a res entado novos dados justos, visualmente é laro per-

eber que a urva omeça a tomar uma forma bem ara terísti a om a gassiana. A

gura 3.2 forne e a noção dessa es ala.

Os ál ulos de onvergên ia são similares aos mostrados para a distribuição


3 Teorema do Limite Central(TLC) 66

0,2

0,15 3 Dados
2 Dados
0,15
0,12
Probabilidade

Probabilidade
0,1 0,09

0,06
0,05

0,03
0,08
0
0 2 4 6 8 10 12 14 0
10 dados 4 8 12 16
Soma 0,06 Soma
Probabilidade

0,04

0,12

0,15 0,02
5 Dados
0,09
4 Dados

Probabilidade
0,12
0
10 20 30 40 50 60
Soma
Probabilidade

0,09 0,06

0,06
0,03

0,03

0
0 5 10 15 20 25 30
0 5 10 15 20 25 Soma
Soma

Figura 3.2: Várias jogadas de dados

binomial, mas, um pou o mais omplexos, pois se tratam de 6 possibilidades a

ada passo. Para não tornar o trabalho repetitivo e mostrar uma onvergên ia já

dis utida, a probabilidade para n jogadas é

6 ⌋
⌊ x−n   
1 X i n x − 6i − 1
Pn (x) = n (−1) , (3.27)
6 i=0 i n−1

onde x é o número sorteado no dado, e a função ⌊k⌋, es olhe o maior inteiro menor

que k , é a hamada função hão. Usando a fórmula de Stirling para fatoriais quando

n → ∞, é possível mostrar a onvergên ia.


3 As seções de Lévy 67

3.2 As seções de Lévy


Em 1935 Paul Lévy publi ou um trabalho onde ele apresenta um teorema hamado

Teorema das Seções de Lévy[33℄, tal teorema é baseado em uma generalização do

TLC. Nesse enfoque, Lévy mostrou omo variáveis aleatórias que não eram ne es-

sariamente independentes, onvergiam também para uma distribuição gaussiana,

levando em onta suas variân ias.

3.2.1 O Teorema das Seções de Lévy(TSL)

O teorema das seções de Lévy, proposto por Paul Lévy[34℄, onduz a uma maneira

mais abrangente de se tratar a onvergên ia de sistemas para o regime gaussiano.

Usualmente esse teorema é muito onfundido om as distribuições de Lévy e suas

inúmeras apli ações, na verdade o TSL, vem tratar, assim omo o CLT, de omo

variáveis aleatórias onvergem para distribuições normais de probabilidade, om a

diferença que esse teorema ontempla distribuições om variân ia innita e variáveis

aleatórias orrela ionadas.

Para entender o teorema onsidere o seguinte exemplo[35℄: Seja uma adeia

de variáveis aleatórias Xn , a probabilidade ondi ional de obter uma realização xn+1

de Xn é bem onhe ida e pode ser des rita omo P (xn+1 |x1 , x2 , . . . , xn ), logo pode-se

al ular a média de Xn+1 omo sendo:

Z ∞
µn = xn+1 P (xn+1 |x1 , x2 , . . . , xn )dxn+1 . (3.28)
−∞

No aso da variân ia, omo está sendo admitindo uma distribuição qualquer,
3 As seções de Lévy 68

que possa ter uma variân ia innita, pode-se denir uma variân ia lo al na forma:

m2n = h Xn+1
2
i − h Xn+1 i2
Z ∞ Z ∞ 2
2
= xn+1 P (xn+1 |x1 , x2 , . . . , xn )dxn+1 − xn+1 P (xn+1 |x1 , x2 , . . . , xn )dxn+1
−∞ −∞
Z ∞
= x2n+1 P (xn+1 |x1 , x2 , . . . , xn )dxn+1 − µ2n+1 (3.29)
−∞

Claramente as duas quantidades aqui des ritas dependem fundamentalmente

das n realizações anteriores a xn+1 . Para melhor lareza, dene-se a quantidade λn :


n
X
λn = m2i (3.30)
i=1

Ou seja, somando todos as variân ias lo ais das n realizações anteriores a xn+1 .

Agora seja t um número denido positivo, e um inteiro p de tal maneira que ele

satisfaça a ondição:

λp−1 ≤ t < λp . (3.31)

Dessa forma o onjunto de realizações ompreendida de x1 à xp é um onjunto

perten ente a seção t uja denição parte da ondição da seção t representada pela
equação 3.31.

Dada essas ondições, agora dene-se uma nova variável aleatória que é uma

série St dada omo

St = x1 + . . . + xp (3.32)

om os p elementos perten entes a seção t. A variân ia de St é dada por:

Mt2 = h St2 i − h St i2 . (3.33)

Dessa forma o teorema das seções de Lévy é anun iado omo[34℄:


3 As seções de Lévy 69

Teorema 2 (TSL) Para uma média lo al nula, ou seja, µn = 0 e para variáveis

aleatórias que satisfaçam a ondição de Lindeberg(apêndi e A), a distribuição para

S
a variável √t é dada por:
t

  η
S 1
Z
−x2
lim P √t < η =√ e 2 dx (3.34)
t→∞ t 2π −∞

Sendo assim o teorema estende a sua apli ação para até variáveis orrela ionadas,

algo não permitido no TLC em sua forma lássi a. Para ompreender omo se dá a

ação do teorema de Lévy, segue a prova apresentada pelo próprio Lévy em 1935[34℄.

Prova do Teorema Considere uma sequên ia de variáveis aleatórias om a pro-

priedade:

E(X1 ) = 0 (3.35)

..
E(Xν |X1 , . , Xν−1 )) = 0 (3.36)

..
om ν = 2, 3, . . Ao invés de onsiderar a suma usual das variáveis Xν , Lévy

onsiderou uma soma do tipo:

N (t)
X
S(t) = Xν , (3.37)
ν=1

onde N(t) é um número aleatório denido por:

 
..
N(t) = min n ∈ N|m21 + m22 + . + m2n ≥t (3.38)

e té um número positivo que Lévy interpretou omo sendo o tempo ne essário para

a onvergên ia de um erto número de tentativas.


3 As seções de Lévy 70

Dessa forma, pode-se denir uma nova variável aleatória, Xν′ , de tal forma

que: 

X

 √ν
t
se ν ≤ N(t)
Xν′ = (3.39)

0

 aso ontrário

Sendo assim a variân ia será:



2

 mν


t
se ν ≤ N(t)
m′2
ν = (3.40)

0

 aso ontrário

De posse dessas novas variáveis:

n
X ∞
X
Xk′ + m′j ξj + Z = Sn′ + Rn′ + Z, (3.41)
k=1 j=n+1

onde ξj é uma variável aleatória distribuída gaussianamente e Z obede e uma dis-

tribuição F que deve ser bem omportada e om derivadas de até ter eira ordem

nitas. É importante onsiderar que as variáveis ξj , Z e Xν , são mutualmente

independentes, o que não o asiona perda de generalidade. Logo:

P (Sn′ + Rn′ + Z < η) − P (Sn−1


′ ′
+ Z < η) ≤ MAX{Xn′ }m′n 2,

+ Rn−1 (3.42)

om η ′ = Sn′ +Rn′ +Z , e usando a onvolução, já antes mostrada, al ula-se P (η ′ < η).

Dessa maneira, voltando as variáveis originais:


X n n
X n
X
′ ′ ′
P ( Xν + Z < η) − P ( mν ξν + Z < η) ≤ MAX{Xn } m′ν 2, (3.43)


ν=1 ν=1 ν=1

om o an elamento de termos repetidos.


3 As seções de Lévy 71

Tomando o limite quando n tende ao innito, om as propriedades das equa-

ções 3.39 e 3.40, logo


N (t) N (t) N (t)
X X X
′ ′ ′
m′ν 2

P ( X ν + Z < η) − P ( m ξ
ν ν + Z < η) ≤ MAX {X n } (3.44)

ν=1 ν=1 ν=1

tro ando as variáveis om linha para variáveis sem linha:


N (t) N (t) N (t)
X m2

X Xν X mν ξν MAX{Xn } ν
P ( √ + Z < η) − P ( √ + Z < η) ≤ √ (3.45)
ν=1 t

ν=1
t t ν=1
t

PN (t)
Por denição a soma das variáveis Xn u, é S(t) e pode-se tomar omo ν=1 m2ν = t,

pela equação 3.38. Sendo assim:



N (t)
S(t) X mν ξν MAX{Xn }
P ( √ + Z < η) − P ( √ + Z < η) ≤ √ (3.46)

t ν=1
t t

Tomando t para innito, o termo da desigualdade se anula e temos nalmente

que:

S(t)
lim P ( √ + Z < η) = P (Ξ + Z < η), (3.47)
t→∞ t
Como Z é uma função arbitrária que pode ser es olhida omo pequena e Ξ segue

uma distribuição gaussiana, assim se dá a prova.

3.2.2 TSL apli ado à séries temporais

O TSL foi mostrado para o aso de variáveis ontínuas, mas este trabalho está fo ado

em estudar séries temporais, ou seja, onjuntos dis retos de variáveis esto ásti as,

sendo assim, é ne essário re-es rever o TSL para o aso de séries de números.
3 O Teorema do Limite Central Clássi o vs Teorema das Seções de Lévy 72

Considerando uma série de N realizações da variável aleatória Xi , é pre iso

al ular a seção t dessa série temporal, para isso ini ialmente al ula-se a variân ia

lo al, o mn . Deni-se então uma nova série[35, 36, 37℄ {x′1 , x′2 , . . . , x′n−2η } om uma

relação entre nova série e a série antiga, na forma x′k = xk+η . Tal nova série tem

2η elementos a menos, retirando os primeiros e últimos η números. Dessa forma é

possível denir agora a variân ia lo al omo sendo:

2η+1 2η+1
!2
1 X 2 1 X
m2l,n = x − xl+n−1+i , (3.48)
2η + 1 i=1 l+n−1+i 2η + 1 i=1

l = i (−1)k ni , om ni representando
P
onde l+n varre os valores de 1 até n − 2η e

a quantidade de números usados para obter o i-ésimo termo da seção, ou seja, o

índi e l ajuda a garantir que não existirá sobreposição de termos na formação da

nova série.

Com a variân ia lo al al ulada, e utilizando os on eitos das equações 3.30

e 3.31 para determinar a seção t, al ula-se o onjunto St dado por:

nk
n1 n2
!
X X X
St = x′i , x′1+i , . . . , x′k+i (3.49)
i=1 i=1 i=1

E esse série tem uma distribuição de probabilidades que tende ao regime

gaussiano quando t tende ao innito, assegurado pelo TSL.

3.3 O Teorema do Limite Central Clássi o vs Teo-


rema das Seções de Lévy
O Teorema das Seções de Lévy primeiramente deve ser en arado omo uma gene-

ralização do on eito proposto no TLC, ele serve omo uma nova ferramenta para

analisar a onvergên ia de qualquer série e prin ipalmente, omo é o presente aso,


3 O Teorema do Limite Central Clássi o vs Teorema das Seções de Lévy 73

séries não esta ionárias e fortemente orrela ionadas. A prin ipal diferença entre os

métodos é a sua forma de agregação, no TLC em sua maneira lássi a nós agregamos

as variáveis uma a uma gerando uma nova série Sn , que pode ser es rita omo

Sn = x1 + x2 + . . . + xn − h x i, (3.50)

omo já mostrado na equação 3.1.

Como também já foi dis utido, essa metodologia de agregação não garante

que a série Sn venha onvergir para uma gaussiana se a mesma for omposta de

variáveis xi orrela ionadas. Para garantir o TLC as variáveis devem ser i.i.d, que

são variáveis independentes e assim determina-se fa ilmente as integrais mostradas

na prova do teorema.

Em ontra partida temos o TSL onde as variáveis são agregadas dependendo

da variân ia lo al e do parâmetro t da seção, formando assim a série St que é es rita

omo:
nk
n1 n2
!
X X X
St = x′i , x′1+i , . . . , x′k+i (3.51)
i=1 i=1 i=1

que omo agrega as variáveis por sua variân ia, os termos perten entes a

série St são heterogêneos em número de variáveis isso porque é pre iso denir um

λl,n omo sendo:


n
X
λl,n = m2i,l , (3.52)
i=1

e o λl,n está ondi ionado ao número t. Então em uma série, para satisfazer a

ondição t talvez sejam agregadas 3 variáveis, depois para o próximo λ é possível

que sejam agregados 5 números e no aso posterior sejam agregadas agora apenas

2 variáveis e assim por diante, não tendo um número denido de variáveis que irão

ompor os termos que formam a série St .


3 Testes de Convergên ia 74

A grande vantagem nesse modelo é o fato de poder usar quaisquer tipos de

variáveis, tanto orrela ionadas quanto não-esta ionárias, tornando a onvergên ia

gaussiana muito mais provável e abrangente. A dis ussão omparativa é extrema-

mente importante para a onstrução da ompreensão sobre a onvergên ia dos dados

e por isso aqui mostramos um onfronto mais laro sobre as diferenças entre os Te-

oremas.

3.4 Testes de Convergên ia


Como já foi mostrado nas seções anteriores, os dois teoremas, tanto o TLC, quando

o TSL, apresentam a onvergên ia para o regime gaussiano quando utilizam-se in-

nitas variáveis envolvidas. Em séries temporais nitas, tais omo, preços de ativos,

orrente em alguns ir uitos e outros, onde existe um tempo ara terísti o de medida,

se faz ne essário testar se já foi atingido ou não o regime gaussiano, na apli ação de

ambos os teoremas.

Nesse perspe tiva, é importante que a nova série seja omparada om a que

é obtida a ada iteração do teorema, om os parâmetros bem onhe idos na litera-

tura, para as séries gaussianas. Aqui serão apresentados alguns dos prin ipais testes

omparativos que podemos utilizar, am de garantir a onvergên ia para o regime

desejado.

3.4.1 Momentos estatísti os

Os primeiros são a veri ação dos momentos estatísti os. Os momentos de primeira e

segunda ordem são quantidades que normalmente não são usados omo parâmetros
3 Testes de Convergên ia 75

omparativos, já que ada urva gaussiana tem uma média e um desvio padrão

individual. Para omparação são utilizados alguns momentos de mais alta ordem,

omo por exemplo, a skewness e a kurtose, que são o ter eiro e quarto momentos

respe tivamente.

Como dis utido em seções anteriores, a distribuição gaussiana, independente

de sua origem, possui alguns parâmetros que são imutáveis, todos os seus momentos

ímpares são sempre nulos, isso se dá pelo fato que a distribuição gaussiana é uma

distribuição simétri a e os momentos ímpares al ulam diferentes graus de assime-

tria. Sendo assim, se uma distribuição é Gaussiana ela deverá ter sua skewness

sempre nula.

Outro momento estatísti o importante é a kurtose, ou o quarto momento.

Esse parâmetro mede a  urvatura da distribuição. A equação 2.29 om dados

gaussianamente distribuídos, a kurtoses é 3, por essa razão alguns autores preferem

denir o quarto momento subtraindo de 3 a equação 2.29, gerando uma "kurtose

ex essiva", denindo assim a kurtose gaussiana omo sendo nula também, omo

dis utido no apítulo anterior.

3.4.2 Expoente de Hürst e a Fra talidade

O expoente de Hürst é muito importante para a análise dimensional de uma gura

fra tal. Em uma série temporal o expoente de Hürst ajuda a entender o ompor-

1
tamento que a série tem e omo seus parâmetros estão rela ionados. Se H < 2
, a

série é anti-persistente, ou seja, tende a fazer o oposto ao que fez no passado, então

1
a tendên ia da série segue sempre ontrária. Com H> 2
a série é persistente, tende

a repetir ações passadas, ou seja, mantêm a mesma tendên ia. Nesses dois exemplos
3 Testes de Convergên ia 76

as series são orrela ionadas e esse grau de orrelação pode ser inferido pelo estudo

do expoente de Hürst.

Para o aso gaussiano, pelo próprio TCL, sabe-se que uma distribuição gaus-

siana é formada por variáveis independentes, ou seja, des orrela ionadas. O valor do

1
expoente de Hürst para esse tipo de distribuição é H= 2
, onde todas as orrelações

são nulas e o TCL é fa ilmente apli ado. No estudo de onvergên ia, o expoente de

Hürst mostra omo a série se omporta om a agregação de variáveis, forne endo

mais um índi e apaz de informar se a série é ou não gaussiana.

Outro fator importante nessa análise é o grau de fra talidade do sistema.

Como mostrado anteriormente, existem sistemas fra tais que podem ser monofra -

tais ou multifra tais. Os ál ulos e as análises feitas para determinar omportamento

fra tal foram apresentadas no apítulo anterior.

Variáveis distribuídas gaussianamente tem o expoente de Hürst igual a 1/2 e

omo são variáveis des orrela ionadas, esse valor se mantêm imutável independente

do momento al ulado. Ou seja, usando o método MF-DFA, obtêm-se o mesmo

valor 1/2 para a série em todas as análises de momentos.

Com essa onstân ia do expoente na equação 2.136, existe uma dependên ia

linear om o q-ésimo momento, tornando o espe tro multifra tal f (α) om uma

urva muito estreita e entrada também no valor 1/2. Com um espe tro úni o para

des rever a fra talidade, o sistema é monofra tal e por tanto, séries distribuídas

gaussianamente são séries monofra tais.

Para analisar a onvergên ia da série basta al ular a dependên ia o expoente

de Hürst om o q-ésimo momento a ada tempo ou veri ar o estreitamento da

urva apresentada pelo espe tro multifra tal e determinar a transição entre o regime
3 Testes de Convergên ia 77

multifra tal de fortes orrelações e o regime monofra tal des orrela ionado.

3.4.3 Teste KS

O teste Kolmogorov-Smirnov ou apenas KS, foi proposto nos anos 30 pelo russo

Andrey Kolmogorov[38℄ e aprimorado por Nikolai Smirnov[39℄ em sua análise de

distribuições. O teste KS é um teste não paramétri o ou seja, um teste que não se

baseia em uma distribuição espe í a e é utilizado para omparar uma amostra de

uma determinada série om uma distribuição, o hamado teste KS de uma amostra,

ou também é usado para omparar duas amostras vindas de séries diferentes, o teste

KS de duas amostras.

Para entender o teste segue o seguinte exemplo: onsidere um onjunto de

realizações de uma variável aleatória X, que tem alguma distribuição des onhe ida

P e deseja-se testar a hipótese se essa distribuição des onhe ida na verdade é igual

a uma distribuição parti ular P0 .

Primeiro al ula-se a função de distribuição a umulada empíri a. Para on-

juntos ontínuos a FDA é a integral da função densidade de probabilidade, ou seja,

Z x
F (x) = P (t)dt (3.53)
−∞

Para uma úni a distribuição gaussiana a FDA pode ser vista na gura 3.3.

Veri a-se que a FDA segue o omportamento da distribuição, essa tendên-

ia  a lara ao observar várias distribuições gaussianas om diferentes parâmetros

asso iados omo mostrado na gura 3.4.


3 Testes de Convergên ia 78

0,08
PDF
Probabilidade 0,06

0,04

0,02

0
0,2 0,4 0,6 0,8
1 Variavel
Densidade Acumulada

0,8
FDA
0,6

0,4

0,2

0
0,2 0,4 0,6 0,8
Variavel

Figura 3.3: Distribuição gaussiana e sua FDA

0,8

0,6
Probabilidade

0,4

0,2

0
1

0,8
Acumulado

0,6

0,4

0,2

0
-4 -3 -2 -1 0 1 2 3 4
Variavel

Figura 3.4: Diversas Distribuições e suas FDA


3 Testes de Convergên ia 79

Quando são tratadas as variáveis dis retas, a FDA se torna agora a FDAE,

a função de distribuição a umulada empíri a, uja denição é dada omo:

n
1X
Fn (x) = I(Xi ≤ x) (3.54)
n i=1

onde I(Xi ≤ x) é a função indi ador que vale 1 para Xi ≤ x e é nula aso ontrário.

Essa função empíri a apresenta uma urva que muito se assemelha a uma função do

tipo degrau(gura 3.5).


1.0
0.8
0.6
Fn(x)

0.4
0.2
0.0

30 40 50 60 70

Figura 3.5: A Função de Distribuição A umulada Empíri a para um onjunto de

dados

O teste de Kolmogorov-Smirnov onsiste em um teste omparativo entre as

funções de densidade a umulada. O primeiro aso é o teste KS de uma amostra,

onde uma FDAE é omparada om uma FDA de uma distribuição onhe ida.

Se Fn (x) é a FDAE de uma série des onhe ida e F (x) é a FDA de uma

distribuição ontínua onhe ida om a qual deseja-se omparar à série empíri a,


3 Testes de Convergên ia 80

deni-se uma quantidade Dn omo sendo:

Dn = sup|Fn (x) − F (x)|, (3.55)


x

onde a função supx é a função supremo. Em termos matemáti os o supremo de um

sub onjunto S de um onjunto total par ialmente ordenado T , é o o menor elemento

de T que seja maior que qualquer elemento de S. Esse on eito é muito importante

na onstrução dos números reais e até mesmo na noção de limite em análise real.

Pelo teorema de GlivenkoCantelli[40℄, para todo x xo, se a amostra real-

mente é da distribuição F (x), quase ertamente

Dn = sup|Fn (x) − F (x)| → 0 (3.56)


x

Ou seja aso o teste forneça Dn = 0 logo as duas distribuições são a mesma. Gra-

amente o teste pode ser visto omo mostrado na gura 3.6


Densidade Acumulada

Figura 3.6: Comparação entre F (x) e Fn (x)


3 Testes de Convergên ia 81

O Teste KS de duas amostras ompara duas funções de distribuição a umu-

lada empíri as entre si. Como o teste KS é um teste não paramétri o, ele possibilita

esse tipo de análise omparativa entre duas FDAEs quais quer. Em termos mate-

máti os a onstrução do teste é muito similar ao teste para uma amostra,

Dn,n′ = sup|F1,n (x) − F2,n′ (x)| (3.57)


x

Onde são omparadas as duas FDAEs, F1,n (x) e F2,n′ (x). Como des rito no teste de

uma amostra, se as duas funções são da mesma distribuição, logo quase ertamente

Dn,n′ → 0.

Em termos grá os o teste KS para duas amostras é representado na gura

3.7, onde laramente o parâmetro Dn,n′  a des rito.


Densidade Acumulada

Dn,n'

Figura 3.7: Comparação entre F1,n (x) e F2,n′ (x)

Para onvergên ia o teste KS é um ótimo parâmetro, por ser um teste não-

paramétri o ele se torna mais sensível as ondições da FDAE. Para garantir se o


3 Testes de Convergên ia 82

sistema onvergiu para o regime gaussiano, basta usar o teste para uma amostra, ou

ainda gerar uma amostra distribuída gaussianamente e ompara-la om a amostra

des onhe ida usando o teste KS de duas amostras. A medida que o parâmetro

Dn vai se tornando mais próximo de zero, infere-se que a onvergên ia está sendo

al ançada.

3.4.4 Teste KL de divergên ia

O teste KL de divergên ia foi proposto por Kullba k e Leibler em 1951[41℄ e é uma

medida não simétri a da diferença entre duas distribuições P e Q. O teste na verdade

mede o quanto de informação é perdida quando Q é usado para se aproximar a P,

é uma medida então da entropia de Shanon[42℄ do sistema.

Para variáveis dis retas o teste apresenta o parâmetro DKL (P kQ) para a

divergên ia de Q om relação a P, omo sendo:

 
X P (i)
DKL (P kQ) = ln P (i), (3.58)
i
Q(i)

que pode ser es rito também omo:

X X
DKL (P kQ) = − pi ln q(x) + pi ln pi (3.59)
i i

e para distribuições ontínuas toma a forma:

∞  
p(x)
Z
DKL (P kQ) = ln p(x) dx, (3.60)
−∞ q(x)

onde p e q são as densidades de probabilidade das séries P e Q.

O parâmetro DKL (P kQ) é sempre positivo e só é igual a nulidade aso P = Q

em todos os pontos. Esse fator é omprovado pela desigualdade de Gibbs.


3 Testes de Convergên ia 83

A desigualdade de Gibbs arma que onsiderando dois onjuntos P e Q,

temos que:
n
X n
X
− pi ln pi ≤ − pi ln qi (3.61)
i=1 i=1

e só assumem a igualdade aso P = Q para todos os elementos. Isso pode ser

P
mostrado somando sobre um espaço onde i pi = 1

X qi X  qi 
− pi ln ≥ − pi −1
i
pi i
pi
X X
=− qi + pi
i i
X
=− qi + 1
i
X qi
− pi ln ≥ 0. (3.62)
i
pi

Então
X X
− pi ln qi ≥ − pi ln pi ,
i i

o que formaliza o teste.

Esse teste é bastante útil no âmbito da onvergên ia, por se tratar de um

teste que analisa a quantidade de informação da série, omo são tratadas séries

temporais orrela ionadas, sua onvergên ia para o regime gaussiano faz om que

algumas orrelações sejam perdidas e uma medida para essa quebra de orrelações

é a medida da entropia de Shannon. Sendo assim o teste KL de divergên ia é um

bom parâmetro omparativo de onvergên ia.


Capítulo 4

A E onofísi a omo exemplo de


séries orrela ionadas

Em meados do nal do sé ulo XIX, um e onomista so ial, Vilfredo Pareto, estimou

que as riquezas em uma so iedade nos moldes dos países europeus dessa épo a, eram

distribuidas de forma desigual e seguindo uma lei de potên ia, tal omo:

y ∼ x−ξ (4.1)

aonde y é o número de pessoas om uma renda de x, ou superior a x e ξ é o expoente

de Pareto, que foi estimado para a so iedade italiana, omo sendo 1,5[8℄.

Em 1900 Ba helier es reveu em sua tese de doutorado uma análise estatísti a

de ativos nan eiros[43℄. Nessa análise, ele props que o preço dos ativos nan eiros

deveriam seguir um omportamento tal qual, omo é onhe ido hoje, o movimento

Browniano, de tal maneira que o mer ado seria regido por uma distribuição gaussi-

ana. Seu trabalho, apesar de algumas ríti as atuais pela falta de rigor ao justi ar

a distribuição gaussiana omo solução para a equação de Chapman-Kolmogorov, foi

84
4 E onofísi a 85

um trabalho pioneiro para a ompreenção matemáti a do sistema nan eiro.

A ideia de Ba helier foi ontestada em 1963 om o trabalho revolu ionário

de Mandelbrot que sugeriu que os preços deveriam seguir um padrão de movimento

hamado de vos de Lévy, aonde a distribuição resultante seria uma distribuição

α-estável de Lévy[44℄. Esse resultado abriu portas para novas interpretações mais

a uradas a er a do omportamento do mer ado.

Em 1973, Bla k e S holes publi aram seu trabalho sobre opções nan eiras[45℄.

Esse trabalho rendeu a eles o prêmio nobel em e onomia, fortale endo ainda mais o

estudo estatísti o do omportamento de ativos em mer ados nan eiros, auxiliando

na previsão e ompreenção das reais dinâmi as da e onomia.

Nos anos 90, físi os omeçaram a voltar seus olhos para esse tipo de análise,

om os parâmetros e analogias físi as, omo on eitos da teoria de es ala, universa-

lidade, sistemas desordenados, sistemas omplexos e riti alidade auto-organizada

en ontrando motivação em trabalhos já publi ados na área[46, 47, 48℄.

Em 2000, a área, onhe ida hoje omo E onofísi a, teve seu primeiro livro

publi ado, por H.E. Stanley e R.N. Mantegna[49℄, fortale endo ainda mais o ampo.

No Brasil, já foram realizados 3 en ontros espe í os da área, em 2007, 2010 e

agora em 2014, organizado por diversos professores de várias instituições do país e

ontando om serminários e palestras de físi os, e onomistas e in lusive agentes de

bolsas de valores, agragando máximo possível de onhe imento aos pesquisadores

mais antigos e os mais jovens.

Em suas análises, algumas quantidades relevantes ao sistema foram melhor

denidas, omo por exemplo o retorno nan eiro. Retorno nan eiro é denido
4 E onofísi a 86

omo sendo:
 
S(t + ∆t)
r∆t (t) = log , (4.2)
S(t)

aonde, S(t) é o preço do dado ativo e ∆t é o intervalo de tempo entre transações.

Denido dessa forma, o retorno se mostra muito mais omportado que o próprio

preço, e denido dessa forma ele serve omo um parâmetro geral para todos os

mer ados, tendo em vista que é um parâmetro entralizado e independente de moeda.

Além do retorno, outra quantidade é bastante utilizada e relevante ao estudo

dos sistemas e onmi os sob uma visão físi a, a volatilidade. Volatilidade é denida

omo sendo o desvio padrão da variação dos preços, do retorno. A volatilidade é

rela ionada om a quantidade de informação que é forne ida em um mer ado em

um dado tempo, por exemplo, ao re eber uma grande quantidade de informação, o

mer ado agirá de tal forma om que o número médio de transações seja a res ido.
Indicador S&P500

2000
1600
1200
800

0,1
0,05
Retorno

0
-0,05
-0,1

0,012
0,01
Volatilidade

0,008
0,006
0,004
0,002
jan-98 jan-02 jan-06 jan-10 jan-14
tempo

Figura 4.1: Indi ador S&P500 om dados diários desde 1998, o retorno al ulado

via equação 4.2 e a volatilidade.


4 E onofísi a 87

Ao longo desses estudos algumas propriedades intrín e as aos mer ados -

nan eiros foram observadas, de tal forma que qualquer mer ado que seja estudado,

teria todas as propriedades sugeridas. Essas propriedades são hamadas de Fatos

Estilizados de Mer ado. Os prin ipais fatos estilizados são:

• Retornos de uma forma geral não apresentam orrelação, ou seja, a auto or-

relação da série temporal de retorno de ai exponen ialmente para zero.

• Se hoje o mer ado apresenta uma elevada volatilidade, então a probabilidade

de observarmos um grande evento amanhã é maior que a média(Cluster de

Volatilidade), informação gera mais informação. Esse fato também indi a que

existe orrelação na série de volatilidade.

• A distribuição de retornos de alta frequên ia apresenta audas grossas, em

geral são simétri as e lep úrti as, enquanto a distribuição de retornos de baixa

frequên ia tendem a distribuições om audas mais exponen iais.

• Os q-ésimos momentos da distribuição das utuações dos preços (retornos) são

multifra tais.
4 E onofísi a 88

Função de Auto-correlação

Intervalo temporal

Figura 4.2: Auto- orrelação de retornos do S&P500. Adaptada de [49℄

Por essas tantas propriedades, as séries temporais oriundas de retornos em

sistemas e onmi os, são ótimos andidatos ao estudo da apli ação dos teoremas

gerais de onvergên ia à gaussiana, TLC e TSL. Por não onstituírem em um sistema


Função de Auto-correlação

Intervalo temporal

Figura 4.3: Auto- orrelação de volatilidade do S&P500. Adaptada de [49℄


4 E onofísi a 89

Figura 4.4: Distribuição de probabilidade para os retornos denidos omo Z do

S&P500, aonde pode-se notar a presença de audas grossas. [49℄

Figura 4.5: (a)Dependên ia do expoente de Hurst om o q-ésimo momento. (b)

Espe tro multifra tal em função do expoente de α, que no aso é onhe ido omo

expoente de Hölder.[36℄
4 E onofísi a 90

i.i.d., eles não satisfazem a ondição do TLC, mas o TLS sugere que mesmo assim

poderiam em prin ípio evoluírem para uma distribuição normal, om a agragação

de desvio padrão.

A análise de onvergên ia dessas séries, também mostra um ara ter de ob-

servação ímpar a er a das próprias propriedades inerentes à esses sistemas, de tal

forma que os parâmetros determinados durante a apli ação dos teoremas, poderá

elu idar algumas questões ainda pertinentes, omo por exemplo o papel da multifra -

talidade no ontexto de orrelações de longo al an e, ou mesmo a prórpia dinâmi a

esto ásti a de mer ado.


Capítulo 5

O TLC e o TSL apli adas a séries


nan eiras

Existem muitos problemas em aberto no âmbito da dinâmi a de sistemas omplexos,

e tem sido o fo o de diversas pesquisas [50, 51℄. Flutuação em sistemas omo esses

normalmente não seguem uma distribuição gaussiana, são arregados de orrelações

de urto e longo al an es, omo por exemplo sistemas nan eiros [43, 44, 48, 49, 52,

53℄, omo dis utido no apítulo anterior.

O objetivo desse apítulo é apli ar as ferramentas de análise e veri ar omo o

TSL se omporta ao ser apli ado em sistemas tão fortemente orrela ionados omo

os sistemas e onmi os. Como é onhe ido, o teorema do limite entral arma

que a distribuição da soma de N variáveis aleatórias sem orrelação ou fra amente

orrela ionadas onverge para uma distribuição Gaussiana a medida que N res e e

tende ao innito. Já o Teorema das Seções de Lévy garante essa mesma onvergên ia

para distribuições gaussianas mesmo em regime fortemente orrela ionado, om base

no parâmetro t da seção. Qual será o preço pago para que a onvergên ia via

91
5 TLC e TSL para Séries E onofísi as 92

TSL a onteça? Nesse apítulo serão mostrados alguns resultados que apresentam

uma mutifra talidade residual presente nas séries mesmo depois de al ançada a

onvergên ia onde é assumido que o sistema está no regime gaussiano quando os

momentos estatísti os, no aso o ter eiro e o quarto, atingem valores anni os para

a distribuição gaussiana.

Para garantir a robustez do trabalho, foram apli ados vários testes para de-

terminar o ponto de onvergên ia para o sistema. Os testes foram, o ál ulo dos

momentos estatísti os, a multifra talidade do sistema, através do espe tro multi-

fra tal e do expoente de Hürst e por m os testes estatísti os de omparação, o teste

KS e o teste KL de divergên ia.

Alguns dos resultados aqui expostos, mais pre isamente as análises de on-

vergên ia dos momentos estatísti os e a análise multifra tal presentes na seção 5.0.6,

foram publi ados na revista EPL[15℄.

5.0.5 O ban o de dados

As análises são feitas em um ban o de dados de uma série temporal de âmbio. Será

veri ada a onvergên ia para uma série de âmbio de DEM/USD(Deuts h Mark/

US Dollar), ou seja, o Mar o Alemão frente ao Dólar ameri ano. Essas séries são do

tipo ti k-by-ti k, elas foram forne idas por Olsen & Asso iates e ompreendem um

período de um ano, omeçando em primeiro de Outubro de 1992, até 30 de Setembro

de 1993. A série tem 1472240 pontos o que signi a que é em média 1 ponto a ada

20s de transações.

A gura 5.1 mostra omo a série de retornos se omporta. É uma série

lássi a de estudos de séries nan eiras, e omo tal possui todas as propriedades
5 TLC e TSL para Séries E onofísi as 93

des ritas no apítulo anterior.

Figura 5.1: Série de retornos do âmbio do DEM/USD

A distribuição dos retornos dos dados da série é de extrema importân ia. Na

gura 5.2 observa-se um plot dessa densidade que laramente não é uma distribuição

gaussiana. O fato da sere dispor de muitos dados faz om que a distribuição que

muito lep úrti a, ou seja, om a kurtose bem grande, forne endo uma distribui-

ção anada no entro. Para melhor observar algumas propriedades, tais omo as

audas grossas, possível dar um zoom utilizando apenas 104 pontos da série. Essa

distribuição pode ser útil para observar a sutileza das utuações.


5 TLC e TSL para Séries E onofísi as 94

Distribuição dos dados

5000
Densidade

3000
1000
0

−0.002 −0.001 0.000 0.001 0.002

Retorno

Figura 5.2: Densidade dos dados da série

Distribuição dos dados


2000
1500
Densidade

1000
500
0

−0.0015 −0.0005 0.0005 0.0015

Retorno

Figura 5.3: Densidade dos dados da série reduzida para 104 dados
5 TLC e TSL para Séries E onofísi as 95

Outro ponto importante das séries temporais e onmi as e extremamente re-

levantes para o estudo de onvergên ia, são as orrelações na série, tanto a orrelação

dos retorno, quando a orrelação na volatilidade. Essa última é que forne e as orre-

lações de longo al an e da série, e faz om que o sistema não entre em onvergên ia

pelo TLC simplesmente, apesar da série em si, ser des orrela ionada.

0,8

0,6
Autocorrelação

0,4

0,2

-0,2

-0,4

0 2000 4000 6000 8000 10000


δt

Figura 5.4: Auto- orrelação das séries de retorno

0,8
Autocorrelaçäo

0,6

0,4

0,2

0
0 2000 4000 6000 8000 10000
δt

Figura 5.5: Auto- orrelação das séries de volatilidade

Nas guras 5.4 e 5.5 observa-se os hamados fatos estilizados, as séries de


5 TLC e TSL para Séries E onofísi as 96

retorno são ompletamente des orrela ionadas enquanto as séries de volatilidade

possuem orrelações de longo al an e.

Outro fato estilizado importante é a multifra talidade da série. Nas guras

5.6 e 5.7 esse aspe to se faz presente sendo um dos prin ipais fatores de dis us-

são mais a frente. O expoente de Hürst é extremamente dependente do momento

al ulado e o espe tro multifra tal mostra-se om uma urva bastante larga, o que

a entua a evidên ia de propriedades multifra tais do sistema.

0,8

0,7

0,6
h(q)

0,5

0,4

0,3
-4 -2 0 2 4
q

Figura 5.6: Dependên ia do expoente de Hürst om o q-ésimo momento


5 TLC e TSL para Séries E onofísi as 97

1,25

0,75
f(α)

0,5

0,25

0
0,2 0,4 0,6 0,8 1
α

Figura 5.7: Comportamento do espe tro multifra tal

5.0.6 A onvergên ia

Antes de veri ar a apli ação dos teoremas, am de veri ar a validade do TSL

para esse dado sistema, se faz ne essário a veri ação da obediên ia à ondição de

Lindeberg para a série. A gura 5.8 mostra o omportamento previsto pela ondição

de Lindeberg nesse dado sistema de série temporal.

Para a análise da onvergên ia, dado o fato de que a série respeita a ondição

de Lindeberg, foram geradas diversas séries om base no pro esso pelo qual os teo-

remas devem ser exe utados e om ada uma das novas séries determinadas, serão

al uladas suas propriedades e omparadas om a gaussiana, para medir o grau de

onvergên ia da série.

Para o TLC basta apli ar o on eito mostrado na equação 3.1, que expressa

omo devem ser agregadas as variáveis.

No aso do TSL é pre iso ter um pou o mais de uidado, pois o que é agregado
5 TLC e TSL para Séries E onofísi as 98

0,8
MAX(σ k/S n)
2

0,6
2

0,4

0,2

0 50 100 150 200


n

Figura 5.8: Condição de Lindeberg para a série empíri a do DEM/USD

no TSL são as variân ias lo ais e tudo depende o parâmetro t da seção. A análise

omeçou om uma seção ini ial de t = 10−13 om pequenos in rementos de ∆t =

2, 5.10−7, que são su ientemente ínmos para garantir om erteza que existe uma

variação suave nos dados.

Em termos omparativos é denido um tempo hamado de τ onde pode-

mos analisar a velo idade om que podemos atingir a onvergên ia da série. Tal

parâmetro é de difí il análise tendo em vista a diferente natureza que envolve a on-

vergên ia via TLC e TSL. Para o TLC foi utilizado omo tempo de onvergên ia, o

número de variáveis agregadas. No aso do TSL o tempo τ é denido omo

σS2 t
τt = , (5.1)
σS2 n

que é a razão entre a variân ia da seção t e a variân ia da série original.

Como primeira análise é importante observar omo os momentos, kurtose


5 TLC e TSL para Séries E onofísi as 99

e skewness, se omportam tanto om a agregação via TLC e om a apli ação do

TSL. Como omparativo foi gerada uma série de ruído bran o, que é uma série

des orrela ionada e om variáveis i.i.d e por tanto satisfaz a ondição de Lindenberg

e ao TLC onvergindo rapidamente para uma distribuição gaussiana e sendo um

ex elente parâmetro para ompararmos as nossas próprias séries. O ruído bran o

também foi sujeito aos dois teoremas para mais uma vez onstatar que ambos são

apazes de nos forne er os valores gaussianos, dada uma série i.i.d..

Para garantir a robustez e pre isão da análise os valores ini iais para a kurtose

e skewness para a série original são:

Valores ini iais

Skewness 2, 6799.10−02

Kurtose 26,3767
5 TLC e TSL para Séries E onofísi as 100

30
TLC
25 TSL
Ruído Branco(TLC)
Ruído Branco(TSL)
20
Kurtose

15
range 1 range 2
10

0
0 50 100 150 200 250
tempo(τt)

Figura 5.9: As urvas de onvergên ia da Kurtose para os dados analisados

Na gura é desta ado que existem dois regimes presentes. O primeiro regime

trada da onvergên ia propriamente dita e se ini ia em τ = 0 e segue até τ =

150 onde é atingido um regime que estatisti amente se mostra esta ionário para

a onvergên ia da kurtose em ambos os teoremas. É fá il observar que o TSL

apresenta uma onvergên ia muito mais enfáti a e rápida em omparação ao TLC.

Apesar disso, é importante frisar que essa onvergên ia se dá por meio de um tempo

es alonado e não em número de variáveis agregadas, omo dis utido em apítulos

anteriores o TSL agrega as variáveis dependendo da variân ia lo al delas, podendo

agregar muitas ou pou as variáveis dependendo apenas do parâmetro t da seção.

A kurtose é um bom termmetro para medir a onvergên ia, isso porque

um dos fatos estilizados dos mer ados nan eiros, dis utidos no apítulo anterior,
5 TLC e TSL para Séries E onofísi as 101

é que a distribuição para as séries de retornos são lep úrti as, ou seja, om uma

kurtose maior do que a gaussiana. A tendên ia da kurtose seguir para zero indi a

que a distribuição da nova série se torna mais arredondada.

2
TLC
TSL
1.5 Ruido Branco(TCL)
Ruído Branco(TSL)
skewness

1
range 1 range 2

0.5

0 150 300 450


tempo ( τt )

Figura 5.10: As urvas de onvergên ia da Skewness para os dados analisados

A urva de skewness é muito mais ruidosa mas bem próxima do valor da

skewness da gaussiana, ou seja a nulidade, isso porque a gaussiana é uma distribuição

simétri a e a skewness mede um dos graus de assimetria. Tendo em vista que a

distribuição apresentada nas guras 5.2 e 5.3, que é a distribuição original da série,

também ser uma distribuição visualmente simétri a e isso foi demonstrado na tabela

5.0.6, era de se esperar a rápida onvergên ia.

Além das análises dos momentos, alguns testes estatísti os que trazem muita

onança om relação a onvergên ia da série, os testes KL de divergên ia e KS.


5 TLC e TSL para Séries E onofísi as 102

Tais testes serão úteis para determinarmos tanto se a es olha do ponto de onver-

gên ia está orreto, quando se a série realmente onvergiu e se aproximou de uma

distribuição gaussiana, omo armam os dois teoremas aqui onfrontados.

O primeiro teste a ser utilizado é o teste KS que onsiste em um teste não-

paramétri o onde um parâmetro Dn é al ulado onforme mostrado na equação

3.55. Na presente análise foi utilizado o programa de estudos estatísti os R[54℄ e

om ele e algumas sub-rotinas presentes no programa, foram geradas séries om

dados distribuídos gaussianamente e omparados um a um om as séries a medida

que o tempo τ res ia.

Nas guras 5.10,5.11,5.12 e 5.13 é observado de forma pi tóri a omo as

analises se omportavam ao omparar FDAE gerada tanto por TLC quanto por TSL

om as séries geradas pelo programa distribuídas gaussianamente, om a mesma

média das séries empíri as e o mesmo desvio padrão. Para esse omparativo é

tomado para ada teorema duas séries que estão em regimes diferentes, propostos

pela onvergên ia da kurtose.


5 TLC e TSL para Séries E onofísi as 103

1.0

1.0
τ = 75 τ = 175
Gaussiana Gaussiana
0.8

0.8
0.6

0.6
Fn(x)

Fn(x)
0.4

0.4
0.2

0.2
0.0

0.0
−0.010 −0.005 0.000 0.005 0.010 −0.010 0.000 0.005 0.010 0.015

x x

Figura 5.11: Séries seguindo TLC antes e depois do regime de onvergên ia


1.00

1.00

τ = 75 τ = 175
Gaussiana Gaussiana
0.99

0.99
0.98

0.98
Fn(x)

Fn(x)
0.97

0.97
0.96

0.96
0.95

0.95

−0.010 −0.005 0.000 0.005 0.010 −0.010 0.000 0.005 0.010 0.015

x x

Figura 5.12: Zoom na gura 5.10 para desta ar o Dn


5 TLC e TSL para Séries E onofísi as 104

1.0

1.0
τ = 75 τ = 175
Gaussiana Gaussiana
0.8

0.8
0.6

0.6
Fn(x)

Fn(x)
0.4

0.4
0.2

0.2
0.0

0.0
−0.010 −0.005 0.000 0.005 0.010 −0.01 0.00 0.01 0.02

x x

Figura 5.13: Séries seguindo TSL antes e depois do regime de onvergên ia


1.00

1.00

τ = 75 τ = 175
Gaussiana Gaussiana
0.99

0.99
0.98

0.98
Fn(x)

Fn(x)
0.97

0.97
0.96

0.96
0.95

0.95

−0.010 −0.005 0.000 0.005 0.010 −0.01 0.00 0.01 0.02

x x

Figura 5.14: Zoom na gura 5.12 para desta ar o Dn

É possível observar nessas guras dois fatos importantes, que as distribuições

tem Dn muito pequenos e mesmo assim os valores para o TLC pare em menor do

que os valores para o TLC. Um outro ponto que deve ser veri ado é a diminuição

do Dn a medida que o τ res e. Visualmente é possível enxergar isso.

Para onrmar essas ertezas foi feito um grá o de Dn por τ para todos os
5 TLC e TSL para Séries E onofísi as 105

sistemas, am de poder ompreender o me anismo da onvergên ia das séries, via o

teste KS.

0,15

Ruído Branco (TLC)


Ruído Branco (TSL)
TSL
TLC
0,1
Dn

0,05

0
0 25 50 75 100 125 150 175 200 225 250
time(τt)

Figura 5.15: Curvas de Dn versus τ para os dois teoremas

A gura 5.15 torna lara a onvergên ia da série. Apesar de um pou o ruidosa

as urvas deixam laro que o padrão de onvergên ia é rapidamente al ançado entre-

tanto não se mantêm onstante. Sendo assim algo surge em questionamento, através

das urvas de Dn não é possível determinar uma lara transição de omportamento

e sim, uma onvergên ia lara para um valor médio.

Teorema Dn

TLC 0, 073

TSL 0, 052

Tabela 5.1: Tabela dos valores médios de Dn


5 TLC e TSL para Séries E onofísi as 106

Apesar de apresentar um regime tenden ioso, o teste KS forne e uma nova

argumentação, pois um grá o bastante ruidoso omo o mostrado leva a rer que

possivelmente a onvergên ia não foi expressamente atingida. Algo impede que tal

fato se on retize.

Outro teste importante e dis utido em apítulos anteriores é o teste KL de

divergên ia. Esse teste mede a entropia de Shannon ruzada entre as duas distri-

buições, e a medida da informação que uma distribuição tem om relação a outra,

o que será um ex elente medidor de onvergên ia.

Para o ál ulo do método KL também foi utilizado o programa R de ál ulos

estatísti os[54℄. Como no aso do teste KL, foi gerada uma série de números dis-

tribuídos gaussianamente para serem usados omo base omparativo para o teste.

Diferente do teste KS que mede o parâmetro Dn usando a FDAE, o teste KL utiliza a

própria distribuição de densidade de probabilidade para realizar o teste omparativo,

distribuição essa fa ilmente al ulada utilizando o programa R.

Teorema DKL

TLC 0, 0857

TSL 0, 0380

Tabela 5.2: Tabela dos valores médios de DKL


5 TLC e TSL para Séries E onofísi as 107

0,4

TLC
TSL
0,3 Ruido Branco (TLC)
Ruido Branco (TSL)
DKL

0,2

0,1

0
0 25 50 75 100 125 150 175 200 225 250
time(τt)

Figura 5.16: Curvas de DKL versus τ para os dois teoremas

Na gura 5.16 e a tabela 5.2, observam-se urvas muito menos ruidosas do

que o apresentado na gura 5.15. No aso do teste KL é possível inferir a pou a

perda de informação entre uma urva gaussiana normal e uma produzida pelos dois

teoremas, ou seja, um pro esso de onvergên ia bem laro e om um parâmetro DKL

muito pequeno e próximo de zero, mesmo para valores pequenos de τ.

Utilizando os testes aqui apresentados, além de analisar a onvergên ia para

a série gaussiana, pode-se também veri ar o quão distante as séries estão da série

original, sendo isso uma outra medida tanto do grau de orrelação perdido quanto

da divergên ia geral apli ada pela ação dos teoremas.


5 TLC e TSL para Séries E onofísi as 108

TSL
TLC
0,5

0,4
Dn

0,3

0,2

0,1

0
0 50 100 150 200 250
tempo(τt)

Figura 5.17: Teste KS omparando a série original om a apli ação dos Teoremas.

15

TSL
TLC
12,5

10
DKL

7,5

2,5

0
0 50 100 150 200 250
tempo(τt)

Figura 5.18: Teste KL omparando a série original om a apli ação dos Teoremas.

O distan iamento se torna evidente ao omparar as guras 5.17 e 5.18, mos-

trando que a apli ação de ambos os teoremas são e azes na quebra de orrelações
5 TLC e TSL para Séries E onofísi as 109

e transformando as séries antigas em novas séries que não representam todas as

propriedades da série original. Na gura 5.17 existe uma tendên ia lara de res-

imento monotni o de Dn om o TSL se mostrando superior ao se distan iar da

série original. Enquanto isso, na gura 5.18 o omportamento observado é de quase

de esta ionariedade imediata do parâmetro DKL nos dois asos, no TLC e para TSL

onde ambos tem prati amente o mesmo valor.

Durante as analises é fá il per eber a lara onvergên ia a um regime esta i-

onário para as duas séries, tanto a série TLC quando a série TSL. Entretanto esse

regime esta ionário não ondiz om os valores gaussianos para a kurtose e para a

skewness e nem mesmo atingindo o valor zero para os parâmetros Dn e DKL dos tes-

tes KS e KL respe tivamente. Algo então ainda reside nas entranhas da onguração

das séries, alguma orrelação residual ou algo mais do que isso.

Com o intuito de se aprofundar nas ausas da falta de onvergên ia das séries,

é possível fazer uma análise do espe tro multifra tal, uma propriedade laramente

observada na série original(guras 5.6 e 5.7) e que pode forne er uma luz a er a

dessa onvergên ia para valores não gaussianos.

A gura 5.19 apresenta o omportamento do expoente de Hürst médio para

o TLC e para o TSL em ambos os regimes, de onvergên ia e esta ionário. Para o

primeiro aso o expoente de Hürst tem uma dependên ia ompletamente não-linear

om o q-ésimo momento, mostrando um padrão multifra tal muito laro. Quando

existe a migração de regime a dependên ia não-linear do expoente passa a ser uma

dependên ia linear mas mesmo assim, h(q) não assume um valor onstante, e igual a

1/2 omo no aso gaussiano, e portanto ainda reside uma ara terísti a multifra tal.

O mesmo padrão des rito para o expoente de Hürst pode ser muito bem
5 TLC e TSL para Séries E onofísi as 110

0.9
(a)
0.8 TLC
TSL
Ruído Branco
< h(q) >

0.7

0.6

0.5

0.4
-4 -2 0 2 4

(b)
0.65 TLC
TSL
0.6 Ruído Branco
< h(q) >

0.55
0.5
0.45
0.4
-4 -2 0 2 4
q

Figura 5.19: Expoente de Hürst médio em função do momento q. (a)Média para

τ ≤ 150; (b)Média para τ > 150

observado na gura 5.20, onde apesar de ter uma redução de largura, quando o orre

a transição do regime de onvergên ia para o regime esta ionário, o sistema ainda

mantêm a ara terísti a multifra tal om um espe tro largo em omparação ao ruído

bran o, que aqui representa os valores da distribuição gaussiana.


5 TLC e TSL para Séries E onofísi as 111

1 (a) TLC
TSL
Ruído
< f(α) >

0.75

0.5
0.5 0.75 1

1 (b) TLC
TSL
Ruido
< f(α) >

0.75

0.5
0.5 0.75 1
α

Figura 5.20: Espe tro multifra tal, f (α), em função de α. (a)Média para τ ≤ 150;

(b)Média para τ > 150


5 TLC e TSL para Séries E onofísi as 112

A lara mudança de regime, observando o arater multifra tal, pode ser ex-

pli ada om a quebra de orrelações presentes na série. Esse fato é bem expressado

nas guras 5.17 e 5.18, onde foi medido usando o teste KL o quanto de informação

é perdida em omparação a série original. Mesmo om essa quebra de orrelações

o regime esta ionário não apresenta valores gaussianos em nenhum dos testes apre-

sentados. Algumas expli ações podem ser dadas para esse fator, a prin ipal delas

são orrelações de longo al an e, presentes nas séries nan eiras. Outra expli ação

passível de ser a eita é sobre o fato de estar se tratando de um onjunto nito de

dados e ambos os teoremas são apli ados para um onjunto innito de dados.
Capítulo 6

Traço do movimento Browniano


fra ionado

O movimento browniano realizado por partí ulas suspensas foi des rito por Einstein

em 1905, onsiderado seu Annus mirabilis, utilizando a teoria inéti a de uidos

e a ontroversa, na épo a, me âni a estatísti a de Boltzmann[55℄. Mandelbrot,

omo dis utido no apítulo 4, utilizou o formalismo apresentado pelo movimento

browniano e o apli ou em séries e onmi as.

Mandelbrot assim, formulou uma generalização do on eito de movimento

browniano, hamado movimento browniano fra ionado[17, 56℄. Além das apli ações

em e onomia, Mandelbrot e Van Ness, o-autor do trabalho em destaque, observaram

que sua generalização também, poderia ser apli ada em estudo de utuações em

sólidos. Algumas dessas utuações são hamadas de ruídos 1/f  pelo sua densidade

espe tral tomar uma forma omo ω 1−2H , onde ω é a frequên ia de os ilação e H é o

hamado expoente de Hurst.

113
6 Denição do movimento browniano fra ionado 114

6.1 Denição do movimento browniano fra ionado


A denição apresentada por Mandelbrot e Van Ness trata de algumas propriedades

que as variáveis aleatórias possuem. Ini ialmente t é um tempo qualquer, e x denie

omo o onjunto de todos os valores de uma variável aleatória, onde x pertente a

um espaço amostral X.

O movimento browniano usual, B(t, x) é uma função real aleatória om in-

rementos gaussianos independentes. Dessa forma a diferença B(t2 , x) − B(t1 , x)

tem média zero e variân ia dada por |t2 − t1 | de tal maneira que se os intervalos

(t1 , t2 ) e (t3 , t4 ) não se sobreponham, B(t2 , x) − B(t1 , x) e B(t4 , x) − B(t3 , x), são

independentes.

Sendo assim seja 0 < H < 1 e b0 um número real arbitrário, a função

aleatória BH (t, x), é o movimento browniano fra ionado reduzido, om parâmetro

H e ini iando em b0 para t = 0. Para t > 0, BH (t, x) é denida omo:

Z 0
1
[(t − s)H−1/2 − (−s)H−1/2 dB(s, x)

BH (t, x) − BH (0, x) =
Γ(H + 1/2) −∞
Z t 
H−1/2
+ (t − s) dB(s, x) (6.1)
0

ou em uma forma mais simétri a:

Z t2
1
[(t − s)H−1/2 − dB(s, x)

BH (t2 , x) − BH (t1 , x) =
Γ(H + 1/2) −∞
Z t1 
H−1/2
− (t − s) dB(s, x)
−∞

(6.2)

Paul Lévy[57℄ já havia dis utido brevemente sobre uma variável similar à
6 Denição do movimento browniano fra ionado 115

B(t, x), hamada Holmgren-Riemann-Liouville integral fra ionada, dada por:

t
1
Z
0
[(t − s)H−1/2 dB(s, x),

BH (t, x) = (6.3)
Γ(H + 1/2) −∞

essa integral, valoriza em ex esso o lo al da origem.

Entre as diversas propriedades que essas funções apresentam, em destaque

está o fato de que o desvio padrão segue uma lei de potên ia, na forma:

h [BH (t + T, x) − BH (t, x)]2 i = 2DT 2H , (6.4)

onde T é um in remento temporal, e D é a onstante de difusão. Também é impor-

tante saber que essas funções são auto-similares, ou seja,

BH (at, x) ∼ |a|H BH (t, x), (6.5)

e a orrelção entre in rementos futuros e in rementos passados, om aslguns parâ-

metros denidos omo unidade, é dada por:

h −BH (−t, x)BH (t, x) i


C(t) = = 22H−1 − 1, (6.6)
BH (t, x)2

onde pode-se observar que o sistema é independente para H = 1/2, omo é onhe ido

no movimento browniano usual.

Moura e Lyra[58℄ analisaram o omportamento do modelo de Anderson

unidimensional[59℄ utilizando uma desordem orrela ionada nas energias dos sítios

da adeia. Nesse trabalho eles deniram que o poten ial deveria seguir uma densi-

dade espe tral apartir de um traço do movimento browniano fra ionado, tomando

a densidade omo:

1
S(k) = , (6.7)
ka
onde S(k) é a transformada de Fourier da função de orrelação entre dois sítios quais-

quer na rede. O parâmetro a mede o grau de orrelação da série, donde, para a = 0,


6 Denição do movimento browniano fra ionado 116

a série é ompletamente des orrela ionada. Moura e Lyra per eberam também que

para a > 2, o sistema pode sofrer uma transição metal-isolante , ao ontrário de ou-

tros modelos anteriores unidimensionais, do tipo dimmer, que apresentavam apenas

algumas faixas ressonantes de energia.

ESTENDIDOS
a

LOCALIZADOS

Figura 6.1: Diagrama de fase no plano (E/t,a), mostrando os estados estendidos e

lo alizados[58℄.

A série om as energias dos sítios é gerada através da tranformada de Fourier

dis reta[60, 61, 62, 63, 64℄ resultando na equação:

N/2
X
ǫi = [S(ωk )∆ωk ]1/2 cos(ωk ti + φk ) (6.8)
k=1

Considerando que as frequên ias ωk são multiplos da frequên ia fundamental ∆ω =



T
e que os ângulos de fase são distribuídos uniformemente sobre o intervalo [0, 2π],
6 Denição do movimento browniano fra ionado 117

obtem-se para o espe tro S(ω) = 1/ω a a série des rita omo:
N/2
" (1−a) #1/2  
−a 2π 2πik
X
ǫi = k cos + φk , (6.9)
k=1
N N
q
que está normalizada de tal maneira que hǫi = 0 e h ǫ2 i − h ǫ i2 = 1. Pode-se

observar o omportamento dessa série gerada pela equação 6.9 om valores diversos

do parâmetro a na gura 6.2.

Sítios

Figura 6.2: Energias gerados por sítios, om N=4096; onde a=0 é uma sequên ia

não orrela ionada;a = 2.0 traço de um movimento browniano fra ionado; a = 2.5

traço de um movimento browniano fra ionado om in rementos de persistên ia[58℄.

Por ser um resultado si amente interessante, sendo o primeiro a demonstrar

a transição metal isolante em sistemas 1D, violando a lei de es ala[59℄, o trabalho


6 Denição do movimento browniano fra ionado 118

de Moura e Lyra já possui mais de 300 itações até os dias de hoje. Tendo omo

partida uma série orrela ionada onde a orrelação pode ser fa ilmente ajustada, esse

modelo é su itível à apli ação dos teoremas já aqui dis utidos, o TLC e o TSL, am

de ompreender qual o papel que as orrelações impli am na onvergên ia dessas

séries e possivelmente entender melhor a transição apresentada por esse sistema.


Capítulo 7

O TLC e o TSL apli ados à séries de


sítios de energia orrela ionados

Para as análises pertinentes a er a da importân ia e do papel que as orrelações

empregam na onvergên ia das séries temporais, foram geradas algumas séries uti-

lizando a orrelação des rita no apítulo anterior. As séries foram geradas para

diversos valores do parâmetro a, om 1048576 vaiáveis e om uma média nula, am

de possuir uma quantidade de dados próxima a que foi analisada no apítulo 5. Até

a presente data, os resultados aqui abordados ainda são inéditos na literatura, não

tendo nenhum outro trabalho publi ado om a mesma abordagem ou on lusões.

Essas séries não possuem padrões limitantes, o que impediria a prin ípio,

ser apaz de observar algumas propriedades, tais omo leis de es ala e até mesmo

a validade do teorema de Lévy. Sendo assim, am de melhorar as análises, foi

al ulado o retorno dos dados, ou seja, a diferença dentro dos próprios dados, assim

omo foi feito om os dados anteriores provenientes de séries e onmi as.

119
120

3 2
2
1
1
0 0
r

-1
-1 (b)
-2 (a)
-3 -2
0 5000 10000 15000 20000 0 5000 10000 15000 20000
2 2
1 1
0 0 (d)
r

-1 -1
(c)
-2 -2
0 5000 10000 15000 20000 0 5000 10000 15000 20000
2 2
1 1
0 0
r

-1 (e) -1 (f)

-2 -2
0 5e+05 1e+06 0 5e+05 1e+06
N N

Figura 7.1: Várias séries geradas arti ialmente om parâmetros diferen iados, om

4096 dados. (a)a = 0, 00, (b)a = 1, 00,( )a = 1, 50, (d)a = 2, 00,(e)a = 2, 50,

(f )a = 3, 00

Na gura 7.3 pode-se observar a densidade de probabilidade para os dados

abordados. Nenhuma das urvas tem ara terísti as gaussianas, que é o primeiro

passo para os testes. É possível inferir visualmente que as urvas são aparentemente

lep úrti as.


121

2 2
1 1
0 0

r
-1 -1
-2 -2
0 1e+05 2e+05 3e+05 4e+05 5e+05 0 1e+05 2e+05 3e+05 4e+05 5e+05
0,2 0,02
0,1 0,01
0 0
r

-0,1 -0,01
-0,2 -0,02
0 1e+05 2e+05 3e+05 4e+05 5e+05 0 1e+05 2e+05 3e+05 4e+05 5e+05
6e-05
0,05 4e-05
2e-05
0
r

0
-2e-05
-0,05
-4e-05
0 1e+05 2e+05 3e+05 4e+05 5e+05 0 1e+05 2e+05 3e+05 4e+05 5e+05
N N

Figura 7.2: Retornos para as séries investigadas. (a)a = 0, 00, (b)a = 1, 00,( )a =

1, 50, (d)a = 2, 00,(e)a = 2, 50, (f )a = 3, 00

Am de determinar os parâmetros ini iais das séries, foram al ulados os

ter eiros e quartos momentos para todas as séries presentes nas análises. Esses

4 50
0,6 (a) (b) (c)
40
0,5 3
Densidade

0,4 30
2
0,3 20
0,2 1
10
0,1
0 0 0
-2 -1 0 1 2 -2 -1 0 1 2 -0,2 -0,1 0 0,1 0,2
300 70
80000
250 (d) 60 (e) (f)
50
200
Densidade

60000

40
150 40000
30
100
20
20000
50 10
0 0 0
-0,02 -0,01 0 0,01 0,02 -0,05 0 0,05 -4e-05 -2e-05 0 2e-05 4e-05 6e-05
r r r

Figura 7.3: Densidades de probabilidade (a)a = 0, 00, (b)a = 1, 00,( )a = 1, 50,

(d)a = 2, 00,(e)a = 2, 50, (f )a = 3, 00


122

resultados podem ser observados nas tabelas 7 e 7

a= Valores ini iais da Skewness

0.00 −0.00095

0.25 -0.00193

0.50 7.17231.10−05

0.75 0.00032

1.00 −0.00339

1.25 -0.00142

1.50 −0.00167

1.75 0.00250

2.00 0.00692

2.25 -0.01894

2.50 0.00021

2.75 0.01939

3.00 0.07243

Tabela 7.1: Valores ini iais da Skewness para as séries geradas do movimento brow-

niano fra ionado


123

a= Valores ini iais da Kurtose

0.00 −0.68472

0.25 -0.59428

0.50 −0.4071539

0.75 0.04358

1.00 1.08334

1.25 2.06849

1.50 2.45372

1.75 2.04917

2.00 2.02993

2.25 2.14443

2.50 2.44105

2.75 1.96785

3.00 1.95789

Tabela 7.2: Valores ini iais da Kurtose para as séries geradas do movimento brow-

niano fra ionado

Uma ondição muito importante e pertinente aos estudos aqui apresentados,

é a ondição de Lindiberg, omentada anteriormente. Apenas séries que satisfaçam

a ondição de Lindeberg, podem ser usadas na apli ação do TSL. Am de veri ar

essa on ordân ia, testamos os dados da série omo requisita o teorema, e vemos

que a onvergên ia do parâmetro e muito rápida, o que indi a que realmente temos

séries que possuem a onabilidade ne essária para a apli ação do teorema.


7 Análise da Convergên ia 124

a=0.00
a=0.25
0,8 a=0.50
a=0.75
a=1.00
a=1.25
a=1.50
MAX (σ k/S n)
2

0,6 a=1.75
a=2.00
2

a=2.25
a=2.50
a=2.75
0,4 a=3.00

0,2

0
0 20 40 60 80 100 120 140 160 180 200 220 240 260 280 300
n

Figura 7.4: Teste da ondição de Lindeberg para as séries orrela ionadas.

7.1 Análise da Convergên ia


Será utilizada a mesma metodologia abordada no apítulo 5, onde foram realizados

os testes para a onvergên ia dos momentos estatísti os, skewness e kurtose, além

dos testes KS e KL, previamente dis utidos.

Para gerar as séries segundo os teoremas, foram utilizadas as equações e

determinações já exploradas. No aso do TLC, a agregação é realizada segundo a

equação 3.1 e para o TSL a análise foi ini iada om uma seção de t = 10−13 seguido

de in rementos de ∆t = 2, 5.10−7, sendo su ientemente pequenos para garantir que

existe uma variação suave nos dados.

Assim omo anteriormente, a tempo da da seção é determinado por:

σS2 t
τt = , (7.1)
σS2 n
7 Análise da Convergên ia 125

enquanto para o TCL, usa-se apenas o número de variáveis agregadas.

Como o TSL utiliza a variân ia para os in rementos, as séries mais próximas

a gaussiana, ou seja, as menos orrela ionadas, não se destoam muita da série ori-

ginal, tendo um tempo da seção limitante e riando alguns dados ruidosos mas que

onvergem rapidamente.

0,4 a=0.00
a=0.25
a=0.50
a=0.75
a=1.00
a=1.25
a=1.50
a=1.75
a=2.00
0,2 a=2.25
a=2.50
a=2.75
Skewness

a=3.00

-0,2

0 50 100 150 200 250 300 350 400


t

Figura 7.5: Convergên ia da Skewness para a apli ação do TLC.

As guras mostram, apesar de algumas utuações, uma lara tenden ia do

regime onvergir para um valor próximo de 0, que orresponde ao valor gaussiano.

Mas isso não é surpresa, uma vez que na tabela mostrada nesse mesmo apítulo, os

valores da skewness para as séries já demonstra tal tendên ia.


7 Análise da Convergên ia 126

0
-0,2 (a) -0,4 (b)

Skewness
-0,4
-0,6
-0,6
-0,8 -0,8
-1 -1
1 1,5 2 2,5 3 1 1,5 2 2,5 3 3,5 4
0
-0,3 (c) (d)
-0,4
Skewness

-0,2
-0,5
-0,6 -0,4
-0,7 -0,6
-0,8
-0,9 -0,8
1 1,5 2 2,5 3 3,5 4 0 1 2 3 4 5 6
2 3
(e) 2,5
1 (f)
Skewness

2
0 1,5
1
-1 0,5
0
-2
0 5 10 15 20 0 5 10 15 20
τ τ

Figura 7.6: Convergên ia da Skewness para a apli ação do TSL om baixa orre-

lação. (a) a = 0.00, (b) a = 0.25,( ) a = 0.50, (d) a = 0.75,(e) a = 1.00, (f )

a = 1.25,

0,4

a=1.50
a=1.75
a=2.00
a=2.25
0,2
a=2.50
a=2.75
a=3.00
Skewness

-0,2

-0,4
50 100 150
τ

Figura 7.7: Convergên ia da Skewness para a apli ação do TSL om fortes orrela-

ções.
7 Análise da Convergên ia 127

Para a kurtose, onde o eixo está subtraído de 3, para a gaussiana ter o valor

nulo, observa-se que nem todas as urvas seguem esse regime e espe ialmente é

observado essa falta de tendên ia para as urvas om orrelação alta, o que indi a

que essa orrelação impede efetivamente a ação do teorema.

Um outro detalhe que pode ser interpretado por esses dados, é o fato de que o

TSL gera uma tendên ia dos dados a serem levados aos valores gaussianos, enquanto

o TLC prati amente não altera os valores das séries, mostrando que o mesmo não

age om efetividade sobre séries que são fortemente orrela ionadas.

a=0.00
5 a=0.25
a=0.50
a=0.75
a=1.00
a=1.25
a=1.50
4 a=1.75
a=2.00
a=2.25
a=2.50
a=2.75
3 a=3
Kurtosis

0 50 100 150 200 250 300 350 400


t

Figura 7.8: Convergên ia da Kurtose para a apli ação do TLC.


7 Análise da Convergên ia 128

0,5
0,5
0 (a) (b)
(a)
0

Kurtosis
-0,5 -0,5
-1 -1
-1,5 -1,5
-2 -2
1 1,5 2 2,5 3 3,5 4 1 2 3 4 5
0,5 0,5
0 (c) (d)
0
Kurtosis

-0,5 -0,5
-1 -1
-1,5 -1,5
-2 -2
0 1 2 3 4 5 6 0 2 4 6 8 10
5 3
4 (e) 2,5
3 2 (f)
Kurtosis

2 1,5
1 1
0 0,5
-1 0
-2
0 10 20 30 40 0 5 10 15 20 25 30
τ τ

Figura 7.9: Convergên ia da Kurtose para a apli ação do TSL om baixa orrelação.

(a) a = 0.00, (b) a = 0.25,( ) a = 0.50, (d) a = 0.75,(e) a = 1.00, (f ) a = 1.25,

4
a=1.50
a=1.75
a=2.00
a=2.25
a=2.50
3 a=3.00
Kurtose

0
50 100 150 200 250
τ

Figura 7.10: Convergên ia da Kurtose para a apli ação do TSL om fortes orrela-

ções.
7 Análise da Convergên ia 129

Usando o mesmo pro edimento metodológi o previamente abordado, foi apli-

ado o teste KS e o teste KL em todas as séries e os resultados se mostraram bastante

intrigantes. A onvergên ia para alguns testes e para algumas séries é lara, mas

para outro teste é possível notar uma lara disparidade entre o que é esperado e o

que é visto no omportamento das urvas dos parâmetros analisados.

a=0.00
a=0.25
1 a=0.50
a=0.75

0,8
Dn

0,6

0,4

0,2

0
0 200 400 600 800
t

Figura 7.11: Teste KS para séries apli adas ao TLC e om a < 1.


7 Análise da Convergên ia 130

As guras do teste KS, que é um teste não paramétri o que mede a maior dis-

tân ia que duas distribuições umulativas de probabilidade possuem, mostra valores

para muito elevados. Sabe-se que o maior valor que a diferença poderá ser é exa-

tamente 1, quando as distribuições são ompletamente destoantes. Esse resultado

aparente ho a om outras visões que indi avam a onvergên ia das séries. Por mais

que os valores ainda não fossem gaussianos, não era de se esperar tais resultados.

As guras a seguir, mostram o omportamento das séries, sob a apli ação do

teste KL, que mede de forma indireta o grau de informação perdido, ao transformar

uma distribuição em outra.

A despeito da gura 7.19, que mostra grandes utuações no resultado e va-

lores muito altos para o que era de se esperar, as outras urvas apresentam padrões

já esperados de onvergên ia. Esse resultado entra em ontradição om o teste KS,

onde foi observado que as séries não onvergiam.

1,4
a=1.00
a=1.25
1,2 a=1.50
a=1.75

0,8
Dn

0,6

0,4

0,2

0
0 50 100 150 200
t

Figura 7.12: Teste KS para séries apli adas ao TLC e om 1 ≤ a < 2.


7 Análise da Convergên ia 131

a=2
a=2.25
0,8 a=2.5
a=2.75
a=3

0,6
Dn

0,4

0,2

0
0 50 100 150 200
t

Figura 7.13: Teste KS para séries apli adas ao TLC e om 2 ≤ a ≤ 3.


1

a=0.00
a=0.25
0,8 a=0.50
a=0.75
a=1.00
a=1.25

0,6
Dn

0,4

0,2

0
0 5 10 15 20 25 30
τ

Figura 7.14: Teste KS para as séries apli adas ao TSL om baixa orrelação

O ponto mais interessante a ser dis utido, en ontra-se exatamente na gura

que não segue o padrão. A gura 7.19 mostra que apesar de possuir uma orre-

lação muito baixa, os dados a abam se tornando ruidosos e sua análise estatísti a
7 Análise da Convergên ia 132

omprometida pelo TSL, enquanto isso, na gura 7.16, é lara a onvergên ia, pois

os valores ali mostrados sugerem que a informação é pou o perdida. Esse tipo de

abordagem ria uma leve segregação entre os teoremas, o teorema de Lévy, deveria

0,8

0,6
Dn

0,4

0,2

0 a=1.50
a=1.75
a=2
a=2.25
-0,2 a=2.50
a=2.75
a=3

0 200 400 600 800


τ

Figura 7.15: Teste KS para as séries apli adas ao TSL om fortes orrelações.

0,2

a=0.00
a=0.25
a=0.50
a=0.75
0,15
DKL

0,1

0,05

0
0 200 400 600 800
t

Figura 7.16: Teste KL para séries apli adas ao TLC e om a < 1.


7 Análise da Convergên ia 133

0,1

0,08

0,06
DKL

0,04

a=1.00
0,02 a=1.25
a=1.50
a=1.75

0
0 200 400 600 800
t

Figura 7.17: Teste KL para séries apli adas ao TLC e om 1 ≤ a < 2.

ser uma generalização, ou seja, apresentar os mesmos resultados que o teorema do

limite entral, quando temos um regime des orrela ionado.

O fato do regime gaussiano não ter sido al ançado em nenhum dos dois siste-

0,1

0,09

0,08
DKL

0,07

0,06

a=2
0,05 a=2.25
a=2.50
a=2.75
a=3
0,04
0 200 400 600 800
t

Figura 7.18: Teste KL para séries apli adas ao TLC e om 2 ≤ a ≤ 3.


7 Análise da Convergên ia 134

a=0.00
a=0.25
0,8 a=0.50
a=0.75
a=1.00
a=1.25

0,6
DKL

0,4

0,2

0
0 5 10 15 20 25 30
τ

Figura 7.19: Teste KL para as séries apli adas ao TSL om baixa orrelação

mas, levanta a questão da validade dos teoremas quando apli ados em séries nitas.

Possivelmente o problema aqui visto, deve-se a limitação que as séries possuem, ape-

sar de muito grandes, ambos os teoremas estão ondi ionados ao limite de innitas

0,1

a=1.50
a=1.75
0,08 a=2
a=2.25
a=2.50
a=2.75
a=3
0,06
DKL

0,04

0,02

0
0 200 400 600 800
tau

Figura 7.20: Teste KL para as séries apli adas ao TSL om fortes orrelações.
7 Análise da Convergên ia 135

variáveis, algo que nun a será observado em séries temporais reais.

Mesmo dentro desse ponto de vista, é importante observar que o regime de

onvergên ia apesar de falho em algumas instân ias, ainda apresenta um omporta-

mento tenden ial das séries, e portanto, talvez ainda exista algum parâmetro, além

da nidade, que ontrole a onvergên ia para séries reais.


Capítulo 8

Con lusões e perspe tivas

No trabalho aqui apresentado foi possível veri ar omo o omportamento extre-

mamente omplexo do sistema dinâmi o e onmi o apresenta uma riqueza de pro-

priedades que são fundamentais para o estudo de apli ações e da generalidade do

Teorema do Limite Central.

O Teorema do limite entral arma que a agregação de variáveis aleatórias

independentes via uma soma direta, resulta em uma distribuição de probabilidades

normal, ou gaussiana. O teorema das seções de Levy mostra-se omo uma genera-

lização do TLC, permitindo a onvergên ia da distribuição para uma distribuição

normal, utilizando omo parâmetro de agregação a variân ia da série temporal.

Para analisar o pro esso de onvergên ia, foram apli ados esses dois teoremas

a uma série temporal om inúmeras propriedades, entre as quais, desta am-se, as

orrelações de longo al an e no módulo dos retornos, a multifra talidade da série e

uma distribuição de probabilidades om auda grossa e lept úrti a.

A apli ação dos dois teoremas na série temporal de âmbio do Mar o Alemão

frente ao Dólar Ameri ano, nos mostrou que o sistema passa de um regime de on-

136
137

vergên ia para um regime esta ionário nos diversos testes de omparação utilizados

e tais valores onde a série se tornou esta ionária, em relação a onvergên ia para o

omportamento gaussiano, em nenhum dos teoremas foi veri ado uma onvergên ia

total para valores gaussianos.

Os testes apli ados foram as análises de alguns momentos estatísti os, omo a

skewness e a kurtose, onde não atingiram os valores gaussianos da nulidade, mesmo

em média. Apli amos também alguns testes omparativos de extrema e á ia e os

mesmos mostraram que apesar de valores bem próximos a zero, o omportamento

não é laramente gaussiano.

Por m da análise dos sistemas e onofísi os foi feita foi abordado o aspé to

multifra tal do sistema e este se mostrou quase inalterado pela apli ação dos teore-

mas gerando assim um questionamento pertinente, a multifra talidade do sistema

gera orrelações de longo al an e tão seguramente fortes que torna a onvergên ia

para o regime gaussiano impossível mesmo om a apli ação do TSL? Ou ela ria isso

pela nidade de números que temos na série?

A análise do onfronto entre séries orrela ionas om omportamento multi-

fra tal e omportamento monofra tal se faz muito relevante e interessante na pers-

pe tiva apresentada nesse trabalho.

Am de investigar melhor as la unas existentes na análise ini ial, foram ge-

radas diversas séries uja orrelação era determinada através de um movimento

browniano fra ionado. Essas investigações levaram a novas perguntas, tanto sobre

a onvergên ia a gaussiana quanto sobre os parâmetros limitantes da apli ação do

TSL, que mostrou que séries fra amente orrela ionadas ou ompletamente des or-

rela ionadas, sua apli ação se torna onfusa e infrutífera.


138

Nossos trabalhos foram publi ados na revista Europhysi s Letters na referên-

ia [15℄
Apêndi e A

A ondição de Lindeberg

A ondição de Lindeberg[65℄ é uma ondição su iente para que o teorema do limite

entral seja válido para uma sequên ia de variáveis aleatórias independentes e apenas

exige que tenham média e variân ia nitas.

Seja (Ω, F , P) um espaço de probabilidades, e Xk : Ω → R, k ∈ N, uma

variável aleatória independente que perten e a esse espaço. Assuma que os valores

esperados EXk = µk e as variân ias Var Xk = σk2 existam e são nitas. Vamos denir

s2n := nk=1 σk2 .


P
também

A ondição de Lindeberg para a sequen ia de variáveis aleatórias Xk e tal

que:

1
Pn
(Xk − µk )2 dP = 0,
R
:limn→∞ para todo ε > 0,
s2n k=1 {|Xk −µk |>εsn }

(onde essa integral é uma integral de Lebesgue sobre o onjunto {|Xk − µk | >

εsn })

a integral de Lebesgue é uma generalização da integral de Riemann. Original-

mente denida para funções f : Rn → R, a integral de Lebesgue apresenta diversas

vantagens em relação à integral de Riemann sobretudo em relação a pro essos de

139
140

limite. Para maiores informações sobre a integral de Lebesgue veja Dudley, Ri hard

M. (1989). Real analysis and probability, que trata da integração de Lesbegue no

âmbito de probabilidades om ótimas referên ias históri as.

A ondição de Lindeberg impli a que

σk2
max →0
k=1,...,n s2
n

om n → ∞, isso garanta que a ontribuição de ada uma das variáveis que ompoem

Xk vão ontribuir minimamente para a variân ia s2n para valores su ientemente

grandes de n. Nesse ontexto a ondição de Lindeberg nos forne e as bases onde o

TCL se estabele e.[66℄


Referên ias Bibliográ as

[1℄ Girolamo Cardano The book on games of han e (Liber de ludo aleae) Rinehart

and Winston, 1961

[2℄ David Bellhouse Historia Mathemati a, 32, 180, 2005.

[3℄ Ian Stewart 17 Equações que mudaram o mundo Zahar, 2013

[4℄ Jakob Bernoulli The Art of Conje turing JHU Press, 2006

[5℄ David Eugene Smith A Sour e Book in Mathemati s Courier Dover Publi ations,

1959

[6℄ Abrahan de Moivre Do trine of Chan es 1738, disponível gratuitamente através

do http://books.google. om.br

[7℄ Adolphe Quetelet A treatise on man and the development of his fa ulties Edin-

burgh : W. and R. Chambers, 1842

[8℄ Vilfredo Pareto. Cours d'é onimie politique. Université de Lausanne, 1896.

[9℄ Carl Friedri h Gauss Theory of the motion of the heavenly bo-

dies moving about the sun in oni se tions Boston: Little,

141
REFERÊNCIAS BIBLIOGRÁFICAS 142

Brown and Company, 1857, disponível gratuitamente através do

https://ar hive.org/details/motionofheavenly00gausri h

[10℄ Hans Fis her A History of the entral limit theorem: from lassi al to modern

probability theory Springer, New York, 2011.

[11℄ Gorg Pólya. Colle ted Papers, Cambridge, 1984

[12℄ J.C. Maxwell Philosophi al Magazine, 19, 19-32, 1860.

[13℄ Gregoire Ni olis and Catherine Ni olis. Foundations of omplex systems. Eu-

ropean Review, 17(02),237248, 2009.

[14℄ P. Lévy. Cal ul des probabilités. Gauthier-Villars, Paris, 1925.

[15℄ C. M. NASCIMENTO; E.L.S. Helena; F.S. Passos; Iram Gleria; A. Figueiredo;

G.M. Viswanathan Europhysi s Letters, 96, 58006, 2011

[16℄ J. P. Nolan. Stable Distributions - Models for Heavy Tailed Data. Birkhauser,

2011. Em progresso, Capítulo 1 online em http://a ademi 2.ameri an.edu/ jpno-

lan/stable/stable.html.

[17℄ B. B. Mandelbrot. The fra tal geometry of nature. Freeman, New York, 1982.

[18℄ J. Feder. Fra tals. Plenium Press, New York, 1988.

[19℄ Edward Ott. Chaos in Dynami al Systems. Cambridge University Press, Cam-

bridge, 1 edition, 1993.

[20℄ Iram Gleria, Raul Matsushita, and Sergio Da Silva. Revista Brasileira de Ensino

de Físi a, 26, 99, 2004.


REFERÊNCIAS BIBLIOGRÁFICAS 143

[21℄ A.-L. Barabási and H.E. Stanley. Fra tal Con epts in Surfa e Growth. Cam-

bridge University Press, Cambridge, 1 edition, 1995.

[22℄ H.E. Stanley and P. Meakin. Nature, 335,405, 1988.

[23℄ Viswanathan, G.M. ; da Luz, M. G. E. ; Raposo, Ernesto P ; STANLEY, H. E.

. The Physi s of Foraging Cambridge: Cambridge University Press, 2011.

[24℄ Goldberger AL. Non-linear dynami s for lini ians: haos theory, fra tals, and

omplexity at the bedside. Lan et 1996;347:1312-1314.

[25℄ H. E. Hurst. Transa tions of the Ameri an So iety of Civil Engineers, 116:770,

1951.

[26℄ B. B. Mandelbrot and J. Wallis. Water Resour es Resear h, 5,967, 1969.

[27℄ C.-K. Peng, S. V. Buldyrev, S. Havlin, M. Simons, H. E. Stanley, and Goldber-

ger. Phys. Rev. E, 49,1685, 1994.

[28℄ H Eugene Stanley. Introdu tion to phase transitions and riti al phenomena.

Oxford University Press, 1971.

[29℄ Thomas C. Halsey, Mogens H. Jensen, Leo P. Kadano, Itamar Pro a ia, and

Boris I. Shraiman. Phys. Rev. A, 33(2) , 141, 1986.

[30℄ Chhabra, Ashvin and Jensen, Roderi k V. Physi al Review Letters, 62,
1327,1989

[31℄ J.W. Kantelhardt, S.A. Zs hiegner, E. Kos ielny-Bunde, S. Havlin, A. Bunde,

and H.E. Stanley. Physi a A: Statisti al Me hani s and its Appli ations, 316,87,
2002.
REFERÊNCIAS BIBLIOGRÁFICAS 144

[32℄ George Arfken and Hans Weber. Mathemati al methods for physi ists. Elsevir,

6th ed, 2007

[33℄ P. Levy. Bull. So . Math., 59, 1-32, 1935.

[34℄ P. Levy Theorie de l'addition de Variables Aleatoires (Paris: Gauthiers-Villars)

1937

[35℄ Annibal Figueiredo, Iram Gleria, Raul Matsushita and Sergio Da Silva J. Phys.

A: Math. Theor., 40, 2007

[36℄ C. M. Nas imento, H. B. N. Júnior, H. D. Jennings, M. Serva, Iram Gleria, and

G. M. Viswanathan. Europhys. Lett., 81,18002, 2008.

[37℄ A.D.F. NETO; R. MATSUSHITA; S. SILVA; M. Serva ; G. M. VISWA-

NATHAN ; C. M. NASCIMENTO; Iram Mar elo GLERIA Physi a. A, 386, 2007.

[38℄ A Kolmogorov G. Inst. Ital. Attuari, 4, 1933

[39℄ Chakravarti, Laha, and Roy, (1967). Handbook of Methods of Applied Statisti s,

Volume I, John Wiley and Sons, pp. 392-394.

[40℄ V. Glivenko e F. P. Cantelli, Giorn. Ist. Ital. Attuari, 4, 1933

[41℄ S. Kullba k, R. A. Leibler, Annals of Mathemati al Statisti s, 22, 1951

[42℄ Claude E. Shanon Bell System Te hni al Journal, 27, 1948

[43℄ Louis Ba helier. Théorie de la Spé ulation. 1900.

[44℄ B. B. Mandelbrot. Journal of Business, 36(4),394, 1963.


REFERÊNCIAS BIBLIOGRÁFICAS 145

[45℄ Fis her Bla k and Myron S holes. Journal of Politi al E onomy, 81,637654,
1973.

[46℄ L.P. Kadano Simulation, 16, 261, 1971

[47℄ E.W. Montroll and W.W. Badger Introdu tion to Quantitative Aspe ts of so ial

phenomena. Gordon and Brea h, New York, 1974.

[48℄ R.N. Mantegna and H.E. Stanley. Nature, 376:46, 1995.

[49℄ R.N. Mantegna and H.E. Stanley. An Introdu tion to E onophysi s: Correlati-

ons and Complexity in Finan e. Cambridge University Press, Cambridge, 2000.

[50℄ Bar-Yam Y., Dynami s of Complex System (Perseus,Reading, Mass.) 1997.

[51℄ A. S. Ferreira , J. C. Cressoni, G. M. Viswanathan and M.A.A. Da Silva, Phys.

Rev. E, 81, 2010

[52℄ Ulri h Horst. E onomi Theory, 25,917, 2005.

[53℄ F.S.Passos, C.M. Nas imento, Iram Gleria, Sergio da Silva, G. M. Viswanathan

Europhysi s Letters, 93, 58006, 2011

[54℄ O programa pode ser gratuitamente baixado em http://www.r-proje t.org/

[55℄ A. Einstein, Investigations on the theory of the Brownian motion. Dover Pu-

bli ations, 1926, reprinted in 1956

[56℄ B. B. Mandelbrot. and J. W. Van Ness SIAM Review, 10, 422, 1968

[57℄ P. Lévy University of California Publi ations in Statisti s, 1 331, 1953


REFERÊNCIAS BIBLIOGRÁFICAS 146

[58℄ Fran is o A.B.F. de Moura and Mar elo L. Lyra, Physi al Review Letters,

81,3735, 1998.

[59℄ P. W. Anderson, Physi al Review, 109,1492, 1958.

[60℄ N.P. Greis and H.S. Greenside Physi al Review A, 44,2324, 1991.

[61℄ T. Higu hi Physi a D, 31,277, 1988.

[62℄ C.G. Fox Pure Applied Geophysi s, 131,211, 1989.

[63℄ A.R. Osborne and A. Provenzale Physi a D, 35,357, 1989.

[64℄ T. Higu hi Physi a D, 46,254, 1988.

[65℄ J. W. Lindeberg Mathematis he Zeits hrift, 15,1922

[66℄ Parte do texto foi retirado da página http://en.wikipedia.org/wiki/Lindeberg's_ ondition

Você também pode gostar