Você está na página 1de 31

UFABC - Mecânica Estatística

Curso 2018.2 - Prof. Germán Lugones

CAPITULO 2
Variáveis Aleatórias

!1
Introdução

Mecânica Mecânica Estatística Termodinâmica

H(pi ,qi) QN(V, T) F(T, V, N)

Hamiltoniano Função de partição Relação fundamental:


entropia ou energia
interna, ou potencial
termodinâmico.

!2
Para discutir as propriedades de equilíbrio de um sistema macroscópico, não
é necessário o pleno conhecimento do comportamento microscópico de
suas partículas constituintes.

Tudo o que é necessário é a probabilidade de que as partículas estejam


num estado microscópico particular.

A mecânica estatística é, portanto, uma descrição inerentemente


probabilística do sistema e a familiaridade com as manipulações das
probabilidades é um pré-requisito importante.

O objetivo deste capítulo é revisar, de maneira informal, alguns resultados


importantes na teoria da probabilidade.

!3
Variáveis aleatórias

Variável aleatória: é uma grandeza X que pode assumir diferentes


valores numéricos x, definidos para eventos de um espaço amostral !:
! ≡ {x , x , · · ·}
1 2

O resultado (valor) depende de fatores aleatórios. Por exemplo, o


resultado do lançamento de um dado pode dar qualquer número
entre 1 e 6; !dado ≡ {1, 2, 3, 4, 5, 6}

Embora possamos conhecer os seus possíveis resultados, o resultado


em si depende de fatores de sorte.

As variáveis aleatórias podem ser discretas ou contínuas:


• discreto: dado → !dado ≡ {1, 2, 3, 4, 5, 6}
• contínuo: a velocidade de uma partícula de um gás,
!4
!v ≡ { −∞< vx, vy, vz < +∞}
Um evento é qualquer subconjunto de resultados E, contido no
espaço amostral, (E ⊂ !), ao qual pode ser atribuída uma
probabilidade p(E).

Por exemplo: para um dado honesto, temos:


pdado({1}) = 1/6 pdado({1,3}) = 1/3

As probabilidades devem satisfazer as seguintes propriedades:

• Positividade: p(E) ≥ 0; todas as probabilidades devem ser reais e


não negativas.
• Aditividade: p(A ou B) = p(A) + p(B) , se A e B são eventos
desconectados entre si.
• Normalização: p(!) = 1.

!5
ability
Do ponto de vista prático, gostaríamos de saber como atribuir
valores de probabilidade aos diferentes resultados possíveis.
om a practical point of view, we would like to know how to assign
Para values
bility isso temos duas estratégias
to various possíveis:
outcomes. There are two possible approaches:

As probabilidades objetivas são obtidas experimentalmente a partir


ective probabilities are obtained experimentally from the relative frequency of the
da frequência relativa da ocorrência de um resultado em muitos testes
urrence of an outcome
da variável in many
aleatória. Se o tests of the aleatório
processo random variable. If the random
for repetido process
N vezes, eo i
eated N times,
evento and theNevent
A ocorrer A occurs N times, then
A vezes, então A

NA
p!A" = lim #
N →" N

Por exemplo,
example, uma
a series of N =série de N
100$ 200$ 300=throws
100, of200, 300
a dice lances
may result de
in Num dado
1 = 19$ 30$ 48
pode resultar
urrences of 1. The em N10.19,
ratios = 19, 30,0.16
0.15, 48 provide
ocorrências do valor more
an increasingly 1. reliable estimate
he probability pdice !%1&".
Os valores 0.19, 0.15, 0.16 fornecem uma estimativa cada vez mais
jective probabilities provide a theoretical estimate based on the uncertainties related
confiável da probabilidade pdado({1}). !6
ack of precise knowledge of outcomes. For example, the assessment pdice !%1&" = 1/6
As probabilidades subjetivas fornecem uma estimativa teórica baseada nas
incertezas relacionadas à falta de conhecimento preciso dos resultados.

Por exemplo, a avaliação pdado({1}) = 1/6 baseia-se no conhecimento de que


há seis resultados possíveis para um lance de dados, e que na ausência de
qualquer razão prévia para acreditar que os dados são tendenciosos, todos
os seis são igualmente prováveis.

Todas as atribuições de probabilidade em mecânica estatística são


subjetivamente baseadas ➜ e.g. princípio de igual probabilidade a priori.

As consequências de tais atribuições subjetivas de probabilidade têm que ser


posteriormente verificadas através de medições, e elas podem precisar ser
modificadas à medida que mais informações sobre os resultados se tornam
disponíveis.

!7
Densidade de probabilidade

Aqui nos concentraremos apenas em variáveis aleatórias contínuas, que são


as mais relevantes para nossos propósitos.

Consideremos uma variável aleatória x, cujos resultados são números reais,


ou seja,
!x ≡ { −∞< x < +∞}

Exemplo: x pode ser uma das componentes da coordenada ou do momento


de uma molécula imersa em um gás.

A função de probabilidade cumulativa (cumulative probability function, CPF)


P(x) é a probabilidade de obter um resultado com qualquer valor menor que
x, ou seja, P(x) = prob(X ∈ (-∞, x]).

!8
that is, ! x = %−" < x < "&.

Propriedades
• da CPF:
The cumulative probability function (CPF) P!x" is the probability of an
outcome with any value less than x, that is, P!x" = prob!E ⊂ '−"$ x(". P!x"
- P(x) deve ser uma função monotonamente crescente de x: Se x2 > x1,
must be a monotonically increasing function of x, with P!−"" = 0 and
então P(x2) > P(x1)
P!+"" = 1.
- P(-∞) = 0
- P(+∞) = 1.

P(x)
1

0 x

Esboço de uma CPF típica.


!9
A função de densidade de probabilidade (probability density function, PDF)
é definida por
0 x
p(x) ≡ dP(x)/dx.
• The probability density function (PDF) is defined by p!x" ≡ dP!x"/dx.
Hence, p!x"dx = prob!E ∈ #x$ x +dx%". As a probability density, it is positive,
A densidade de probabilidade é positiva e normalizada de forma tal que
and normalized such that
! #
prob!!" = dx p!x" = 1& (2.1)
−#

−1
Note that since p!x" is a probability density, it has dimensions
Note que uma vez que p(x) é uma densidade de probabilidade, ela tem
of #x% , and
changes itsde
dimensões value
x-1 if
e the
mudaunitsseu
measuring areunidades
valor se xas modified.que
Unlike P!x",x the
medem PDF
forem
has no upper bound, that is, 0 < p!x" < #, and may contain divergences as
modificadas.
long as they are integrable.
• The expectation value of any function, F!x", of the random variable is
! #
%F!x"& = dx p!x"F!x"& !10 (2.2)
−#
Propriedades da PDF:

- por ser a derivada da CPF, a PDF deve tender a zero nos limites x→-∞ e
x→+∞.
- Ao contrário de P(x), a PDF não tem limite superior, ou seja, 0 <p(x) < ∞,
e pode conter divergências, desde que sejam integráveis.
2.2 One random variable

dP
p(x) =
dx

0 x

Esboço de uma PDF típica. !11


• The probability density function (PDF) is defined by p!x" ≡ dP!x"/dx.
Interpretação da PDF:

Vejamos o significado de p(x)dx:

Pela definição p(x) ≡ dP(x)/dx, temos: dP(x) = p(x) dx

Mas, dP(x) = P(x+dx) - P(x), portanto:

p(x) dx = P(x+dx) - P(x) = prob(X ∈ [x, x + dx]).

Assim, p(x) dx indica probabilidade de que a variável aleatória X adote


um valor entre x e x+dx.

Em outras palavras, p(x) é a probabilidade por "unidade da grandeza x”


de encontrar X em torno do valor x.

→por isso, em geral depende das unidades de x !12


Valor esperado ou valor médio
O valor esperado ou valor médio da variável aleatória X, é:

Z +1
hXi = x p(x) dx
1

Qualquer função F(X) de uma variável aleatória X é também uma variável


aleatória. Chamamos F(X) de função aleatória. Seu valor esperado é
definido de maneira análoga à expressão anterior:
Z +1
hF (X)i = F (x) p(x) dx
1

No caso de uma variável aleatória discreta temos:

⟨X⟩ = ∑i xi p(xi).
⟨F(X)⟩ = ∑i F(xi) p(xi). !13
Momentos de uma PDF

O n-ésimo momento da densidade de probabilidade p(x) é definido como:


Z +1
µn = hX n i = xn p(x) dx
1

Isto é, o momento de ordem n da PDF de uma variável aleatória X é o valor


esperado da função Xn.

Os momentos ⟨Xn⟩ (n = 0, 1, 2, ...) servem para revelar as propriedades de X.

Também é útil definir os momentos em torno da média ⟨(X - ⟨X⟩)n⟩, também


denominados momentos centrados.

!14
Analisemos os primeiros momentos centrados:

O momento centrado de ordem zero é:

⟨(x - ⟨X⟩)0⟩ = ⟨1⟩ = ∫ 1 . p(x) dx = 1.

Simplesmente recuperamos o fato de que as probabilidades são normalizadas.

O momento centrado de primeira ordem é:

⟨(x - ⟨X⟩)1⟩ = ∫ (x - ⟨X⟩)1.p(x)dx = ∫ x p(x)dx − ⟨X⟩ ∫ p(x)dx = ⟨X⟩ − ⟨X⟩.1 = 0

onde foi usada a propriedade de normalização e a definição de média.

!15
follows from normalization (2.1.3) and the definition of the mean (2.1.1).
Momentos centrados
Higher order de(with
moments ordem
n ≥superior (comother
2 ) describe n ≥properties
2) descrevem outras
of X . For
propriedades
instance, thede X. moment about the mean or the variance of X , denoted by
second
var{X } and defined by
O segundo momento centrado é denominado variância de X:
var{X } = ⟨(X − ⟨X ⟩)2 ⟩, (2.1.5)
var{X} = ⟨(X − ⟨X⟩)2⟩.
quantifies the variability, or mean squared deviation, of X from its mean ⟨X ⟩.
The linearity of the expected value operator ⟨⟩ (see section 2.2) ensures that
Usando a linearidade
(2.1.5) reduces to do operador ⟨ ⟩, temos:

var{X } = ⟨X 2 − 2X ⟨X ⟩ + ⟨X ⟩2 ⟩

= ⟨X 2 ⟩ − 2⟨X ⟩2 + ⟨X ⟩2

= ⟨X 2 ⟩ − ⟨X ⟩2 . (2.1.6)

2
The mean and variance
√ are sometimes denoted by the Greek letters µ and σ ,
respectively, and σ 2 = σ is called the standard deviation of X . The third
moment about the mean enters into the definition of skewness,
!16
3
A média e a variância são denominadas às vezes com as letras " e #2:

⟨X⟩ ≡ "
var{X} ≡ #2

A raiz quadrada da variância é denominada desvio padrão:

# = ( ⟨(X − ⟨X⟩)2⟩ )1/2

!17
O terceiro momento centrado entra na definição da skewness (em
português, obliquidade ou assimetria):

h(X hXi)3 i
skewness{X} = 3
<latexit sha1_base64="28t18AkNmryEqAH7RijoHauNfBg=">AAACo3icnVFNaxsxENVu0jZ1v9z0mMsQY0gPNbuNob0UQgKlkEPdECcL1sZo5VlHWNIukrbBLPvH8jN667+p1nFKm+SUAcHTm5knzZuslMK6KPodhBubT54+23reefHy1es33bfbZ7aoDMcxL2RhkoxZlELj2AknMSkNMpVJPM8WR23+/CcaKwp96pYlporNtcgFZ85T0+41VcxdGlXbBV5ptLYBWkMCQBv4AjQ3jNdAJdNzibCXwIe/lwSoWaH3F/u3EKCpqRVzxS72vRDt9G/lF5VxhRWPkh8+ID9sOtNuLxpEq4D7IF6DHlnHaNr9RWcFrxRqxyWzdhJHpUtrZpzgEpsOrSyWjC/YHCceaqbQpvXK4wb6nplBXhh/tIMV+29HzZS1S5X5ynZkezfXkg/lJpXLP6e10GXlUPObh/JKgiugXRjMhEHu5NIDxo3wfwV+ybxxzq+1NSG+O/J9cPZxEEeD+Mewd3C4tmOL7JBdskdi8okckG9kRMaEBxB8Db4Ho7AfHocn4elNaRise96R/yJM/wDmw8rg</latexit>

e o quarto momento, entra na definição da kurtosis:

h(X hXi)4 i
kurtosis{X} = 4
<latexit sha1_base64="40/Qq4dxre4dEWMlaeRGAy+QFQQ=">AAACo3icnVFNaxsxENVu0jZ1v9z0mMsQY0gPNbuNob0UQgKlkEPdECcL1sZo5VlHWNIukrbBLPvH8jN667+p1nFKm+SUAcHTm5knzZuslMK6KPodhBubT54+23reefHy1es33bfbZ7aoDMcxL2RhkoxZlELj2AknMSkNMpVJPM8WR23+/CcaKwp96pYlporNtcgFZ85T0+51nyrmLo2q7QKvNFrbAK0hAaANfAGaG8ZroJLpuUTYS+DD30sC1KzQ+4v9WwjQ1NSKuWIX+16Idm7VF5VxhRWPUh8+oD5sOtNuLxpEq4D7IF6DHlnHaNr9RWcFrxRqxyWzdhJHpUtrZpzgEpsOrSyWjC/YHCceaqbQpvXK4wb6nplBXhh/tIMV+29HzZS1S5X5ynZkezfXkg/lJpXLP6e10GXlUPObh/JKgiugXRjMhEHu5NIDxo3wfwV+ybxxzq+1NSG+O/J9cPZxEEeD+Mewd3C4tmOL7JBdskdi8okckG9kRMaEBxB8Db4Ho7AfHocn4elNaRise96R/yJM/wDUFcrg</latexit>

A skewness e a kurtosis são parâmetros adimensionais que medem a forma


das caudas da distribuição.

!18
n
S = hû3 i = 3
=
A skewness quantifica a assimetria de X em torno de N n=1
suaumédia: u

•Se skewness{X}>0, a distribuição tem uma cauda direita mais longa.


Assim, para uma função simétrica (e.g. gaussiana
•Se skewness{X}<0, a distribuição tem uma cauda esquerda mais longa.
a distribuição
•Se skewness{X}=0, possua S >é 0,
a distribuição a cauda da função
aproximadamente estará
simétrica (na d
terceiralor
potência
médio,do enquanto
desvio em relação
S < 0à àmédia).
esquerda. Na fig. 2.3(a) po
esquemática de distribuições com obliquidades opostas.

!19
(a) Obliquidade
A kurtosis é uma medida de forma que caracteriza o achatamento da curva
média. Utilizando a eq. (2.2.6) para m = 3 teremos que
da função de distribuição de probabilidade.
03 X N  3
hu i 1 u hui
•SSe K=
= hû 3
i 3,
= a 3distribuição
= tem o mesmo
n
. achatamento(2.2.8)
que a distribuição
N
normal. u n=1 u

• Se K>3, então a distribuição em questão é mais alta (afunilada) e


ra uma concentrada
função simétrica que(e.g. gaussiana) normal.
a distribuição o valor de S será
Neste nulo.é Caso
caso, relativamente fácil
ua S >obter
0, a cauda
valoresdaquefunção
nãoestará deslocada para
se aproximam a direita
da média a do va- múltiplos do
vários
to S < desvio padrão.Na fig. 2.3(a) podemos ver uma representação
0 à esquerda.
• Se com
tribuições K<3,obliquidades
a função de distribuição é mais "achatada" que a distribuição
opostas.
normal.

!20
a) Obliquidade (b) Curtose
Função característica

A função característica é simplesmente a transformada de Fourier da PDF


(função de distribuição de probabilidade):
Z +1
ikx
p̃(k) = e p(x) dx
1

De acordo com a definição do valor médio, vemos que a função característica


é o valor esperado da função exp(–ikx):

ikx
p̃(k) = he i

A PDF pode ser recuperada a partir da função característica através da


transformada de Fourier inversa:
Z +1
1
p(x) = e+ikx p̃(k) dk
2⇡ 1 !21
Teorema: A função característica pode ser escrita em série de potências de
k, com coeficientes proporcionais aos momentos da PDF.
X1
( ik)n n
p̃(k) = hx i
n=0
n!
<latexit sha1_base64="VKckl7Ewh+J6AIKP9XczRrySyuc=">AAACM3icbVBNSwMxEM36bf2qevQSLUI9WLYiqAdB9CJ4UbAqdNuSTWdraDa7JLNiCfujvPhDvIjgQcWr/8G09uDXg4GX92bIzAtTKQz6/pM3Mjo2PjE5NV2YmZ2bXyguLl2YJNMcajyRib4KmQEpFNRQoISrVAOLQwmXYfeo71/egDYiUefYS6ERs44SkeAMndQqngQoZBtsmpe7G5Tu08BkccuqfT9v2kCoCHs5DSLNuC1viu5GU+VWrTpJMtWRQOltU9FADx6tYsmv+APQv6Q6JCUyxGmr+BC0E57FoJBLZky96qfYsEyj4BLyQpAZSBnvsg7UHVUsBtOwg6Nzuu6UNo0S7UohHajfJyyLjenFoeuMGV6b315f/M+rZxjtNqxQaYag+NdHUSYpJrSfIG0LDRxlzxHGtXC7Un7NXELoci64EKq/T/5LaluVvYp/tl06OBymMUVWyBopkyrZIQfkmJySGuHkjjySF/Lq3XvP3pv3/tU64g1nlskPeB+fqNyqdw==</latexit>

Demonstração: Expandindo a exponencial em série de potências temos:

X1 n X1 n
( ikx) ( ik)
p̃(k) = he ikx i = h i= hxn i
n=0
n! n=0
n!

!22
Cumulantes
Definimos a função geratriz dos cumulantes como o logaritmo da função
característica:
H(k) = ln p̃(k)
<latexit sha1_base64="w1wVU5drB8Ttm07PT1Ho9yMN4Lg=">AAAB/3icbVBNS8NAEN34WetX1IMHL4tFqJeSiqAehKKXHisYW2hC2Ww37dLNJuxOhBJy8a948aDi1b/hzX/jts1BWx8MPN6bYWZekAiuwXG+raXlldW19dJGeXNre2fX3tt/0HGqKHNpLGLVCYhmgkvmAgfBOoliJAoEawej24nffmRK81jewzhhfkQGkoecEjBSzz5sVken+Bp7QmIPuOizLMmN1LMrTs2ZAi+SekEqqECrZ395/ZimEZNABdG6W3cS8DOigFPB8rKXapYQOiID1jVUkohpP5s+kOMTo/RxGCtTEvBU/T2RkUjrcRSYzojAUM97E/E/r5tCeOlnXCYpMElni8JUYIjxJA3c54pREGNDCFXc3IrpkChCwWRWNiHU519eJO5Z7arm3J1XGjdFGiV0hI5RFdXRBWqgJmohF1GUo2f0it6sJ+vFerc+Zq1LVjFzgP7A+vwBw96UzQ==</latexit>

Os cumulantes de uma PDF são um conjunto de grandezas definidas através


da expressão:
X1
( ik)n n
ln p̃(k) = hx ic Eq. (*)
n=1
n!
<latexit sha1_base64="8fnaoK3QVHe879UvMxbjJNJTEL8=">AAACPXicbVA9TxtBEN0jJAHnAxNKmiFWJFPEukNISQokRJqUIHGA5LNPe+s5s/Le3ml3Loq1ul9Gk9+QjjINRRLR0rI2LvjIk1Z6896MZudllZKWwvAyWHq2/PzFy5XV1qvXb96utdffndiyNgJjUarSnGXcopIaY5Kk8KwyyItM4Wk2+TrzT7+jsbLUxzStcFDwsZa5FJy8lLbjRGlISKoRuqrpTrZhDyCxdZE6vRc1Q5dIndO0gSQ3XLjuRznZHurG6a3G9ymuxwrhx1D7wsyLVABA2u6EvXAOeEqiBemwBQ7T9q9kVIq6QE1CcWv7UVjRwHFDUihsWkltseJiwsfY91TzAu3Azc9v4INXRpCXxj9NMFfvTzheWDstMt9ZcDq3j72Z+D+vX1P+eeCkrmpCLe4W5bUCKmGWJYykQUFq6gkXRvq/gjjnPifyibd8CNHjk5+SeKf3pRce7Xb2DxZprLBN9p51WcQ+sX32jR2ymAl2wX6zP+xv8DO4Cv4F13etS8FiZoM9QHBzCx+urXQ=</latexit>

onde ⟨xn⟩c é o cumulante de ordem n.

Isto é, o logaritmo da função característica pode ser escrito em série de


potências de k, com coeficientes proporcionais aos cumulantes da PDF.

Assim como os momentos da PDF, os cumulantes fornecem uma descrição


das propriedades de uma PDF.
!23
Relação entre momentos e cumulantes
Por definição temos:
X1
( ik)n n
ln p̃(k) = hx ic Eq. (*)
n=1
n!
<latexit sha1_base64="8fnaoK3QVHe879UvMxbjJNJTEL8=">AAACPXicbVA9TxtBEN0jJAHnAxNKmiFWJFPEukNISQokRJqUIHGA5LNPe+s5s/Le3ml3Loq1ul9Gk9+QjjINRRLR0rI2LvjIk1Z6896MZudllZKWwvAyWHq2/PzFy5XV1qvXb96utdffndiyNgJjUarSnGXcopIaY5Kk8KwyyItM4Wk2+TrzT7+jsbLUxzStcFDwsZa5FJy8lLbjRGlISKoRuqrpTrZhDyCxdZE6vRc1Q5dIndO0gSQ3XLjuRznZHurG6a3G9ymuxwrhx1D7wsyLVABA2u6EvXAOeEqiBemwBQ7T9q9kVIq6QE1CcWv7UVjRwHFDUihsWkltseJiwsfY91TzAu3Azc9v4INXRpCXxj9NMFfvTzheWDstMt9ZcDq3j72Z+D+vX1P+eeCkrmpCLe4W5bUCKmGWJYykQUFq6gkXRvq/gjjnPifyibd8CNHjk5+SeKf3pRce7Xb2DxZprLBN9p51WcQ+sX32jR2ymAl2wX6zP+xv8DO4Cv4F13etS8FiZoM9QHBzCx+urXQ=</latexit>

onde ⟨xn⟩c é o cumulante de ordem n.

Por outro lado, sabemos que a função característica pode ser escrita como:
X1
( ik)n n
p̃(k) = hx i
n=0
n!
<latexit sha1_base64="uhif9znBVR3CNi7bMXAxoJQFXDk=">AAACMnicbVBNSwMxEM36bf2qevQSLUI9WLYiqAdB9CKeFKwK3bZk09kams0uyaxYwv4nL/4RD4J4UPHqjzCtPfj1YODlvRky88JUCoO+/+SNjI6NT0xOTRdmZufmF4qLSxcmyTSHGk9koq9CZkAKBTUUKOEq1cDiUMJl2D3q+5c3oI1I1Dn2UmjErKNEJDhDJ7WKJwEK2Qab5uXuBt2ngcnillX7ft60gVAR9nIaRJpxW94U3Y2myq1adZJkqiOB0tumooEePFrFkl/xB6B/SXVISmSI01bxIWgnPItBIZfMmHrVT7FhmUbBJeSFIDOQMt5lHag7qlgMpmEHN+d03SltGiXalUI6UL9PWBYb04tD1xkzvDa/vb74n1fPMNptWKHSDEHxr4+iTFJMaD9A2hYaOMqeI4xr4Xal/Jq5hNDFXHAhVH+f/JfUtip7Ff9su3RwOExjiqyQNVImVbJDDsgxOSU1wskdeSQv5NW79569N+/9q3XEG84skx/wPj4BRpaqTQ==</latexit>

Tomando logaritmo na expressão anterior:


1 1
!
( ik)n n ( ik)n n X X
ln p̃(k) = ln hx i = ln 1 + hx i
n=0
n! n=1
n!
<latexit sha1_base64="aDeeuJd9/9rW6dj3ybodcs+fQZ0=">AAACkHicnVFNbxMxEPUuXyVACfTIZSCqlAgR7aJK0EOg0EvFqUikrZRNIq8zm1jxelf2LCKy9v/09/TGv8HZRKgfnBjJ0ps388b2m7RU0lIU/Q7Ce/cfPHy087j15Omz3eftFy/PbFEZgUNRqMJcpNyikhqHJEnhRWmQ56nC83R5vK6f/0RjZaF/0KrEcc7nWmZScPLUtH2ZKA0JSTVDV9bdZQ8G0FC2yqdOD6J64hKpM1rVkGSGC9d9J5e9ia6dfu0pxfVcIcCvideYTTJoNRMUZtSFGN7+HRb/x7DEyPmCejBtd6J+1ATcBfEWdNg2Tqftq2RWiCpHTUJxa0dxVNLYcUNSKKxbSWWx5GLJ5zjyUPMc7dg1jtaw75kZZIXxRxM07HWF47m1qzz1nTmnhb1dW5P/qo0qyj6OndRlRajF5qKsUkAFrNcDM2lQkFp5wIWR/q0gFtxbRX6JLW9CfPvLd8Hwff+wH30/6Bx93bqxw16xN6zLYvaBHbETdsqGTAS7wUEwCD6Fe+Fh+Dn8smkNg61mj92I8Nsf9+7FFg==</latexit>

!24
Agora expandimos em série o logaritmo do lado direito, usando:
1
X ( 1)`+1 `
ln(1 + ✏) = ✏
`
<latexit sha1_base64="Em2DiIEQJLy3v2FPqcrDIEwFygI=">AAACQHicbZBLSwMxFIUz9VXra9Slm2ARWoplRgR1USi6calgtdBpSya904ZmMkOSEcowf82N/8CdezcuVNy6Mn0gvi4EDufce5N8fsyZ0o7zaOXm5hcWl/LLhZXVtfUNe3PrWkWJpNCgEY9k0ycKOBPQ0ExzaMYSSOhzuPGHZ+P85hakYpG40qMY2iHpCxYwSrSxunbT46Lk4gr2IFaMR6KMawVPJWE39YBzXMNu1kk9JgI9yrAXSELT0r5b7kzjiptlE5V9LZgmWdcuOlVnUvivcGeiiGZ10bUfvF5EkxCEppwo1XKdWLdTIjWjHLKClyiICR2SPrSMFCQE1U4nBDK8Z5weDiJpjtB44n6fSEmo1Cj0TWdI9ED9zsbmf1kr0cFxO2UiTjQIOr0oSDjWER7jxD0mgWo+MoJQycxbMR0QQ0kb6AUDwf395b+icVA9qTqXh8X66YxGHu2gXVRCLjpCdXSOLlADUXSHntALerXurWfrzXqftuas2cw2+lHWxyfwHK8Z</latexit>
`=1

Obtemos:
" 1
!# 1 1
!`
X ( ik)n n X ( 1)`+1 X ( ik)n n
ln p̃(k) = ln 1 + hx i = hx i
n=1
n! ` n=1
n!
<latexit sha1_base64="PI4mUzkig31dUvStBMQDYNVeSYM=">AAAC5HicrVLLjtMwFHXCayivAks2hgqp1YgqQUjAotIINiwHiTIjNWnluDepVceJ7BtEZXnPhgUgtnwUO/6FBW6SBczMkitZPj7nvnztrJbCYBT9CsJLl69cvXZwfXDj5q3bd4Z37703VaM5zHklK32aMQNSKJijQAmntQZWZhJOsu3rvX7yAbQRlXqHuxrSkhVK5IIz9NRq+DuRiiYo5Bps7cbbCaWzQctJyHFBY3rYwXFimnJl1Sx2S5sIlePO0STXjNvxE7GdLJWz6qGnJFOFBEo/Ln0S3R0SLYoNTvo93ZdosyUgJZ3Ri1LGk2UnH8bOtcj9v0a61G41HEXTqDV6HsQ9GJHejlfDn8m64k0JCrlkxiziqMbUMo2CS3CDpDFQM75lBSw8VKwEk9r2lRx97Jk1zSvtl0Lasn9HWFYasysz71ky3Jiz2p68SFs0mL9IrVB1g6B4VyhvJMWK7p+croUGjnLnAeNa+F4p3zA/MPQfY+CHEJ+98nkwfzp9OY3ePhsdveqncUAekEdkTGLynByRN+SYzAkPsuBT8CX4Ghbh5/Bb+L1zDYM+5j75x8IffwA0WOcz</latexit>
`=1

Comparando última equação com a Eq. (*) do slide anterior, temos:

1 1 1
!`
( ik)m m X X ( 1)`+1 X ( ik)n n
hx ic = hx i Eq. (**)
m=1
m! ` n=1
n!
<latexit sha1_base64="2fyLcUBrqwVpOzX4HC55QmLKp2A=">AAACr3icdVFLbxMxEPYurxIeDXDk4hIhpUKNdisk4BCpggvHIgiNlH3gdbyJFdu7smcRkeXf13tv/Td1dhcEbRnJ8jfzzcxnzxS14Aai6DII79y9d//B3sPBo8dPnu4Pnz3/bqpGUzajlaj0vCCGCa7YDDgINq81I7IQ7KzYfNrxZz+ZNrxS32Bbs1SSleIlpwR8KB+eJ6aRuZXT2GU24aqErcNJqQm14yO+Ocyks/LAYZwIolaC4V+Z9I5unZziwRR3HRImBJ7i29rEh1lHv4mda5HnBCth3JWq/4orZ9WB+6PtxdVvbX/z1Rr61i4fjqJJ1Bq+CeIejFBvp/nwIllWtJFMARXEmEUc1ZBaooFTwdwgaQyrCd2QFVt4qIhkJrXtwB1+7SNLXFbaHwW4jf5dYYk0ZisLnykJrM11bhe8jVs0UL5PLVd1A0zRTqhsBIYK77aHl1wzCmLrAaGa+7diuiZ+YOB3PPBDiK9/+SaYHU8+TKIvb0cnH/tp7KGX6BUaoxi9QyfoMzpFM0SDo+BrkARpeBzOwyz80aWGQV/zAv1jIb8CstfTUw==</latexit>
`=1

Esta expressão relaciona os cumulantes com os momentos da distribuição.

!25
Fixando um valor de m, podemos obter uma expressão para o cumulante de
ordem m, em função de momentos da distribuição.

Para isso, devemos relacionar potências iguais de (ik) em ambos lados da


equação anterior. Isto é, o coeficiente que multiplica (ik)m no lado esquerdo
deve ser igual à soma dos coeficientes que multiplicam a (ik)nl no lado direito,
para m=nl.

Comecemos com os termos proporcionais a k:

Do lado esquerdo da Eq. (**) do slide anterior ( ik)


hxic
o termo proporcional a k1 é: <latexit sha1_base64="AwtHUYUMTydV7xHXg7K5HnlbxMw=">AAACDHicbZC9TsMwFIWd8lfKX4CRxVCQykCVICRgq2BhLBKhlZooclynteo4ke0gqigvwMKrsDAAYuUB2Hgb3DQDFI5k6dO59+r6niBhVCrL+jIqc/MLi0vV5drK6tr6hrm5dSvjVGDi4JjFohsgSRjlxFFUMdJNBEFRwEgnGF1O6p07IiSN+Y0aJ8SL0IDTkGKktOWb+24oEM4aR3R0mGf2bg5dhviAEXgPXVGQj32zbjWtQvAv2CXUQam2b366/RinEeEKMyRlz7YS5WVIKIoZyWtuKkmC8AgNSE8jRxGRXlZck8MD7fRhGAv9uIKF+3MiQ5GU4yjQnRFSQzlbm5j/1XqpCs+8jPIkVYTj6aIwZVDFcBIN7FNBsGJjDQgLqv8K8RDpeJQOsKZDsGdP/gvOcfO8aV2f1FsXZRpVsAP2QAPY4BS0wBVoAwdg8ACewAt4NR6NZ+PNeJ+2VoxyZhv8kvHxDVvAmrA=</latexit>
1!

Do lado direito da Eq. (**) o ter mo ( 1)2 ( ik)1


proporcional a k1 é obtido com n=1 e l=1: hxi
<latexit sha1_base64="HHwQb49HKQ2Gz0hy4v1NreqPm/o=">AAACHnicbZDLSsNAFIYn9VbrLerSzWgR2oUlKeJlV3TjsoKxhaYtk+mkHTqZhJmJWELexI2v4saFiuBK38ZpG0Fbfxj4+c45nDm/FzEqlWV9GbmFxaXllfxqYW19Y3PL3N65lWEsMHFwyELR9JAkjHLiKKoYaUaCoMBjpOENL8f1xh0Rkob8Ro0i0g5Qn1OfYqQ06ponri8QTkpHdrlTTRM7hT+ADssdW5P9FEKXId5nBN5DV0xc1yxaFWsiOG/szBRBpnrX/HB7IY4DwhVmSMqWbUWqnSChKGYkLbixJBHCQ9QnLW05CohsJ5P7UnioSQ/6odCPKzihvycSFEg5CjzdGSA1kLO1Mfyv1oqVf9ZOKI9iRTieLvJjBlUIx2HBHhUEKzbSBmFB9V8hHiCdj9KRFnQI9uzJ88apVs4r1vVxsXaRpZEHe+AAlIANTkENXIE6cAAGD+AJvIBX49F4Nt6M92lrzshmdsEfGZ/fIXigyQ==</latexit>
1 1!
Portanto, o primeiro cumulante é sempre
igual à média:
hxic = hxi
<latexit sha1_base64="QQ/L1iOMcMOBVafbgPqLZBvCfoM=">AAACFXicbZDNSsNAFIUn/tb6F3XpZrAIbiypCOpCKLpxWcHYQhPKZHrTDp1MwsxELKFP4cZXceNCxa3gzrdxmmahbS9c+DjnXmbuCRLOlHacH2thcWl5ZbW0Vl7f2Nzatnd271WcSgoujXksWwFRwJkAVzPNoZVIIFHAoRkMrsd+8wGkYrG408ME/Ij0BAsZJdpIHfsYe5yIHgf8iD2ZU4dijC9Nz7HsilN18sKzUCuggopqdOxvrxvTNAKhKSdKtWtOov2MSM0oh1HZSxUkhA5ID9oGBYlA+Vl+1ggfGqWLw1iaFhrn6t+NjERKDaPATEZE99W0Nxbnee1Uh+d+xkSSahB08lCYcqxjPM4Id5kEqvnQAKGSmb9i2ieSUG2SLJsQatMnz4J7Ur2oOrenlfpVkUYJ7aMDdIRq6AzV0Q1qIBdR9IRe0Bt6t56tV+vD+pyMLljFzh76V9bXL/lbnPc=</latexit>
!26
Consideremos os termos proporcionais a k2:

Do lado esquerdo da Eq. (**) usamos m=2: ( ik)2 2


hx ic
<latexit sha1_base64="0x07rgqZBtmYO+AM8IHGeLAX5ug=">AAACEXicbZC9TsMwFIWd8lfKX4CRxVAhtQNVWiEBWwULY5EordSkkeM6rVXHiWwHUUV5BhZehYUBECsbG2+Dm2aAliNZ+nTuvbq+x4sYlcqyvo3C0vLK6lpxvbSxubW9Y+7u3ckwFpi0cchC0fWQJIxy0lZUMdKNBEGBx0jHG19N6517IiQN+a2aRMQJ0JBTn2KktOWaVdsXCCeVEzqu9htp0jhMIbQZ4kNG4EO/AW2RsYtds2zVrExwEeo5lEGulmt+2YMQxwHhCjMkZa9uRcpJkFAUM5KW7FiSCOExGpKeRo4CIp0kOymFx9oZQD8U+nEFM/f3RIICKSeBpzsDpEZyvjY1/6v1YuWfOwnlUawIx7NFfsygCuE0HziggmDFJhoQFlT/FeIR0hkpnWJJh1CfP3kR2o3aRc26OS03L/M0iuAAHIEKqIMz0ATXoAXaAINH8AxewZvxZLwY78bHrLVg5DP74I+Mzx8z3Zwj</latexit>
sha1_base64="C39OhB+IczRcjLNINXH29e9lt8M=">AAAB2HicbZDNSgMxFIXv1L86Vq1rN8EiuCpTN+pOcOOygmML7VAymTttaCYzJHeEMvQFXLhRfDB3vo3pz0KtBwIf5yTk3hMXSloKgi+vtrW9s7tX3/cPGv7h0XGz8WTz0ggMRa5y04+5RSU1hiRJYb8wyLNYYS+e3i3y3jMaK3P9SLMCo4yPtUyl4OSs7qjZCtrBUmwTOmtowVqj5ucwyUWZoSahuLWDTlBQVHFDUiic+8PSYsHFlI9x4FDzDG1ULcecs3PnJCzNjTua2NL9+aLimbWzLHY3M04T+zdbmP9lg5LS66iSuigJtVh9lJaKUc4WO7NEGhSkZg64MNLNysSEGy7INeO7Djp/N96E8LJ90w4eAqjDKZzBBXTgCm7hHroQgoAEXuDNm3iv3vuqqpq37uwEfsn7+Aap5IoM</latexit>
sha1_base64="/a2J7o6wo3bVDwQ+LL6b8qzdFu8=">AAACBnicbZBPT8IwGMbf4T9EVPTqpUpM4CDZdlFvJl48YiJCwmDpSgcNXbe0nZEsfAYvfhUvHtT4Ebz5bSyDg4JP0uSX52nz9n2ChDOlbfvbKqytb2xuFbdLO+Xdvf3KQflexakktEViHstOgBXlTNCWZprTTiIpjgJO28H4epa3H6hULBZ3epLQXoSHgoWMYG0sv1L3QolJVjtj43rfnWbu8RQhj2Mx5BQ99l3kyZx94leqdsPOhVbBWUAVFmr6lS9vEJM0okITjpXqOnaiexmWmhFOpyUvVTTBZIyHtGtQ4IiqXpavNEWnxhmgMJbmCI1y9/eLDEdKTaLA3IywHqnlbGb+l3VTHV70MiaSVFNB5oPClCMdo1k/aMAkJZpPDGAimfkrIiNsOtKmxZIpwVleeRVabuOyYd/aUIQjOIEaOHAOV3ADTWgBgSd4gTd4t56tV+tj3lbBWtR2CH9kff4AgA+apw==</latexit>
sha1_base64="r8jLcga8dRIvOpBppXHBFa+206U=">AAACEXicbZC9TsMwFIUdfkv5CzCyGCqkdqBKsgBbBQtjkQit1KSV4zqtVceJbAdRRX0GFl6FhQEQKxsbb4ObZoCWI1n6dO69ur4nSBiVyrK+jaXlldW19dJGeXNre2fX3Nu/k3EqMHFxzGLRDpAkjHLiKqoYaSeCoChgpBWMrqb11j0Rksb8Vo0T4kdowGlIMVLa6pk1LxQIZ9VTOqp1nUnmHE0g9BjiA0bgQ9eBnsi5h3tmxapbueAi2AVUQKFmz/zy+jFOI8IVZkjKjm0lys+QUBQzMil7qSQJwiM0IB2NHEVE+ll+0gSeaKcPw1joxxXM3d8TGYqkHEeB7oyQGsr52tT8r9ZJVXjuZ5QnqSIczxaFKYMqhtN8YJ8KghUba0BYUP1XiIdIZ6R0imUdgj1/8iK4Tv2ibt1YlcZlkUYJHIJjUAU2OAMNcA2awAUYPIJn8ArejCfjxXg3PmatS0YxcwD+yPj8ATKdnB8=</latexit>
2!

Do lado direito da Eq. (**) temos:


- para l=1 o único termo proporcional a k2 é obtido com n=2.
- para l=2 o único termo proporcional a k2 é obtido com n=1.
- os outros termos são de ordem superior.

2
 2 1 3
 2
( 1) ( ik) ( 1) ( ik)1
hx2 i + hxi
<latexit sha1_base64="x23oRZctaWOpTRowsUjMp/A8lOs=">AAACfXicbVFNT9tAEF0b2tJA27QcexkagWhpI9utBL2h9sIRJFKQYidab8bJKuu1tTtGRJZ/Bn+st/6WXrr5qASEkVZ6em/nze6btFTSUhD88fyNzWfPX2y9bG3vvHr9pv323S9bVEZgTxSqMNcpt6ikxh5JUnhdGuR5qvAqnf6c61c3aKws9CXNSkxyPtYyk4KTo4btuzgzXNSHX8KPg6ipwwZihRn14T8vpwsh2mvASVyPFcLtIILYLHFs5HhCySAEOIJ7Zl9dz5NmoZvywGzNKoJhuxN0g0XBOghXoMNWdT5s/45Hhahy1CQUt7YfBiUlNTckhcKmFVcWSy6mfIx9BzXP0Sb1Ir4G9h0zgqww7miCBXu/o+a5tbM8dTdzThP7WJuTT2n9irKTpJa6rAi1WA7KKgVUwHwXMJIGBamZA1wY6d4KYsJdVOQ21nIhhI+/vA56Ufd7N7j41jn9sUpji71nH9ghC9kxO2Vn7Jz1mGB/vT3vk3fkM//A/+x3l1d9b9Wzyx6Uf/wPL3S8Bg==</latexit>
1 2! 2 1!

Igualando as expressões acima, vemos que o segundo cumulante é sempre


igual à variância:

hx2 ic = hx2 i
<latexit sha1_base64="5Hs7JhynLOarXbo0UXA2q6lcuNg=">AAACQHicbZBLSwMxFIUzPmt9VV26CRbBjWVaBHVRKLpxWcGxhU4dMmnahiaZIckUyzB/zY3/wJ17Ny5U3Loy046obS8EPs65l3tz/JBRpW372VpYXFpeWc2t5dc3Nre2Czu7tyqIJCYODlggmz5ShFFBHE01I81QEsR9Rhr+4DL1G0MiFQ3EjR6FpM1RT9AuxUgbySs0XYZEjxF4f1eBrhyzh2EVwjkGPP5VfzTjVqHLke5LHg+RTNw4NROvULRL9rjgLJQzKIKs6l7hye0EOOJEaMyQUq2yHep2jKSmmJEk70aKhAgPUI+0DArEiWrH4wQSeGiUDuwG0jyh4Vj9OxEjrtSI+6YzPVVNe6k4z2tFunvWjqkII00EnizqRgzqAKZxwg6VBGs2MoCwpOZWiPtIIqxN6HkTQnn6y7PgVErnJfv6pFi7yNLIgX1wAI5AGZyCGrgCdeAADB7AC3gD79aj9Wp9WJ+T1gUrm9kD/8r6+gYtM66J</latexit>
hxi2 = var{x}
!27
The first four cumulants are called the mean, variance, skewness, and cu
Dessa forma obtemos que os primeiros quatro cumulantes são a média, a
(or kurtosis) of the distribution, respectively, and are obtained fro
variância, a skewness, e a kurtosis:
moments as
#x$c = #x$ %
" 2# " 2#
x c = x − #x$2 %
" 3# " 3# " 2#
x c = x − 3 x #x$ + 2 #x$3 %
" 4# " 4# " 3# " 2 #2 " 2#
x c = x − 4 x #x$ − 3 x + 12 x #x$2 − 6 #x$4 #

The cumulants provide a useful and compact way of describing a PDF


An important theorem allows easy computation of moments in terms
umulants: represent the nth cumulant graphically as a connected cluste
points. The mth moment is then obtained by summing all possible subdiv
of m points into groupings of smaller (connected or disconnected) cluster
ontribution of each subdivision to the sum is the product of the!28 conn
umulants that it represents. Using this result, the first four momen
Usando um procedimento análogo ao anterior (que não demonstraremos) é
possível encontrar expressões para os momentos em função dos cumulantes:
The corresponding algebraic expressions are

#x$ = #x$c %
" 2# " 2#
x = x c + #x$2c %
" 3# " 3# " 2#
x = x c + 3 x c #x$c + #x$3c %
" 4# " 4# " 3# " 2 #2 " 2#
x = x c + 4 x c #x$c + 3 x c + 6 x c #x$2c + #x$4c #

!29
commonly encountered probability distributions are
A distribuição normal
2.3(1)
(1) The
SomeThenormal
normal (Gaussian)
(Gaussian)
important distribution
distribution
probability describes a continuous
describes
distributions realreal
a continuous random
rand
Avariable
variable x,x,with
distribuição with
normal (ou Gaussiana) é definida como:
Thedistribution
sian) properties of three commonly
describes a continuousencountered
%real
% probability distributions
random
(
2 2(
1 1 !x −
!x("
− ("#
examined in this section.p!x" = √
p!x" = √ exp −
exp − 2 # (2.15)
(2
2&' 2
2&' 2 2' 2' 2
% (
(1)1 The normal!x(Gaussian)
− ("2 distribution describes a continuous real rando
x" AThe
=The corresponding
função exp −
√ corresponding characteristic
característica também temfunction
characteristic
# also has
forma Gaussiana:
function also a Gaussian
(2.15)
has a form,
Gaussian form,
variable
2&' x,
2 with 2' 2
% ( % (
* *! 1 % !x − ("2 2 % ( % k2 ' 2 2 2 (
! 1 exp − 1!x − ("− ikx !x=−exp ( k '#
p̃!k"
cteristicp̃!k"=
function dx √ 2 −ik( − (2.16)
= −! also
dx √ has
2&' 2 a
p!x" Gaussian
exp
= √− form,
2' exp
2 − −ikx ("
= exp # −ik( −2 # (2
(2.
−! 2&' 2 2' 2
2' 2 2
% ( % 2&' 2 (
!x − ("2of the distribution can bek2identified
Cumulants '2 from ln p̃!k" = −ik( − k2 ' 2 /2,
2
− corresponding
expThe
Cumulants −
of ikx
the = exp −ik(
distribution −
can
characteristic be identified
function # also (2.16)
from
has a ln p̃!k"
Gaussian = −ik(
form, − k '
Os cumulantes da
2' (2.9 ), as
using Eq. 2 distribuição podem 2ser identificados tomando o logaritmo
dausing Eq. *(2.9
expressão ), as
anterior: % 2
( % (
2 2
! 1 + 2 , !x − (" + , +2 , 2 k '
tion can be=identified
p̃!k" dx#x$
√c =from ln
exp p̃!k"
− =2 −ik( 3 −k '
− ikx
() x+ c2 ,= ' )22 x + c 3= 4 /2,
=
, x +c =exp −ik(
, ··· = 0# − # (2.
(2.17)
−! #x$2&' 2
c = () x c =2'' ) x c = x c = · · · = 0 # 2
4
(2
The normalofcom
Comparando
Cumulants distribution
the Eq. (*)isdo
adistribution thus cancompletely
slide be vemosspecified
24,identifiedque byp̃!k"
its two
o primeiro
from ln first−cumu-
cumulante
= −ik( ké2 '
o 2/
+ The, normal + , +
distribution , is thus completely specified bycluster
fator
x 2
lants. =que
' 2 acompanha
This
) makes
x 3
= thex 4 a (–ik)
computation
= · · · = e0 # o ofsegundo
moments cumulante
using
(2.17) the éitso two
fatorfirst
quecu
expansion
using c Eq. (2.9 ), cas
lants. This makes the
c
computation
acompanha
(Eqs. (2.12)) a (–k 2 )/2!. Logo:
particularly simple, and of moments using the cluster expans
(Eqs.completely
is thus (2.12)) particularly
specified simple,
+ by
2
, itsand + 3 , cumu-
2two first
+ 4,
#x$c = () x c = ' ) x c = x c = · · · = 0 # !30 (2.
#x$ =()
omputation of moments using the cluster expansion
using Eq. (2.9 ), as
Portanto, para a distribuição
+ 2normal,
, apenas
+ 3 , os+ dois
, primeiros cumulantes
2 4
são não nulos. #x$ c =a
Aliás, x c = ' normal
()distribuição ) x cé=a x única
c
= distribuição
··· = 0# que tem (2.1
todos os cumulantes nulos menos o primeiro e o segundo.
The normal distribution is thus completely specified by its two first cum
ants. This makes
Isto facilita muito othe computation
cálculo of moments
dos momentos using
a partir dos the cluster
cumulantes. expansio
Usando
as expressões
Eqs. do slide 29,simple,
(2.12)) particularly obtemos:
and

#x$ =()
+ 2,
x =' 2 + (2 )
+ 3,
x =3' 2 ( + (3 ) (2.1
+ 4,
x =3' 4 + 6' 2 (2 + (4 )

···

!31

Você também pode gostar