Escolar Documentos
Profissional Documentos
Cultura Documentos
Shannon-Mcmillan-Breiman, Brin-Katok.
V. Araújo
Conteúdo
1 Sistemas equivalentes 1
1.1 Equivalência ergódica . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Teorema de Ornstein . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Entropia 4
2.1 Informação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Partições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3 Kolmogorov-Sinai . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Semicontinuidade . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Local 25
3.1 Shannon-McMillan-Breiman . . . . . . . . . . . . . . . . . . . 25
3.2 Teorema de Brin-Katok . . . . . . . . . . . . . . . . . . . . . . 25
4 Exemplos 27
4.1 Desl. Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2 Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3 Endomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.4 Decomposição . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1 Sistemas equivalentes
Sistemas Equivalentes
Quando dois sistemas (ƒ , μ) e (g, ν) que preservam medida devem
ser considerados o “mesmo” e como decidir se eles são “iguais”?
Dois sistemas são considerados ergodicamente equivalentes
se, restritas a subconjuntos com medida total, as transformações
1
são conjugadas por uma aplicação invertível que preserva as me-
didas invariantes: essa aplicação permite traduzir as propriedades
de qualquer dos sistemas para o outro sistema.
Em geral, dados dois sistemas, a única forma de provar que eles
são equivalentes é exibindo explicitamente a aplicação de conjuga-
ção. Por outro lado, o modo mais usual de mostrar que dois sistemas
não são equivalentes é encontrar alguma propriedade que valha num
mas não no outro.
ϕ∗ μ = ν e ϕ ◦ ƒ = g ◦ ϕ.
2
Exemplo: 10 mod 1 e o shift com 10 símbolos
Seja ƒ = ƒ10 : [0, 1] dada por 7→ 10 − [10] que preserva e
medida de Lebesgue. Podemos associar a cada a = (n )n≥0 ∈ +
10 um
n
número real em [0, 1] por ϕ(a) = n≥0 10n+1 .
P
3
se B for o conjunto das funções analíticas, as funções ψ ◦ ϕ pode for-
mar um espaço difícil de identificar).
Estas propriedades: ergodicidade e mistura (fraca) podem assim
ser usadas para distinguir entre sistemas que não são ergodicamente
equivalentes.
Ainda assim, isto é usualmente bastante difícil. Por exemplo, nada
do que vimos até agora permite distinguir entre
σ2 : +
2
e σ3 : +
3
2 Entropia
2.1 Informação
Entropia
A palavra entropia foi inventada em 1865 pelo físico-matemático
alemão Rudolf Clausius, um dos pioneiros fundadores da Termodinâ-
mica. Na teoria dos sistemas termodinâmicos em equilíbrio a entro-
pia mede a “desordem” do sistema. A Segunda Lei da Termodinâmica
afirma que, quando um sistema isolado passa de um equilíbrio a ou-
tro, a entropia do estado final é necessariamente maior do que a
entropia do estado inicial.
4
Se juntamos dois recipientes contendo gases distintos, oxigênio
e hidrogênio, os dois gases se misturam até alcançarem um novo
equilíbrio em que ambos se encontram uniformemente distribuídos;
a entropia deste estado final é superior à entropia do estado inicial,
em que os dois gases estavam separados.
Quantidade de informação
Para formalizar a ideia, seja A o alfabeto de símbolos transmi-
tidos. Nem todas as letras deste alfabeto têm a mesma frequên-
cia/probabilidade de serem usadas: se o canal transmite mensagens
em língua portuguesa (um caso particular de uma codificação de
mensagens) a letra A será utilizada com muito maior frequência do
que a letra Z.
Portanto nem todas as letras carregam a mesma quantidade de
informação: quanto mais improvável é uma letra, menor o número
de palavras que a contêm e, assim, mais informação está associada
a essa letra.
5
Analogamente, quanto mais improvável for uma palavra, menor o
número de frases de que participa, e maior a quantidade de informa-
ção que essa palavra transmite.
Entropia do canal
Se An representa o conjunto de todas as palavras com n símbolos,
definimos
X X
(An ) = p1 ...n (1 . . . n ) = −p1 ...n log p1 ...n .
1 ,...,n 1 ,...,n
6
Shannon, C.E. (1948), "A Mathematical Theory of Communica-
tion", Bell System Technical Journal, 27, pp. 379–423 & 623–656,
July & October, 1948.
2.2 Partições
Entropia via partições
Adaptando estas ideias para Teoria Ergódica, discretizamos
o espaço tomando partições finitas ou enumeráveis formadas por
subconjuntos mensuráveis, e associamos a cada átomo desta par-
tição um símbolo, obtendo um alfabeto finito ou enumerável.
7
Depois calculamos a entropia de uma dada transformação que
preserva medida para cada partição fixada.
Finalmente, tomamos o maior valor possível entre todas as
partições do espaço.
Usando resultados gerais sobre entropia em sistemas que preser-
vam medida é possível efetivamente estimar a entropia para muitos
sistemas que preservam medida.
P : M → R, 7→ − log μ(P()).
0, 4 φ(x) = −x log x
y = φ(x)
0, 3
0, 2
0, 1
0
0 0, 2 0, 4 0, 6 0, 8 1
x
8
Concavidade de − log
00
Se ϕ() = − log , então ϕ0 () = −(1 + log ) e ϕ () = −1/ < 0.
Logo ϕ é côncava:
para 1 , . . . , n ≥ 0, t1 , . . . , tn ≥ 0 e t = 1.
P
Exemplos
Seja M = [0, 1] com μ = Leb e para n ≥ 1 seja Pn a partição dos
subintervalos (( − 1)/ 10n , / 10n ] com 1 ≤ ≤ 10n . Então Hμ (Pn ) =
P10n 1 1
− 10 n log 10n = n log 10.
=1
Lema
Se #P < ∞ então Hμ (P) ≤ log #P e vale a igualdade se, e só se,
μ(P) = 1/ (#P) para todo P ∈ P.
9
Se P = {P0 , . . . , Pn−1 }, então fazendo t = 1/ n e = μ(P ) para
= 0, . . . , n − 1 obtemos (por concavidade)
n−1
n−1
1 1 1
X X
Hμ (P) = t ϕ( ) ≤ ϕ t = ϕ = log n
n =0 =0
n n
Entropia condicional
Dadas duas partições finitas ou enumeráveis P, Q, dizemos que
X X μ(P ∩ Q)
Hμ (P | Q) = −μ(P ∩ Q) log
P∈P Q∈Q
μ(Q)
Ordenação de partições
Dadas partições P, Q dizemos que P é menos fina que Q e escre-
vemos P < Q, se todo elemento de Q está contido em algum elemento
de P, a menos de subconjuntos de medida nula.
10
A soma P ∨ Q é exatamente a partição menos fina entre todas
aquelas partições tais que P < R e Q < R (ou seja, P ∨ Q = sp{P, Q}
com respeito à ordem parcial <).
Lema (propriedades entropia condicional)
Sejam P, Q, R partições com entropia finita. Então
1. Hμ (P ∨ Q | R) = Hμ (P | R) + Hμ (Q | P ∨ R);
2. P < Q =⇒ Hμ (P | R) ≤ Hμ (Q | R) e Hμ (R | P) ≥ Hμ (R | Q);
3. P < Q ⇐⇒ Hμ (P | Q) = 0.
Prova do lema
Para o ítem (1), usando a definição
X μ(P ∩ Q ∩ R)
Hμ (P ∨ Q | R) = −μ(P ∩ Q ∩ R) log
P,Q,R
μ(R)
X μ(P ∩ Q ∩ R)
= −μ(P ∩ Q ∩ R) log
P,Q,R
μ(P ∩ R)
X μ(P ∩ R)
+ −μ(P ∩ Q ∩ R) log
P,Q,R
μ(R)
ou seja Hμ (Q | P ∨ R) + Hμ (P | R).
Para o ítem (2), se P < Q. então porque log é crescente
X X X μ(P ∩ R)
Hμ (P | R) = −μ(Q ∩ R) log
P∈P R∈R Q⊂P,Q∈Q
μ(R)
X X X μ(Q ∩ R)
≤ −μ(Q ∩ R) log = Hμ (Q | R).
P∈P R∈R Q⊂P,Q∈Q
μ(R)
logo para P ∈ P, R ∈ R
μ(R ∩ P) X μ(Q) μ(R ∩ Q)
ϕ ≥ ϕ .
μ(P) Q⊂P
μ(P) μ(Q)
11
Consequentemente
μ(P ∩ Q)
μ(P ∩ Q) = 0 ou = 1.
μ(Q)
Casos particulares
Tomando Q = M no ítem (2) do lema vem
12
Hμ é contínua
Lema
Dados k ≥ 1, ϵ > 0 existe δ > 0 tal que, para partições finitas P =
{P1 , . . . , Pk }, Q = {Q1 , . . . , Qk } se tem
Hμ (Q | P) = Hμ (P ∨ Q) − Hμ (P)
= Hμ (P ∨ R) − Hμ (P) = Hμ (R | P) ≤ Hμ (R) < ϵ
pois μ é ƒ -invariante.
13
Definição de entropia de (ƒ , μ)
Com este lema faz sentido definir entropia de ƒ com respeito à
medida μ e partição P como o limite
1 1
hμ (ƒ , P) = lim Hμ (Pn ) = inf Hμ (Pn ).
n→+∞ n n≥1 n
Notemos que esta entropia cresce quanto mais fina for a partição:
portanto hμ (ƒ , P) ≤ hμ (ƒ , Q).
Definimos a entropia do sistema (ƒ , μ) por
1
hμ (ƒ , P) = lim Hμ (Pn ) = log 10.
n n
Veremos, mais adiante, que esta é a entropia de (ƒ , μ), ou seja, hμ (ƒ , P)
realiza o supremo.
1 d−1
X
hμ (σ, P) = lim Hμ (Pn ) = −p log p .
n n =0
14
A teoria que vamos estudar permite concluir que, neste caso, este
valor também realiza o supremo hμ (σ).
Pela expressão acima, vemos que para todo > 0 existe
algum deslocamento de Bernoulli (σ, μ) tal que hμ (σ) = . Isto é
uma informação muito útil em vários contextos na teoria ergódica.
Lema útil
Lema
Seja ƒ : M mensurável que preserva medida μ. Então
1. hμ (ƒ , Q) ≤ hμ (ƒ , P) + Hμ (Q | P) para quaisquer partições P, Q;
Wn
2. hμ (ƒ , P) = limn Hμ P | j=1 ƒ −j P = limn Hμ (P | ƒ −1 Pn ) para toda
Prova do lema
Ítem (1): Usamos o lema anterior para obter
15
lema.
Ítem (2): de novo pelo lema anterior e por invariância
n−1 n−1
_ _
n − −
Hμ (P ) = Hμ ƒ P + Hμ P | ƒ P
=1 =1
n−2 n−1
_ _
− −
= Hμ ƒ P + Hμ P | ƒ P
=0 =1
n−1
_
n−1 −
= Hμ (P ) + Hμ P | ƒ P .
=1
Assim
1 n−1 k
1 n
X _
−
hμ (ƒ , P) = lim Hμ (P ) = lim Hμ P | ƒ P .
n n k=1 =1
Wk
Mas k = Hμ P | =1 ƒ − P é sequência descrescente de números
não negativos, portanto seu limite existe e coincide com o limite da
média, ou seja
k ∞
_ _
− −
hμ (ƒ , P) = lim k = lim Hμ P | ƒ P = Hμ P | ƒ P .
k k
=1 =1
1 n+k−1 1
lim Hμ (Pn+k−1 ) = lim Hμ (Pn+k−1 ) = hμ (ƒ , P).
n n n n n+k−1
16
logo hμ (ƒ , P±k ) é dada por
1 1
lim Hμ (ƒ −k Pn+2k−1 ) = lim Hμ (Pn+2k−1 ) = hμ (ƒ , P).
n n n n
1
portanto pelo que vimos no ítem anterior khμ (ƒ , P) = limm m Hμ (Pkm ) =
hμ (g, P ), logo hμ (g, P) = hμ (g, P ) = khμ (ƒ , P) ≤ hμ (g) para toda par-
k k
2.3 Kolmogorov-Sinai
Teorema de Kolmogorov-Sinai
O seguinte resultado é essencial.
Teorema (de Kolmogorov-Sinai)
Seja P1 < · · · < Pn < . . . sequência de partições com entropia finita
tais que ∪j≥1 Pn gera a σ-álgebra dos mensuráveis a menos de sub-
conjuntos de medida nula. Então
17
Prova do lema
Se Pn é sequência de partições como no enunciado do Teorema
de Kolmogorov-Sinai, escreva Q = {Q1 , . . . , Qs } e seja A a álgebra
formada por uniões finitas de elementos de ∪n Pn . Por hipótese, A
gera todos os mensuráveis a menos de medida nula.
Pelo teorema da aproximação, para cada ϵ > 0 fixamos δ > 0 como
no lema da continuidade de Hμ e, para cada = 1, . . . , s, existe A ∈ A
tal que μ(Q 4 A ) < δ/ (4s2 ).
Como Q é partição, então {A : = 1, . . . , s} devem ser quase uma
cobertura de M: por um lado
[ [ δ
μ M\ Aj ≤ μ Qj \ Aj <
j j 4s
S S S S S S
j Aj = j Aj =
porque M \ Q \ Q \ j Aj ⊂ Q \ A .
Por outro lado, A ∩ Aj ⊂ A 4 Q ∪ Aj 4 Qj porque Q ∩ Qj = ∅, logo
μ(A ∩ Aj ) ≤ δ/ (2s2 ); logo temos
!
\[ X \ δ
μ A Aj ≤ μ A Aj < .
j6= j6=
2s
B1 = A1 , B2 = A2 \ A1 , B3 = A3 \ (A1 ∪ A2 )
δ
μ(A 4 B ) < , = 1, . . . , s.
2
Para = 1 é trivialmente verdadeiro.
Para > 1 temos A \ B ⊂ A ∩ (∪j< Aj ) e portanto μ(A \ B ) < δ/ 4.
Notando que B \ A = ∅ para 1 < < s por construção (pois B ⊂ A ),
isto prova a afirmação, exceto para = s (note que podemos supor
sem perda de generalidade de s ≥ 2).
No caso = s, vem Bs \ As ⊂ M \ (∪sj=1 Aj ) e portanto μ(Bs \ As ) < δ/ 4.
δ
Como μ(As \ Bs ) < δ/ 4, então μ(As 4 Bs ) < 2
como afirmamos.
Combinando estas desigualdades obtemos também μ(B 4 Q ) < δ
para todo = 1, . . . , s e B ∈ A por construção.
Como a família dos B é finita e dada por uniões finitas de elemen-
tos de ∪n Pn , e a sequência Pn é encaixada, então existe m ≥ 1 tal
18
que B está na união de elementos de Pm . Ou seja, B = {B1 , . . . , Bs }
é menos fina que Pm .
Combinando com o lema anterior sobre entropia condicional, pela
escolha de ϵ, δ > 0 feita antes, para n ≥ m vem
Hμ (Q | Pn ) ≤ Hμ (Q | Pm ) ≤ Hμ (Q | B) < ϵ.
hμ (ƒ , Q) ≤ hμ (ƒ , Pn ) + Hμ (Q | Pn ), ∀n
Partições geradoras
Corolário
Seja (ƒ , μ) sistema invertível que preserva medida de probabilidade
μ. Seja P partição com entropia finita tal que a união de P±n =
Wn−1 −j
j=−n
ƒ (P), n ≥ 1 gera a σ-álgebra dos mensuráveis. Então hμ (ƒ ) =
hμ (ƒ , P).
Demonstração. Aplique o Teorema anterior à sequência P±n e lembre
que hμ (ƒ , P±n ) = hμ (ƒ , P), ∀n ≥ 1 por um dos lemas anteriores.
19
Notamos que certos sistemas invertíveis admitem geradores uni-
laterais: a união dos iterados Pn , n ≥ 1 gera a σ-álgebra dos mensu-
ráveis. Exemplo: toda rotação irracional com P = {, S1 \ } é partição
do círculo em dois intervalos complementares (onde é um pequeno
arco de S1 ) e P é gerador unilateral (e também bilateral, é claro!).
Mas estes são sistemas especiais
Corolário
Se (ƒ , μ) é invertível e existe partição P com entropia finita tal que
∪n≥1 Pn gera a σ-álgebra dos mensuráveis a menos de medida nula,
então hμ (ƒ ) = 0.
Prova do Corolário
Usando os lemas e corolário anteriores, temos
hμ (ƒ ) = hμ (ƒ , P) = lim Hμ (P | ƒ −1 Pn ).
n
20
A condição dim(Pn ()) −−−→ 0 para μ-qtp. é uma das con-
n→∞
dições suficientes mais simples de verificar para deduzir que uma
dada partição é geradora. Analogamente
Corolário
Seja P partição com entropia finita tal que dim(P±n ()) −−−→ 0 para
n→∞
μ-qtp. com ƒ invertível. Então hμ (ƒ ) = hμ (ƒ , P).
Homeomorfismos do circulo
Seja ƒ : S1 homeomorfismo, μ probabilidade ƒ -invariante e P
partição finita por subintervalos cujos extremos são 1 , . . . , m . Para
j ≥ 1 a partição ƒ −j P é formada por subintervalos com extremos
ƒ −j ( ), = 1, . . . , m. Então #Pn ≤ nm e
1 1
hμ (ƒ , P) = lim Hμ (Pn ) ≤ lim log(nm) = 0.
n n n
Considerando sequência de partições finitas de intervalos com diâ-
metro convergindo para zero, concluímos que hμ (ƒ ) = 0 usando o
corolário anterior.
Todos os homeomorfismos do círculo têm entropia nula em
relação a qualquer probabilidade invariante.
2.4 Semicontinuidade
Semicontinuidade da Entropia
A função entropia M1,ƒ (M) → R, μ 7→ hμ (ƒ ) não é contínua em
geral.
Seja ƒ = ƒ10 : [0, 1] a transformação da expansão decimal. Já
sabemos que hLeb (ƒ ) = log 10. Seja Fk = { ∈ [0, 1] : ƒ k = } o
conjuntos dos pontos fixos de ƒ k , que é um conjunto invariante com
#Fk = 10k , k ≥ 1. Os Fk são “equidistribuídos” no sentido em que
cada [/ 10k , (+ 1)/ 10k ) contém exatamente um elemento de Fk para
cada = 0, . . . , 10k − 1. Seja
1 X
μk = δ .
10k ∈Fk
∗
Então cada μk é probabilidade ƒ -invariante e μk −−−→ Leb. Como μk
k→∞
está suportada num conjunto finito, então hμk (ƒ ) = 0.
Notemos que se a partição finita P de M tem bordo
[
∂P = ∂P
P∈P
21
que satisfaz μ(∂P) = 0, então a função ν ∈ M1 (M) 7→ ν(P) é contínua
no ponto μ, para todo P ∈ P. Consequentemente
X
ν 7→ Hν (P) = −ν(P) log ν(P)
P∈P
22
limitada e seu supremo é atingido para alguma medida μ (medida de
máxima entropia).
Já sabemos que dim Pn −−−→ 0 garante que ∪n Pn gera a σ-álgebra
n→∞
dos borelianos a menos de medida nula com respeito a toda pro-
babilidade (porque a hipótese garante que dim Pn () −−−→ 0 para
n→∞
todo ).
Dada qualquer probabilidade ƒ -invariante μ podemos achar
partição finita com diâmetro menor que ϵ0 tal que μ(∂P) = 0.
De fato, basta escolher para cada um r() ∈ (0, ϵ0 ) tal que
μ(∂B(, r())) = 0 (porque podemos fazer isto é explicado mais abaixo).
Consideremos a cobertura {B(, r()) : ∈ M} do compacto M e
uma subcobertura finita B1 , . . . , Bk . Agora formamos a partição
P = {B1 , M \ B1 } ∨ · · · ∨ {Bk , M \ Bk }.
ƒ
Agora do corolário anterior sabemos que ν ∈ M1 (M) 7→ hν (ƒ ) é semi-
contínua superiormente em μ, mas μ é uma probabilidade invariante
arbitrária, provando a primeira afirmação.
1
Xn () = r > 0 : μ(∂B(, r)) ≥
n
23
Quando ƒ é invertível podemos substituir Pn por P±n nos enunci-
ados dos corolários anteriores e obter as mesmas conclusões com
demonstração análoga, via os corolários obtidos antes para transfor-
mações invertíveis.
Transformações expansivas
Uma transformação contínua ƒ : M num espaço métrico diz-
se expansiva se existe ϵ0 > 0 (sua constante de expansividade) tal
que, dados , y ∈ M com y 6= existe n ≥ 1 tal que d(ƒ n , ƒ n y) ≥ ϵ0 :
ou seja, pontos distintos têm órbitas que são distinguíveis por uma
distância mínima ϵ0 em alguma iteração futura.
Para transformações invertíveis existe versão de expansividade
definida como segue: dados , y ∈ M com 6= y existe n ∈ Z tal que
d(ƒ n , ƒ n y) ≥ ϵ0 .
Um exemplo é o deslocamento σ : + d com a distância em d
+
dada por d((n )n , (yn )n ) = 2−N com N o menor valor de n ≥ 0 tal que
n 6= yn . Se (n )n , (yn )n são distintos, então d(σ N (n )n , σ N (yn )n ) = 1.
Analogamente σ : d é expansivo como transformação invertí-
vel, e ϵ0 = 1.
Proposição
Seja ƒ : M expansiva num espaço métrico compacto e seja ϵ0 > 0
constante de expansividade. Então dim Pn −−−→ 0 para toda parti-
n→∞
ção finita P com dim P < ϵ0 .
De fato, a sequência (dim Pn )n≥1 é não crescente e podemos
tomar seu ínfimo δ que vamos assumir é estritamente positivo. Então
para todo n ≥ 1 existem n , yn com d(n , yn ) > δ/ 2 e yn ∈ Pn (n ).
Logo temos também
24
Se a transformação ƒ for invertível e expansiva no sentido bilate-
ral, podemos substituir Pn por P±n nos enunciados anteriores e man-
ter as mesmas conclusões com demonstrações análogas.
3 Entropia Local
3.1 Teorema de Shannon-McMillan-Breiman
Entropia local
Vamos considerar um teorema que dá um ponto de vista mais
local para a entropia.
Teorema (Shannon-Mcmilan-Breiman)
ƒ
Dada partição P com entropia finita e μ ∈ M1 (M), o limite
1
hμ (ƒ , P, ) = lim − log μ(Pn ())
n→∞ n
existe em μ-qtp, a função 7→ hμ (ƒ , P, ) é integrável e o limite tam-
bém existe em L1 (μ). Além disto
Z
hμ (ƒ , P) = hμ (ƒ , P, ) dμ()
3.2 Brin-Katok
Bolas dinâmicas
Suponha que ƒ : M é contínua num espaço métrico. Dados ∈
M, n ≥ 1 e ϵ > 0 dizemos que a (n, ϵ)-bola dinâmica em torno de
25
(ou a bola dinâmica de comprimento n e raio ϵ em torno de ) é o
conjunto
1
h+
μ
(ƒ , ϵ, ) = lim sp − log μ(B(, n, ϵ));
n→∞ n
1
h−
μ
(ƒ , ϵ, ) = lim inf − log μ(B(, n, ϵ)).
n→∞ n
lim h+
μ
(ƒ , , ϵ) e lim h−
μ
(ƒ , , ϵ)
ϵ→0 ϵ→0
26
De fato, se d for uma distância em G invariante por translações,
então g(B(, ϵ)) = B(g, ϵ) para todo g ∈ G e ϵ > 0.
Consequentemente B(, n, ϵ) = B(, ϵ) para todo n ≥ 1 e segue
que
1
h±
μ
(g, ϵ, ) = lim − log μ(B(, ϵ)) = 0
n→∞ n
para todo ϵ > 0 e g ∈ G. Pelo Teorema de Brin-Katok segue que
hμ (g) = 0.
O mesmo argumento se aplica a translações à direita.
4 Exemplos
4.1 Deslocamentos de Markov
Exemplo: Deslocamentos de Markov
Vamos agora ilustrar os resultados anteriores por meio de alguns
exemplos.
Seja + N +
d = 1, . . . , d e σ : d a transformação de deslocamento,
com μ medida de Markov associada a matriz estocástica P = (pj ),j=1,...,d .
Proposição
Pd Pd
hμ (σ) = =1 j=1 −pj log pj .
Para provar, seja P = {[0; ], = 1, . . . , d} e para cada n ≥ 1 o
iterado Pn = {[0; 1 , . . . , n ], 1 , . . . , n ∈ {1, . . . , d}} é partição for-
mada pelos cilíndros de comprimento n. Como μ([0; 1 , . . . , n ]) =
p1 p1 ,2 . . . pn−1 ,n , então podemos escrever
X
Hμ (Pn ) = −p1 p1 ,2 . . . pn−1 ,n log(p1 p1 ,2 . . . pn−1 ,n )
1 ,...,n
!
X n
X
= −p1 p1 ,2 . . . pn−1 ,n log p1 + log pj−1 ,j .
1 ,...,n j=2
Como temos
X X
p1 ,2 . . . pn−1 ,n = Pn =1
1 ,n
2 ,...,n n
27
onde a soma entre parêntesis é sobre todos os valores de 1 , . . . , j−1 , j+2 , . . . , n .
[0, 1]. O mesmo método que vamos usar pode ser estendido para
transformações expansoras do intervalo.
Naturalmente usaremos P = {(1/ (m + 1), 1/ m) : m ≥ 1} e Pn =
∨n−1
=0 G P.
− Já sabemos que:
1. Gn | P : P → (0, 1) é um difeomorfismo para todo P ∈ Pn , n ≥ 1;
2. dim Pn → 0 quando n → ∞;
|(Gn )0 ()|
3. ∃C > 0 : |(Gn )0 (y)|
≤ C, ∀n ≥ 1, ∀, y ∈ P, ∀P ∈ Pn ;
28
Pelas cotas da densidade ϕ (item (4)) temos
e pelo ítem (1) vem log Leb(Pn ()) = − log |(Gn )0 (y)| para algum y ∈
Pn () (Teorema do Valor Médio). Pelo ítem (3)
Como μ é G-invariante
Z n−1
XZ Z
log |(Gn )0 | dμ = log |G0 | ◦ Gj dμ = n log |G0 | dμ.
j=0
1
Z
hμ (G, P) = lim Hμ (P ) = log |G0 | dμ.
n
n→∞ n
1 π2
lim − log μ(Pn ()) = , μ − qtp.
n→∞ n 6 log 2
π2 n
n
dim P () ≈ exp −
6 log 2
29
4.3 Endomorfismos
Endomorfismos lineares do Toro
Vamos escrever log+ = mx{0, log } para > 0.
Proposição
Seja ƒA : Td o endomorfismo induzido em Td por A ∈ GL(d, Z) para
algum d ≥ 1 e μ a medida de Haar em Td (i.e., μ = Leb). Então
hμ (ƒA ) = =1 log+ |λ | onde λ1 , . . . , λd são os autovalores de A, con-
Pd
j j Pd j
Como ƒA (y) = Aj (y) mod Zd = ƒA () + =1 t λ , n ≥ 1, então
( )
Xd
D(, n, ϵ) = + t : |t λn | < ϵ, ≤ e |t | < ϵ, > .
=1
Por outro lado, existe c > 0 que depende também de A tal que
B(, ϵ/ c) ⊂ D(, ϵ) ⊂ B(, cϵ) para ∈ Td e ϵ > 0 pequeno; logo temos
B(, n, ϵ/ c) ⊂ D(, n, ϵ) ⊂ B(, n, cϵ), n ≥ 1. Consequentemente para
∈ Td , n ≥ 1 e ϵ > 0
ϵd Y
Y
|λ |−n ≤ μ(B(, n, ϵ)) ≤ cd Cϵd |λ |−n .
cd C =1 =1
1
X
h±
μ
(ƒ , ϵ, ) = lim − log μ(B(, n, ϵ)) = log |λ |
n n =1
30
e via Brin-Katok e ergodicidade obtemos
X
hμ (ƒA ) = hμ (ƒA , ) = log |λ |, μ − qtp.
=1
4.4 Decomposição
Entropia e Decomposição ergódica
Vamos primeiro considerar combinações lineares convexas de pro-
babilidades invariantes.
ƒ
Proposição (entropia é função afim em M1 )
Seja μ, ν probabilidades invariantes por ƒ : M nas mesmas condi-
ções do Teorema de Decomposição Ergódica. Então htμ+(1−t)ν (ƒ ) =
thμ (ƒ ) + (1 − t)hν (ƒ ) para todo 0 < t < 1.
De fato, ψ() = − log , > 0 é côncava portanto
e consequentemente
31
logo htμ+(1−t)ν (ƒ ) ≤ thμ (ƒ ) + (1 − t)hν (ƒ ). Por outro lado
n
X
hμ (ƒ ) = t hμ (ƒ )
=1
= 1.
P
para probabilidades invariantes μ1 , . . . , μn e t ≥ 0, t
Para combinações lineares convexas generalizadas temos uma
consequência do Teorema de Decomposição Ergódica.
Entropia e equivalência
Proposição
Sejam ƒ : M , g : N transformações que preservam probabilidades
μ em M e ν em N. Se (ƒ , μ) é ergodicamente equivalente a (g, ν),
então hμ (ƒ ) = hν (g).
Se ϕ : M → N é equivalência ergódica entre os sistemas, temos
ϕ∗ μ = ν e X ⊂ M, Y ⊂ N com medida total tal que ϕ | X : X → Y é
bijeção bimensurável e, como sabemos, X, Y podem ser escolhidos
invariantes.
Dada P partição de M com entropia finita para μ sua restrição a
X é partição de (X, μ) e a imagem Q = ϕ(P) é partição de (Y, ν) que,
32
naturalmente, podemos considerar como partição de (N, ν) (sempre
a menos de conjuntos de medida nula).
Notamos que como ϕ(P) = Q ∈ Q para cada P ∈ P
X X
Hν (Q) = −ν(Q) log ν(Q) = −μ(P) log μ(P).
Q∈Q P∈P
Wn−1 Wn−1
Além disto, Qn = =0
g− Q = ϕ( =0
ƒ − P) = ϕ(Pn ) e portanto
1 1
hν (g, Q) = lim Hν (Qn ) = lim Hμ (Pn ) = hμ (ƒ , P).
n n n
Tomando o supremo sobre todas as partições P com entropia finita
em relação a μ, obtemos hν (g) ≥ hμ (ƒ ). A desigualdade recíproca
é inteiramente análoga trocando as posições de ƒ e g, logo vale a
igualdade.
33