Você está na página 1de 65

COLQUIOS DE MATEMTICA DAS REGIES

REGIO SUL

IV Colquio de Matemtica
da Regio Sul

TPICOS DE
LGEBRA LINEAR E
PROBABILIDADE
JAIRO MENGUE

Tpicos de lgebra Linear e Probabilidade

Tpicos de lgebra Linear e Probabilidade


Copyright 2016 Jairo Mengue
Direitos reservados pela Sociedade Brasileira de Matemtica
A reproduo no autorizada desta publicao, no todo ou em parte,
constitui violao de direitos autorais. (Lei 9.610/98)
Sociedade Brasileira de Matemtica
Presidente: Hilrio Alencar
Vice- Presidente: Paolo Piccione
Diretores: Joo Xavier
Jos Espinar
Marcela de Souza
Walcy Santos
Assessor Editorial
Tiago Costa Rocha
Comit Cientfico
Alexandre Baraviera (UFRGS, Coordenador Geral)
Artur Lopes (UFRGS)
Carmen Mathias (UFSM)
Daniel Gonalves (UFSC)
Elizabeth Karas (UFPR)
Valeria Cavalcanti (UEM)
Membros da Comisso Organizadora (FURG)
Brbara Denicol do Amaral Rodriguez
Cinthya Maria Schneider Meneghetti (Coordenadora Local)
Cristiana Andrade Poffal
Daiane Silva de Freitas
Fabola Aiub Sperotto
Capa: Pablo Diego Regino
Projeto grfico: Cinthya Maria Schneider Meneghetti
Distribuio e vendas
Sociedade Brasileira de Matemtica
Estrada Dona Castorina, 110 Sala 109 - Jardim Botnico
22460-320 Rio de Janeiro RJ
Telefones: (21) 2529-5073 / 2529-5095
http://www.sbm.org.br / email:lojavirtual@sbm.org.br
ISBN (eBook) 978-85-8337-096-3

Flvia Branco
Joo Prolo Filho
Leandro Sebben Bellicanta
Mrio Rocha Retamoso
Rodrigo Barbosa Soares

COLQUIOS DE MATEMTICA DAS REGIES

REGIO SUL

IV Colquio de Matemtica
da Regio Sul

TPICOS DE
LGEBRA LINEAR E
PROBABILIDADE
JAIRO MENGUE

1 EDIO
2016
RIO GRANDE

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

Sumrio
1

Matriz estocstica e vetor de probabilidade

Probabilidade invariante e Jacobiano

21

Entropia

27

Discusso relacionada ao Formalismo Termodinmico

37

Otimizao sobre probabilidades invariantes

45

Outro tpico: Transporte timo

53

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

Prefcio
Este texto foi preparado para utilizao no IV Colquio de Matemtica da Regio Sul a partir do texto j utilizado no III Colquio de Matemtica da Regio
Nordeste. O mesmo foi elaborado com a expectativa de poder ser lido e compreendido por alunos em incio de graduao. Com este objetivo o trabalho com
probabilidades ficou limitado a conjuntos finitos e alguns conceitos usuais em Teoria Ergdica, como probabilidade invariante e entropia, foram adaptados. Ainda
assim, as ideias iniciais que aparecem no Formalismo Termodinmico e na Otimizao Ergdica foram preservadas, podendo ser este um primeiro contato do
estudante com as mesmas, muito antes de um primeiro curso em teoria da medida.
Uma das motivaes para a escolha deste tpico e forma de abordagem est no
meu interesse em poder apresentar a alunos e orientandos de iniciao cientfica
parte das ideias e conceitos destas reas.
Alm da utilizao no colquio, este texto pode servir de forma complementar
a professores e alunos de lgebra linear, apresentando algumas das relaes desta
com o estudo de probabilidades. Aparecero com frequncia no texto os conceitos
de autovalor e autovetor, por exemplo.
Alguns tpicos so apresentados de forma levemente informal, dependendo
do ponto de vista do leitor. Por exemplo, no captulo 1 o leitor mais experiente
poder sentir falta de uma discusso mais profunda sobre processos estocsticos
e at mesmo sobre probabilidade condicional. Ainda assim estar convidado a
avaliar se este texto pode servir como introduo ao estudo das Cadeias de Markov.
Cabe ressaltar ao leitor que uma discusso mais profunda dos conceitos apresentados requer alguns conhecimentos sobre espaos mtricos e topologia, teoria
da medida e anlise funcional.

Jairo K. Mengue

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

Agradecimentos
Gostaria de agradecer aos colegas do grupo de pesquisa em sistemas dinmicos
do IME-UFRGS pelas diversas discusses, informais ou em seminrios, de temas
que serviram de inspirao para elaborao deste texto.
Agradeo tambm aos alunos, professores e demais participantes do III colquio de matemtica da regio Nordeste que demonstraram interesse no assunto.
Isso me motivou a propor este minicurso novamente.
Por fim, gostaria de agradecer a minha famlia pela pacincia e compreenso
nos momentos em que estive prximo, mas no dediquei a ela uma merecida ateno.

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

Captulo 1

Matriz estocstica e vetor de


probabilidade
Considere como modelo terico uma caixa de base retangular dividida em trs
regies denotados por R1 , R2 e R3 . Vamos supor que dentro desta caixa existem
1000 pequenas bolas em movimento forado e que a cada minuto uma cmera fotografa a caixa fornecendo informaes sobre as posies das bolas. No estando
interessados em entender o comportamento de cada bola, mas a distribuio delas nas regies R1 , R2 e R3 , podemos considerar um vetor com 3 coordenadas
indicando a quantidade de bolas em cada regio em uma dada fotografia 1 . Por
exemplo, se em uma dada fotografia temos R1 com 125 bolas, R2 com 250 bolas
e R3 com 625 bolas podemos escrever esta informao como

125

250 .
625
Se tambm no temos interesse na quantidade total de bolas podemos dizer, a
partir dos nmeros acima, que 12,5% das bolas esto em R1 , 25% das bolas esto
em R2 e 62,5% das bolas esto em R3 ou, dividindo a quantidade de bolas de cada
regio pelo total de bolas da caixa, escrever esta informao como

P [0]

0, 125

= 0, 250 .
0, 625

(1.1)

Se para cada fotografia analisada associarmos um vetor, como este ltimo, descrevendo a proporo de bolas de cada regio em relao ao total de bolas, podemos observar que todos estes vetores possuem trs coordenadas no negativas cuja
soma resulta em 1.
1

vamos desconsiderar neste modelo terico os problemas que podem ser causados por fronteiras

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

10 CAPTULO 1. MATRIZ ESTOCSTICA E VETOR DE PROBABILIDADE


Definio 1.1. Dizemos que P Rn um vetor de probabilidade se suas coordenadas p1 , ..., pn satisfazem:
a) pi 0, i {1, ..., n}
b) p1 + p2 + ... + pn = 1.
Suponhamos agora que para este modelo, independente da informao sobre
as fotografias retiradas a mais de 1 minuto e da quantidade de fotografias j retiradas, a proporo de bolas que migram para a regio Ri saindo da regio Rj , ao
compararmos fotografias consecutivas, seja estimada em aij , onde

0, 5 0, 3 0, 1
a11 a12 a13

a21 a22 a23 = 0, 4 0, 4 0, 6 .


0, 1 0, 3 0, 3
a31 a32 a33

(1.2)

Assim, a partir da segunda coluna desta matriz, temos como previso:


- 30% das bolas em R2 na fotografia atual estaro em R1 na prxima fotografia.
- 40% das bolas em R2 na fotografia atual estaro em R2 na prxima fotografia.
- 30% das bolas em R2 na fotografia atual estaro em R3 na prxima fotografia.
As entradas da matriz dada em (1.2) so no negativas e a soma dos elementos
de cada coluna resulta em 1. Assim, as colunas da matriz so vetores de probabilidade.
Definio 1.2. Dizemos que uma matriz quadrada Ann com entradas {aij }1i,jn
coluna estocstica se satisfaz:
a) aij 0, para quaisquer i, j {1, ..., n}
b) a1j + ... + anj = 1 para qualquer j {1, ..., n}.
Se para uma dada bola, denotarmos por Xn o nmero em {1, 2, 3} que indica
a regio onde se localiza esta bola na n-sima fotografia, a informao acima pode
ser descrita como uma probabilidade condicional2 :
P r(Xn+1 = i | Xn = j) = aij .
Assumimos que a probabilidade condicional satisfaz a relao (Regra de Bayes)
P r(Xn+1 = i) =

3
X

P r(Xn+1 = i | Xn = j)P r(Xn = j).

j=1

Problema: Estando com o vetor dado em (1.1) para a fotografia atual, qual
previso podemos fazer para o vetor associado a fotografia seguinte?
2

Estamos assumindo que para quaisquer n e s0 , ..., sn1 fixados,


P r(Xn+1 = i | Xn = j, Xn1 = sn1 , ..., X1 = s1 , X0 = s0 )
= P r(Xn+1 = i | Xn = j) = P r(X1 = i | X0 = j).

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

11
Soluo: Supomos dado P [0] , que indica a distribuio das bolas em tempo 0
(fotografia atual) e buscamos uma previso de P [1] , que indica a distribuio das
bolas em tempo 1 (fotografia seguinte). Qual a probabilidade de uma dada bola
estar em R1 em tempo 1?
3
X

P r(X1 = 1) =

P r(X1 = 1|X0 = i)P r(X0 = i)

i=1

= (0, 5)(0, 125) + (0, 3)(0, 25) + (0, 1)(0, 625) = 0, 2.


De forma anloga temos
3
X

P r(X1 = 2) =

P r(X1 = 2|X0 = i)P r(X0 = i)

i=1

= (0, 4)(0, 125) + (0, 4)(0, 25) + (0, 6)(0, 625) = 0, 525.
e

3
X

P r(X1 = 3) =

P r(X1 = 3|X0 = i)P r(X0 = i)

i=1

= (0, 1)(0, 125) + (0, 3)(0, 25) + (0, 3)(0, 625) = 0, 275.
Conclumos que nossa previso dada por

P [1]

0, 2

= 0, 525 .
0, 275

Observe que as contas do problema acima podem ser resumidas na forma:


P [1]

0, 125
0, 5 0, 3 0, 1
0, 2

= 0, 525 = 0, 4 0, 4 0, 6 0, 250 = AP [0] .


0, 625
0, 275
0, 1 0, 3 0, 3

(1.3)

Para a previso de P 1 podemos, como visto acima, calcular o produto dado em


(1.3). Note que neste exemplo o produto de uma matriz coluna estocstica por um
vetor de probabilidade resultou em um novo vetor de probabilidade.
Proposio 1.3. Se Ann uma matriz coluna estocstica e P Rn um vetor
de probabilidade, ento (AP ) um vetor de probabilidade.
Demonstrao: Escrevendo Q = AP onde A = (aij )1i,jn , P = (pi )1in
e Q = (qi )1in temos

q1
a11 p1 + a12 p2 + ... + a1n pn

q
2 a21 p1 + a22 p2 + ... + a2n pn

= AP,
Q=.=
..

.
..

qn

an1 p1 + an2 p2 + ... + ann pn

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

12 CAPTULO 1. MATRIZ ESTOCSTICA E VETOR DE PROBABILIDADE


o que resumidamente pode ser escrito como
n
X

qi =

aik pk , i {1, ..., n}.

k=1

Devemos provar que Q um vetor de probabilidade. Como A coluna estocstica


e P um vetor de probabilidade temos que aik 0 e pk 0 para quaisquer
i, k {1, ..., n}. Portanto qi =

n
X

aik pk 0 para todo i {1, ..., n}. Alm

k=1

disso, como A coluna estocstica, sabemos que ni=1 aik = 1, k {1, ..., n} e
P
como P um vetor de probabilidade, nk=1 pk = 1. Assim
P

q1 + ... + qn =

n
X

qi =

i=1

n
X

pk

n
X

n
X

i=1

k=1

n
X

aik

i=1

k=1

aik pk

n X
n
X

aik pk

k=1 i=1
n
X

pk = 1.

k=1


Voltando ao exemplo das bolas, dada a previso de um vetor

P [n]

[n]

p1
P r(Xn = 1)

= P r(Xn = 2) = p[n]
2
[n]
P r(Xn = 3)
p
3

qual ser o vetor P [n+1] previsto?


Soluo: Escrevendo P r(Xn+1 = i|Xn = j) = aij onde os nmeros aij so
dados em (1.2), temos

P r(Xn+1 = 1)

[n+1]

P3

j=1 P r(Xn+1

= 1|Xn = j)P r(Xn = j)

= P r(Xn+1 = 2) = j=1 P r(Xn+1 = 2|Xn = j)P r(Xn = j)


P3

P r(Xn+1 = 3)

[n]

[n]

j=1 P r(Xn+1

[n]

= 3|Xn = j)P r(Xn = j)


[n]

a p + a12 p2 + a13 p3
p
11 1[n]
a11 a12 a13 1[n]
[n]
[n]
[n]

= a21 p1 + a22 p2 + a23 p3 = a21 a22 a23 p2


= AP .
[n]
[n]
[n]
[n]
a31 a32 a33
a31 p1 + a32 p2 + a33 p3
p3
Aplicando-se um argumento de induo matemtica, podemos concluir que
dados o vetor P [0] e a matriz A em (1.2) e (1.1), respectivamente, a estimativa para
o vetor de probabilidade associado a fotografia em tempo m ser P [m] = Am P [0] ,
onde
Am = A
| A{z A} .
m vezes

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

13
Com base nesta igualdade, dada uma matriz coluna estocstica Ann e um
vetor de probabilidade P [0] em Rn , podemos tentar entender o comportamento do
vetor P [m] = Am P [0] "a longo prazo". Neste sentido, buscamos entender se por
exemplo as coordenadas de P [m] se aproximam das coordenadas de algum vetor P
quando m +.
Antes de prosseguirmos com resultados gerais, vamos analisar dois exemplos.
Exemplo 1.4. Considere a matriz coluna estocstica
!

A=

1/3 1/4
.
2/3 3/4

Os autovalores de A so 1 = 1 e 2 = 1/12, podendo ser verificado diretamente


que
!
!
!
1/3 1/4
3
3
=
2/3 3/4
8
8
e
1/3 1/4
2/3 3/4

1
1

1 1
=
.
12 1

Note que
!

P =

3/11
8/11

um vetor de probabilidade que tambm


autovetor associado ao autovalor 1 =
!
1
1. Vamos denotar por v =
, o autovetor associado ao autovalor 2 , que
1
estamos considerando. Nenhum mltiplo de v vetor de probabilidade.
!
p
Dado um vetor de probabilidade arbitrrio P =
onde 0 p 1,
1p
podemos escrever
!

P =

p
1p

3/11
1
+ (3/11 p)
8/11
1

= P + (3/11 p)v.

Assim
AP = A(P + (3/11 p)v) = AP + (3/11 p)Av = P +

(3/11 p)
v,
12

(3/11 p)
(3/11 p)
(3/11 p)
A2 P = A(AP ) = A(P +
v) = AP +
Av = P +
v
12
12
(12)2
e em geral, pode ser demonstrado com um argumento de induo matemtica que
(3/11 p)
Am P = P +
v.
(12)m

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

14 CAPTULO 1. MATRIZ ESTOCSTICA E VETOR DE PROBABILIDADE


Quando m +, temos

(3/11p)
(12)m

0 e por consequncia

lim Am P = P .

m+

Conclumos que para qualquer vetor de probabilidade P , os vetores Am P se apro

ximam do vetor de probabilidade


! P , onde P satisfaz AP = P . Como ilustrao
1
deste fato, note que se P =
, ento Am P corresponde a primeira coluna de
0
!

0
enquanto para P =
, Am P corresponde a segunda coluna de Am . Por1
tanto ambas as colunas de Am devem convergir para P quando m +. Isso
est de acordo com o os dados abaixo:

Am ,

0, 27273
, A
0, 72727

0, 33333 0, 25
, A2
0, 66666 0, 75
!

A3

0, 27315 0, 27257
, A4
0, 72685 0, 72743

0, 27778 0, 27083
0, 72222 0, 72917

0, 27276 0, 27271
.
0, 72724 0, 72729

Exemplo 1.5. Dados


!

A=

0 1
, P [0] =
1 0

a
1a

e P

[1]

1a
,
a

temos que
P [1] = AP = A3 P = A5 P = A7 P... e P [0] = P = A2 P = A4 P = A6 P...
Portanto Am P no converge.
possvel3 obtermos resultados como os do primeiro exemplo supondo que
todas as entradas de A so positivas (estritamente maiores que zero).
Conveno: Dizemos que uma matriz positiva se todas as suas entradas so
positivas.
Lema 1.6. Se Ann uma matriz coluna estocstica, ento = 1 um autovalor
de A.
Demonstrao: Seja 1 o vetor com todas as coordenadas iguais a 1. A matriz
AT linha estocstica, sendo fcil verificar que AT 1 = 1. Conclumos que
= 1 autovalor de AT , portanto um autovalor de A.

3

Seria possvel obtermos resultados positivos com hipteses mais fracas, como supor que alguma
potncia de A possui todas as entradas positivas, mas neste texto de carter introdutrio vamos
simplificar a discusso.

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

15
Vamos generalizar alguns fatos que apareceram no primeiro exemplo acima,
para uma matriz A coluna estocstica positiva. Antes de mostrarmos que A possui
um autovetor de probabilidade associado ao autovalor 1 vamos analisar um pouco
mais a matriz AT .
Lema 1.7. Seja Ann uma matriz coluna estocstica positiva e v Rn um vetor
com entradas no negativas. Ento (AT )m v convergente e o vetor limite ter
todas as coordenadas iguais.
Demonstrao: Se n = 1 o resultado imediato, portanto podemos supor
n 2. Escrevemos A = (aij ) onde aij > 0 para quaisquer i, j {1, ..., n} e
P
k akj = 1 para qualquer j {1, ..., n}. Seja a menor entrada da matriz A.
Note que 0 < n1 12 . Denotamos por |x|max e |x|min a maior e menor
entrada de um vetor x, respectivamente. Seja v um vetor com coordenadas no
negativas v1 , ..., vn . Suponha que |v|min = vj . Ento a iesima coordenada de
AT v satisfaz
(AT v)i =

n
X
k=1

aki vk = aji vj +

aki vk aji vj +

k6=j

aki |v|max

k6=j

= aji vj + (1 aji )|v|max = |v|max + aji (|v|min |v|max )


|v|max + (|v|min |v|max ).
Portanto
|AT v|max |v|max + (|v|min |v|max ).

(1.4)

Da mesma forma, suponha que |v|max = vl . Ento a iesima coordenada de AT v


satisfaz
(AT v)i =

n
X

aki vk ali vl + (1 ali )|v|min = |v|min + ali (|v|max |v|min )

k=1

|v|min + (|v|max |v|min ).


Portanto
|AT v|min |v|min + (|v|max |v|min ).

(1.5)

Conclumos que para todo vetor v com coordenadas no negativas,


|AT v|max |AT v|min (1 2)(|v|max |v|min ).

(1.6)

Alm disso, se
|(AT )m1 v|max |(AT )m1 v|min (1 2)m1 (|v|max |v|min )
ento, aplicando a desigualdade (1.6) para o vetor (AT )m1 v,
|(AT )m v|max |(AT )m v|min = |(AT )(AT )m1 v|max |(AT )(AT )m1 v|min

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

16 CAPTULO 1. MATRIZ ESTOCSTICA E VETOR DE PROBABILIDADE


i

(1 2) |(AT )m1 v|max |(AT )m1 v|min (1 2)m (|v|max |v|min ).


Assim, com um argumento de induo matemtica, conclumos que para m =
1, 2, 3, ...
|(AT )m v|max |(AT )m v|min (1 2)m (|v|max |v|min ).
Como 0 < 12 ,


lim

m+

|(AT )m v|max |(AT )m v|min = 0.

Alm disso, por (1.4) e (1.5), |(AT )m v|max decrescente em m enquanto |(AT )m v|min
crescente em m. Portanto quando m +, (AT )m v converge para um vetor
constante.

Teorema 1.8. Seja Ann uma matriz coluna estocstica e positiva. Ento existe
um nico vetor de probabilidade P satisfazendo AP = P . Alm disso, para
qualquer vetor de probabilidade P , limm+ Am P = P .
Demonstrao: Escrevemos A = (aij ) onde aij > 0 para quaisquer i, j
P
{1, ..., n} e k akj = 1 para qualquer j {1, ..., n}. Denotamos por e1 , e2 , ..., en
os vetores que formam a base cannica do espao Rn . Aplicando-se o lema anterior
conclumos que existem os limites
1 =

lim (AT )m e1 , ..., n =

m+

lim (AT )m en ,

m+

onde os vetores i so constantes. Denotamos por pi o valor que aparece em todas


as entradas de i , i = 1, 2, ..., n. Ou seja
pn
p2
p1
..
..
..
1 = . , 2 = . , . . . , n = . .
pn
p2
p1

Seja
p1
..

P = . .
pn

Afirmamos que P um vetor de probabilidade. De fato, como as entradas de


A e de ei so no negativas, obtemos que as entradas de i so no negativas, ou
seja pi 0. Alm disso, para mostrarmos que p1 + ... + pn = 1, basta mostrarmos
que 1 + ... + n coincide com o vetor constante
1



1 = ... .

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

17
Como AT 1 = 1, obtemos que
1 + ... + n =

n
X

i =

i=1

lim (AT )m

n
X

m+

ei =

i=1

n
X
i=1

lim (AT )m ei

m+

lim (AT )m 1 =

m+

lim 1 = 1,

m+

concluindo a prova da afirmao.

q1

q2

Afirmamos agora que para qualquer vetor de probabilidade P =


.. ,
.
qn

p1

p2

lim Am P = P =
.. .
m+
.
pn

De fato, para cada j {1, ..., n} temos que a jsima coordenada de limm+ Am P
satisfaz:
hej , lim Am P i =
m+

lim hej , Am P i =

m+

lim h(AT )m ej , P i = h lim (AT )m ej , P i

m+

m+


* pj
q1 +
.. ..
= hj , P i = . , . = pj (q1 + ... + qn ) = pj ,

pj

qn

provando a afirmao.
Para mostrarmos que AP = P basta observarmos que
P =

lim Am+1 P =

m+

lim AAm P = A lim Am P = AP .

m+

m+

Por fim, se um vetor de probabilidade Q satisfaz AQ = Q, ento Am Q =


Q, m = 1, 2, 3, ... Portanto
Q=

lim Am Q = P .

m+

Isso garante que P o nico vetor de probabilidade satisfazendo AP = P e conclui


a demonstrao.

Definio 1.9. Dada uma matriz A coluna estocstica positiva, o vetor de probabilidade P satisfazendo AP = P chamado vetor estacionrio associado a
matriz A.

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

18 CAPTULO 1. MATRIZ ESTOCSTICA E VETOR DE PROBABILIDADE


Note que se A positiva ento para estimativas de longo prazo do vetor
P m = Am P , o vetor inicial P no de fato relevante, ou seja quando m ,
Am P converge ao vetor estacionrio P independente do vetor de probabilidade
inicial P .
Corolrio 1.10. O vetor estacionrio associado a uma matriz coluna estocstica
positiva tambm positivo.
Demonstrao: Escrevemos A = (aij ) e denotamos por p1 , ..., pn as coordenadas de P . Lembramos que as entradas de A so positivas e as coordenadas de P
so maiores ou iguais a zero. Suponhamos por absurdo que alguma coordenada pk
P
de P seja nula. Como i aki pi = pk = 0, conclumos que todas as coordenadas
de P so nulas. Mas p1 + ... + pk = 1, garantindo uma contradio.

Exemplo 1.11. Considere a matriz

0, 5 0, 3 0, 1

A = 0, 4 0, 4 0, 6
0, 1 0, 3 0, 3
dada em (1.2). Para determinarmos um autovetor x associado ao autovalor = 1
resolvemos a equao Ax = x ou, equivalentemente, a equao linear homognea
(A I)x = 0. Uma soluo para esta equao dada por

12

x = 17 .
9
Portanto o vetor estacionrio associado a matriz A

12/38
0, 3158

P = 17/38 0, 4474 .
9/38
0, 2368
Dado

P [0]

0, 125

= 0, 250 ,
0, 625

pelo que vimos acima, os vetores P [n] = An P [0] , n = 1, 2, 3, ... aproximam-se de


P . Mais precisamente, lim P [n] = P . Isso est de acordo com os dados abaixo:
n

P [1] = AP [0]

0, 200

= 0, 525 ,
0, 275

P [2] = AP [1]

0, 285

= 0, 455 ,
0, 260

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

19

P [3] = AP [2]

P [5] = AP [4]

0, 305

= 0, 452 ,
0, 243

P [4] = AP [3]

0, 3147

0, 4478 ,
0, 2375

P [6] = AP [5]

0, 3124

= 0, 4486 ,
0, 2390
0, 3154

0, 4475 .
0, 2371

Comentrios: As ideias e resultados que apresentamos nesta seo so conhecidas do estudo de Cadeias de Markov em Processos Estocsticos. Em [4] o
leitor encontrar uma discusso mais completa do tema, com aplicaes. Outra referncia, indicada aos leitores que esto tendo um primeiro contato com o assunto
[8]. Em [1] e [5] o leitor encontrar o tema discutido de forma elementar, com
exemplos e clculos do vetor estacionrio.

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

20 CAPTULO 1. MATRIZ ESTOCSTICA E VETOR DE PROBABILIDADE

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

Captulo 2

Probabilidade invariante e
Jacobiano
Nesta seo vamos considerar o conjunto
X = {1, ..., n} {1, ..., n} = {(i, j) | 1 i n e 1 j n}.
Uma probabilidade sobre X ser uma lista de nmeros no negativos = (ij )1i,jn
P
satisfazendo i,j ij = 1. O nmero ij o peso associado ao ponto (i, j) em X.
Escrevemos ((i, j)) = ij . A probabilidade de um conjunto A X ser por
P
definio (A) = (i,j)A ij . Convenientemente uma probabilidade sobre X
poder ser descrita por uma matriz do tipo n n com entradas no negativas cuja
soma resulta em 1. Denotamos por (X) o conjunto das probabilidades sobre X.
Exemplo 2.1. Para n = 3,
X = {(1, 1), (1, 2), (1, 3), (2, 1), (2, 2), (2, 3), (3, 1), (3, 2), (3, 3)}.
A matriz

11 12 13
0 0, 1 0

= 21 22 23 = 0, 2 0 0, 2
31 32 33
0, 1 0, 3 0, 1
representa uma probabilidade sobre X.
Dizemos que uma probabilidade positiva se a matriz que representa
positiva, ou seja se ((i, j)) > 0 para qualquer ponto (i, j) X.
Fixado k {1, ..., n} definimos
[, k] = {(i, k)|i {1, ..., n}} = {(1, k), (2, k), ..., (n, k)}
e
[k, ] = {(k, j)|j {1, ..., n}} = {(k, 1), (k, 2), ..., (k, n)}.
21

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

22

CAPTULO 2. PROBABILIDADE INVARIANTE E JACOBIANO

Note que em geral ([, k]) 6= ([k, ]). Por exemplo, se X = {1, 2} {1, 2} e
=

11 12
21 22

1/2 1/2
0
0

ento
([, 1]) = 11 + 21 = 1/2 + 0 = 1/2.
enquanto
([1, ]) = 11 + 12 = 1/2 + 1/2 = 1.
Definio 2.2. Uma probabilidade (X) ser chamada invariante1 se para
todo k {1, ..., n}:
n
X

ik =

i=1

n
X

kj .

j=1

O conjunto das probabilidades invariantes ser denotado por (X, ).


Exemplo 2.3. Se X = {1, 2} {1, 2} ento a probabilidade
=

11 12
21 22

1/8 2/8
2/8 3/8

invariante. De fato, a soma dos elementos da primeira linha da matriz coincide


com a soma dos elementos da primeira coluna e a soma dos elementos da segunda
linha da matriz coincide com a soma dos elementos da segunda coluna.
Se uma probabilidade invariante ento para todo k {1, ..., n} temos
([, k]) =

n
X

ik =

i=1

n
X

kj = ([k, ]).

j=1

Note que a matriz que representa no exemplo anterior simtrica. Se a matriz


que representa a probabilidade simtrica, ento ser invariante. A recproca
desta afirmao no verdadeira.
Exemplo 2.4. Se X = {1, 2, 3} {1, 2, 3} ento a probabilidade

0.5 0.1 0.1

0
= 0.2 0
0 0.1 0
invariante, mas a matriz que representa no simtrica.
1
a expresso holonmica (ver [3], [11], [14]) pode ser mais adequada. Apresentamos uma discusso no final do captulo.

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

23
Definio 2.5. O Jacobiano de uma probabilidade invariante (X, ) a
matriz J = (Jij ), onde

((i,j)) = Pnij

([,j])

Jij =
l=1 lj
1/n

se ([, j]) > 0

se ([, j]) = 0

Exemplo 2.6. Para X = {1, 2, 3} {1, 2, 3}. Temos:

5/7 1/2 1
0.5 0.1 0.1

0 ento J = 2/7 0 0 ,
se = 0.2 0
0 1/2 0
0 0.1 0

2/5 2/3 1/2


0.2 0.2 0.1

se = 0.1 0.1 0.1 ento J = 1/5 1/3 1/2 ,


2/5 0
0
0.2 0
0

0.3 0.1 0
3/4 1/6 1/3

se = 0.1 0.5 0 ento J = 1/4 5/6 1/3 .


0
0 0
0
0 1/3
O que ser de interesse neste texto o valor que J assume nos pontos onde
ij > 0. Nos demais pontos, o valor de J poderia ser definido de forma arbitrria.
A nossa escolha se justifica pelo prximo lema.
Lema 2.7. Dada uma probabilidade (X, ), seu Jacobiano J ser uma
matriz coluna estocstica. Se uma probabilidade positiva, seu Jacobiano ser
uma matriz coluna estocstica positiva.
Demonstrao: Iniciamos supondo que uma probabilidade positiva. Neste
caso Jij > 0 para quaisquer i, j {1, ..., n}. Alm disso, para cada j, a soma das
entradas da coluna j da matriz J satisfaz
n
X
i=1

Jij

n
X

ij
Pn

i=1

l=1 lj

= 1.

Conclumos que J uma matriz coluna estocstica positiva.


Se no positiva, por definio teremos Jij 0 para quaisquer i, j
{1, ..., n}. Alm disso, se ([, j]) > 0, podemos repetir as contas acima e concluir que a soma dos elementos da coluna j de J resulta em 1. Caso contrrio (se
([, j]) = 0) escrevemos
n
n
X
X
1
Jij =
= 1.
n
i=1
i=1
Em qualquer caso conclumos que J uma matriz coluna estocstica.

Dada uma matriz A = (aij ) coluna estocstica e positiva, vimos na seo


anterior que existe um nico vetor de probabilidade P tal que AP = P (vetor
estacionrio). Denotamos por p1 , ..., pn as coordenadas de P .

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

24

CAPTULO 2. PROBABILIDADE INVARIANTE E JACOBIANO

Definio 2.8. Dada uma matriz A = (aij )1i,jn coluna estocstica e positiva
com vetor estacionrio P = (pj )1jn , definimos a partir de A uma probabilidade
(X) por ij = aij pj que ser chamada auto-probabilidade associada a
matriz A.
Abaixo vamos mostrar que a auto-probabilidade de fato uma probabilidade.
Dependendo do contexto, poderamos cham-la de medida de Gibbs, equilbrio ou
de Markov. Note que = AD onde D a matriz diagonal determinada por
p1 , ..., pn . Para n = 3, por exemplo

a11 p1 a12 p2 a13 p3


11 12 13

21 22 23 = a21 p1 a22 p2 a23 p3


a31 p1 a32 p2 a33 p3
31 32 33

a11 a12 a13


p1 0 0

= a21 a22 a23 0 p2 0 .


a31 a32 a33
0 0 p3
Proposio 2.9. Se A uma matriz coluna estocstica e positiva, ento a autoprobabilidade associada uma probabilidade invariante e positiva.
Demonstrao: Denotamos por (aij ) as entradas da matriz A e por p1 , ..., pn
as coordenadas do vetor estacionrio P . Como
XX
j

ij =

XX
j

aij pj =

X
j

pj

aij =

pj = 1,

conclumos que uma probabilidade. Para provarmos que positiva, observamos que A uma matriz coluna estocstica positiva e P um vetor de probabilidade positivo (corolrio 1.10). Segue que ij = aij pj positivo para quaisquer
i, j.
Para cada k {1, ..., n} fixado, como AP = P , temos que
pk = ak1 p1 + ak2 p2 + ... + akn pn =

akj pj .

Ento
([, k]) =

X
i

ik =

X
i

portanto invariante.

aik pk = pk

X
i

aik = pk =

X
j

akj pj =

kj = ([k, ]),

Proposio 2.10. Se a auto-probabilidade associada a uma matriz A coluna


estocstica e positiva, ento J = A.

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

25
Demonstrao: Como ij = aij pj positivo para quaisquer i, j, pela definio de Jacobiano temos
ij
aij pj
aij pj
aij pj
Jij = P
= P
= aij .
=P
=
pj l alj
pj
l lj
l alj pj

Pelo que vimos at aqui, dada uma matriz A coluna estocstica positiva, podemos associar a ela uma probabilidade invariante e positiva (auto-probabilidade).
Por outro lado para esta probabilidade podemos associar uma matriz coluna estocstica positiva J que resultar na prpria matriz A.
A J = A.
No que segue vamos analisar se vale um argumento deste tipo partindo-se de
uma probabilidade invariante e positiva . Neste sentido, partindo-se de uma probabilidade invariante e positiva podemos construir uma matriz coluna estocstica
positiva J . Ser que a auto-probabilidade de J coincide com ?
J (?)
Proposio 2.11. Se uma probabilidade invariante e positiva, ento a
auto-probabilidade de J .
P

Demonstrao: Denotamos l lj por qj . Note que q1 + ... + qn = 1. Como

positiva, pela definio de Jacobiano obtemos que Jij = P ij = qijj . Ou seja


l

Jij qj = ij .

lj

(2.1)

Ento para concluirmos que a auto-probabilidade de J , basta mostrarmos que


o vetor estacionrio P que satisfaz P = J P tem coordenadas q1 , ..., qn . Assim a
P
qj para todo k. Como
prova estar completa se mostrarmos que qk = j Jkj
uma probabilidade invariante
X

(2.1)

Jkj
qj =

kj

concluindo a demonstrao.

invariante

ik = qk ,

Resumimos estes resultados abaixo:


Teorema 2.12. i) Dada uma matriz coluna estocstica e positiva A, sua auto-probabilidade
uma probabilidade invariante e positiva. Alm disso J = A.
ii) Dada uma probabilidade invariante e positiva , seu Jacobiano J uma matriz
coluna estocstica e positiva. Alm disso a auto-probabilidade associada a J .

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

26

CAPTULO 2. PROBABILIDADE INVARIANTE E JACOBIANO

Comentrios: A definio de probabilidade invariante apresentada neste captulo uma adaptao do conceito de probabilidade invariante em Sistemas Dinmicos, [13], [16], [18], no correspondendo na ntegra a definio usual. No entanto
ela est ligada ao conceito de probabilidade holonmica em sistemas de funes
iteradas, [3], [11], [14]. Dados conjuntos Y = {1, ..., n} e Z = {1, ..., m}, um
sistema de funes iteradas (IFS) consiste em uma famlia de aplicaes {i : Z
Z | i Y }. Dado um IFS, dizemos que uma probabilidade = (ij ) sobre Y Z
holonmica se para qualquer funo h : Z R
XX

h(i (j))ij =

iY jZ

XX

h(j)ij .

iY jZ

Quando Y = Z = {1, ..., n} e o IFS satisfaz i (j) = i para quaisquer i Y ,j Z


temos que ser holonmica se para qualquer funo h : {1, ..., n} R
X

h(i)ij =

1in 1jn

h(j)ij .

1in 1jn

Afirmamos que isso equivale a dizer que para todo k {1, ..., n},
X

kj =

1jn

ik .

1in

De fato, fixados k {1, ..., n} e a funo k satisfazendo k (j) = 1 se j = k e


k (j) = 0 se j 6= k, se holonmica ento
X

k (i)ij =

1in 1jn

k (j)ij

1in 1jn

logo
X

kj =

ik .

1in

1jn

Por outro lado, se satisfaz


X

kj =

1jn

ik ,

1in

ento para qualquer funo h : {1, ..., n} R temos

h(i)ij =

1in 1jn

h(i)

1in

1in 1jn

ij =

1jn

h(i)ji =

h(i)

1in

h(j)ij ,

1in 1jn

garantindo que holonmica para o IFS satisfazendo i (j) = i.

X
1jn

ji

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

Captulo 3

Entropia
Nesta seo continuamos considerando o espao X = {1, ..., n} {1, ..., n}.
Definio 3.1. Dadas uma matriz A = (aij )1i,jn e uma probabilidade =
(ij ) em (X), a mdia de A em relao a dada por
hA, i =

aij ij .

i,j

Note que hA, i representa uma mdia ponderada das entradas de A com pesos
dados pela probabilidade .
Definio 3.2. Se = (ij ) uma probabilidade invariante, definimos sua entropia1 por
X
H() =
log(Jij )ij .
i,j

Acima estamos considerando o logaritmo natural log(x) = ln(x). Note que se


= 0 ento ij = 0. Sempre que isso ocorrer assumimos que 0 log(0) = 0, ou
seja, desconsideramos esta parcela na soma acima. De fato, como j comentamos
na seo anterior, as entradas de J que sero de interesse neste texto so aquelas
onde ij > 0 e somente nestes casos teremos parcelas consideradas na soma acima.
Jij

Exemplo 3.3. Se ij =

1
n2

para quaisquer i, j, ento

ij
1/n2
1
Jij = P
=
= .
1/n
n
s sj
Segue que
H() =

X
i,j

log(1/n)

1
1
= n2 log(1/n) 2 = log(1/n) = log(n).
n2
n

Esta definio no coincide com a definio de entropia de Shannon para probabilidades em


conjuntos finitos. Tambm no coincide exatamente com a entropia de Kolmogorov-Sinai para probabilidades invariantes em sistemas dinmicos. equivalente as definies apresentadas em [11] e
[14] para probabilidades holonmicas.

27

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

28

CAPTULO 3. ENTROPIA

Exemplo 3.4. Seja = (ij ), onde 11 = 1 (ento todas as demais entradas de


so nulas, pois uma probabilidade). invariante, pois ([i, ]) = ([, i]) =
=1e
0, se i 6= 1 e ([1, ]) = ([, 1]) = 1. Temos que J11
H() =

log(Jij )ij = log(J11


)11 = log(1) = 0.

i,j

Como veremos abaixo a entropia de uma probabilidade invariante pertence


ao intervalo [0, log(n)]. No primeiro exemplo acima, consideramos a probabilidade com distribuio uniforme sobre X. Neste caso, a entropia obtida mxima
(log(n)). No segundo exemplo, consideramos uma probabilidade concentrada em
um nico ponto de X (11 = 1). Neste caso, a entropia obtida mnima (zero).
Exemplo 3.5. Suponha n = 2 e portanto X = {1, 2} {1, 2}. Sejam p1 e p2
nmeros positivos satisfazendo p1 + p2 = 1. Considere
=

11 12
21 22

p1 p1 p1 p2
.
p2 p1 p2 p2

Como p1 e p2 so positivos conclumos que positiva. Alm disso


11 + 12 + 21 + 22 = p1 p1 + p1 p2 + p2 p1 + p2 p2 = p1 (p1 + p2 ) + p2 (p1 + p2 )
= (p1 + p2 )(p1 + p2 ) = (1)(1) = 1.
Isso mostra que uma probabilidade. Por ser simtrica, conclumos que
invariante.
O Jacobiano de dado por

J =

p1 p1
p1 p1 +p2 p1

p1 p2
p1 p2 +p2 p2

p2 p1
p1 p1 +p2 p1

p2 p2
p1 p2 +p2 p2

p1 p1

p2 p2

Portanto
H() =

log(Jij )ij

i,j

= [log(p1 )p1 p1 + log(p1 )p1 p2 + log(p2 )p2 p1 + log(p2 )p2 p2 ]


= [log(p1 )p1 + log(p2 )p2 ].
Como p2 = 1 p1 , podemos escrever
H() = [log(p1 )p1 + log(1 p1 )(1 p1 )].
A funo (t) = log(t)(t) log(1 t)(1 t), t (0, 1), tem derivada
t
), sendo fcil verificar que crescente no intervalo (0, 21 )
0 (t) = log( 1t
e decrescente no intervalo ( 12 , 1). A entropia de mxima se p1 = p2 = 12 e
decresce conforme os nmeros p1 e p2 se distanciam.

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

29
p1

p2

H()
!

0, 5 0, 5

0, 25 0, 25
0, 25 0, 25

0, 4 0, 6

0, 16 0, 24
0, 24 0, 36

0, 3 0, 7

0, 09 0, 21
0, 21 0, 49

0, 2 0, 8

0, 04 0, 16
0, 16 0, 64

0, 1 0, 9

0, 01 0, 09
0, 09 0, 81

0, 6931

0, 5108

0, 3567

0, 2231

0, 1054

Exemplo 3.6. Generalizando o exemplo anterior, dados nmeros positivos p1 , ..., pn ,


tais que p1 + ... + pn = 1, defina uma probabilidade sobre X = {1, ..., n}
{1, ..., n} por
ij = pi pj .
de fato uma probabilidade positiva, pois ij = pi pj > 0 e
XX
i

ij =

XX
i

pi pj =

X

pi

pj =

pi = 1.

Alm disso, invariante, pois simtrica (ij = ji ).


O Jacobiano de dado por
ij
pi pj
pi
Jij = P
=P
= pi
=P

p
j
l lj
l l
l pl
e a entropia de igual a
H() =

log(Jij )ij =

XX
i

i,j

X
i

log(pi )pi

pj =

log(pi )pi pj

log(pi )pi .

Exemplo 3.7. Dada uma matriz coluna estocstica positiva A = (aij ) com vetor
estacionrio P = (pj ) e auto-probabilidade = (ij ) = (aij pj ) temos que
J = A. Portanto
X
H() =
log(aij )aij pj .
i,j

Vamos provar neste captulo o seguinte

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

30

CAPTULO 3. ENTROPIA

Teorema 3.8. Dada uma probabilidade invariante ,


H() = inf{

log(bij )ij | B = (bij )1i,jn coluna estocstica e positiva}.

i,j

Antes da prova vamos apresentar algumas de suas aplicaes.


Corolrio 3.9. Para qualquer probabilidade invariante , 0 H() log(n).
Demonstrao: Como Jij 1 para quaisquer i, j, temos que log(Jij ) 0 e
P

ij log(Jij )ij 0. Portanto H() =


ij log(Jij )ij 0. Por outro lado,
aplicando-se o teorema anterior para a matriz constante B = (1/n):

H() =

log(Jij )ij

i,j

X
i,j

1
log( )ij = log(n).
n


Corolrio 3.10. O conjunto das probabilidades invariantes convexo e a entropia


uma funo cncava sobre este conjunto. Mais precisamente, se e so probabilidades invariantes sobre X e [0, 1], temos
a. + (1 ) uma probabilidade invariante
b. H( + (1 )) H() + (1 )H().
Demonstrao: Sejam = (ij ) e = (ij ) probabilidades invariantes sobre
X = {1, ..., n} {1, ..., n} e fixe [0, 1]. Denotamos por = + (1 ),
a combinao convexa de e com pesos e (1 ). Queremos inicialmente
mostrar que uma probabilidade invariante. Para isso observamos que ij 0 e
ij 0, ento ij = ij + (1 )ij 0. Alm disso
X

ij =

i,j

(ij + (1 )ij ) =

i,j

ij +(1)

i,j

ij = 1+(1)1 = 1,

i,j

garantindo que uma probabilidade.


Para mostrarmos que invariante observamos que, fixado k {1, ..., n},
P
P
P
P

i ik =
j kj e
i ik =
j kj . Ento
X
i

ik =

ik + (1 )

ik =

kj + (1 )

kj =

kj .

Por fim, vamos mostrar que H() H() + (1 )H(). Com este objetivo,
fixamos  > 0. Pelo Teorema 3.8 existe uma matriz coluna estocstica positiva
P
B = (Bij ) tal que H() > i,j log(Bij )ij . Usando a definio de e o
Teorema 3.8 aplicado em e temos:

H() >

X
i,j

log(Bij )ij + (1 )

X
i,j

log(Bij )ij 

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

31
> H() + (1 )H() .
Considerando  arbitrariamente pequeno obtemos que
H() H() + (1 )H().

Exemplo 3.11. Vamos mostrar um exemplo onde H( 12 + 12 ) > 21 H()+ 12 H().
Considere probabilidades em {1, 2} {1, 2} definidas por
11 12
21 22

0 1/2
1/2 0

11 12
21 22

1/2 0
.
0 1/2

Neste caso
0 1
1 0

J =
Portanto H() =
entanto

i,j

1 0
.
0 1

eJ =

log(Jij )ij = 0 e H() =


1
1
= + =
2
2

i,j

log(Jij )ij = 0. No

1/4 1/4
1/4 1/4

satisfaz
!

J =

1/2 1/2
.
1/2 1/2

Como consequncia temos


H() =

log(Jij )ij

i,j

i,j

1
2

 

= 4 log

1
2

 

log

1
4

1
= log(1/2) = log(2).
4

Podemos identificar uma probabilidade sobre X = {1, ..., n} {1, ..., n} com
2
um elemento de Rn . Com esta identificao podemos induzir uma mtrica no
conjunto das probabilidades invariantes. Desta forma, dizemos que uma sequncia
de probabilidades { n }n=1,2,... converge para uma probabilidade (quando n
n
+) se lim ij
= ij para quaisquer i, j {1, ..., n}.
n+

Proposio 3.12. Dada uma sequncia de probabilidades invariantes 1 , 2 , ...


convergindo para , temos que
a) uma probabilidade invariante;
b) H() lim sup H( n ).
n+

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

32

CAPTULO 3. ENTROPIA
Demonstrao: a):
n
ij = lim ij
0
n+

e
X

ij =

i,j

n
lim ij
= lim

n+

i,j

n+

n
ij
= lim 1 = 1,
n+

i,j

garantindo que de fato uma probabilidade. Para mostrarmos que invariante


escrevemos para cada k {1, ..., n}:
X

ik =

n+

= lim

n+

n
lim ik
= lim

n+

n
kj
=

n
lim kj
=

n+

n
ik

kj .

b): Dado  > 0, existe uma matriz coluna estocstica positiva B = (Bij ) tal que

H() >

log(Bij )ij  = lim


n+

i,j

n
log(Bij )ij


i,j

lim sup H( n ) .
n+

Considerando  arbitrariamente pequeno conclumos a prova.

No que segue vamos apresentar resultados que nos auxiliam na prova do Teorema 3.8.
Lema 3.13. Se B = (bij ) e A = (aij ) so matrizes n n onde A coluna
estocstica e positiva com auto-probabilidade = (ij ) e vetor estacionrio P =
(pi ), ento
!

hB, i =

bij ij =

i,j

X X
i,j

ali bli ij =

XX
i,j

ali bli ij =

ij =

Demonstrao: Iniciamos observando que


A P = P . Ento
ali bli pi =

i,l

bli ali pi =

X X

i,l

ali bli pi .

aij pj = pi , pois

bli li =

i,l

bij ij .

i,j


Lema 3.14. Seja = (ij ) uma probabilidade invariante, no necessariamente
positiva e B = (bij ) uma matriz n n. Ento
!

hB, i =

X
i,j

bij ij =

X X
i,j

Jli bli

ij =

X
i,l

(Jli bli ) ([., i]).

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

33
Demonstrao: Se ([i, ]) = ([, i]) > 0 ento
li
.
Jli = P
s si
Denotando por i0 os indices i para os quais ([i, ]) = ([, i]) > 0 temos:
!
X X
i,j

Jli bli

ij =

X X
i0 ,j

Jli0 bli0

i0 j =

X X
i0 ,j

li0
P
bli0 i0 j
s si0

X
X
X
X  li0 bli0  X
P
li0 bli0 =
li bli =
bij ij
=
i0 j =
i0 ,l

s si0

i0 ,l

i,j

l,i


Definio 3.15. Dizemos que uma funo f : I R estritamente cncava se
para quaisquer valores x1 6= x2 no intervalo I e (0, 1)
f (x1 + (1 )x2 ) > f (x1 ) + (1 )f (x2 ).
Lema 3.16. A funo : [0, 1] R definida por
(

(x) =

x log(x) se x (0, 1]
0
se x = 0

(3.1)

contnua e estritamente cncava.


No iremos demostrar este resultado. O leitor convidado, no entanto, a verificar que limx0+ x log(x) = 0 (LHpital) e que a derivada segunda de x log(x)
negativa em (0, +).
Lema 3.17 (Desigualdade de Jensen). Dada uma funo estritamente cncava f :
I R, nmeros distintos a1 , ..., ak no intervalo I e nmeros positivos p1 , ..., pk ,
satisfazendo p1 + ... + pk = 1, onde k 2:
f

k
X

ai p i

>

i=1

k
X

f (ai )pi .

i=1

Demonstrao: Vamos provar o resultado por induo matemtica. Para k =


2 o resultado segue da concavidade estrita da funo f . Supondo verdadeira a
afirmao para um determinado valor de k, vamos provar a afirmao para k + 1:
f

k+1
X

ai p i

=f

i=1

k
X

ai pi + ak+1 pk+1

i=1
k
X

pi
= f (1 pk+1 )
ai
+ ak+1 pk+1
(1

pk+1 )
i=1

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

34

CAPTULO 3. ENTROPIA

(como (1 pk+1 ) + pk+1 = 1, aplicando a Desigualdade de Jensen para 2 termos)


k
X

pi
ai
(1

pk+1 )
i=1

> (1 pk+1 )f
(como

p1 +...+pk
1pk+1

+ pk+1 f (ak+1 )

= 1, aplicando a Desigualdade de Jensen para k termos)

> (1 pk+1 )

k
X

f (ai )

i=1

k+1
X
pi
+ pk+1 f (ak+1 ) =
f (ai )pi .
(1 pk+1 )
i=1


Lema 3.18. Se P = (p1 , ..., pk ) um vetor de probabilidade positivo e Q =
(q1 , ..., qk ) um vetor de probabilidade ento
k
X

qi log(qi )

k
X

qi log(pi ).

i=1

i=1

A igualdade ocorre se e somente se P = Q.


Demonstrao: Vamos supor P 6= Q. Considere a funo estritamente
cncava dada em 3.1. Temos:
k
X

qi log(qi )

k
X

qi log(pi ) =

qi log(

i=1

i=1

i=1

k
X

k
X

k
X
qi
qi
qi
pi log( )
)=
pi
pi
pi
i=1

k
X
qi Jensen
qi
pi ( ) >
pi
=
pi
pi
i=1
i=1

= (1) = 0.


Lema 3.19. Seja B = (bij ) uma matriz n n coluna estocstica positiva e uma
probabilidade invariante. Ento
H() =

log(Jij )ij

log(bij )ij .

i,j

i,j

A igualdade ocorre se e somente se bij = Jij sempre que ij > 0.


Demonstrao: Segue do lema anterior que para cada i fixado
X

Jsi
log(Jsi
)

Jsi
log(bsi ).

em algum ponto (s, i) satisfazendo > 0, como a desigualSupondo bsi 6= Jsi


si
dade acima ser estrita, obtemos

X
i,s

Jsi
log(Jsi
)([, i]) >

X
i,s

Jsi
log(bsi )([, i]).

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

35
A partir do Lema 3.14 obtemos
X

log(Jij )ij =

i,j

Jsi
log(Jsi
)([, i])

i,s

e
X

log(bij )ij =

i,j

Jsi
log(bsi )([, i]).

i,s

Portanto, da desigualdade anterior,


X

log(Jij )ij >

i,j

log(bij )ij .

i,j


Prova do Teorema 3.8: Como consequncia do lema anterior, para toda matriz coluna estocstica e positiva B = (bij ),
H()

log(bij )ij .

i,j

Portanto
H() inf{

log(bij )ij | B = (bij ) coluna estocstica e positiva}.

i,j

Queremos provar a igualdade. Se J positiva basta tomarmos B = J .


Suponhamos que J no seja positiva. Fixado 0 <  < 1 vamos construir uma
matriz coluna estocstica B  pelo procedimento a seguir: Para cada j {1, ..., n}
fixado, analisamos a coluna j de J . Se todas as entradas desta coluna so positivas, ento a jsima coluna de B  coincide com a jsima coluna de J . Se
 = (1 )J
alguma entrada da coluna j nula ento para Jij 6= 0 definimos Bij
ij
e para as demais entradas da coluna colocamos o nmero positivo que garanta que
P 
i Bij = 1. Segue desta construo que se ij > 0 ento
(

Bij

Jij ,
se todas as entradas da coluna j de J so positivas
.

(1 )Jij , se alguma entrada da coluna j de J nula

Portanto


log(Bij
)ij

i,j

log((1)Jij )ij =

i,j

log(Jij )ij

i,j

log((1))ij

i,j

= H() log(1 ).


Assim
H()


log(Bij
)ij + log(1 ),

i,j

onde log(1 ) < 0. Consequentemente obtemos que


H() inf{

log(bij )ij | B = (bij ) coluna estocstica e positiva}+log(1).

i,j

Como  pode ser arbitrariamente pequeno, conclumos a prova.




egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

36
CAPTULO 3. ENTROPIA

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

Captulo 4

Discusso relacionada ao
Formalismo Termodinmico
Nesta seo continuamos considerando o conjunto X = {1, ..., n}{1, ..., n}.
Uma funo F : X R pode ser identificada a uma matriz de entradas (Fij ),
onde Fij = F (i, j). Da mesma forma uma funo : {1, ..., n} R pode ser
identificada a um vetor de Rn . Vamos considerar a funo eF (i,j) sobre X. Note
que eF pode ser representada por uma matriz cujas entradas so (eF (i,j) ).
Exemplo 4.1. Para X = {1, 2} {1, 2}, considere a funo F : X R satisfazendo:
F (1, 1) = 3, F (1, 2) = 5, F (2, 1) = 7, F (2, 2) = 11.
Ento a funo composta eF pode ser representada pela matriz
eF (1,1) eF (1,2)
eF (2,1) eF (2,2)

e3
e5
.
7
11
e
e

Vamos tambm considerar o operador linear LF agindo em Rn e definido por


P
(LF ())j = i eF (i,j) i . Podemos interpretar LF () como o vetor linha dado
por eF onde tambm um vetor linha. Se X = {1, 2, 3} {1, 2, 3}, por
exemplo, e = LF () ento

(1 2 3 ) = (1 2

eF (1,1) eF (1,2) eF (1,3)


F (2,1)

3 ) e
eF (2,2) eF (2,3) .
eF (3,1) eF (3,2) eF (3,3)

Temos assim uma aplicao linear dada por uma matriz agindo pela direita em
vetores linha.
Podemos tambm escrever ()T = ( eF )T = (eF )T ()T . Neste caso a
matriz transposta (eF )T age pela esquerda em vetores coluna. No exemplo anterior
37

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

38CAPTULO 4. DISCUSSO RELACIONADA AO FORMALISMO TERMODINMICO


obtemos

eF (1,1) eF (2,1) eF (3,1)


1
1

F (1,2)
eF (2,2) eF (3,2) 2 .
2 = e
3
3
eF (1,3) eF (2,3) eF (3,3)

Teorema 4.2 (Perron-Frobenius: parte I). Se A uma matriz quadrada e positiva,


ento A admite um autovalor positivo associado a um autovetor positivo.
Demonstrao: Vamos escrever B > 0 se todas as entradas da matriz (ou
vetor) B forem positivas e B 0 se todas as entradas de B forem maiores ou
iguais a zero. B > C se (B C) > 0 e B C se (B C) 0. Denotamos por
I o vetor de Rn com todas as coordenadas iguais a 1 e por H a matriz n n com
todas as entradas iguais a 1. Fixamos Ann , A > 0.
Note que
HI = nI.
Seja I o conjunto dos nmeros satisfazendo a seguinte propriedade: Existe algum
vetor no nulo x 0 (que depende de ) tal que Ax x.
Afirmao 1: existe um nmero 0 > 0 tal que I = (, 0 ].
De fato, se 1 < 2 e 2 I ento 1 I (pode ser tomado o mesmo x que se
aplica a 2 ). Seja a o valor da menor entrada de A. Ento
AI aHI = naI.
Isso mostra que na I e portanto I contm o intervalo (, na]. Seja b o valor
da maior entrada de A. Se x 0 um vetor no nulo e xi sua maior entrada
ento
Ax (bH)(xi I) = nbxi I.
Em particular a coordenada i de Ax limitada por nbxi . Isso mostra que se > nb
ento no pertence a I. Conclumos que existe um nmero 0 [na, nb] tal que
I = (, 0 ) ou I = (, 0 ]. Suponhamos por absurdo que I = (, 0 ).
Seja 1 < 2 < ... uma sequncia crescente de nmeros convergindo para 0 .
Como i I, i = 1, 2, ... podemos escolher um vetor no nulo xi 0 tal que
Axi i xi . Note que esta desigualdade se mantm se multiplicarmos ambos
os lados por uma constante positiva e portanto podemos supor que os vetores xi
so unitrios. Considere uma subsequncia convergente de x1 , x2 , x3 , ... Seja x o
vetor limite desta subsequncia. Como Axi i xi 0, conclumos que Ax
0 x 0. Isso garante que 0 I, contrariando a hiptese de ser I = (, 0 ).
Conclumos assim a prova da afirmao.
Seja x0 0 um vetor no nulo tal que Ax0 0 x0 . Desejamos mostrar que
vale a igualdade. Suponhamos ento por absurdo que Ax0 0 x0 6= 0. Seja
c 0, o valor da maior entrada do vetor (Ax0 0 x0 ). Suponhamos que c ocorra
na coordenada j. Neste caso,
A(Ax0 0 x0 ) (aH)(cej ) = acI.

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

39
Assim A(Ax0 ) 0 (Ax0 ) + acI. Seja h a maior entrada do vetor Ax0 . Ento
A(Ax0 ) 0 (Ax0 ) + acI = 0 (Ax0 ) +

ac
hI
h

ac
ac
(Ax0 ) = (0 + )(Ax0 ).
h
h
ac
Isso mostra que (0 + h ) I contrariando a Afirmao 1. A contradio foi
um resultado da hiptese Ax0 0 x0 6= 0, portanto devemos ter Ax0 = 0 x0 .
Sabemos que 0 > 0. Resta observarmos que x0 > 0. Como A > 0 e x0 0
no nulo temos que Ax0 > 0. Da igualdade Ax0 = 0 x0 conclumos que x0 > 0.

0 (Ax0 ) +

Corolrio 4.3. Existe um autovalor positivo associado a um autovetor positivo


h para LF .
Vamos chamar h de autovetor ou autofuno, uma vez que temos uma identificao entre vetores h Rn e funes h : {1, ..., n} R.
Como > 0 e h > 0 (onde e h esto dados no corolrio acima) podemos
considerar a funo F (i, j) = F (i, j)+log(h(i))log(h(j))log(). Existe uma
relao entre os autovalores e autovetores de LF e LF . Observe que para Rn
e R fixados,
X
F (i,j)

(i) = (j)

eF (i,j)+log(h(i))log(h(j))log() (i) = (j)

X
i

eF (i,j)

h(i)
1 X F (i,j)
e
h(i)(i) = (j)
(i) = (j)
h(j)
h(j) i

eF (i,j) (h(i)(i)) = ()(h(j)(j)).

Conclumos que autovalor de LF com autovetor se e somente se


autovalor de LF com autovetor h, onde a i-sima coordenada de h dada por
h(i)(i). Em particular o vetor constante = 1 um autovetor de LF associado
P
ao autovalor 1. Segue desta afirmao que i eF (i,j) = 1 para todo j.
Definio 4.4. Uma funo F : X R est normalizada se para todo j
P
{1, ..., n}, i eF (i,j) = 1.
Como consequncia desta definio, a funo F est normalizada se a matriz
associada a funo eF coluna estocstica. Se F no est normalizada, a funo
F definida acima por F (i, j) = F (i, j) + log(h(i)) log(h(j)) log() ser
normalizada.
Se LF admitir dois autovalores positivos associados a duas autofunes positivas, ento teremos duas formas distintas de normalizarmos F . No entanto o lema
abaixo garante que isso no ocorrer.

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

40CAPTULO 4. DISCUSSO RELACIONADA AO FORMALISMO TERMODINMICO


Lema 4.5. Existe um nico autovalor positivo que pode ser associado a um
autovetor positivo para LF . O auto-espao associado a tem dimenso 1.
Demonstrao: Suponhamos por absurdo existirem dois autovalores positivos
, associados a autofunes positivas , respectivamente. Seja F (i, j) =
F (i, j) + log((i)) log((j)) log(). Como autovalor de LF conclumos
(i)
que := autovalor para LF com autovetor h := (ou seja h(i) = (i)
,i=

1, 2, ..., n). Como F est normalizada, denotando por h(j) a maior coordenada de
h, obtemos
h(j) =

X
F (i,j)

h(i)

X
F (i,j)

h(j) = h(j)

X
F (i,j)

= h(j).

Portanto 1. De forma anloga, denotando por h(l) a menor coordenada de h,


obtemos
h(l) =

X
F (i,l)

h(i)

X
F (i,l)

h(l) = h(l)

X
F (i,l)

= h(l).

Portanto 1. Conclumos que = 1, garantindo que = . Alm disso, se h


no for um vetor constante teremos uma contradio porque neste caso, denotando
por h(j) a maior coordenada de h, teremos
h(j) = h(j) =

X
X
X
eF (i,j) = h(j).
eF (i,j) h(j) = h(j)
eF (i,j) h(i) <
i

Conclumos que h um vetor constante, portanto um mltiplo de .


Vamos agora provar que o auto-espao associado a tem dimenso 1. Seja
x um autovetor qualquer (no necessariamente positivo) associado ao autovalor
para o operador LF . Ento b = x autovetor associado ao autovalor 1 para LF .
Para qualquer constante C temos,
C + b(j) = C +

X
F (i,j)

b(i)

=C

X
F (i,j)

X
F (i,j)

b(i) =

X
F (i,j)

(C + b(i)),

ou seja C + b um autovetor associado ao autovalor 1 para LF . Se C suficientemente grande obtemos que C + b positivo. Repetindo o argumento anterior
aplicado a h obtemos que C + b um vetor constante. Em particular b um vetor
constante e x um mltiplo de . Isso mostra que o auto-espao associado a
para o operador LF tem dimenso 1.

Se e h so o autovalor e o autovetor positivos para LF , ento qualquer mltiplo ch do autovetor tambm positivo, se c > 0. A funo normalizada F no
depende de c porque
F (i, j) = F (i, j) + log(ch(i)) log(ch(j)) log()

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

41
= F (i, j) + log(c) + log(h(i)) log(c) log(h(j)) log()
= F (i, j) + log(h(i)) log(h(j)) log().
Denotamos por (X, ) o conjunto das probabilidades invariantes sobre X.
Se (X, ), a notao hF, i representa a mdia de F segundo , dada por
hF, i =

F (i, j)ij .

1i,jn

Definio 4.6. A presso de uma funo F : X R dada por


P (F ) =

sup

hF, i + H().

(X,)

As probabilidades invariantes que estamos considerando esto definidas sobre


um conjunto finito. A definio de entropia neste texto no coincide com a entropia
de Kolmogorov-Sinai e consequentemente a definio de presso acima no coincide exatamente com a usada em Formalismo Termodinmico [17]. No entanto
como ser mostrado abaixo, esta definio equivalente.
Lema 4.7. Dada V : {1, ..., n} R, defina W : X R por W (i, j) = V (i)
V (j). Ento hW, i = 0 para todo (X, ).
Demonstrao:
hW, i =

W (i, j)ij =

i,j

X
i

Vi

is

i,j

i,j

(V (i) V (j))ij =

V (j)

X
s

sj =

X
i

Vi

X
s

si

V (i)ij

V (j)ij

i,j

X
j

V (j)

sj = 0.


Corolrio 4.8. Se e h so o autovalor e o autovetor positivos para LF e F (i, j) =
F (i, j) + log(h(i)) log(h(j)) log() a funo normalizada associada, ento hF , i = hF, i log() para todo (X, ). Em particular P (F ) =
P (F ) log().

Como eF coluna estocstica e positiva, pelo Teorema 1.8 existe um vetor


estacionrio P associado e seguindo a discusso da seo 2, podemos construir

uma probabilidade invariante ij = eF (i,j) Pj (auto-probabilidade associada). Pelo

teorema 2.12 temos que J = eF . Ento H() = hlog(eF ), i = hF , i.


Portanto
P (F ) =

sup hF , i + H() hF , i + H() = 0.


(X,)

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

42CAPTULO 4. DISCUSSO RELACIONADA AO FORMALISMO TERMODINMICO


Por outro lado, pelo Lema 3.19 para qualquer probabilidade invariante temos que
H() hF , i. Segue que
P (F ) =

sup hF , i + H() 0.
(X,)

Conclumos que P (F ) = 0 e o supremo que define a presso atingido pela autoprobabilidade .


Teorema 4.9. P (F ) = log() onde o nico autovalor positivo associado a
uma autofuno positiva h para LF . O supremo de hF, i + H() atingido ape
nas pela auto-probabilidade associada a eF , onde F (i, j) = F (i, j) + log(h(i))
log(h(j)) log().
Demonstrao: Como vimos acima, para qualquer probabilidade invariante
temos que
hF , i = hF, i log()

e P (F ) = P (F ) + log() = log(). Se a auto-probabilidade associada a eF


ento
hF, i + H() = hF, i hF , i = log().

Resta provarmos que a nica probabilidade invariante atingindo o supremo.


Seja outra probabilidade invariante. Se positiva e seu jacobiano no coincide

com eF , pelo Lema 3.19, H() < hF , i. Portanto


hF , i + H() < 0

e no atinge o supremo. Se positiva e seu jacobiano coincide com eF ento,


pelo lema 2.11, = . Se no positiva ento ij = 0 para algum par i, j.
Podemos supor que algum elemento da coluna j de no nulo. De fato, se for
nula em toda a coluna j ento pela invarincia, ser nula em toda a linha j. Neste
caso podemos escolher um outro elemento da linha j, digamos jm onde no
identicamente nula na coluna m (pois no pode ser identicamente nula em todas
as colunas). Supondo ento ij = 0 para algum par i, j e que no identicamente

nula na coluna j, conclumos que Jij = 0 enquanto eF (i,j) > 0. Como


X

Jsj = 1 =

X
eF (s,j) ,
s

em algum elemento (l, j), onde lj > 0 teremos Jlj 6= eF (l,j) . Segue do lema 3.19
que H() < hF , i. Portanto hF , i + H() < 0 e hF, i + H() < log().
Conclumos que a nica probabilidade que atinge o supremo.

Seguindo a terminologia adotada no formalismo termodinmico, a auto-probabilidade

associada a eF pode ser chamada de medida de equilbrio associada a funo F ,

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

43
uma vez que P (F ) = hF, i + H(). Note que neste texto uma probabilidade invariante ser o equilbrio de alguma funo se e somente se positiva (teorema
2.12). Neste sentido poderamos dizer tambm que uma probabilidade invariante
uma medida de Gibbs se e somente se positiva.
Observao 4.10. Para X = {1, 2} {1, 2} temos que toda probabilidade invariante satisfaz 12 = 21 pois 11 + 12 = ([1, ]) = ([, 1]) = 11 + 21 .
Assim, toda probabilidade invariante da forma
!

a b
, a + 2b + c = 1, a, b, c 0.
b c

Em particular toda probabilidade invariante pode ser escrita como combinao


convexa (mdia ponderada) das probabilidades
!

1 0
, 2 =
0 0

0 1/2
1/2 0

e =

0 0
,
0 1

ou seja
!

a b
b c

1 0
0 1/2
0 0
=a
+2b
+c
, a+2b+c = 1, a, b, c 0.
0 1
0 0
1/2 0

Identificando as probabilidades em X com um conjunto do R4 , obtemos que as


probabilidades invariantes formam um conjunto convexo com vrtices 1 , 2 , 3 .
Estas 3 probabilidades so as nicas extremais (vrtices), mas no so medidas
de equilbrio. Dada uma funo F estas probabilidades no so realizadoras do
supremo que define P (F ), pois no so positivas. Convm observar que a entropia
que definimos neste texto no corresponde na ntegra a entropia de KolmogorovSinai que aparece com frequncia em textos de Teoria Ergdica e Formalismo
Termodinmico. No corolrio 3.10 foi provado que a entropia cncava (ver
tambm o exemplo que o seguiu). Neste sentido a funo hF, i + H()
uma funo cncava e o supremo no precisa ser (e de fato no ser) atingido em
uma medida extremal.
Se, no entanto, : (X, ) R uma funo convexa, ou seja ( + (1
)) () + (1 )() para quaisquer , invariantes e [0, 1], ento o
supremo de atingido por uma das medidas extremais. De fato, para qualquer
probabilidade invariante
!
a b
=
,
b c
temos que
() = (a 1 + 2b 2 + c 3 ) a( 1 ) + 2b( 2 ) + c( 3 )

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

44CAPTULO 4. DISCUSSO RELACIONADA AO FORMALISMO TERMODINMICO


e como a + 2b + c = 1, pelo menos um dos nmeros ( 1 ), ( 2 )ou ( 3 ) ter
que ser maior ou igual a (). Assim
() max{( 1 ), ( 2 ) ( 3 )}.
Como isso verificado para qualquer (X, ) obtemos
max{( 1 ), ( 2 ) ( 3 )} = sup{()| (X, )}.

Proposio 4.11. A presso uma funo convexa.


Demonstrao: Dados um nmero [0, 1] e funes F e G sobre X. Seja
B = F + (1 )G e 0 a medida de equilbrio associada a funo B. Ento
P (F +(1)G) = P (B) = hB, 0 i+H(0 ) = hF, 0 i+(1)hG, 0 i+H(0 )
= [hF, 0 i + H(0 )] + (1 )[hG, 0 i + H(0 )]
"

sup
(X,)

hF, i + H() + (1 )

"

sup

hG, i + H()

(X,)

= P (F ) + (1 )P (G).

Em [17] o leitor encontrar uma boa discusso sobre o formalismo termodinmico e as relaes entre presso e equilbrio com as informaes obtidas a partir
das rbitas peridicas de um sistema dinmico. Isso inclui a discusso sobre as
funes zeta em sistemas dinmicos, que possuem semelhanas com a funo zeta
de Riemann, sendo que no teorema 6.9 em [17], por exemplo, apresentado o
"Teorema das rbitas Primas".

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

Captulo 5

Otimizao sobre probabilidades


invariantes
Nesta seo continuamos escrevendo X = {1, ..., n} {1, ..., n}. Dada uma
funo F : X R, poderamos tentar entender qual o valor mximo de hF, i
entre todas as probabilidades sobre X. No entanto, se F atinge seu maior valor
em (i, j) ento o mximo de hF, i ser atingido pela probabilidade que concentra
peso total no ponto (i, j) e o valor mximo ser F (i, j). Podemos considerar o
problema de maximizar hF, i para probabilidades satisfazendo algumas restries. Nesta seo vamos considerar como restrio a invarincia de . A discusso
que faremos est relacionada Otimizao Ergdica, sendo [2] uma boa referncia
para este tema.
Definio 5.1. Dada uma funo F : X R, denotamos por
M (F ) =

sup

hF, i.

(X,)

Exemplo 5.2. Seguindo a discusso da Observao 4.10, se X = {1, 2} {1, 2}


ento as probabilidades
!

1 0
, 2 =
0 0

0 1/2
1/2 0

!
3

e =

0 0
0 1

so as probabilidades extremais de (X, ). Afirmamos que o supremo na defi1 2


3
nio de M (F ) atingido
! em pelo menos uma das probabilidades , ou .
a b
De fato, se =
uma probabilidade invariante qualquer, ento como
b c
a, b, c 0 e a + 2b + c = 1,
hF, i = ahF, 1 i+2bhF, 2 i+chF, 3 i (a+2b+c) max{hF, 1 i, hF, 2 i, hF, 3 i}
= max{hF, 1 i, hF, 2 i, hF, 3 i}.
Portanto
M (F ) = max{hF, 1 i, hF, 2 i, hF, 3 i}.
45

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

46 CAPTULO 5. OTIMIZAO SOBRE PROBABILIDADES INVARIANTES


Esse exemplo contm uma ideia de abordagem comum neste tipo de problema.
O conjunto (X, ) convexo e para F fixada a aplicao hF, i convexa
(de fato hF, + (1 )i = hF, i + (1 )hF, i, [0, 1]). Seguindo a
discusso da Observao 4.10, o supremo
M (F ) =

sup

hF, i

(X,)

ser atingido em pelo menos uma probabilidade extremal do conjunto (X, ).


Neste sentido, uma melhor compreenso das probabilidades extremais de (X, )
nos ajuda na compreenso de M (F ).
Outra abordagem comum consiste no estudo do "problema dual" associado.
Dados um nmero real m e uma funo V : {1, ..., n} R satisfazendo
m F (i, j) + V (i) V (j) (i, j) X,
pelo Lema 4.7, denotando por W (i, j) = V (i) V (j) temos que
M (F ) =

hF, i =

sup
(X,)

sup

hF + W, i m.

(X,)

Portanto, para cada funo V fixada, obtemos que M (F ) menor ou igual a qualquer possvel m satisfazendo a desigualdade
m F (i, j) + V (i) V (j) (i, j) X.
Em particular, podemos considerar
m = max(F (i, j) + V (i) V (j)).
i,j

Assim, para V fixada,


M (F ) max(F (i, j) + V (i) V (j)).
i,j

Esta desigualdade satisfeita para qualquer escolha de funo V : {1, ..., n} R.


Portanto
M (F ) inf max(F (i, j) + V (i) V (j)).
(5.1)
V

i,j

Veremos abaixo que de fato a igualdade verificada.


Dados pontos l1 , l2 , ..., lk {1, ..., n}, considere os pontos x1 = (l1 , lk ), x2 =
(l2 , l1 ), ..., xk1 = (lk1 , lk2 ), xk = (lk , lk1 ) em X e defina uma probabilidade
k sobre X por
k
ij
=

nmero de pontos xs = (i, j), s {1, ..., k}


.
k

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

47
k 0e
Note que k de fato uma probabilidade pois ij

X nmero de pontos xs = (i, j), s {1, ..., k}

i,j

nmero de pontos xs , s {1, ..., k}


= 1.
k

Afirmamos que k invariante. De fato:


X

k
aj
=

nmero de pontos xs = (, j), s {1, ..., k}


k

nmero de pontos ls = j, s {1, ..., k}


k
nmero de pontos xs = (j, ), s {1, ..., k} X k
=
=
ja .
k
a
=

Observamos tambm que para qualquer funo F : X R temos que


hF, k i =

F (i, j)

i,j

X F (xs )
xs

nmero de pontos xs = (i, j), s {1, ..., k}


k

F (l1 , lk ) + F (l2 , l1 ) + ... + F (lk , lk1 )


.
k

Lema 5.3. Para qualquer nmero k e quaisquer pontos l0 , l1 ..., lk {1, ..., n}
temos que
F (lk , lk1 ) + ... + F (l2 , l1 ) + F (l1 , l0 ) kM (F ) 2 max F (i, j).
i,j

Demonstrao: Fixados os pontos l0 , l1 , ..., lk , desconsiderando o ponto l0


construa com os demais pontos a probabilidade invariante k , como discutido
F (l1 ,lk )+F (l2 ,l1 )+...+F (lk ,lk1 )
acima. Ento M (F ) hF, k i =
. Assim
k
F (lk , lk1 ) + ... + F (l2 , l1 ) + F (l1 , l0 ) kM (F )
F (l1 , lk ) + F (l2 , l1 ) + ... + F (lk , lk1 )
k
= F (lk , lk1 )+...+F (l2 , l1 )+F (l1 , l0 )[F (l1 , lk )+F (l2 , l1 )+...+F (lk , lk1 )]
F (lk , lk1 )+...+F (l2 , l1 )+F (l1 , l0 )k

= F (l1 , l0 ) F (l1 , lk ) 2 max F (i, j).


i,j

Proposio 5.4 (Dualidade).


sup hF, i = M (F ) = inf max(F (i, j) + V (i) V (j)).
(X,)

i,j

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

48 CAPTULO 5. OTIMIZAO SOBRE PROBABILIDADES INVARIANTES


Demonstrao: A primeira igualdade segue por definio. Por (5.1) sabemos
que
M (F ) inf max(F (i, j) + V (i) V (j)),
V

i,j

portanto basta apresentarmos uma funo V : {1, ..., n} R satisfazendo


M (F ) max(F (i, j) + V (i) V (j)).
i,j

Para cada j fixado defina


V (j) = lim sup sup [F (lk , lk1 ) + ... + F (l2 , l1 ) + F (l1 , j) kM (F )].
k+ lk ,...,l1

Pelo lema acima V (j) est bem definida e V (j) 2 max F (i, j).
i,j

Para cada i, j temos:


F (i, j) + V (i) V (j) M (F ) = F (i, j) M (F ) + V (i) V (j)
= F (i, j)M (F )+lim sup sup [F (lk , lk1 )+...+F (l2 , l1 )+F (l1 , i)kM (F )]V (j)
k+ lk ,...,l1

= lim sup sup [F (lk , lk1 )+...+F (l2 , l1 )+F (l1 , i)+F (i, j)(k+1)M (F )]V (j)
k+ lk ,...,l1
ts+1 =ls

lim sup

sup [F (tk+1 , tk )+...+F (t2 , i)+F (i, j)(k+1)M (F )]V (j)

k+ tk+1 ,...,t2

lim sup

sup [F (tk+1 , tk )+...+F (t2 , t1 )+F (t1 , j)(k+1)M (F )]V (j) = 0.

k+ tk+1 ,...,t1

Portanto
max F (i, j) + V (i) V (j) M (F ) 0,
i,j

como desejado.

Uma funo V satisfazendo


M (F ) = max(F (i, j) + V (i) V (j))
i,j

(5.2)

ser chamada de sub-ao. Por (5.1) obtemos que


M (F ) max(F (i, j) + V (i) V (j))
i,j

verificada por qualquer funo V . Portanto V uma sub-ao se e somente se


F (i, j) + V (i) V (j) M (F ) i, j.

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

49
Exemplo 5.5. Vejamos como a dualidade acima pode ser til nas estimativas de
M (F ). Considere como exemplo a funo

1 1 1
F (1, 1) F (1, 2) F (1, 3)

F = F (2, 1) F (2, 2) F (2, 3) = 2 1 1 .


0 0 1
F (3, 1) F (3, 2) F (3, 3)
Por um lado, como as probabilidades

0 1/2 0
1 0 0

1 = 0 0 0 e 2 = 1/2 0 0
0
0 0
0 0 0
so invariantes, temos M (F ) hF, 1 i = 1 e M (F ) hF, 2 i = 1, 5. Note que
qualquer probabilidade invariante nos fornece uma cota inferior para M (F ). Ou
seja, j sabemos que M (F ) 1, 5. Por outro lado, dada por exemplo a funo V
satisfazendo V (1) = 0, V (2) = 0 e V (3) = 1 temos que
M (F ) max[F (i, j) + V (i) V (j)] = max{1, 1, 0, 2, 1, 0, 1, 1, 1} = 2.
i,j

Note que qualquer funo V nos fornece uma cota superior para M (F ). Das
contas acima obtemos que 1, 5 M (F ) 2. Podemos buscar mtodos eficientes
para fazer a estimativa de M (F ) seguindo esta ideia. Neste exemplo observamos
que para V satisfazendo V (1) = 21 , V (2) = 0, V (3) = 1 temos
3 1 3
1
M (F ) max[F (i, j) + V (i) V (j)] = max{1, , , , 1, 0, , 1, 1} = 1, 5.
i,j
2 2 2
2
Portanto 1, 5 M (F ) 1, 5, ou seja M (F ) = 1, 5.
A discusso que faremos agora busca relacionar os conceitos apresentados na
seo anterior com os desta seo, atravs do chamado caso de temperatura zero
em Formalismo Termodinmico.
Fixado > 0, considere a funo1 F . Seguindo a discusso da seo anterior podemos obter uma autofuno h positiva e um autovalor positivo para o
operador LF . A funo F (i, j) = F (i, j) + log(h (i)) log(h (j)) log( )
est normalizada, ou seja
X

eF (i,j)+log(h (i))log(h (j))log( ) = 1.

Lema 5.6.
1
P (F )
log( ) = lim
= M (F ).
+
+

lim

O parmetro em formalismo termodinmico costuma ser chamado de inverso da temperatura,


1
. Desta forma, quando + temos que T 0.
T

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

50 CAPTULO 5. OTIMIZAO SOBRE PROBABILIDADES INVARIANTES


Demonstrao:
sup(X,) hF i + H()
H()
P (F )
= lim
= lim
sup hF i+
.
+
+ (X,)
+

lim

Como 0 H() log(n) para qualquer probabilidade invariante, obtemos que


lim

sup

hF i +

+ (X,)

H()
lim
sup hF i = sup hF, i
+ (X,)

(X,)

e
lim

sup

hF i+

+ (X,)

H()
log(n)
lim
sup hF i+
= sup hF, i.
+ (X,)

(X,)


Lema 5.7. Para cada > 0 seja a medida de equilbrio de F . Suponha que
convirja a uma probabilidade , quando +. Ento M (F ) = hF, i.
O mesmo vale se for um ponto de acumulao de , +.
Demonstrao: Seja uma probabilidade invariante qualquer. Ento
P (F ) = hF, i + H( ) hF, i + H().
Como consequncia
hF, i +

H( )
H()
hF, i +
.

Quando +, obtemos
hF, i hF, i.
Como uma probabilidade invariante qualquer conclumos que hF, i = M (F ).

Lema 5.8. Para cada > 0 seja h a autofuno positiva associada ao autovalor
positivo de LF . Suponha que 1 log(h ) convirja a uma funo V , quando
+. Ento V uma sub-ao de F . O mesmo vale se V for um ponto de
acumulao de 1 log(h ), +.
Demonstrao: A funo F (i, j) = F (i, j) + log(h (i)) log(h (j))
log( ) est normalizada, ou seja , para cada j,
X
i

eF (i,j)+log(h (i))log(h (j))log( ) = 1.

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

51
Assim,
X
1
log
eF (i,j)+log(h (i))log(h (j))log( )

= 0.

Fixado j, para qualquer i1 tambm fixado


X
1
log
eF (i,j)+log(h (i))log(h (j))log( )
0 = lim
+
i



1
log eF (i1 ,j)+log(h (i1 ))log(h (j))log( )
+

lim


= lim

1
1
1
F (i1 , j) + log(h (i1 )) log(h (j)) log( )

= F (i1 , j) + V (i1 ) V (j) M (F ).


Conclumos que para qualquer j e i1
F (i1 , j) + V (i1 ) V (j) M (F ) 0,
portanto
sup F (i, j) + V (i) V (j) M (F ).
i,j

Como a desigualdade oposta sempre verificada, conclumos que vale a igualdade.




egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

52 CAPTULO 5. OTIMIZAO SOBRE PROBABILIDADES INVARIANTES

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

Captulo 6

Outro tpico: Transporte timo


Este captulo difere um pouco dos anteriores. No iremos trabalhar aqui com
probabilidades invariantes, por exemplo. No entanto, como o leitor ir perceber,
algumas das ideias empregadas aqui so semelhantes s discutidas anteriormente.
Em [19] o leitor encontrar uma boa exposio do assunto que ser brevemente
introduzido neste captulo. Relaes entre o que discutiremos aqui e o que foi
discutido anteriormente podem ser encontradas por exemplo em [9], [10] e [14].
Exemplo 6.1. Suponha que uma empresa tenha 2 filiais x1 e x2 em uma regio
denotada por X e 2 filiais y1 e y2 em uma regio denotada por Y . Devemos transportar 1000 toneladas de um determinado produto de X para Y , sendo que 300
toneladas partiro de x1 e 700 toneladas partiro de x2 , 400 toneladas devero
ser recebidas por y1 e 600 toneladas devero ser recebidas por y2 . Vamos chamar
de plano de transporte uma lista de quatro nmeros no negativos
=

11 12
21 22

onde ij representa a quantidade de toneladas transportadas de xi para yj . Devemos ter compatibilidade com os dados fornecidos. Por exemplo, 11 + 12 (quantidade de toneladas transportadas de x1 para y1 somada a quantidade de toneladas
transportadas de x1 para y2 ) deve resultar em 300 (quantidade de toneladas partindo de x1 ). Portanto devemos ter
11 + 12 = 300, 21 + 22 = 700, 11 + 21 = 400, 12 + 22 = 600.
Existem vrios possveis planos de transporte, como por exemplo
!

300 0
,
100 600

200 100
200 500

150 150
.
250 450

Note que, em qualquer matriz acima, a soma das entradas nas linhas resultam em
300 e 700 (respectivamente), enquanto a soma das entradas nas colunas resultam
em 400 e 600 (respectivamente).
53

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

54

CAPTULO 6. OUTRO TPICO: TRANSPORTE TIMO

Agora, suponha ser fornecido o custo para transportarmos cada tonelada do


produto de uma filial xi para uma filial yj , denotado por Cij . Ento para cada
plano de transporte = (ij ), o custo total de transporte associado ser dado por
hC, i = C11 11 + C12 12 + C21 21 + C22 22 .
Considere o seguinte problema: Fixado o custo (Cij ), determinar o plano de transporte que resulte no menor custo total possvel.
O problema dado acima serve de inspirao para o que iremos desenvolver
neste captulo. Sejam X = {1, 2, ..., n} e Y = {1, 2, ..., m}. Dadas probabilidades
p = (p1 , ..., pn ) sobre X e q = (q1 , ..., qm ) sobre Y , um plano de transporte de
marginais p e q uma probabilidade = (ij )iX, jY sobre X Y satisfazendo:
m
X

ij = pi e

j=1

n
X

ij = qj .

i=1

"Se escrevermos como uma matriz do tipo n m, ento a soma das entradas da
linha i de deve resultar em pi e a soma das entradas da coluna j deve resultar em
qj ."
Dizemos que p a Xmarginal de e q a Y marginal de . Denotamos
por (p, q) o conjunto dos planos de transporte de marginais p e q.
Exemplo 6.2. Com os dados do exemplo anterior podemos supor que X = {1, 2},
3 7
4 6
Y = {1, 2}, p = ( 10
, 10 ) e q = ( 10
, 10 ).
Exemplo 6.3. Para X = {1, 2, 3}, Y = {1, 2}, p = ( 12 , 13 , 16 ) e q = ( 12 , 12 ) temos
que

1/4 1/4

= 1/6 1/6
1/12 1/12
um plano de transporte com marginais p e q pois
1/4 1/4 1/2
1/6 1/6 1/3
1/12 1/12 1/6 .

1/2 1/2
Outro plano de transporte dado por
8/24 4/24 1/2
3/24 5/24 1/3
1/24 3/24 1/6 .

1/2 1/2

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

55
Podemos considerar o problema de minimizao a partir de uma funo custo.
Definio 6.4. Dada uma funo (custo) C : X Y R, definimos
I(C) =

inf

(p,q)

hC, i.

Dizemos que 0 (p, q) um plano de transporte timo se I(C) = hC, 0 i.


Poderamos supor que o custo uma funo no negativa. Isso no alteraria
significativamente o problema porque, somando-se uma constante ao custo C,
obtemos que para toda probabilidade
hC + , i = hC, i + h, i = hC, i + .
Note que a definio acima parecida com a utilizada no captulo anterior. Como
primeira diferena, aqui estamos interessados em minimizar hC, i. Isso pode ser
facilmente contornado se considerarmos que C = D para alguma funo D.
Neste caso minimizar hC, i e maximizar hD, i so problemas anlogos. Uma
segunda diferena est no conjunto de probabilidades considerado. No captulo
anterior considervamos probabilidades invariantes enquanto neste momento estamos considerando planos de marginais p e q. Anteriormente vimos que as probabilidades invariantes formavam um conjunto convexo e que pelo menos uma
probabilidade extremal deste convexo atingia o supremo.
Lema 6.5. O conjunto (p, q) convexo.
Demonstrao: Dados planos de transporte e em (p, q) e um nmero
[0, 1], seja = + (1 ). Como e so probabilidades sobre X Y
temos que tambm uma probabilidade. Alm disso
m
X
j=1

ij =

m
X

[ij +(1)ij ] =

j=1

m
X

ij +(1)

j=1

De forma anloga obtemos que

Pn

i=1 ij

m
X

ij = pi +(1)pi = pi .

j=1

= qj . Portanto tem marginais p e q. 

Para o custo C fixado, a aplicao hC, i satisfaz


hC, + (1 )i = hC, i + (1 )hC, i, [0, 1],
garantindo que o nfimo em I(C) ser atingido por uma probabilidade extremal de
(p, q).
Exemplo 6.6. Se X = {1, 2}, Y = {1, 2}, p = ( 21 , 12 ) e q = ( 21 , 12 ), qualquer
plano de transporte dado por
!

1
a
1/2 a
, a 0,
.
1/2 a
a
2


egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

56

CAPTULO 6. OUTRO TPICO: TRANSPORTE TIMO

Os planos extremais so
!

1/2 0
0 1/2

1 =

0 1/2
.
1/2 0

e 2 =

a
1/2 a
Se =
um plano de transporte, ento = (2a) 1 + (1
1/2 a
a
2a) 2 . Usando que a [0, 1/2], para um custo C fixado, temos:
hC, i = 2ahC, 1 i + (1 2a)hC, 2 i
2a min{hC, 1 i, hC, 2 i} + (1 2a) min{hC, 1 i, hC, 2 i}
= min{hC, 1 i, hC, 2 i}.
Como um plano de transporte qualquer obtemos
I(C) min{hC, 1 i, hC, 2 i}.
Como a desigualdade oposta trivial, conclumos que
I(C) = min{hC, 1 i, hC, 2 i},
ou seja, o nfimo em I(C) ser atingido por 1 ou 2 .

Lema 6.7. Dadas funes A : X R, B : Y R e uma probabilidade


(p, q) temos
hA, i = hA, pi, e hB, i = hB, qi.
Demonstrao:

hA, i =

A(i)ij =

i,j

A(i)

ij =

A(i)pi = hA, pi

hB, i =

B(j)ij =

i,j

B(j)

ij

B(j)qj = hB, qi.


Assim como na seo anterior, podemos buscar entender o problema dual associado para o clculo de I(C). Dadas duas funes A : X R e B : Y R
satisfazendo C(i, j) A(i) + B(j) i X, j Y temos:
I(C) =

inf

hC, i

(p,q)

inf

hA + B, i

(p,q)

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

57
=

inf

[hA, i + hB, i] =

(p,q)

inf

(p,q)

[hA, pi + hB, qi] = hA, pi + hB, qi.

Essa desigualdade verificada por qualquer par de funes A, B satisfazendo


C(i, j) A(i) + B(j), portanto
I(C)

{hA, pi + hB, qi}.

sup

(6.1)

C(i,j)A(i)+B(j)

Uma interpretao para a desigualdade acima dada no exemplo abaixo.


Exemplo 6.8. Retomamos o problema do incio deste captulo. Suponha que uma
empresa tenha filiais x1 e x2 em X e filiais y1 e y2 em Y . Devemos transportar
1000 toneladas de um determinado produto de X para Y , sendo que 300 toneladas partiro de x1 e 700 toneladas partiro de x2 , 400 toneladas devero ser
recebidas por y1 e 600 toneladas devero ser recebidas por y2 . Com estes dados
3 7
4 6
podemos supor que X = {1, 2}, Y = {1, 2}, p = ( 10
, 10 ) e q = ( 10
, 10 ). Suponha termos duas opes de escolha:
1) usar uma funo custo C(i, j) proposta, que representa o custo de transportarmos cada tonelada de xi para yj .
2) usar um par de funes custos A(i) e B(j) propostos, onde A(i) o valor pago
para cada tonelada retirada de xi independente de seu destino ser y1 ou y2 e B(j)
o valor pago para cada tonelada entregue a yj independente de sua origem ser
x1 ou x2 .
No caso 1) dado qualquer plano de transporte ij de marginais p e q temos que o
custo total associado ser hC, i. Como este nmero depende de podemos tentar
determinar o plano que resulte no menor custo. No caso 2) independente do plano
adotado o custo total ser hA, pi + hB, qi. A desigualdade (6.1) garante que se
C(i, j) A(i) + B(j), i, j ento independente da escolha do plano para o caso
1) teremos um custo maior ou igual ao obtido no caso 2). Mesmo se mudarmos as
funes A e B no caso 2), se a relao C(i, j) A(i) + B(j) permanecer, ento
a desigualdade continuar sendo verificada.
Note que cada par de funes A, B satisfazendo C(i, j) A(i) + B(j) nos
fornece uma cota inferior de I(C) e cada plano de transporte nos fornece uma cota
superior de I(C). Fixados C, p e q, se C(i, j) A(i) + B(j) i, j e (p, q)
ento
hA, pi + hB, qi I(C) hC, i.
Exemplo 6.9. Se X = {1, 2}, Y = {1, 2}, p = ( 21 , 12 ) e q = ( 12 , 12 ), os planos de
transporte extremais so
!

1 =

1/2 0
0 1/2

e 2

0 1/2
.
1/2 0

Dado um custo C = (Cij ), onde Cij = C(i, j), um dos planos extremais ser um
plano timo.

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

58

CAPTULO 6. OUTRO TPICO: TRANSPORTE TIMO


1) Se ambos 1 e 2 so timos, ento
C11 + C22
C12 + C21
= hC, 1 i = I(C) = hC, 2 i =
.
2
2

Portanto
C11 + C22 = C12 + C21 .
Defina
A1 = C11 ,

A2 = C21 ,

B1 = 0,

B2 = C12 C11 .

Ento
A2 + B2 = (C21 ) + (C12 C11 ) = C22
e os nmeros A1 , A2 , B1 , B2 satisfazem

A1 + B1 = C11

A +B =C
1
2
12

A
+
B
=
C
2
1
21

A2 + B2 = C22

Portanto C(i, j) A(i) + B(j) i, j. Alm disso


hA, pi + hB, qi =
=

A1 + A2 B1 + B2
+
2
2

C12 + C21
(C11 ) + (C21 ) 0 + (C12 C11 )
+
=
= I(C).
2
2
2

2) Suponha agora que 1 um plano timo e que 2 no. Ento


I(C) =

C11 + C22
C12 + C21
<
.
2
2

Defina
A1 = 0,

A2 = C21 C11 ,

Neste caso temos:

B1 = C11 ,

B2 = C22 + C11 C21 .

A1 + B1 = C11

A +B <C
1
2
12

A
+
B
=
C
2
1
21

A2 + B2 = C22

Portanto C(i, j) A(i) + B(j) i, j. Alm disso


hA, pi + hB, qi =
=

A1 + A2 B1 + B2
+
2
2

0 + (C21 C11 ) (C11 ) + (C22 + C11 C21 )


C11 + C22
+
=
= I(C).
2
2
2

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

59
No exemplo anterior apresentamos um par de funes A e B verificando a
igualdade em (6.1). Esta a direo do resultado abaixo.
Teorema 6.10 (Dualidade de Kantorovich).
sup
{hA, pi + hB, qi} =
C(i,j)A(i)+B(j) i,j

inf

hC, i,

(p,q)

onde o supremo acima deve ser tomado entre todos os possveis pares de funes
A e B verificando a desigualdade C(i, j) A(i) + B(j) i, j.
No iremos apresentar a prova deste resultado neste texto. O leitor interessado
poder encontrar provas em [19] e [15].

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

60
CAPTULO 6. OUTRO TPICO: TRANSPORTE TIMO

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

Referncias Bibliogrficas
[1] ANTON, H. lgebra linear : com aplicaes. 8. ed. Porto Alegre : Bookman,
2001-2002.
[2] CONTRERAS, G.; LOPES, A.; THIEULLEN, PH. Lyapunov minimizing
measures for expanding maps of the circle, Ergodic Theory and Dynamical
Systems, V. 21, p. 1379-1409, 2001.
[3] GARIBALDI, E; LOPES, A. On the Aubry - Mather theory for symbolic
dynamics. Ergodic Theory and Dynamical Systems, Vol 28, p. 791-815, 2008.
[4] KEMENY, J.; SNELL, J. Finite Markov Chains. Princeton : D. van Nostrand,
1963.
[5] LAY, D. lgebra linear e suas aplicaes. 2. ed. Rio de Janeiro : Livros
Tcnicos e Cientficos, 1999.
[6] LIMA, E. lgebra linear. 7. ed. Rio de Janeiro : Impa/CNPq, 2006.
[7] LIMA, E. Anlise real: volume 1. 8. ed. Rio de Janeiro : IMPA, 2006.
[8] LOPES, A. Introduo probabilidade e aos processos estocsticos: uma
exposio para quem no sabe nada do assunto. Matemtica Universitria,
V. 38/39, p. 35-68, 2005.
[9] LOPES, A.; MENGUE, J. Duality Theorems in Ergodic Transport. Journal
of Statistical Physics, Vol 149, Issue 5, p. 921-942, 2012.
[10] LOPES, A.; MENGUE, J.; MOHR, J.; SOUZA, R. Entropy, pressure and
duality for Gibbs plans in Ergodic Transport. Bull. Braz. Math. Soc. v. 46, p.
353-389, 2015.
[11] LOPES, A.; OLIVEIRA, E. Entropy and variational principles for holonomic
probabilities of IFS. Discrete Contin. Dyn. Syst. v. 23, no. 3, p. 937 - 955,
2009.
[12] LUENBERGER, D. Introduction to dynamic systems : theory, models, and
applications. New York : Wiley, 1979.
61

egio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regio Sul - Rio Grande - RS - FURG - IV Colquio de Matemtica da Regi

62

REFERNCIAS BIBLIOGRFICAS

[13] MANE, R. Introduo teoria ergdica. Rio de Janeiro : Impa, 1983.


[14] MENGUE, J.; OLIVEIRA, E. Duality results for Iterated Function Systems
with a general family of branches. (arXiv:1404.7801 [math.DS])
[15] OLIVEIRA, A. O teorema da dualidade de Kantorovich para o transporte
timo. Dissertao de mestrado, UFRGS. Porto Alegre, 2011.
(http://hdl.handle.net/10183/32470)
[16] OLIVEIRA, K.; VIANA, M. Fundamentos da Teoria Ergdica. 1ed. Rio de
Janeiro: SBM, 2014.
[17] PARRY, W.; POLLICOTT, M. Zeta functions and the periodic orbit structure
of hyperbolic dynamics. Astrisque Vol 187-188, 1990.
[18] POLLICOTT, M.; YURI, M. Dynamical systems and ergodic theory. Cambridge : Cambridge University Press, 1998.
[19] VILLANI, C. Topics in optimal transportation. Providence : American
Mathematical Society, 2003.
[20] ROCKAFELLAR, R. Convex analisys. Princeton : Princeton University,
1970.