Você está na página 1de 222

Estatística e

Probabilidade em Física
Prof. André Martorano Kuerten

Indaial – 2021
1a Edição
Copyright © UNIASSELVI 2021

Elaboração:
Prof. André Martorano Kuerten

Revisão, Diagramação e Produção:


Centro Universitário Leonardo da Vinci – UNIASSELVI

Ficha catalográfica elaborada na fonte pela Biblioteca Dante Alighieri


UNIASSELVI – Indaial.

K95e

Kuerten, André Martorano

Estatística e probabilidade em física. / André Martorano Kuerten.


– Indaial: UNIASSELVI, 2021.

213 p.; il.

ISBN 978-65-5663-524-8
ISBN Digital 978-65-5663-518-7

1. Probabilidade. – Brasil. 2. Estatística. – Brasil. II. Centro


Universitário Leonardo da Vinci.

CDD 530

Impresso por:
Apresentação
Acadêmico! Bem-vindo à disciplina de Estatística e Probabilidade
em Física.

Na Unidade 1, introduziremos noções básicas de Probabilidade e


Estatística, tal como os conceitos e fundamentos de Estatística no Tópico 1,
conceitos de Probabilidade no Tópico 2 e fundamentos da mesma no Tópico 3.
Aqui nesta obra, por conceitos, entenderemos como uma abordagem menos
rigorosa e voltada para situações do cotidiano enquanto para fundamentos
teremos uma abordagem mais rigorosa do ponto de vista matemático.

Na Unidade 2 serão introduzidos a fórmula de Bayes com


algumas aplicações dela (Tópico 1) e os chamados Processos Estocásticos
(Tópico 2). Especificamente na primeira parte do Tópico 2 serão estudados
os conceitos e fundamentos de tais processos, e, ao final deste tópico,
fundamentaremos e aplicaremos um caso particular conhecido como
processos markovianos. Já ao término desta unidade, faremos uma breve
revisão de termodinâmica que será útil para a realização de nossos estudos
na última unidade desta disciplina.

Para finalizar esta disciplina, na Unidade 3, aplicaremos nossos


conhecimentos para entender um pouco do papel que a probabilidade e
estatística desenvolvem na ciência Física. No Tópico 1, estudaremos a Teoria
Cinética dos Gases para então reescrever algumas facetas da termodinâmica
em termos de entidades estatísticas. No Tópico 2, abordaremos
conceitualmente a área conhecida em Física como Mecânica Estatística
sem adentrar numa formulação matemática mais rigorosa. Por último, no
Tópico 3, trabalharemos “outras aplicações em física”, em que usaremos
nossos conhecimentos de processos estocásticos para descrever o chamado
movimento browniano na primeira parte de tal tópico. Como segunda e
última parte, veremos o papel da probabilidade no desenvolvimento da
formulação básica da Mecânica Quântica.

Prof. André Martorano Kuerten


NOTA

Você já me conhece das outras disciplinas? Não? É calouro? Enfim, tanto para
você que está chegando agora à UNIASSELVI quanto para você que já é veterano, há
novidades em nosso material.

Na Educação a Distância, o livro impresso, entregue a todos os acadêmicos desde 2005, é


o material base da disciplina. A partir de 2017, nossos livros estão de visual novo, com um
formato mais prático, que cabe na bolsa e facilita a leitura.

O conteúdo continua na íntegra, mas a estrutura interna foi aperfeiçoada com nova
diagramação no texto, aproveitando ao máximo o espaço da página, o que também
contribui para diminuir a extração de árvores para produção de folhas de papel, por exemplo.

Assim, a UNIASSELVI, preocupando-se com o impacto de nossas ações sobre o ambiente,


apresenta também este livro no formato digital. Assim, você, acadêmico, tem a possibilidade
de estudá-lo com versatilidade nas telas do celular, tablet ou computador.

Eu mesmo, UNI, ganhei um novo layout, você me verá frequentemente e surgirei para
apresentar dicas de vídeos e outras fontes de conhecimento que complementam o assunto
em questão.

Todos esses ajustes foram pensados a partir de relatos que recebemos nas pesquisas
institucionais sobre os materiais impressos, para que você, nossa maior prioridade, possa
continuar seus estudos com um material de qualidade.

Aproveito o momento para convidá-lo para um bate-papo sobre o Exame Nacional de


Desempenho de Estudantes – ENADE.

Bons estudos!

UNI

Olá acadêmico! Para melhorar a qualidade dos


materiais ofertados a você e dinamizar ainda mais
os seus estudos, a Uniasselvi disponibiliza materiais
que possuem o código QR Code, que é um código
que permite que você acesse um conteúdo interativo
relacionado ao tema que você está estudando. Para
utilizar essa ferramenta, acesse as lojas de aplicativos
e baixe um leitor de QR Code. Depois, é só aproveitar
mais essa facilidade para aprimorar seus estudos!
LEMBRETE

Olá, acadêmico! Iniciamos agora mais uma disciplina e com ela


um novo conhecimento.

Com o objetivo de enriquecer seu conhecimento, construímos, além do livro


que está em suas mãos, uma rica trilha de aprendizagem, por meio dela você terá
contato com o vídeo da disciplina, o objeto de aprendizagem, materiais complementares,
entre outros, todos pensados e construídos na intenção de auxiliar seu crescimento.

Acesse o QR Code, que levará ao AVA, e veja as novidades que preparamos para seu estudo.

Conte conosco, estaremos juntos nesta caminhada!


Sumário
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA.................................... 1

TÓPICO 1 — CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA........................ 3


1 INTRODUÇÃO..................................................................................................................................... 3
2 ESTATÍSTICA NO COTIDIANO...................................................................................................... 4
3 TERMOS BÁSICOS............................................................................................................................. 9
4 MEDIDAS DE POSIÇÃO................................................................................................................. 10
RESUMO DO TÓPICO 1..................................................................................................................... 15
AUTOATIVIDADE............................................................................................................................... 16

TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE.................................................... 19


1 INTRODUÇÃO................................................................................................................................... 19
2 PROBABILIDADE EM ALGUMAS SITUAÇÕES COTIDIANAS........................................... 20
3 SISTEMAS DE DUAS OPÇÕES...................................................................................................... 24
4 PREDIÇÕES NO CONTEXTO PROBABILÍSTICO.................................................................... 29
RESUMO DO TÓPICO 2..................................................................................................................... 33
AUTOATIVIDADE............................................................................................................................... 34

TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE.............................................................. 37


1 INTRODUÇÃO................................................................................................................................... 37
2 DEFINIÇÕES E CONCEITOS BÁSICOS...................................................................................... 37
3 VARIÁVEIS ALEATÓRIAS.............................................................................................................. 42
3.1 VARIÁVEIS ALEATÓRIAS DISCRETAS................................................................................... 43
3.1.1 Valor Médio........................................................................................................................... 45
3.1.2 Dispersão............................................................................................................................... 46
3.1.3 Desvio padrão....................................................................................................................... 46
3.2 VARIÁVEIS ALEATÓRIAS CONTÍNUAS................................................................................. 46
3.3 VARIÁVEIS ALEATÓRIAS: UMA APLICAÇÃO EM FÍSICA ............................................... 47
4 DISTRIBUIÇÕES DE PROBABILIDADE..................................................................................... 49
4.1 DISTRIBUIÇÕES DISCRETAS..................................................................................................... 49
4.1.1 Distribuição de Bernoulli..................................................................................................... 50
4.1.2 Distribuição binomial........................................................................................................... 51
4.1.3 Distribuição de Poisson....................................................................................................... 53
4.1.4 Distribuição de Probabilidade: uma aplicação em Física............................................... 55
4.2 DISTRIBUIÇÕES CONTÍNUAS.................................................................................................. 58
4.2.1 Distribuição Gaussiana (Normal)....................................................................................... 58
5 DISTRIBUIÇÃO DISCRETA PARA CONTÍNUA....................................................................... 61
LEITURA COMPLEMENTAR............................................................................................................. 66
RESUMO DO TÓPICO 3..................................................................................................................... 68
AUTOATIVIDADE............................................................................................................................... 69

REFERÊNCIAS....................................................................................................................................... 73
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE
REVISÃO DA TERMODINÂMICA..................................................................... 75

TÓPICO 1 — FÓRMULA DE BAYES................................................................................................. 77


1 INTRODUÇÃO................................................................................................................................... 77
2 PROBABILIDADE CONDICIONAL.............................................................................................. 78
3 FÓRMULA DE BAYES....................................................................................................................... 82
4 DISTRIBUIÇÕES A PRIORI E A POSTERIORI.......................................................................... 86
RESUMO DO TÓPICO 1..................................................................................................................... 95
AUTOATIVIDADE............................................................................................................................... 96

TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV.............................. 99


1 INTRODUÇÃO................................................................................................................................... 99
2 PROCESSOS ESTOCÁSTICOS: NOÇÕES BÁSICAS................................................................ 99
3 CADEIAS DE MARKOV: NOÇÕES INTUITIVAS................................................................... 105
4 CADEIAS DE MARKOV................................................................................................................ 110
RESUMO DO TÓPICO 2................................................................................................................... 119
AUTOATIVIDADE............................................................................................................................. 120

TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA........................................................ 123


1 INTRODUÇÃO................................................................................................................................. 123
2 TERMODINÂMICA: ESTRUTURA BÁSICA............................................................................ 123
3 TRABALHO, CALOR E ENTROPIA............................................................................................ 125
3.1 TRABALHO.................................................................................................................................. 125
3.2 CALOR.......................................................................................................................................... 129
3.3 ENTROPIA................................................................................................................................... 130
4 LEIS DA TERMODINÂMICA....................................................................................................... 134
4.1 LEI ZERO...................................................................................................................................... 134
4.2 PRIMEIRA LEI............................................................................................................................... 135
4.3 SEGUNDA LEI............................................................................................................................. 137
LEITURA COMPLEMENTAR........................................................................................................... 140
RESUMO DO TÓPICO 3................................................................................................................... 142
AUTOATIVIDADE............................................................................................................................. 143

REFERÊNCIAS..................................................................................................................................... 147

UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA.......... 149

TÓPICO 1 — TEORIA CINÉTICA DOS GASES.......................................................................... 151


1 INTRODUÇÃO................................................................................................................................. 151
2 TEORIA CINÉTICA DOS GASES: HIPÓTESES BÁSICAS.................................................... 151
3 TEMPERATURA: INTERPRETAÇÃO ESTATÍSTICA.............................................................. 152
4 PRESSÃO: INTERPRETAÇÃO ESTATÍSTICA.......................................................................... 157
5 DERIVANDO E REINTERPRETANDO ALGUMAS LEIS TERMODINÂMICAS............. 160
5.1 LEI DOS GASES IDEAIS............................................................................................................. 160
5.2 LEI DE BOYLE............................................................................................................................. 161
5.3 LEI DE DALTON......................................................................................................................... 161
6 ENTROPIA: INTERPRETAÇÃO ESTATÍSTICA....................................................................... 163
RESUMO DO TÓPICO 1................................................................................................................... 166
AUTOATIVIDADE............................................................................................................................. 167
TÓPICO 2 — MECÂNICA ESTATÍSTICA..................................................................................... 171
1 INTRODUÇÃO................................................................................................................................. 171
2 MICROESTADOS E MACROESTADOS.................................................................................... 171
3 PROBABILIDADE E ENTROPIA.................................................................................................. 178
4 FÓRMULA ESTATÍSTICA PARA ENTROPIA: DEDUÇÃO MATEMÁTICA..................... 182
RESUMO DO TÓPICO 2................................................................................................................... 186
AUTOATIVIDADE............................................................................................................................. 187

TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA..................................................................... 189


1 INTRODUÇÃO................................................................................................................................. 189
2 FORÇA ESTOCÁSTICA E MOVIMENTO BROWNIANO..................................................... 189
2.1 FORÇA ESTOCÁSTICA............................................................................................................. 190
2.2 MOVIMENTO BROWNIANO: DESCRIÇÃO FÍSICA........................................................... 191
3 PROBABILIDADE E TEORIA QUÂNTICA............................................................................... 195
3.1 DUALIDADE ONDA/PARTÍCULA......................................................................................... 196
3.2 FUNÇÃO DE ONDA E EQUAÇÃO DE SCHROEDINGER................................................. 197
3.3 INTERPRETAÇÃO DE BORN................................................................................................... 202
LEITURA COMPLEMENTAR........................................................................................................... 207
RESUMO DO TÓPICO 3................................................................................................................... 209
AUTOATIVIDADE............................................................................................................................. 210

REFERÊNCIAS..................................................................................................................................... 213
UNIDADE 1 —

INTRODUÇÃO À PROBABILIDADE E
ESTATÍSTICA

OBJETIVOS DE APRENDIZAGEM
A partir do estudo desta unidade, você deverá ser capaz de:

• compreender alguns aspectos básicos de estatística;

• fundamentar e desenvolver problemas de estatística;

• compreender alguns aspectos básicos de probabilidade;

• fundamentar e desenvolver problemas de probabilidade.

PLANO DE ESTUDOS
Esta unidade está dividida em três tópicos. No decorrer da unidade,
você encontrará autoatividades com o objetivo de reforçar o conteúdo
apresentado.

TÓPICO 1 – CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA

TÓPICO 2 – CONCEITOS BÁSICOS DE PROBABILIDADE

TÓPICO 3 – FUNDAMENTOS DE PROBABILIDADE

CHAMADA

Preparado para ampliar seus conhecimentos? Respire e vamos


em frente! Procure um ambiente que facilite a concentração, assim absorverá
melhor as informações.

1
2
TÓPICO 1 —
UNIDADE 1

CONCEITOS BÁSICOS E
FUNDAMENTOS DE ESTATÍSTICA

1 INTRODUÇÃO
A estatística se faz presente em nossas vidas nos mais variados ramos da
atividade humana. Ela está presente em situações cotidianas como em eventos
esportivos, em informações cedidas por um determinado governo etc. Por exemplo,
em um evento esportivo, geralmente, nos deparamos com certas informações que
visam fundamentar as análises subsequentes dos cronistas esportivos acerca de
certa equipe ou, mais em geral, acerca do próprio evento esportivo, ou mesmo
da história do próprio esporte como um todo. Ali, a estatística pode surgir de
diferentes formas possíveis, como na contagem de chutes ao gol por jogo, a
eficiência de tais chutes etc.

Fundamentalmente, a estatística trabalha com uma grande quantidade


de dados. A origem da própria palavra nos remete ao termo Estado, uma vez
que este geralmente trabalha com quantidades enormes de dados, por exemplo,
uma população, suas subdivisões em faixas etárias, pirâmide populacional, seja
ela referente ao gênero, à classe social e à própria faixa etária etc. Em outras
palavras, dados que serão úteis a um determinado município, estado, país etc.
Como podemos ver em Memória (2004, p. 10): “a etimologia da palavra, do latim
status (Estado), usada aqui para designar a coleta e a apresentação de dados
quantitativos de interesse do Estado, [...]”.

Como nos exemplos citados anteriormente, a estatística deve trabalhar


como uma grande quantidade de dados e, a partir destes, organizar, analisar
etc. Longe de tais situações corriqueiras, a estatística também desempenha papel
importante no desenvolvimento das ciências básicas, como Biologia, Química
e Física. Especificamente na ciência Física, ela tem fundamental importância
na compreensão dos fenômenos termodinâmicos. Ao tratar um sistema físico
microscópico com uma infinidade de partículas que seguem leis da Mecânica (seja
ela Clássica ou Quântica), podem-se inferir os conceitos estatísticos, fundando,
assim, o campo de estudo conhecido como Física Estatística, também conhecida
como Mecânica Estatística. Outros ramos da Física também podem apresentar
aspectos estatísticos como Teoria do Caos, Econofísica etc.

Para dar suporte conceitual e matemático para nossos estudos futuros


de Probabilidade e Estatística em Física, no Tópico 1, apresentaremos as ideias
básicas e os fundamentos matemáticos de Estatística, como construção e análise
de tabelas, frequência, mediana, moda, variáveis aleatórias, população e amostra.

3
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Iniciaremos o tópico apresentando situações cotidianas envolvendo


estatística para que, posteriormente, ao logo do tópico, possamos introduzir
alguns fundamentos e definições matemáticas que nos auxiliarão nos tópicos
mais avançados ao longo do curso.

2 ESTATÍSTICA NO COTIDIANO
A estatística aparece em nosso dia a dia de diversas formas, como já
havíamos mencionado, em eventos esportivos ou em estudos emitidos por um
determinado governo.

Para iniciar nossos estudos, vamos supor que certa administração


pública queira dar uma concessão de uso de uma rodovia para o setor privado.
Para este fim, tal administração encomenda um estudo para quantificar o fluxo
dos veículos que trafegam sobre esta rodovia. Para desenvolver tal pesquisa,
contratam-se funcionários para então estimar tal fluxo em um certo ponto da
estrada. Tais funcionários são requeridos de anotar a quantidade de motos,
carros, ônibus e caminhões que circulam pela rodovia em tal ponto e em um
dado intervalo de tempo.

Ao começar seu trabalho, um funcionário transmite para um computador


os primeiros veículos que transitam em tal ponto, ou seja: carro, moto, carro,
carro, caminhão, carro, caminhão, ônibus, moto e assim por diante.

Depois de um período de vinte quatro horas, os dados anotados naquele


ponto foram organizados na seguinte tabela a seguir:

TABELA 1 – FLUXO DE VEÍCULOS NUM PERÍODO DE 24 HORAS

Tipo de Veículo Quantidade


Moto 127
Carro 453
Ônibus 071
Caminhão 145

FONTE: O autor

Desse modo, num período de um dia foram contados 127 motos, 453
carros, 71 ônibus e 145 caminhões. A seguir, apresentamos uma representação
gráfica dos dados anteriores.

4
TÓPICO 1 — CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA

GRÁFICO 1 – COMPOSIÇÃO DO FLUXO DE VEÍCULOS

FONTE: O autor

Desde que o interesse sob os dados da tabela seja de cunho financeiro,


torna-se útil associar para cada variedade (moto, carro, ônibus e caminhão) um
valor numérico, que, neste caso, é uma estimativa sobre o preço a ser cobrado
no futuro pedágio instalado naquele ponto específico. Atribuíram-se, então, os
seguintes valores em reais:

TABELA 2 – PREÇO ESTABELECIDO PARA CADA TIPO DE VEÍCULO

Veículo Preço em R$
Moto 2,00
Carro 5,00
Ônibus 16,00
Caminhão 12,00

FONTE: O autor

As duas tabelas anteriores estão organizadas na única tabela a seguir:

TABELA 3 – FREQUÊNCIA DE OCORRÊNCIA VS PREÇO POR VEÍCULO - I

Frequência R$
127 2,00
453 5,00
071 16,00
145 12,00

FONTE: O autor

5
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

A tabela anterior está organizada de acordo com a frequência de


ocorrência de um determinado dado (aqui, neste caso: moto, carro etc.).

É útil, ainda, organizar a tabela anterior em ordem crescente quanto ao


valor da frequência, ou seja:

TABELA 4 – FREQUÊNCIA DE OCORRÊNCIA VS PREÇO POR VEÍCULO - II

Frequência R$
071 16,00
127 2,00
145 12,00
453 5,00

FONTE: O autor

Podemos ainda organizar em termos da frequência relativa, que é nada


mais, nada menos, que pegar a razão entre a frequência e a totalidade do conjunto
de dados.

Nesse caso, a totalidade de veículos é:

71 + 127 + 145 + 453 = 796.

As frequências relativas, de cada tipo de veículo, serão dadas por:

• Ônibus:

• Moto:

• Caminhão:

• Carro:

Neste caso, podemos reorganizar nossa tabela anterior como:

TABELA 5 – FREQUÊNCIA RELATIVA DE OCORRÊNCIA VS PREÇO POR VEÍCULO

Frequência Relativa R$
0,089 16,00
0,159 2,00
0,182 12,00
0,573 5,00

FONTE: O autor

6
TÓPICO 1 — CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA

Todos as diferentes formas de organização dadas anteriormente são


construídas em termos de uma amostra que relata, neste nosso exemplo, o número
de veículos que trafegam em um dado intervalo de tempo e em um dado ponto
da rodovia. Tal amostra constitui apenas uma “parte” da realidade adjacente que
é entendida, em estatística, como uma população.

Vamos considerar agora nossa tabela organizada como na Tabela 4.


Notamos que o valor com maior frequência é de R$ 5,00. Chamamos este valor
de moda.

Também é, muitas vezes, útil encontrar o valor central da configuração


de dados. Neste caso pegamos os valores centrados e tiramos uma média deles,
isto é:

Tal valor é nomeado como a mediana associada com a amostra.

Podemos ainda prever o lucro esperado em um dia através de nossa


amostra. Por exemplo, em um certo minuto foi verificado: carro, caminhão, carro,
carro, ônibus, moto.

Desde que associamos valores a cada tipo de veículo, a sequência anterior


é convertida numericamente como:

5,00, 12,00, 5,00, 5,00, 16,00, 2,00.

Desse modo, para aquele dado minuto temos a amostra anterior.

Tal amostra pode ser convertida num lucro bruto esperado da seguinte
maneira:

Logo, a amostra, naquele minuto específico, fornece uma previsão de


lucro de sete reais e cinquenta centavos.

Como vimos, na amostra referente a 24 horas, o total de veículos era


de setecentos e noventa e seis. É um número grande e, então, nesses casos, é
conveniente tabelarmos os dados numa tabela de frequência. Note que com a
tabela organizada dessa maneira, torna-se mais simples calcular a previsão de
lucro bruto nas 24 horas.

7
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Nesse caso, multiplicamos a frequência pelo valor associado, isto é:

71 . 16,00 + 127 . 2,00 + 145 . 12,00 + 453 . 5,00 = 5395.

Assim, o resultado anterior sugere um lucro bruto diário de cinco mil


trezentos e noventa e cinco reais.

A seguir, podemos ver a contribuição de cada categoria no montante final


de lucro bruto:

GRÁFICO 2 – PREVISÃO DE CONTRIBUIÇÃO NO LUCRO BRUTO TOTAL

FONTE: O autor

Podemos também encontrar o lucro bruto associado por veículo. Basta


dividirmos o resultado acima pelo número total de veículos, ou seja

Desse modo, para os preços estabelecidos por cada tipo de veículo, a


fórmula anterior nos fornece o valor médio de aproximadamente seis reais e
setenta e oito centavos por cada veículo rodado. Os números que acabamos de
encontrar são conhecidos como medidas de posição.

8
TÓPICO 1 — CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA

3 TERMOS BÁSICOS
Um modelo estatístico é caracterizado por uma população A e uma
amostra a. Uma população engloba todo o conjunto de elementos os quais
possuem uma atribuição em comum. Um subconjunto de uma população é
denominado amostra. A população pode ser infinita ou finita enquanto a amostra
deve ser sempre finita.

Em outras palavras, a amostra carrega o conjunto de dados qual


trabalhamos em modelos estatísticos através de uma amostragem. Uma
amostragem pode ser aleatória ou intencionada. As variáveis estatísticas podem
ser quantitativas ou qualitativas. Por sua vez, as variáveis quantitativas podem ser
discretas ou contínuas enquanto as qualitativas podem ser nominais ou ordinais.

Como em Magalhães e Lima (2004, p. 8), as variáveis podem ser


classificadas como:

FIGURA 1 – CLASSIFICAÇÃO DAS VARIÁVEIS

Nominal
Qualitativa
Ordinal
Variável
Discreta
Quantitativa
Contínua
FONTE: Adaptado de Magalhães e Lima (2004, p. 8)

Considere que queremos estudar as temperaturas médias das cinco


regiões brasileiras. Devido a certas dificuldades, podemos escolher aleatoriamente
um grupo de cidades que representarão cada região. Agora, digamos que nossa
pesquisa será aplicada para políticas de saúde pública e nos interessa apenas
as sub-regiões de cada região que tradicionalmente apresentam as maiores e
menores temperaturas médias.

Nesse caso, realizamos uma pesquisa intencionada, buscando escolher


as cidades das regiões mais quentes e frias de cada região. Note que em nossa
coleta de dados, buscaremos variáveis quantitativas, desde que mediremos a
temperaturas em diferentes dias e locais. A temperatura é ainda uma variável
contínua, isto é, assume valores reais e, em geral, não inteiros.

9
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Supomos que, na mesma pesquisa, queremos considerar a população


das cidades envolvidas. Desse modo, para essa amostragem, serão atribuídos
valores quantitativos, desde que a população de uma cidade é um número
inteiro. Dentro dessas cidades ainda podemos fazer uma pesquisa paralela para
estabelecer a divisão social de cada município (classe A, B etc.). Nesse caso, a
variável será qualitativa ordinal, uma vez que a uma “ordem” atribuída: A (alta),
B (média-alta), C (média) etc.

Para finalizar, poderíamos querer saber a proporção da população de uma


dada cidade que faz parte de um certo “grupo de risco”. Nossa coleta de dados
se resumiria em obter as respostas “faz parte” ou “não faz parte”. Tal variável é
classificada como qualitativa nominal.

4 MEDIDAS DE POSIÇÃO
Começaremos trabalhando as medidas de posição. Consideremos um
conjunto de dados {di} de uma certa variável D. Define-se a média d como sendo
a somatória de di pela quantidade de valores n, isto é:

(1)

Caso um certo conjunto de dados estão organizados de acordo com


suas frequências fi, a expressão (1) torna-se uma média ponderada, e é então
reescrita como:

(2)

Há ainda o conceito de classe. Classe é quando a variável é dividida


em intervalos definidos por uma amplitude. O conjunto de dados {Di}, o qual
devemos trabalhar, será construído pegando determinadas médias referentes a
cada intervalo.

Matematicamente, temos:

Em que dif é o limite superior do intervalo e di0 o limite inferior.

10
TÓPICO 1 — CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA

Neste caso, a média será dada por:

(3)

Com Fi sendo a frequência de cada intervalo Ii e N a quantidade de


intervalos.

Dada uma amplitude Ai, o intervalo Ii deve ser um semiaberto. Por


exemplo, escolhendo:

I₁= ]d₁₀,dif]

Teremos os outros intervalos:

I₂= ]d₂₀,d2f], I₃= ]d₃₀,d3f]

E assim por diante. Em geral, as amplitudes Ai não necessitam serem


iguais.

Ainda é útil definir a mediana e a moda associada ao conjunto de dados.


A mediana dmed é definida como o dado que ocupa a “posição” central de um
conjunto de dados, enquanto a moda dmod é o dado com maior frequência.

Como um exemplo, considere um clube de futebol em que a


folha de pagamento do time titular é fornecida pela tabela a seguir:

TABELA 6 – FOLHA DE PAGAMENTO DO TIME - I

4 3 5 7 6 4 4 2 6 8 7

FONTE: O autor

Os valores são dados em mil reais.

A média (1) é, então:

No entanto, organizada numa tabela de frequência, a mesma tabela torna-se:

11
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

TABELA 7 – FOLHA DE PAGAMENTO ORGANIZADA POR SUA FREQUÊNCIA

fi 1 1 3 1 2 2 1
di 2 3 4 5 6 7 8

FONTE: O autor

Agora, para encontrar d de acordo com a tabela anterior, devemos usar a


equação (2). Obviamente, o resultado encontrado deve ser o mesmo. Por sua vez,
a mediana dmed é obtida por organizar os dados em ordem crescente: 2, 3, 4, 4, 4,
5, 6, 6, 7, 7, 8. Logo:

dmed = 5000.

Já para a moda temos:

dmod = 4000.

Agora, considere o caso que queremos analisar somente os jogadores que


jogam “na linha”, ou seja, desconsiderando o salário do goleiro.

A nova tabela (já ordenada em ordem crescente) é então dada por

TABELA 8 – FOLHA DE PAGAMENTO DO TIME - II

2 3 4 4 5 6 6 7 7 8

FONTE: O autor

Note que, agora, nossa coleção de dados é par.

Nesse caso, para obtermos a mediana, devemos encontrar uma média


entre os valores centrais, ou seja:

Podemos ainda trabalhar com frequências relativas Fi. Tal frequência é


definida assim:

(4)

12
TÓPICO 1 — CONCEITOS BÁSICOS E FUNDAMENTOS DE ESTATÍSTICA

Com a frequência relativa (4) introduzida, a equação (2) torna-se:

d = ∑ Fi di, (5)

Enquanto a equação (3) pode ser reescrita como:

d = ∑ Fi Di , (6)

Com Fi definido analogamente como:

Outro tipo de frequência útil a ser introduzido, é a chamada frequência


acumulada ai. Ela é obtida somando fi com seus antecessores, isto é:

ai = fi + fi-1 + fi-2 + ... + f₁.

Ainda, devemos definir a frequência acumulada relativa Ai por:

Ai = Fi + Fi-1 + Fi-2 +...+ F1.

Com essas novas definições, podemos reescrever a Tabela 6 como:

TABELA 9 – FOLHA DE PAGAMENTO ORGANIZADA PELA FREQUÊNCIA E FREQUÊNCIA ACUMULADA

Ai 1/11 2/11 5/11 6/11 8/11 10/11 1


Fi 1/11 1/11 3/11 1/11 2/11 1/11 1/11
ai 1 2 5 6 8 10 11
fi 1 1 3 1 2 2 1
di 2 3 4 5 6 7 8

FONTE: O autor

Para finalizar este tópico, vamos trabalhar o conceito de classe. Considere


que o clube quer arrecadar dinheiro e começa a coletar os possíveis doadores
do clube. De um total de 500 torcedores pesquisados, verificou-se 306 pessoas
dispostas a doarem até R$ 50, 102 a doarem entre 50 e 100, 82 de 100 a 150, 9 de
150 a 200 e uma pessoa de 200 a 250 reais. Assim, organiza-se a seguinte tabela:

13
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

TABELA 10 – POSSÍVEIS DOADORES E VALORES A SEREM DOADOS

dif / di0 fi ai
0 - 50 306 306
50 -100 102 408
100 -150 082 490
150 - 200 009 499
200 - 250 001 500

FONTE: O autor

Por considerando o valor médio Di de cada intervalo, a tabela anterior


rende:

TABELA 11 – POSSÍVEIS DOADORES E VALORES MÉDIOS A SEREM DOADOS

Di fi ai
25 306 306
75 102 408
100 082 490
125 009 499
150 001 500

FONTE: O autor

Deste modo, usando (3), encontramos:

Logo, a capacidade de arrecadação do clube será de R$ 53,782 por


torcedor. Assim, estipulando que o time tenha 25000 torcedores, a expectativa de
arrecadação será de R$ 1344550.

DICAS

Para reforçar seus estudos referente ao Tópico 1 e os tópicos subsequentes,


pode ser útil ler Magalhães e Lima (2004).

14
RESUMO DO TÓPICO 1
Neste tópico, você aprendeu que:

• Os conceitos de estatística podem ser tratados em situações corriqueiras.

• Uma tabela é melhor organizada em termos de suas frequências.

• Existem termos básicos que são úteis para trabalhar os modelos estatísticos.

• Os dados trabalhados em estatística formam uma amostra e estas fazem parte


de uma população.

• Podemos encontrar valores numéricos importantes como moda e mediana e


estas são medidas de posição.

• Medidas de posição podem fornecer grandezas desejáveis para um tratamento


mais aprofundado de um certo conjunto de dados.

• As variáveis estatísticas podem ser qualitativas e quantitativas, podendo ser


ainda nominais ou ordinais, discretas ou contínuas.

15
AUTOATIVIDADE

1 Existem diferentes maneiras de organizar uma tabela a partir de dados


brutos extraídos. Podemos organizar uma tabela através da frequência ou
mesmo da amplitude. Ainda, muitas vezes, é útil considerar a frequência e
amplitude relativas.

Com as informações anteriores, suponha que certo filme para o público


adolescente resolveu fazer um levantamento para saber a faixa etária de seu
público e obteve os seguintes resultados:

14 17 13 13 18 13 20 19 18 18
16 15 13 19 17 17 15 14 20 16
13 15 16 13 14 14 18 16 15 13
17 16 18 14 13 17 19 20 14 13
16 16 19 14 14 19 14 17 16 20
13 21 15 14 17 18 16 15 20 14

Desenvolva os itens pedidos a seguir:


a) Reescreva a tabela em termos de frequência.
b) Reescreva a tabela em termos da amplitude.
c) Reescreva a tabela em termos de frequência relativa.
d) Reescreva a tabela em termos de amplitude relativa.

Com base em seus resultados, classifique V para as sentenças verdadeiras e F


para as falsas:

( ) A tabela em termos de frequência tem a forma:

fi 10 11 06 09 07 06 05 05 01
di 13 14 15 16 17 18 19 20 21

( ) A tabela em termos de amplitude tem a forma:

ai 10 21 27 35 44 50 53 59 60
di 13 14 15 16 17 18 19 20 21

( ) A tabela em termos de frequência relativa tem a forma:

Fi 1/6 11/60 1/10 3/20 7/60 1/10 1/12 1/12 1/60


di 13 14 15 16 17 18 19 20 21

16
( ) A tabela em termos de amplitude relativa tem a forma:

Ai 1/6 1/5 1/2 3/5 43/60 5/6 9/10 59/60 01


di 13 14 15 16 17 18 19 20 21

Agora, assinale a alternativa que apresenta a sequência CORRETA:


a) ( ) V – F – V – F.
b) ( ) V – V – F – F.
c) ( ) V – F – V – V.
d) ( ) F – V – F – V.

2 Em estatística, é útil obter alguns valores numéricos para uma posterior


análise das informações colhidas. Tais valores são conhecidos como medidas
de posição e, entre eles, temos frequência, mediana, moda e o valor médio.

Com a tabela a seguir:

09 06 14 10 11 05 04 02 01
14 12 15 10 08 02 11 13 09
12 11 07 13 05 11 07 12 05

Encontre demonstrando o resultado, a mediana, moda e o valor médio.

I- Mediana = 11,5. Moda = 13. Valor médio = 8,425.


II- Mediana = 10,5. Moda = 13. Valor médio = 8,425.
III- Mediana = 10. Moda = 11. Valor médio = 8,85.
IV- Mediana = 11,5. Moda = 11. Valor médio = 7,967.

Agora, assinale a alternativa CORRETA:


a) ( ) Somente a afirmativa I está correta.
b) ( ) Somente a afirmativa II está correta.
c) ( ) Somente a afirmativa III está correta.
d) ( ) Somente a afirmativa IV está correta.

3 As chamadas variáveis aleatórias podem ser classificadas por diferentes


atribuições, podendo ser uma variável quantitativa ou qualitativa. Caso a
variável seja qualitativa, ela pode ser nominal ou ordinal enquanto que se
for quantitativa, ela pode ser discreta ou contínua. A seguir, temos uma
ilustração da classificação de variáveis aleatórias:

Nominal
Qualitativa Ordinal
Variável
Quantitativa Discreta
Contínua

FONTE: Adaptado de Magalhães e Lima (2004, p. 8)

17
Com suas próprias palavras, disserte sobre no que consiste cada tipo de
variável aleatória.

4 Muitas vezes, usa-se o conceito de classe para trabalhar com certos dados
estatísticos. Podemos dizer que em dados classificados por classes, se
disponibilizam tais em razão de seus intervalos. Sendo dif o limite superior do
intervalo, di0 o limite inferior e fi as frequências, através da tabela a seguir:

dif / di0 fi
0 - 20 26
20 - 40 59
40 - 60 22
60 - 80 07
80 - 100 01

Agora, assinale a alternativa CORRETA:


a) ( ) A média associada a tabela é aproximadamente 27,41.
b) ( ) A média associada a tabela é aproximadamente 43,76.
c) ( ) A média associada a tabela é aproximadamente 36,93.
d) ( ) A média associada a tabela é aproximadamente 32,26.

18
TÓPICO 2 —
UNIDADE 1

CONCEITOS BÁSICOS DE PROBABILIDADE

1 INTRODUÇÃO
A probabilidade aparece em muitos ramos do conhecimento humano, tal
como Economia, Biologia, Física, Teoria dos Jogos etc. Seu estudo, sob o ponto
de vista matemático, remonta aos trabalhos de Bernoulli já no Século XVII, em
sua obra intitulada Ars Conjectandi, publicado no século seguinte em 1713, como
pode ser visto em Hald (2003). Inicialmente, o estudo da probabilidade surge com
o emergente interesse em jogos de azar, como pode ser lido em Memória (2004),
e se difundindo posteriormente sob as diversas ramificações do conhecimento
humano. Hoje em dia, a probabilidade é entendida como um ramo da estatística,
que estudamos anteriormente.

Um ramo, em especial, em que os conceitos de probabilidade têm


fundamental importância é na ciência Física, já que ela aparece desde a Teoria
do Caos como na própria fundação da Teoria Quântica. Na mecânica Quântica, a
probabilidade surge nos debates iniciais acerca da interpretação do significado da
função de onda de uma partícula. Tal interpretação conhecida como Interpretação
de Born diz que tal função de onda pode ser compreendida desde que seu
quadrado nos forneça uma onda de probabilidade.

DICAS

O histórico artigo de Born (1954), pode ser obtido no site oficial do prêmio
Nobel, no endereço: nobelprize.org/prizes/physics/1954/born/lecture/.

Entretanto, longe de sua importância acadêmica em Física, a probabilidade


torna-se familiar simplesmente por observar nossos acontecimentos diários. Nos
eventos cotidianos, a probabilidade emerge, por exemplo, num sorteio da loteria
federal, em jogos de tabuleiro, de cartas ou de dados, no mercado financeiro etc.

19
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

No Tópico 2, observando situações diversas mais próximas da realidade


cotidiana, abordaremos os conceitos básicos de probabilidade, como sistema
contendo apenas duas possibilidades, sua distribuição binomial de probabilidade
e normalização, descritas em diferentes formas, como fazer predições em contextos
probabilísticos usando valor esperado e desvio médio.

Espera-se, assim, que tal tópico sirva de suporte para um estudo mais
aprofundado que será desenvolvido no Tópico 3.

2 PROBABILIDADE EM ALGUMAS SITUAÇÕES COTIDIANAS


Como já mencionado na Introdução, conceitos de probabilidade podem
ser extraídos em diversas situações cotidianas. Alguns deles são os jogos de
dados, cartas, loterias etc. Para começar nosso estudo, analisaremos tais situações
ocorrentes em nosso dia a dia.

Consideraremos, inicialmente, um desafio de dados não viciados. Em tal


desafio, devemos prever o número que será sorteado após alguns lançamentos
aleatórios de dados. A probabilidade de acertar a face correta é de uma em seis
após um único lançamento de dado, ou simplesmente 1/6. Podemos representar
esta situação matematicamente como:

Aqui P(n) representa a probabilidade de se obter um número específico n


de um total de seis números possíveis. Caso agora queiramos prever duas jogadas
consecutivas, devemos apenas multiplicar uma probabilidade pela outra, ou seja:

Aqui n′ detona que os números não são necessariamente iguais. A regra


de multiplicação anterior pode ser generalizada para um número indeterminado
de jogadas. Por exemplo, seja m o número de jogadas subsequentes, teremos
então a regra de multiplicação reescrita como:

A forma de calcular a probabilidade é muito sensível ao jogo que estamos


querendo analisar. Por exemplo, se quisermos acertar dois números diferentes
independentes da ordem, teremos então (para m = 2):

20
TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE

A forma anterior ocorre porque, na primeira jogada, temos uma chance


em três enquanto na segunda uma chance em seis. Note que no primeiro caso
somamos as probabilidades, isto é:

1 1 1
+ =.
6 6 36

Quando introduzimos, formalmente, os conceitos de probabilidade,


veremos, que, em geral, temos regras diferentes para eventos que são
independentes e para eventos que são exclusivos. Por hora, vamos nos ater a
eventos independentes onde a regra da multiplicação é válida.

Para ilustrar outra situação de aplicabilidade de eventos independentes,


analisaremos o corriqueiro jogo da Mega Sena. De vez em quando ouvimos
ou lemos que a probabilidade de se ganhar nesse sorteio é de uma entre
50063860 milhões. Como se obtém esse valor? Nesse caso específico, para obter
tal probabilidade, deve-se considerar que para cada bola sorteada, tem-se na
próxima rodada um número total diferente de bolas, pois a cada sorteio uma bola
é retirada para o sorteio posterior.

A maneira correta de se calcular a probabilidade da Mega Sena pode ser


encontrada considerando a seguinte multiplicação:

Logo, podemos observar exatamente a probabilidade que nos é


apresentada nos meios de comunicação. Note que apesar de o número total de
bolas ter diminuído rodada após rodada (ao contrário do jogo de dados por
exemplo), a probabilidade final é obtida através da regra de multiplicação.

DICAS

No site da loteria federal, encontramos diferentes probabilidades para os


chamados “bolões” da Mega Sena, isto é, apostando seis, sete bolas etc. Confira tais números
e tente obtê-los assim como verificar também se o preço de cada bolão corresponde com
a probabilidade encontrada de se ganhar nela apostando diferentes quantidades de bolas.

21
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Nos exemplos analisados anteriormente, a possibilidade de se obter um


determinado número em relação ao outro era igualmente provável. No entanto,
há casos em que a probabilidade de se obter um dado valor é maior que a
probabilidade de se obter outro.

Como exemplo, vamos imaginar a mesma aposta, mas agora com dados
viciados. Vamos considerar ainda que certo dado foi manipulado para que a
probabilidade de se obter o valor 6 seja de 50%. Os demais valores são igualmente
prováveis. Nesse caso, a probabilidade de se obter qualquer valor que não seja 6
deve ser de 1/10, pois a soma das probabilidades deve totalizar 100%, isto é:

Como devemos agora calcular a probabilidade de dada sequência?

Vamos considerar diferentes sequências contendo três jogadas:

• 6-1-4
• 6-6-2
• 6-6-6
• 3-5-2

Para cada sequência, a probabilidade é fornecida na tabela a seguir:

TABELA 12 – PROBABILIDADE DE UMA SEQUÊNCIA ESPECÍFICA

Sequência 6-1-4 6-6-2 6-6-6 3-5-2

Probabilidade

FONTE: O autor

É interessante notarmos que podemos organizar a probabilidade de cada


sequência como:

22
TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE

Observando a estrutura matemática anterior, é possível generalizar a


probabilidade de uma sequência qualquer (de número N indeterminado) em que
cada face do dado esteja associada com uma probabilidade genérica de ocorrer.
Considere a expressão a seguir:

(7)

Pi é a probabilidade de uma certa face ocorrer e Ni a quantidade de vezes


que tal face aparece na sequência.

Agora repare que (7) pode fornecer qualquer resultado da tabela anterior
apenas por computar o número de vezes em que as bolas aparecem na sequência,
como, também, a probabilidade de cada bola ser sorteada.

Neste mesmo caso considerado anteriormente, devemos ainda considerar


as relações auxiliares úteis:

P1 + P2 + P3 + P4 + P5 + P6 = 1,

N1 + N2 + N3 + N4 + N5 + N6 = N. (8)

Em muitos casos que estudaremos posteriormente durante o curso, pode


ser conveniente usarmos as notações de produtório e somatório. Fazendo uso dessa
notação, podemos reescrever (7) simplesmente como:

Já as relações (8) tornam-se

23
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

3 SISTEMAS DE DUAS OPÇÕES


Muito úteis são os problemas contendo apenas duas opções possíveis, por
exemplo, um jogo de cara ou coroa. Um problema muito usual na literatura é
também considerar o “caminho aleatório” ou “marinheiro bêbado”. Tal problema
consiste em analisar uma trajetória em que cada “passo” caminhado pelo
marinheiro é sujeito a condições probabilísticas. Em uma dimensão (trajetória
sobre uma linha reta) as opções possíveis são os passos:

• “Para frente”
• “Para trás”

Vamos supor que nosso marinheiro caminhe com uma probabilidade P>
de seu passo ser dado para frente e uma probabilidade P< de seu passo ser dada
para trás. Depois de N passos, a probabilidade do marinheiro ter dado N> passos
para frente e N< passos para trás será dada por:

(9)

Note que temos aqui uma equação similar para os casos dados
anteriormente com a única diferença que, neste caso, estamos considerando
apenas duas possibilidades possíveis. De maneira também similar, teremos,
ainda:

P< + P> = 1,

N< + N> = N, (10)

Para ilustrar, vamos supor uma sequência de três passos, isto é, N = 3.


Neste caso teremos os possíveis cenários:

• (P<)3 (P>)0
• (P<)2 (P>)1
• (P<)1 (P>)2
• (P<)0 (P>)3

Digamos que para cada três passos, a probabilidade do marinheiro dar um


passo para frente é de P< = 2/3 enquanto que para trás é de P> = 1/3. Substituindo
os valores em possibilidade anterior, encontramos as probabilidades referentes
para cada caso, ou seja:

24
TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE

Agora devemos reparar a desigualdade:

Podemos, então, nos indagar: por que a soma das probabilidades de cada
possibilidade não totalizou 100%? Onde se encontra o fator 12/27?

Para solucionar essa pergunta, vamos considerar a situação em que o


marinheiro anda dois passos para frente e um passo para trás.

Notamos que temos três configurações diferentes possíveis que satisfazem


este caso. São eles:

• trás-frente-frente
• frente-trás-frente
• frente-frente-trás

Do modo similar, teremos três casos diferentes para dois passos para trás
e um para frente. Já para os casos de três passos para frente ou para trás, teremos
apenas uma possibilidade, ou seja:

frente-frente-frente ou trás-trás-trás.

Agora repare que:

Desse modo, temos encontrado o “12/27” que estava faltando.

Devemos reparar ainda que os fatores multiplicados aos termos


probabilísticos, podem ser obtidos do seguinte modo:

25
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

O que acabamos de introduzir informalmente foi a noção de normalização.


Ou seja, para calcular corretamente a probabilidade final, devemos normalizar cada
contribuição. Tal termo de normalização pode ser representado matematicamente por:

(11)

Podemos concluir então que a probabilidade de cada possibilidade ocorrer


é dada pela multiplicação de (9) com (11), ou seja:

(12)

Como veremos mais adiante, a expressão obtida anteriormente é


conhecida como distribuição binomial e será amplamente trabalhada por nós
durante a Unidade 1.

DICAS

Para o problema do caminho aleatório, você pode encontrar um


desenvolvimento similar mais com maior rigor matemático em Salinas (1997)..

Usando as relações (10), podemos reescrever (12) como se segue:

(13)

A partir daqui, devemos querer associar nossas fórmulas obtidas


anteriormente com uma situação que tenha um certo contexto físico. Para isso,
vamos considerar, por exemplo, que para cada passo dado tenhamos Δx de
comprimento. A real distância percorrida é então pega como a diferença de
passos para frente e passos para trás, isto é:

ΔX = X> – X<.

26
TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE

A expressão anterior deve ser proporcional a N> – N< , ou seja, a diferença


entre o que o marinheiro andou para frente e o que andou para trás convertidos
em metros. X = X> + X< é a distância total percorrida e então está associada com N.
Vamos reescrever (12) como:

(14)

Agora, necessitamos realizar um pouco de álgebra. Repararmos que:

Substituindo as relações anteriores em (14), como também:

P< = 1 – P>

Encontramos

(15)

Deste modo, na fórmula anterior, a probabilidade é calculada em termos


da distância total percorrida X e da distância deslocada efetivamente ΔX.

Podemos usar a fórmula (15) para descrever, por exemplo, a probabilidade


de se encontrar uma partícula em certa distância em uma dimensão. Por
simplicidade, vamos continuar analisando o movimento do marinheiro. Vamos
supor que cada passo do marinheiro é equivalente a um metro de distância.
Vamos também supor que ele anda dez metros no total X = 10 m. Com a fórmula
(15) em mãos, podemos calcular as diversas probabilidades de ele se encontrar
em uma dada posição ΔX.

Considere inicialmente como um primeiro exemplo, a probabilidade de


encontrar o marinheiro na posição ΔX = 10 m. Substituindo X = 10 e ΔX = 10 em
(15), encontramos:

27
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Já para ΔX= 8 m, 6 m, 4 m, 2 m, teremos respectivamente:

Para o caso em que efetivamente o marinheiro “não andou” ΔX = 0,


obtemos:

Enquanto para os casos em que ele andou “para trás”, isto é, ΔX < 0,
encontramos:

Vamos prosseguir inicialmente fazendo uma análise simples. Se o


marinheiro andar para frente com 100% de certeza (P> = 1), podemos notar que:

P(10) = 1

Enquanto todos os demais são iguais a zero, pois 1 – P> = 0. Ou seja, temos
100% de certeza de que encontraremos o marinheiro na posição 10 m. No entanto,
se a probabilidade de andar para frente for nula, teremos:

P(–10) = 1

28
TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE

E os demais igual a zero, uma vez que P> = 0. Logo, temos 100% de
certeza de que encontraremos o marinheiro na posição –10 m. Analisado o caso
trivial, devemos agora querer estudar um caso não trivial. Consideraremos nosso
exemplo inicial, em que P> = 2/3. Substituindo este valor em P(10), encontramos
rapidamente:

P(10) ≃ 0,0173.

Já para P(8), teremos:

Com os dois resultados anteriores, vemos que é mais provável encontrar


o marinheiro em 8 m (8,67 %) do que em 10 m (1,73 %). Realizando o mesmo
procedimento para as posições, encontramos:

• P(6) ≃ 0,1951
• P(4) ≃ 0,2601
• P(2) ≃ 0,2276
• P(0) ≃ 0,1366
• P(-2) ≃ 0,0569
• P(-4) ≃ 0,0163
• P(-6) ≃ 0,0030
• P(-8) ≃ 0,0003
• P(-10) ≃ 0,0000

Logo, encontramos todas as possibilidades e suas probabilidades


associadas ao contexto estabelecido por nós.

4 PREDIÇÕES NO CONTEXTO PROBABILÍSTICO


No subtópico anterior, temos calculado a probabilidade de encontrarmos
em uma dada posição, um marinheiro que anda sujeito a regras probabilísticas.
Todavia, como podemos falsear nosso modelo? Ou seja, como podemos sujeitar
tal modelo a uma prova? Uma opção é considerar uma média entre as variáveis
possíveis de se obter. Porém, como elaborar tal média, uma vez que cada valor
possível carrega uma probabilidade para acontecer?

Para ilustrar, vamos, novamente, voltar para o problema do marinheiro.


Por exemplo, se considerarmos uma média simples no exemplo do marinheiro,
a média das posições ΔX nos forneceria o número zero. Por nossos resultados
obtidos, a probabilidade em tal posição é de:

P(0) ≃ 13,66 %.

29
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Se repararmos, ainda, as probabilidades decaem para posições ΔX <


0. Se continuarmos ainda observando, podemos ver que a probabilidade vai
aumentando até ΔX = 4 (P(4) ≃ 26,01 %) e novamente decai para ΔX > 4. Podemos
resumir tais análises ao gráfico a seguir:

GRÁFICO 3 – PROBABILIDADE DE ENCONTRAR O MARINHEIRO EM CERTA POSIÇÃO - I

FONTE: O autor

Podemos reparar que o valor zero não nos fornece nenhuma informação
relevante para a melhor compreensão do sistema. Vamos analisar então uma
composição que leve em conta o valor ΔX, tal como seu “peso probabilístico”
P(ΔX). Supomos uma simples multiplicação, ou seja:

P(ΔX) ⋅ ΔX.

Por simplicidade, vamos considerar agora X = 5 e –5 < ΔX < 5. Vamos


manter P> = 2/3 como nos exemplos anteriores. É bom sempre lembrarmos que
aqui os valores de ΔX são discretos. Usando (15), encontramos:

• P(5) ≃ 13,17 %
• P(3) ≃ 32,92 %
• P(1) ≃ 32,92 %
• P(–1) ≃ 16,46 %
• P(–3) ≃ 4,12 %
• P(–5) ≃ 0,41 %

30
TÓPICO 2 — CONCEITOS BÁSICOS DE PROBABILIDADE

É interessante notar, nos resultados anteriores, que a probabilidade de se


encontrar o marinheiro nas posições 1 m e 3 m é a mesma. Como já mencionamos e
mostramos através do gráfico, a média simples nos dá uma informação que não nos
fornece nenhuma informação importante. Diante das probabilidades encontradas
anteriormente, intuitivamente, podemos pensar que uma média ideal, nos deva
fornecer um valor entre 1 e 3. Consideramos então, a somatória de todos os valores
multiplicados por seus respectivos pesos probabilísticos, ou seja:

∑ P(ΔX) ⋅ ΔX ≃ 0,0041(-5) + 0,0412(-3) + 0,1646(-1) + 0,3292(1) + 0,3292(3) + 0,1317(5)


≃ 1,667.

Deste modo, o valor final está entre 1 e 3, como queríamos!

No entanto, podemos perceber que valor não se encontra equidistante de


1 e 3. Isso ocorre, pois os demais valores são também considerados. Observe o
gráfico a seguir:

GRÁFICO 4 – PROBABILIDADE DE ENCONTRAR O MARINHEIRO EM CERTA POSIÇÃO - II

FONTE: O autor

Podemos agora notar que o valor encontrado nos fornece uma informação
relevante do sistema. O que acabamos de encontrar, isto é:

<ΔX> = ∑ P(ΔX) ⋅ ΔX, (16)

É conhecido como valor esperado ou apenas valor médio de ΔX.

31
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Outra definição importante, segue do desvio de uma dada variável


quanto ao valor médio calculado. Por exemplo, os valores de nosso exemplo:

X = –5, –3, –1, 1, 3, 5

Se “desviam” Δ do valor esperado <ΔX>, simplesmente por tomar


equações:

Δ(–5) = –5 – 1,667 = –6,667, Δ(–3) = –3 – 1,667 = –4,667

E assim por diante.

De modo geral, tem-se que o desvio médio Δ(X) de X é dado neste caso por:

Δ(X) = X – <X>. (17)

32
RESUMO DO TÓPICO 2
Neste tópico, você aprendeu que:

• Podemos quantificar alguns problemas probabilísticos simples de situações


cotidianas, como num jogo de dado ou num jogo da loteria.

• O problema do caminho aleatório é útil para definir alguns conceitos


importantes.

• Um sistema de duas opções, como o problema do marinheiro, segue uma


distribuição binomial de probabilidade.

• Para podermos trabalhar com predições de um modelo guiado por


probabilidade, devemos introduzir algumas grandezas matemáticas para
tornar a análise do sistema em questão mais adequada, como valor médio e
desvio médio.

33
AUTOATIVIDADE

1 A probabilidade aparece em nosso cotidiano de muitas maneiras diferentes,


como em jogos de dados, jogos de cartas, na loteria etc. No jogo de “general”,
a probabilidade de acertar a maior jogada é de uma em sete mil setecentos e
setenta e seis. Tal jogo consiste em jogarmos simultaneamente cinco dados
não viciados, enquanto a maior jogada é obtida quando os cinco dados
fornecem o número seis. Desse modo, a probabilidade de se conseguir a
maior jogada é de 1/65. Considerando que alguns dados sejam viciados,
encontre a probabilidade da maior jogada para os seguintes casos:

1° caso: um dado viciado com a probabilidade de 1/3 para cair o número seis.
2° caso: um dado viciado com a probabilidade de 1/2 para cair o número
quatro.
3° caso: dois dados viciados, um com probabilidade de 1/4 para cair o número
seis e outro com probabilidade de 1/5 para cair o mesmo número.
4° caso: dois dados viciados, um com probabilidade de 1/3 para cair o número
cinco e outro com probabilidade de 1/3 para cair o número seis.
5° caso: dois dados viciados, um com probabilidade de 1/3 para cair o número
três e outro com probabilidade de 1/3 para cair o número dois.

Com base em seus resultados, analise as seguintes sentenças:

I- 1°: P = 1/3888, 2°: P = 1/12960, 3°: P = 1/4320, 4°: P = 1/4860, P = 1/12150.


II- 1°: P = 1/3888, 2°: P = 1/9750, 3°: P = 1/3830, 4°: P = 1/6440, P = 1/5150.
III- 1°: P = 1/496, 2°: P = 1/9750, 3°: P = 1/3830, 4°: P = 1/4860, P = 1/5150.
IV- 1°: P = 1/3888, 2°: P = 1/12960, 3°: P = 1/4320, 4°: P = 1/6440, P = 1/12150.

Agora, assinale a alternativa CORRETA:


a) ( ) Somente a sentença I está correta.
b) ( ) Somente a sentença II está correta.
c) ( ) Somente a sentença III está correta.
d) ( ) Somente a sentença IV está correta.

2 O caminho aleatório é um bom exemplo dos chamados sistemas de duas


opções. Sua fórmula matemática para a probabilidade é a seguinte:

Com base em seus conhecimentos de sistemas de duas opções, classifique V


para as sentenças verdadeiras e F para falsas:

34
( ) O termo é um fator de normalização.
( ) P< + P> = P.
( ) N< + N> = N.
( ) A fórmula pode ser alternativamente representada por:

Agora, assinale a alternativa que apresenta a sequência CORRETA:


a) ( ) V – V – F – F.
b) ( ) F – V – V – V.
c) ( ) V – F – V – F.
d) ( ) F – F – V – V.

3 Sistemas probabilísticos, como o problema do caminhar do marinheiro, são


úteis porque envolvem apenas duas possibilidades e preparam para uma
melhor compreensão de sistemas probabilísticos mais complexos. Usando
a fórmula do caminho do marinheiro:

E considerando X = 5 e P> = ¼, encontre todas as probabilidades para cada ΔX


possível demonstrando o resultado e observe os seguintes resultados:

I- P (–5) = 0,237, P (–1) = 0,264, P (+3) = 0,015.


II- P (–4) = 0,124, P (+2) = 0,217, P (+4) = 0,017.
III- P (–3) = 0,396, P (+3) = 0,0015, P (+5) = 0,010.
IV- P (–4) = 0,124, P (–2) = 0,216, P (+2) = 0,217.
V- P (–3) = 0,396, P (+1) = 0,088, P (+5) = 0,001.

Agora, assinale a alternativa CORRETA:


a) ( ) Somente afirmativa II está correta.
b) ( ) Somente afirmativa V está correta.
c) ( ) As afirmativas II e IV estão corretas.
d) ( ) As afirmativas I e V estão corretas.
e) ( ) As afirmativas I e III estão corretas.

4 Para um melhor entendimento dos possíveis resultados que podem ser


acessados num sistema regido por probabilidades, torna-se útil a construção
de gráficos. Em outra mão, podemos recuperar informações através de um
gráfico, desde que sabemos o sistema aleatório de que estamos tratando.
Considerando o caminho aleatório representado no gráfico a seguir:

35
E sua fórmula matemática da questão anterior, classifique V para as sentenças
verdadeiras e F para as falsas:

( ) A probabilidade de o passo ser dado para frente é de 4/5.


( ) A probabilidade de o passo ser dado para trás é de 1/4.
( ) O valor esperado é 2,002.
( ) O valor esperado é 1,998.

Agora, assinale a alternativa que apresenta a sequência CORRETA:


a) ( ) V – F – F – F.
b) ( ) V – F – V – F.
c) ( ) F – V – F – V.
d) ( ) F – V – V – V.

36
TÓPICO 3 —
UNIDADE 1

FUNDAMENTOS DE PROBABILIDADE

1 INTRODUÇÃO
Depois do trabalho pioneiro de Bernoulli, ao longo dos séculos
subsequentes, a probabilidade tem sido desenvolvida em termos de uma
matemática mais formal e rigorosa. A primeira definição de probabilidade
(conhecida hoje como definição clássica) foi fornecida pelo matemático francês
Laplace, em sua obra intitulada como Théorie analytique des probabilités, em 1812.

De lá para cá, com o desenvolvimento formal em prática, ela pode


efetivamente ser introduzida nos mais diferentes ramos do conhecimento
humano. Como sendo usual em matemática, a probabilidade tem sido
formalizada em termos de objetos abstratos que podem tomar formas concretas
em diferentes âmbitos.

Neste Tópico 3, abordaremos tais construções teóricas como a definição


clássica de probabilidade, fenômenos aleatórios e espaço amostral, eventos,
condições que a probabilidade deve satisfazer, variáveis aleatórias e buscaremos
incorporá-las em diferentes problemas. Trabalharemos também com diferentes
tipos de distribuições contínuas e discretas e aplicaremos os conhecimentos
adquiridos previamente no tópico anterior.

2 DEFINIÇÕES E CONCEITOS BÁSICOS


Já definimos informalmente alguns aspectos matemáticos importantes
para contextualizar probabilidade no dia a dia, como caminho aleatório,
distribuição binomial, valor médio e desvio médio. Aqui, discutiremos uma
abordagem mais rigorosa acerca dos entes probabilísticos necessários.

Começaremos por definir o próprio conceito de probabilidade. A


probabilidade pode ser definida como a possibilidade de um evento, entre outros
possíveis eventos, ocorrer. Já a definição clássica de probabilidade, fornecida por
Laplace (1812), é dada pelo quociente entre o número de casos prováveis n° e o
número de casos possíveis N°:

(18)

37
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

O objeto matemático que carrega tal atribuição anterior é nosso P,


trabalhado anteriormente. Para um melhor entendimento rigoroso, devemos
compreender o conceito de fenômenos aleatórios e espaço amostral.

Espaço amostral é o conjunto de todos os valores que podem ser acessados


em um fenômeno aleatório. Já um fenômeno aleatório pode ser entendido como
um fenômeno em que estes valores não podem ser previstos com exatidão.

Isto é, aqui estamos distinguindo duas classes de fenômenos. Temos os


fenômenos ditos determinísticos, que podem ser repetidos com exatidão em
lugares diferentes, desde com as mesmas condições, e os fenômenos aleatórios,
que não cumprirão esta propriedade.

Denotando o espaço amostral pela letra Ω, define-se um evento como um


subconjunto de Ω. Um evento é dito elementar se o subconjunto de Ω contém
somente um elemento de Ω.

Seguindo Magalhães e Lima (2004), vamos denotar eventos por letras


latinas maiúsculas. Como é usual, A ∪ B e A ∩ B referem-se, respectivamente,
à união e à intersecção de dois eventos A e B. Na prática, A ∪ B nos informa a
ocorrência de um dos eventos A ou B, enquanto A ∩ B delega uma ocorrência
simultânea dos referidos eventos. A e B são mutualmente exclusivos se A ∩ B = Ø,
com Ø representando o conjunto vazio. Se A ∪ B = Ω e A ∩ B = Ø, A e B são ditos
complementares.

A probabilidade P é uma função que associa aos eventos de Ω, um número


real a. Podemos simbolizá-la matematicamente como:

P : A ↦ a, a ∈ ℝ, A ⊂ Ω. (19)

Adicionalmente P deve satisfazer as seguintes condições:

• 0 ≤ P(A) ≤1, A ⊂ Ω
• P(Ω) = 1
• P(A ∪ B) = P(A) + P(B) - P(A∩B)

Se A e B são eventos mutualmente exclusivos, teremos, então:

A ∩ B = Ø.

Desde que P(Ø) = 0, o terceiro item é reescrito neste caso como segue:

P(A ∪ B) = P(A) + P(B).

Agora, se A e B são complementares, teremos também:

A ∪ B = Ω e P(Ω) = 1
38
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

Tal que o terceiro item se torna:

P(A) = 1 – P(B).

A e B são ditos para serem eventos independentes quando é possível


desmembrar o termo P(A ∪ B) como se segue:

P(A∪B) = P(A)P(B).

A regra anterior é a regra de multiplicação que temos usado anteriormente


em alguns casos.

Vamos, agora, clarificar a linguagem abstrata fornecida acima em três


exemplos diferentes. O primeiro será dado através de alguns casos simples.
Seguem eles:

Exemplo 1: vamos iniciar considerando um jogo de moeda com as


possibilidades de se obter cara e coroa, um jogo de dados e logo após um jogo de
cartas. No primeiro caso, o espaço amostral é especificado por dois eventos:

• Cara A
• Coroa B

Logo, podemos escrever o espaço amostral como:

Ω = {A , B}.

A probabilidade de cada evento é:

• P(A) = 1/2
• P(B) = 1/2

Logo 0 ≤ P(A) ≤ 1 e 0 ≤ P(B) ≤ 1 são satisfeitos. O terceiro item fornece:

P(A∪B) = P(A) + P(B) = ½ + ½ = 1

Desde que A ∩ B = Ø. Neste caso, A ∩ B = Ø é válido uma vez que se


encontrarmos cara, a coroa é automaticamente excluída.

Voltamos para o caminho aleatório (12). Consideremos um único passo


N = 1, tal que:

39
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Logo, temos formalmente o mesmo caso do jogo de cara e coroa quando


P(N<) = P< = 1/2 e P(N>) = P> = 1/2.

O espaço amostral é Ω = {N<, N>}. Como um passo para frente exclui o


passo para trás, segue que N< ∩ N> = Ø. A união de N< e N>é N< ∪ N> = Ω, tal que:

P< = P> – 1

Que é a relação qual já havíamos trabalhado anteriormente.

Exemplo 2: referente ao jogo de dado, o espaço amostral neste caso é:

Ω = {A , B, C, D, E, F}

A probabilidade de ocorrer um dos eventos pode ser representada como:

0 < P(A) = P(B) = P(C) = P(D) = P(E) = P(F) = < 1.

Logo, vemos que a primeira condição é satisfeita. P(Ω) = 1 indica a


somatória das probabilidades individuais, logo também é satisfeita.

Agora queremos saber a probabilidade de observarmos A ou B, ou seja, P


(A ∪ B). Se temos duas chances em seis possibilidades, a probabilidade deve ser
de 1/3. Desde que A e B não podem ocorrer simultaneamente, pelo terceiro item
teremos:

P(A∪B) = P(A) + P(B) =

Logo, tal item é satisfeito.

Exemplo 3: trataremos, agora, de um jogo de cartas de baralho. O jogo


consiste em embaralhar quatro cartas com naipes diferentes e prever uma
sequência de três cartas consecutivas. Os distintos eventos possíveis são resumidos
na tabela a seguir:

TABELA 13 – EVENTOS POSSÍVEIS DO JOGO DE CARTAS

A = ♣♠♢ E = ♣♡♠ I = ♠♦♣ M = ♢♠♣ Q = ♢♡♣ U = ♡♣♠


B = ♣♠♡ F = ♣♡♢ J = ♠♢♡ N = ♢♠♡ R = ♢♡♠ V = ♡♣♢
C = ♣♢♠ G = ♠♣♢ K = ♠♡♣ O = ♢♣♠ S = ♡♠♣ X = ♡♢♣
D = ♣♦♡ H = ♠♣♡ L = ♠♡♢ P = ♢♣♡ T = ♡♠♢ Z = ♡♢♠
FONTE: O autor

40
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

Vale a pena notar, aqui, que os eventos que queremos encontrar não
são dados pela ocorrência de um específico naipe, mas sim por uma sequência
determinada de naipes. O espaço amostral neste caso é estipulado como:

Ω = {♣ , ♠ , ♢ , ♡}.

Os eventos ♣, ♠, ♢ e ♡ são elementares enquanto A, B, ... e Z são eventos


fornecidos pela combinação de eventos elementares.

Por exemplo, a probabilidade de cada evento ocorrer é, neste caso, obtida


pela regra de multiplicação com respeito aos eventos elementares. Supomos que
queremos saber a probabilidade de J ocorrer. Então, para P(J) teremos:

P(J) = P(♠;♣,♢,♡)P(♢;♣,♡)P(♡;♣) = .

Para a probabilidade de se encontrar dois eventos sequências distintos,


por exemplo P(J) ou P(K), teremos que observar os eventos:

• ♠♢♡
• ♠♡♣

Na primeira jogada, a probabilidade de sair ♠ é 1/4. Na segunda, teremos


2/3. A partir da segunda jogada um dos eventos é descartado tal que a última
jogada deve ter probabilidade de 1/2. Assim encontramos a probabilidade (regra
da multiplicação) de 1/12. Agora, vamos considerar a probabilidade de ocorrer J
ou I. Temos:

• ♠♢♡
• ♠♢♣

Assim, a probabilidade é de 1/4 na primeira jogada, 1/3 na segunda e 1 na


terceira, tal que a probabilidade final é novamente de 1/12. Para finalizar, vamos
considerar dois jogos em que nenhuma carta coincide em uma determinada
jogada da sequência, por exemplo, J ou A. Temos:

• ♠♢♡
• ♣♠♢

Assim, a probabilidade da primeira jogada é 1/2. A partir daí um dos


eventos é descartado tal que a probabilidade da segunda jogada é 1/3 e da terceira
1/2. Assim, a probabilidade final é também de 1/12. Logo, a probabilidade de dois
eventos distintos é dada pela regra:

P(J∪K) = P(J) + P(A, B etc) = .

Logo, J e A, B etc. são eventos mutualmente exclusivos.

41
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

DICAS

Os exemplos 1 e 2 são conhecidos como casos particulares de Laplace. Tais


relatam eventos equiprováveis. Neste caso particular, se Ω = {A1, A2,..., An} a probabilidade
de cada evento é:

P(A1) = P(A2) = ... = P(An) = .

Entretanto, devemos ficar atentos que a definição geral de probabilidade engloba


casos mais gerais, como por exemplo o do caminho aleatório ou a de um dado viciado.

3 VARIÁVEIS ALEATÓRIAS
Começaremos formalizando o conceito de variável aleatória. Uma
variável aleatória é uma função V que para cada elemento A de Ω associa um
número real v:

V : A ↦ v, v ∈ ℝ, A ⊂ Ω. (20)

Devemos enfatizar aqui que uma variável aleatória V é uma função, desde
que Ω ↦ ℝ, pois associa um número real v ∈ ℝ para cada elemento A do espaço
amostral Ω. Notamos ainda que Ω é o domínio enquanto ℝ é o contradomínio.

Tal variável aleatória pode ser tanto discreta como contínua. Podemos
caracterizar a natureza da variável aleatória da seguinte maneira:

• Variável aleatória discreta: assume valores específicos de um intervalo de ℝ,


podendo ter uma quantidade finita ou infinita enumerável.
• Variável aleatória contínua: pode assumir qualquer valor de um intervalo de
ℝ, tendo uma quantidade infinita e não enumerável.

Como exemplo de variável discreta temos uma quantidade de partícula


ou a quantidade de decaimentos radioativos de certa amostra, enquanto, de uma
variável contínua, a massa de um certo corpo ou o volume que este corpo ocupa
no espaço.

Aqui devemos reparar que apesar da semelhança estrutural de (19) e (20),


a função V não é identificada com a função P, tal que em geral v ≠ a. Grosso modo,
podemos pensar que V associa a A um valor numérico v que por sua vez estará
associado com a probabilidade a através de (20).

Uma função de probabilidade pode então ser definida como:

P(V(A) = v) = P(A).

42
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

Agora que já caracterizamos e diferenciamos os diferentes tipos de


variáveis aleatórias, agora partiremos então para o estudo das definições de
variáveis aleatórias discretas e contínuas.

3.1 VARIÁVEIS ALEATÓRIAS DISCRETAS


Como temos mencionado anteriormente, uma variável aleatória V é de
natureza discreta se {vi} é um conjunto enumerável, podendo ser finito ou infinito.

Para ilustrar, consideraremos o caso trabalhado anteriormente no


Exemplo 1 (jogo de cara ou coroa). Definiremos nossa variável aleatória como o
número de coroas observadas num experimento aleatório. Podemos denotar as
duas possibilidades como 0 (cara) e 1 (coroa). Desse modo, numa única jogada
onde o espaço amostral é Ω = {C1=Cara, C2=Coroa}, podemos associar a cada
elemento os valores 0 e 1 do seguinte modo:

C1 ↦ v1 (Cara ↦ 0),

C2 ↦ v2 : (Coroa ↦ 1).

Já se considerarmos que o experimento consiste em duas jogadas


consecutivas, podemos denotar o espaço amostral associado com o experimento
como:

Ω = {A = (C1, C1), B = (C1, C2), C = (C2, C1), D = (C2, C2)}.

Assim, a associação com cada elemento Ω realizada por nossa variável


aleatória será feita da seguinte maneira:

A ↦ v1 (Cara/Cara ↦ 0),
B ou C ↦ v2: (Cara/Coroa ou Coroa/Cara ↦ 1),
D ↦ v3 (Coroa/Coroa ↦ 2).

Com base nos dois exemplos anteriores, podemos perceber que uma variável
aleatória é discreta quando associa valores a Ω que podem ser enumerados.

Agora perceba que dado um conjunto de variáveis aleatórias {vi} (discretas),


o conjunto de probabilidades {Pi} está devidamente normalizado, se a somatória de
Pi (vi) seja igual a um, isto é:

∑ Pi (vi) = P₁(v₁) + P₂(v₂) + ... + Pn (vn) = 1. (21)

Em nosso exemplo de duas jogadas de cara ou coroa: ∑ Pi (vi) = P₁(0) +


P₂(1) + P3 (2) = ½ + ¼ + ½ = 1.

43
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

O conjunto {Pi} é usualmente chamado de distribuição, que é uma função


a qual associa uma probabilidade Pi para cada elemento vi de V, tal que para
qualquer Pi:

0 ≤ Pi ≤ 1.

Podemos representar uma distribuição especificando a dupla vi e Pi(vi).


Por exemplo, nos Gráficos 3 e 4, representamos a probabilidade de se encontrar
o marinheiro numa certa posição ΔX. Assim, a distribuição para aquele caso é
Pi(ΔXi), sendo a variável aleatória V = {ΔXi}. Notamos que a estrutura do andar
do marinheiro é análoga ao do jogo de cara e coroa, sendo as opções cara/coroa
substituídas por “passo para frente/trás”. No entanto, lá definimos -1 para
“passo para trás” e para +1 “passo para frente”, de modo que nossas variáveis
aleatórias levavam aos intervalos discretos –10, –8, –6, ..., 6, 8, 10 (Gráfico 3) e
–5, –3, ..., 3, 5 (Gráfico 4).

Devemos notar também que uma distribuição se torna útil para responder
outros problemas que podem surgir. Por exemplo, considerando ainda o
problema do caminho aleatório, podemos nos perguntar qual a probabilidade
(considerando por exemplo P> = 2/3) de o marinheiro ter efetivamente andado
para trás depois de percorrer uma distância total ΔX? Para responder essa
questão, começaremos considerando o caso do Gráfico 4 (ΔX=5). A variável
aleatória é definida como sendo a soma dos passos para frente e trás. Assim,
para a probabilidade de ter andado efetivamente para trás deve ser a soma das
probabilidades Pi (ΔXi= –5, –3, –1), ou seja:

P(–5) + P(–3) + P(–1) = 0,41 + 4,12 + 16,46 = 20,99%.

Logo, o conhecimento da distribuição pode nos auxiliar para melhor


analisar um certo sistema. Similarmente, para Gráfico 3 (ΔX=10), teremos:

P(–10) + P(–8) + P(–6) + P(–4) + P(–2) = 7,65 %.

Deste modo, podemos concluir que à medida em que o marinheiro anda


menos chances teremos de encontrar nas posições atrás de onde começou sua
caminhada.

Mais à frente, em 4. Distribuições de probabilidade, focaremos nossas


atenções em algumas importantes distribuições as quais têm importantes
aplicações em Física. No que segue, vamos nos ater para algumas definições
importantes referentes as variáveis aleatórias.

44
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

3.1.1 Valor Médio


Já havíamos trabalhado valor médio no contexto do caminho aleatório.
Agora, o definiremos formalmente.

Dada uma variável aleatória V que associa elementos do espaço amostral


Ω ao intervalo de valores discretos {vi}, definimos o valor médio <v>, do conjunto
{vi}, da seguinte maneira:

<v(V)> = ∑ Pi (V = vi) ⋅ vi . (22)

Para entendermos melhor o papel, deixe-nos apresentar um exemplo.

Supomos que um grupo de investidores pretende comprar ações de certa


empresa. Para se tomar a decisão da compra ou não de tais ações, uma seguinte
tabela referente à probabilidade de valorização das ações da empresa é tomada
em conta. Na tabela constam as seguintes informações:

TABELA 14 – PROBABILIDADE DE VALORIZAÇÃO DAS AÇÕES

Valorização (R$) +30 +20 +10 -10 -20 -30


Probabilidade (%) 3,7 11,4 37,8 28,3 11,5 7,3

FONTE: O autor

Observada a tabela, para se tomar a decisão, o grupo de investidores


decide calcular sua esperança de lucro através da fórmula (22), ou seja:

<v> = 30(0,037) + 20(0.114) + 10(0,378) – 10(0,283) –20(0,115) – 30(0,073) = –0,15.

Assim, de acordo com a distribuição de probabilidade associada ao


conjunto de valorização da ação, qual formam o conjunto de valores associada
à variável aleatória, indica uma desvalorização de quinze centavos por ação,
indicando, assim, que tal investimento deve gerar perdas. Notamos ainda que
temos chamado a atenção ao termo esperança. De fato, muitas vezes, o valor
médio é chamado de esperança matemática ou mesmo como valor esperado.

Outra quantidade importante que segue diretamente do valor médio é o


desvio da medida Δ, o qual é definido como se segue:

Δ(vi) = vi – <v> . (23)

Podemos reparar que equação (23) fornece a diferença de vi em relação


ao valor médio <v>. Por exemplo, se em nosso exemplo anterior, a ação acabou
valorizando dez reais, tivemos um desvio de R$ 9,85.

45
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

3.1.2 Dispersão
Agora, abordaremos outra definição importante, conhecida como
dispersão (ou variância) e usualmente denotada pelo símbolo σ 2. Dada uma
variável aleatória V que associa ao espaço amostral Ω os valores {vi}, define-se
dispersão como:

σ 2 = <Δ(vi)²> = < (vi – <v>)² >, (24)

A qual pode ser reescrita como se segue:

σ 2 = < vi ² > – <v>². (25)

A dispersão fornece uma medida que indica o quão distante da média


estão os valores associados a variável aleatória.

3.1.3 Desvio padrão


Para finalizar nossas definições básicas referentes a variáveis aleatórias,
trataremos de uma outra definição importante que é conhecida como desvio
padrão, usualmente simbolizada por σ. O desvio padrão é definido simplesmente
como a raiz quadrada da dispersão, ou seja:

(26)

Sendo o desvio padrão definido como a raiz quadrada da dispersão, tal


deve indicar similarmente um distanciamento dos valores associados a variável
aleatória em relação ao valor médio. No que segue, vamos apresentar um exemplo
que nos ajudará a firmar as definições anteriores.

3.2 VARIÁVEIS ALEATÓRIAS CONTÍNUAS


Como temos mencionado, a variável aleatória V pode ser também de
natureza contínua. Lembramos que uma variável aleatória contínua associa ao
espaço amostral Ω uma quantidade infinita de valores não enumeráveis. Como
um exemplo, podemos considerar como variável aleatória a precipitação de
chuvas em uma determinada região. Por exemplo, num determinado dia pode
ter chovido 74,356 mm. Outros exemplos, podem ser a radiação ultravioleta
medida num ponto da cidade, a velocidade do vento numa região cogitada para
a instalação de energia eólica etc.

As quantidades definidas para variáveis aleatórias discretas também são


definidas para o caso contínuo, o que veremos s seguir.

46
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

Consideremos agora uma função de densidade de probabilidade: f(v). A


probabilidade sob um intervalo (v₀,vf), é definida como:

P(vf ,v₀) = ∫ f(v) dv. (27)

No caso das variáveis contínuas, podemos fazer uma generalização direta


por “substituir” os somatórios, das definições que se seguiram anteriormente
para variáveis discretas, por integrais.
Por exemplo, no caso contínuo, a fórmula equivalente de (21) é:

∫ f(v) dv = 1, (28)

Avaliada sob todo intervalo onde f(v) é definido.

Já para (22), sua versão contínua será dada por:

<v> = ∫ v . f(v) dv, (29)

Enquanto o desvio médio é definido da mesma maneira e é então fornecido


por:

Δ(v) = v – ∫ v . f(v) dv.

Para a dispersão (25), segue que:

σ 2 = <v²> – <v>² = ∫ v 2 . f(v) dv – (∫ v . f(v) dv)²

Enquanto para o desvio padrão (26), simplesmente pegamos a raiz


quadrada da forma anterior.

3.3 VARIÁVEIS ALEATÓRIAS: UMA APLICAÇÃO EM FÍSICA


Vamos agora imaginar um experimento, em que uma fabricante de
captador elétrico para instrumentos musicais deve realizar para poder medir a
resposta de seu dispositivo diante da vibração de uma corda metálica.

Um captador elétrico consiste numa bobina com um imã em seu interior.


A tecnologia é baseada na Lei de Indução de Faraday do eletromagnetismo.
O princípio é que uma corda metálica próxima ao captador será magnetizada
devido a presença do imã. À medida em que a corda oscila, ela perturba o campo
magnético e uma corrente elétrica alternada é gerada na bobina, devido a Lei de
indução de Faraday.

47
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

O experimento consiste num “tocador” mecânico que empurra uma corda


metálica enquanto um amperímetro mede o pulso de corrente atravessando o
dispositivo. Depois de um conjunto de 115 medidas, se é elaborada uma tabela
de frequências como segue:

TABELA 15 – FREQUÊNCIAS DOS VALORES DE CORRENTES REGISTRADAS

fi 02 04 09 19 34 17 11 10 06 02 01
Ii 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1

FONTE: O autor

Na tabela anterior, temos o número de repetições fi de cada valor registrado


num amperímetro para a intensidade de corrente elétrica Ii. Os dados da Tabela 15,
são organizados no gráfico (muitas vezes denominado de histograma) seguinte:

GRÁFICO 5 – CORRENTE ELÉTRICA (EM μA) GERADA NO CAPTADOR

FONTE: O autor

Aqui estamos trabalhando com a intensidade de corrente. Em tese, a


intensidade de corrente não é uma variável aleatória. Por exemplo, em jogos
de dados os quais já trabalhamos aqui, a variável é genuinamente aleatória.
No entanto, em física experimental podemos tratar tal intensidade como uma
variável aleatória, uma vez que a obtenção dos resultados experimentais carrega
incertezas associadas ao experimento. Dito isso, podemos então perceber que a
frequência em Estatística é análoga à Probabilidade em eventos intrinsicamente
aleatórios. Se realizarmos uma enésima observação, a probabilidade de medirmos

48
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

um certo valor será estipulada pela Gráfico 5, que, como veremos mais a frente,
indica que tais medidas seguem uma distribuição de probabilidade. Podemos
então usar as variáveis aleatórias para mensurar certas quantidades importantes.

Por exemplo, o valor médio < v > = < I > da intensidade de corrente pode
ser encontrado pela fórmula (22) do seguinte modo:

< I > = ∑ Pi (vi) . vi = ∑ Fi (Ii) . Ii.

Aqui temos considerado a frequência relativa Fi, desde que a somatória


das probabilidades deve ser igual a um. Substituindo os valores da tabela:

<I>= (2 . 1,1 + 4 . 1,2 + 9 . 1,3 + 19 . 1,4 + 34 . 1,5 + 17 . 1,6 + 11 . 1,7


+ 10 . 1,8 + 6 . 1,9 + 2 . 2,0 + 1 . 2,1) . 1,5 μ A.

Logo, para uma perturbação do tocador na corda, os resultados


experimentais indicam uma intensidade de corrente induzida de 1,5 μA. Já o
desvio médio de cada medida é obtido utilizando (23). Por exemplo, o desvio
médio da observação 1,9 μA é: Δ(1,9) = 1,9 - 1,5 = 0,4 μA.

Referente à dispersão (25), substituindo os valores referentes a tabela em


∑ Fi (Ii) . I i ² e considerando ainda < I >² = (1,5)², teremos:

σ 2 = < I i ² > – < I >² = ∑ Fi (Ii) . I i ² – < I >² . 0,17 μA2.

Já para o desvio padrão (27), encontraremos:

A seguir, estudaremos diferentes casos de distribuições de probabilidade


já bem estabelecidas na ciência e matemática.

4 DISTRIBUIÇÕES DE PROBABILIDADE
Temos visto que uma variável aleatória pode ser tanto discreta como
contínua e que o par formado por vi e Pi(vi) fornece uma distribuição de
probabilidade. No que segue, veremos alguns casos de funções que se adequam
a reais distribuições de probabilidade, tanto para o caso discreto como contínuo.

4.1 DISTRIBUIÇÕES DISCRETAS


Para o estudo de distribuições, abordaremos as distribuições de Bernoulli,
Binomial e Poisson.

49
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

4.1.1 Distribuição de Bernoulli


Começaremos pela distribuição mais simples que é a de Bernoulli. Ela é
útil para sistemas em que há apenas duas possibilidades, podendo caracterizar
seus resultados como sucesso S ou fracasso F. Um exemplo clássico é o jogo de
cara ou coroa, em que um resultado específico é entendido como sucesso e o
outro como fracasso. A probabilidade de sucesso ou fracasso são representadas,
respectivamente, por PS e PF. A variável aleatória será extraída do seguinte modo:
V(S) = v = 1 e V(F) = v = 0.

A distribuição é então dada por:

P(v) = (PS )v(1 – PS)1–v.

Logo, vemos que P(1) = PS e P(0) = 1 - PS. O valor médio (22) neste caso fica:

<v> = P₁(v₁)v₁ + P₂(v₂) v₂ = PS . 1 + (1 – PS) . 0 = PS.

Deste modo, por exemplo, se o a probabilidade PS de sucesso for de 1/2, o


valor médio da variável aleatória será <v> = 1/2.

Por sua vez, para a dispersão (25) será:

σ 2 = < vi ² > – <v>² = PS v₁2 + PF v₂2 + PS 2 = PS (v₁2 + PS) = PS (1 + PS) = PS PF.

Deste modo, a dispersão para a probabilidade de sucesso de é σ 2 = 1/4. Já


se a probabilidade de sucesso for de 2/3, a dispersão será então σ 2 = 2/9 e assim
por diante.

Como exemplo, vamos supor que tem uma única bola de sinuca numa
determinada caçapa. Queremos, inicialmente, saber qual a probabilidade de
encontrar uma bola que seja denotada por um número primo. Considerando que
temos 15 bolas no jogo de sinuca, 14 delas numeradas entre um e 14 e mais uma
branca (sem número), a probabilidade de termos sucesso é PS = 7/15.

Neste caso, nossa variável aleatória realiza as seguintes associações “Bola


não primo” ↦ 0 e “Bola primo” ↦ 1. O valor médio é simplesmente dado por:

<v> = PS = 7/15.

Já para a dispersão, teremos:

σ 2 = PS PF ≃ 0,2489.

Veremos, agora, o caso da distribuição Binomial, já estudada por nós.

50
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

4.1.2 Distribuição binomial


A sucessão de n tentativas de sucesso nos leva a distribuição binomial,
que é fornecida por:

(30)

Na distribuição Binomial, a variável aleatória pode assumir os seguintes


valores:

v = 0, 1, 2, ... , n.

A distribuição (30) já foi analisada por nós no tópico anterior através dos
exemplos referentes ao caminho aleatório do marinheiro.

Devemos reparar que (30) se torna a distribuição de Bernoulli se n=1.


Assumindo apenas uma tentativa (n =1) teremos apenas a possibilidade de
sucesso ou fracasso, tal que neste caso específico v = 0, 1. Assim:

Calculando o lado direito para os valores v = 0, 1 encontramos:

Deste modo, podemos concluir que a distribuição Binomial se torna a de


Bernoulli quando n = 1.

DICAS

Para entendermos melhor a distribuição Binomial e cada termo da fórmula


(30), é recomendado aqui a releitura de 3. Sistemas de duas opções e 4. Predições no
contexto probabilístico do Tópico 2.

51
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Para o valor médio (22), teremos:

<v> = n PS (31)

Enquanto para a dispersão (25):

σ 2 = n PS P F

Não mostraremos diretamente a equação (31), mas indicaremos que


o resultado é válido para um caso que temos trabalhado anteriormente pelo
exemplo a seguir.

Exemplo: Demonstração da validade da fórmula (31).

Consideremos o caso trabalhado em 4. Predições no contexto


probabilístico. Havíamos obtido o valor esperado para ΔX de

<ΔX> ≃ 1,667.

Lá nós tínhamos X=5 no qual estava associado com n e trabalhado também


com a probabilidade de P> = 2/3. Neste caso, a probabilidade de passos para frente
é a mesma que a de sucesso, ou seja, P> = PS. Sendo assim, o valor esperado para
PS = 2/3 e n = 5 nos rende:

<v> = n PS = .

Por que os valores esperados não são iguais, isto é <v> ≠ <ΔX>?

Para solucionar essa questão, devemos lembrar que:

Em que X> está associado com v. Para o valor esperado <ΔX>, teremos,
então:

Reescrevendo a equação anterior e substituindo os valores, encontramos:

Logo, vemos a validade da fórmula <v> = PS . n para nosso caso trabalhado


anteriormente!

52
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

4.1.3 Distribuição de Poisson


Outra distribuição importante é a de Poisson. Para um dado parâmetro a
> 0, a distribuição de Poisson é dada por:

(32)

Os valores de v assumem os seguintes valores discretos:

v = 0,1, 2, ... , ∞.

A distribuição é dada em termos de alguns valores de v como segue na


tabela a seguir:

TABELA 16 – DISTRIBUIÇÃO DE POISSON COM DIFERENTES VALORES DE a

v P(v) a=1 a=2 a=3


0 e -a
e⁻¹ e⁻² e⁻³
1 ae -a
e⁻¹ 2e⁻² 3e⁻³
2 a² e-a /2 e⁻¹/2 2e⁻² 9e⁻³/2
3 a³ e-a /6 e⁻¹/6 4e⁻²/3 27e⁻³/6

FONTE: O autor

No que segue, no gráfico a seguir, podemos ver a distribuição de


probabilidade para a = 2 até v = 7:

GRÁFICO 6 – DISTRIBUIÇÃO DE POISSON PARA a = 2 E v = 0,...,7

FONTE: O autor

53
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Agora, devemos observar que:

Desde que a somatória é dada em termos de v. A função exponencial pode


ser expandida em série como:

Logo, para a somatória de probabilidade encontramos:

∑ P(v) = e–a e+a = 1.

Isto é, a distribuição (32) satisfaz o requerimento da soma de probabilidades


igual a um.

Podemos encontrar o valor esperado similarmente. Usando (28), temos:

Agora devemos realizar os seguintes passos:

Considerando novamente a expansão, obtemos:

<v> = a,

Em que temos definido y = v - 1.

Uma distribuição de Poisson é usualmente usada para descrever eventos


raros quando uma grande quantidade de tentativas é tomada em conta. Para uma
melhor compreensão da distribuição de Poisson, vamos considerar um problema
cotidiano no exemplo que segue:

Exemplo: considere um município em que são contaminadas mensalmente


por uma doença qualquer, um número de doze pessoas. Queremos então saber
qual é a probabilidade de em dez dias não termos nenhuma contaminação da
doença no município.

Para solucionar o problema, consideraremos, inicialmente, o número de


contaminados. Tal quantidade será ditada por nossa variável aleatória. Neste caso,
teremos: v = 0. O parâmetro a representa a média de ocorrências. Assim, para o

54
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

nosso problema, devemos tomar a taxa referente a dez dia/ mês: 1/3. Logo, nossa
média de ocorrência em dez dias é de quatro casos, ou seja: a = 4. Se substituirmos
tais valores na distribuição de Poisson, obtemos:

Podemos também encontrar a probabilidades de diferentes números de


casos num intervalo de dez dias. Para isso, basta nos tomarmos outros valores de
v. Por exemplo, para um caso teremos:

Já para dois casos:

E assim por diante.

O valor médio da distribuição é de <v> = a = 4. Neste caso, o valor médio


indica que o número de contágios esperado para tal distribuição em dez dias é de
quatro contaminados, o que concorda com o fato de termos doze contaminações
média mensais.

Para melhorar ainda nossa compreensão, vamos analisar uma possível


aplicação referente a distribuição de Poisson, e em geral de distribuição de
probabilidade, em um certo experimento que descreveremos a seguir.

4.1.4 Distribuição de Probabilidade: uma aplicação


em Física
Vamos considerar agora um experimento em que se registram decaimentos
de substâncias radioativas. Aqui não estaremos interessados na descrição física dos
fenômenos envolvidos, mas somente em sua natureza estatística.

Supomos uma experiência que consiste em contar o número de partículas


alfa que são emitidas por uma dada substância radioativa em intervalos de tempo
bem definidos. Supomos ainda que nosso experimento registra a quantidade
de decaimentos a cada minuto. Depois de medir o número de decaimentos por
minuto (dpm) durante cinco horas, se registram as seguintes frequências da
medida do número de decaimentos por minuto:

55
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

TABELA 17 – QUANTIDADES OBSERVADAS DE DECAIMENTOS POR MINUTO

Frequência 4 7 16 23 44 50
dpm 0 1 2 3 4 5
Frequência 44 43 27 23 17 2
dpm 6 7 8 9 10 11

FONTE: O autor

Com os dados anteriores, o seguinte histograma é montado:

GRÁFICO 7 – MEDIDAS DE DECAIMENTO RADIOATIVO

FONTE: O autor

Vamos considerar, então, a distribuição de Poisson, muito usada em Física


Experimental. Deixe-nos tomar a distribuição como:

Devemos notar que nossa variável aleatória na expressão N, que aqui


indica o número de decaimentos no intervalo de um minuto. Já λ é entendido
como uma quantidade que pode parametrizar a quantidade média de ocorrência
de decaimentos por minuto. Sabendo disso, devemos tentar “fitar” o gráfico

56
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

obtido no experimento com a distribuição de Poisson. Para isso, vamos considerar


a seguinte distribuição de Poisson escolhendo λ = 6. A específica escolha de λ =
6 indica que iremos considerar a distribuição para a ocorrência média de seis
decaimentos por minuto. Assim, teremos:

Substituindo os valores para N de zero a onze na expressão anterior, e


multiplicando por trezentos (300P(N) = freq. teórica de N) e comparando com a
Gráfico 7, podemos fazer o seguinte comparativo histográfico:

GRÁFICO 8 – COMPARATIVO TEÓRICO/EXPERIMENTAL

FONTE: O autor

Logo, vemos que a distribuição de Poisson consegue fitar os resultados


experimentais obtidos, se considerarmos o parâmetro λ como λ = 6.

DICAS

Para um experimento desenvolvido e analisado, sugerimos o artigo Pereira,


Santos & Amorim (2016). Nele, os autores trabalham um experimento para ser elaborado
no ensino médio tratando das distribuições binomial, de Poisson e Normal (que veremos a
seguir) e decaimentos radioativos.

57
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

4.2 DISTRIBUIÇÕES CONTÍNUAS


Para estudar distribuições contínuas, vamos aqui abordar uma distribuição
muito importante conhecida como distribuição Normal ou Gaussiana.

4.2.1 Distribuição Gaussiana (Normal)


A partir daqui, estudaremos as variáveis aleatórias contínuas e suas
distribuições. Para abordá-las, trabalharemos especificamente a distribuição
Gaussiana, também conhecida como Normal. Tal distribuição é a mais popular
entre as distribuições contínuas, pois tal aparece diversas vezes nos estudos de
fenômenos naturais.

A distribuição Gaussiana é definida em termos dos parâmetros a e b


(respectivamente o desvio padrão populacional e a média), sendo sua função de
densidade de probabilidade escrita como segue:

(33)

É importante lembrar aqui que agora estamos tratando de variáveis


aleatórias contínuas em que:

–∞ < v < ∞.

a e b são parâmetros que moldam o perfil da distribuição Normal.


Diferentes formas da função (33) podem ser visualizadas no gráfico a seguir:

GRÁFICO 9 – DISTRIBUIÇÃO GAUSSIANA PARA DIFERENTES VALORES DE a E b = 0

FONTE: O autor

58
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

Através do gráfico anterior, podemos entender os papéis desenrolados


por a e b. Em todos os casos, foram tomados b = 0, como também:

• Linha vermelha: a = 2
• Linha azul: a = 1
• Linha verde: a = 1/2
• Linha cinza: a = 1/4

Note que a indica o quão suave é a curva e comumente é entendida como


a dispersão da distribuição. Agora, manteremos a fixo e variar b. Em todos os
casos, fixaremos a = 1/4, como também:

• Linha azul: b = 0
• Linha vermelha: b = 1
• Linha verde: b = 2
• Linha cinza: b = 3

Seguem os perfis no gráfico a seguir:

GRÁFICO 10 – DISTRIBUIÇÃO GAUSSIANA PARA DIFERENTES VALORES DE b E a = 1/4

FONTE: O autor

Vemos que b indica a posição a qual a distribuição está centralizada.

59
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

DICAS

Você pode conferir os gráficos anteriores por substituir os valores de a e b no


site: https://www.mathe-fa.de. Além do mais, você pode construir outros perfis estipulando
outros valores para a e b.

Dado certo intervalo de v, a probabilidade associada a este intervalo é:

Para analisarmos a distribuição normal, vamos trabalhar um caso simples


em que a = 1 e b = 0. Para este caso, temos:

(34)

A distribuição anterior é conhecida como distribuição normal padrão. A


função pode ser vista no primeiro gráfico, na linha azul.

A probabilidade em um dado intervalo será dada por:

Tomando a integral de menos infinito para mais infinito e considerando


também:

com c uma constante qualquer, encontramos:

Com o resultado anterior, demonstramos que a distribuição (34) satisfaz o


requerimento (28). Note que o fator:

em (34) é um termo de normalização análogo ao papel que (11) desempenha


na distribuição binomial.

60
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

5 DISTRIBUIÇÃO DISCRETA PARA CONTÍNUA


Trabalharemos, agora, a aproximação de uma distribuição discreta para
uma contínua. Especificamente, mostraremos que a distribuição binomial é
aproximadamente a distribuição normal quando n é muito grande. Para isso,
consideraremos o logaritmo natural de (30), ou seja:

ln P(v) = ln n! – ln v! – ln(n - v)! + (n–v) ln(1 – PS) + v ln PS.

Será útil conhecermos a aproximação de Stirling. Tem-se:

ln x! ≃ x ln x – x,

para

x ↦ ∞.

A partir daqui, devemos considerar um número muito grande de n, isto é,


uma sucessão muito grande de tentativas de sucesso.

Substituindo a aproximação de Stirling em ln P, encontramos:

ln P(v) = n ln n – v ln v – (n – v) ln (n – v) + (n – v) ln (1 – PS) + v ln PS.

Desde que n é muito grande, a variável aleatória v sofre uma “transição”


de discreta para contínua. Por sua vez, torna-se uma função ln P(v) contínua
também, tal que se pegarmos a primeira derivada e igualarmos a zero, isto é:

obtemos o ponto de inflexão da curva v = v.

Temos:

em que usamos

para

n → ∞.

61
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

Igualando a zero no ponto v = v, obtemos:

– ln v + ln (n – v) – ln (1 – PS) + ln PS = 0.

Podemos resolver a equação acima aplicando o exponencial para


eliminarmos o logaritmo, isto é:

eln x = x.

Fazendo o procedimento mencionado, podemos deduzir a relação:

(n - v) PS = v (1 - PS).

Resolvendo a equação anterior, encontramos:

v = n PS.

Devemos notar aqui que o ponto de inflexão (neste caso o valor mais
provável) nos fornece o valor médio (31) quando n → ∞:

v = <v>.

Agora devemos considerar outra expansão em torno de v.

Uma expansão de Taylor de uma função diferençável f(x) em torno de um


certo ponto x é:

Para f(x) = ln P(x = v) em torno de v = <v> teremos:

Em que usamos o fato de no ponto v = v a primeira derivada é igual a zero.

Para a segunda derivada, temos:

Logo em:

v = v = <v> = n PS,

62
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

obtemos:

Para obter a relação anterior, deve-se usar também as relações auxiliares:

PS + PF = 1,

<Δ(vi)²> = n PS PF.

Substituindo o resultado anterior na expansão de Taylor, encontramos:

A aproximação normal é fornecida por desconsiderar os termos de ordens


superiores e aplicar o exponencial, tal que:

(35)

Comparando (33) e (35) encontramos:


• < Δ(vi)² > = a
• <v> = b

Deste modo, derivamos a distribuição normal a partir da distribuição


binomial. Com o resultado anterior podemos dizer exatamente que a é o termo de
dispersão e b é o valor médio, como havíamos observado nos gráficos trabalhados
no estudo da distribuição normal.

Vamos observar novamente os gráficos que usamos para analisar o


marinheiro. São eles:

63
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

GRÁFICO 11 – DISTRIBUIÇÃO BINOMIAL PARA n = 5 E X = 5

FONTE: O autor

GRÁFICO 12 – DISTRIBUIÇÃO BINOMIAL PARA n = 10 E X = 10

FONTE: O autor

64
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

Vale lembrar que o primeiro gráfico foi construído para n = 5 (X = 5)


enquanto o segundo para n = 10 (X = 10). Desse modo, podemos pensar
intuitivamente que ao aumentar o valor de n, os gráficos da distribuição binomial
tendem a se parecerem cada vez mais com os da distribuição normal, isto é, com
gráficos contínuos da forma geral:

como, por exemplo, podemos ver no gráfico a seguir:

GRÁFICO 13 – DISTRIBUIÇÃO BINOMIAL PARA n → ∞

FONTE: O autor

Assim, temos mostrado que, de um modo geral, pode-se pensar que certas
distribuições contínuas podem ser derivadas matematicamente de específicas
distribuições discretas como no caso trabalhado, em que a distribuição Normal é
obtida da distribuição Binomial.

65
UNIDADE 1 — INTRODUÇÃO À PROBABILIDADE E ESTATÍSTICA

LEITURA COMPLEMENTAR

A NOÇÃO DE PROBABILIDADE NÃO É INTUITIVA

Já aconteceu de você se aproximar do telefone para ligar para um amigo,


e nesse momento o telefono tocar e ser ele do outro lado da linha? Quais as
probabilidades de isso ocorrer? Certamente não são altas, mas a soma de todas
as probabilidades equivale a um. Com probabilidades suficientes, casos fora do
comum – que até parecem “milagres” – de vez em quando acontecem.

Vamos definir milagre como um evento que tem uma probabilidade de


ocorrer uma vez em um milhão – intuitivamente, parece o suficiente para poder
ser chamado de milagre. Vamos atribuir um algarismo de um bit por segundo
aos dados que passam pelos nossos sentidos no período de um dia – e admitir
que estamos despertos 12 horas por dia. Recebemos 43.200 bits de dados por dia,
ou seja, 1,3 milhões por mês. Mesmo admitindo que 99,9999% dessas unidades
são totalmente insignificantes – e por isso são filtradas ou totalmente esquecidas
por nós – ainda restam 1,3 milhões de “milagres” por mês, ou 15,5 milhões de
milagres por ano.

Podemos utilizar um cálculo semelhante e aproximado para explicar os


sonhos de premonição de morte. As pessoas têm, em média, cinco sonhos por
noite, ou seja, 1.825 de sonhos por ano. Se nos lembrarmos apenas de um décimo
de nossos sonhos, significa que nos recordamos de 182,5 sonhos por ano. Existem
300 milhões de americanos, que totalizam de 54,7 bilhões de sonhos lembrados
por ano. Os sociólogos afirmam que cada um de nós conhece cerca de 150
pessoas relativamente bem, gerando dessa forma uma rede de relacionamento
social de 45 bilhões de conexões pessoais. Com uma taxa anual de mortalidade
de 2,4 milhões de americanos, é inevitável que alguns dos 54,7 bilhões de
sonhos lembrados sejam sobre alguns desses 2,4 milhões de falecimentos de
300 milhões de americanos e seus 45 bilhões de conexões de relacionamentos.
Na verdade, seria um “milagre”, se alguns sonhos de premonição da morte não
se tornassem realidade.

Esses exemplos mostram a força do conceito da probabilidade que


prevalece sobre nosso senso intuitivo dos números, ou o que chamo de “senso
numérico popular”, também presente em meus artigos anteriores sobre “ciência
popular” e “medicina popular” e em meu livro sobre “economia popular”. O
senso numérico popular se refere à nossa tendência natural de perceber e calcular
probabilidades de forma incorreta, de confiar em relatos pessoais e não em dados
estatísticos, e de lembrar e prestar atenção em tendências de curto-prazo e séries
históricas com poucos números.

66
TÓPICO 3 — FUNDAMENTOS DE PROBABILIDADE

Notamos que as noites no inverso são um pouco mais longas e ignoramos


a tendência do aquecimento global de longo prazo. Observamos, apavorados,
a recente queda dos mercados de ações e imobiliário esquecendo que a linha
de tendências foi ascendente durante mais de 50 anos. Linhas dente de serra,
na realidade, são um exemplo do senso numérico popular: nossos sentidos são
programados para prestar atenção nas oscilações isoladas e a tendência geral da
linha é praticamente invisível para nós. A razão pela qual a intuição das pessoas
percebe esses fatos com tanta frequência de forma equivocada é que fomos criados
num espaço chamado pelo biólogo evolucionista Richard Dawkins de “mundo
do meio” – uma terra situada no meio-caminho entre perto e longe, pequeno e
grande, lento e rápido, jovem e velho. Por preferência pessoal chamo-a de “terra
do meio”. Na terra do meio, em termos de espaço, nossos sentidos evoluíram
para perceber objetos de tamanho mediano – digamos, entre um grão de areia
e cadeias de montanhas. Não estamos preparados para perceber átomos e
microrganismos em uma das extremidades da escala, ou galáxias e universos em
expansão, na outra. Na terra do meio da velocidade, podemos detectar objetos em
movimento tanto com velocidade de caminhada a pé, como aviões, mas o lento
movimento dos continentes e das geleiras e a estonteante velocidade da luz nos
passam despercebidos.

A escala do tempo em nossa terra do meio varia entre o “agora” psicológico


com duração de três segundos – de acordo com o psicólogo Stephen Pinker, da
Harvard University – e algumas décadas de vida, curta demais para testemunhar
processos evolutivos, derivas continentais lentas ou mudanças ambientais de
longa-duração.

O senso numérico do povo da terra do meio nos leva a prestar atenção e a


lembrar apenas de tendências de curto-prazo, coincidências significativas e relatos
de histórias pessoais. As outras lembranças são esquecidas com mais facilidade.

FONTE: <https://sciam.com.br/a-nocao-de-probabilidade-nao-e-intuitiva/>. Acesso em: 22 out. 2020.

67
RESUMO DO TÓPICO 3
Neste tópico, você aprendeu que:

• Existe uma definição clássica de probabilidade desenvolvida por Laplace.

• Fenômenos aleatórios, espaço amostral e evento fornecem uma base conceitual


e matemática para o estudo de probabilidade.

• A probabilidade deve satisfazer algumas condições.

• Pode-se derivar os conceitos de probabilidade usando uma formulação


matemática mais rigorosa.

• Variáveis aleatórias e algumas definições úteis, como valor médio, desvio


médio, desvio quadrático, dispersão e desvio padrão são essenciais para a
modelagem de um sistema probabilístico.

• Variáveis aleatórias podem ser discretas ou contínuas.

• Existem diferentes distribuições de probabilidade.

• Distribuições de probabilidade podem ser discretas ou contínuas.

• Distribuição de Bernoulli, Binomial e Poisson são distribuições discretas


enquanto a distribuição Gaussiana é contínua.

• Num determinado limite a distribuição discreta binomial fornece a distribuição


contínua Gaussiana.

CHAMADA

Ficou alguma dúvida? Construímos uma trilha de aprendizagem


pensando em facilitar sua compreensão. Acesse o QR Code, que levará ao
AVA, e veja as novidades que preparamos para seu estudo.

68
AUTOATIVIDADE

1 Em 1812, Laplace definiu a probabilidade como o quociente entre o número


de casos prováveis n° e o número de casos possíveis N°:

que é hoje conhecida como a definição clássica de probabilidade. Com o


passar dos anos, a probabilidade é entendida matematicamente como uma
função que associa eventos do espaço amostral Ω um número real a e que
deve satisfazer as condições:

• 0 ≤ P(A) ≤1, A ⊂ Ω
• P(Ω) = 1
• P(A ∪ B) = P(A) + P(B) - P(A∩B)

A e B são eventos de Ω. Com base em seus conhecimentos de classificação de


eventos, associe os itens, utilizando o código a seguir:

I- Eventos Mutualmente Exclusivos.


II- Eventos Complementares.
III- Eventos Independentes.
IV- Eventos Exclusivos e Complementares.

( ) P(A∪B) = P(A)P(B).
( ) P(A ∪ B) = 1.
( ) P(A) = 1 - P(B).
( ) P(A∩B) = 0.

Agora, assinale a alternativa que apresenta a sequência CORRETA:


a) ( ) III – II – IV – I.
b) ( ) III – IV – II – I.
c) ( ) I – IV – II – III.
d) ( ) I – III – II – IV.

2 Uma importante distribuição de probabilidade é a de Poisson. Sua expressão


matemática é dada pela seguinte fórmula:

Sabendo que a distribuição de Poisson é discreta com v = 0,1, 2, ... , ∞, desenvolva


os itens pedidos a seguir explicitando o desenvolvimento matemático.

69
a) Encontre o valor de v para P = e –2.
b) Encontre o valor de a para P(1) = 0,14936.
c) Encontre P(5) para a = 4.
d) Encontre o valor médio para P(v) = 7ve–7.
e) Encontre o valor de v para P = e –a.

Com base em seus resultados, classifique V para as sentenças verdadeiras e F


para as falsas:

( ) v = 2. b) a = 4. c) P(5) = 0,15629.
( ) a = 3. c) P(5) = 0,15629. d) <v> = 7.
( ) P(5) = 0,16723. d) <v> = 9. e) v = 0.
( ) <v> = 7. e) v = 0. a) v = 2.
( ) v = 1. a) v = 0. b) a = 3.

Agora, assinale a alternativa que apresenta a sequência CORRETA:


a) ( ) V – F – F – V – F.
b) ( ) V – F – V – F – F.
c) ( ) F – F – V – F – F.
d) ( ) F – V – F – F – F.
e) ( ) F – F – V – F – V.

3 Distribuições de probabilidade contínuas são distribuições que estão


associadas com variáveis aleatórias contínuas. Uma importante distribuição
contínua é a distribuição Normal. Sua função densidade de probabilidade
pode ser escrita como segue:

Em que a e b são parâmetros e v uma variável aleatória contínua: -∞ < v < ∞.


Referente à distribuição Normal, classifique V para as sentenças verdadeiras
e F para as falsas:

( ) Para a distribuição normal padrão, a integral: exp , é,


em geral, igual a um.
( ) Considerando os diferentes perfis abaixo para a distribuição Normal:

70
Podemos dizer que e b = 0 e que o a referente a linha cinza é maior que o a da
linha verde, enquanto o a referente à linha vermelha é maior que o a da linha
azul.

( ) Considerando os diferentes perfis abaixo para a distribuição Normal:

71
Podemos dizer que e b = 0, b = 1, b = 2, b = 3 respectivamente para linha azul,
vermelha, verde e cinza e que o a tem o mesmo valor para todas as cores.

( ) Considerando o gráfico anterior, é possível afirmar que no intervalo


compreendido entre zero e dois, as relações:

P(vermelho) > P(azul), P(verde) = P(azul) > P(cinza).

são válidas.

4 A distribuição Normal, que é uma distribuição contínua, pode ser derivada


da distribuição discreta Binomial considerando uma aproximação
apropriada. Isto é, uma distribuição contínua pode ser pensada como um
limite matemático de uma distribuição discreta. Explicitamente, no limite
n ↦ ∞ depois de muita álgebra, encontra-se para a distribuição Binomial:

Com base na fórmula anterior, disserte como a distribuição Binomial pode ser
identificada com a distribuição padrão.

72
REFERÊNCIAS

BORN, D. The statistical interpretation of quantum mechanics. Nobel Lecture,


1954. Disponível em: https://www.nobelprize.org/prizes/physics/1954/born/
lecture/. Acesso em: 2 jun. 2020.

HALD, A. A history of probability and statistic and their applications before


1750. New Jersey: John Wiley & Sons, 2003.

LAPLACE, P. Théorie analytique des probalitiés. Paris: Courcier, 1812.

MAGALHÃES, M. N; LIMA, A. C. P. Noções de probabilidade e estatística.


São Paulo: Editora da Universidade de São Paulo, 2004.

MEMÓRIA, J. M. P. Breve história da estatística. Brasília: Embrapa Informação


Tecnológica, 2004.

PEREIRA, A. M.; SANTOS, A. C. M.; AMORIM, H. S. Estatística de contagem


com a plataforma Arduino. Revista Brasileira de Ensino de Física, v. 38, n. 4,
e405, 2016. Disponível em: http://dx.doi.org/10.1590/1806-9126-RBEF-2016-0079.
Acesso em: 2 jun. 2020.

SALINAS, S. R. A. Introdução à física estatística. São Paulo: Editora da


Universidade de São Paulo, 1997.

73
74
UNIDADE 2 —

FÓRMULA DE BAYES, PROCESSOS


ESTOCÁSTICOS E BREVE REVISÃO DA
TERMODINÂMICA

OBJETIVOS DE APRENDIZAGEM
A partir do estudo desta unidade, você deverá ser capaz de:

• compreender e formalizar a chamada probabilidade condicional;

• deduzir a Fórmula de Bayes e introduzir os conceitos de distribuição a


priori e a posteriori;

• introduzir os processos estocásticos e cadeias de Markov;

• rever alguns conceitos básicos da termodinâmica que serão úteis para a


realização dos estudos da Unidade 3.

PLANO DE ESTUDOS
Esta unidade está dividida em três tópicos. No decorrer da unidade,
você encontrará autoatividades com o objetivo de reforçar o conteúdo
apresentado.

TÓPICO 1 – FÓRMULA DE BAYES

TÓPICO 2 – PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

TÓPICO 3 – BREVE REVISÃO DA TERMODINÂMICA

CHAMADA

Preparado para ampliar seus conhecimentos? Respire e vamos


em frente! Procure um ambiente que facilite a concentração, assim absorverá
melhor as informações.

75
76
TÓPICO 1 —
UNIDADE 2

FÓRMULA DE BAYES

1 INTRODUÇÃO
Uma fórmula muito importante em Estatística e Probabilidade é a
chamada Fórmula de Bayes, também conhecida como Teorema de Bayes,
expressão deduzida por Thomas Bayes (1702-1961).

Como mencionado na Unidade 1, a estatística e a probabilidade


exercem grande influência nos desenvolvimentos de física e ciências em geral,
como na teoria cinética dos gases, em uma precisa conexão entre mecânica e
termodinâmica (chamada de mecânica estatística), teoria quântica, teoria dos
jogos etc. Especificamente, para a fórmula de Bayes, não é diferente. Com grandes
aplicações em diversos ramos da ciência e da tecnologia, como inferência bayesiana
(ramo da inferência estatística), bioestatística, análise de dados, Método de Monte
Carlo via Cadeia de Markov (Markov Chain Monte Carlo) e cosmologia, a fórmula
relaciona uma probabilidade a priori com uma probabilidade a posteriori.

A importância filosófica da fórmula está no fato de que informações prévias


podem modificar a probabilidade de ocorrer um determinado evento futuro,
dando contexto e subjetividade na forma de realizar um cálculo probabilístico.
Obviamente, a abordagem gerou (e gera, ainda hoje) muito criticismo, devido ao
fato da perda da objetividade matemática.

Neste primeiro tópico da Unidade 2, começaremos introduzindo a


chamada probabilidade condicional, para, então, posteriormente, estudar a
fórmula de Bayes. Finalizaremos nossos estudos, abordando dois diferentes tipos
de distribuições decorrentes da fórmula de Bayes, conhecidos como distribuição
a priori e distribuição a posteriori.

DICAS

Para conhecimento de quem foi Thomas Bayes e da importância dele,


recomendamos a leitura do livro: PENA, S. D. Thomas Bayes: o ‘cara’! Ciência Hoje, v. 38,
n. 228, p. 1, 2006.

77
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

2 PROBABILIDADE CONDICIONAL
Para estudar a fórmula de Bayes é preciso estar a par da chamada
probabilidade condicional. A probabilidade condicional envolve a intersecção de
eventos do espaço amostral, como veremos a seguir. Antes de obter a fórmula,
é preciso iniciar analisando uma situação simples, que temos visto na unidade
anterior. Por exemplo, temos trabalhado o jogo de cartas de baralho no Tópico
3 da Unidade 1. Naquele caso específico, tínhamos nosso espaço amostral Ω,
dado por:

Ω = {♣ , ♠ , ♢ , ♡}.

Já sabemos, através dos nossos estudos prévios, que a probabilidade de


acertar um determinado naipe, ao ser sorteada uma carta aleatoriamente, por
exemplo, ♣, é de um quarto, ou seja:

Qual é a probabilidade de ocorrer o evento ♣, dada a informação adicional


de que saiu um naipe de cor preta, e não vermelha? No caso, sabendo que o naipe
sorteado foi de cor preta, devemos considerar B = {♣ , ♠}. A probabilidade de ter
ocorrido o evento ♣ se torna, então:

Assim, podemos ver que a informação adicional associada (naipe de cor


preta) influencia (condiciona) a probabilidade de ocorrência do evento aleatório ♣.

ATENCAO

A partir daqui, usaremos a notação A/B para indicar que a ocorrência do


fenômeno aleatória A está condicionada a uma ocorrência do fenômeno B. Assim, P(A/B) é
a probabilidade de ocorrer A com a informação adicional da ocorrência de B.

Podemos refazer o resultado P(♣/B) = 1/2 da seguinte maneira:


Encontramos a probabilidade da intersecção de ♣ e B = {♣ , ♠}, com divisão pela
probabilidade de ocorrência do evento B, isto é:

78
TÓPICO 1 — FÓRMULA DE BAYES

Para mostrar que a fórmula anterior é válida, basta observar que a


probabilidade de ocorrência da intersecção ♣ ∩ {♣, ♠} é de um quarto (pois temos
somente um elemento que é, simultaneamente, naipe preto e de paus). Uma vez
que a probabilidade de se encontrar um naipe preto é de um meio, é possível
encontrar o valor de P(♣/B) pela fórmula anterior. Desse modo, teremos, então:

Logo, para essa situação específica, a fórmula se mostra válida.

De maneira geral, a probabilidade de ocorrência do fenômeno A


condicionada a uma ocorrência do fenômeno B é dada pela seguinte expressão
matemática:

(1)

Usualmente, P(A/B) é, também, chamado de probabilidade a posteriori


(do latim, caso genitivo de posterior, "do seguinte", "do depois" ou "do posterior")
de A condicionada a B. Observe o exposto a seguir:

FIGURA 1 – INTERSECÇÃO DE DOIS EVENTOS

FONTE: O autor

Para ilustrar a fórmula (1), é preciso considerar a probabilidade de um certo


fenômeno aleatório ser calculada através da definição clássica de probabilidade.

79
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Da Unidade 1 (equação (18)), devemos lembrar que a probabilidade é


definida, classicamente, como:

Dessa forma, para casos nos quais podemos aplicar a definição clássica, a
probabilidade condicional (1) pode ser reescrita como:

Assim, em casos nos quais podemos aplicar a definição clássica, basta


contarmos o número de elementos da intersecção de A e B e dividirmos pelo
número de elementos de B, como temos feito no exemplo das cartas de baralho.

No exemplo das cartas, usamos a definição clássica para calcular a


probabilidade, uma vez que, naquele exemplo, n°(♣ ∩ {♣, ♠}) = 1 e n°({♣, ♠}) = 2,
encontramos P(♣/B) = 1/2. Desse modo, podemos pensar na probabilidade
condicional como a razão entre o “tamanho” da intersecção de A e B pelo
“tamanho” de B.

Lembrando os nossos estudos na Unidade 1, se A e B são mutualmente


exclusivos, A ∩ B = Ø. Logo, nossa probabilidade condicional será nula. No
exemplo das cartas de baralho, esse resultado significa que, sabendo que o naipe
sorteado é de cor vermelha, a probabilidade de encontrar ♣ é nula, pois, no caso,
n° (♠ ∩ {♢ ,♡}) = 0.

A seguir, analisaremos outro exemplo para fixar nosso conhecimento


acerca da probabilidade condicional.

Supomos que, em um certo jogo de basquete, temos um público de doze


mil pagantes. Do público total, dois mil e seiscentos são mulheres. O time “da casa”
fez um sorteio para premiar alguma torcedora com algum produto específico para
o público feminino. No entanto, a quantidade de torcedores do time visitante é de
quatro mil e quinhentos pagantes, sendo um total de oitocentas mulheres. Sabendo
que o prêmio saiu para um torcedor do time da casa, qual a probabilidade de que o
prêmio tenha saído para uma mulher? Antes de prosseguirmos, podemos construir
um quadro para organizar as informações necessárias.

QUADRO 1 – DESCRIÇÃO DO SEXO DOS TORCEDORES

Time Torcedores ambos os sexos Torcedores Torcedoras


Time da casa 7500 5700 1800
Time visitante 4500 3700 800

FONTE: O autor

80
TÓPICO 1 — FÓRMULA DE BAYES

Para obtermos o resultado correto, podemos trabalhar a fórmula da


probabilidade condicionada (1).

Consideramos que A está associado com a “quantidade de mulheres”, e,


B, com a de “torcedores do time da casa”. Para encontrarmos P(A ∪ B), devemos
saber qual a quantidade de mulheres que é torcedora do time da casa.

Do quadro anterior, vemos que:

n° (A ∩ B) = 1800.

Como, no caso, deve-se usar a definição clássica de probabilidade, isto é,


P = n°/N°, encontramos:

Para acharmos o valor de P(B), devemos, novamente, aplicar a definição


clássica de probabilidade. Lembrando que B está associado com os torcedores do
time da casa:

n°(B) = 7500.

Logo, obtemos, para P(B), a seguinte probabilidade:

Desse modo, com os resultados, a probabilidade de ser sorteada uma


mulher, sendo, ela, torcedora do time da casa, será de:

Como no caso trabalhado, podemos usar a definição clássica de


probabilidade, assim, é possível encontrar o resultado anterior fazendo
diretamente: P(A/B) = n°(A ∩ B)/n°(B) = 1800/7500 = 0,24. Logo, a probabilidade
de ser mulher, condicionada a ser torcedora do time da casa, é de 24%.

Para finalizar o nosso exemplo, consideraremos que o time da casa esteve


reservando 62,5% da capacidade do público total para os torcedores, como no
exemplo que acabamos de trabalhar. No entanto, o time da casa quer, no mínimo,
que a probabilidade de ser sorteada uma mulher, sendo sua torcedora, seja de 40%.
Então, quantos ingressos devem ser colocados para venda para o público geral,
sabendo que foram colocados, para venda, três mil e quinhentos ingressos para as
torcedoras do time da casa? No caso, temos que P(B) = 0,625 e P(A/B) = 0,4. Logo, a
probabilidade de ser mulher e sua torcedora é de P(A ∩ B) = 0,25.

81
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Uma vez que encontramos P(A ∩ B) e sabendo que n°(A ∩ B) = 3500,


obtemos:

Assim, para que a probabilidade de ser uma mulher, condicionada a ser


sua torcedora, seja de, no mínimo, 40%, a equipe da casa deve vender, no máximo,
14000 ingressos.

Seguindo nossos estudos, estudaremos, agora, a chamada Fórmula de Bayes.

3 FÓRMULA DE BAYES
Para obtermos a fórmula de Bayes, consideraremos a equação (1),
realizando a seguinte manipulação:

P(A ∩ B) = P(B)P(A/B).

Agora, consideraremos o caso P(B/A) em (1), repetindo a manipulação


feita anteriormente, isto é:

P(B ∩ A) = P(A)P(B/A).

Desde que a intersecção do evento A com B seja a mesma do evento B com


A, ou seja, A ∩ B = B ∩ A, podemos igualar as fórmulas para, então, obter:

(2)

Como já havíamos mencionado, P(A/B) é dito a probabilidade a posteriori.


Nessa nomenclatura, costuma-se chamar, também, P(A) de probabilidade a priori
(do latim, caso genitivo de prior, "de antes" ou "do anterior").

Considerando o complemento Aʿ de A, e Ω = A ∪ Aʿ, e sendo A e Aʿ


mutualmente exclusivos, isto é, A ∩ Aʿ = Ø, podemos decompor P(B) da seguinte
maneira (ver Unidade 1):

P(B) = P(B ∩ A)+ P(B ∩ Aʿ).

Logo, substituindo o resultado anterior por P(A/B), encontramos:

82
TÓPICO 1 — FÓRMULA DE BAYES

Finalmente, lembrando que P(B ∩ A) = P(A)P(B/A), a última expressão fica:

(3)

A expressão (3) é conhecida como Fórmula de Bayes.

Para entendermos melhor a expressão matemática de Bayes, analisaremos


o exemplo que segue.

Há dois dados, sendo, um deles, viciado, enquanto o outro não. A significa


ser o evento aleatório “dado viciado V” e, B, o evento “face seis do dado 6”.
Suponhamos que a probabilidade do evento 6 ocorrer no dado viciado seja de
um terço, isto é:

Sorteando, aleatoriamente, um dos dados, jogando-o e observando o


evento 6, queremos saber: qual a probabilidade de termos sorteado o dado viciado
uma vez observado o evento aleatório 6?

Para obtermos o resultado correto, devemos observar que P(V/6) indica


a probabilidade de ter sorteado o dado viciado quando observado o evento 6,
ou seja, justamente o que queremos encontrar. Observamos, ainda, que P(V) é
a probabilidade de sortear o dado viciado, enquanto P(Vʿ) a de sortear o não
viciado. Como o dado deve ser escolhido aleatoriamente:

Como última observação, notamos que a probabilidade de o evento 6


ocorrer, sendo, este, o dado não viciado, é de:

Agora, para encontrarmos o resultado, basta aplicar os valores anteriores


na Fórmula de Bayes (3), ou seja:

Substituindo os valores, encontramos:

83
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Desde que, observando o evento 6, as únicas opções são que um dos dois
dados tenha sido sorteado, devemos ter P(V/6) + P(Vʿ/6) = 1.

Para verificar que tal resultado é válido, é preciso fazer:

Logo, o resultado P(V/6) + P(Vʿ/6) = 1 é válido.

Agora, estudaremos uma generalização da fórmula de Bayes. Por


exemplo, podemos considerar o exemplo anterior para um número genérico de
dados divididos em grupos de diferentes “graus” com vícios. Assim, podemos
dizer que existe um número ni de dados viciados de tal forma que P(6/Vi) assuma
um valor qualquer, baseado em tal grau. Por exemplo, se, no exemplo anterior,
adicionarmos dois dados viciados de tal maneira que:

qual a probabilidade de termos observado o mesmo dado do exemplo


anterior, sendo P(6/V) = 1/3, quando sair a face 6?

Para o caso específico, teremos:

P(6) = P(6 ∩ V)+ P(6 ∩ V₁)+ P(6 ∩ V₂).

Aqui, estamos denotando V₁ para o dado não viciado do exemplo


anterior, e, V2, para os dados adicionados. Usando a equação (2) e lembrando que
P(B ∩ A) = P(A)P(B/A), obtemos:

Suponhamos que temos um total de N dados repartidos em grupos com


diferentes graus de vícios, como N = ∑ni. A probabilidade de sortearmos, do
montante, um dado de um certo grupo com grau de vício Vi, é de:

Uma vez que temos quatro dados, agora, para serem sorteados:

84
TÓPICO 1 — FÓRMULA DE BAYES

Já para P(V2), devemos considerar que temos dois dados no montante de


quatro:

Logo, aplicando os valores de probabilidade em P(V/6), encontramos:

Generalizando o resultado anterior, podemos encontrar a forma


estendida da Fórmula de Bayes. Para isso, devemos considerar o espaço
amostral repartido em várias repartições, como: Ω = Ui=1 Ai, sendo Ai ∩ Aj = Ø,
como na representação a seguir:

FIGURA 2 – INTERSECÇÃO DE N EVENTOS, SENDO Ω = Ui=1 Ai E Ai ∩ Aj =Ø

FONTE: O autor

Uma vez que, neste caso:

P(B) = ∑P(B ∩ Ai),

Substituindo a relação P(B ∩ Ai) = P(Ai)P(B/Ai), teremos:

(4)

85
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

A forma anterior é a fórmula de Bayes estendida.

No que segue, estudaremos a fórmula (4), e introduziremos os conceitos


de distribuição a priori e a posteriori.

DICAS

Para uma compreensão da fórmula de Bayes no chamado problema de Monty


Hall, recomendamos a leitura do artigo encontrado no link a seguir: https://www.voitto.
com.br/blog/artigo/teorema-de-bayes. Uma discussão (podcast) também recomendada do
teorema pode ser acessada em https://www.deviante.com.br/podcasts/scicast-377/.

4 DISTRIBUIÇÕES A PRIORI E A POSTERIORI


Na Unidade 1, nós estudamos diferentes tipos de distribuições de
probabilidade. Aqui, analisaremos situações nas quais uma dada distribuição
pode ser “moldada”, de acordo com algum conhecimento prévio do sistema
que estamos analisando. Em conexão com a fórmula de Bayes, estudaremos,
conceitualmente, as distribuições a priori e a posteriori.

Um exemplo usual para entender tais distribuições é considerar uma


sacola com bolas coloridas. Vamos tirando, aleatoriamente, um número definido
de bolas, sem reposição. Assim, suponha que temos quatro bolas em uma sacola
com diferentes tipos de cores, e retiramos duas bolas consecutivamente, sem
repormos as bolas retiradas. Ao retirarmos tais bolas, verificamos que elas são da
cor verde. Uma pergunta que podemos fazer é: qual é a probabilidade de termos
apenas duas bolas verdes na sacola?

Para obtermos a resposta, devemos considerar a equação (4). Consideremos


que Ai é o número de bolas verdes na sacola. Assim, A0 significa que não temos
bolas verdes na sacola, A1 uma, e assim por diante, até A4. Já B indica o número
de bolas verdes entre duas retiradas. Desde que temos observado duas bolas
verdes após duas retiradas, B assume o valor B = 2. Desse modo, P(A2/B = 2) é a
probabilidade de termos um total de duas bolas verdes após observarmos duas
delas ao retirarmos duas bolas aleatoriamente. No entanto, podemos nos indagar
a respeito dos valores dos P(Ai), isto é, das probabilidades de termos nenhuma
bola verde, uma bola verde etc.

A priori, todas as quantidades são igualmente prováveis, ou seja:

86
TÓPICO 1 — FÓRMULA DE BAYES

Por P(B = 2/A2), entende-se como a probabilidade de observarmos duas


bolas verdes, sendo retiradas apenas duas bolas, caso tenhamos somente duas
verdes no total de quatro. Matematicamente:

Agora, para encontrarmos o resultado final, basta sabermos os valores


dos demais P(B = 2/Aj), que aparecem na somatória, em (4).

Devemos reparar que P(B = 2/A0) e P(B = 2/A1) são nulos. Desde que
temos observado duas bolas verdes, é impossível que, na sacola, não tenha ou
tenha apenas uma bola verde. Finalmente, basta encontrar as probabilidades
P(B = 2/A3) e P(B = 2/A4). Para P(B = 2/A3):

Para P(B = 2/A4):

Aplicando os resultados anteriores na fórmula (4):

Logo, a probabilidade de que tenhamos apenas duas bolas verdes na


sacola, após observarmos duas bolas verdes em duas retiradas aleatórias, é de
um décimo.

Devemos notar que a informação adicional do sistema diminuiu nossa


confiança, desde que P(A2) = 1/5 > P(A2/B = 2) = 1/10. Assim, no caso, podemos
concluir que, nossa crença, de encontrar duas bolas verdes, é menor quando
sabemos que, de duas retiradas, duas eram verdes. Tal situação ocorre porque a
probabilidade a priori é maior do que a probabilidade a posteriori.

Podemos ampliar nossas análises para P(A3/B = 2), isto é, a probabilidade de


termos três bolas verdes na sacola depois de retirarmos e observarmos duas verdes.

Procedendo, similarmente, como no caso anterior, encontraremos:

87
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Ampliando, ainda, para P(A4/B = 2), verificamos que a possibilidade de


termos quatro bolas verdes na sacola é de:

Com os resultados obtidos até aqui, podemos estabelecer uma distribuição


a priori e uma distribuição a posteriori para o exemplo trabalhado.

Como temos visto, a probabilidade de encontrarmos qualquer


quantidade de bolas verdes é, a priori, estabelecida pelos valores P(Ai) = 1/5.
Assim, o conjunto de valores P(Ai) fornece a distribuição a priori. Ainda, ao
retirarmos duas bolas e observarmos que ambas são verdes, encontramos uma
distribuição a posteriori, dada pelo seguinte conjunto de valores: P(A0/B = 2)
= P(A1/B = 2) = 0, P(A2/B = 2) = 1/10, P(A3/B = 2) = 3/10 e P(A4/B = 2) = 6/10.

Podemos representar, graficamente, as distribuições a priori e a posteriori


obtidas no nosso exemplo:

GRÁFICO 1 – COMPARATIVO DAS DISTRIBUIÇÕES A PRIORI E A POSTERIORI

FONTE: O autor

88
TÓPICO 1 — FÓRMULA DE BAYES

Do gráfico, podemos notar que, com uma informação adicional, regida


por uma verificação prévia, podemos “atualizar” a distribuição da probabilidade
do sistema.

Podemos verificar que as duas distribuições contemplam o requerimento


de distribuições ∑P = 1, uma vez que:

Para a distribuição a priori:

Para a distribuição a posteriori.

Agora, se, na mesma situação anterior, retirarmos apenas uma bola e


verificarmos que ela é de cor verde, qual será a distribuição a priori e a posteriori?
No caso, ainda teremos a mesma distribuição a priori, uma vez que, novamente,
para qualquer Ai: P(Ai) = 1/5.

Para estabelecermos a distribuição a posteriori, devemos, antes, encontrar


os valores de P(B = 1/Aj). De maneira similar, para as análises que fizemos para o
caso anterior, encontramos os seguintes valores:

P(B = 1/A0) = 0, P(B = 1/A1) = 1/4, P(B = 1/A2) = 1/2,


P(B = 1/A3) = 3/4 e P(B = 1/A4) = 1.

Com os resultados, podemos, então, encontrar nossa distribuição a


posteriori, descrita pelo conjunto de valores P(Ai/B = 1). Para P(A0/B = 1), temos:

P(A0/B = 1) = 0,

Desde que é impossível não termos nenhuma bola se já verificamos a


existência de, pelo menos, uma.

Para os valores não nulos, encontramos:

89
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Novamente, podemos verificar que a nossa distribuição a posteriori


contempla o requerimento ∑P = 1, pois:

Segue um comparativo entre essa distribuição posteriori com a obtida no


exemplo anterior, além da distribuição a priori:

GRÁFICO 2 – COMPARATIVO DAS DISTRIBUIÇÕES A PRIORI, A POSTERIORI B = 1


E A POSTERIORI B = 2

FONTE: O autor

90
TÓPICO 1 — FÓRMULA DE BAYES

Observando o gráfico, podemos notar que nossa distribuição a posteriori


já é diferente do que a do caso trabalhado anteriormente. Podemos concluir que
a distribuição de probabilidade de um sistema pode ser moldada de acordo com
algum conhecimento prévio.

Em geral, a distribuição binomial também pode ser tratada no contexto


de distribuições a priori e a posteriori. Assim, para finalizar o tópico, novamente,
consideraremos o caminho aleatório:

É preciso considerar o caso a partir do qual não sabemos da probabilidade


de o marinheiro andar para frente ou para trás, isto é, somos completamente
ignorantes acerca do valor de P>.

A priori, podemos pensar que a probabilidade de o marinheiro andar


para frente ou para trás seja a mesma, ou seja, P> = 1/2. Desse modo, obtemos a
expressão para o caminho aleatório:

Assim, depois de o marinheiro caminhar X = 4 passos, a distribuição será:

Substituindo, então, os valores ΔX = –4, –2, 0, 2, 4, encontramos a


distribuição a seguir:

91
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

GRÁFICO 3 – DISTRIBUIÇÃO A PRIORI DO ANDAR DO MARINHEIRO

FONTE: O autor

No entanto, por alguma razão, se soubermos que a probabilidade de


encontrarmos o marinheiro na posição ΔX = 3, depois de X = 3 passos, seja a de
P(3) = 8/27, a distribuição de probabilidade deve assumir uma forma diferente.
Desde que P(3) = 8/27 para ΔX = 3 e X = 3, teremos:

Logo, encontramos que a probabilidade de o marinheiro andar para


frente é de P> = 2/3. Assim, podemos reconstruir nossa distribuição para
X = 4. Substituindo os valores P> = 2/3 e ΔX = –4, –2, 0, 2, 4, obtemos a seguinte
distribuição:

92
TÓPICO 1 — FÓRMULA DE BAYES

GRÁFICO 4 – DISTRIBUIÇÃO A POSTERIORI DO ANDAR DO MARINHEIRO

FONTE: O autor

Logo, vemos que o conhecimento prévio de uma informação em X = 3


influenciou diretamente na forma final da distribuição da probabilidade em X = 4.

Uma vez que, neste caso, a probabilidade se relaciona como o fator de


normalização pela relação:

podemos reescrever a probabilidade a posteriori proporcional a um


produto entre a probabilidade e outra função:

Em geral, tal função é entendida como uma função de verossimilhança L,


sendo, a relação entre as probabilidades a priori e a posteriori, dada pela relação
de proporcionalidade:

Pposteriori ∝ LPpriori.

Para a fórmula de Bayes (4), a relação é dada por:

P(Ai/B) ∝ P(Ai)P(B/Ai).

93
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

No caso, a função da verossimilhança será L = P(B/Ai), uma vez que


P(Ai/B) é a probabilidade a posteriori e, P(Ai), a probabilidade a priori.

A função da verossimilhança é base de uma área muito importante


da estatística, conhecida como Inferência Bayesiana, a qual, neste curso, não
trabalharemos, mas o leitor poderá, com essa introdução básica, pesquisar mais
a respeito do assunto.

94
RESUMO DO TÓPICO 1
Neste tópico, você aprendeu que:

• Muitas vezes, o cálculo de probabilidade pode estar condicionado a alguma


informação prévia.

• Existem as chamadas probabilidades a priori e a posteriori.

• O teorema de Bayes descreve a probabilidade de um evento baseado em um


conhecimento a priori que pode estar relacionado. Tal teorema mostra como
atualizar as probabilidades, tendo em vista novas evidências.

• A fórmula de Bayes relaciona, matematicamente, uma probabilidade a priori e


uma a posteriori.

• Uma distribuição a priori é a distribuição da probabilidade estabelecida sem


qualquer informação prévia do sistema.

• Uma distribuição a posteriori é a distribuição de probabilidade estabelecida


depois de acessar algumas informações acerca do sistema.

95
AUTOATIVIDADE

1 Na probabilidade, a dita probabilidade condicional é obtida quando a


forma de procedermos com certo cálculo probabilístico é guiada pelo
conhecimento de certas informações complementares. Considerando um
jogo de dados que consiste em uma sequência de três jogadas, e sabendo
que, após as três jogadas, observou-se que a soma gerou o número oito,
classifique V para as sentenças verdadeiras e F para as sentenças falsas:

( ) Para qualquer resultado que pode ser obtido somando as três jogadas, a
probabilidade de serem sorteados dois números ímpares é de 83,3%.
( ) Sabendo, previamente, que dois dados forneceram números ímpares, a
probabilidade de o resultado ser consequência da soma composta pelos
números um, três e quatro é de 40%.
( ) Sabendo, previamente, que todos os dados forneceram números pares, a
probabilidade de o resultado ser consequência da soma da sequência dos
números dois-quatro-dois é de 25%.
( ) Sabendo, previamente, que dois dados forneceram números ímpares, a
probabilidade de o resultado ser consequência da soma da sequência dos
números seis-um-seis é de 6,6%.

Agora, assinale a alternativa que apresenta a sequência CORRETA:


a) ( ) V – F – F – V.
b) ( ) V – V – V – F.
c) ( ) F – V – F – V.
d) ( ) V – V – F – V.

2 Como temos estudado, vimos que, explicitamente, a probabilidade


condicional é dada pela seguinte fórmula

sendo, P(A/B), a probabilidade de A condicionada a B, P(B), a probabilidade


da ocorrência de B, e, P (A ∩ B), a probabilidade da intersecção de A e B. Um
exemplo é considerar uma cidade de 200000 habitantes, com a divisão de
classes sociais representada a seguir:

Classe Social A B C
Porcentagem da População 6 54 40

A classe de grupos étnicos da mesma cidade está dividida, como poderemos


ver a seguir:

Grupo Étnico D E F
Porcentagem da População 30 44 26

96
Com base nas informações e utilizando a fórmula da probabilidade condicional,
assinale a alternativa CORRETA:

a) ( ) Sendo P(C/E) = 0, a quantidade de pessoas da classe C que pertence ao


grupo étnico E é de 41600 cidadãos.
b) ( ) Sendo P(A/F) = 0,4, a quantidade de pessoas da classe A que pertence à
classe F é de 18400 cidadãos.
c) ( ) Sendo P(B/A) = 0,3, a quantidade de pessoas da classe B que pertence à
classe A é de 3600 cidadãos.
d) ( ) Sendo P(D/C) = 0,2, a quantidade de pessoas do grupo étnico D que
pertence à classe C é de 16000 cidadãos.
e) ( ) Sendo P(E/B) = 0,4, a quantidade de pessoas do grupo étnico E que
pertence à classe B é de 34000 cidadãos.

3 A fórmula generalizada de Bayes é dada pela seguinte expressão matemática

sendo, P(Ai/B), a probabilidade de Ai condicionada a B.

Com base na fórmula, considere dez dados, sendo, um deles, não viciado. Já
para os dados viciados, dois deles têm probabilidade de 20% de ser sorteado
o número um, três deles, de 25% e, quatro deles, de 50%.

Com a fórmula generalizada de Bayes e os itens a seguir:

I- Pegando um dado aleatoriamente, jogando-o e observando o número 1, a


probabilidade de termos pego o dado não viciado é de, aproximadamente,
2,5%.
II- Pegando um dado aleatoriamente, jogando-o e observando o número 1,
a probabilidade de termos pego o dado viciado com 20% de chances de
fornecer o número 1 é de, aproximadamente, 12%.
III- Pegando um dado aleatoriamente, jogando-o e observando o número 1,
a probabilidade de termos pego o dado viciado com 25% de chances de
fornecer o número 1 é de, aproximadamente, 33%.
IV- Pegando um dado aleatoriamente, jogando-o e observando o número 1,
a probabilidade de termos pego o dado viciado com 50% de chances de
fornecer o número 1 é de, aproximadamente, 60%.

Assinale a alternativa CORRETA:


a) ( ) Somente a afirmativa II está correta.
b) ( ) Somente a afirmativa III está correta.
c) ( ) As afirmativas I e III estão corretas.
d) ( ) As afirmativas II e IV estão corretas.
e) ( ) As afirmativas I e IV estão corretas.

97
4 Um exemplo de distribuições a priori e a posteriori e a função de
verossimilhança são dados pela distribuição binomial

O termo (PS )v(1 – PS)n-v pode ser entendido como a função de verossimilhança,
sendo que PS é a probabilidade de “sucesso”.

Suponha que você é um investigador da polícia civil e está investigando uma


máfia de caça-níqueis. Na devida investigação, você deve pesquisar uma
máquina apreendida que simula um jogo de cara e coroa. Tal jogo consiste
em três jogadas de uma moeda virtual, e o jogador deve ganhar créditos pela
quantidade de sucessos, que, neste caso, é a quantidade do número de caras
observadas depois de três jogadas. Com base nessa investigação, classifique V
para as sentenças verdadeiras e F para as sentenças falsas:

( ) A distribuição a priori, do jogo investigado, é dada pelo conjunto de


valores: P(0) = 1/8, P(1) = 3/8, P(2) = 3/8, P(3) = 1/8.
( ) Se, depois de uma investigação completa, você concluir que a probabilidade
de não obter cara seja de 27/64, então, a probabilidade de sucesso é de 1/4.
( ) Se, depois de uma investigação completa, você concluir que a probabilidade
de observar duas caras seja de 2,4%, então, a probabilidade de sucesso é
de 2/9.
( ) Se, depois de uma investigação completa, você concluir que a função de
verossimilhança assume o valor de 2/27 para v = 2, então, a distribuição
da probabilidade a posteriori é de P(0) = 8/27, P(1) = 2/9, P(2) = 4/9,
P(3) = 1/27.
( ) Se, depois de uma investigação completa, você concluir que a função
de verossimilhança assume o valor de 8/125 para v = 3, então, a
distribuição de probabilidade a posteriori é de P(0) = 81/375, P(1) = 54/125,
P(2) = 108/375, P(3) = 8/125.

Agora, assinale a alternativa que apresenta a sequência CORRETA:


a) ( ) V – V – F – V – F.
b) ( ) V – V – F – F – V.
c) ( ) F – V – F – V – F.
d) ( ) F – F – F – V – V.
e) ( ) V – F – F – F – V.

98
TÓPICO 2 —
UNIDADE 2

PROCESSOS ESTOCÁSTICOS E
CADEIAS DE MARKOV

1 INTRODUÇÃO
Um importante ramo, dentre os processos estatísticos, são os denominados
processos estocásticos. Historicamente, tais processos foram úteis para a descrição
do movimento Browniano, com o qual Albert Einstein trabalhou e publicou um
artigo a respeito do tema no ano mirabilis, em 1905.

Nos dias atuais, processos estocásticos encontram diversas aplicações,


como em mutações genéticas, radioatividade, mercado financeiro etc.
Diferentemente dos eventos aleatórios comuns, com a experiência aleatória
gerando um número, a experiência, em eventos estocásticos, gera uma trajetória,
como o recolhimento de dados ao longo de um intervalo no tempo.

Uma classe muito importante de tais processos são os ditos sistemas


markovianos, batizados em homenagem ao matemático russo Andrei Andreyevich
Markov (1856-1922). Assim, a evolução presente em um sistema probabilístico
independe da evolução anterior de tal sistema.

No tópico atual, começaremos introduzindo os ditos processos estocásticos


e observando alguns diferentes tipos de processos. Posteriormente, trabalharemos
com processos markovianos, desenvolvendo uma abordagem mais intuitiva.
Finalmente, formalizaremos as cadeias de Markov e, então, construiremos alguns
exemplos das chamadas matrizes de transição markovianas.

2 PROCESSOS ESTOCÁSTICOS: NOÇÕES BÁSICAS


Para entendermos o que são processos estocásticos e os diferentes
tipos, iniciaremos analisando alguns exemplos. Como primeiro exemplo,
trabalharemos com a pesquisa, que media o fluxo de veículos em uma certa
rodovia, imaginada como conceitos básicos de estatística.

Funcionários de certa empresa observam o número de diferentes tipos de


veículos que transita sob um certo ponto da estrada. Ao associar um valor a cada
tipo de veículos, é possível calcular o lucro esperado naquele dia:

99
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

QUADRO 2 – FLUXO DE AUTOMÓVEIS I

Tipo de Veículo Quantidade


Moto 127
Carro 453
Ônibus 071
Caminhão 145

FONTE: O autor

Suponhamos, então, que a mesma empresa queira, também, verificar


o comportamento do fluxo durante uma semana. Assim, no segundo dia, são
medidos os seguintes valores:

QUADRO 3 – FLUXO DE AUTOMÓVEIS II

Tipo de Veículo Quantidade


Moto 121
Carro 467
Ônibus 064
Caminhão 149

FONTE: O autor

Seguindo a pesquisa nos próximos cinco dias, é obtida a evolução de um


determinado tipo de veículos. Por exemplo, depois de uma semana, os ônibus
que devem trafegar naquele ponto da rodovia são registrados a seguir:

QUADRO 4 – TRÁFEGO DE ÔNIBUS DURANTE UMA SEMANA

Dia 1 Dia 2 Dia 3 Dia 4 Dia 5 Dia 6 Dia 7


71 64 66 70 65 67 72

FONTE: O autor

Com base no exposto, será construído o seguinte gráfico:

100
TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

GRÁFICO 5 – FLUXO DE ÔNIBUS I

FONTE: O autor

Esse é um exemplo de processo estocástico. Nota-se, aqui, que a experiência


aleatória se dá em um intervalo de dias, e o resultado pode ser representado
como uma função. Podemos, assim, verificar que, em um processo estocástico,
o resultado de uma experiência aleatória é uma função, diferentemente do que
já havíamos estudado anteriormente, com o resultado da experiência gerando
um número. Ainda, devemos notar que poderíamos ter medido um diferente
conjunto de dados e, como consequência, uma outra função. Desde que tal função
estivesse associada a um ponto ω de um espaço amostral Ω, poderíamos ter, como
resultado, um outro conjunto associado a um ponto ω’ ∈ Ω. Em tese, poderíamos ter
obtido outra realização da experiência aleatória:

GRÁFICO 6 – FLUXO DE ÔNIBUS II

FONTE: O autor

101
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Podemos resumir nossa análise feita até aqui da seguinte maneira: ao


realizarmos uma experiência aleatória, como medir a quantidade de ônibus
durante sete dias, fixamos o ponto ω ∈ Ω e, então, verificamos uma realização
do processo estocástico Xt(ω). Assim, podemos definir, também, um processo
estocástico Xt , como sendo uma função de duas variáveis ω ∈ Ω e t ∈ 𝕴. Aqui, 𝕴
é um conjunto intitulado de espaço de parâmetros.

No nosso exemplo anterior, 𝕴 é o conjunto de dias nos quais foi realizado o


experimento aleatório. Nota-se, assim, que construímos o gráfico com o número de
ônibus x dia. No caso, o contradomínio 𝕮, que envolve a quantidade de ônibus,
é usualmente chamado de espaço de estados. Em outra mão, quando fixamos
o parâmetro t, associamos um valor numérico do espaço de estados ao espaço
amostral, definindo nossa variável aleatória. Desse modo, podemos entender que
um processo estocástico envolve uma família de variáveis aleatórias.

Agora, rapidamente, formalizaremos alguns aspectos dos processos


estocásticos. Como temos visto, tais processos envolvem famílias de variáveis
aleatórias parametrizadas por t, que pode ser o tempo ou não. De forma geral,
simbolizamos um processo estocástico como:

X = {Xt : t ∈ 𝕴}.

Segue uma definição de processo estocástico.

Definição: seja, o espaço paramétrico 𝕴, um conjunto não vazio, define-se


um processo estocástico como uma família de variáveis aleatórias munida pela
associação:

Xt : Ω → 𝕮,

Sendo, Ω, o espaço amostral; 𝕮, o contradomínio de todas as variáveis


aleatórias (chamado de espaço de estados); e t, um elemento do espaço paramétrico
(t ∈ 𝕴).

No exemplo que temos trabalhado até aqui, tanto um espaço como o


outro são de naturezas discretas. No caso, o espaço de parâmetros 𝕴 é uma
sequência finita: 𝕴 = {1, 2, 3, ..., 7}. Já o espaço de estados 𝕮 é, a priori, uma
sequência infinita: 𝕮 = {1, 2, 3, ..., ∞}. Chamamos o dia como um exemplo de
processo estocástico a parâmetro discreto, enquanto o número de ônibus é um
estado discreto.

Nos casos mais gerais, o conjunto 𝕴 não deve estar, necessariamente,


associado com o parâmetro tempo. Seguindo em frente, estudaremos alguns
diferentes tipos de processos estocásticos com diferentes tipos de espaços de
parâmetros 𝕴 e de estados 𝕮, que formam uma base para os diferentes tipos
de processos.

102
TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

Começaremos analisando o caso no qual o espaço de parâmetros e o de


estados são discretos. Já estivemos estudando esse caso no exemplo anterior.
O parâmetro t era discreto e compreendia os dias nos quais era realizado o
experimento aleatório. Assim, considerando o exemplo da estrada, identificamos
𝕴 com um intervalo discreto finito, isto é, {1, 2, 3, ..., 7}. Por sua vez, as variáveis
aleatórias formavam, também, um conjunto discreto (número de ônibus), tanto
que 𝕮 foi identificado com os naturais {1, 2, 3, ..., ∞}. Outros casos podem ser, por
exemplo, o número de gols por rodada de um certo campeonato ou o número
de peças defeituosas produzidas por diferentes máquinas do mesmo tipo
pertencentes a uma empresa. Aqui, vale notar que, no segundo caso, o parâmetro
t não está associado ao tempo, mas a diferentes máquinas.

Um outro tipo de processo estocástico pode ocorrer com o espaço de


parâmetros sendo discreto, enquanto o de estados é contínuo. Um exemplo é
dado pelo gráfico a seguir:

GRÁFICO 7 – EVOLUÇÃO RENDA PER CAPITA

FONTE: O autor

No gráfico anterior, há a renda per capita em dólar, de um certo país,


calculada em anos diferentes. Desse modo, o conjunto 𝕴 é um intervalo discreto,
enquanto 𝕮 é o conjunto de números reais positivos.

103
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Referente, por exemplo, à balança comercial do mesmo país, segue um


outro exemplo:

GRÁFICO 8 – BALANÇA COMERCIAL PER CAPITA

FONTE: O autor

Note que o país teve superávit em alguns anos, enquanto, em outros,


teve déficit. O marco zero representa alguma mudança de política adotada pelo
país. Assim, devemos notar algo importante. Não necessariamente, um processo
estocástico deve ser constituído de valores que estão submetidos às mesmas
condições. No exemplo que acabamos de ver, a mudança de política submete a
diferentes condições de mercado, que podem gerar diferentes tendências, como
na função antes e a partir de 2003 do gráfico.

Outro caso é quando o espaço de parâmetros é contínuo, enquanto o de


estados é discreto. Um exemplo prático pode ser o número de pessoas que desce em
um aeroporto em qualquer instante. Por exemplo, chegou, em tal aeroporto, às 14h37
e 27 segundos, um total de 41 passageiros, além de mais 11 funcionários da empresa
aérea, ou seja, os dados são colhidos a tempo contínuo, e o espaço de estados está
associado ao número de pessoas, que é medido em valores discretos. Outro exemplo
pode ser a pulsação cardíaca de uma pessoa medida instantaneamente.

104
TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

Para finalizar, o último caso pode ser a cotação de uma determinada ação
medida instantaneamente durante um determinado dia. Notamos que, nesse
caso, o espaço de parâmetros e o de estados são contínuos. Um outro exemplo
com aplicação em física é a intensidade espectral aleatória de uma estrela medida
em tempo real.

DICAS

Para alguns exemplos interativos, é sugerido ao estudante olhar o sítio


eletrônico do Projeto Aeronet (Aeronet Project: AErosol RObotic NETwork). Dados, em
tempo quase real sobre a atividade solar, são fornecidos a cientistas e ao público: https://
aeronet.gsfc.nasa.gov/index.html.

DICAS

É sugerido, ao estudante, que imagine um exemplo e simule, através de um


gráfico, cada caso possível de um tipo de processo estocástico descrito anteriormente.
Com isso, o estudante pode firmar os diferentes casos para, então, poder prosseguir com
os estudos de processos estocásticos.

3 CADEIAS DE MARKOV: NOÇÕES INTUITIVAS


Antes de adentrarmos nos estudos mais formais das cadeias de Markov,
é preciso regressar ao nosso marinheiro e ao caminho aleatório já familiar para
nós, este que fornecerá uma base intuitiva para uma posterior compreensão mais
rigorosa de tais cadeias.

Como devemos lembrar, a probabilidade P(ΔX) de o marinheiro percorrer


ΔX metros, quando andado um total de X metros, é descrita pela distribuição
binomial, que podemos escrever do seguinte modo:

(5)

Lembrando, novamente, que P> é a probabilidade de o marinheiro dar


um passo para frente em cada passo realizado por ele.

105
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Em Sistemas Contendo Duas Opções, na Unidade 1, tínhamos calculado


todas as probabilidades P(ΔX) de todos ΔX possíveis para X = 10 m. Para
ΔX = 8 m, havíamos encontrado, considerando P> = 2/3, o resultado P (8) ≃0,0867.
Olhando, explicitamente, para a Unidade 1, tínhamos calculado esse valor
aproximado da seguinte expressão:

(6)

Aqui, devemos observar que, para o marinheiro chegar em ΔX = 8 m,


depois de percorrer um total de X = 10 m, ele, antes, deveria estar na posição
ΔX = 7 m ou ΔX = 9 m quando tinha percorrido um total de X = 9 m. Assim, é
preciso usar (5) para calcular as probabilidades de encontrar o marinheiro nas
posições ΔX = 7 m e ΔX = 9 m para X = 9 m e P> = 2/3:

Devemos, então, perceber que, para o marinheiro ter chego na posição


ΔX = 8 m depois de um passo a partir de ΔX = 7 m, ele deve ter dado o passo
para frente. Sendo a probabilidade do passo ser dado para frente de P> = 2/3,
a probabilidade P(7 → 8) de o marinheiro ter chego em ΔX = 8 m a partir de
ΔX = 7 m é de:

Similarmente, para o marinheiro estar em ΔX = 8 m a partir de ΔX = 9 m, ele


deve ter dado o passo para trás. Lembrando que P< = 1 – P> = 1/3, a probabilidade
P(7 → 8) de ter chego em ΔX = 8 m a partir de ΔX = 9 m é explicitamente dada por:

Sendo, essas duas, as únicas possibilidades de o marinheiro ter chego em


ΔX = 8 m depois de andar dez metros a partir de X = 9 m, a probabilidade P (8)
(para X = 10 m) deve ser, então, obtida somando P(7 → 8) com o termo P(9 → 8),
ou seja:

P (8) = P (7 → 8) + P (9 → 8).

106
TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

Calculando a fórmula anterior:

(7)

que é a probabilidade final, não importando se o marinheiro veio a partir


de ΔX = 7 m ou ΔX = 9 m quando estava em X = 9 m. Aqui, devemos notar a
igualdade entre (6) e (7). É claro que os resultados devem concordar, pois as
duas formas são apenas maneiras diferentes de calcular P (8). O que devemos
aprender com esse fato é que podemos, também, obter P (8) usando uma fórmula
de recorrência.

Consideremos, por exemplo, os resultados obtidos na Unidade 1 para


X = 10 m:

P (10) ≃ 0,0173, P (8) ≃ 0,0867, P (6) ≃ 0,1951,


P (4) ≃ 0,2601, P (2) ≃ 0,2276, P (0) ≃ 0,1366,
P (–2) ≃ 0,0569, P (–4) ≃ 0,0163, P (–6) ≃ 0,0030,
P (–8) ≃ 0,0003, P (–10) ≃ 0,0000.

Queremos, então, encontrar as probabilidades de se encontrar o


marinheiro em um dada posição depois de percorrer X = 10 m. Com as fórmulas
de recorrência, não precisamos calcular a probabilidade de posição por posição
a partir de (5), desde que possamos conhecer as probabilidades das posições em
um passo anterior.

De forma geral, nossa fórmula de recorrência é dada por:

P (ΔX) = P (ΔX – 1 → ΔX) + P (ΔX + 1 → ΔX).

Consideremos, ainda, as expressões anteriores, reescritas como:

P (ΔX – 1 → ΔX) = P (ΔX –1) P>.

P (ΔX + 1 → ΔX) = P (ΔX + 1) P<.

Agora, substituindo as duas últimas na equação, obtemos:

P (ΔX) = P (ΔX – 1) P> + P (ΔX + 1) P<. (8)

107
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

ATENCAO

Devemos ter em mente que a probabilidade do lado esquerdo é calculada para


X, enquanto as probabilidades do lado direito são para X – 1.

Voltando para o nosso exemplo, podemos fazer uso de (8) para


encontrarmos todas as probabilidades correspondentes para X = 11 m. Devemos
perceber que apenas ΔX de valores ímpares são possíveis nesse caso, isto é,
ΔX = –11 m, –9 m, ..., –11 m, –1 m, +1 m, ... , + 9 m, +11 m. Usando a fórmula (8),
é preciso começar calculando a probabilidade de encontrar o marinheiro em
ΔX = 11 m:

O marinheiro tem 1,15% de chance de estar na posição 11 m depois de


andar um total de onze metros, enquanto tem 1,73% de chance de estar na posição
10 m depois de andar dez passos.

O que acabamos de analisar, através do caminho aleatório do marinheiro,


é um exemplo da cadeia de Markov e, em geral, de processos estocásticos.
Processos estocásticos porque, como devemos lembrar, a experiência aleatória
nos leva a uma função (trajetória), como no gráfico a seguir, que fornecerá a
posição x número de passos em um caminho aleatório:

GRÁFICO 9 – TRAJETÓRIA DO MARINHEIRO

FONTE: O autor

108
TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

Podemos observar que o caminho aleatório é um processo estocástico a


parâmetro discreto (ou seja, 𝕴 é discreto), e o espaço de estados 𝕮 é, também, discreto.

Intuitivamente através do exemplo, podemos entender que, associada a


uma probabilidade P(∆X), está uma trajetória (função), e que essa probabilidade não
está unicamente associada a uma trajetória específica. Por exemplo, para chegar na
posição ∆X, depois de percorrer X, diferentes caminhos são possíveis. Desde que
P(8) possa ser calculado através de P(7) ou P(9), fica explícito que duas trajetórias
diferentes podem convergir em ∆X = 8 m em X = 10 m, uma vindo da posição de
7 m e, a outra, de 9 m em X = 9 m.

Para ilustrar, veremos três possíveis caminhos aleatórios, em que X = 10 m


e ∆X = 4 m. Formalmente, as trajetórias 1, 2 e 3 representam diferentes possíveis
realizações da experiência aleatória, estando, cada uma delas, associada a
diferentes pontos ω’, ω’’ e ω’’’ do espaço amostral Ω.

GRÁFICO 10 – DIFERENTES POSSÍVEIS TRAJETÓRIAS DO MARINHEIRO

FONTE: O autor

Por sistemas markovianos, entendemos como sistemas que, a


probabilidade, em um tempo futuro, pode ser calculada através das informações
do tempo anterior, sem a necessidade de conhecimento de todos os eventos que
levaram o sistema até ali.

Referente ao caminho aleatório, ser um processo estocástico markoviano,


é possível notar que, de certa forma, cada posição no futuro X(t) está vinculada
com o tempo anterior, uma vez que, por exemplo, são possíveis apenas passos
de um metro por vez, ou seja, o marinheiro não pode “pular” de uma posição
para a outra. Assim, notamos, ainda, que no exemplo da rodovia, a medição no
dia posterior é independente da medição do dia anterior, ou seja, é um processo
estocástico não markoviano.
109
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Nossa fórmula de recorrência (8) indica, basicamente, o fato, uma


vez que a probabilidade do lado esquerdo está associada com X, enquanto a
do lado esquerdo está com X – 1. Como cada passo dado está no futuro do
passo anterior, podemos associar um intervalo de tempo a uma distância X =
X(t). Desse modo, a posição do marinheiro em um tempo t está diretamente
vinculada a um tempo t0 < t.

Processos estocásticos e sistemas markovianos têm grandes aplicações


na física. No que segue, formalizaremos nossos conceitos acerca das chamadas
Cadeias de Markov.

4 CADEIAS DE MARKOV
Dando seguimento a nossos estudos, introduziremos, agora, as chamadas
Cadeias de Markov.

Como temos visto, a probabilidade de encontrar o marinheiro em uma


dada posição pode ser calculada conhecendo as probabilidades do momento
anterior pela fórmula (8). Por exemplo, explicitando o tempo em (8):

P (ΔX; t) = P (ΔX –1; t') P> + P (ΔX + 1; t') P<. (9)

Aqui t' < t, sendo t' o instante no passo anterior. Como temos mencionado,
anteriormente, o caminho aleatório é um exemplo de Cadeia de Markov. Podemos
tratar do problema de maneira alternativa, usando uma matriz de transição. Assim,
considere a seguinte matriz quadrada 𝓜:

⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋰
⋯ 0 P> 0 0 0 ⋯
⋯ P< 0 P> 0 0 ⋯
⋯ 0 P< 0 P> 0 ⋯
⋯ 0 0 P< 0 P> ⋯
⋯ 0 0 0 P< 0 ⋯
⋰ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱

e a matriz linha 𝓟':

(⋯ P(+2) P(+1) P(0) P(–1) P(–2) ⋯)

110
TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

Considerando as matrizes anteriores para o exemplo do marinheiro,


podemos estabelecer a fórmula de recorrência (8), para qualquer X, pelo produto
matricial:

𝓟' 𝓜 = 𝓟.

Podemos verificar que a matriz linha resultante 𝓟 é dada, explicitamente,


por:

(⋯ P(+1) P> + P(+3) P< P(0) P> + P(+2) P< P(–1) P> + P(+1) P<
P(–2) P> + P(0) P< P(–3) P> + P(–1) P< ⋯)

A matriz anterior 𝓜 é um exemplo da chamada matriz transição de


Markov.

Pela fórmula de recorrência (8), devemos notar que o produto matricial


anterior gera 𝓟'(t')𝓜 = 𝓟(t). Notamos que a matriz dos 𝓟' do lado esquerdo
é pega em um passo anterior (ou tempo passado anterior t'), enquanto a do
direito 𝓟 é computada em um passo adiante (ou tempo futuro t), de acordo com
a fórmula de recorrência descrita na forma (9).

Através da matriz de Markov, podemos restringi-la para qualquer caso


que trabalhamos nos exemplos de caminho aleatório. Por exemplo, para X = 2, o
produto matricial será calculado tomando as matrizes 𝓟' e 𝓟. Para a matriz 𝓟':

(𝓞 P(+2) = 0 P(+1) P(0) = 0 P(–1) P(–2) = 0 𝓞)

Já para a matriz 𝓟:

(𝓞 P(+1) P> 0 P(–1) P> + P(+1) P< 0 P(–3) P> + P(–1) P< 𝓞)

Aqui, 𝓞 significa que os demais elementos da esquerda e da direita são


nulos. Nesse exemplo, são considerados apenas dois passos ao total. Ainda, X é
finito, para adequar o produto matricial de acordo com o problema para, então,
restringir, tornando nulos alguns valores da forma matricial geral. Por exemplo,
sendo X = 2, sabemos que P(+2), P(0) e P(–2) no lado esquerdo são nulos, uma
vez que o lado esquerdo é dado para X = 1, enquanto o lado direito é para X = 2.

Muitas vezes, não se conhece a probabilidade no momento anterior, mas


a posição que o marinheiro está no tempo presente. Para sabermos onde ele
poderá estar ∆X(t) no próximo passo, podemos, novamente, considerar a matriz
transição. Por exemplo, se soubermos que ele está na posição ∆X(t') = 1, teremos
𝓟' reescrita:

(𝓞 P(2) = 0 P(1) = 1 P(0) = 0 P(–1) = 0 P(–2) = 0 𝓞)


111
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Logo, no caso, a matriz 𝓟 será:

(𝓞 P(+1) P> 0 P(+1) P< 0 0 𝓞)

Agora, é preciso considerar 𝓜 escrita da seguinte forma:

⋱ ⋮ ⋮ ⋮ ⋰
⋯ 0 Pi+1,j 0 ⋯
⋯ Pi, j–1 0 Pi, j+1 ⋯
⋯ 0 Pi–1, j 0 ⋯
⋰ ⋮ ⋮ ⋮ ⋱

com Pi+1, j = Pi,j + 1 = P>, Pi, j–1 = Pi–1, j = P<, e assim por diante. Notamos,
aqui, que explicitamos a linha e a coluna da matriz. De uma forma geral, para
qualquer sistema de Markov, é preciso usar uma notação mais compacta para
prosseguirmos.

Sendo, a matriz transição de Markov, 𝓜, então, a componente matricial


Mij fornece a probabilidade de transição do “estado” i para o “estado” j. De uma
forma geral, é possível escrever a equação matricial:

X'𝓜 = X.

A matriz X representa, genericamente, qualquer suposto conjunto


de estados, dependendo do contexto que está sendo analisado. Os estados i e
j pertencem ao espaço de estados, ou seja, i, j ∈ 𝕮. No caso do marinheiro, o
estado i é a posição inicial (antes do passo) e, j, a posição final (depois do passo).
Necessariamente Mij é sempre maior ou igual a zero, uma vez que representa
uma probabilidade. Ainda:

∑ Mij = 1,

para i fixo com a somatória aplicada nos estados j ∈ 𝕮. Notamos que,


no caso do marinheiro, tal somatória representa P> + P< = 1. Assim, agora, é
necessário definir, formalmente, uma cadeia de Markov do seguinte modo:

Definição: Seja

P(Xt = j / X0’ = i0’, X1’ = i1’, X2’ = i2’, ..., Xt’ = it’ )

112
TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

a probabilidade associada ao estado j após uma sequência de eventos: i


0
,..., i t
. Um processo estocástico é uma cadeia de Markov se:

P(Xt = j / X0’ = i0’, X1’ = i1’, ... , Xt’ = it’ ) = P(Xt = j / Xt’ = it’ ).

Notamos, na definição anterior, que a probabilidade de ocorrer um


evento depois de uma sucessão de eventos depende, exclusivamente, do estado
anterior, isto é, do tempo que precedeu o tempo posterior. Nesse sentido, os
processos markovianos são conhecidos por serem processos sem memória, isto
é, precisamos apenas do estado imediatamente anterior ao futuro que queremos
descrever, sendo não necessário o conhecimento de todo o passado do sistema,
mas, somente, do passado anterior.

No que segue, construiremos alguns exemplos de processos markovianos


e das matrizes de transição.

Exemplo 1: Transmissão Código Binário

Suponha que queremos enviar alguma informação digital especificada


por um código binário. No entanto, sabemos que a probabilidade de a informação
ser enviada corretamente é de P. Já a probabilidade de acontecer um erro na
transmissão é dada por 1 – P. Desse modo, a probabilidade de 0 ser transmitido
com valor 0 é P, de 0 ser transmitido com valor 1 é 1 – P, e assim por diante. Nesse
caso, teremos os estados X1 = 0 e X2 = 0. A matriz de transição será:

Estado 0 1
0 P 1–P
1 1–P P

Desse modo, a componente M11 da matriz de Markov estabelece a


probabilidade da transição do estado 0 para 0, M12 , a probabilidade da transição
do estado 0 para 1, e assim por diante.

Exemplo 2: Pirâmide Social

Um outro exemplo no qual podemos aplicar a matriz de Markov é na


mobilidade social de uma certa sociedade. Por exemplo, considere que, dos filhos
da classe A, 90% tende a permanecer nela, 9% tende a ir para a classe B e 1% para
a classe C. Já para a classe B, 10% tende a ir para A, 85% tende a permanecer nela,
e 5% tende a ir para C. Enfim, para a classe C, 1% tende a ir para A, 24% para B e
75% a permanecer nela. Tal mobilidade pode ser representada pela matriz:

113
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Estado (classe) A B C
A 0,9 0,09 0,01
B 0,1 0,85 0,05
C 0,01 0,24 0,75

Assim, conhecendo a distribuição social de tal sociedade, por exemplo,


10% pertence à classe A, 70% à classe B e 20% à classe C, podemos estipular a
provável distribuição da próxima geração. Para isso, é preciso escrever o vetor:

Aplicando o produto matricial X'𝓜 = X:

X = (0, 162, 0, 652, 0, 186),

que é a provável distribuição social da próxima geração. Podemos ver, pelo


resultado, que aquela matriz de transição social aumenta a classe A e diminui as
classes B e C.

Exemplo 3: Processo de Nascimento e Morte

A evolução de uma população, através da probabilidade de ocorrência de


nascimento ou morte, pode, também, ser descrita por uma Cadeia de Markov. A
matriz de transição que representa esse sistema é dada por:

Estado (pop) 0 1 2 3 ⋯

0 1–P* P* 0 0 ⋯

1 P# 1 – (P* + P#) P* 0 ⋯

2 0 P# 1 – (P* + P#) P* ⋯

3 0 0 P# 1 – (P* + P#) ⋯

⋮ ⋮ ⋮ ⋮ ⋮ ⋱

Aqui, P* e P# significam as probabilidades de nascimento e de morte,


respectivamente. Por exemplo, se a população é composta por apenas duas
pessoas, a probabilidade de nascimento conecta o estado 2 com o 3, isto é, um
aumento da população. Já a probabilidade de morte conecta o estado 2 ao 1,

114
TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

representando, assim, um decréscimo na população total. Já o termo 1 – (P* + P#)


não modifica a população, pois leva do estado 2 para ele mesmo. Por exemplo, se
a taxa de nascimento e morte é muito pequena, então, 1 – (P* + P#) ≃ 1, dizendo
que, provavelmente, a população sofrerá pouca alteração.

Exemplo 4: Melhoramento Genético

Um outro exemplo é a transmissão de genótipos que podem ser aplicados


em algumas espécies de animais e plantas, de acordo com a genética clássica.
Dado os genes a e A, supomos que certas características de algumas plantas são
determinadas pelos pares de genes AA, aa e Aa, conhecidos como genótipos.
Desse modo, classificamos o Tipo 1 (caracterizado pelo genótipo AA), Tipo 2
(Aa) e Tipo 3 (aa). Assim, um cruzamento entre duas plantas do Tipo 1 gera,
unicamente, uma planta do Tipo 1, enquanto um cruzamento entre os Tipos 1 e
2 pode gerar plantas dos Tipos 1 e 2. Já um cruzamento entre os Tipos 1 e 3 pode
somente gerar o Tipo 2, enquanto entre os Tipos 2 e 3 pode gerar os Tipos 2 e 3.
Finalmente, cruzamentos entre o Tipo 2 podem gerar os Tipos 1, 2 e 3, e, entre o
Tipo 3, é possível gerar apenas o Tipo 3.

Supomos que um produtor queira melhorar a variedade genética da


lavoura. Em tal lavoura, 25% das plantas carregam o genótipo Tipo 2 (Aa), e,
75%, o Tipo 3 (aa). Para realizar o melhoramento, o produtor deve cruzar a sua
produção com plantas de genótipo aA. Desde que o cruzamento AAxaA possa
gerar Aa ou AA, aAxaA possa gerar aa, aA, Aa ou AA e, finalmente, Aaxaa possa
gerar Aa ou aa, a matriz transição de tal procedimento será:

Estado AA aA aa

AA 1/2 1/2 0

aA 1/4 1/2 1/4

aa 0 1/2 1/2

Querendo calcular a provável variedade genética após os cruzamentos,


assim, o produtor deve explicitar a matriz linha X', que, no caso, é a amostra
genética da sua lavoura antes do cruzamento. Uma vez que 25% é Tipo 2 (Aa) e,
75%, Tipo 3 (aa), X' é escrita como:

Tomando o produto matricial X'𝓜 = X, encontra-se:

115
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

que é a provável variedade genética após os cruzamentos.

Notando que, provavelmente, um sexto das plantas será do Tipo 1, o


produtor quer, então, saber se, cruzando, novamente, com o Tipo 2, sua nova
provável variedade obterá uma maior quantidade do Tipo 1. Para isso, ele realiza
o procedimento novamente, multiplicando a matriz linha resultante pela matriz
de transição:

Logo, ele verifica que, com mais um cruzamento, obtém mais representantes
do Tipo 1 na sua lavoura.

Para finalizar nossos estudos acerca dos processos estocásticos e das


Cadeias de Markov, trabalharemos, agora, com alguns conceitos relevantes acerca
das matrizes de transição.

Consideremos a seguinte matriz de Markov:

Estado 0 1 2 3

0 3/4 0 0 1/4

1 0 1 0 0

2 0 1/2 1/2 0

3 2/5 0 0 3/5

Notamos que a matriz anterior contempla o requerimento ∑ Mij = 1,


desde que a soma de cada linha gere um. Note, então, como esse sistema
pode evoluir ao longo do tempo. Por exemplo, supomos que o sistema pode
começar o processo estando no estado 0 ou 3. Devemos notar que se ele estiver
no estado 0, somente seria possível ele evoluir para o estado 0 ou 3 com as
probabilidades respectivas de 3/4 e 1/4.

Uma vez estando em um desses estados, poderia evoluir, novamente,


para o estado 0, pois se ele estivesse em 0, teria a probabilidade de 3/4 de ficar em
0, e se estivesse em 3, 2/5 para retornar a 0. Devemos, então, observar, que se o
processo parte de 0, sempre pode retornar ao estado original. Nota-se, também,
que o mesmo ocorre se o sistema evoluir a partir de 3. Tais estados são ditos
estados recorrentes.

116
TÓPICO 2 — PROCESSOS ESTOCÁSTICOS E CADEIAS DE MARKOV

Suponha, agora, que o sistema está, inicialmente, no estado 2. Pela matriz


de transição, o sistema pode evoluir para o estado 1 com probabilidade de
½, ou para ele mesmo, com probabilidade de 1/2. Nota-se que “mais cedo ou
mais tarde” será impossível o sistema retornar ao estado 2, desde que, uma vez
estando no estado 1, jamais retornará ao estado inicial. O estado 2 é um exemplo
dos chamados estados transientes. Por sua vez, uma vez o sistema estando no
estado 1, jamais sairá de tal estado. Tais tipos de estados são conhecidos como
estados absorventes.

Um estado é recorrente se e somente se não for transiente. Já um estado


absorvente é um caso especial de estado recorrente.

A seguir, analise o exemplo:

Exemplo 5: Aposta de par ou ímpar

Consideremos dois amigos que farão uma “batalha” no jogo de par ou


ímpar. Além do jogo já bem familiar e que dispensa apresentações, uma aposta
será vinculada a ele. Suponha que cada jogador apostará um total de R$ 3,00,
sendo que, a cada disputa de par ou ímpar, R$ 1,00 é apostado. O jogo terminará
quando um dos jogadores estiver com R$ 6,00 e, o outro, sem nada. A matriz de
transição será:

Estado R$ 0 1 2 3 4 5 6

0 1 0 0 0 0 0 0

1 1–P 0 P 0 0 0 0

2 0 1–P 0 P 0 0 0

3 0 0 1–P 0 P 0 0

4 0 0 0 1–P 0 P 0

5 0 0 0 0 1–P 0 P

6 0 0 0 0 0 0 1

Podemos entender o que poderá ocorrer no jogo pela matriz de transição.


Como o jogo começa com cada jogador contendo R$ 3,00, o estado inicial é 3.

Nota-se que a probabilidade de ganho P leva o apostador do estado 3 para


o estado 4, enquanto a de perda 1 – P leva do estado 3 para o 2, isto é, no primeiro
caso, o apostador aumenta o montante, e, no segundo, diminui.

117
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Se a probabilidade de ganhar for P = 1, o jogador sairá de R$ 3 para R$


4, depois, de R$ 4 para R$ 5, e, finalmente, de R$ 5 para R$ 6. Por sua vez, o
oponente irá de R$ 3 para R$ 2, R$ 2 para R$ 1, e de R$ 1 para R$ 0. Assim, uma
vez que é atingido 0 ou 6 reais, o jogo acaba. Ainda, em termos de estados, 0 e
6 são estados absorventes e, consequentemente, recorrentes. Uma vez atingidos
os estados 0 e 6, não será possível o sistema regressar para os demais estados, e,
logo, tais estados serão transientes.

Para aprendermos mais acerca dos processos estocásticos e das cadeias


de Markov, na Unidade 3, estudaremos uma aplicação de tal processo em um
sistema físico específico, que inclui a chamada força estocástica aplicada no
movimento Browniano.

118
RESUMO DO TÓPICO 2
Neste tópico, você aprendeu que:

• O caminho aleatório é um processo estocástico markoviano e que, em tais


processos, a experiência aleatória gera uma (trajetória) função em um dado
intervalo.

• A trajetória está associada a um ponto do espaço amostral e é uma função de


duas variáveis.

• Um processo estocástico envolve uma família de variáveis aleatórias.

• Diferentes tipos de processos estocásticos podem ser classificados de acordo


com os espaços de parâmetros e estados.

• Cadeias de Markov são caracterizadas por uma matriz de transição, além


da probabilidade de ocorrer um evento, independentemente da sucessão de
eventos ocorrida anteriormente.

119
AUTOATIVIDADE

1 Processos estocásticos são classificados pela natureza dos espaços de


parâmetros e de estados. Por exemplo, quando os espaços de parâmetros
e de estados são discretos, dizemos que temos um processo estocástico a
parâmetro discreto e a estado discreto. Com base nas informações e nos
seus conhecimentos acerca dos processos estocásticos, classifique V para as
sentenças verdadeiras e F para as sentenças falsas:

( ) O tráfego de carros em uma estrada, medido instantemente, é um processo


estocástico a parâmetro discreto e a estado contínuo.
( ) O número de pontos obtidos por uma equipe de Fórmula 1 durante diferentes
anos é um processo estocástico a parâmetro discreto e a estado discreto.
( ) A precipitação de chuvas medidas em metros em uma certa região ao longo
de dias é um processo estocástico a parâmetro discreto e a estado contínuo.
( ) As ações de uma certa empresa na bolsa de valores, medidas
instantaneamente, são um processo estocástico a parâmetro contínuo e a
estado discreto.

Agora, assinale a alternativa que apresenta a sequência CORRETA:


a) ( ) F – F – F – V.
b) ( ) V – F – V – V.
c) ( ) V – V – V – F.
d) ( ) F – V – V – F.

2 Um processo estocástico pode ser simbolicamente representado por

X = {Xt : t ∈ 𝕴},

e definido pela relação

Xt : Ω → 𝕮.

Nas expressões anteriores, t é um parâmetro, 𝕴 é o chamado espaço de


parâmetros, 𝕮 é o espaço de estados, e Ω é o espaço amostral. Assim, com base nos
seus estudos referentes a processos estocásticos, assinale a alternativa CORRETA:

a) ( ) Em um processo estocástico, o resultado de uma experiência aleatória


é um número.
b) ( ) Um processo estocástico Xt pode ser entendido como uma função de
uma variável t ∈ 𝕴.

120
c) ( ) Diferentes possíveis caminhos aleatórios serão representados a seguir:

As trajetórias do exposto estão associadas a diferentes pontos do espaço


amostral.
d) ( ) O processo estocástico representado no exposto é um processo
estocástico não markoviano, desde que a probabilidade futura dependa
de todos os acontecimentos anteriores.
e) ( ) Em um processo estocástico markoviano, a componente matricial Mij,
da matriz transição de Markov, fornece a probabilidade de transição do
estado i para o estado j, assim, os estados pertencem ao espaço amostral.

3 Um exemplo que pode ser descrito pelas cadeias de Markov é a


distribuição, além da mobilidade social em certa sociedade. Por exemplo, a
matriz de transição de Markov que descreve tal mobilidade é dada por
uma matriz do tipo:

Estado (classe) A B C
A 1 0 0
B 0,2 0,75 0,05
C 0,05 0,20 0,75

Com a matriz dada e os itens a seguir:

I- A classe A é um estado recorrente, mas não absorvente.


II- As classes B e C são estados transientes.
III- Em uma sociedade na qual 10% pertence à classe A, 60% à classe B e 30% à
classe C, a próxima composição social (primeira geração), provavelmente,
será de 23,5% classe A, 51% classe B e 25,5% classe C.
IV- A composição social da segunda geração (posterior a uma próxima),
provavelmente, será de 34,975% classe A, 43,335% classe B e 21,675%
classe C.

121
Assinale a alternativa CORRETA:
a) ( ) Somente o item III está correto.
b) ( ) Somente o item IV está correto.
c) ( ) Os itens I, III e IV estão corretos.
d) ( ) Os itens II, III e IV estão corretos.
e) ( ) Todos os itens estão corretos.

4 Dados os genes A e a, a transmissão de genótipos, na genética clássica, pode


ser descrita por uma matriz de transição de Markov. Classificando, como
Tipo 1 (caracterizado pelo genótipo AA), Tipo 2 (Aa) e Tipo 3 (aa), monte
a matriz de Markov para cruzamentos com o Tipo 3. Sabendo, ainda, que
certa variedade de plantas tem composição genética 20% Tipo 1, 30% Tipo
2 e 50% Tipo 3, encontre X.

122
TÓPICO 3 —
UNIDADE 2

BREVE REVISÃO DA TERMODINÂMICA

1 INTRODUÇÃO
A termodinâmica é uma das mais importantes áreas da física. As aplicações
englobam desde fenômenos corriqueiros até problemas mais fundamentais da
física teórica. Uma herança muito importante da termodinâmica é a entidade
matemática, conhecida como entropia. Além da praticidade, por exemplo, nas
engenharias, a entropia pode ser descrita como uma entidade estatística, assim
como outras quantidades importantes, como pressão e temperatura.

Usando a definição estatística de entropia descoberta por Boltzmann,


como veremos ao longo do curso, a entropia é uma das chaves para fundar
uma nova disciplina, conhecida como Mecânica Estatística. No entanto, para se
estudar mecânica estatística, é didático aprendermos a Teoria Cinética dos Gases,
desenvolvida por Bernoulli e outros. Para compreender a teoria cinética dos
gases, é essencial estarmos familiarizados com os conceitos e as leis que regem a
termodinâmica, que veremos neste último tópico da Unidade 2.

Seguindo o caminho lógico, trabalharemos, no Tópico 3, com uma


revisão da termodinâmica, para, posteriormente, estudarmos a Teoria Cinética
dos Gases e a Mecânica Estatística, na Unidade 3. Começaremos nossos estudos,
neste tópico, observando um pouco da estrutura básica dos fenômenos térmicos.
Posteriormente, reveremos os conceitos de trabalho, calor e entropia, para
terminarmos o tópico introduzindo as três leis que regem a termodinâmica.

2 TERMODINÂMICA: ESTRUTURA BÁSICA


A termodinâmica é a parte da física que estuda os fenômenos térmicos.
Pode-se dizer que as grandezas termodinâmicas básicas são volume V, pressão P
e temperatura T, enquanto as respectivas unidades são as seguintes:

(V) = m3 , (P) = N/m2 e (T) = K.

m representa metro, N, a unidade de força Newton, e, K, a unidade de


temperatura Kelvin.

123
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

O que caracteriza um sistema termodinâmico é uma equação de estado,


esta que pode ser simbolicamente representada por:

f (P, V, T) = 0.

Desde que a equação de estado caracterize um sistema termodinâmico,


matematicamente, pode-se dizer que cada tipo de substância contém uma
equação de estado específica. O chamado gás ideal é descrito pela seguinte
equação de estado:

PV = nRT, (10)

com R sendo a constante universal dos gases ideais e o valor sendo dado por:

R = 8,3143 J / mol K.

O número de moles n é obtido pela fórmula N = n Nª, sendo, N, o número


de moléculas, e, Nª, o número de Avogadro:

Nª = 6,02 x 1023 mol–1.

Desse modo, o número de moles multiplicado pelo número de Avogrado


fornece o número de moléculas contido em uma amostra.

Definindo o volume molar específico:

v = V /N.

Um outro exemplo de equação de estado é a equação para o chamado gás


de Van der Waals, que pode ser expressa como:

sendo a e b constantes com valores diferentes para diferentes tipos de


gases.

Se o volume específico for suficientemente grande, como

124
TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

a equação que descreve o gás de Van der Waals se aproxima da equação


do gás ideal:

Na prática, uma substância qualquer pode ser pensada como um gás


ideal, desde que se esteja trabalhando com grandes volumes específicos.

3 TRABALHO, CALOR E ENTROPIA


Antes de estabelecer as leis que regem a termodinâmica, é preciso introduzir
algumas grandezas importantes. Começaremos estudando a concepção de trabalho W
em processos termodinâmicos.

3.1 TRABALHO
Iniciaremos os nossos estudos a respeito do trabalho recapitulando o
conceito na mecânica newtoniana.

O trabalho, sob uma partícula, é definido como a força aplicada nela vezes
o deslocamento (causado pela aplicação da força). Para uma força constante
paralela ao deslocamento, o trabalho é, formalmente, dado por:

W = Fd,

Sendo, F, a força aplicada, e, d, o deslocamento sofrido pela partícula.


Note que o trabalho é fornecido em termos de força e deslocamento. No entanto,
para analisarmos trabalho em processos termodinâmicos, devemos encontrar
uma fórmula para W e que seja escrita em termos das variáveis termodinâmicas.
Por outro lado, a pressão P pode ser definida como a força aplicada sob uma
determinada área A, ou seja:

Combinando as duas últimas fórmulas, podemos reescrever o trabalho da


seguinte forma:

W = PAd.

125
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Desde que o volume deslocado ΔV seja

ΔV = Ad,

O trabalho fica:

W = PΔV.

Devemos notar que a última forma obtida de trabalho é descrita pelas


variáveis termodinâmicas P e V.

Especificamente, na fórmula anterior, vemos que o trabalho para uma


pressão constante é proporcional à variação de volume que ocorreu no processo
termodinâmico. Desse modo, dizemos que o sistema que estava em um estado
inicial, caracterizado por (Pi , Vi , Ti), “deslocou-se” ao estado final (Pf , Vf , Tf), ao
realizar um trabalho W sobre ou pelo sistema. Se o trabalho foi realizado sobre o
sistema, então:

ΔV = Vf – Vi < 0, Vi > Vf , W < 0.

Caso o trabalho tenha sido realizado pelo sistema:

ΔV = Vf – Vi > 0, Vi < Vf , W > 0.

Nos casos com os quais temos trabalhado até o momento, Pi = Pf.

Em geral, a força aplicada não é constante quando o processo é realizado.


Desse modo, devemos trabalhar com as formas infinitesimais:

e .

sendo, ds, um deslocamento infinitesimal.

Combinando as duas últimas fórmulas, encontramos:

dW = PdV,

e, integrando o resultado final, obtemos o trabalho para uma pressão não


constante diante o processo, isto é:

W = ʃ PdV. (11)

126
TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

Logo, vemos que se P não depende de V, encontramos W = PΔV, uma vez


que:

ʃ dV = ΔV.

De modo geral, podemos escrever V(V) usando uma equação de estado,


sendo que o trabalho pode ser obtido integrando a pressão no volume.

Para ilustrar, é preciso considerar o gás ideal descrito pela equação gases
ideais. Isolando a pressão e integrando ʃ PdV, obtemos:

No caso especial no qual o processo é isotérmico, isto é, a temperatura


permanece constante ao longo da variação do volume:

O integrando fornece ln (V / Vi ), e o trabalho correspondente a um gás


ideal será:

(12)

Para finalizar, observe os gráficos PV a seguir:

127
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

GRÁFICO 11 – P=A/V PARA DIFERENTES VALORES DE A

FONTE: O autor

Por simplicidade, temos fixado a temperatura e graficada a função


P(V) = A/V, com A = 1 (linha azul), A = 2 (linha vermelha), A = 1 (linha verde) e
A = 1 (linha cinza). O trabalho corresponde à área que forma a curva entre o estado
inicial e o final. É útil notar que o trabalho depende da trajetória realizada entre os
estados inicial e final, uma vez que a área compreendida é diferente se a trajetória
for diferente. O sinal depende do sentido do processo. Logo, se o sistema vai do
estado inicial para o final ao longo de uma trajetória e, posteriormente, volta ao
estado inicial, realizando um caminho diferente, o trabalho final deve ser diferente
de zero. Em outras palavras, o trabalho “líquido’’, quando o sistema retorna ao
estado inicial, deve ser não nulo. Simbolicamente, podemos representar esse fato pela
integral fechada:

W = ∮PdV ≠ 0,

desde que o sistema retorne ao estado inicial realizando uma trajetória


alternativa. Caso o sistema retorne pelo mesmo caminho, a integral fechada deve
ser zero.

128
TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

3.2 CALOR
Para o estudo de trabalho, vimos que, em um processo isotérmico, o
trabalho é, basicamente, calculado observando o volume inicial e o final do sistema.
Supomos, agora, que, em um processo, a temperatura de uma determinada
substância sofre alteração, ou seja, Ti ≠ Tf. Dizemos que a temperatura se altera
devido a um fluxo de calor que ocorre entre o sistema e o ambiente externo.

Define-se capacidade térmica C pela expressão:

ΔQ = CΔT' (13)

T = Ti – Tf é a variação de temperatura do sistema, e, Q, a quantidade de


calor. Na forma infinitesimal, a equação (13) fica:

dQ = CdT. (14)

Aqui, vemos que, se um sistema se desloca de um estado (Pi , Vi , Ti) para


um estado (Pf , Vf , Tf), no qual Ti ≠ Tf, dizemos que o sistema recebeu calor se:

ΔT = Tf – Ti > 0, Ti < Tf , ΔQ > 0,

enquanto doou calor se:

ΔT = Tf – Ti > 0, Ti < Tf , ΔQ > 0.

Notamos que C é sempre maior que zero.

Para o caso no qual o volume é inalterado durante o processo, isto é,


Vi = Vf, usa-se a capacidade térmica a volume constante CV, ou seja, C = CV.
Para esse tipo de evolução do sistema, chamamos de isovolumétrico. Já em um
processo isobárico, deve-se usar a capacidade térmica, a pressão constante CP,
sendo C = CP.

Usualmente, usa-se a caloria (cal) como unidade de calor. É uma unidade


de energia, e, assim, é convertida para Joule, como:

1 cal = 4,186 J.

Por sua vez, tendo em vista as expressões (13) e (14), a unidade da


capacidade térmica é cal/K.

Assim como o trabalho, o fluxo de calor depende da trajetória do sistema


entre o estado inicial e o estado final. Para visualizar esse fato, considere a forma
integral de (14), ou seja:

129
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Q = ʃ CdT, (15)

sendo, a integral, realizada entre a temperatura inicial Ti e a final Tf.


De maneira semelhante à análise de que a integral (11) depende do caminho,
a integral (15) também depende, uma vez que, sob esse ponto de vista, C é,
matematicamente, análogo de P, T de V e W de Q.

ATENCAO

Apesar de, usualmente, trabalharmos com C constante, em geral, tomando


grandes variações de temperatura, a capacidade térmica depende da temperatura, isto é, C
= C(T). Desse modo, quando trabalhamos com a equação ∆Q = C ∆T, estamos, na verdade,
trabalhando com a capacidade térmica média entre as temperaturas Ti e Tf.

3.3 ENTROPIA
Antes de estudarmos as leis que regem a termodinâmica, devemos
recapitular uma última variável, conhecida como entropia. Para introduzirmos,
é útil revermos o chamado Ciclo de Carnot. O ciclo consiste em um sistema
termodinâmico regressando ao estado inicial (processo reversível), percorrendo
dois caminhos isotérmicos e dois caminhos adiabáticos.

Conforme Sears e Salinger (1979, p. 115), “para duas temperaturas, θ2 e


θ1, a razão entre as magnitudes de Q2 e Q1, em um Ciclo de Carnot, tem o mesmo
valor para todos os sistemas, qualquer que seja a natureza”. Matematicamente, a
declaração pode ser caracterizada pela expressão:

(16)

f(T2 , T1) é uma função que depende das temperaturas T2 e T1. Para
explicitarmos f (T2 , T1), é preciso considerar o exposto a seguir:

130
TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

GRÁFICO 12 – TRÊS DIFERENTES CICLOS DE CARNOT QUE INCLUEM TRÊS PROCESSOS


ADIABÁTICOS E DOIS ISOTERMAS

FONTE: O autor

Considerando os três ciclos possíveis para o sistema partir de um ponto e


voltar ao estado inicial, podemos escrever as relações:

Dividindo a segunda equação pela terceira e, posteriormente, igualando


com a primeira, obtém-se a expressão:

Supomos, então, uma quarta isoterma, e, assim, realizamos, de forma


idêntica, a análise anterior:

131
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Como T3 ≠ T4, a função f (T2 , T1) deve efetivamente escrita como:

A última expressão, agora, será usada para reescrever (16):

Definindo f (T) = aT, encontramos a importante relação:

(17)

com a sendo uma constante que desaparece na divisão.

Uma vez que o fluxo de calor Q1 é doado pelo sistema, Q1 < 0. Por outro
lado, o fluxo Q2 é recebido do exterior para o sistema, e, logo, Q2 > 0. Assim,
eliminando o módulo em (17):

Da expressão, pode-se concluir que a quantidade definida por Q/T é


nula em um Ciclo de Carnot. Desde que qualquer processo reversível possa ser
admitido como uma aproximação matemática de uma sequência grande de Ciclos
de Carnot, caracterizado por diminutos fluxos de calor Qi associados ao isoterma
Ti, a última expressão pode ser generalizada para:

(18)

Devemos lembrar que a nulidade da equação (18) é válida somente para


processos reversíveis. A versão integral de (18) é:

Ou seja, a integral fechada (retornando ao mesmo ponto) independe do


caminho, ao contrário dos casos com os quais trabalhamos a respeito do calor e
do trabalho.

Se a quantidade dQ/T independe do caminho, é uma propriedade do


sistema, sendo que o valor depende somente dos estados termodinâmicos iniciais
e finais. Define-se, então, a quantidade chamada de entropia S pela diferencial:

132
TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

(19)

A unidade de entropia é J/K.

Como um exemplo de aplicação, é preciso considerar a fórmula (17).


Substituindo-a em (19):

Agora, para encontrar a entropia, basta integrar a equação anterior. Por


simplicidade, considere variações de temperaturas nas quais podemos tratar da
capacidade térmica como constante. No caso:

Integrando os dois lados da equação, obtemos a forma final:

ΔS = C ln (Tf / Ti), (20)

sendo ∆S a variação de entropia durante o processo.

Como segundo exemplo, analise um sistema no qual uma mudança


de fase esteja ocorrendo. Lembramos que, no caso, o calor necessário para tal
mudança é Q = mL, e o valor de L depende da substância. Desde que, no caso, o
fluxo de calor independa da temperatura, a expressão (19) rende:

(21)

Substituindo Q = mL:

com T sendo a temperatura em que ocorre a mudança de fase.

Entretanto, existem os processos irreversíveis. Como foi mencionado, a


fórmula (19) é válida para processos reversíveis. Assim, como calcular a entropia
nos casos irreversíveis? Sendo, a entropia, uma propriedade do sistema, que só
depende dos estados iniciais e finais do sistema, é usual usar a fórmula (19) para
obter a variação de entropia em processos irreversíveis. A ideia é que, uma vez
que o processo irreversível evolui do estado inicial para o final, basta encontrar

133
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

um processo reversível independente que ligue os mesmos estados. Desse modo,


calculamos a variação de entropia usando (19) e transportamos o resultado para o
processo irreversível.

Para ilustrar, para um gás ideal expandido no vácuo, o trabalho é


igual a zero, mas o volume varia. Esse sistema é válido, uma vez que (11)
vale somente para processos reversíveis. Ainda, as paredes que envolvem o
sistema são isolantes, para que não ocorram trocas de calor. Além do mais, a
temperatura permanece constante no processo. Com tais atributos, vemos que
(19) simplesmente menciona que a variação de entropia é nula, mas não é. O que
ocorre é que a fórmula (19) não pode ser aplicada para tal sistema. Sabendo que o
sistema evolui de Vi para Vf, podemos trabalhar analogamente com um gás ideal
em um processo isotérmico, este que contempla:

Q = W.

Como o trabalho é dado por (10) e o processo é reversível, usamos (19)


para derivar o resultado:

(22)

que deve ser exatamente a variação de entropia para o gás em expansão livre.

4 LEIS DA TERMODINÂMICA
Assim como em outras teorias da física, os fenômenos térmicos são,
também, regidos por um conjunto determinado de leis. Por exemplo, na mecânica
clássica, as grandezas básicas de massa, aceleração e força são trabalhadas
observando as três leis de Newton. Na termodinâmica, não é diferente, e as
quantidades de volume, pressão e temperatura devem seguir três leis específicas,
com as quais trabalharemos em seguida.

Historicamente, foram estabelecidas, inicialmente, a primeira e a segunda


lei, e, apenas posteriormente, na década de 1930, como consta em Halliday,
Resnick & Walker (1993), a Lei Zero da termodinâmica.

4.1 LEI ZERO


A lei zero da termodinâmica estabelece o familiar fenômeno de equilíbrio
térmico. Matematicamente, podemos tratar da lei zero da seguinte forma:
dado um corpo, o qual chamaremos de corpo A, a uma temperatura TA, se este
é colocado em contato com um corpo B, a uma temperatura TB, então, os dois
corpos atingem o equilíbrio térmico quando:

134
TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

TA = TB.

Se um terceiro corpo C está em equilíbrio térmico com o corpo A, como

TA = TB,

sendo, TC, a temperatura do corpo C, a terceira lei estabelece que:

TB = TC,

isto é, o corpo C está, também, em equilíbrio térmico com o corpo B.

Segundo Halliday, Resnick & Walker (1993, p. 171), a lei zero menciona
que, “se dois corpos A e B estão em equilíbrio térmico com um terceiro corpo T,
então, estão em equilíbrio térmico um com o outro”.

4.2 PRIMEIRA LEI


Como já mencionamos, a entropia é uma propriedade do sistema, pois
independe da trajetória que o sistema realiza entre os estados inicial e final.
Como vimos, uma forma de darmos o veredito se uma quantidade é ou não uma
propriedade do sistema, é pegar a integral fechada, eu um processo reversível,
e verificar se é zero ou não. Desse modo, tínhamos estudado que dS = dQ/T
representa uma propriedade do sistema, enquanto as quantidades definidas por
dW – PdV e dQ – CdT não representam. É bom salientar que (19) se aplica somente
para processos reversíveis. No entanto, a quantidade extraída da combinação

dQ – dW

é, também, uma propriedade do sistema, mesmo que dQ e dW não sejam.


É útil termos em mente que a exata combinação é uma propriedade do sistema,
isto é, outras combinações, como exemplo, dQ + dW, não são.

Na versão macroscópica, a última relação fica:

Q – W.

Como a última combinação representa alguma propriedade do sistema,


nomeamos, como Primeira Lei da Termodinâmica, a equação:

∆E = Q – W,

sendo, ∆E, a variação da energia interna do sistema.

135
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

Na versão diferencial, a primeira lei é reescrita:

dE = dQ – dW.

Lembrando que o trabalho pode ser representado pela equação dW = PdV.


Ainda, podemos reescrever a primeira lei:

dE = –dW = –PdV.

A seguir, analisaremos alguns casos especiais referentes à primeira lei.

Primeiro Caso: Processo cíclico

Como estivemos analisando, a energia interna é estabelecida,


matematicamente, por uma combinação, que é uma propriedade do sistema.
Logo, se o sistema retorna ao estado inicial, a variação de energia interna é,
também, igual a zero: ∆E = 0. Usando esse fato na primeira lei, encontra-se:

dQ = dW = PdV.

Segundo Caso: Processo adiabático reversível

Em um processo adiabático, o sistema não troca calor com o ambiente em


tal processo, ou seja, Q – 0. Desse modo, a primeira lei assume a seguinte forma:

dE = –dW = –PdV.

Terceiro Caso: Processo isovolumétrico reversível

Em um processo isovolumétrico, o volume não varia nesse processo, isto


é, dV = 0. Logo, o trabalho também é nulo, assim, a primeira lei correspondente a
esse caso dá:

dE = dQ.

Para finalizar essa parte, vale mencionar que, para um gás ideal,
com equação de estado (10), a energia interna só depende da temperatura.
Explicitamente, a energia interna é dada por:

(23)

Com o advento da física estatística, deve ficar claro que essa dependência
está relacionada com o fato de que a energia das componentes internos do gás
contém apenas contribuições cinéticas, isto é, para um gás ideal, não ocorrem
interações entre tais componentes, gerando a energia potencial nula.

136
TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

4.3 SEGUNDA LEI


Para iniciarmos nossa discussão um tanto mais formal acerca da segunda
lei, é preciso, antes, introduzir três exemplos práticos. Imaginemos um corpo A e
um reservatório B com temperaturas iniciais de TA e TB. Ao colocarmos em contato,
a temperatura do corpo A aumenta até atingir TB, enquanto a temperatura do
reservatório permanece constante. Desde que, inicialmente, exista uma diferença de
temperatura entre A e B, o processo em questão é de natureza irreversível.

Sendo, a entropia, uma propriedade do sistema, que só depende dos


estados iniciais e finais do sistema, é usual usar a fórmula (19) para obter a
variação de entropia em processos irreversíveis. Com isso em mente, podemos
usar a fórmula (20) para calcular a variação de entropia no corpo A, uma vez que
o sistema evolui de TA para TB.

Explicitamente, para o corpo A, teremos:

ΔSA = C ln (TB / TA).

Já para o reservatório, a temperatura não muda, então, podemos usar,


nesse caso, (21):

ΔSB = QB / TB.

A temperatura do corpo A variou no momento em que o reservatório


cedeu QA = – Q para o corpo A. Desde que o corpo A recebeu uma quantidade de
calor dada pela seguinte fórmula:

QA = +Q = C (TB – TA),

podemos reescrever a variação de entropia do reservatório:

ΔSB = C (1 – TB / TA).

Para verificarmos a variação de entropia do sistema AB, basta somarmos


ΔSA com ΔSB. Explicitamente, teremos:

com x – TB /TA. Para analisarmos o resultado, basta observarmos o gráfico


a seguir, tomando C = 1:

137
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

GRÁFICO 13 – GRÁFICO DA FUNÇÃO

FONTE: O autor

Como podemos ver, para todo x > 1, obtemos:

ΔSA + ΔSB > 0. (24)

Ou seja, para o sistema composto AB, a entropia aumenta.

Em uma outra situação, imaginemos dois corpos A e B com capacidades


térmicas idênticas C e, respectivamente, temperaturas iniciais de T + ∆T e T – ∆T.
Queremos colocar os corpos A e B em equilíbrio térmico, mas necessitamos
criar um processo reversível e aplicar (19). Para isso, pode-se considerar um
reservatório R com a temperatura controlada externamente. A ideia é colocar, em
contato térmico, R e A, com a temperatura do reservatório T + ∆T. Ainda, colocar
em contato R e B, com a temperatura do reservatório T – ∆T. Note que, nos dois
casos, a temperatura entre os corpos e o reservatório são as mesmas. Em ambos os
casos, vai sendo alterada a temperatura de R lentamente, até atingir o valor T. Ao
fim, os corpos A e B estarão em equilíbrio térmico, com temperatura T.

Usando a fórmula (20) para A, teremos:

ΔSA =C ln [T / (T-ΔT)] > 0,


138
TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

uma vez que T – ΔT < T. Similarmente, para B, obtém-se:

ΔSB =C ln [T/(T + ΔT)] < 0,

desde que T + ΔT > T . Para verificarmos a variação de entropia do sistema


AB, basta somarmos, novamente, ΔSA com ΔSB. Explicitamente, teremos:

ΔSA + ΔSB = C ln [T 2 /(T 2 – ΔT 2)],

sendo usados a ln b = ln ba, ln(ab) = ln a + ln b e ln(a/b) = ln a – ln b. Com


a expressão T 2 – ΔT 2 < T 2 válida, concluímos que (24) é satisfeita novamente.

Para finalizar nossos exemplos antes de conhecermos a segunda lei,


consideraremos o fenômeno de difusão. Considerando dois gases A e B
armazenados em uma caixa e separados por uma placa, a difusão ocorre quando
se fura a placa e os dois gases se misturam homogeneamente. Os gases A e B
dobram os volumes iniciais. Esse sistema pode ser tratado como dois gases em
expansão livre e, então, a fórmula (22) pode ser usada para cada gás. Desse modo,
a variação de entropia do sistema será:

ΔSA + ΔSB = 2nR ln(2).

Como ln (2) > 0, podemos concluir que a expressão (24) é válida novamente.

Temos visto que, nos três casos analisados, a entropia total do sistema
aumentou. Tais fatos servem como base para anunciarmos a Segunda Lei da
Termodinâmica como um princípio de aumento de entropia. Assim, pode-se
declarar o princípio de aumento de entropia como:

A entropia do universo sempre aumenta em um processo irreversível.

O termo universo é usado querendo mencionar um sistema que está


isolado termicamente, ou seja, que não troca calor com nenhum outro meio.
Pode ser um sistema contido dentro de uma fronteira adiabática, por exemplo,
um gás dentro de uma caixa em que a parede seja um isolante térmico, ou como
o próprio universo, não havendo um meio externo a ele, isto é, não tem como
trocar calor. Para um processo reversível, a entropia do sistema permanece
constante. Desse modo, para abarcar processos reversíveis e irreversíveis,
pode-se anunciar, de maneira geral, a segunda lei, segundo Nussenzveig (2002,
p. 230), como: “a entropia de um sistema termicamente isolado nunca pode
decrescer: não se altera quando ocorrem processos reversíveis, mas aumenta
quando ocorrem processos irreversíveis”.

Matematicamente, podemos formular a segunda lei como:

ΔS ≥ 0

para qualquer sistema termicamente isolado.


139
UNIDADE 2 — FÓRMULA DE BAYES, PROCESSOS ESTOCÁSTICOS E BREVE REVISÃO DA TERMODINÂMICA

LEITURA COMPLEMENTAR

MAIS UMA RAZÃO ESSENCIAL PARA ESTIMAR A INCERTEZA

Nate Silver

A incerteza constitui uma parte essencial e inegociável de todas as


previsões. Como vimos, uma expressão honesta e precisa dela é o que pode, às
vezes, salvar bens e vidas. Em outros casos, como na negociação de ações ou ao
apostar em um time da NBA, talvez, você consiga se apoiar na sua capacidade
de prever a incerteza. Entretanto, há mais uma razão para quantificar, de forma
cuidadosa e explícita, a incerteza: isso é essencial para o progresso científico, em
especial, segundo o teorema de Bayes.

Suponhamos que você tenha começado o ano de 2001 com uma forte
crença na hipótese de que as emissões de carbono pelas indústrias continuariam
a causar uma elevação da temperatura. (Na minha opinião, tal crença teria sido
apropriada, devido ao forte entendimento das causas do efeito estufa e dos
indícios empíricos a seu favor). Digamos que você tenha atribuído uma chance
de 95% à hipótese de o aquecimento global ser verdadeira. Então, você observa
novos indícios: ao longo da próxima década, de 2001 a 2011, as temperaturas
globais não se elevam. Na verdade, chegam a cair, ainda que pouco. Pelo teorema
de Bayes, você deveria revisar, pelo menos, a estimativa da probabilidade de
aquecimento global.

Se você tivesse chegado a uma estimativa adequada da incerteza presente


nos padrões de temperatura a curto prazo, a revisão seria acentuada. Como
descobrimos, há uma chance de 15% de não haver aquecimento global ao longo de
uma década, mesmo que essa hipótese seja verdadeira, por causa da variabilidade
climática. Por outro lado, se as mudanças de temperaturas forem aleatórias e
imprevisíveis, haverá 50% de chance de uma década com queda na temperatura,
uma vez que as variações para cima ou para baixo são igualmente prováveis. Por
outro lado, se você afirmasse existir apenas 1% de chance de as temperaturas não
se elevarem ao longo da década, sua teoria estaria em situação muito pior, porque
você alegou que esse era um teste mais definitivo. De acordo com o teorema de
Bayes, a probabilidade que você atribuiria à hipótese do aquecimento global
cairia para apenas 28%.

O mais poderoso indício contra nossa hipótese é levarmos adiante


alegações confiantes que não se concretizam. Quando isso acontece, não
podemos culpar ninguém por perder a fé em nossas previsões, pois as pessoas
estão seguindo a lógica bayesiana.

140
TÓPICO 3 — BREVE REVISÃO DA TERMODINÂMICA

Que motivações temos para fazer alegações mais confiantes, especialmente,


quando, na verdade, elas têm o respaldo dos indícios estatísticos? As pessoas têm
todos os tipos de razões para fazer isso. No debate a respeito do clima, talvez seja
porque essas alegações mais confiantes podem parecer mais persuasivas, e podem
ser, se estiverem corretas. Atribuir todas as anomalias do tempo às mudanças
climáticas causadas pela ação do homem é um jogo arriscado, mais enraizado na
política do que na ciência. Existe pouco consenso em relação às maneiras como
a mudança climática pode se manifestar, além do aumento da temperatura e da
provável elevação dos níveis do mar. É óbvio que a afirmação de que qualquer
nevasca é uma prova contra a teoria é igualmente ridícula.

FONTE: SILVER, N. O sinal e o ruído: por que tantas previsões falham e outras não. Rio de
Janeiro: Intrínseca, 2012, p. 414-416.

141
RESUMO DO TÓPICO 3
Neste tópico, você aprendeu que:

• A descrição termodinâmica de um sistema é regida por uma equação de estado.

• Existem grandezas, como trabalho e calor, que dependem do caminho em um


processo termodinâmico.

• Existem grandezas, como entropia e energia interna, que independem do


caminho em um processo termodinâmico.

• A primeira e a segunda lei da termodinâmica são construídas em termos das


propriedades do sistema, isto é, das grandezas que independem da trajetória
tomada pelo sistema.

CHAMADA

Ficou alguma dúvida? Construímos uma trilha de aprendizagem


pensando em facilitar sua compreensão. Acesse o QR Code, que levará ao
AVA, e veja as novidades que preparamos para seu estudo.

142
AUTOATIVIDADE

1 Um sistema termodinâmico é caracterizado por uma equação de estado:

f (P , V, T) = 0.

Por exemplo, para o chamado gás ideal, nós temos a equação de estado que o
caracteriza:

f (P , V, T) = P V – nRT.

Desse modo, sabendo da equação de estado que obedece a uma determinada


substância, podemos derivar o comportamento de certas grandezas. Por
exemplo, podemos obter o trabalho realizado por um gás ideal, usando a
equação de estado, através da fórmula:

W = ʃ PdV.

Com as informações, demonstrando os resultados, classifique V para as


sentenças verdadeiras e F para as sentenças falsas:

( ) A fórmula a seguir,

representa o volume final associado a um gás ideal em um processo


isotérmico.
( ) Em um processo isobárico, o trabalho realizado quando o volume final é
sete vezes o volume inicial é: W = –6PVi.
( ) Em um processo adiabático, o trabalho realizado quando o volume final é
sete vezes o volume inicial é: W = 8PVi.
( ) Em um processo isovolumétrico, o trabalho realizado é nulo.

2 Podemos analisar um processo termodinâmico ao observar o gráfico PxV.


Por exemplo, no gráfico a seguir, serão mostradas possíveis evoluções de
um sistema de gás ideal:

143
No gráfico, vemos quatro isotermas e duas possíveis evoluções adiabáticas.
Assim, analisando o gráfico dado e os itens a seguir:

I- Para a temperatura T2, associada ao isoterma 2, e para a temperatura T3,


associada ao isoterma 3, temos T2 > T3.
II- Para um processo que se inicia em V = 3 m3, e evolui para V = 2 m3 pelo
isoterma 1, o trabalho será maior se, em um ciclo de Carnot, o sistema
regressar ao estado inicial pelo isoterma 3 do que regressar pela isoterma 2.
III- Para os dois diferentes processos do item b), são válidas as seguintes
fórmulas: T2 = – (Q2 / Q1 ) T1 e Q3 = – (T3 / T1 )Q1.

IV- Uma vez que é válido, podemos concluir que, em um único

Ciclo de Carnot,

Assinale a alternativa CORRETA:


a) ( ) Somente o item IV está correto.
b) ( ) Somente o item III está correto.
c) ( ) Os itens III e IV estão corretos.
d) ( ) Os itens I e III estão corretos.
e) ( ) Os itens II e IV estão corretos.

144
3 A primeira e a segunda lei da termodinâmica foram construídas em termos
das chamadas propriedades do sistema. Tais grandezas termodinâmicas
dependem, apenas, dos estados inicial e final do sistema, e, por isso,
desenvolvem papéis fundamentais dentro da teoria. Assim, com base nos seus
conhecimentos da primeira, da segunda lei e das fundamentações, classifique
V para as sentenças VERDADEIRAS e F para as sentenças FALSAS:

( ) A combinação: dQ + dW independe da trajetória realizada por um sistema


termodinâmico.
( ) A quantidade é uma propriedade do sistema e nunca decresce.
( ) Podemos representar, matematicamente, a primeira lei da termodinâmica,
como: dE = dQ – dW.
( ) Assim como a entropia, o trabalho é uma propriedade do sistema.

4 A Segunda Lei da Termodinâmica é uma declaração a respeito do princípio


de aumento de entropia. Segundo Nussenzveig (2001, p. 230), “a entropia
de um sistema termicamente isolado nunca pode decrescer: não se altera
quando ocorrem processos reversíveis, mas aumenta quando ocorrem
processos irreversíveis”. Assim, referente à entropia e à segunda lei, assinale
a alternativa CORRETA:

a) ( ) Em um processo termodinâmico, sempre é válida a declaração


matemática: ∆S = 0.
b) ( ) A entropia é uma propriedade do sistema, desde que para
uma a integral aberta.
c) ( ) Em um processo reversível, ∆S < 0, já em um processo irreversível, ∆S > 0.
d) ( ) Em um processo irreversível, ∆S > 0.

e) ( ) A fórmula é inválida para processos reversíveis.

145
146
REFERÊNCIAS
HALLIDAY, D.; RESNICK, R.; WALKER, J. Fundamentos de física: gravitação,
ondas e termodinâmica. Rio de Janeiro: LTC – Livros Técnicos e Científicos
Editora S.A., 1993.

NUSSENZVEIG, H. M. Curso de física básica 2: fluido, oscilações e ondas,


calor. São Paulo: Editora Blucher, 2002.

PENA, S. D. Thomas Bayes: o ‘cara’! Ciência Hoje, v. 38, n. 228, p. 1, 2006.

SEARS, F. W. P.; SALINGER, J. Termodinâmica, teoria cinética e


termodinâmica estatística. Rio de Janeiro: Editora Guanabara, 1979.

TOUSSAINT, U. Bayesian inference in physics. Review of Modern Physics, v.


83, n. 1, p. 1, 2011.

TROTTA, R. Bayes in the sky: Bayesian inference and model selection in


cosmology. Contemporary Physics, v. 49, n. 2, p. 1, 2008.

147
148
UNIDADE 3 —

APLICAÇÕES DE PROBABILIDADE E
ESTATÍSTICA EM FÍSICA

OBJETIVOS DE APRENDIZAGEM
A partir do estudo desta unidade, você deverá ser capaz de:

• desenvolver as diversas aplicações de probabilidade e de estatística em


física;

• formalizar algumas ideias básicas da Teoria Cinética dos Gases e obter os


elementos da termodinâmica a partir dela;

• introduzir e desenvolver as noções básicas da mecânica estatística;

• aplicar as ideias de processos estocásticos para descrever o movimento


browniano;

• entender o papel da probabilidade na mecânica quântica.

PLANO DE ESTUDOS
Esta unidade está dividida em três tópicos. No decorrer da unidade,
você encontrará autoatividades com o objetivo de reforçar o conteúdo
apresentado.

TÓPICO 1 – TEORIA CINÉTICA DOS GASES

TÓPICO 2 – MECÂNICA ESTATÍSTICA

TÓPICO 3 – OUTRAS APLICAÇÕES EM FÍSICA

CHAMADA

Preparado para ampliar seus conhecimentos? Respire e vamos


em frente! Procure um ambiente que facilite a concentração, assim absorverá
melhor as informações.

149
150
TÓPICO 1 —
UNIDADE 3

TEORIA CINÉTICA DOS GASES

1 INTRODUÇÃO
Conceitos familiares, como calor e temperatura, foram desenvolvidos nos
estudos dos ditos fenômenos térmicos observados na natureza. Paralelamente,
partindo de uma visão atomista para compreender certas propriedades dos
gases, estiveram, também, desenvolvidas ideias estatísticas, para derivar,
alternativamente, algumas leis termodinâmicas conhecidas naquelas épocas.
Posteriormente a algumas ideias pioneiras desenvolvidas por Gassendi e Hooke,
no século XVII, a formulação de uma teoria cinética dos gases remonta ao tratado
de Bernoulli, no século XVIII. A ideia básica é tratar de um gás qualquer como
um conjunto de partículas ou moléculas formadas por pequenas entidades
sujeitas às leis da mecânica clássica. Desde que um gás deva, em tese, conter uma
quantidade enorme de entidades, a necessidade de uma interpretação estatística
emerge naturalmente. Assim, na Teoria Cinética dos Gases, a visão atomista é
fundamental para a interpretação estatística da termodinâmica.

Começaremos nossos estudos apresentando as hipóteses básicas que


serão essenciais para o desenvolvimento posterior da teoria. No que segue,
formularemos temperatura e pressão através de preceitos estatísticos e uma
noção básica de entropia. Mostraremos, também, que é um direito obter algumas
leis termodinâmicas dentro desse contexto.

2 TEORIA CINÉTICA DOS GASES: HIPÓTESES BÁSICAS


Com o posterior desenvolvimento moderno de tais ideias, as entidades
podem, em geral, ser tratadas como partículas sujeitas às leis da mecânica
clássica, ou como partículas sujeitas às teorias quânticas. No entanto, como o
desenvolvimento histórico, trataremos das ideias básicas da teoria cinética dos
gases como partículas clássicas.

Para a evolução dos nossos estudos, consideraremos cinco hipóteses


básicas fornecidas por Nussenzveig (2002):

• O gás é constituído de um número extremamente grande de moléculas idênticas.


• O tamanho de uma molécula de gás é desprezível em confronto com a distância
média entre as moléculas.
• As moléculas estão em movimento constante em todas as direções.

151
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

• As forças de interação entre as moléculas são de curto alcance, atuando somente


durante as colisões.
• As colisões entre as moléculas e as paredes do recipiente são perfeitamente
elásticas.

As hipóteses são válidas para gases homogêneos compostos de substâncias


puras. No que segue, estudaremos a temperatura e a pressão sob uma interpretação
estatística, e obteremos algumas leis termodinâmicas. Finalizaremos observando
como a entropia pode ser pensada a partir de uma interpretação estatística.

3 TEMPERATURA: INTERPRETAÇÃO ESTATÍSTICA


No Tópico 3 da Unidade 2, vimos que pressão, temperatura e volume
são grandezas que determinam os estados termodinâmicos. Além disso, vimos,
também, a emergência das quantidades de energia interna e entropia, que são
propriedades do sistema. Dando continuidade aos nossos estudos, observaremos
tais entidades sob o ponto de vista estatístico. Iniciaremos estudando o conceito
de temperatura na visão estatística.

Para começar, é preciso considerar um sistema de moléculas (ou


partículas), estas que podem ser organizadas por um quadro de frequências da
seguinte maneira:

QUADRO 1 – DISTRIBUIÇÃO DE ENERGIA DE UM SISTEMA DE MOLÉCULAS

n1 E1
n2 E2
n3 E3

⁞ ⁞
nk Ek

FONTE: O autor

Aqui, ni é o número de partículas ou moléculas com um dado valor de


energia Ei. A somatória em ni determina o número total de moléculas n (ou
partículas). Matematicamente:

A partir daqui, chamaremos os componentes do gás de moléculas, ficando


subtendido que, em geral, podem ser moléculas ou partículas.

152
TÓPICO 1 — TEORIA CINÉTICA DOS GASES

Em uma visão atomista de mundo, a temperatura é imaginada por ter


relação direta com a energia média extraída do conjunto das moléculas individuais
do sistema. Como já foi abordado no estudo de estatística na Unidade 1, para
encontrarmos a média de uma grandeza fornecida por uma tabela de frequências,
devemos usar a média ponderada. Assim, a energia média extraída do sistema,
representado pelo quadro de frequências anterior, é dada por:

NOTA

No estudo da probabilidade e da estatística na Unidade 1, tínhamos usado,


como notação para o valor médio em estatística, E, isto é, com um subscrito. Já no
estudo da probabilidade, a notação <> indicava o valor esperado. A partir daqui, é preciso
unificar a notação usando apenas <> para o valor médio (ou esperado). Isso pode ser
justificado, uma vez que a frequência e a probabilidade indicam o peso estatístico de uma
determinada quantidade.

Por simplicidade, podemos considerar sistemas a partir dos quais a


energia Ei de cada grupo ni de moléculas é unicamente fornecida pela energia
cinética associada Ki , ou seja:

Ki = Ei.

No caso, ainda, devemos nos restringir ao caso em que a energia interna do


sistema é dada pela energia cinética de translação média. Em termos matemáticos:

E = <K>. (1)

O caso só é válido para moléculas monoatômicas. Para casos mais gerais,


devemos considerar outras contribuições, como a energia cinética de rotação e
de vibração.

Como mencionamos no último tópico da unidade anterior, para um gás


ideal, a energia interna do sistema depende somente da temperatura. Exatamente,
essa dependência é dada através da equação (23) da Unidade 2. Desse modo,
podemos combinar (23) (Unidade 2) com (1), para derivar, explicitamente, a ideia
inicial de que a temperatura é uma medida estatística das energias individuais
das moléculas.

153
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Combinando tais expressões, obtemos a seguinte relação:

(2)

Note que a temperatura depende, basicamente, da energia cinética média,


uma vez que k é a constante de Boltzmann.

A seguir, analisaremos uma situação, a fim de entender o papel estatístico


e as possíveis implicações.

Exemplo: atmosfera planetária

Sabe-se que, para um determinado planeta (ou corpo celeste, em geral),


existe uma velocidade de escape ve, que pode ser derivada através da lei da
gravitação universal de Newton. Em termos físicos, a velocidade de escape é
a velocidade que, se um objeto alcançar, nas mediações de um corpo massivo,
terá energia cinética suficiente para escapar do campo gravitacional do corpo.
Em outras palavras, é a velocidade necessária para que um corpo não fique
aprisionado no campo gravitacional gerado por um corpo massivo. A velocidade
de escape ve, para um corpo de massa M e em uma certa distância r do centro de
massa, é a seguinte:

Sendo G a constante gravitacional de Newton>.

Por outro lado, podemos imaginar que, na superfície desse corpo, encontra-
se uma atmosfera sujeita a uma temperatura T. Da equação (2), encontramos que a
velocidade quadrática média v2q, associada às moléculas, é:

(3)

Assim, usamos, para a energia cinética média, a relação:

(4)

Aqui m denota a massa de uma única molécula. Como podemos observar,


a equação (3) fornece a velocidade quadrática média em razão da temperatura
sentida pela atmosfera. Usando a velocidade de escape e a equação (4), podemos
estabelecer, matematicamente, se um planeta consegue ou não aprisionar certa
composição atmosférica.

154
TÓPICO 1 — TEORIA CINÉTICA DOS GASES

Para entendermos o processo, devemos ter em mente que, por trás dessa
média, existe uma distribuição estatística que leva para tal valor médio. Por
exemplo, para gases ideais, a distribuição estatística de velocidades é dada pela
distribuição de Maxwell:

(5)

A distribuição de Maxwell é uma distribuição contínua e, assim, a


velocidade quadrática média é definida como:

Por comodidade, para as nossas análises, trabalharemos com a distribuição


simplificada:

Tal distribuição de Maxwell (para T = 1, 2, 3, 4 K) será representada a seguir:

GRÁFICO 1 – DISTRIBUIÇÃO DE MAXWELL PARA DIFERENTES TEMPERATURAS

FONTE: O autor

155
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

No gráfico, a linha azul é a curva para T = 1 K, enquanto as linhas vermelha,


verde e cinza são para T = 1, 2, 3, 4 K, respectivamente.

É importante notar que, por mais que a velocidade média seja menor do
que a velocidade de escape, há um grupo de moléculas nas quais as velocidades
individuais superam o valor dessa velocidade. Por exemplo, se supormos uma
velocidade de escape igual a quatro, vemos, no gráfico, que, para temperaturas
maiores, um grupo maior de moléculas tem velocidades que superam a velocidade
de escape. Assim, tais moléculas desse grupo têm energia cinética suficiente para
escapar do planeta ou do corpo.

Como pode ser visto em Oliveira e Saraiva (2013), pode-se mostrar que se:

ve ≤ 6v q,

o corpo manterá a atmosfera durante grande parte da história.

Reescrevendo (18) como:

concluímos que, se vq < ve /6, a temperatura, na superfície do corpo celeste,


deve ser:

para possuir uma atmosfera daquela substância. Substituindo a velocidade


de escape, encontra-se:

Assim, sabendo da massa do corpo celeste, do raio e da temperatura na


superfície, podemos dizer se uma atmosfera específica (composta de moléculas
de massa m) se manterá aprisionada nesse corpo.

DICAS

Um outro bom exemplo é discutido por Feynman (2000), no livro Física em


Seis Lições. Ele trata do processo de evaporação da água para temperaturas abaixo de 100
graus Celsius, isto é, do ponto de evaporação da água. A pergunta é: como a água evapora
quando a temperatura está abaixo do ponto de fusão? A explicação para tal fenômeno
envolve estatística e é similar ao caso abordado anteriormente, no caso do planeta.

156
TÓPICO 1 — TEORIA CINÉTICA DOS GASES

4 PRESSÃO: INTERPRETAÇÃO ESTATÍSTICA


Para compreender a pressão sob o ponto de vista estatístico, estudaremos
um gás confinado em uma caixa. Devemos considerar o gás como um conjunto
de moléculas microscópicas satisfazendo hipóteses básicas estabelecidas
anteriormente. Tais hipóteses exigem que as colisões entre as moléculas e a
parede são de natureza elástica, isto é, o momento final de uma molécula, em
uma certa direção após uma colisão com a parede, é menos o momento inicial.
Para o sistema, temos a conversão do momento linear nessa direção, dada pela lei
de conservação:

pi + q i = pf + qf .

Aqui, q indica o momento linear referente à parede, enquanto p é referente à


molécula. Em contrapartida, o momento inicial da parede é zero:

pi = pf + qf .

Uma vez que o momento linear inicial da molécula em direção à parede


é pi = mvx, o momento final será pf = – mvx, desde que estamos tratando de
colisões elásticas. Substituindo os momentos inicial e final, obtemos que a
variação do momento linear da parede será:

∆q = qf = 2m vx .

Uma dada molécula deve colidir elasticamente com a parede à esquerda,


voltar e colidir elasticamente com a parede da direita e, então, novamente, colidir
com a parede da esquerda. Desse modo, o tempo em que a partícula transmite o
momento 2 mvx para a parede à direita é de:

∆t = 2X / vx, (6)

X é a distância entre as paredes.

Considerando n partículas colidindo com a parede com velocidade vx, a


variação do momento linear da parede fica:

∆q = 2nm vx.

Agora, supomos que n1 moléculas colidem com velocidade v1x, n2


moléculas colidem com velocidade v2x, e assim por diante. Podemos construir
um quadro de frequências:

157
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

QUADRO 2 – DISTRIBUIÇÃO DE VELOCIDADES DE UM SISTEMA DE MOLÉCULAS QUE COLIDEM

n1 v1x
n2 v2x
n3 v3x

⁞ ⁞
nk vkx

FONTE: O autor

A distribuição estatística dada é gerada pela variação do momento da parede:

q = 2m Σ ni vix. (7)

Para uma taxa de colisão constante ao longo do tempo, a força newtoniana


pode ser escrita como:

(8)

Sendo, a variação do momento na parede, ∆p = ∆q, podemos substituir a


equação (7) na (8), para encontrarmos:

Lembrando que o tempo em que cada molécula colide com a parede é


fornecido pela expressão (6), a última expressão fica:

Logo, vemos que a força com a parede depende das velocidades das
moléculas ao quadrado.

No caso em questão, o volume da caixa pode ser escrito em termos da


distância percorrida X e da área A = YZ da parede, isto é, V = XA. Isolando X e
substituindo na última expressão de força, obteremos:

(9)

158
TÓPICO 1 — TEORIA CINÉTICA DOS GASES

Para obtermos a forma final da força sobre a parede, devemos lembrar da


definição de valor médio, escrito em termos de frequência:

Com a última fórmula, a força (9) se torna:

(10)

Agora, estamos aptos a usar a fórmula (10) para encontrar a pressão


exercida na parede sob a área A.

Lembramos que a pressão é definida como a força dividida pela área:


P = F/A. Combinando esse fato com a fórmula (10), derivamos a pressão que atua
sob a parede de área A. Tem-se:

Considerando o caso isotrópico, no qual, estatisticamente, as moléculas


se deslocam igualmente sob todas as direções, temos a seguinte relação para
velocidades quadráticas médias:

< v2ix > = <v2iy > = < v2iz >.

Como:

<v2 > = <v2ix > + <v2iy > + <v2iz>,

obtemos que a velocidade ao quadrado média, na direção x, é:

Desse modo, usando a última relação e a fórmula (4) para a energia


cinética média, podemos reescrever a pressão:

(11)

Assim, pela expressão anterior, vemos que a pressão, sob a parede,


depende do número de moléculas, do volume e da energia cinética média.

159
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

DICAS

Para uma boa compreensão conceitual acerca dos assuntos estudados neste
tópico e no próximo, é sugerida a visualização dos seguintes links: https://www.youtube.
com/watch?v=h8frudcqEf0 e https://www.youtube.com/watch?v=vNEhFxvaMkY.

5 DERIVANDO E REINTERPRETANDO ALGUMAS LEIS


TERMODINÂMICAS
Além das grandezas, como temperatura e pressão, obtidas até aqui,
podemos, também, derivar e reinterpretar algumas leis conhecidas da
termodinâmica. A fim de obtermos novas interpretações, antes de prosseguirmos,
reorganizaremos a equação (11) da seguinte maneira:

(12)

Na tentativa de fazermos apenas uma pequena ilustração, trabalharemos


com a Lei dos Gases Ideais, já vista anteriormente, a Lei de Boyle e a Lei de Dalton.

5.1 LEI DOS GASES IDEAIS


Iniciaremos derivando a primeira delas, que é a Lei dos Gases Ideais.
Notamos que a expressão (12) é dada em termos da pressão, do volume e da
energia cinética média. No entanto, se considerarmos que a energia cinética pode
ser escrita em termos da temperatura do sistema pela equação (2), podemos
remover a energia cinética média de (12), substituindo-a pela temperatura.

Seguindo tais passos mencionados anteriormente, encontraremos:

PV = nRT. (13)

Comparando (10), da Unidade 2, com (13), vemos que a equação (28) é


exatamente a expressão que fornece a Lei dos Gases Ideais.

160
TÓPICO 1 — TEORIA CINÉTICA DOS GASES

5.2 LEI DE BOYLE


Agora, reinterpretaremos a chamada Lei de Boyle. Tal lei é fornecida pela
seguinte expressão matemática:

PV = CONSTANTE.

Desde que:

nRT = CONSTANTE,

uma vez que R é uma constante e n tem o valor fixado, inicialmente,


podemos concluir que a temperatura será, neste caso, constante. Como a
temperatura se relaciona com a energia cinética através de (2), concluímos que:

< K > = CONSTANTE.

Ou seja, a lei de Boyle é válida quando a energia cinética média das


moléculas do sistema não se altera.

5.3 LEI DE DALTON


Consideraremos, agora, uma mistura de gases ideais que não reagem
quimicamente entre eles, e que tal mistura se comporta, também, como um gás ideal.

T é uma temperatura submetida à mistura, e V é um volume que ela ocupa.


A Lei Experimental de Dalton é verificada observando que a pressão do sistema
misturado é igual à soma das pressões, com cada gás ocupando, isoladamente,
o mesmo volume, com a mesma temperatura e com a mesma massa relativa que
havia na mistura. Tal fato pode ser expresso, matematicamente, como:

P = PA + PB + PC + ... .

Aqui, PA é a pressão de um gás específico, PB, de outro, e assim por


diante. Usando a Lei dos Gases Ideais (13), as equações de cada gás, ocupando
esse mesmo volume com a mesma temperatura, são escritas como:

PAV = nA RT,
PBV = nB RT,
PCV = nC RT,

e assim por diante.

161
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Agora, por exemplo, devemos reparar que, substituindo (11) na primeira


expressão, obtemos:

Repetindo os mesmos passos para as demais pressões, encontramos


, , e assim por diante.

Podemos notar que as energias cinéticas médias associadas a cada


substância são as mesmas, isto é:

< K A > = < KB > = < K C > = ....

Podemos concluir que, em uma mistura de gases, a energia cinética referente


a um determinado gás é exatamente a mesma, em comparação aos demais gases.
Isso pode ser entendido como um princípio de equipartição de energia. A seguir,
veremos um exemplo que mostrará uma implicação do resultado.

Exemplo: Relação massa/velocidade quadrática média

Sendo a energia cinética média dada por (4), teremos as igualdades:

Aqui, mA indica a massa de uma molécula que compõe o gás A, e assim


por diante. Note que, como, em geral, as massas são diferentes, uma vez que são
gases formados por moléculas diferentes, a velocidade quadrática média deve
compensar essa diferença, a fim de tornar as energias cinéticas médias iguais.
Por exemplo, se, em uma mistura de dois gases, as moléculas do gás B tiverem
dez vezes a massa das moléculas do gás A, a velocidade quadrática média do
gás B será:

< v 2A > = 10 < v 2B >.

Isto é, a velocidade quadrática média do gás A é dez vezes maior do que


a do gás B.

162
TÓPICO 1 — TEORIA CINÉTICA DOS GASES

6 ENTROPIA: INTERPRETAÇÃO ESTATÍSTICA


Agora, analisaremos as equações (2) e (3) para introduzirmos o conceito
estatístico de entropia, sem adentrar, ainda, na formulação matemática mais
rigorosa, elaborada na Mecânica Estatística. Das equações mencionadas,
podemos encontrar a pressão e a temperatura desde que possamos conhecer
o número de moléculas n, o volume V e a energia cinética média < K >, que,
no caso, é a própria energia média. De maneira inversa, dado um sistema
macroscópico com certa pressão, volume e temperatura, podemos encontrar,
através daquelas equações, um possível estado microscópico do sistema. Note
que o termo possível foi usado desde que outros estados podem, também, ser
igualmente possíveis. Seguiremos elaborando o conceito:

Sendo um estado termodinâmico W caracterizado por:

W = (P, V, T),

podemos usar (2) e (3), encontrando:

W = (2n < K > / 3V, V, < K > / 3k ).

Desse modo, podemos caracterizar esse estado termodinâmico


alternativamente:

W = (n, V, < K >).

Assim, nosso sistema é, agora, caracterizado em termos da energia


cinética média, do número de moléculas e do volume ocupado.

Como temos visto anteriormente, desde que < K > seja a energia
cinética média por molécula, podemos decompor o sistema em um quadro
de frequências, ou seja:

QUADRO 3 – DISTRIBUIÇÃO DE ENERGIA DE UM SISTEMA QUALQUER I

n1 K1
n2 K2

⁞ ⁞
nj Kj

FONTE: O autor

163
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Para facilitar a nossa análise, denotaremos essa decomposição do sistema


pela letra w. A energia cinética média é calculada usando o quadro de frequências
anterior. Explicitamente, temos:

Paralelamente, podemos considerar um sistema w' no qual um quadro de


frequências é descrito como:

QUADRO 4 – DISTRIBUIÇÃO DE ENERGIA DE UM SISTEMA QUALQUER II

n'1 K'1
n'2 K'2

⁞ ⁞
n'j K'j

FONTE: O autor

Para o sistema, a energia cinética média é:

com n' = n. Notamos, aqui, que se:

Σ ni Ki = Σ n'i K'i

a relação seguinte é satisfeita: < K > = < K' >. Encontramos duas
configurações microscópicas diferentes, w e w', que são compatíveis com a
informação macroscópica representada por W, uma vez que:

n' = n, V' = V e < K > = < K' >.

Sendo duas configurações microscópicas diferentes, W e W', ocupando o


mesmo volume, compatíveis com o estado macroscópico W, em tese, podemos
encontrar outras configurações, W'', W''', e assim por diante, que também são
compatíveis com o estado macroscópico, desde que as relações sejam, também,
satisfeitas: n = n' = n'' = n''' = ... e < K' > = < K'' > = < K''' > = ... . Concluímos, assim,
que um estado macroscópico pode admitir um conjunto de microestados que são
compatíveis com ele.

164
TÓPICO 1 — TEORIA CINÉTICA DOS GASES

Através das análises construídas até o momento, podemos introduzir


uma quantidade numérica No associada com o número de microestados
{w}, estes que harmonizam com o estado macroscópico termodinâmico W
(macroestado). Simbolicamente, podemos dizer que, para o macroestado W,
temos os seguintes microestados:

QUADRO 5 – POSSÍVEIS MICROESTADOS PARA O MACROESTADO W

MACROESTADO MICROESTADOS
W w w' ... w'...'
n1 K1 n'1 K'1 ... n'...'1 K'...'1
n2 K2 n'2 K'2 ... n'...'2 K'...'2
...
⁞ ⁞ ⁞ ⁞ ⁞ ⁞ ⁞
nj Kj n'j K'j ... n' 'j
...
K'...'j

FONTE: O autor

Como veremos, ao estudar o próximo tópico, uma quantidade importante a


ser definida será uma grandeza proporcional ao logaritmo natural:

ln Nº. (14)

O que temos introduzido, informalmente, em (14), é próximo ao conceito


estatístico de entropia, que será formalmente introduzido no tópico a seguir. Como
veremos, uma quantidade similar a (14) será de fundamental importância para
a formalização de uma física baseada em estatística, conhecida como mecânica
estatística. Historicamente, Ludwig Boltzmann (1844-1906) definiu a entropia como:

S = k ln Ω,

com k sendo a constante de Boltzmann e Ω representando a quantidade


de configurações microscópicas compatíveis com a informação macroscópica
extraída do sistema termodinâmico.

165
RESUMO DO TÓPICO 1
Neste tópico, você aprendeu que:

• A temperatura pode ser interpretada como proporcional à energia média das


moléculas individuais de um sistema.

• A pressão pode, também, ser interpretada como proporcional à energia média


das moléculas, mas o volume também deve ser levado em consideração.

• Algumas leis são diretamente deduzíveis no contexto estatístico.

• As noções de estados microscópicos e macroscópicos podem ser imaginadas,


e a entropia pode ter um papel fundamental para o tratamento de tais ideias.

166
AUTOATIVIDADE

1 Certos tipos de gases podem ser descritos, estatisticamente, usando as leis


clássicas de Newton. Nesse contexto, pressão e temperatura podem ser
calculadas a partir do conhecimento microscópico de um dado gás. Sabendo
que a energia de cada molécula é dada somente pela energia cinética de
translação, calcule a temperatura para o sistema representado pelo quadro:

Número de moléculas Energia (10–22 J)


3 3
9 4
4 6
9 9

Com base no resultado, assinale a alternativa CORRETA:


a) ( ) T = 8 x 10–22 J k–1 .
b) ( ) T = 8,25 x 10–22 J k–1 .
c) ( ) T = 4,75 x 10–22 J k–1 .
d) ( ) T = 6 x 10–22 J k–1 .
e) ( ) T = 4 x 10–22 J k–1.

2 Assim como temperatura, a pressão em Teoria Cinética dos Gases pode


ser entendida como resultante de uma estatística associada a variação de
momentum linear das moléculas individuais do sistema. Depois de bastante
álgebra, a pressão pode ser escrita como:

= < >

Sabendo que 3PV/n = 8x10–22 J e diante do quadro:

Número de moléculas Energia (10–22 J)


4 x
8 5
13 4

Assinale a alternativa CORRETA:


a) ( ) x = 8 x 10–22 J.
b) ( ) x = 2 x 10–22 J.
c) ( ) x = 4 x 10–22 J.
d) ( ) x = 9 x 10–22 J.
e) ( ) x = 5 x 10–22 J.

167
3 Sob o ponto de vista estatístico, para um sistema termodinâmico
macroscópico, podemos ter diferentes configurações microscópicas que
levam a uma mesma informação macroscópica, como pressão e temperatura.
Em outras palavras, um sistema macroscópico (com um volume fixo),
caracterizado pela expressão

W = (P, V, T ),

pode ter diferentes sistemas que levam aos mesmos valores que caracterizam
tal sistema.

Sabendo que um sistema macroscópico é caracterizado por:

Número de moléculas Energia (10–22 J)


2 2
8 5

Classifique V para as sentenças VERDADEIRAS e F para as sentenças FALSAS:

( ) O seguinte sistema microscópico é compatível com W:


Número de moléculas Energia (10–22 J)
1 2
2 3
3 4

( ) O seguinte sistema microscópico é compatível com W:


Número de moléculas Energia (10–22 J)
1 3
3 4
6 5

( ) O seguinte sistema microscópico é compatível com W:


Número de moléculas Energia (10–22 J)
1 9
4 5
5 3

( ) O seguinte sistema microscópico é compatível com W:


Número de moléculas Energia (10–22 J)
1 4
3 10
5 2

168
4 As leis dos gases ideais, de Dalton e de Boyle são diretamente deduzidas da
Teoria Cinética dos Gases e, em particular, da fórmula:

Através da Teoria Cinética dos Gases, derive a Lei dos Gases Ideais, mostre
quando a Lei de Boyle é válida e reinterprete a Lei de Boyle.

169
170
TÓPICO 2 —
UNIDADE 3

MECÂNICA ESTATÍSTICA

1 INTRODUÇÃO
Temos estudado, até agora, termodinâmica e a Teoria Cinética dos Gases,
para podermos aprender um pouco de mecânica estatística. Podemos ver a
mecânica estatística como uma formalização das ideias anteriores para os mais
diversos sistemas. Conceitos, como micro e macroestados, são amplamente
caracterizados, assim como a construção rigorosa de uma “ponte”, que tem,
como função, conectar a natureza estatística com a natureza termodinâmica.
Tais pontes são construídas em diferentes contextos físicos, e um exemplo delas
é a fórmula de Boltzmann, a qual conecta o número de microestados (obtido
através de análises estatísticas) à grandeza entropia (oriunda da teoria física da
termodinâmica). Outras pontes também são possíveis e, como veremos, existem
diferentes modelos para tratar de cada uma delas.

No tópico atual, construiremos, inicialmente, as ideias de micro e


macroestado e como podemos as transformar em número. Seguimos observando
a conexão entre micro (macro) estado, probabilidade e entropia. Finalizaremos
conhecendo outras formulações que mantêm a ideia inicial, mas que podem ser
aplicadas em outros contextos, ou seja, observaremos que existem diferentes
ensembles (que chamaremos de conjuntos), que são a base da mecânica estatística.

2 MICROESTADOS E MACROESTADOS
Vimos, no fim do Tópico 1, uma introdução informal de entropia,
e escrevemos a definição de Boltzmann. Formalmente, pode-se pensar em
um objeto matemático que contabilize todos os números de microestados
compatíveis com um macroestado termodinâmico. Para começarmos a entender,
mais rigorosamente, os papéis do macroestado, do microestado e da entropia,
voltaremos para o problema do marinheiro (ou caminho aleatório), já amplamente
trabalhado nas Unidades 1 e 2.

Há a equação que fornece a probabilidade de encontrar o marinheiro em


uma dada posição, a qual poderia ser escrita em uma forma alternativa, como:

171
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

É uma distribuição binomial. É preciso, novamente, lembrar que P(ΔX)


é a probabilidade de se encontrar o marinheiro na posição ΔX depois de uma
distância total X percorrida, enquanto P> é a probabilidade de que um certo
passo seja dado, pelo marinheiro, para frente.

Tínhamos determinado que, para X = 10 m, encontraríamos as seguintes


probabilidades:

Desse modo, estivemos supondo um valor para P> e encontrado as


diferentes probabilidades.

Devemos lembrar que tínhamos introduzido o fator de normalização, que


é, neste caso:

O fator de normalização considerava que, para o marinheiro estar


na posição, digamos, de ΔX = 4 m, ele poderia ter realizado uma combinação
diferente de passos. Para esse específico caso, temos, por exemplo, a seguinte
possibilidade:

> > > > > < < > > <,

Isto é, caminhou cinco passos para frente, retornou dois, em seguida, deu
mais dois passos para frente e terminou a caminhada de dez passos retornando
um. No entanto, ele pode ter realizado uma sequência diferente de passos, como
as seguintes sequências:

> < > < > > > > > <, < < > > > > < > > >.
172
TÓPICO 2 — MECÂNICA ESTATÍSTICA

Muitas outras combinações também são possíveis, e o número total delas


é obtido através do fator de normalização, que, no caso, fornece:

Temos 120 diferentes combinações que levam o marinheiro para a posição


de seis metros depois de dez passos. Na linguagem de estados termodinâmicos,
poderíamos dizer que existem 120 microestados para o macroestado ΔX = 4 m, o
qual pode “ser medido” dentro do contexto que criamos.

Em geral, para o sistema, teremos os diferentes macroestados associados


a uma quantidade de microestados:

QUADRO 6 – MACROESTADOS E MICROESTADOS

Macroestados Microestados
-10 m, +10 m 1
- 8 m, + 8 m 10
- 6 m, + 6 m 45
- 4 m, + 4 m 120
- 2 m, + 2 m 210
ZERO 252

FONTE: O autor

A seguir, tentaremos conectar a nossa análise com um sistema


termodinâmico e, em especial, fomentar a base, para entender o conceito de
entropia sob essa ótica. Para isso, consideraremos, inicialmente, uma caixa: em
uma metade, tem-se um gás confinado, e, na outra, tem-se o vácuo, separados por
uma placa adiabática, como representado a seguir:

FIGURA 1 – CAIXA COM METADE DE GÁS E A OUTRA METADE DE VÁCUO

FONTE: O autor

173
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

O que ocorrerá quando retirarmos a placa que separa os dois lados? Por
intuição, podemos pensar que, ao remover a placa, algumas moléculas do gás
devem ocupar, aos poucos, a metade na qual, inicialmente, havia vácuo:

FIGURA 2 – GÁS LIVRE PARA SE PROPAGAR APÓS A REMOÇÃO DA PLACA

FONTE: O autor

Com o decorrer do tempo, espera-se que as duas metades estejam


igualmente ocupadas com as moléculas do gás. O que temos, aqui, exatamente, é
uma expansão livre, e o volume final é duas vezes maior do que o inicial. Nosso
macroestado, aqui, será a quantidade de moléculas que se encontram em cada
metade. A seguir, veremos uma ilustração de um possível macroestado:

FIGURA 3 – MACROESTADO (6,7) PARA UM GÁS EM “EXPANSÃO LIVRE”

FONTE: O autor

Fisicamente, o macroestado seria obtido por medir a densidade de cada


metade. Uma vez que cada molécula teria uma probabilidade P> de estar na
metade da direita e outra P< na metade da esquerda, a probabilidade P>, de
encontrar N> moléculas no lado direito, é dada pela distribuição binomial. O

174
TÓPICO 2 — MECÂNICA ESTATÍSTICA

fator de normalização aparece porque dado N< moléculas no lado direito, tal
quantidade pode ser obtida por diferentes grupos de moléculas. Por exemplo,
podemos ter uma configuração microscópica para o macroestado, dada a seguir:

FIGURA 4 – MACROESTADO (8,7) CONFIGURAÇÃO 1

FONTE: O autor

No entanto, a seguinte configuração também é possível:

FIGURA 5 – MACROESTADO (8,7) CONFIGURAÇÃO 2

FONTE: O autor

Assim, podemos ir cambiando as moléculas até obtermos todas as


configurações microscópicas possíveis.

Sendo tal distribuição binomial, podemos organizar os macroestados e os


microestados do sistema.

175
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

QUADRO 7 – MACRO E MICROESTADOS DA DISTRIBUIÇÃO BINOMIAL

Macroestados Microestados

N>

FONTE: O autor

Isto é, fixando o número de moléculas N e escolhendo um macroestado


específico N> , encontramos o número de microestados associados através de Ω.
Para o exemplo que representamos pictoriamente, no qual N> = 7 e N = 15, o número
de configurações possíveis é:

No que segue, construiremos um sistema físico e o descreveremos


estatisticamente.

Exemplo: Sistema de Spin

Um outro exemplo muito usual e didático é considerar um sistema de


partículas indistinguíveis de spin ±1/2 (como férmions, por exemplo, elétrons),
que não interagem, e na presença de um campo magnético B. A energia associada
para uma partícula com spin up é:

E ↑ = + μ B.

Aqui, 𝜇 representa o momento magnético. Já para uma partícula de spin


down, temos:

E ↓ = + μ B.

A energia média para um sistema de spin é dada por:

Substituindo as energias, encontramos:

Uma vez que n = n ↓ + n ↑, obtemos:

176
TÓPICO 2 — MECÂNICA ESTATÍSTICA

O sistema de spin pode ser tratado como uma distribuição binomial, e o


número de microestados é calculado como:

Agora, podemos encontrar a quantidade de microestados do sistema,


conhecendo o momento magnético, o campo magnético aplicado no sistema, a
energia média e o número de partículas. Substituindo n ↑ e n ↓ em Ω, encontramos:

Com a fórmula para calcular a quantidade de microestados sendo escrita


em termos de quantidades físicas, podemos tirar algumas conclusões. Por exemplo,
podemos verificar que, para o nosso sistema de spin, quando n <E> = ± 𝜇B é
satisfeito, teremos:

Podemos notar que o resultado anterior só pode ser válido se o número


de partículas for ímpar. Assim, é possível calcular o número de estados para
diferentes casos. Por exemplo, para uma partícula, encontramos: Ω = 1, ou seja,
só há um microestado possível. Já se n = 3: Ω = 3, para n = 5: Ω = 10, e assim por
diante. Diferentes resultados serão fornecidos a seguir:

QUADRO 8 – MICROESTADOS PARA DIFERENTES SISTEMAS DE SPIN

n Ω
1 1
3 3
5 10
7 35
9 126
11 462
13 1452
15 6353

FONTE: O autor

177
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Explicitamente, para o macroestado caracterizado por n = 3 e por + 𝜇B,


os três microestados serão:

↑↑↓ ↑ ↓↑ ↓
↑↑

Já para o macroestado caracterizado por n = 3 e por – 𝜇B, teremos os três


microestados:

↓↓
↑ ↑
↓ ↓
↑↓↓

Ainda, para o macroestado caracterizado por n = 5 e por + 𝜇B, surgem os


seguintes:

↑↑↑↓↓ ↑↑↓↑↓
↑↓↑↑↓ ↓
↑↑↑↓


↑↑↓↑ ↓ ↓
↑ ↑↑

↓↓
↑↑↑ ↑↓↓↑↑
↑↑↓↓↑ ↑↓↑↓↑

Devemos notar que, para obter os microestados para – 𝜇B, podemos


apenas trocar ↑ por ↓, e vice-versa.

3 PROBABILIDADE E ENTROPIA
Agora, tentaremos entender o conceito de entropia nos contextos de
microestado e de macroestado. Veremos que questões, como reversibilidade e
irreversibilidade, são muito bem apresentadas quando a entropia é entendida sob
as óticas probabilística e estatística.

O postulado fundamental da mecânica estatística, dito nas palavras


de Salinas (1997), declara que todos os microestados acessíveis a um sistema
termodinâmico fechado em equilíbrio são igualmente prováveis. Assim, voltando
ao exemplo do gás em expansão livre em uma caixa, é igualmente provável
encontrar uma dada molécula do lado direito ou do esquerdo, isto é:

P> = P< = ½,

desde que V> = V<, com V> o volume da parte direita e, V<, da esquerda.

178
TÓPICO 2 — MECÂNICA ESTATÍSTICA

Usando (13) da Unidade 1:

Com o fato de que as probabilidades são as mesmas, podemos mostrar


que a chance de verificar N> moléculas à direita será dada pela seguinte expressão:

Lembrando, agora, que o fator de normalização corresponde ao número


de microestados acessíveis do sistema, assim, reescrevemos a última expressão:

Devemos notar que, quando a probabilidade é igualmente dividida,


é diretamente proporcional ao número de microestados, uma vez que o termo
(1/2)N é fixado a priori. Usando o postulado fundamental da mecânica estatística,
então, atribuiremos o resultado para diferentes sistemas:

P = A Ω, (15)

com A uma constante.

Consideraremos que, onde tínhamos, inicialmente, a metade com vácuo,


coloca-se um gás. No caso, ao remover a placa, o gás do lado esquerdo começa a
se espalhar, entrando no lado direito, e vice-versa. Chamamos o gás, inicialmente,
na esquerda, de gás A, e, o da direita, de gás B. Depois de um tempo suficiente,
quando o sistema entrar em equilíbrio, podemos encontrar os microestados
A associados com o gás A e os microestados B associados com o gás B. Desde
que o espalhamento do gás A seja independente do espalhamento do gás B, a
probabilidade associada com o sistema composto AB é dada pela multiplicação
das probabilidades, ou seja:

Assim, podemos concluir que a probabilidade de encontrar o sistema em


uma certa configuração é proporcional ao produto do número de microestados
de cada gás separadamente.

179
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Novamente, generalizaremos o resultado para um sistema composto


qualquer:

P = B ΩA ΩB , (16)

com B uma constante.

Desde que a probabilidade do sistema seja, também, dada por (15), então,
podemos combinar (15) e (16) para encontrar a expressão:

Ω = C ΩA ΩB . (17)

Aqui, C = B/A. Com o resultado (17), podemos concluir que o número


de microestados do sistema é proporcional à multiplicação das quantidades
de microestados de cada parte do sistema. Tal fato é fundamental para o
estabelecimento estatístico da entropia, como veremos a seguir.

Podemos associar diretamente a quantidade de microestados com a


entropia. Podemos dizer que, quando o gás estiver somente em uma metade da
caixa, o sistema está ordenado. Quando o gás estiver espalhado, o sistema está
desordenado. Notamos que, uma vez que o sistema estiver desordenado, ele não
poderá retroceder ao sistema ordenado inicial, uma vez que necessitaria que, a
partir do caos, todas as moléculas deslocassem coincidentemente para um único
lado da caixa. Podemos pensar que, em tese, é possível acontecer tal fenômeno,
porém, sabemos que isso é absurdamente improvável, desde que um gás é
formado por um número extremamente alto de moléculas. Assim, entendemos a
relação entre probabilidade, microestados e entropia. Quando todas as moléculas
estiverem do lado direito, isto é, no macroestado N = N>, a quantidade de
microestados possíveis será:

Assim, quando a quantidade de microestados for igual a um, isso quer


dizer que o sistema estará totalmente ordenado. Por outro lado, o macroestado
com um grande número de microestados será obtido quando N/2 = N>. Por
exemplo, para vinte moléculas, a quantidade de microestados será dada por:

Assim, o sistema está totalmente desordenado, desde que existam 184756


possibilidades microscópicas que levam ao macroestado de dez moléculas na
direita e de dez na esquerda. Em outras palavras, desde que a probabilidade,
para esse caso de vinte moléculas, seja:

180
TÓPICO 2 — MECÂNICA ESTATÍSTICA

Verificamos que o macroestado homogêneo é, estatisticamente falando,


184756 mais provável do que o sistema ordenado.

Explicitamente, a probabilidade para que todas as 20 partículas estejam


no lado direito: é de P = (1/2)20 1 = 0,000000954. Já a probabilidade de 10 moléculas
no lado direito e de 10 no esquerdo é P = (1/2)20 1184756 = 0,176.

Podemos concluir que o sistema desordenado é muito mais provável de


ser verificado do que o sistema ordenado. A partir desse ponto de vista, pode-
se pensar que é altamente improvável que o sistema evolua de um estado de
desordem para um estado de ordem e, então, pode-se dizer que tal sistema
termodinâmico é irreversível, embora as leis da mecânica clássica digam que não.

Vale dizer que a informação microscópica do sistema deve conter a


posição e a velocidade de cada molécula. Para ilustrar, consideraremos a
representação a seguir:

FIGURA 6 – MICROESTADO CARACTERIZADO PELA POSIÇÃO E PELA VELOCIDADE I

FONTE: O autor

Cada molécula tem uma posição e uma velocidade definida. Uma vez
que o sistema evolui, cada molécula muda, em geral, a posição e a velocidade,
indo, assim, o sistema, para uma configuração intermediária.

181
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

FIGURA 7 – MICROESTADO CARACTERIZADO PELA POSIÇÃO E E PELA VELOCIDADE II

FONTE: O autor

4 FÓRMULA ESTATÍSTICA PARA ENTROPIA: DEDUÇÃO


MATEMÁTICA
Qual a possibilidade de o sistema retornar espontaneamente para a
configuração inicial? Nessa perspectiva, a entropia, de algum modo, deve estar
associada com o número de microestados, pois se a desordem do sistema cresce,
dificultando a reversibilidade, a entropia deve crescer também.

Matematicamente, podemos escrever o comportamento associando o


número de microestados com a entropia:

S = f (Ω). (18)

Paralelamente, temos visto que a variação de entropia de um sistema


composto, como nos exemplos trabalhado no estudo da Segunda Lei, a entropia
do sistema é dada pela soma da entropia de cada parte do sistema, ou seja:

S = SA + SB. (19)

Usando (18), podemos reescrever a equação (19):

f (Ω) = f (ΩA ) + f(ΩB).

182
TÓPICO 2 — MECÂNICA ESTATÍSTICA

Em vista à expressão (17), podemos concluir que:

f (ΩA ΩB) = f (ΩA) + f (ΩB).

Uma função que pode satisfazer é a função logarítmica, que segue a


seguinte regra:

ln(xy) = ln(x) + ln(y).

Assim, podemos definir a função f(Ω) como proporcional a ln Ω. Sob o


ponto de vista estatístico, a grandeza entropia é:

S = k ln Ω. (20)

com k sendo a constante de Boltzmann.

Com a definição (20) e a fórmula (17), e tomando C = 1:

S = k ln Ω = k ln ΩA + k ln ΩA = SA + SB.

Desse modo, a definição (35) cumpre todos os anseios levantados na


discussão feita anteriormente.

A seguir, analisaremos um exemplo físico.

Exemplo: microestados para gás em expansão livre

Uma variação de entropia pode ser obtida usando a definição (20).


Tomando ΔS = Sf – Si, encontramos:

Para o exemplo da caixa com o qual estávamos trabalhando, a entropia,


no primeiro caso (gás + vácuo), pode ser calculada através da fórmula (22) do
Tópico 3 da Unidade 2, obtida para um gás em expansão livre.

Igualando (22) (Tópico 3, Unidade 2) com a fórmula anterior, encontramos:

Ωf = (Vf/Vi )n Ωi ,

com a aplicação do exponencial na seguinte propriedade logarítmica:


y ln (x) = ln (x)y.

183
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Vimos, anteriormente, que podemos conectar uma entidade estatística, a


qual chamamos de Ω, com a entropia, pela relação de Boltzmann (20). Essa fórmula
é usada para conectar, com termodinâmica, quando a energia e a quantidade de
moléculas do sistema são fixas. Por exemplo, encontrado um sistema de spin
com uma energia E, podemos encontrar o número de microestados com N
fixo e derivar a entropia do sistema. A exata conexão com a termodinâmica
se dá tomando o limite termodinâmico, que nada mais é que tomar o limite
N → ∞, isto é, quando o número de partículas do sistema é muito grande. Tal
forma de obter a termodinâmica, partindo de análises estatísticas, é conhecida,
na mecânica estatística, como conjunto micro canônico (ou ensemble micro
canônico). Esse conjunto é aplicado quando a energia e o número de moléculas
do sistema são fixos e não há troca de calor.

Apenas por uma questão de completude do tópico, devemos saber que


existem, também, outros conjuntos, como o conjunto canônico e o grão canônico.

No conjunto canônico, pode ocorrer troca de calor, a energia pode variar,


mas o número de partículas é fixo. O papel que Ω realiza no conjunto micro
canônico é assumido, no conjunto canônico, pela chamada função partição Z.
Matematicamente, a função partição é definida como Z = Σᵉ – β Ei, com β definido
como β = 1/kT. Assim como a quantidade Ω, a função partição Z está, também,
associada com o fator de normalização da probabilidade. No entanto, a função
partição não define a entropia do sistema, mas a energia livre de Helmholtz F.
A relação matemática que conecta a quantidade termodinâmica F com a função
partição é similar com a do caso micro canônico:

Para finalizar, como mencionado, ainda temos o conjunto grão canônico.


Nesse conjunto, o número de moléculas pode flutuar, sendo não fixado a priori,
e está em contato com um reservatório térmico em equilíbrio com o sistema. A
conexão termodinâmica é dada através da energia livre de Gibbs G, sendo Y
a entidade matemática que desempenha, no conjunto grão canônico, o papel
similar de Ω e Z. A conexão entre Y e G é obtida através da seguinte expressão:

Resumindo, podemos organizar os diferentes conjuntos:

184
TÓPICO 2 — MECÂNICA ESTATÍSTICA

QUADRO 9 – DIFERENTES CONJUNTOS DA MECÂNICA ESTATÍSTICA

Conjunto Termodinâmica Estatística Conexão


Micro canônico Entropia: S Ω S = k ln Ω

Canônico E. livre de Helmholtz: F Z

Grão canônico E. livre de Gibbs: G Y

FONTE: O autor

NOTA

Em geral, a física estatística trabalha, também, com os sistemas quânticos. Até


aqui, estivemos trabalhando com os modelos clássicos, desde o estudo da Teoria Cinética
do Gases. Nesses casos, as partículas seguem as leis determinísticas da mecânica clássica.
No entanto, quando tratadas sob o ponto de vista da teoria quântica, as probabilidades
aparecem até na descrição de uma única partícula, pois, lá, as probabilidades são intrínsecas.
Por exemplo, no exemplo da caixa, não é trivial dizer que a partícula está em um lado ou no
outro da caixa, e, assim, calcular o número de microestados do sistema.

185
RESUMO DO TÓPICO 2
Neste tópico, você aprendeu que:

• A fórmula de Boltzmann concilia a descrição estatística de um sistema de


moléculas com a entropia.

• Logicamente, um sistema deve ir de um estado ordenado para um desordenado.

• Existem diversos conjuntos que fazem a conexão entre termodinâmica e


estatística.

• O conjunto microcanônico é aplicado quando a energia e o número de moléculas


do sistema são fixos, e não tendo troca de calor.

• O conjunto canônico deve ser aplicado para sistemas nos quais pode ocorrer
troca de calor, podendo, a energia, variar, mas o número de partículas é fixo,
enquanto isso, no macro canônico, o número de moléculas pode flutuar, estando
este em contato com um reservatório térmico em equilíbrio com o sistema.

186
AUTOATIVIDADE

1 O caminho aleatório é um bom exemplo para calcular a quantidade de


microestados, uma vez que apenas duas opções são possíveis. A fórmula
de calcular os microestados se aplica para outras situações, nas quais algum
sistema só apresenta duas possibilidades. Por exemplo, em uma caixa
dividida e com dois compartimentos não separados, uma molécula de um
gás, dentro da caixa, só pode estar em um compartimento ou no outro.

Considerando um gás de N moléculas (sendo m = 2 x 10⁻³ g a massa de cada


molécula) confinado em uma caixa de 10 metros cúbicos, com os microestados
calculados a partir da quantidade de moléculas no compartimento direito,
classifique V para as sentenças VERDADEIRAS e F para as sentenças FALSAS:

( ) D = densidade = 2 x 10⁻² g/m³, Microestados = 1 para um gás com 50 moléculas.


( ) D = densidade = 2 x 10⁻² g/m³, Microestados = 2768441 para 5 moléculas no
lado esquerdo.
( ) D = densidade = 4 x 10⁻³ g/m³, Microestados = 184756 para a metade das
moléculas no lado direito.
( ) D = densidade = 4 x 10⁻² g/m³, Microestados = 101 para 1% de moléculas
no lado esquerdo em relação ao número de moléculas no lado direito.

2 Com o mesmo caso do exercício anterior, adicionando um segundo gás


(sendo m = 4 x 10⁻³ g a massa de cada molécula) com quatro moléculas
na caixa do sistema anterior, e sabendo que a densidade, na parte direita,
devido ao primeiro gás, é de 4 x 10⁻³ g/m3, sendo k a constante de Boltzmann,
encontre a alternativa verdadeira:

a) ( ) D = densidade = 12 x 10⁻³ g/m³, Entropia = 6,193 k.


b) ( ) D = densidade = 12 x 10⁻³ g/m³, Entropia = 4,154 k.
c) ( ) D = densidade = 16 x 10⁻³ g/m³, Entropia = 10,734 k.
d) ( ) D = densidade = 16 x 10⁻³ g/m³, Entropia = 4,154 k.
e) ( ) D = densidade = 12 x 10⁻³ g/m³, Entropia = 18,141 k.

3 A entropia é proporcional ao número de microestados que um sistema


macroscópico pode conter. Boltzmann, a partir das análises entre a
quantidade de microestados e a entropia,

S = f (Ω),

estabeleceu a fórmula matemática:

S = k ln(Ω).

187
Sabendo que Ω = ΩA ΩB, e com a fórmula de Boltzmann, assinale V para
VERDADEIRO e F para FALSO.

( ) Para dois sistemas, A e B, a entropia total é: S = SA SB.


( ) Para dois sistemas, A e B, a entropia é: S = SA + SB.
( ) Para dois sistemas, A e B, a seguinte relação é válida: Ω = exp(SA + SB).
( ) A probabilidade é inversamente proporcional ao número de microestados.

4 A Física Estatística é construída baseada nos chamados conjuntos (ensembles).


Dentre tais conjuntos, temos os conjuntos canônico, micro canônico e grão
canônico. Os conjuntos podem ser organizados da seguinte forma:

Conjunto Termodinâmica Estatística Conexão


Micro canônico Entropia: S Ω S = k ln Ω

Canônico E. livre de Helmholtz: F Z

Grão canônico E. livre de Gibbs: G Y

Com as suas palavras, discorra a respeito do quadro anterior, explicando os


conjuntos, tomando, como exemplo, nas análises, o conjunto microcanônico.

188
TÓPICO 3 —
UNIDADE 3

OUTRAS APLICAÇÕES EM FÍSICA

1 INTRODUÇÃO
Além das aplicações, em física, de estatística e de probabilidade, vistas, até
agora, nos tópicos anteriores desta unidade, outras situações históricas também
necessitaram da adaptação de tais conceitos na compreensão de certos fenômenos
naturais. Duas delas envolvem a descrição do movimento browniano e o
desenvolvimento de uma das bases da física moderna, assim, há o entendimento dos
fenômenos em escalas muito pequenas, isto é, os fenômenos quânticos.

O chamado movimento browniano foi, primeiramente, observado


por Robert Brown, em 1827. Brown observou, no microscópio, polens
“ziguezagueando” sob a superfície da água. Com a introdução da dita força
estocástica, o fenômeno foi, posteriormente, descrito, matematicamente, por
Einstein, em 1905, usando as usuais leis de Newton.

Os fenômenos em escalas minúsculas necessitaram da construção de


uma nova física para poderem ser descritos fisicamente. Nessa nova física,
conhecida como física quântica, a probabilidade teve um papel fundamental
nos debates filosóficos que cercaram aquele período. Um passo fundamental
dado foi considerar o quadrado da função de onda, que descreve uma partícula,
como uma densidade de probabilidade. Tal interpretação foi fornecida por
Max Born, em 1926, e é, hoje, chamada de interpretação de Born.

Este último tópico será dividido em duas partes. Na primeira, estudaremos


o movimento browniano, a força estocástica e a solução a partir das leis de
movimento de Newton. Já na outra, usando a formulação de Schroedinger,
trabalharemos com a questão da probabilidade na mecânica quântica.

2 FORÇA ESTOCÁSTICA E MOVIMENTO BROWNIANO


O chamado, hoje, de movimento browniano, foi descoberto pelo botânico
inglês Robert Brown, em 1827. Ao observar, por um microscópio, diminutos
polens flutuando na água, Brown observou que tais polens se movimentavam
através de trajetórias aleatórias. Posteriormente, Delsack e Einstein elaboraram
explicações, as quais são, hoje, aceitas pela comunidade científica, como podemos
ler em Nussenzveig (2002).

A seguir, estudaremos a força estocástica e, posteriormente, a descrição


físico-matemática do movimento browniano.
189
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

2.1 FORÇA ESTOCÁSTICA


Podemos pensar no movimento browniano como um caminho aleatório
em duas dimensões (superfície de algum fluido), com igual probabilidade de ir
para frente ou para atrás em cada direção x e y. Por exemplo, consideraremos um
movimento aleatório em duas dimensões, e, a cada instante, uma força externa
atua sob um pólen, levando este da posição x para x + l ou x – l, com a mesma
probabilidade. Similarmente, a mesma força externa desloca o pólen de y para
y + l ou y – l, com a mesma probabilidade. A força externa é entendida para ser
causada devido ao choque com diversas moléculas do fluido.

FIGURA 8 – MOVIMENTO IDEALIZADO SUJEITO À FORÇA ESTOCÁSTICA

FONTE: O autor

Foi exposta a trajetória do pólen (similar ao caminho aleatório em duas


dimensões), sujeito à força externa em cada instante (tempo discreto), devido às
microscópicas moléculas do fluido. A área de cada quadrado mede l2. Ainda, o
pólen parte do ponto (x, y) = (0, 0) e, depois de 30 deslocamentos, chega ao ponto
marcado, como 30, que é o ponto (x, y) = (– 2l, 0).

Matematicamente, a posição da partícula estocástica (como exemplo, o


pólen observado por Brown; a partir de agora, usaremos o termo genérico), em
um dado tempo, é obtida, usando a Segunda Lei de Newton. Explicitamente:

ma = 𝓕est. (21)

190
TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

No exemplo anterior, podemos pensar que a força externa 𝓕est atua em cada
ponto da malha, mudando (ou não) o momento da partícula em uma dada
direção, como em uma colisão elástica. Em geral, 𝓕est atua instantaneamente sob
a partícula, com 𝓕est > 0 ou 𝓕est < 0. Assim como no exemplo construído por nós,
os sinais da força externa (positivo ou negativo), em cada instante, terão a mesma
probabilidade de ocorrer. A força 𝓕est é conhecida como força estocástica.

Uma vez que o valor da força, atuando no pólen, em cada instante, não
necessariamente, contém o mesmo valor, podemos redesenhar:

FIGURA 9 – MOVIMENTO “REAL” DEVIDO À FORÇA ESTOCÁSTICA

FONTE: O autor

Desse modo, deformando o exposto, como temos feito, devemos notar


que a trajetória se transforma em uma típica trajetória browniana, a qual
estudaremos, fisicamente, a seguir.

2.2 MOVIMENTO BROWNIANO: DESCRIÇÃO FÍSICA


No caso mais realístico, devemos considerar, também, na equação de
movimento, a força causada pela viscosidade do fluido:

𝓕vis = – 𝜇v. (22)

191
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

O termo 𝜇 > 0 representa a viscosidade, quanto maior p valor, mais


viscoso o fluído. A proporcionalidade pela velocidade com o sinal negativo
indica que, quanto maior a velocidade da partícula estocástica, maior será a
resistência sofrida por ela. Considerando (22) no lado direito de (21), trabalhando
em uma dimensão e explicitando ax e v2x, encontramos a equação de movimento
da seguinte forma:

(23)

Sendo, a força externa, de natureza estocástica, isto é, atua, aleatoriamente,


sob a partícula estocástica, não é viável trabalhar diretamente com a equação de
movimento, uma vez que o comportamento da força estocástica é imprevisível em
cada ponto e a cada instante. Para circundar a situação, é necessário considerar o
valor médio e a seguinte propriedade para a força estocástica:

< 𝓕est > = 0. (24)

Isto é, o valor médio da força estocástica é igual a zero, devido ao fato de


que, para cada 𝓕est > 0 atuando na partícula estocástica, teremos, estatisticamente,
uma contribuição igual e contrária: 𝓕est < 0.

Devemos multiplicar (23) por x para encontrar:

Considerando a seguinte identidade:

(25)

a equação de movimento se torna:

Agora, devemos prosseguir, trabalhando com o termo da esquerda.


Tem-se:

192
TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

Utilizando (25) e substituindo as derivadas primeiras pela velocidade,


encontramos:

(26)

Com (26), surge a forma final da equação de movimento:

Entretanto a equação anterior ainda apresenta alguns problemas. A força


estocástica ainda está ali, além do termo quadrático de velocidade. Uma forma de
contornar a situação é tomar o valor médio dela, isto é:

No Tópico 1 desta unidade, vimos que é válida a seguinte relação:

Ainda, a relação entre energia cinética média e temperatura é:

Combinando as duas últimas expressões, obtemos:

Substituindo a última na equação de movimento, encontramos

Para o termo, carregando a força estocástica, devemos observar (24). A


mesma argumentação que fizemos para obter < 𝓕est > = 0 pode ser usada para
dizer que < x𝓕est > = 0. Logo, o termo igual a zero, na equação de movimento, e a
dividindo por m:

(27)

193
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Notamos que a equação diferencial (27) pode, agora, ser resolvida:

É solução da equação (27), sendo A uma constante. Podemos simplificar


a solução, assumindo que a massa da partícula browniana é muito pequena, se
comparada com o parâmetro de viscosidade do fluído. Assim, a exponencial
negativa vai muito rapidamente para zero. Na aproximação mencionada, a
solução se torna:

(28)

Para encontrar < x2 >, basta tomar a integral da solução aproximada (28).
Integrando, encontramos:

(29)

Para entendermos o resultado (29), consideraremos o caminho aleatório


em duas dimensões:

FIGURA 10 – EVOLUÇÃO TEMPORAL DO MOVIMENTO BROWNIANO

FONTE: O autor

194
TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

Podemos perceber que, à medida que o tempo vai evoluindo, o caminho


aleatório abrange uma área maior. O que pode medir, indiretamente, essa
expansão, é a raiz quadrada de < x2 >. Para o caminho aleatório:

< (ΔX)2 > = 2Dt. (30)

Por (30), podemos entender 𝓓 como um fator que mede a rapidez da área
de atuação do caminho aleatório se difundindo, uma vez que o deslocamento
∆X pode ser entendido como uma projeção em x para o movimento aleatório
bidimensional. O fator é conhecido como fator de difusão. Desde que os
deslocamentos em x e y sejam independentes, a mesma relação deve ser válida
para a trajetória em y.

Para o movimento browniano, podemos pegar a solução (29) e comparar


com (30), para encontrar a relação:

(31)

A relação (31) expressa um caminho aleatório guiado por entidades


físicas. Por (30), notamos que o fator de difusão determina como será a evolução
linear temporal do sistema quanto aos valores quadráticos médios: < x2 > e < y2 >.
Desse modo, (31) estabelece que tal evolução dependente da temperatura e da
viscosidade do fluído na região na qual ocorre o fenômeno. Podemos verificar
que a evolução temporal se dará proporcionalmente com a temperatura e de
forma não proporcional quanto à viscosidade.

A seguir, estudaremos uma importante aplicação dos conceitos de


probabilidade em uma das bases da física moderna.

3 PROBABILIDADE E TEORIA QUÂNTICA


Na teoria quântica, o objeto matemático que descreve uma partícula é
uma função de onda Ψ. Tal função deve carregar todas as informações acerca
de uma certa partícula a ser descrita em um certo contexto físico, mas podemos
nos perguntar: o que realmente significa essa onda? Como veremos a seguir, os
conceitos de onda, de partícula e de probabilidade estão intimamente ligados à
descrição quântica da natureza.

195
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

3.1 DUALIDADE ONDA/PARTÍCULA


Como veremos agora, a ideia de que uma partícula, como o elétron (ou
uma onda, como um fóton), pode se comportar como uma onda (partícula),
remonta às próprias bases conceituais da mecânica quântica. Seguindo o trabalho
de Max Planck, em 1900, o qual tratou da radiação do corpo negro, o qual, pela
primeira vez, quantizou a energia das partículas do sistema, houve a quantização
elaborada por Einstein, em 1905, no trabalho a respeito do efeito fotoelétrico,
acerca da quantização da própria radiação. Posteriormente, Compton introduziu
a ideia de que a radiação eletromagnética, já em forma de quanta, pode se
comportar como onda ou partícula, estipulando que a radiação contém energia e
momento linear.

As relações matemáticas, que relacionam as atribuições de onda, como


frequência f e comprimento de onda λ, com as de partículas, como energia E e
momentum linear p, são:

e (32)

sendo h uma constante encontrada (constante de Planck) no artigo de


Planck, com valor de λ = 6,6 x 10–34 J s.

Inspirado na dualidade encontrada por Compton, o físico francês


Mauricie de Broglie sugere que as relações (32) também devem ser aplicadas
na descrição da matéria, isto é, a matéria deve se comportar, também, como
partícula e onda. Usando a suposição e considerando a expressão de momento
linear p = mv, podemos encontrar o comprimento de onda de um objeto material
com uma certa massa m e velocidade v pela relação:

A última expressão é conhecida como comprimento de onda de Broglie.


Por exemplo, um automóvel, de uma tonelada, a uma velocidade de 100 km/h,
tem um comprimento de onda associado de:

Notamos que o comprimento de onda é extremamente pequeno para que


o fenômeno ondulatório possa ser observado. No entanto, para partículas como,
por exemplo, o elétron, o momento linear pequeno se torna o comprimento de
onda considerável, e não deve ser menosprezado na descrição física.

196
TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

Seguindo a lógica, Niels Bohr usou a ideia de Broglie na descrição orbital


do elétron em torno de um próton. Assim, Bohr conseguiu, com sucesso, descrever
as linhas espectrais do átomo de hidrogênio. A ideia foi a de considerar a relação de
Broglie, além de que, como o comprimento de onda deve ser contínuo em volta
de uma órbita ao redor do próton (ao fechar uma órbita, o nó deve coincidir com
outro nó), apenas certas distâncias entre a órbita do elétron e o próton devem ser
possíveis. Assim, quando o elétron desce de uma órbita para outra, a perda de
energia (energia de um nível menos a energia de um outro nível) é igual à energia
do fóton emitido e, este, deve assumir certos valores de energia, que devem
coincidir com as linhas espectrais emitidas pelo átomo de hidrogênio.

3.2 FUNÇÃO DE ONDA E EQUAÇÃO DE SCHROEDINGER


Temos discutido que a matéria pode ser tratada, muitas vezes, como
partícula, mas, também, como onda. Agora, estudaremos um pouco da construção
formal desenvolvida na mecânica quântica. Começaremos abordando o objeto
básico da Teoria de Schroedinger, que é o objeto matemático escalar Ψ.

Como estamos querendo descrever a matéria com propriedades


ondulatórias, exige-se que seja uma função de onda Ψ. Tal função de onda deve
depender das coordenadas espaciais e do tempo, isto é:

Ψ = Ψ (x,y,z,t)

em coordenadas cartesianas.

A função de onda deve seguir alguns requisitos, como ser infinitamente


derivável (propriedade de funções ondulatórias), unívoca, linear e contínua,
como a derivada. Além do mais, tratando-se de uma teoria física, tal objeto, com
a devida importância atribuída, deve contemplar uma equação. A equação que
rege Ψ é conhecida como equação de Schroedinger, e pode ser expressa como:

(33)

Aqui, i é o número imaginário, V é um potencial qualquer, m é a massa da


partícula e ∇ é o operador nabla:

em coordenadas cartesianas. Notamos a constante ℏ, conhecida como “h


cortado”. A constante de Planck e ℏ estão relacionadas por ℏ = h/2m.

197
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

DICAS

Para uma boa compreensão da função de onda e das atribuições, é sugerida a


consulta do livro de Eisberg & Resnick (2006).

A fim de analisar a equação (33), é preciso se restringir ao caso estacionário


e a uma dimensão. Assim, é possível tomar um potencial que só dependa da
coordenada espacial, isto é:

V = V(x,t).

Desmembrando a função de onda

Ψ (x,t) = ψ(x)ϕ(t), (34)

E supondo

(35)

é possível, reescrever (33) como (para detalhes, ver Eisberg & Resnick
(2006)):

(36)

A forma anterior é conhecida como equação de Schroedinger


independente do tempo.

Para entendermos o papel da probabilidade, antes, resolveremos alguns


casos particulares de (36). Para resolver tal equação e descrever algum sistema
físico, é preciso fornecer o potencial V(x), que contextualizará algum contexto
físico. Assim, com o potencial em mãos, substituímos em (36), e, então, podemos
descrever como uma certa partícula, submetida àquele potencial e representada
por Ψ(x), deve se comportar. A seguir, trabalharemos com alguns casos simples
que nos ajudarão, posteriormente, a entender a interpretação da função de onda
dada por Born.

198
TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

Exemplo 1: Partícula livre

Para analisar as soluções da equação de Schroedinger independente do


tempo, começaremos trabalhando com o caso do potencial nulo: V(x) = 0. Nesse
caso, a equação (35) se torna

A solução da equação anterior, como verificaremos, é:

Ψ(x) = exp{–kxi} = cos{kx} – isen{kx}, (37)

com k dado por:

k = (2mE)1/2/ ℏ.

Para verificarmos que (36) é solução, é preciso fazer:

Para encontrar a função de onda dependente do tempo Ψ (x,t), é preciso


se lembrar de (34) e (35), para obter

Ψ = exp{(kx – wt)i} = cos{kx – wt} + isen{kx – wt}, (38)

sendo w = E / ℏ.

Devemos notar que (37) e (38) são funções complexas, assim, é preciso
entender que são como uma descrição abstrata da realidade. Podemos adiantar
que elas carregam a informação da partícula, mas, de forma alguma, podem
ser observadas experimentalmente. Como veremos, isso deve ser resolvido
pela interpretação de Born. Antes de prosseguirmos para tal interpretação,
analisaremos mais um exemplo.

ATENCAO

Neste estágio, é bom estarmos familiarizados com funções complexas e com


as propriedades.

199
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Exemplo 2: Parede potencial infinito e quantização de energia

Agora, trabalharemos com o caso de uma partícula confinada em uma


caixa unidimensional. No exemplo, o potencial, na parede da caixa, é modelado,
como sendo infinito; enquanto isso, no interior da caixa, o potencial é nulo:

GRÁFICO 2 – PAREDE POTENCIAL INFINITO

FONTE: O autor

Matematicamente:

V(–l/2) = V(+l/2) = ∞,

V = 0, para –l/2 < x < +l/2.

Para o sistema, supomos a solução:

Ψ(x) = Acos{kx},

para –l/2 < x < +l/2 e com A sendo uma constante qualquer. Pode-se verificar
que ela contempla a Schroedinger independente do tempo com potencial nulo.
Para as paredes, com potencial infinito, a função de onda deve ser zero, isto é:

Ψ(x = ± l/2 ) = 0.

200
TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

Podemos juntar as duas soluções para fazer o seguinte:

cos{±kl/2 } = 0,

desde que cos{±π/2} = cos{±3π/2 } = cos{±5π/2} = ... = 0. Assim, kl = nπ, com


n = 1, 3, 5, ...

Lembrando, agora, da forma explícita de k, e substituindo na relação


anterior, encontraremos a seguinte relação:

En = n2 π2 k2 / 2ml2. (39)

Note que indicamos En para denotar o conjunto de soluções associadas


aos casos cos{±nπ/2} = 0. Assim, podemos observar que a energia da partícula
confinada na caixa pode assumir apenas certos valores específicos. Isto é um
exemplo explícito de quantização de energia. Finalmente, usando kl = nπ,
podemos reescrever Ψ(x):

Através da fórmula obtida, temos diferentes funções de onda para


diferentes níveis de energia (quantizados), com “psi 1”= Ψ1, “psi 2”= Ψ2 e “psi
3”= Ψ3, como representado a seguir:

GRÁFICO 3 – FUNÇÕES DE ONDA PARA DIFERENTES NÍVEIS DE ENERGIA

FONTE: O autor

Agora, após os dois exemplos vistos, estamos aptos a estudar o que segue,
a interpretação de Born.
201
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

3.3 INTERPRETAÇÃO DE BORN


Como mencionamos, a função de onda Ψ (x,t) é, em geral, uma função
complexa e, por isso, ela não pode ser acessada em um experimento qualquer.
Uma quantidade real, que pode ser obtida de números complexos z = a + bi é
pegar um número complexo z, além de multiplicar pelo complexo conjugado
z* = a – bi, sendo a e b números reais, e z * z = a2 + b2. Desse modo, Ψ * Ψ ∈ ℝ
ℝ. A expressão Ψ * Ψ poderia, em tese, ser, de alguma forma, acessada em um
laboratório, mas caso seja possível observar a forma Ψ * Ψ, o que representaria?

Born sugeriu que a forma deveria ser interpretada como uma densidade
de probabilidade ρ:

ρ (x,t) = Ψ * (x,t) Ψ (x,t). (40)

Para as ondas estacionárias trabalhadas anteriormente:

ρ (x,t) = ψ * (x) ϕ * (t) ψ (x) ϕ (t) = ψ * (x) ψ (x) = ρ (x).

Devemos notar, na expressão anterior, que o sentido dado às ondas


estacionárias pode ser entendido através do resultado ρ (x,t) = ρ (x), com ρ (x,t),
efetivamente, não dependendo do tempo. Para entendermos o significado dado
por Born, analisaremos os dois casos trabalhados anteriormente.

Para a partícula livre representada por (37), a densidade de probabilidade fica:

ρ = 1.

Notamos que a densidade de probabilidade é igual para qualquer posição


x. Isso significa que é igualmente provável encontrar a partícula em diferentes
posições do espaço.

Para a partícula confinada em uma caixa com paredes de potencial infinito


do Exemplo 2, a densidade de probabilidade será:

Obtemos diferentes densidades de probabilidade para diferentes níveis


de energia, que são dados pela fórmula (39):

202
TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

e assim por diante.

Sendo “rho 1”= ρ1, “rho 2”= ρ2 e “rho 3”= ρ3, observe:

GRÁFICO 4 – DENSIDADE DE PROBABILIDADE VS. FUNÇÃO DE ONDA PARA DIFERENTES


NÍVEIS DE ENERGIA

FONTE: O autor

Notamos que, quanto maior a energia da partícula, maiores quantidades


de posições têm densidade de probabilidade máxima, além de que mais posições
contêm densidade nula, ou seja, ao aumentarmos a energia da partícula, a
probabilidade de encontrar em diferentes posições é maior. Para E1, ao realizarmos
um experimento, é mais provável que a partícula se encontre no meio da caixa. Já
para E2, é mais provável que a partícula se encontre no meio de cada metade da
caixa, e assim por diante. Na região dos nodos, a partícula jamais será encontrada.

Agora, podemos entender melhor o significado da dualidade onda-


partícula. Consideramos, por exemplo, que faremos um experimento que
consiste em verificar a posição da partícula no interior da caixa. Supomos que

203
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

essa partícula esteja no nível dois de energia E2 e que, inicialmente, repetiremos o


experimento sucessivamente, com diferentes caixas idênticas, com uma partícula
cada, com energia E2. Assim, vamos realizando o experimento em cada caixa e
anotando a posição de cada partícula. À medida que vamos anotando as posições
encontradas, vamos notando que a maioria das partículas deve se localizar
próxima do meio de cada metade da caixa.

Em tese, realizando o mesmo experimento com uma quantidade infinita


de caixas, iríamos observar a função de densidade de probabilidade ρ2 (x) e, como
consequência, poderíamos obter a função de onda que descreve a partícula.
Ao realizarmos a experiência, a função de onda colapsa em uma partícula ao
interagirmos (através da medida) com ela. Assim, o que rege a partícula é uma
função de onda, e a oscilação é intimamente ligada com a probabilidade de se
encontrar uma partícula em uma dada posição.

Para encontrarmos a probabilidade P de uma partícula ser encontrada em


uma região delimitada por xi e xf , devemos tomar a seguinte integral:

P = ∫ρ (x,t)dx = ∫ Ψ * (x,t) Ψ (x,t) dx.

Desde que a partícula seja encontrada em algum lugar do espaço, a


integral, abrangendo todo o espaço, deve fornecer a porcentagem de 100%.
Matematicamente:

∫ Ψ * (x,t) Ψ (x,t) dx = 1,

com a integral anterior sendo tomada de – ∞ para + ∞.

Agora, verificaremos como devemos definir os valores esperados no


mundo quântico. Como temos estudado na UNIDADE 1, em VARIÁVEIS
ALEATÓRIAS, é útil definirmos algumas quantidades quando estamos
trabalhando com cenários probabilísticos.

Como havíamos introduzido, naquela unidade, para uma variável


aleatória qualquer v, o valor esperado (ou médio) da posição x de uma partícula
é dado por:

< x > = ∫ xρ (x,t)dx.

Substituindo a densidade de probabilidade, encontraremos a seguinte


expressão:

< x > = ∫ Ψ * (x,t)x Ψ (x,t)dx. (41)

204
TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

Antes, aplicando o resultado para a partícula confinada em uma caixa de


potencial infinito, e lembrando que ϕ * (t)ϕ (t) = 1 para o caso estacionário, o valor
esperado será de:

Resolvendo a integral:

< x > = 0,

com o valor esperado nulo indicando, aqui, o meio da caixa.

O valor esperado encontrado é válido para os diferentes níveis de


energia. Como tínhamos visto, para o primeiro nível de energia E1, a posição
mais provável de encontrar a partícula era no centro da caixa, coincidindo com
o valor esperado. No entanto, para o segundo nível de energia E2, as posições
mais prováveis eram no meio de cada metade da caixa. Similarmente, na
situação do marinheiro, o valor esperado deve fornecer um valor que é obtido
como uma média ponderada, que tende a estar entre os valores mais prováveis.
No caso, a média ponderada é obtida como uma ponderação sob os intervalos
infinitesimais em contraposição ao caso do marinheiro. Em outras palavras,
devido ao eixo de simetria da função de onda estar, para todos os níveis de
energia, localizada no centro, o valor esperado será, em todos os casos, nulo.

Agora, consideraremos o valor esperado para o momento linear p:

< p > = ∫ Ψ * p Ψ dx. (42)

NOTA

x e p, respectivamente, nas equações (41) e (42), estão entre as funções de


onda. Não entraremos em detalhes, mas, em geral, deve-se escrever assim porque, na
formulação quântica, x e p são operadores.

Para encontrar o valor médio do momento linear, é preciso considerar o


operador momento linear: . Por exemplo, para a parede potencial
infinito:

205
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Substituindo a equação anterior em (42):

Para resolvermos a integral, é preciso fazer U = cos {nπx/l}, tal que


dU = –(nπ/l) sen{nπx/l} dx. Reescrevendo a última integral com os termos
anteriores:

< p > = – iℏ (An)2 ∫ U dU.

Para resolver a fórmula anterior, basta pegar ∫ U dU = 1/2 (Uf2 – Ui2),


aplicando os limites da integral Uf = cos{nπ/2} e Ui = cos{–nπ/2} = cos{nπ/2}.
Desde que Uf = Ui:

< p > = 0.

Desse modo, o valor médio do momento, na caixa de parede, com potencial


infinito, é, também, igual a zero.

206
TÓPICO 3 — OUTRAS APLICAÇÕES EM FÍSICA

LEITURA COMPLEMENTAR

NOVA INTERPRETAÇÃO DA MECÂNICA QUÂNTICA REFORÇA


IDEIA DE QUE A REALIDADE INDEPENDE DO OBSERVADOR

Abordagem matemática de um dos princípios fundamentais da teoria


quer colocar fim a debate que dura um século, e que já envolveu nomes célebres,
como Albert Einstein

Desde o surgimento da mecânica quântica, na década de 1920, os cientistas


discordam da forma adequada de interpretar, em termos físicos, as equações. Em
muitas das interpretações propostas, incluindo a interpretação de Copenhagen,
apresentada por Niels Bohr e por Werner Heisenberg, e, em particular, a
interpretação de von Neumann-Wigner, alega-se que, de alguma forma, a
consciência da pessoa faz medições experimentais das partículas quânticas, ou o
próprio ato de medir afetaria os resultados. Por outro lado, Karl Popper e Albert
Einstein acreditavam na existência de uma realidade objetiva, que se revelaria nas
medições. Já Erwin Schrödinger elaborou o famoso experimento que envolvia
o destino de um gato com o proposto de ressaltar as imperfeições da mecânica
quântica. Hoje, existem, literalmente, dezenas de interpretações disputando a
atenção de quem acompanha o centenário debate.

No seu artigo mais recente, publicado na revista Symmetry, os finlandeses


Jussi Lindgren e Jukka Liukkonen, que se dedicam à mecânica quântica fora
dos afazeres profissionais, abordam o princípio da incerteza, que foi proposto
por Heisenberg, em 1927. De acordo com esse princípio, a posição e o momentum de
uma partícula não podem ser determinados simultaneamente com grande
precisão, pois a pessoa que conduz a medição sempre afeta os valores que são
medidos. Entretanto, no seu estudo, Lindgren e Liukkonen concluíram que a
correlação entre localização e momentum, por exemplo, o relacionamento entre
as duas grandezas,  é algo fixo. Em outras palavras, a realidade independe de
que alguém faça a medição experimental. Na sua análise, Lindgren e Liukkonen
utilizaram otimização estocástica dinâmica. Segundo o referencial teórico
dessa abordagem, o princípio da incerteza, de Heisenberg, é visto como uma
manifestação do equilíbrio termodinâmico, no qual as correlações entre variáveis
aleatórias não desaparecem.
 
“O resultado sugere que não há razão lógica para que os resultados
sejam dependentes da pessoa que conduz a medição. De acordo com o nosso
estudo, não há nada que sugere que a consciência de uma pessoa iria deturpar
o resultado ou criar um certo resultado ou realidade”, diz Jussi Lindgren. Essa
interpretação apoia as interpretações de que a mecânica quântica se alinha com
os princípios científicos clássicos.  “A interpretação é objetiva e realista, e, ao
mesmo tempo, a mais simples possível. Nós gostamos de clareza e preferimos
remover todo o misticismo”, diz Liukkonen.
 
207
UNIDADE 3 — APLICAÇÕES DE PROBABILIDADE E ESTATÍSTICA EM FÍSICA

Em dezembro de 2019, os dois pesquisadores publicaram um artigo


anterior, que também utilizou análises matemáticas como ferramenta para
explicar a mecânica quântica. O método que utilizaram foi a teoria de controle
para otimização estocástica, que foi empregada para resolver desafios do porte de
enviar um foguete da Terra para a Lua.

Seguindo a Navalha de Ockham, com relação à lei de parcimônia, batizada


em homenagem a William de Ockham, os pesquisadores escolheram a explicação
mais simples dentre as possíveis.  Nós estudamos a mecânica quântica como uma
teoria estatística. A abordagem temática está clara, mas alguns podem pensar
que é algo desinteressante, mas será que as explicações menos claras podem ser
realmente consideradas como uma explicação?”, questiona Lindgren. 

FONTE: <https://sciam.com.br/nova-interpretacao-da-mecanica-quantica-sugere-que-a-realidade-
independe-do-observador/>. Acesso em: 24 fev. 2021.

208
RESUMO DO TÓPICO 3
Neste tópico, você aprendeu que:

• O movimento browniano pode ser idealizado como um caminho aleatório


bidimensional.

• Definindo, formalmente, uma força estocástica, e usando as leis de Newton,


o movimento browniano pode ser descrito matematicamente.

• A descrição do movimento de uma partícula estocástica é obtida conhecendo


o fator de difusão.

• O objeto matemático básico que descreve uma partícula quântica é uma função
de onda.

• Na interpretação de Born, o quadrado da função de onda representa uma


densidade de probabilidade.

CHAMADA

Ficou alguma dúvida? Construímos uma trilha de aprendizagem


pensando em facilitar sua compreensão. Acesse o QR Code, que levará ao
AVA, e veja as novidades que preparamos para seu estudo.

209
AUTOATIVIDADE

1 O movimento browniano, descoberto por Robert Brown, e descrito,


matematicamente, por Delsack e Einstein, é uma aplicação física dos
chamados processos estocásticos. Com base nos seus conhecimentos acerca
dos processos estocásticos e do movimento browniano, assinale V para
VERDADEIRO e F para FALSO:

( ) O movimento browniano pode ser entendido como uma cadeia de


Markov, desde que tal movimento contenha “memória”, isto é, o próximo
movimento do pólen pode ser obtido conhecendo os movimentos traçados
por ele anteriormente.
( ) Um típico movimento browniano pode ser obtido distorcendo um caminho
aleatório específico em duas dimensões, assim, o caminho é percorrido
por um pólen na superfície de um fluido. A distorção de tal traçado é feita
devido às intensidades das forças estocásticas nas diferentes direções e
aos sentidos não serem constantes.
( ) Os sentidos tomados pelo pólen, em cada instante do movimento
browniano, são estabelecidos pelas forças estocásticas 𝓕est > 0 ou 𝓕est < 0.
A probabilidade de a força atuar em um certo sentido é, necessariamente,
diferente de ela atuar no sentido oposto.
( ) Para uma descrição realística do movimento browniano, devemos
trabalhar com a equação de movimento ma = 𝓕est.

2 A descrição matemática do movimento browniano é obtida resolvendo a


seguinte equação diferencial para a segunda lei de Newton:

𝓕est é a força estocástica. Com base nos estudos e na fórmula citada, considere
os itens a seguir:

I- O valor médio da força estocástica é sempre maior que zero.


II- A equação diferencial anterior não deve ser trabalhada diretamente, mas,
sim, a equação de valor médio:

devendo ser considerado < x𝓕est > = 0 válido, assim como < v2 > = Cte.
III- Depois de muita álgebra, obtém-se a seguinte aproximação:

A aproximação anterior é válida desde que a massa da partícula seja muito


pequena em comparação com o parâmetro de viscosidade.
210
IV- A solução final para o movimento browniano é:

A expressão anterior indica que o momento browniano dispersa, com


mais rapidez, com uma maior temperatura e uma menor viscosidade.

Assinale a alternativa CORRETA:


a) ( ) Somente a afirmativa I está correta.
b) ( ) As afirmativas I, II e III estão corretas.
c) ( ) As afirmativas I, III e IV estão corretas.
d) ( ) As afirmativas III e IV estão corretas.
e) ( ) As afirmativas II, III e IV estão corretas.

3 A equação de Schroedinger é usada para a descrição de sistemas quânticos,


como para a descrição do átomo de hidrogênio. Matematicamente, pode ser
expressa em três dimensões:

Na equação anterior, i é o número imaginário, V é um potencial que descreve


o sistema em questão, ℏ é uma constante universal, m é a massa da partícula
e ∇ é o operador nabla.

Com base nos estudos, assinale a alternativa CORRETA:

a) ( ) Na equação de Schroedinger, a função de onda Ψ representa a


probabilidade de se encontrar uma partícula em um dado ponto do
espaço e em um dado instante.
b) ( ) Para se obter a equação de Schroedinger independente do tempo, o
potencial da teoria deve ser igual a zero.
c) ( ) Uma partícula livre é descrita por uma função exponencial real.
d) ( ) Considere, o potencial, uma função da forma:

A quantização de energia é obtida tomando, como solução, uma função de


onda real no interior da caixa, e exigindo que seja nula nas paredes da caixa.

211
e) ( ) Considere as soluções representadas a seguir para o potencial infinito
do item anterior:

A energia de “psi 3” é duas vezes maior do que a de “psi 2”, enquanto


“psi 1” é a metade de “psi 2”.

4 A probabilidade, na teoria quântica, é introduzida através da


chamada interpretação de Born. Tal interpretação consiste na definição
ρ (x, t) = Ψ * (x, t) Ψ (x, t), sendo Ψ * o complexo conjugado de Ψ. Com base
nos seus conhecimentos acerca da interpretação de Born, classifique V para
as sentenças verdadeiras e F para as sentenças falsas:

( ) O termo ρ (x, t) é entendido como uma função de probabilidade.


( ) A definição de probabilidade, como Ψ * Ψ, é necessária desde que Ψ seja,
em geral, uma função complexa.
( ) O valor médio do momento linear pode ser escrito como: < p > = ∫ Ψ p Ψ dp,
se for Ψ uma função real.
( ) Considere, a seguir, uma partícula confinada em uma caixa de parede
potencial infinito em uma dimensão:

Nas posições dos nós das funções de ondas, a partícula têm uma
probabilidade pequena de ser encontrada em tais posições.
( ) O valor médio da posição no segundo nível de energia é diferente de zero,
uma vez que a probabilidade de se encontrar a partícula é maior no centro
de cada metade da caixa.

Agora, assinale a alternativa que apresenta a sequência CORRETA:


a) ( ) V – V – F – F – F.
b) ( ) V – V – F – F – V.
c) ( ) V – F – F – F – V.
d) ( ) F – V – F – F – V.
e) ( ) F – V – V – V – F.

212
REFERÊNCIAS

EISBERG, R.; RESNICK, R. Física quântica: átomos, moléculas, sólidos, núcleos


e partículas. Rio de Janeiro: Editora Campus, 2006.

FEYNMAN, R. Física em seis lições. São Paulo: Martins Fontes, 2000.

NUSSENZVEIG, H. M. Curso de física básica 2: fluido, oscilações e ondas,


calor. São Paulo: Editora Blucher, 2002.

OLIVEIRA, K.; SARAIVA, M. F. Astronomia e física. São Paulo: Editora Livraria


da Física, 2013.

SALINAS, S. R. A. Introdução à física estatística. São Paulo: Editora da


Universidade de São Paulo, 1997.

213

Você também pode gostar