Você está na página 1de 6

13/11/2020 Aplicações modernas das probabilidades

O desenvolvimento das aplicações das probabilidades

No período que vai dos primeiros estudos matemáticos de probabilidades até a metade do século passado, surgiram varias
aplicações da Teoria das Probabilidades, aplicações que chamamos de clássicas:

os cálculos atuariais, especialmente os associados aos seguros de vida


os estudos demográficos e, em especial, os estudos de incidência de doenças infecciosas e o efeito da vacinação ( exemplo
de grande repercussão na época sendo o da varíola )
a construção das loterias nacionais e o estudo dos jogos de azar: carteados, roleta, lotos, etc

Contudo, o que queremos aqui abordar é o surgimento das modernas aplicações da Teoria das Probabilidades, pois são essas que
vão demonstrar a enorme importância teórica e prática das idéias probabilistas e estender seu uso a uma enorme gama de
profissionais e até mesmo a muitas atividades do cotidiano do viver moderno. Dentre essas modernas aplicações, nos
concentraremos em:

probabilidades na Física
probabilidades na Estatística
probabilidades na Engenharia

1.- PROBABILIDADES NA FISICA

www.mat.ufrgs.br/~portosil/passa6b.html 1/6
13/11/2020 Aplicações modernas das probabilidades

Teoria dos Erros Experimentais

A partir do sec XVIII, o desenvolvimento e barateamento dos instrumentos de medida em muito multiplicou as observações
quantitativas em laboratório e em campo. Logo os físicos deixaram-se de se contentar em ter conseguido medir, eles passaram a
buscar a melhor medida possível. Em termos mais precisos, queriam a resposta do Problema Fundamental da Teoria dos Erros:

se em condições idênticas foram obtidas medidas x 1, x 2 . . . x n para uma grandeza de


valor exato x desconhecido, determinar a probabilidade de que o valor de x seja uma
quantidade expressa em termos dos x k, como e' o caso da média dessas medidas.

Esse problema foi exaustivamente estudado por Legendre, Laplace e Gauss, no final do sec XVIII e início de sec XX. O
resultado mais fundamental foi estabelecido por Gauss, ao provar que se os erros das medidas tem uma distribuição gaussiana
( ou da curva normal ) então o valor mais provável de x é a média das medidas x k.

Probabilidades na Física Estatística

Até a metade do sec XIX, os físicos viam a Teoria dos Erros como a única utilidade das probabilidades. Para isso era usado o
seguinte argumento: é perfeitamente concebível que usemos probabilidades e estatística no estudo de fenômenos biológicos e
sociais, afinal as pessoas de uma população tem altura, peso, inteligência diferentes; contudo, não há possibilidade de esse tipo
de variações no mundo físico: as propriedades de duas gotas de água ou dois litros de ar são absolutamente as mesmas.

Foi preciso um gênio do calibre de Maxwell para derrubar esse preconceito.


Maxwell implicara com o Princípio de Carnot, que diz que o calor não pode fluir espontâneamente ( = sem gasto de energia ) de
um corpo frio para um quente. Usando que a temperatura é um efeito médio das moléculas dos corpos, Maxwell acabou
mostrando que era perfeitamente possível que uma inteligência, a qual hoje chamamos de demônio de Maxwell, conseguisse
fazer o calor passar de um corpo frio para um quente, sem gasto de energia. Como um segundo estágio de suas idéias, passou a
defender que as leis termodinâmicas deveriam ter uma formulação probabilística. Em c. 1860 deu ao mundo a primeira lei física
de natureza probabilística: a lei de Maxwell para a distribuição do percentual p de moléculas de um gás em equilíbrio que estão
com velocidade ( a rigor: rapidêz ) v. Sendo a e b parâmetros do gás:

2
p=p(v)=a v 2 e - b v

www.mat.ufrgs.br/~portosil/passa6b.html 2/6
13/11/2020 Aplicações modernas das probabilidades

As idéias de Maxwell foram tornadas ao mesmo tempo práticas e mais gerais ( pois que aplicáveis a fenômenos físicos outros
que os de calor ) com Josiah Wilard Gibbs, com seu Principles of Statistical Mechanics, 1902, uma das obras mais importantes já
escritas em toda a história da Humanidade e que verdadeiramente deu maturidade à abordagem probabilística dos fenômenos
físicos.

Probabilidades na Física Quântica

O formalismo da Mecânica Estatística mostrou o quão útil podia ser a Teoria das Probabilidades para estender o poder da
Ciência clássica e equipá-la com instrumentos capazes de uma análise muito mais ampla do comportamento da matéria e da
energia: o estudo das reações químicas, dos processos termodinâmicos, da radiação eletromagnética, etc.

Contudo, no final do século XIX, começaram a surgir inconsistências nesta vasta paisagem. Por exemplo, o equilíbrio das
radiações não podia conviver logicamente com a idéia natural de distribuição contínua dos níveis energéticos. Logo se viu que a
evidência experimental levava à uma estrutura discreta dos níveis energéticos. A descoberta do elétron e a concepção atômica de
Rutherford apontavam grandes discrepâncias entre a teoria clássica do eletromagnetismo e o calor específico dos metais. A teoria
ondulatória da luz tinha sido adotada para se poder explicar os fenómenos de interferência luminosa, mas o efeito fotoelétrico
parecia preferir uma interpretação corpuscular. Pior do que isso, para esses mesmos elétrons observou-se fenômenos de
interferência, o que sugeria que eles também podiam comportar-se como ondas.

A resolução dessas dificuldades foi iniciada com Max Planck, no início do século XX, e acabou produzindo outra das maiores
obras da Humanidade: a Mecânica Quântica. Essa nova disciplina, ao explicar os fenômenos de radiação em termos de
probabilidades, destruiu o ponto de vista clássico que pregava que todos os fenômenos eram deterministas. Sob um ponto de
vista mais prático, permitiu uma muito fértil aproximação entre o ponto de vista dos físicos e o dos químicos no estudo da
matéria, disso resultando uma enorme massa de resultados fundamenatis tanto nso estudos teóricos ( como uma adequada
descrição molecular da química, e a interpretação e previsão de fenómenos de radiação em uma enorme faixa de energias ) como
na criação de importantes tecnologias ( como a eletrónica e a engenharia nuclear ).

O objetivo inicial da Mecânica Quântica era explicar as interações entre matéria e energia mas acabou tendo o papel de retificar e
completar a Física e Química clássicas. No que toca aos fenômenos macroscópicos, passou-se a pensar em termos de efeitos
macroscópicos consequência do comportamento de uma enorme quantidade de micro-sistemas cujas leis são probabilistas. Esses
micro-sistemas não são totalmente independentes ( por exemplo, os átomos de um sólido obedecem relações espaciais ), mas não
podem ser individualizados e os cálculos probabilistícos envolvidos precisam levar isso em conta. Assim que foi necessário um
ponto de vista revolucionário para descrever o comportamento dos micro-sistemas: as grandezas observáveis tem natureza
verdadeiramente probabilista.

2.- PROBABILIDADES NA ESTATISTICA

www.mat.ufrgs.br/~portosil/passa6b.html 3/6
13/11/2020 Aplicações modernas das probabilidades

A História registra censos, para fins de alistamento militar e de coleta de impostos, realizados há mais de 4 000 anos, como é o
caso do censo do imperador Yao na China, em 2 200AC. Em todo esse tempo, por estatística entendia-se meramente o trabalho
de exibição e síntese dos dados referentes colhidos pelo censo. Mais importante do que observar que estava restrita aos censos é
notar que era uma mera Estatística Descritiva, a qual não envolvia nenhum trabalho probabilístico, pois todos os objetos do
universo envolvido ( a população ) eram observados ou medidos.

A primeira pessoa a atinar em medir/observar apenas uma pequena amostra do universo envolvido e, a partir de análise
probabilista, estender os resultados da amostra para o todo do universo ou população foi Adolphe Quételet, c. 1850.
A partir dele, rapidamente surgiu a idéia de dar um embasamento mais rigoroso para o método científico, a partir de uma
fundamentação probabilista para as etapas da coleta e a da análise indutiva de dados científicos. Essa concepção, hoje essencial
no trabalho científico, só atingiu um nível prático no início do sec XX e desenvolveu-se em três grandes frentes:

A inferência estatística

estuda técnicas que permitem quantificar probabilisticamente as incertezas envolvidas ao induzirmos para um universo
observações feitas numa amostra do mesmo. Por exemplo:
uma companhia de aviação deseja saber o tempo médio que seus passageiros gastam ao desembarcarem no aeroporto XYZ.
Numa amostra de 320 passageiros, o tempo médio foi de 23 min. Com 95% de chances de certeza, o que poderá a companhia
dizer sobre o erro cometido ao afirmar que o tempo médio de desembarque de seus passageiros seu é 23 min, no aeroorto XYZ ?
Os pais da Inferência Estatística são J. Neyman e Karl Pearson, os quais a criaram em varios artigos escritos c. 1930. Embora os
estudos de Neyman e Pearson estivessem associados à questões de hereditariedade, os métodos e até as expressoes que criaram,
tais como "hipótese nula" e "nível de significância", fazem hoje parte da rotina diária de todo estatístico e cientista.

O delineamento dos experimentos científicos

trata das precauções que o cientista deve tomar, antes de iniciar suas observações ou medidas, de modo que se possa dar uma boa
probabilidade de que os objetivos pretendidos sejam atingidos.
O pai dessas técnicas é R. A. Fisher. Esse, ao trabalhar na seleção genética de plantas agrícolas, desenvolveu imensa quantidade
de resultados básicos sobre delineamento de experimentos e os divulgou, com grande sucesso, em dois livros históricos:
Statistical Methods for Research Workers, 1925, e The Design of Experiments, publicado em 1935.

A correlação entre variáveis

é o que, em Estatística, corresponde - não perfeitamente, desde já alertamos - à idéia de causação. Suponhamos que um cientista
faça, simultâneamente, a medida de duas ou mais variáveis: uma poderia ser a altura e a outra o peso de pessoas de uma
população. Se ocorrer que elas tendam a crescer ou decrescer simultaneamente, dizemos que elas sao positivamente
correlacionadas; se, por outro lado, a tendência é uma delas crescer e a outra decrescer, dizemos que elas são negativamente
correlacionadas. No instante que o estatístico ou cientista possa afirmar que duas ou mais variáveis são correlacionadas, ele
pode usar uma série de técnicas ( chamadas análise de regressão ) para achar fórmulas expressando os valores de uma dessas
variáveis em termos da outra, ou das outras. Tudo dentro de uma margem de erro que ele poderá estimar probabilisticamente.

www.mat.ufrgs.br/~portosil/passa6b.html 4/6
13/11/2020 Aplicações modernas das probabilidades

O pai da idéia de correlação foi o inglês Francis Galton o qual, no final do século passado a usou numa série de estudos de
hereditariedade motivados pela Teoria da Evolução de Darwin e com objetivos decididamente eugênicos.
A base matemática do trabalho de Galton era precária. Coube a Karl Pearson dar uma fundamentação mais matemática para a
correlação e introduzir técnicas hoje básicas: coeficiente de correlação, medida da qualidade da regressão via a distribuição
probabilista chi-quadrado, etc.

3.- PROBABILIDADES na ENGENHARIA

Controle de qualidade da produção industrial

A primeira pessoa a estudar matemáticamente o controle da qualidade foi W. Gosset ( mais conhecido por seu pseudônimo,
Student ) quando, no início do séc XX, trabalhava numa fábrica de cerveja. Sucederam-se algumas aplicações de âmbito fechado,
restrita ao setor militar ( França: M. Dumas ) e às atividades internas da Western Electric Company.

Contudo, é só em torno de 1930 que surgem os primeiros tratados de cunho prático e destinado a engenheiros: o The Economic
Control of the Quality of Manufactured Products ( de W. A. Shewart, da Bell Telephone Co., USA, 1929 ) e o The Application of
Statistical Methods in Industrial Standartization and Quality Control ( de Egon. S. Pearson, Inglaterra, 1935). Por essa mesma
época, surgem as primeiras comissões tratando da uniformização das normas do controle estatístico da qualidade: o Joint
Committe for the Development of Statistical Applications in Engineering and Manufacturing, americano, e a Section of
Industrial and Agriculture Researches, na Royal Statistical Society of London.

Apesar desses pioneiros, a real difusão dos métodos estatísticos na engenharia só iniciou durante a Segunda Guerra. Entre 1941 e
1942 os americanos e os inglêses desenvolveram um grande programa, procurando disseminar a prática do controle de qualidade
estatístico na produção militar. Vários manuais foram escritos e divulgados amplamente. Especialmente decisiva foi a adoção
desses manuais pelas universidades americanas que faziam parte do Engineering and Science War Training Program.
Terminada a guerra, rapidamente tornou-se norma a inclusão de cursos de Probabilidades e Estatística em todos os cursos de
engenharia americanos, inglêses e, logo, de outros países.

EXEMPLO:
Uma fábrica estuda um novo processo de manufatura para a produção de tampões para pias e
banheiras. Os tampões com mais de 2.5 cm deverão ser descartados. Numa amostra de 20
tampões determinou-se um diâmetro médio 2.49 cm e desvio padrão de 0.01 cm. Supondo que os
diâmetros tenham uma distribuição de probabilidades gaussiana, que percentual da produção
desse processo deverá ser descartada ?
www.mat.ufrgs.br/~portosil/passa6b.html 5/6
13/11/2020 Aplicações modernas das probabilidades

Aplicações mais recentes das probabilidades na Engenharia

são cada vez mais variadas e importantes, citaremos rapidamente apenas três:

Teoria das Filas:


Busca calcular a quantidade de recursos e a maneira de disponibilizá-los para que uma fila de solicitação de serviços seja
atendida, com investimento mínimo de recursos e tempo mínimo de espera por parte dos clientes da fila. Exemplos de
problemas de filas sendo: determinar o número de caixas num super-mercado, determinar o número de pistas num
aeroporto, determinar a quantidade de equipamento telefônico necessário para atender uma área geográfica, determinar a
quantidade de mecânicos e boxes para atender os serviços de uma grande concessionária de automóveis, tudo isso a partir
de projeções probabilistas da demanda.
A origem da Teoria das Filas ocorreu em Telefonia.

Teoria da Informação
Partindo de considerações probabilistas, essa teoria desenvolveu uma medida da quantidade de informação em mensagens.
Usando essa medida, a teoria estuda maneiras de codificar, transmitir e decodificar as mensagens que são transmitidas
pelos sistemas de comunicação: TV, radio, telefonia, satélites, etc. Os principais obstáculos a vencer são a existência de
ruídos aleatórios, produzidos pelas componentes dos sistemas de comunicação e por interferências, e a existência de uma
capacidade limite de todo canal de comunicação. As bases dessa teoria foram estabelecidas por Claude Shannon c. 1950.

Teoria do Risco
Trata de problemas envolvendo decisões alternativas e cujas consequências só podem ser avaliadas probabilísticamente.
Uma situação importante sendo o estudo das panes em sistemas de engenharia complexos, como redes de distribuição de
energia elétrica, redes telefônicas, redes de computadores, etc. Tipicamente, deseja-se maximizar a duração do
funcionamento normal do sistema a um custo mínimo de investimento em equipamento.

versão: 23 - fev - 2 001


localize esta página em: http://athena.mat.ufrgs.br/~portosil/estatist.html
© J.F. Porto da Silveira ( portosil@mat.ufrgs.br )
permitida a reprodução, desde que com fins acadêmicos e não comerciais

www.mat.ufrgs.br/~portosil/passa6b.html 6/6

Você também pode gostar