Você está na página 1de 24

EAD

Raciocínio com Incertezas

1. OBJETIVOS
• Compreender e discutir os fundamentos relacionados ao
Raciocínio com Incertezas.
• Aplicar os conceitos sobre Raciocínio com Incertezas.

2. CONTEÚDOS
• Métodos para representação de conhecimento incerto.
• Raciocínio com Incertezas.
• Combinações de incertezas.
• Conhecimento incompleto, impreciso e duvidoso.
• Aspectos práticos da representação e manipulação de co-
nhecimento incerto.
180 © Inteligência Artificial

3. ORIENTAÇÕES PARA O ESTUDO DA UNIDADE


Antes de iniciar o estudo desta unidade, é importante que
você leia as orientações a seguir:
1) Os sistemas inteligentes trabalham com dados e infor-
mações normalmente coletados de ambiente monitora-
do a partir de sensores – lembrando que podemos ter
sistemas inteligentes avaliando dados coletados a par-
tir de bases de dados, logs de aplicações e de usuários,
entre outras fontes de informações. Em muitos casos,
os dados e as informações coletados são incertos, im-
precisos ou imperfeitos. Mesmo nesses casos, o sistema
deverá realizar as interpretações necessárias e oferecer
uma resposta, que pode ser por meio de uma ação a ser
executada no ambiente ou um sistema de alerta; enfim,
de acordo com as regras utilizadas para o cálculo. Na IA,
a área de pesquisa que estuda as incertezas se chama
Raciocínio Incerto e, nesta unidade, você terá a opor-
tunidade de conhecer e estudar alguns métodos para
representação de conhecimento incerto. Lembre-se de
que a biblioteca está à disposição para consultas, e você
pode retirar os livros necessários para estudar os assun-
tos básicos de Lógica Matemática, necessários para a
compreensão desta unidade.
2) Caso tenha interesse em aprofundar os estudos desta
unidade, temos sugestões muito úteis. Observe que,
para cada assunto estudado, sugerimos uma leitura es-
pecífica:
a) Para os fundamentos históricos e conceituais da
Teoria de Probabilidades, recomendamos: FINE, K.
Theories of probability. New York: Academic, 1973.
b) Para as redes bayesianas, o livro: PEARL, J. Probabi-
listic reasoning in intelligent systems. San Francisco:
Morgan Kaufmann, 1988.
c) Para lógicas probabilísticas, sugerimos: BACCHUS, F.
Representing and reasoning with probabilistic logic.
Elsevier: MIT, 1990. Sugerimos, também, um artigo
© U6 - Raciocínio com Incertezas 181

que descreve com clareza as lógicas difusas: RUSPI-


NI, E. Possibility as similarity: the semantics of fuzzy
logic: In: 6th CONFERENCE ON UNCERTAINTY AND
ARTIFICIAL INTELLIGENCE, 1990, Elsevier. Proceedin-
gs, 1990.
d) Para os mecanismos simbólicos de representação de
incertezas, o artigo clássico: REITER, R. A logic for de-
fault reasoning. Artificial Intelligence, Amsterdam, v.
13, Elsevier, 1980.
3) Antes de iniciar os estudos desta unidade, pode ser inte-
ressante conhecer um pouco da biografia dos pensado-
res, cujas ideias norteiam a proposta deste estudo. Para
saber mais, acesse os sites indicados.

Girolamo Cardano (1501-1576)


Girolamo Cardano nasceu no dia 24 de setembro de
1501, na cidade de Pavia, hoje pertencendo à Itália.
Sem dúvida, ele é um dos personagens mais interes-
santes do início da história das probabilidades. O in-
teresse precoce de Cardano pela Matemática veio do
seu pai que era um advogado comercial, mas, eviden-
temente, também um matemático realizado. Depois,
Cardano foi educado nas universidades de Pavia e
Pádua. Ele recebeu o grau de doutor em Medicina em
1525.
Cardano era um homem de muitos interesses e profis-
sões, incluindo: Leis, Medicina, Astrologia, e Matemá-
tica. Cardano publicou The Practice of Arithmetic and
Simple Mensuration em 1537. O trabalho matemático
pelo qual ele é mais conhecido, Ars Magna (A Grande Arte), foi publicado em
1545. Esse livro contém uma variedade de métodos para resolver equações po-
linomiais, e se antecipa à descoberta dos números complexos. Adicionalmente,
Cardano escreveu duas enciclopédias de Ciência Natural. Ele alcançou fama
extraordinária como médico e foi considerado um dos cientistas de vanguarda
na Europa.
Contudo, Cardano era também um ávido e, às vezes, jogador compulsivo que
desperdiçou uma parte significante da sua vida e fortuna em jogos de azar. Pelo
lado positivo, seu interesse no jogo conduziu-o ao estudo matemático das proba-
bilidades. Seu livro Liber de Ludo Aleae (O Livro dos Jogos de Azar), publicado
depois da sua morte, em 1663, continha, talvez, a primeira análise matemática
de jogos. Em particular, Cardano formulou o conceito fundamentalmente impor-
tante de resolver um problema de probabilidade identificando o espaço amostral
com resultados igualmente prováveis.
Cardano sofreu também várias outras tragédias. Seu filho, Giambatista, envene-
nou a sua esposa. Cardano foi sumariamente encarcerado acusado de heresia

Claretiano - Centro Universitário


182 © Inteligência Artificial

(em parte, por lançar o horóscopo de Jesus). Ele predisse a data da sua própria
morte, algo que ele assegurou que talvez ocorresse por suicídio. Em todo caso,
Cardano morreu no dia 21 de setembro de 1576, em Roma. (imagem disponível
em: <http://www.nndb.com/people/528/000107207/>. Acesso em: 9 ago. 2010.
Texto adaptado do site: <http://www.ditizio.ecn.br/biografia/cardano.html>. Aces-
so em: 9 ago. 2010).

Thomas Bayes (1702-1761)


O pai de Thomas Bayes foi um dos seis primeiros mi-
nistros não conformistas a ser ordenado na Inglaterra.
Thomas foi educado de forma privada, algo que pare-
cia necessário para o filho de um ministro não confor-
mista naquela época.
Nada se sabe sobre seus tutores, mas especula-se
que possa ter sido educado por De-Moivre que dava
tutoria privada em Londres na época.
Thomas Bayes foi ordenado um ministro não confor-
mista, a exemplo de seu pai, e no início foi seu ajudan-
te em Holborn. No final de 1720 ele tornou-se ministro
da capela Presbiteriana em Turnbridge Wells a cerca
de 50km de Londres.
Bayes aparentemente tentou deixar o ministério em 1749 mas acabou perma-
necendo até 1752 quando se aposentou definitivamente, continuando a viver no
mesmo local.
Bayes estabeleceu sua teoria da Probabilidade no artigo Essay towards solving a
problem in the doctrine of chances (Ensaio no Sentido de Resolver um Problema
na Doutrina do Acaso) publicado no periódico Philosophical Transactions (Regis-
tros Filosóficos) da Royal Society of London (Sociedade Real de Londres), em
1764. O artigo foi enviado, postumamente, para a Sociedade Real por seu amigo
Richard Price, que escreveu:
Estou enviando a vocês um ensaio que encontrei entre os papéis de nosso faleci-
do amigo, Sr. Bayes, e o qual, na minha opinião, apresenta um grande mérito. Na
introdução ele diz que seu projeto foi o primeiro a abordar o assunto. O propósito
é encontrar um método pelo qual se possa julgar a probabilidade de que um
evento ocorra em uma dada circunstância, na hipótese que nada se saiba sobre
ele, mas sob a mesma circunstância, ele ocorreu um certo número de vezes e
não ocorreu um outro certo número de vezes.
As conclusões de Bayes foram aceitas por Laplace, em um ensaio de 1781, que
foi redescoberto por Condorcet. Elas ficaram sem causar controvérsias até que
Boole as questionou [nas] Leis do Pensamento (Laws of Thought). Desde então
as técnicas Bayesinas não tem deixado de suscitar controvérsias.
Bayes escreveu, ainda, um artigo denominado de The Doctrine of Fluxions, and
a Defence of the Mathematicians Against the Objections of the Author of The
Analyst (Uma introdução a doutrina dos Fluxions, e a defesa dos Matemáticos
contra as objeções do autor de o Analista), em 1736, rebatendo Berkeley, por
seus ataques as fundações lógicas do Cálculo.
Bayes foi eleito para a Royal Society, em 1742, apesar do fato [de] que na época
ele não tinha publicado trabalhos em Matemática. De fato, nada foi publicado
© U6 - Raciocínio com Incertezas 183

enquanto viveu sob o seu próprio nome. O artigo sobre fluxions referido acima
foi publicado de forma anônima. Uma outra publicação matemática sobre séries
assintóticas apareceu após a sua morte. (imagem disponível em: <http://www.
pucrs.br/famat/statweb/historia/daestatistica/biografias/Bayes.ht>. Acesso em: 9
ago. 2010. Texto disponível em: <http://www.pucrs.br/famat/statweb/historia/da-
estatistica/biografias/Bayes.ht>. Acesso em: 9 ago. 2010.

4. INTRODUÇÃO À UNIDADE
Retomamos, nesta unidade, a abordagem prática, voltada à
resolução de problemas utilizada nas unidades anteriores. Nosso
objetivo é levar em consideração que, muitas vezes, um agente
inteligente precisa tomar decisões com base em informações im-
perfeitas e, como consequência, precisa lidar com incertezas.
Nesta última unidade, estudaremos os fundamentos da área
de pesquisas denominada Raciocínio Incerto, considerada uma es-
pecialidade dentro da Inteligência Artificial.

5. MÉTODOS PARA REPRESENTAÇÃO DE CONHECI-


MENTO INCERTO
A incerteza tem um papel importante em processos de ra-
ciocínio, e, dessa forma, se você deseja construir sistemas para a
Automação do Raciocínio, é necessário que seja capaz de construir
e manipular representações de incertezas, considerando todas as
suas possíveis fontes e formas.
A incerteza pode se originar de diferentes fontes. Observe a
seguir algumas delas:
1) informações não confiáveis;
2) informações de natureza inerentemente randômica;
3) regras e implicações lógicas fundamentadas em associa-
ções estatísticas, intuitivas e em observações e conside-
rações de plausibilidade;
4) condições que admitam casos excepcionais;
5) regras genéricas que não necessariamente se apliquem
a casos particulares específicos;

Claretiano - Centro Universitário


184 © Inteligência Artificial

6) informações incompletas;
7) informações ambíguas;
8) informações inconsistentes.
Além de conhecer essas diferentes fontes, é fundamental
que você compreenda que existem diferentes maneiras de formu-
lar e formalizar a incerteza, para que possa ser representada com-
putacionalmente e utilizada em sistemas de Inteligência Artificial.
Assim, pode ser classificada da seguinte maneira:
a) Formalismos numéricos: formalizações de incerteza que
a caracterizam como uma grandeza mensurável e repre-
sentável utilizando números reais.
• Formalismos baseados na Teoria de Probabilidades,
como as lógicas probabilísticas e as redes bayesia-
nas.
• Formalismos baseados em extensões formais da Te-
oria de Probabilidades, com destaque para a Teoria
da Evidência de Dempster-Shafer. Esta é uma teoria
matemática que permite combinar evidências de di-
ferentes fontes para encontrar resultados com certo
grau de credibilidade.
• Formalismos baseados em medidas difusas, como a
Lógica Difusa e a Teoria de Possibilidades.
b) Formalismos simbólicos: formalizações de incerteza que
a caracterizam como um atributo simbólico de entidades
lógicas, como os Sistemas de Raciocínio Não Monotôni-
co, a Teoria de Confirmações de Cohen e o Sistema de
Argumentos de Fox.
c) Formalismos heurísticos: formalizações de incerteza que
a caracterizam como uma grandeza numérica, com sig-
nificado intuitivo claro, mas não necessariamente uma
fundamentação matemática rigorosa. Esse é o caso dos
fatores de certeza.
Analisaremos a seguir cada uma dessas formas de represen-
tação de incerteza.
© U6 - Raciocínio com Incertezas 185

Os fatores de certeza foram historicamente os primeiros


mecanismos para manipulação de incertezas propostos em Inteli-
gência Artificial. Eles se fundamentam na atribuição de valores nu-
méricos a sentenças lógicas, visando ordenar essas sentenças com
base em sua confiabilidade. Essa atribuição heurística de valores
numéricos a sentenças, embora tenha sido bem sucedida para a
construção dos primeiros sistemas baseados em conhecimento e
agentes inteligentes, mostrou-se pouco reutilizável, pois a ordena-
ção e os mecanismos de propagação de ordenações utilizados em
um problema não necessariamente se aplicavam a outros. Atual-
mente, os fatores de certeza caíram em desuso, dando lugar a me-
canismos para representação e manipulação de incertezas funda-
mentadas em teorias matemáticas genéricas e bem construídas.

6. TEORIA DE PROBABILIDADES PARA REPRESENTA-


ÇÃO DE INCERTEZAS
Um dos mecanismos para representação de incertezas mais
utilizados é a Teoria de Probabilidades. Os fundamentos dessa te-
oria datam do século 16, quando Girolamo Cardano desenvolveu
um cálculo para caracterizar a expectativa de se obter determina-
dos resultados em jogos de azar.
Os fundamentos lógicos e algébricos da Teoria de Probabili-
dades são creditados a Borel e a Kolmogorov, no início do século
20. A interpretação conceitual das medidas de probabilidade, en-
tretanto, ainda é motivo de discussões e admite diferentes verten-
tes e pontos de vista.
As interpretações conceituais das medidas de probabilidade
são usualmente classificadas segundo dois pontos de vista:
• A divisão entre os frequentistas e os subjetivistas: os fre-
quentistas assumem a existência de um experimento que
pode ser repetido várias vezes e interpretam a probabili-
dade de um evento como a proporção de vezes em que

Claretiano - Centro Universitário


186 © Inteligência Artificial

este ocorre ao longo das repetições do experimento. Os


subjetivistas, em contrapartida, consideram a existência
de um agente racional capaz de estimar a ocorrência de
um evento, baseado em sua experiência, conhecimento
do mundo etc. Para um subjetivista, a medida de probabi-
lidade caracteriza o quanto um agente acredita na chance
de um evento ocorrer.
• A divisão entre os normativos e os descritivos: os nor-
mativos assumem a existência de um modelo ideal de
comportamento de um sistema e constroem a Teoria de
Probabilidades baseada nesse modelo. Para um normati-
vo, quando um sistema se comporta de maneira diferente
do seu modelo explicativo, é em decorrência de imper-
feições que devem ser corrigidas. Já os descritivos não
assumem a existência de um modelo ideal preliminar e
procuram ajustar as suas medidas e respectivas teorias
aos resultados experimentais obtidos.
A combinação desses dois pontos de vista permite construir
quatro interpretações diferentes para medidas de probabilidades:
1) Frequentista/normativa.
2) Frequentista/descritiva.
3) Subjetivista/normativa.
4) Subjetivista/descritiva.
Curiosamente, a Teoria Matemática de Probabilidades satis-
faz a todos esses pontos de vista. Ela é considerada, portanto, uma
teoria bastante versátil, pois a mesma teoria se aplica para mode-
lar diferentes fenômenos conceituais.
A Teoria Matemática de Probabilidades pode ser resumida
da seguinte forma: considere inicialmente um conjunto enume-
rável (que pode ser finito ou infinito) D, denominado o domínio
das medidas de probabilidades. Considere também, o conjunto
composto por todos os subconjuntos de D, representado como
2D. Existem subconjuntos de 2D que têm propriedades matemá-
© U6 - Raciocínio com Incertezas 187

ticas importantes. Esses conjuntos recebem o nome especial de


σ-campos e são representados com a letra grega χ.
Um σ-campo tem as seguintes propriedades:
• é fechado quanto ao complemento, ou seja, se X є χ então
D\X є χ;
• é fechado quanto  a uniões enumeráveis, ou seja, se X1,
X2,... є χ então i Xi є χ. i Xi є χ
• D є χ.
Os σ-campos servem de base para definir medidas de proba-
bilidade. Uma medida de probabilidade é uma função matemáti-
ca de elementos de um σ-campo para números reais no intervalo
[0, 1], com as seguintes propriedades:
• P: χ →[0, 1]
• P(D) = 1.
• Se X1, X2,... є χ e X1, X2,... são disjuntos dois a dois, então
P(  Xi) =
i

i
P(Xi).
Temos, por exemplo, dois dados tradicionais de jogos. Para
simplificar, considere que os dados são identificados da seguinte
maneira: um é branco e o outro vermelho. Nesse caso, o conjunto
D caracteriza todos os possíveis pares de valores que podem ser
sorteados:
D = {(1,1), (1,2),..., (1,6), (2,1),..., (6,6)}
Considere agora o σ-campo em que cada elemento é com-
posto por resultados dos dados que produzem a mesma soma
de pontos, ou seja, o σ-campo caracterizado pelo fecho quanto à
união dos seguintes conjuntos:
{{ }, {(1,1)}, {(1,2), (2,1)}, {(1,3), (2,2), (3,1)},..., {(6,6)}}
Podemos construir uma medida de probabilidades para esse
σ-campo. Para tanto, observe o exemplo a seguir.

Claretiano - Centro Universitário


188 © Inteligência Artificial

Nesse exemplo, assumimos que os dois dados estão perfei-


tamente balanceados, dessa forma, podemos ter:
P({(1,1)}) = 1/36
P({(1,2), (2,1)}) = 2/36
P({(1,3), (2,2), (3,1)}) = 3/36
P({(1,4), (2,3), (3,2), (4,1)}) = 4/36
P({(1,5), (2,4), (3,3), (4,2), (5,1)}) = 5/36
P({(1,6), (2,5), (3,4), (4,3), (5,2), (6,1)}) = 6/36
P({(2,6), (3,5), (4,4), (5,3), (6,2)}) = 5/36
P({(3,6), (4,5), (5,4), (6,3)}) = 4/36
P({(4,6), (5,5), (6,4)}) = 3/36
P({(5,6), (6,5)}) = 2/36
P({(6,6)}) = 1/36
Com base nos valores anteriores, podemos deduzir as medi-
das de probabilidade para todos os outros conjuntos do σ-campo.
Por exemplo:
1 = P(D) =
P(D\{(1,1)} U {(1,1)}) =
P(D\{(1,1)}) + P({(1,1)}) =
P(D\{(1,1)}) + 1/36,
Portanto, P(D\{(1,1)}) = 1 – 1/36 = 35/36
Considere agora a situação na qual as jogadas dos dados em
que a soma dos valores sorteados for menor que 9 sejam descarta-
das. Essa condição adicional "distorce" as probabilidades anteriores.
Se calcularmos, por exemplo, a probabilidade da soma dos valores
sorteados e essa soma for, exatamente, igual a 10, a probabilidade
não será mais igual a 3/36. Para levar essa distorção em conta, pre-
cisamos introduzir o conceito de Probabilidade Condicional.
© U6 - Raciocínio com Incertezas 189

Probabilidade Condicional: a probabilidade de um conjunto


A dado a um segundo conjunto B é representada como P(A|B) e
matematicamente caracterizada como:

P( A ∩ B)
P( A | B) =
P( B)

Assim, se:
• A = {{(4,6), (5,5), (6,4)}}, ou seja, o evento em que a soma
dos valores sorteados é exatamente 10;
• B = {{(3,6), (4,5), (5,4), (6,3)}, {(4,6), (5,5), (6,4)}, {(5,6),
(6,5)}, {(6,6)}}, ou seja, o evento em que a soma dos valo-
res sorteados é acima de 8, então:

P ( A ∩ B ) 3 / 36
P (=
A | B) = = 3 / 10
P( B) 10 / 36

7. REDES BAYESIANAS PARA REPRESENTAÇÃO DE IN-


CERTEZAS
Com base no conceito de Probabilidade Condicional, pode-
mos definir a Regra de Bayes.
Regra de Bayes: seja um conjunto de hipóteses mutuamente
exclusivas H = {h1,..., hn} e uma observação ou evidência {e}. A pro-
babilidade de uma hipótese específica hi dada a evidência e pode
ser obtida a partir da probabilidade condicional da evidência dada
a cada uma das hipóteses e dadas as probabilidades das hipóteses
"puras", ou seja, sem informações a respeito da evidência:

P (e | hi ) × P (hi )
P (hi | e) =
P (e)

n
Em =
que: P(e) ∑ P(e | h ) × P(h )
i
j j

Claretiano - Centro Universitário


190 © Inteligência Artificial

Vale lembrar algumas fórmulas básicas de probabilidade:


1) Regra do produto: consiste na probabilidade da conjun-
ção entre dois eventos x e y:
P(x ^ y) = P(x/y)P(y) = P(y/x)P(x)
2) Regra da Soma: é a probabilidade da disjunção de dois
eventos x e y:
P(x v y) = P(x) + P(y) - P(x ^ y)
3) Teorema da Probabilidade Total: se eventos x1,....xn ex-
cluem-se mutuamente e formam uma partição do even-
to certo, temos:
n
P(y) = ∑ P ( B / Ai ) P ( Ai )
i =1

A Regra de Bayes fundamenta um mecanismo para repre-


sentar e manipular incertezas probabilísticas, denominado redes
bayesianas. Essas redes são um sistema flexível e expressivo de
representação de conhecimento com incertezas. Uma rede baye-
siana é um grafo direcionado, e, dependendo da topologia desse
grafo, a manipulação da incerteza nele representada pode ser rea-
lizada de forma computacionalmente eficiente.
Geralmente, as redes bayesianas são utilizadas para carac-
terizar incertezas subjetivistas e normativas, ou seja, caracterizam
como um agente puramente racional deveria enfrentar situações
em que suas decisões devem ser guiadas por crenças sobre o com-
portamento do mundo fundamentadas em informações parciais.
Dessa forma, observe que uma rede bayesiana é um grafo di-
recionado acíclico. Os nós nesse grafo representam sentenças pro-
posicionais, e os arcos as relações de causa-efeito, caracterizadas
matematicamente por medidas de probabilidades condicionais. Se
dois nós não estão diretamente conectados, ou seja, se não exis-
te um arco partindo de um dos dois nós e chegando diretamente
ao outro, então são probabilisticamente independentes, ou seja,
a condição de ocorrência da sentença relativa a um dos nós não
© U6 - Raciocínio com Incertezas 191

altera a probabilidade de ocorrência do segundo nó. Matematica-


mente, se não existe um arco ligando os nós A e B, então P(A|B) =
P(A) e P(B|A) = P(B).
Para apresentar maiores detalhes sobre redes bayesianas,
sobretudo como elas podem ser manipuladas e utilizadas, vamos
considerar um exemplo concreto. Observe, na Figura 1, a rede ca-
racterizada pelos nós A, B, C, D e E, conectados entre si.

P(E|C) . 80
P(C|A) 0 .20 P(E| C) .60
P(C| A) 0.05

P(B|A) . 80
P(B| A) .20

P(D|BC) .80
P(D|B C) . 80
P(D| BC) .80
P(D| B C) .05

Figura 1 Rede bayesiana.

Nessa figura, “┐X” representa o complemento do evento X.


A rede bayesiana é “ativada” com a probabilidade de um
evento específico. Essa ativação gera um processo de propagação
de valores, produzindo estimativas de probabilidades para outros
eventos. Vamos ativar essa rede com o valor P(A) = 0.20.
Após ser ativada, construímos uma árvore de cliques. Um
clique de um grafo é um conjunto de nós diretamente conectados.
Em nosso caso, um clique caracteriza eventos probabilisticamente
dependentes. Observe, na Figura 2, a ilustração da árvore de cli-
ques.

Claretiano - Centro Universitário


192 © Inteligência Artificial

ABC

BCD CE

Figura 2 Árvore de cliques.

Para cada clique, por meio da Regra de Bayes, podemos cal-


cular as respectivas probabilidades relativas às combinações dos
eventos. Por exemplo, para o clique <ABC> calculamos as probabi-
lidades das respectivas oito combinações possíveis. Veja, a seguir,
alguns exemplos de combinações possíveis.
P(ABC) = (P(A)*(P(B|A))*P(C|A) = 0.032
P(┐ABC) = (P(┐A)*P(B|┐A))*P(C|┐A) = 0.008
P(A┐BC) = (P(A)*P(┐B|A))*P(C|A) = 0.008, e assim por diante.
Essas probabilidades permitem obter as probabilidades de
cada sentença isoladamente: dados P(ABC) e P(┐ABC), temos P(BC)
= P(ABC)+P(┐ABC). De maneira similar, podemos calcular P(┐BC).
Com esses dois valores, podemos calcular P(C) = P(BC)+P(┐BC).
As probabilidades das sentenças de um clique podem ser
utilizadas como ativações para o clique seguinte. No exemplo an-
terior, uma vez calculadas as probabilidades P(A), P(B) e P(C) do
clique <ABC>, podemos prosseguir para o clique <BCD> e calcular
P(D) e, também, para o clique <CE> e calcular P(E).
O conceito fundamental de relacionamento entre sentenças
nas redes bayesianas é a Probabilidade Condicional. Outra possi-
bilidade para relacionar sentenças avaliadas probabilisticamente é
utilizar os conectivos lógicos vistos nas unidades anteriores. Pode-
mos construir, nesse caso, uma lógica probabilística.
© U6 - Raciocínio com Incertezas 193

Para simplificar um pouco a apresentação, vamos conside-


rar somente a Lógica Proposicional Probabilística. Ela é composta
por:
• Um conjunto finito de símbolos atômicos P = {p1,..., pn} e
os conectivos lógicos C = {V, &, →, ┐}.
• Um conjunto de mundos possíveis W = {w1,..., wm}, em que
cada mundo possível corresponde a uma classificação dos
símbolos atômicos como verdadeiros ou falsos. Pode-se
deduzir, portanto, que m = 2n.
• Uma medida de probabilidades definida para todos os
subconjuntos de mundos possíveis P: 2W → [0, 1].
Cada sentença da Lógica Proposicional Probabilística, defini-
da anteriormente, é verdadeira em um conjunto de mundos pos-
síveis e falsa nos mundos possíveis restantes. A probabilidade de
uma sentença é a medida de probabilidade associada ao conjunto
de mundos possíveis em que aquela sentença for verdadeira.
Computacionalmente, há duas estratégias para se trabalhar
com uma Lógica Proposicional Probabilística. Veja a seguir:
• Manipular explicitamente a associação das sentenças aos
mundos possíveis e dos mundos possíveis a medidas de
probabilidades – um provador automático de teoremas
deve identificar, para uma dada sentença, quais símbolos
atômicos precisam ser verdadeiros para que ela possa ser
considerada verdadeira. Esse conjunto de símbolos atô-
micos caracteriza um conjunto de mundos possíveis, que
pode então ter sua probabilidade avaliada por meio da
consulta a uma tabela de probabilidades para os mundos
possíveis, por exemplo.
• Manipular diretamente as medidas de probabilidades –
uma medida de probabilidade associada a uma sentença
pode ser formalizada como uma restrição linear para os
valores de probabilidades das sentenças que podem ser
obtidas utilizando mecanismos de inferência. Dessa for-

Claretiano - Centro Universitário


194 © Inteligência Artificial

ma, algoritmos e sistemas para manipulação de restrições


lineares – por exemplo, sistemas de otimização baseados
em programação linear – podem ser utilizados para cal-
cular as probabilidades de teoremas, dados os valores de
probabilidade para um conjunto de axiomas. Entretanto,
os detalhes desses algoritmos seriam demasiadamente
extensos para serem apresentados.
Existem situações em que, embora tenhamos informações
parciais de natureza probabilística a respeito das incertezas as-
sociadas a um determinado domínio, essas informações não são
suficientes para caracterizar uma medida de probabilidades, invia-
bilizando, dessa maneira, a manipulação computacional de valo-
res para estimar a incerteza associada a determinadas sentenças
lógicas.

8. TEORIA DE DEMPSTER-SHAFER: EXTENSÃO DA TE-


ORIA DE PROBABILIDADES PARA REPRESENTAÇÃO
DE INCERTEZAS
Para ampliar a aplicabilidade da Teoria de Probabilidades,
precisa-se que ela seja estendida para que se possa lidar com valo-
res aproximados de medidas além das medidas exatas de probabi-
lidades. Uma forma bastante difundida e bem-sucedida de esten-
der a Teoria de Probabilidades é a Teoria de Dempster-Shafer, que
substitui as medidas exatas de probabilidades por intervalos em
que se estima que essas medidas devam ocorrer.
Considere, novamente, o exemplo dos dois dados. Vamos
supor que não temos garantias de que esses dois dados estejam
perfeitamente balanceados. Vamos supor, ainda, que temos ape-
nas informações sobre as probabilidades dos conjuntos de sor-
teios cujas somas de valores sejam iguais. Por exemplo, podemos
saber que P({(1,3), (2,2), (3,1)}) = 0.10, sem ter informações mais
detalhadas que nos permitam saber o valor de P({(1,3)}). Por outro
© U6 - Raciocínio com Incertezas 195

lado, se tivermos a probabilidade P({(1,1)}) = 0.05, podemos não


saber o valor de P({(1,1), (1,2)}).
A Teoria de Dempster-Shafer procura estender as medidas
disponíveis, obtendo valores de crença e plausibilidade para cada
evento possível. Nos exemplos anteriores, é razoável supor que
P({(1,3)}) ≤ P({(1,3), (2,2), (3,1)}), e que P({(1,1), (1,2)}) ≥ P({(1,1)}).
Matematicamente, na Teoria de Dempster-Shafer, a crença
é uma medida associada a eventos de um domínio, em que um
evento é qualquer subconjunto dos elementos do domínio, da se-
guinte forma:
a) B : 2D → 0, 1 .

b) B ({ }) = 0.

c) B (D ) = 1.
n n n n n
d) B( Ai ) ≥ ∑ B(Ai ) − ∑ ∑ B(Ai ∩ A j ) +  + (−1)n +1B( Ai )
1 1 1 1 1

Intuitivamente, a crença caracteriza um limite inferior para


uma probabilidade. E a plausibilidade caracteriza, para a mesma
probabilidade, um limite superior. Observe como é a representa-
ção matemática da plausibilidade, a seguir:
Pl(A) = 1 − B(¬A).

A crença corresponde à probabilidade do maior conjunto


cuja medida é conhecida e que está totalmente contida no evento
de interesse. A plausibilidade corresponde àquela do menor con-
junto, cuja medida é conhecida e que contém totalmente o evento
de interesse. Assim, dado um evento de interesse A, o par [B(A),
Pl(A)] caracteriza a melhor informação que se pode obter, que es-
tima a probabilidade de A. Quando a probabilidade de A é conhe-
cida, tem-se que B(A)=P(A)=Pl(A).
As formas de caracterizar, medir e utilizar as medidas de in-
certeza vistas até o momento têm uma característica em comum:

Claretiano - Centro Universitário


196 © Inteligência Artificial

todas as interpretações conceituais das medidas de probabilida-


des – e de suas extensões, como a contida na Teoria de Dempster-
Shafer – as associam a noções de proporção entre situações nas
quais ocorre e nas quais não ocorre algum evento de interesse.
Essa, entretanto, não é a única fonte possível de incertezas.
Existe, pelo menos, mais uma fonte importante de incertezas
que deve ser considerada: é a imprecisão. Considere, por exem-
plo, a sentença "Flávio é gordo". Essa sentença não é bem caracte-
rizada por probabilidades, pois não existem variações nos mundos
possíveis relativas ao peso de Flávio – ele é igualmente gordo em
todos os mundos possíveis. Existe, entretanto, uma imprecisão as-
sociada à sentença, pois ela não determina o peso exato de Flávio,
apenas indica que ele está com o peso acima do recomendado.
A Teoria dos Conjuntos Difusos foi construída para manipular
informações imprecisas. Um conjunto difuso tem como caracte-
rística o fato de que alguns elementos pertencem parcialmente a
ele. Assim, se Flávio pesar 250kg, ele pertencerá totalmente ao
conjunto dos indivíduos gordos; se Flávio for um adulto de estatu-
ra normal e pesar 30kg, ele estará totalmente fora do conjunto dos
gordos; e se Flávio pesar 80kg, ele estará parcialmente dentro do
conjunto dos gordos.
Dado um domínio composto por objetos de interesse D, um
conjunto é caracterizado por uma função de pertinência μ: D →
[0,1]. Se um elemento a pertence totalmente a um conjunto, te-
mos que μ(a)=1; se o elemento estiver totalmente fora do conjun-
to, temos que μ(a)=0; se o elemento estiver parcialmente dentro
do conjunto, temos que 0 < μ(a) < 1.
Para manipular adequadamente conjuntos difusos, as opera-
ções básicas de conjuntos precisam ser estendidas para as funções
de pertinência. Uma extensão muito utilizada é a seguinte: dado
um elemento a que pertence a um conjunto com valor μ(a) e a um
segundo conjunto com valor μ’(a):
© U6 - Raciocínio com Incertezas 197

• O elemento a pertencerá à união dos dois conjuntos com


o maior valor dentre μ(a) e μ’(a).
• O elemento a pertencerá à intersecção entre os dois con-
juntos com o menor valor dentre μ(a) e μ’(a).
• O elemento a pertencerá ao complemento do conjunto
caracterizado por μ(a), por exemplo, com o valor (1 –
μ(a)).
Podemos utilizar conjuntos difusos para construir uma Lógi-
ca Difusa. Por exemplo, consideremos as seguintes sentenças:
• Flávio é gordo.
• Flávio é velho.
• Pessoas idosas ou acima do peso devem evitar alimentos
gordurosos.
Analisando as sentenças anteriores, notamos que as duas
primeiras sentenças são imprecisas e caracterizam a pertinên-
cia de um elemento (Flávio) a dois conjuntos difusos. A terceira
sentença caracteriza um terceiro conjunto (o conjunto das pesso-
as que devem evitar alimentos gordurosos), pela união dos dois
conjuntos anteriores. Se, por exemplo, Flávio pertencer ao con-
junto das pessoas gordas com grau 0.70 e ao conjunto das pesso-
as idosas com grau 0.60, podemos obter um limite inferior para o
quanto Flávio pertence ao conjunto das pessoas que devem evitar
alimentos gordurosos – nesse caso, com valor 0.70. Outros fatores
(caracterizados por outros conjuntos difusos) podem elevar ainda
mais esse valor, mas os dois conjuntos considerados já garantem
que ele não pode ser menor que 0.70.

9. REPRESENTAÇÃO SIMBÓLICA DE INCERTEZAS


Todas as técnicas vistas até o momento fundamentam-se na
representação e raciocínio de incertezas baseado na associação de
parâmetros numéricos a sentenças de uma linguagem e em sua
propagação desses parâmetros de forma consistente, com uma Te-
Claretiano - Centro Universitário
198 © Inteligência Artificial

oria Matemática de Representação de Incertezas. Uma alternativa


a esses mecanismos de representação e manipulação de incerte-
zas é alterar os próprios mecanismos de inferência da linguagem,
dessa forma permitindo transições entre sentenças controladas
por regras de inferência que caracterizem as incertezas.
O nome genérico utilizado para essa maneira de representar
e manipular incertezas é Representação Simbólica de Incertezas,
para contrastar com as representações numéricas vistas anterior-
mente. Um exemplo bastante estudado e utilizado de Representa-
ção Simbólica de Incertezas é o raciocínio não monotônico.
Todos os cálculos lógicos apresentados são denominados
monotônicos, pois, considerando um conjunto de axiomas (sen-
tenças iniciais) e um conjunto de regras de inferência, podem ser
apenas geradas novas sentenças lógicas. As regras de inferências
criam novas sentenças, mas nenhuma regra de inferência elimina
uma sentença nos cálculos lógicos estudados. Dessa forma, o con-
junto de sentenças de um cálculo lógico nunca diminui. De acordo
com a terminologia matemática usual, diz-se que o conjunto tem
cardinalidade monotonicamente crescente, o que justifica o nome
dado a esses cálculos lógicos.
Em uma lógica não monotônica, entretanto, uma regra de
inferência pode eliminar uma sentença.
Para ilustrar, de forma mais concreta, uma lógica não mono-
tônica, vamos considerar o sistema de raciocínio por defaults. Um
default é uma sentença lógica considerada verdadeira até que se
prove o contrário.
Observe o exemplo clássico de raciocínio com defaults. Con-
sidere inicialmente o cálculo de predicados de primeira ordem,
com as sentenças a seguir:
∀x pássaro( x) → voa ( x)
∀x pinguim( x) → pássaro( x)
pinguim( Jonas )
© U6 - Raciocínio com Incertezas 199

Utilizando o sistema de inferência visto nos módulos anterio-


res, pode-se deduzir com facilidade que:

voa ( Jonas )

Sabemos, entretanto, que os pinguins não voam. Para repre-


sentar esse fato, precisaríamos, por exemplo, da seguinte sentença:

∀x pinguim( x) →¬voa ( x)

Considerando o cálculo de predicados de primeira ordem


tradicional, teríamos uma teoria inconsistente, ou seja, em que
uma sentença e sua negação podem ser ambas deduzidas como
teoremas.
Uma saída possível é classificar as sentenças como
mais "fortes" e mais "fracas". Em nosso exemplo, a sen-
tença ∀x pinguim( x) →¬voa( x) é mais "forte" que a sen-
tença ∀x pássaro( x) → voa ( x) . Assim, se a sentença
∀x pinguim( x) →¬voa ( x) não estiver presente na teoria lógica,
a conclusão voa( Jonas ) é uma conclusão válida. Se a sentença
∀x pinguim( x) →¬voa ( x) for incluída na teoria lógica, ela se sobre-
põe à sentença ∀x pássaro( x) → voa( x) , e a conclusão válida passa
a ser ¬voa( Jonas ) .
Se tivermos apenas dois níveis de sentenças (as "fortes" e
as "fracas"), elas podem ser rotuladas. Uma alternativa frequen-
temente utilizada é incluir novos símbolos de implicação lógica no
cálculo lógico, dessa forma indicando graficamente qual sentença
é mais "forte". Poderíamos, por exemplo, reescrever a primeira
sentença como:
∀x pássaro( x)  voa ( x) .

Essa representação serviria para indicar que a sentença an-


terior é mais "fraca" e que as sentenças construídas a partir dela,
por meio de mecanismos de inferência, podem eventualmente ser
eliminadas por sentenças mais "fortes".

Claretiano - Centro Universitário


200 © Inteligência Artificial

Em outras palavras, em um sistema de raciocínio por default,


algumas sentenças são menos seguras que outras, pois elas po-
dem ser eliminadas – naturalmente carregando consigo todas as
suas consequências lógicas.
Diversos outros sistemas lógicos como esse têm sido propos-
tos e construídos para representar incertezas sem utilizar ordena-
ções baseadas em números reais. Conceitualmente, todos esses
sistemas lógicos são interessantes e expressivos. Computacional-
mente, entretanto, eles apresentam problemas, pois qualquer con-
clusão lógica pode a qualquer momento deixar de ser válida – por
resultar direta ou indiretamente de uma sentença "fraca" – e, dessa
forma, todas as conclusões lógicas precisam ser permanentemente
verificadas, o que implica altos custos computacionais para manter
um corpo consistente e confiável de conclusões lógicas.

10. QUESTÕES AUTOAVALIATIVAS


As questões autoavaliativas foram propostas para que você
possa verificar sua aprendizagem e a necessidade de retomar os
estudos da unidade.
1) Como se classificam os formalismos para representar in-
certezas em Inteligência Artificial? Cite e explique com
suas palavras.
2) Em que se baseia a Teoria de Probabilidades para repre-
sentação de incertezas?
3) Qual é o princípio de redes bayesianas para a represen-
tação do conhecimento?

11. CONSIDERAÇÕES
A representação e manipulação de informações incertas,
bem como o Raciocínio com Incertezas, constitui um tópico im-
portante e amplamente estudado dentro da Inteligência Artificial.
Esse tópico tem grande interesse prático e proporciona grandes
desafios de pesquisa.
© U6 - Raciocínio com Incertezas 201

Com o estudo desta unidade, chegamos ao final do Cader-


no de Referência de Conteúdo de Inteligência Artificial. Os estudos
proporcionados foram, naturalmente, introdutórios e enfatizaram
somente alguns tópicos dentro dessa grande área de pesquisa e
desenvolvimento tecnológico. Nosso principal objetivo foi possibi-
litar a você o estudo dessa área de pesquisa científica, a sua aplica-
bilidade prática e alguns de seus conceitos fundamentais. Baseado
neste estudo, acreditamos que com o seu interesse e dedicação
você esteja preparado para aprofundá-los, se assim o desejar.
Esperamos ter motivado o interesse pela área de Inteligência
Artificial e desejamos sucesso em suas pesquisas futuras sobre o
tema.

12. REFERÊNCIAS BIBLIOGRÁFICAS


RUSSELL, S.; NORVIG, P. Artificial intelligence: a modern approach. New Jersey: Prentice-
Hall, 1995.
SOWA, J. Knowledge representation: logical, philosophical and computational foundations.
Oxford: Blackwell, 1999.

Claretiano - Centro Universitário


Claretiano - Centro Universitário

Você também pode gostar