Você está na página 1de 24

Teoria e

Redes Lógicas
de Markov
Aplicações

Aluno: Victor Mariano Leite Prado de Souza


Artigo-base
Redes Lógicas
de Markov
Introdução
• Primeiro artigo sobre veio em 2004, por Pedro
Domingos e Matthew Richardson;

• Objetivo era unificar a abordagem probabilística da


inteligência artificial e a formalidade com que a
lógica consegue representar sistemas;

• Influenciada pela lógica probabilística [Nilsson,


1986];
Redes Lógicas
de Markov
Unificando Lógica e Estatística
• A Lógica de Primeira Ordem não consegue, sozinha,
estabelecer relações quantitativas de frequências
como estimar uma causa ou correlação;

• Lógica de Primeira Ordem é conhecida pela sua


“rigidez”;

• Não aceita “meias-verdades”, graduações no


sistema, ou é V ou é F.

• Algoritmos exatos de satisfatibilidade para fórmulas


lógicas são NP-completos;
• Existem lógicas que aceitam “graus”, como a
lógica fuzzy e probabilística, mas para a maioria
das aplicações como análise de sistemas
complexos são ineficientes.

• Uma abordagem probabilística poderia se


aproveitar da lógica para modelar o sistema,
vice-versa;

• Lógica cuida da complexidade relacional do


sistema, estatística cuida da incerteza.
Redes Lógicas
de Markov
Conceitos Básicos
• Também chamadas de MLN ( Markov Logic Networks );

• Servem de molde para montar uma Rede de Markov;

• Probabilidade conjunta de uma instância x:

!
P(x) = exp(∑( 𝑤 ( 𝑛 ( 𝑥 ) ;
"

onde w é o peso de uma fórmula e n é o número de


instâncias dela.
• Numa rede de Markov normalmente atribuímos uma
função potencial/fator aos cliques ( subgrafos
completos do grafo ), e não faremos diferente numa
Rede Lógica de Markov:

1
𝑃 𝑥 = 𝑍 ∏𝑐 Φ𝑐 𝑥𝑐

• Num modelo log-linear ficaria:

1
𝑃(𝑥) = 𝑍
exp(∑𝑖 𝑤 𝑖 𝑛𝑖 𝑥 );
Redes Lógicas
de Markov
Técnicas de inferência
• MAP/MPE:
• MaxWalkSAT
• LazySAT

• Probabilidade marginal e condicional:


• Monte Carlo: MC-SAT. Etc..
• Knowledge-based model construction
• Lifted-belief propagation

• Estado da arte: Weighted Model Counting


Redes Lógicas
de Markov
Técnicas de aprendizagem
• As técnicas de aprendizagem se dividem na
aprendizagem do peso das fórmulas e na aprendizagem
das próprias fórmulas do sistema;

• Para aprender novas fórmulas, os métodos mais comuns


envolve recombinar fórmulas simples e expandir elas,
armazenando no KB se trouxerem benefícios na
modelagem do sistema e na acurácia dos algoritmos;

• Usam métodos comuns como método do gradiente e


pseudo-verossimilhança;

• Gradiente do log da verossimilhança:


𝜕
𝑙𝑜𝑔 𝑃𝑤 𝑦 𝑥 = 𝑛𝑖 𝑥, 𝑦 − 𝐸𝑤 𝑛𝑖 𝑥, 𝑦 , para
𝜕𝑤𝑖
fazer a aprendizagem dos pesos.
As MLN generalizam:

• Redes de Markov;

• Redes Bayesianas;

• Modelos exponenciais;

• Modelos de máxima entropia;

• Distribuições de Gibbs;

• Máquinas de Boltzmann;

• Regressão Logística etc;


Redes Lógicas
de Markov
Aplicações
Aplicações:

• Classificação coletiva;

• Predição de conexões;

• Mapeamento de base de
conhecimento, integração e
refinamento;

• Extração de semântica de redes;

• Semantic Parsing;

• Robótica, processamento de linguagem


natural e web mining etc.
Redes Lógicas
de Markov
Tema da pesquisa
• Inspirado no desafio do Kaggle “The 3rd
YouTube-8M Video Understanding Challenge”;

• O objetivo da pesquisa é fazer uma análise


semântica de vídeos, para extrair categorias do
vídeo e durante o vídeo, a partir da lógica
interna dele;

• Possivelmente usar MLN’s pode reduzir o


tempo de execução da classificação para vídeos
médios e longos.
Redes Lógicas
de Markov
Conclusão
• Comparar os resultados de um método que use
as MLN com o estado-da-arte em análise
semântica de vídeos;

• Incrementar à literatura de MLN mais


aplicações da técnica;

• E possivelmente superar o da literatura.


Referências:
• Nilsson, N. (1986). Probabilistic logic. Artificial Intelligence, 28, 71–87.
• Richardson, M. & Domingos, P. Mach Learn (2006) 62: 107. https://doi.org/10.1007/s10994-006-5833-1
• Pedro Domingos and Daniel Lowd. 2019. Unifying logical and statistical AI with Markov logic. Commun. ACM 62, 7
(June 2019), 74-83. DOI: https://doi.org/10.1145/3241978
• Chavira, M., & Darwiche, A. (2008). On probabilistic inference by weighted model counting. Artif. Intell., 172, 772-
799.
• Ge, Runzhou et al. “MAC: Mining Activity Concepts for Language-Based Temporal Localization.” 2019 IEEE Winter
Conference on Applications of Computer Vision (WACV)(2018): 245-253.

Você também pode gostar