Você está na página 1de 21

Redes Bayesianas

 Introducción
 La lógica de la incertidumbre
 Redes Bayesianas
 La información cada día tiene mayor
relevancia. Sin embargo, no siempre es
posible adquirir la información completa y
precisa necesaria para resolver un problema o
para una aplicación real
 En la mayoría de los casos ese conocimiento
no está disponible a priori como sería de
desear.
 La información suele estar impregnada de la
incertidumbre propia del lenguaje natural, lo
que nos obliga a inferir o recolectar de alguna
manera la información que no se posee.
 Esta incertidumbre en un entorno dado, en un
dominio del conocimiento puede provenir:
◦ Poca fiabilidad de la información (apreciaciones
subjetivas, limitaciones físicas de los sensores).
Puede ser imprecisa, incompleta e incluso errónea.
◦ Del modelo del que se dispone, que puede ser
incompleto e inexacto.
◦ Del dominio de la aplicación que suele ser complejo
y no determinista.
◦ Imprecisión inherente al lenguaje (el experto
expresa sus conocimientos en lenguaje natural).
 La lógica clásica no ofrece un marco
adecuado para la representación del
conocimiento de tipo impreciso y subjetivo.
 Además, no permite la realización de
razonamientos donde la incertidumbre deba
ser tenida en cuenta. Por eso para trabajar
con imprecisión se ha aplicado otras técnicas
como la lógica difusa y redes bayesianas.
 La teoría de la probabilidad se puede aplicar:
◦ A sucesos o eventos: probabilidad de frecuencia o
de ocurrencia.
◦ A las proposiciones: probabilidad de que sean o no
ciertas
 Indica su grado de credibilidad basada en
evidencias de que disponemos.

 Por ejemplo, la probabilidad de que mañana


llueva teniendo en cuenta la información
meteorológica de que disponemos.

 Lo incompleto de la información de que


disponemos nos lleva a asignar un grado de
certidumbre o de credibilidad a las
proposiciones.
 La probabilidad de que una variable aleatoria
pueda ocurrir o no, o que una proposición Xi,
sea cierta o no lo sea, se denomina
probabilidad a priori. Es decir, representa la
probabilidad de que algo ocurra p(A) antes de
considerar ninguna información adicional
p(A|E).
 Supongamos que tenemos dos proposiciones
X e Y, y una serie de evidencias o hipótesis
que recogemos bajo la proposición Z. Se
designa P(X|Z) a la probabilidad condicional
de que X sea verdadera dado que Z es
verdadera. También se suele decir, la
probabilidad de X dada Z.
 Las técnicas Bayesianas son procedimientos
que se basan en el uso dl Teorema de Bayes.
Son muy utilizadas en minería de datos,
especialmente para tareas de clasificación.

 Según el Teorema, si se tiene una hipótesis H


respaldada por una evidencia E, entonces la
probabilidad de que dicha hipótesis sea cierta
viene determinada por:
𝑝 𝐸 𝐻 𝑥 𝑝(𝐻)
𝑝 𝐻𝐸 =
𝑝(𝐸)
Id Tiempo Temperatura Humedad Viento Jugar

1 Soleado Alta Alta No No


2 Soleado Alta Alta Si No
3 Nublado Alta Alta No Si
4 Lluvioso Media Alta No Si
5 Lluvioso Baja Normal No Si
6 Lluvioso Baja Normal Si No
7 Nublado Baja Normal Si Si
8 Soleado Media Alta No No
9 Soleado Baja Normal No Si
10 Lluvioso Media Normal No Si
11 Soleado Media Normal Si Si
12 Nublado Media Alta Si Si
13 Nublado Alta Normal No Si
14 Lluvioso Media Alta Si No
 Se quiere predecir si se jugará o no un
determinado evento deportivo en la jornada
de mañana, para la que se prevé:
 (Tiempo = Soleado), (Temperatura = Media),
(Humedad = Normal), (Viento = No). Dicha
previsión será la evidencia E.
 En primer lugar, las diferentes hipótesis a
considerar serán las diferentes clases del
problema:
◦ H1: Dadas las evidencias anteriores, SI se jugará
◦ H2: Dadas las evidencias anteriores, NO se jugará
 A partir de ahí es necesario calcular la
probabilidad de que se cumplan dichas
hipótesis dada la evidencia E.
 Se calcula para H1:
𝑝 𝐸 𝐻1 𝑥 𝑝(𝐻1 )
𝑝 𝐻1 𝐸 =
𝑝(𝐸)
 Para calcular la 𝑝(𝐻1 ) basta con analizar el
conjunto de entrenamiento y ve, del total de
ejemplos cuántos pertenecen a la clase
jugar=SI , que es la hipótesis que se está
considerando:

𝐶𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 9
𝑝 𝐻1 = = = 0.64
𝐶𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠 14
Para calcular la 𝑝(𝐸|𝐻1 ) sería:
p(E|H1) = p(Tiempo = Soleado|H1) x
p(Temperatura = Media|H1) x p(Humedad =
Normal|H1) x (Viento = No|H1).

2 4 6 6
𝑝 𝐸|𝐻1 = 𝑥 𝑥 𝑥 = 0.044
9 9 9 9
 Para calcular la 𝑝 𝐻1 𝐸 :
𝑝 𝐸 𝐻1 𝑥 𝑝(𝐻1 )
𝑝 𝐻1 𝐸 =
𝑝(𝐸)

0.044𝑥0.64
=𝑝 𝐻1 𝐸 = = 0.028
𝑝(𝐸)
 Para calcular la 𝑝(𝐻2 ) basta con analizar el
conjunto de entrenamiento y ve, del total de
ejemplos cuántos pertenecen a la clase
jugar=NO , que es la hipótesis que se está
considerando:

𝐶𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 5
𝑝 𝐻2 = = = 0.39
𝐶𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠 14
Para calcular la 𝑝(𝐸|𝐻2 ) sería:
p(E|H2) = p(Tiempo = Soleado|H2) x
p(Temperatura = Media|H2) x p(Humedad =
Normal|H2) x (Viento = No|H2).

3 2 1 2
𝑝 𝐸|𝐻1 = 𝑥 𝑥 𝑥 = 0.002
5 5 5 5
 Para calcular la 𝑝 𝐻2 𝐸 :
𝑝 𝐸 𝐻2 𝑥 𝑝(𝐻2 )
𝑝 𝐻2 𝐸 =
𝑝(𝐸)
0.002𝑥0.39
=𝑝 𝐻1 𝐸 = = 0.0008
𝑝(𝐸)

La H1 = 0.028 es mucho mayor que la


probabilidad de la Hipótesis H2 = 0.0008.
Por lo tanto la predicción realizada es que
mañana SI se juega el encuentro.
1. La predicción si llueve o no, según los siguientes datos.
2. Con evidencia E= (Tiempo = Nublado), (Temperatura =
Baja), (Humedad = Baja), (Frio= Si).
Id Tiempo Temperatura Humedad Frio Llueve
1 Nublado Baja Baja Si Si
2 Soleado Alta Alta Si No
3 Nublado Media Alta Si Si
4 Nublado Media Alta No No
5 Nublado Baja Baja No Si
6 Soleado Baja Normal Si No
7 Nublado Baja Baja Si Si
8 Soleado Media Alta No No
9 Soleado Baja Baja Si Si
10 Nublado Media Normal No No
11 Soleado Media Normal No Si
12 Nublado Media Baja Si Si

Você também pode gostar