Você está na página 1de 6

Unidade Curricular: Inteligência Artificial II

Título: Redes Neurais Artificiais. Perceptron.


Tipo: Práctica
Número da Actividade: 09

Sumário:
9.1. Introdução .................................................................................................................. 1
9.2. Exercícios resolvidos ................................................................................................. 1
9.3. Bibliografia ................................................................................................................ 6

9.1. Introdução
Nesta aula temos por objectivo a resolução de exercícios sobre Redes Neurais
Artificias, com ênfase no Perceptron.
9.2. Exercícios resolvidos
Ex.1 A aprendizagem de máquinas é o processo pelo qual um agente altera de modo
automático as suas estruturas internas, de modo a realizar melhor tarefas do seu interesse,
nas condições impostas pelo ambiente. Existem três tipos de aprendizagem.
Numere os tipos de aprendizagem de máquinas estudados em salas de aulas, e explique
brevemente um deles.
Tipos de Aprendizagem:
1. Aprendizado supervisionado
2. Aprendizado não supervisionado
3. Aprendizado por reforço
O estudante deverá explicar apenas um deles:
1. Aprendizado supervisionado: São apresentadas ao computador exemplos de
entradas e saídas desejadas, fornecidas por um instrutor. O objectivo é aprender
uma regra geral que mapeia as entradas para as saídas
2. Aprendizado não supervisionado: Nenhum tipo de etiqueta é dado ao algoritmo
de aprendizado, deixando-o sozinho para encontrar estrutura nas entradas
fornecidas
3. Aprendizado por reforço: É fornecido um feedback ao programa, quanto a
premiações e punições, na medida em que é navegado o espaço do problema
Ex.2 Numere os componentes de um neurónio Artificial:
1. Entradas
2. Pesos
3. Somador
4. Função de Activação
5. Saída

Elaborado por: Eng.ª Lissette Montero Herrera | 1


Ex.3 Conhecido um neurónio Perceptron, com duas entradas e função de activação
conhecida, determine:

Função de activação
0; ∑2𝑖=1 𝑥𝑖 𝑤𝑖 < 𝑏𝑖𝑎𝑠 X1 -0,2
𝑦={
1; ∑2𝑖=1 𝑥𝑖 𝑤𝑖 ≥ 𝑏𝑖𝑎𝑠 Y
X2 -0,2
-0,4
a) Qual operação lógica que realiza o Perceptron?
1.º Há que criar uma tabela com todas as possíveis combinações:
Padrão x1 x2 y
1 0 0 ?
2 0 1 ?
3 1 0 ?
4 1 1 ?
Sabemos que: 𝑊 = {𝑤1 , 𝑤2 } = {−0.2, −0.2} e que 𝑏𝑖𝑎𝑠 = −0.4
Para cada padrão, calcular o valor de y:

Padrão 1: ∑2𝑖=1 𝑥𝑖 𝑤𝑖 = 𝑥1 𝑤1 + 𝑥2 𝑤2 = 0 ⋅ (−0.2) + 0 ⋅ (−0.2) = 0


Como ∑2𝑖=1 𝑥𝑖 𝑤𝑖 ≥ 𝑏𝑖𝑎𝑠 → 0 ≥ −0.4 então 𝑦 = 1

Padrão 2: ∑2𝑖=1 𝑥𝑖 𝑤𝑖 = 𝑥1 𝑤1 + 𝑥2 𝑤2 = 0 ⋅ (−0.2) + 1 ⋅ (−0.2) = −0.2


Como ∑2𝑖=1 𝑥𝑖 𝑤𝑖 ≥ 𝑏𝑖𝑎𝑠 → −0.2 ≥ −0.4 então 𝑦 = 1

Padrão 3: ∑2𝑖=1 𝑥𝑖 𝑤𝑖 = 𝑥1 𝑤1 + 𝑥2 𝑤2 = 1 ⋅ (−0.2) + 0 ⋅ (−0.2) = −0.2


Como ∑2𝑖=1 𝑥𝑖 𝑤𝑖 ≥ 𝑏𝑖𝑎𝑠 → −0.2 ≥ −0.4 então 𝑦 = 1

Padrão 4: ∑2𝑖=1 𝑥𝑖 𝑤𝑖 = 𝑥1 𝑤1 + 𝑥2 𝑤2 = 1 ⋅ (−0.2) + 1 ⋅ (−0.2) = −0.4


Como ∑2𝑖=1 𝑥𝑖 𝑤𝑖 ≥ 𝑏𝑖𝑎𝑠 → −0.4 ≥ −0.4 então 𝑦 = 1
Finalmente a tabela obtida corresponde a uma TAUTOLOGIA.
Padrão x1 x2 y
1 0 0 1
2 0 1 1
3 1 0 1
4 1 1 1

Elaborado por: Eng.ª Lissette Montero Herrera | 2


b) Porquê este neurónio pode realizar essa operação lógica? Fundamente sua resposta
usando como recurso o gráfico das regiões de classificação.
Conforme exercício anterior só há uma única região de classificação, porque é uma
tautologia (a saída sempre é um), o que faz o problema se linearmente separável.
1
Para 𝑦 = {
0

c) Para esse neurónio, qual a forma analítica da função que separa as regiões de
classificação?
𝑥1 𝑤1 + 𝑥2 𝑤2 = 𝑤0 sendo que 𝑤0 = 𝑏𝑖𝑎𝑠
Então, isolando uma variável temos que:
𝑤 𝑤 −0,2 −0,4
𝑥1 = − 𝑤2 𝑥2 + 𝑤0 → 𝑥1 = − −0,2 𝑥2 + −0,2 → 𝑥1 = −𝑥2 + 2
1 1

Ex.4 Se conhece o seguinte gráfico onde o eixo horizontal


é da variável X1 e o eixo vertical da variável X2. Os pontos
representam a saída de um neurónio Perceptron, onde:
1 𝑆𝑒 𝑟𝑒𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑎 𝑐𝑜𝑚
𝑦={
0 𝑆𝑒 𝑟𝑒𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑎 𝑐𝑜𝑚
a) Construir a tabela de verdade da operação lógica que
executa esse neurónio e dizer qual a operação.

1.º Há que completar a tabela, utilizado o gráfico (observe que nele você tem os valores
de x1, x2 e y)
Padrão x1 x2 y
1 0 0 1
2 0 1 0
3 1 0 0
4 1 1 0

Elaborado por: Eng.ª Lissette Montero Herrera | 3


2.º Se pode determinar que a operação que realiza o neurónio é a operação NOR ou
negação de OR.
b) Com base no gráfico, por que essa operação pode ser realizada por um neurónio
Perceptron?

Essa operação pode ser realizada pelo Percpetron porque é um problema linearmente
separável, isso significa que as duas regiões de classificação (𝑦 = 0 e 𝑦 = 1) podem ser
separadas por uma recta (função linear).
c) Qual a configuração de pesos do neurónio, após uma única iteração do algoritmo de
treinamento, se os pesos são todos inicializados com zero?

Primeiro há que fixar o valo do factor de aprendizado: ŋ = 0.5 (Pode ser qualquer outro
valor qualquer)
Lembrar que o algoritmo de treinamento do Perceptron é o seguinte:
1. Inicializar o vector de pesos com {0,0, 0,...}
2. Até o Perceptron produzir o resultado correto com cada exemplo de treinamento:
• Se produzir um 0 quando deve produzir 1: w = w + ŋ x
• Se produzir um 1 quando deve produzir 0: w = w - ŋ x
• Se não se equivocar com o exemplo não fazer nada.
0; ∑𝑛𝑖=0 𝑥𝑖 𝑤𝑖 < 0
E que: 𝑓(𝑢) = { , 𝑓(𝑢) é a saída real da rede neural.
1; ∑𝑛𝑖=0 𝑥𝑖 𝑤𝑖 ≥ 0
A fazer:
Nº 𝑿 𝑾 𝒖 f(u) Correcção de pesos

1 X = {-1, 0, 0} W = {0, 0, 0} 0 1 Não se faz correcção de pesos

2 X = {-1, 0, 1} W = {0, 0, 0} 0 1 A rede produzir 1 (saída real) quando devia produzir 0


(na tabela verdade):
w=w – ŋx={0,0,0}-0.5{-1,0,1}= {0.5,0,- 0.5}
3 X = {-1, 1, 0} W = {0.5, 0, -0.5} -0.5 0 Não se faz correcção de pesos

4 X = {-1, 1, 1} W = {0.5, 0, -0.5} -1 0 Não se faz correcção de pesos

Ex.5 Conhecido um neurónio Perceptron, com duas entradas e função de activação


indicada, determine:
Função de activação X1 0,2
2
0; ∑ 𝑥 𝑤
𝑖=1 𝑖 𝑖 < 𝑏𝑖𝑎𝑠
𝑦={ Y
1; ∑2𝑖=1 𝑥𝑖 𝑤𝑖 ≥ 𝑏𝑖𝑎𝑠
X2 0,1
bias = 0,3

Elaborado por: Eng.ª Lissette Montero Herrera | 4


a) Qual operação lógica realiza o Perceptron?
1.º Há que criar uma tabela com todas as possíveis combinações:
Padrão x1 x2 y
1 0 0 ?
2 0 1 ?
3 1 0 ?
4 1 1 ?
Sabemos que: 𝑊 = {𝑤1 , 𝑤2 } = {0.2, 0.1} e que 𝑏𝑖𝑎𝑠 = 0.3
Para cada padrão, calcular o valor de y:
Padrão 1: ∑2𝑖=1 𝑥𝑖 𝑤𝑖 = 𝑥1 𝑤1 + 𝑥2 𝑤2 = 0 ⋅ (0.2) + 0 ⋅ (0.1) = 0
Como ∑2𝑖=1 𝑥𝑖 𝑤𝑖 ≥ 𝑏𝑖𝑎𝑠 → 0 < 0.3 então 𝑦 = 0
Padrão 2: ∑2𝑖=1 𝑥𝑖 𝑤𝑖 = 𝑥1 𝑤1 + 𝑥2 𝑤2 = 0 ⋅ (0.2) + 1 ⋅ (0.1) = 0.1
Como ∑2𝑖=1 𝑥𝑖 𝑤𝑖 ≥ 𝑏𝑖𝑎𝑠 → 0.1 < 0.3 então 𝑦 = 0
Padrão 3: ∑2𝑖=1 𝑥𝑖 𝑤𝑖 = 𝑥1 𝑤1 + 𝑥2 𝑤2 = 1 ⋅ (0.2) + 0 ⋅ (0.1) = 0.2
Como ∑2𝑖=1 𝑥𝑖 𝑤𝑖 ≥ 𝑏𝑖𝑎𝑠 → 0.2 < 0.3 então 𝑦 = 0
Padrão 4: ∑2𝑖=1 𝑥𝑖 𝑤𝑖 = 𝑥1 𝑤1 + 𝑥2 𝑤2 = 1 ⋅ (0.2) + 1 ⋅ (0.1) = 0.3
Como ∑2𝑖=1 𝑥𝑖 𝑤𝑖 ≥ 𝑏𝑖𝑎𝑠 → 0.3 ≥ 0.3 então 𝑦 = 1

Finalmente a tabela obtida corresponde a uma operação AND.


Padrão x1 x2 y
1 0 0 0
2 0 1 0
3 1 0 0
4 1 1 1

b) Porquê este neurónio pode realizar essa operação lógica? Fundamente sua resposta
usando como recurso o gráfico das regiões de classificação.
O estudante deve demonstrar e explicar que a operação 𝑥2

lógica AND é linearmente separável, por isso um neurónio


Perceptron pode aprender esta operação 0,1) 1,1)
1
Para 𝑦 = {
0

𝑥1
0,0) 1,0)

Elaborado por: Eng.ª Lissette Montero Herrera | 5


c) Determine a recta que separa ambas as regiões de classificação se a forma analítica
𝑤 𝑤
é igual a: 𝑥1 = − 𝑤2 𝑥2 + 𝑤0 .
1 1
𝑥1 𝑤1 + 𝑥2 𝑤2 = 𝑤0 sendo que 𝑤0 = 𝑏𝑖𝑎𝑠
Então, isolando uma variável temos que:
𝑤2 𝑤0 0,1 0,3
𝑥1 = − 𝑥2 + → 𝑥1 = − 𝑥2 +
𝑤1 𝑤1 0,2 0,2
d) Se o neurónio não estiver treinado, qual a configuração de pesos do neurónio, após
uma única iteração do algoritmo de treinamento, se os pesos são inicializados com
zero? Considere a constante 𝜂 = 0,3.
O valor da constante ŋ = 0,3.
Padrão X W u f(u) Correção de pesos

1 X = {-1, 0, 0} W = {0, 0, 0} 0 1 W = W – ŋX = {0, 0, 0} - 0.3{-1, 0, 0} = {0.3, 0, 0}

2 X = {-1, 0, 1} W = {0.3, 0, 0} -0.3 0 Não se faz correcção de pesos

3 X = {-1, 1, 0} W = {0.3, 0, 0} -0.3 0 Não se faz correcção de pesos

4 X = {-1, 1, 1} W = {0.3, 0, 0} -0.3 0 W = W + ŋX = {0.3, 0, 0} + 0.3{-1, 1, 1} = {0, 0.3, 0.3}

A configuração de pesos do Perceptron, após uma única iteração do algoritmo de


aprendizado é: W = {0, 0.3, 0.3}

9.3. Bibliografia
Furtado, M. I. (2019). Redes Neurais Artificiais: Uma abordagem para sala de aula.
Belo Horizonte: Atena Editora.
Haykin, S. (2001). Redes Neurais – Princípios e Práticas. Porto Alegre: Editora
Bookman.
Joshi, A. V. (2020). Machine Learning and Artificial Integillence. Springer.
doi:https://doi.org/10.1007/978-3-030-26622-6

Elaborado por: Eng.ª Lissette Montero Herrera | 6

Você também pode gostar