Escolar Documentos
Profissional Documentos
Cultura Documentos
ANNLecture2 PDF
ANNLecture2 PDF
Neural Computa4on
Lecture 2
Patricia
A.
Vargas
Lecture
2
I. Lecture
1
–
Revision
II. Ar4ficial
Neural
Networks
(Part
I)
I. Ar4ficial
Neuron
II. Neural
Network
Architectures
III. Learning
Paradigms
F21BC2‐BIC‐Neural
Computa4on
2
Biological
Neural
Network
•
How
does
our
brain
process
all
the
informa4on
it
receives/
perceives
and
what
are
the
main
mechanisms
involved?
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
h
N e tw o rk o f
n e u ro n s
N e u ro n
B ra in
S yn a p se
The Synapse
5
Ar4ficial
Neural
Networks
(ANN)
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
• History
1943
1948
McCulloch e Pitts
Wiener
1949 Hebb
1957 Rosenblatt
1958 Widrow e Hoff
!!! !!!
1969 Minsky e Papert
!!! !!!
1960- Kohonen, Grossberg, Widrow,
1980 Anderson, Caianiello,
Fukushima, Aleksander
!!! !!!
1974 Werbos
!!! !!!
1982 Hopfield
1986 Rumelhart e McClelland
6
Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais
mas não ambas. Exemplo: Este curso é IA353. Contra-exemplo: Qual seu nome?
• Embora com os conhecimentos atuais sobre os mecanismos físicos e químicos
envolvidos na transmissão de sinais no cérebro seja possível afirmar que nenhum
Ar4ficial
Neural
Networks
IA353 – Profs. Fernando J. Von Zuben & Romistipo
R. F.de
Attuxlógica das proposições é realizada no cérebro, o neurônio de McCulloch e
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
Pitts pode ser visto como um caso particular do neurônio genérico utilizado em
IA353 – Profs
• McCulloch
and
Pi[s
(1943)
RNAs. DCA
• Considere a representação simbólica do neurônio de McCulloch e Pitts:
1943 McCulloch e Pitts
– first
ar4ficial
neuron
model
Função de
1948 Wiener Tópico 4: Projeto de Redes Neurais Artificiais ativação 11
1949 Hebb x1 u y
1957 Rosenblatt
1958 Widrow e Hoff x2 ! f(u)
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
!!! !!! – x1
and
x2:
Função de
Saída
f(u)
1969 Minsky e Papert Junção
ativação
– u:
result
of
the
summing
junc4on
x1 u somadora y
!!! !!! !
xf(u)
:
ac4va4on
func4on
f(u)
– 2
1960- Kohonen, Grossberg, Widrow, Saída
1980 Anderson, Caianiello, – y
:
output
Cada neurônio
•Junção possui um limiar (threshold) fixo ", e
somadora " u
Fukushima, Aleksander • A cada iteração t, o neurônio responde a suas entra
• Cada neurônio possui um limiar (threshold) fixo ", e recebe algumas entradas.
!!! !!! – MCCULLOCH,
W.S.
&
PITTS,
W.
“A
logical
1974 Werbos estado do neurônio
responde a suaspré-sináptico.
calculus
of
the
ideas
immanent
in
nervous
• A cada iteração t, o neurônio Serefletem
entradas sinápticas, que nenhuma
o si
estado do neurônio pré-sináptico. Se nenhuma sinapse inibitória está ativa, o
!!! !!! ac4vity”,
Bulle4n
of
Mathema4cal
neurônio integra
neurônio integra (soma) suas entradas,(soma) suas líquida
gerando a entrada entradas, gerando a
(ou entrada
1982 Hopfield Biophysics,
vol.
5,
pp.
115‐133,
1943.
interna) u do neurônio, e verifica se u é maior do que o limiar ". Caso positivo, o
1986 Rumelhart e McClelland interna) u do neurônio, e verifica se u é maior do qu
neurônio responde com um sinal de saída de valor 1. Caso negativo, ele responde
1943
1948
McCulloch e Pitts
Wiener
• Norbert
Wiener
(1948)
1949 Hebb – WIENER,
N.
(1948)
1957 Rosenblatt
1958 Widrow e Hoff “Cyberne4cs”,
The
MIT
Press.
!!! !!!
1969 Minsky e Papert
!!! !!!
1960- Kohonen, Grossberg, Widrow,
1980 Anderson, Caianiello,
Fukushima, Aleksander
!!! !!!
1974 Werbos
!!! !!!
1982 Hopfield
1986 Rumelhart e McClelland
8
Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais
Ar4ficial
Neural
Networks
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
1943
1948
McCulloch e Pitts
Wiener
• Donald
Hebb
(1949)
1949 Hebb – Hebbian
Learning
1957 Rosenblatt
1958 Widrow e Hoff
!!! !!!
1969 Minsky e Papert – Hebb,
D.O.
(1949),
“The
!!! !!! organiza4on
of
behavior”,
1960- Kohonen, Grossberg, Widrow,
1980 Anderson, Caianiello,
New
York,
Wiley.
Fukushima, Aleksander
!!! !!!
1974 Werbos
!!! !!!
1982 Hopfield
1986 Rumelhart e McClelland
9
Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais
Ar4ficial
Neural
Networks
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
• Frank
Rosenbla[
(1957)
1943 McCulloch e Pitts
– Perceptron
1948 Wiener
1949 Hebb
1957 Rosenblatt
1958 Widrow e Hoff
!!! !!!
1969 Minsky e Papert
!!! !!!
1960- Kohonen, Grossberg, Widrow,
1980 Anderson, Caianiello,
Fukushima, Aleksander
!!! !!!
1974 Werbos – Rosenbla[,
F.
(1958),
“The
perceptron:
A
!!! !!! probabilis4c
model
for
informa4on
1982 Hopfield storage
and
organiza4on
in
the
brain,
1986 Rumelhart e McClelland Psychological
Review,
v65,
n6,
pp:
386‐408.
F21BC2‐BIC‐Neural
Computa4on
2010
10
Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais
Ar4ficial
Neural
Networks
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
1943
1948
McCulloch e Pitts
Wiener • Marvin
Minsky
and
Seymour
1949 Hebb Papert
(1969)
1957 Rosenblatt
1958 Widrow e Hoff – Book:
“Perceptrons”.
!!! !!! – This
book
marked
the
1969 Minsky e Papert
beginning
of
the
“dark
era”
in
!!! !!!
1960- Kohonen, Grossberg, Widrow, ANN
research
–
the
field
1980 Anderson, Caianiello, stagnated
for
more
than
10
Fukushima, Aleksander years.
!!! !!!
1974 Werbos – New
updated
version
of
the
!!! !!! book
was
published
in
1988.
1982 Hopfield
1986 Rumelhart e McClelland
12
Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais
Ar4ficial
Neural
Networks
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
1943
1948
McCulloch e Pitts
Wiener
• Hopfield
(1982)
1949 Hebb – Hopfield
ANN:
a
recurrent
1957 Rosenblatt ar4ficial
neural
network
1958 Widrow e Hoff
!!! !!!
1969 Minsky e Papert – HOPFIELD,
J.J.
(1982),
“Neural
!!! !!! networks
and
physical
systems
1960- Kohonen, Grossberg, Widrow, with
emergent
collec4ve
1980 Anderson, Caianiello,
Fukushima, Aleksander computa4onal
abili4es”,
!!! !!! Proceedings
of
the
Na8onal
1974 Werbos Academy
of
Sciences
of
the
!!! !!! U.S.A.,
vol.
79,
pp.
2554‐2558.
1982 Hopfield
1986 Rumelhart e McClelland
13
Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais
Ar4ficial
Neural
Networks
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
1943
1948
McCulloch e Pitts
Wiener
• Rumelhart
and
McClelland
1949 Hebb (1986)
1957 Rosenblatt – Backpropaga4on
Algorithm
to
1958 Widrow e Hoff train
Mul4‐Layer
perceptron
!!! !!! ANN.
1969 Minsky e Papert
!!! !!!
1960- Kohonen, Grossberg, Widrow, – RUMELHART,
D.E.
&
1980 Anderson, Caianiello, MCCLELLAND,
J.L.
(1986),
Fukushima, Aleksander “Parallel
Distributed
Processing:
!!! !!! Explora4ons
in
the
1974 Werbos Microstructure
of
Cogni4on”,
!!! !!! vols.
1
&
2,
The
MIT
Press.
1982 Hopfield
1986 Rumelhart e McClelland
14
Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais
nção de ativação. multiplicado por um valor constante de entrada igual a +1:
#1 se u ! 0 Tópico 4: Projeto de Redes Neurais Artificiais
y = f (u ) = "
!0 caso contrário
Ar4ficial
Neural
Networks
15
ojeto de Redes Neurais Artificiais
onde u = x1 + x2 # b (para b negativo).
IA3
• Generic
Ar4ficial
Neurons
Tópico 4: Projeto de Redes Neurais Artificiais
• Note
IA353 – Profs. Fernando J. Von Zuben & Romis que
R. F. Attux
17 genérico é s
a saída deste neurônio
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
x2 ativação
) m &
wk2
u y
y k = f (u k ) = f ' *
' k wkj x j + bk $
Entradas
• Note que a saída deste neurônio genérico é simplesmente um número, a presença
Signals
k k
u y
$
Input
"
Signals
f(u )
! ( %
Input
k
j =1 f(uk)
…
…
wkm Output
Saída Saída
Output
wkm
Summing
de neurônios, • É possível
denominados spiking neurons, que utilizam
Junção simplificar
disparos discretos.a notação acima de
Summing
Junção
Junc4on
somadora Junc4on
somadora
xm definindo
• Matematicamente, a saída do neurônio k pode serxmdescrita por:um sinal de entrada de valor x0 = 1
representação, o primeiro subscritomk do peso sináptico wkj corresponde ao ) m &
) &
io pós-sináptico, eyok = f ' * wcorresponde
'
f (u k ) =subscrito
segundo
$
kj x j + bk $
y k = f (u k ) = f ' wkj x j $$
à sinapse ligada a ele.
' 19
Tópico 4: Projeto de Redes Neurais Artificiais *
( j =1 % ( j = 0 %
ão somadora soma todos os sinais de entrada ponderados pelos pesos das
• É possível simplificar a notação acima de forma a incluirvários
• Existem o biastipossimplesmente
de função de ativação c
ões. Assumindo os vetores de entrada e de pesos como sendo vetores coluna, 15
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
m k k k
a do neurônio de McCulloch e Pitts: 0.8
xm p=3
0.6
p=1.5
p=3
p=0.8
0.5
0.6
p=1.5
Ar4ficial
Neural
Networks
0.4
0.3
0.2
0.2
IA353
0.1– Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
0
0
$
-5 0 5 -5 0 5
1 se pu k # 1
a) ! b)
• Ac4va4on
func4ons
com p constante e positivo.
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux f (u k ) = # pu k se 0 < pu k < 1
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp Função logística!"(a) e0 sua
se pderivada
uk " 0 em relação à entrada interna (b)
1
0.6
da = pu k (1 ! u k ) > 0 "y
e k + 1 1 + e ! pu k "u k y = f (u k ) = tanh( pu k ) = pu ! pu k = p (1 ! u 2k ) > 0
0
k
e +e 0 "u k
" u
0
a)
1/p
2.5
0
b)
1/p
0.8 1
1
Função semi-linear (a) e sua derivada em relação à entrada interna (b)
reshold) fixo ", e recebe algumas entradas.
0.8 p=3
0.7
p=1
2
20
0.6 0.5
p=1.5 p=0.6
p=3 p=2.2
onde a suas entradas sinápticas, que refletem o
0.6
p=0.8
0.5
p=1.5
1.5
p=1
0.4 0
0.5
0.1
a) b) a) b)
e saída de valor 1. Caso negativo, ele responde Função tangente hiperbólica (a) e sua derivada em relação à entrada interna (b)
• Embora com os conhecimentos atuais sobre os mecanismos físi
do neurônio de McCulloch e Pitts: envolvidos na transmissão de sinais no cérebro seja possível afirm
tipo de lógica das proposições é realizada no cérebro, o neurônio d
Ar4ficial
Neural
Networks
11
Pitts pode ser visto como um caso particular do neurônio genéri
RNAs.
• Ac4va4on
func4ons:
Threshold
Func4on
• Considere a representação simbólica do neurônio de McCulloch e P
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
Tópico 4: Projeto de Redes Neurais Artificiais
f(u)
If
u
≥
Θ
then
“fire”
If
u
<
Θ
then
“don’t
fire”
IA353 – Profs. Fernando J. Von Zub
DCA/FEEC/Unicamp & D
" u
Função de f(u)
shold) fixo ", e recebe algumas entradas. ativação
1 x u y
de a suas entradas sinápticas, que refletem o
x2
Se nenhuma sinapse inibitória está ativa, o
! f(u)
Saída
das, gerando a entrada líquida (ou entrada Junção
u é maior do que o limiar ". Caso positivo, o somadora "
Tópico 4: Projeto de Redes Neurais Artificiais 19
$ 1 se pu k # 1
! com p constante e positivo.
f (u k ) = # pu k se 0 < pu k < 1
• Ac4va4on
func4ons:
Piece‐wise
linear
func4on
!
" 0 se pu k " 0
0.8 p If
puk
≥
1
then
f(uk)
=
1
0.6
If
0
<
puk
<
1
then
f(uk)
=
puk
If
puk
≤
0
then
f(uk)
=
0
0.4
0.2
0 0
0 1/p 0 1/p
• p
is
constant
and
posi4ve
a) b)
Ar4ficial
Neural
Networks
e 1 pu k
"y
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
y = f (u k ) = pu k
= ! pu k = pu k (1 ! u k ) > 0
e +1 1+ e "u k
• Ac4va4on
func4ons:
Sigmoid
func4on
0.8
1
0.7
IA353 – P
0.8 p=3
0.6
D
p=1.5
p=3
pu k
p=0.8
0.5
e 1
y = f (u k ) = =
0.6
p=1.5
e pu k + 1 1 + e ! pu k
0.4
p=0.8
0.4
0.3
0.2
0.2
0.1
0.8
0 1
0
-5 0 5 -5 0 5
0.7
a) b)
p=3
Função logística (a) e sua 0.8
derivada em relação à entrada interna (b) 0.6
p=1.5
p=0.8
-5 0 5 -5
a)
2.5
1
y = f (u k ) = tanh( pup=1
1.5
k) =
0
e pu k + e ! pu k
1 p=0.6
-0.5 2.5
1
0.5
p=2.2
-1 2
0
-5 0 5 -5 0 p=1 5
0.5
a) b) p=0.6
Função tangente hiperbólica (a) e sua derivada em relação à entrada interna (b) 1.5
0
IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux
DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp
Ar4ficial
Neural
Networks
1.2. Arquiteturas de Rede
• Muito pouco é sabido sobre os padrões de conexão entre os neurônios biológicos.
• Entretanto, a maioria das RNAs utilizam arquiteturas padronizadas, projetadas
• Architectures
especialmente para resolver algumas classes de problemas.
• O processo de conexão entre neurônios artificiais leva à geração de sinapses e à
construção de redes neurais artificiais.
1 wi0
yj
g
w
ui yi
g
xij
wij
$
$% wo 0do w
• Esta rede é denominada feedforward porque a propagação sinal
o1 !
• Architectures:
Single‐layer
Feedforward
Networks
da entrada para a saída, ou seja, é apenas no sentido positivo.
Tópico 4: Projeto de Redes Neurais Artificiais
x1 y1
Wk
is
the
synap4c
weight
matrix
of
layer
k
x2 y2
…
…
yo
… …
xm
Camada de
entrada Primeira
camada
Segunda
camada
Camada de
saída y = f3(W3 f2(W2 f1(W1x)))
escondida escondida
Z!1
Ex:
Hopfield
Neural
Network
Z!1
Z!1
I. feita
(t) pode ser Supervised
Learning
de diversas formas. O tipo de aprendizado é
II. Unsupervised
Learning
écnica empregada no processo de ajuste dos pesos sinápticos
e neural). III. Reinforcement
Learning
rais Artificiais 32
Lecture
2
I. Lecture
1
–
Revision
II. Ar4ficial
Neural
Networks
(Part
I)
26
Lecture
2
Reading
list/Homework
‐ Read
Chapter
1.3
and
1.6
(inclusive)
from
the
book:
“Neural
Networks
and
Learning
Machines”
(3rd
Edi4on)
by
Simon
O.
Haykin
(Nov
28,
2008)
‐ Answer
ques4ons
6‐7
from
the
Tutorial
material
27
Lecture
2
Related
videos:
• The Human Brain Project (Overview)
h[p://www.youtube.com/watch?v=JqMpGrM5ECo
28
Lecture
3
What’s
next?
Ar4ficial
Neural
Networks
(Part
II)
29